viernes, 19 de octubre de 2012



ARQUITECTURA vs MICROARQUITECTURA

La arquitectura de un ordenador está constituida por la arquitectura de su conjunto de instrucciones o ISA (del inglés Instruction Set Architecture) y su microarquitectura.

Arquitectura del ordenador = Arquitectura del conjunto de instrucciones (ISA) + Microarquitectura

La arquitectura del conjunto de instrucciones (ISA) es una imagen abstracta del sistema de computación tal como sería visto por un programador en lenguaje máquina, e incluye el conjunto de instrucciones, modos de direccionamiento, registros y formatos de direcciones y datos soportados por el procesador o CPU (del inglés Central Processing Unit).

Los procesadores, y por extensión los ordenadores, quedan definidos por tanto en base a la arquitectura del conjunto de instrucciones que implementan, así podemos encontrar referencias a procesadores u ordenadores de tipo CISC, RISC o SISC:

  • CISC (Complex Instruction Set Computer).
  • RISC (Reduced Instruction Set Computer).
  • SISC (Specific Instruction Set Computer).

En arquitectura de computadoras, 16 bits, 32 bits o 64 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 16 bits, 32 bits o 64 bits de ancho. En el tema que nos ocupa, se utilizan para referirse a una arquitectura de procesador basadas en registros, bus de direcciones o bus de datos que permiten procesar (interna y externamente) datos de ese ancho.

Diferentes familias de procesadores pueden tener diferentes ISA, por este motivo, un programa compilado para un tipo de máquina no podrá ejecutarse en otra con un conjunto de instrucciones diferentes. Del mismo modo, un procesador con una arquitectura de 32 bits no podrá ejecutar un sistema operativo u otra aplicación compilada para una arquitectura/procesador de 64 bits. Sin embargo, por compatibilidad hacia atrás, lo inverso suele ser posible, es decir, podemos ejecutar aplicaciones de 32 bits en procesadores de 64 bits.

La microarquitectura, en cambio, es de nivel más inferior, más concreto. Muestra las partes constituyentes del sistema y cómo se interconectan e interoperan, para así implementar la especificación de la arquitectura. La microarquitectura generalmente es representada empleando un diagrama de bloques que describe las interconexiones entre registros, buses y bloques funcionales de la máquina.



Diferentes ordenadores podrían tener una misma arquitectura del conjunto de instrucciones, y así ser capaces de ejecutar los mismos programas, sin embargo, pueden tener diferentes microarquitecturas. Esas diferentes microarquitecturas (junto con los avances en las tecnologías de fabricación de semiconductores) son las que permiten nuevas generaciones de procesadores que permiten alcanzar mejores niveles de rendimiento o performance comparadas con las generaciones previas.

TRADE-OFF

La Teoría del Trade-Off tiene sus orígenes en las teorías de la toma de decisión, fundamentalmente en el concepto de optimalidad paretiana, que conduce al concepto de tasa de intercambio (o Trade-Off) entre dos criterios. El Trade Off indica en cuánto varía un criterio para lograr un incremento unitario en otro criterio.

Cuando se está en presencia de un problema, por lo general se da un conflicto entre objetivos o cualidades versus costos o defectos; es por eso que en un proceso de toma de decisiones es necesario tener una visión holística del hecho, con la finalidad de considerar todos los elementos que involucren la decisión. Normalmente, al analizar un problema lo abordamos desde el punto de vista cualitativo, para ello quien toma las decisiones se basa fundamentalmente en considerar sus experiencias previas en la solución de problemas semejantes. En la medida en que el problema sea demasiado complejo o el tomador de decisiones no tenga experiencias previas, resulta útil la realización de un análisis cuantitativo, esto no significa que se deba soslayar la importancia de contar con ambos puntos de vista para tomar la mejor decisión posible, pues al considerarse se maximiza la efectividad en la toma de decisiones final

UNIFICACION DEL SET DE INSTRUCCIONES

El ISA marca la división entre el hardware y el software.
Incluye aquellos aspectos visibles por un programa de aplicación o puede incluir aquellos aspectos visibles sólo por el sistema operativo.

Al unir más de una instrucción en forma lógica y coherente, se crea un programa.
Mediante el uso de estos, la computadora es capaz de recibir, procesar y almacenar información. En otras palabras, una computadora no es útil si no tiene un programa que le indique lo que tiene que hacer.

Actualmente china esta desvalorando la unificación de instrucciones:

Con más de mil trescientos millones de habitantes y un sistema de gobierno comunista no sorprende la noticia. Como ya ha ocurrido en otras ocasiones, China busca un conjunto de instrucciones estándar. Un conjunto de instrucciones, definido por las siglas ISA en inglés, son aquellas operaciones de bajo nivel que son capaces de ejecutar los microprocesadores y sobre las que se implementan soluciones como los sistemas operativos.

La búsqueda de un conjunto de instrucciones nacionales parece no gustar a las compañías desarrolladoras como ARM. Pero más allá de la unificación de hardware, el siguiente paso de la evolución podría seguir por una nacionalización del software que impusiera funcionalidades y estándares.

Y es que el gobierno chino espera que ese nuevo conjunto de instrucciones evite la dependencia de propiedad intelectual situada fuera de sus fronteras. Parece que son pasos que van hacia una dirección totalmente contraria a lo que se venía viendo, no obstante son noticias importantes que merece la pena seguir con detenimiento.

Ventajas

Compatibilidad entre arquitecturas
Mayor facilidad de aprender el set de instrucciones, que sería universal
Capacidad de migrar de arquitectura sin problemas
  
Desventajas

Surgimiento de problemas de intereses de las empresas fabricantes de dispositivos haciendo que el avance tecnológico sea lento.
Estancamiento en la creación de nuevas arquitecturas.

PROCESADORES CON LA MISMA ARQUITECTURA Y MICROARQUITECTURA

Los futuros microprocesadores Intel Core de cuarta generación, basados en la nueva microarquitectura Haswell harán su aparición entre abril a septiembre del próximo año; y hasta el momento sólo conocemos muy pocas de sus nuevas características:

Un rendimiento por ciclo (IPC) 10% mayor que el de Ivy Bridge.
Un IGP que triplica la potencia gráfica del IGP de Ivy Bridge.
Traerá las nuevas instrucciones AVX 2.0.
Fabricados con el proceso de manufactura a 22nm Tri gate.
Las versiones para escritorio usarán el nuevo socket LGA 1150 (no compatible con el actual LGA 1155).

La espera por conocer el resto de sus especificaciones llegará a su fin el próximo mes durante el evento Intel Developer Forum (IDF) 2012, el cual se realizará del 11 al 13 de septiembre de este año, y en el cual Intel revelará las especificaciones de muchos de sus actuales y futuros productos, entre ella las de los esperados microprocesadores basados en la micro-arquitectura Haswell.

Intel nos adelanta que detallará sus nuevas instrucciones AVX 2.0 (Intel se refiere a ellas como instrucciones vectoriales de segunda generación), TSX (Transactional Synchronization eXtensions) y BMI (Bit Manipulation Instructions, esta última ya presente en los microprocesadores AMD basados en las micro-arquitecturas Bulldozer, Piledriver y Jaguar).

Por el momento a modo de adelanto revelan que el nuevo IGP de Haswell tiene por nombre código Denlow y será compatible con las API DirectX 11.1, OpenGL 3.2, OpenCL entre otras nuevas características.

Hasta el momento sabemos que los microprocesadores Intel Core de cuarta generación, basados en la micro-arquitectura Haswell tendrán un masivo IGP con un rendimiento gráfico que triplica al de los actuales IGP HD Graphics 4000, el IGP de mayor potencia gráfica de los actuales microprocesadores Ivy Bridge-DT/MB/ULV.

Nuevamente desde Fudzilla nos informan que gracias a las muchas mejoras que poseerá la nueva micro-arquitectura Haswell, los futuros microprocesadores Core de cuarta generación: Haswell-DT/MB/ULT/E/EN/EP/EX tendrán un rendimiento por ciclo 10% superior que el de sus actuales equivalentes basados en la micro-arquitectura Ivy Bridge.


Estas cifras se basan en las estimaciones realizadas con los ejemplares preliminares/prototipos (o muestras de ingeniería) basados en Haswell. Se espera también que la versión fianl del chip ofrezca una mayor personalización, permitiendo que los usuarios avanzados puedan lograr un mayor overclock.

Gráficos integrados Intel de próxima generación serán un 300% más rápidos


La arquitectura de cuarta generación Haswell para plataformas Intel Core está a la vuelta de la esquina, buscando reemplazar lo antes posible a la actual Ivy Bridge y sus gráficos HD 4000, denominados internamente como GT2, mientras que los HD Graphics 2500 corresponden a GT1.

Ya sabíamos que Intel prepara el venidero GT3 para poner a la par de CPUs Haswell, del que habíamos oído que rendiría hasta 2.5 veces más que GT2, sin embargo, nuevas filtraciones ahora revelan que el alza en desempeño será aún mejor, mostrándose al menos tres veces más rendidores que la generación anterior.

Para Intel, esto significaría una revolución y un cambio importante de paradigma en relación a su política de desarrollo anterior, donde el mayor énfasis se lo lleva la CPU y los gráficos quedaban en segundo plano, dándole prioridad en ese sentido al ahorro energético y además, sufriendo de una microarquitectura para IGP que sigue en pañales.

GT3 podría ser una respuesta más madura de Intel, que tampoco puede esperar competir contra NVIDIA y AMD de un día para otro, especialmente considerando que ambas compañías están haciendo esfuerzos para quitar tanta prioridad al procesador central y enfocarse más en los gráficos integrados, NVIDIA por el lado de los móviles y AMD haciendo lo suyo con las APU para PC.