Diferencia entre revisiones de «GPU»

(Página creada con '<img _fck_mw_template="true" _fckrealelement="0" _fckfakelement="true" src="http://www.ecured.cu/extensions/FCKeditor/fckeditor/editor/images/spacer.gif" class="FCK__MWTemplate"…')
 
Línea 1: Línea 1:
<img _fck_mw_template="true" _fckrealelement="0" _fckfakelement="true" src="http://www.ecured.cu/extensions/FCKeditor/fckeditor/editor/images/spacer.gif" class="FCK__MWTemplate"><br>  
+
[[Category:Ciencias_informáticas_y_Telecomunicaciones|{{Institucion|nombre=GPU |imagen=Gpu.jpg|50px|descripcion=Unidad de procesamiento gáfico o GPU|siglas_o_acronimo=|fecha_de_fundacion=|ubicacion=}}<br>]]
  
'''GPU'''<br>  
+
'''GPU'''<br>
  
La '''unidad de procesamiento gráfico''' o '''GPU''' (acrónimo del inglés graphics processing unit) es un &lt;a _fcknotitle="true" href="Procesador"&gt;Procesador&lt;/a&gt; dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los &lt;a _fcknotitle="true" href="Videojuegos"&gt;Videojuegos&lt;/a&gt; y o aplicaciones &lt;a _fcknotitle="true" href="3D"&gt;3D&lt;/a&gt; interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la &lt;a _fcknotitle="true" href="CPU"&gt;CPU&lt;/a&gt; puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).<br>  
+
La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un [[procesador]] dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los [[videojuegos]] y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la [[CPU]] puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).<br>
  
Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.  
+
Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en [[3D]] es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.<br>
  
<br>  
+
<br>
  
= Historia =
+
= Historia<br> =
  
&lt;img src="/images/thumb/6/61/Nvidia.jpg/180px-Nvidia.jpg" _fck_mw_filename="Nvidia.jpg" _fck_mw_location="right" _fck_mw_type="thumb" alt="Tarjeta gráfica con GPU NVIDIA" class="fck_mw_frame fck_mw_right" /&gt;Las modernas GPU son descendientes de los &lt;a _fcknotitle="true" href="Chips"&gt;Chips&lt;/a&gt; gráficos monolíticos de finales de la década de &lt;a _fcknotitle="true" href="1970"&gt;1970&lt;/a&gt; y &lt;a _fcknotitle="true" href="1980"&gt;1980&lt;/a&gt;. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "&lt;a _fcknotitle="true" href="Display"&gt;Display&lt;/a&gt;" y podían usar DMA para reducir la carga en el &lt;a _fcknotitle="true" href="Procesador"&gt;Procesador&lt;/a&gt; anfitrión; un ejemplo temprano es el &lt;a _fcknotitle="true" href="Coprocesador"&gt;Coprocesador&lt;/a&gt; ANTIC usado en el &lt;a _fcknotitle="true" href="Atari"&gt;Atari&lt;/a&gt; 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, &lt;a _fcknotitle="true" href="Microprocesadores"&gt;Microprocesadores&lt;/a&gt; de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas&nbsp; tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de &lt;a _fcknotitle="true" href="Texas Instruments"&gt;Texas Instruments&lt;/a&gt;, para implementar funciones de dibujo rápidas y muchas impresoras &lt;a _fcknotitle="true" href="Laser"&gt;Laser&lt;/a&gt; contenían un procesador de barrido de imágenes "PostScript"&nbsp; corriendo en un procesador RISC como el &lt;a _fcknotitle="true" href="AMD"&gt;AMD&lt;/a&gt; 29000.<br>  
+
[[Image:Nvidia.jpg|thumb|right|Tarjéta gráfica empleando GPU NVIDIA]]Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de [[1970]] y 1[[980]]. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "display" y podían usar DMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el [[coprocesador]] ANTIC usado en el [[Atari]] 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, microprocesadores de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas&nbsp; tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de [[Texas Instruments]], para implementar funciones de dibujo rápidas y muchas impresoras laser contenían un procesador de barrido de imágenes "PostScript" (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000.<br>
  
&lt;img src="/images/thumb/5/50/Ati.jpg/180px-Ati.jpg" _fck_mw_filename="Ati.jpg" _fck_mw_location="right" _fck_mw_type="thumb" alt="Tarjeta gráfica empleando GPU ATI" class="fck_mw_frame fck_mw_right" /&gt;Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como &lt;a _fcknotitle="true" href="VGA"&gt;VGA&lt;/a&gt;. Estos aceleradores gráficos de &lt;a _fcknotitle="true" href="2D"&gt;2D&lt;/a&gt; "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La &lt;a _fcknotitle="true" href="Commodore"&gt;Commodore&lt;/a&gt; AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico &lt;a _fcknotitle="true" href="IBM"&gt;IBM&lt;/a&gt; 8514 fue una de las primeras &lt;a _fcknotitle="true" href="Tarjetas de video"&gt;Tarjetas de video&lt;/a&gt; para &lt;a _fcknotitle="true" href="PC"&gt;PC&lt;/a&gt; en implementar primitivas 2D en &lt;a _fcknotitle="true" href="Hardware"&gt;Hardware&lt;/a&gt;.  
+
[[Image:Ati.jpg|thumb|right|Tarjéta gráfica empleando GPU ATI]]Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como [[VGA]]. Estos aceleradores gráficos de [[2D]] "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para [[PC]] en implementar primitivas 2D en [[hardware]].<br>
  
<br>  
+
<br>
  
= Diferencias con la CPU <br> =
+
= Diferencias con la CPU <br> =
  
Si bien en una computadora genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la &lt;a _fcknotitle="true" href="Frecuencia"&gt;Frecuencia&lt;/a&gt; de reloj de una CPU antigua (más de 500MHz). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos &lt;a _fcknotitle="true" href="3D"&gt;3D&lt;/a&gt;.<br>  
+
Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500 [[MHz]]). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos [[3D]].<br>
  
Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y &lt;a _fcknotitle="true" href="Píxeles"&gt;Píxeles&lt;/a&gt;) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan &lt;a _fcknotitle="true" href="Vertex Shaders"&gt;Vertex Shaders&lt;/a&gt;), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan &lt;a _fcknotitle="true" href="Pixel Shaders"&gt;Pixel Shaders&lt;/a&gt; (O Fragment Shaders)). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potentes), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo.<br>  
+
Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan [[Vertex Shaders]]), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan [[Pixel Shaders]]). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potente), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo.<br>
  
Una de las mayores diferencias con la CPU estriba en su &lt;a _fcknotitle="true" href="Arquitectura"&gt;Arquitectura&lt;/a&gt;. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.<br>  
+
Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.<br>
  
<br>  
+
<br>
  
= Arquitectura de la GPU <br> =
+
= Arquitectura de la GPU <br> =
  
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el &lt;a _fcknotitle="true" href="Vértice"&gt;Vértice&lt;/a&gt; y el &lt;a _fcknotitle="true" href="Píxel"&gt;Píxel&lt;/a&gt; como las principales unidades que maneja la GPU.<br>  
+
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.<br>
  
Adicionalmente, y no con menos importancia, se encuentra la &lt;a _fcknotitle="true" href="Memoria"&gt;Memoria&lt;/a&gt;. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.<br>  
+
Adicionalmente, y no con menos importancia, se encuentra la [[memoria]]. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.<br>
  
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver , y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.<br>  
+
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.<br>
  
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la &lt;a _fcknotitle="true" href="Caché"&gt;Caché&lt;/a&gt;, se aplican algunos efectos como el antialiasing, blending y el efecto niebla.<br>  
+
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la [[caché]], se aplican algunos efectos como el antialiasing, blending y el efecto niebla.<br>
  
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el&lt;a _fcknotitle="true" href="Frame buffer"&gt;Frame buffer&lt;/a&gt;. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en &lt;a _fcknotitle="true" href="Pantalla"&gt;Pantalla&lt;/a&gt;.<br>  
+
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una [[señal analógica]] a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en [[pantalla]].<br>
  
= Programación de la GPU <br> =
+
= Programación de la GPU <br> =
  
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la &lt;a _fcknotitle="true" href="BIOS"&gt;BIOS&lt;/a&gt;. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a ca&lt;a href="http://www.nvidia.com/"&gt;www.nvidia.com/&lt;/a&gt;da modelo. Posteriormente, se situó un nivel más entre el hardware y el software, diseñando las &lt;a _fcknotitle="true" href="API"&gt;API&lt;/a&gt; (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto &lt;a _fcknotitle="true" href="OpenG"&gt;OpenG&lt;/a&gt;L (Open Graphics Language), tras el cuál &lt;a _fcknotitle="true" href="Microsoft"&gt;Microsoft&lt;/a&gt; desarrolló &lt;a _fcknotitle="true" href="DirectX"&gt;DirectX&lt;/a&gt;.<br>  
+
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la [[BIOS]]. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se situó un nivel más entre el [[hardware]] y el [[software]], diseñando las[[ API]] (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto [[OpenGL]] (Open Graphics Language), tras el cuál [[Microsoft]] desarrolló [[DirectX]].<br>
  
Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana &lt;a _fcknotitle="true" href="NVIDIA"&gt;NVIDIA&lt;/a&gt; creó un lenguage propietario llamado Cg (del inglés, "C for graphics"), con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con NVIDIA, Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.<br>  
+
Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana NVIDIA creó un lenguage propietario llamado Cg (del inglés, "C for graphics"), con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con [[NVIDIA]], Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.<br>
  
= Enlaces externos <br> =
+
= Enlaces externos <br> =
  
*&lt;a href="http://www.amd.com/"&gt;Sitio web oficial de ATI/AMD&lt;/a&gt; <br>
+
*[http://www.amd.com Sitio web oficial de ATI/AMD]
*&lt;a href="http://www.nvidia.com/"&gt;Sitio web oficial de NVIDIA&lt;/a&gt;<br><br>
+
*[http://www.nvidia.com Sitio web oficial de NVIDIA ]<br><br>
  
[[Category:Tarjetas_gráficas]][[Category:Informática]][[Category:Ciencias_informáticas_y_Telecomunicaciones]]
+
<br>

Revisión del 17:12 30 mar 2010

[[Category:Ciencias_informáticas_y_Telecomunicaciones|

GPU
Información sobre la plantilla
Institución
Gpu.jpg


]]

GPU

La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un procesador dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la CPU puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).

Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.


Historia

Archivo:Nvidia.jpg
Tarjéta gráfica empleando GPU NVIDIA

Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "display" y podían usar DMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, microprocesadores de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas  tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de dibujo rápidas y muchas impresoras laser contenían un procesador de barrido de imágenes "PostScript" (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000.

Tarjéta gráfica empleando GPU ATI

Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.


Diferencias con la CPU

Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500 MHz). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos 3D.

Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan Vertex Shaders), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan Pixel Shaders). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potente), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo.

Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.


Arquitectura de la GPU

Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.

Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.

Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.

Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el efecto niebla.

Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla.

Programación de la GPU

Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se situó un nivel más entre el hardware y el software, diseñando lasAPI (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto OpenGL (Open Graphics Language), tras el cuál Microsoft desarrolló DirectX.

Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana NVIDIA creó un lenguage propietario llamado Cg (del inglés, "C for graphics"), con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con NVIDIA, Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.

Enlaces externos