¿Qué es la Computación GPU? Definición, concepto. La computación de GPU es el uso de una GPU (unidad de procesamiento de gráficos) como un coprocesador para acelerar las CPU para la computación científica y de ingeniería de propósito general.
La GPU acelera las aplicaciones que se ejecutan en la CPU al descargar algunas de las partes del código que requieren un uso intensivo de la computación. El resto de la aplicación todavía se ejecuta en la CPU.
Desde la perspectiva de un usuario, la aplicación se ejecuta más rápido porque utiliza la capacidad de procesamiento masivamente paralelo de la GPU para aumentar el rendimiento. Esto se conoce como computación “heterogénea” o “híbrida”.
No olvidemos que el uso de múltiples tarjetas de video en una computadora o servidor web, o un gran número de chips de gráficos, paraleliza aún más la naturaleza ya paralela del procesamiento de gráficos. Además, incluso un único marco GPU-CPU proporciona ventajas que varias CPU por sí mismas no ofrecen debido a la especialización en cada chip.
Esencialmente, una tubería de GPGPU es un tipo de procesamiento paralelo entre una o más GPU y CPU que analiza los datos como si estuvieran en imagen u otra forma gráfica. Si bien las GPU operan a frecuencias más bajas, generalmente tienen muchas veces el número de núcleos. Por lo tanto, las GPU pueden procesar muchas más imágenes y datos gráficos por segundo que una CPU tradicional. La migración de datos a una forma gráfica y luego usar la GPU para escanearlos y analizarlos puede crear una gran aceleración.
Las tuberías GPGPU se desarrollaron a principios del siglo XXI para el procesamiento de gráficos (por ejemplo, para mejores sombreadores). Se encontró que estas tuberías se ajustaban bien a las necesidades de computación científica, y desde entonces se han desarrollado en esta dirección.
Como ya sabemos además, una CPU consta de cuatro a ocho núcleos de CPU, mientras que la GPU consta de cientos de núcleos más pequeños. Juntos, operan para analizar los datos de la aplicación. Esta arquitectura masivamente paralela es lo que le da a la GPU su alto rendimiento informático. Hay una serie de aplicaciones aceleradas por GPU que proporcionan una manera fácil de acceder a la computación de alto rendimiento (HPC).
Comparación de núcleos entre una CPU y una GPU
Los desarrolladores de aplicaciones aprovechan el rendimiento de la arquitectura GPU paralela utilizando un modelo de programación paralelo inventado por NVIDIA llamado “CUDA”. Todas las GPU NVIDIA (GeForce®, Quadro® y Tesla®) son compatibles con el modelo de programación paralela NVIDIA® CUDA®.
Las GPU de Tesla están diseñadas como aceleradores computacionales o procesadores complementarios optimizados para aplicaciones informáticas científicas y técnicas. Las últimas GPU de la serie 20 de Tesla se basan en la última implementación de la plataforma CUDA denominada “arquitectura Fermi”. Fermi tiene características de computación clave, como más de 500 gigaflops de soporte de hardware de punto flotante de precisión doble IEEE estándar, cachés L1 y L2, protección de errores de memoria ECC, cachés locales de datos administrados por el usuario en forma de memoria compartida dispersada en toda la GPU, fusionando Accesos a memoria, y más.
HISTORIA DE LA COMPUTACIÓN GPU
Los chips de gráficos comenzaron como tuberías de gráficos de función fija. Con el paso de los años, estos chips de gráficos se volvieron cada vez más programables, lo que llevó a NVIDIA a introducir la primera GPU. En el período 1999-2000, los científicos informáticos, junto con investigadores en campos como la imagen médica y el electromagnetismo, comenzaron a utilizar GPU para acelerar una gama de aplicaciones científicas. Esta fue la llegada del movimiento llamado GPGPU, o computación de propósito general GPU.
El desafío era que GPGPU requería el uso de lenguajes de programación de gráficos como OpenGL y Cg para programar la GPU. Los desarrolladores tenían que hacer que sus aplicaciones científicas parecieran aplicaciones gráficas y mapearlas en problemas que dibujaban triángulos y polígonos. Esto limitó la accesibilidad al tremendo rendimiento de las GPU para la ciencia.
NVIDIA se dio cuenta del potencial de brindar este rendimiento a la comunidad científica en general e invirtió en la modificación de la GPU para que sea completamente programable para aplicaciones científicas. Además, agregó soporte para lenguajes de alto nivel como C, C ++ y Fortran. Esto llevó a la plataforma de computación paralela CUDA para la GPU.
Leer también: GPU NVIDIA Tesla-P 100 ; Cómo Big Data Analytics jugará un papel importante en las empresas
Consultor y escritor sobre Marketing online, Social media y temas Geek en general. Comprometido con HostDime en los portales de habla hispana.
More from Tecnología
Lo digital está alterando las Industrias tradicionales
Lo digital está alterando las industrias tradicionales. Ya sea en el país o en el extranjero, la transformación digital ha …
¿Cuál es la función de apache Tomcat?
Vamos a responder a la pregunta: ¿cuál es la función de Apache Tomcat? Se trata de un Servidor de aplicaciones …
¿Qué es un Servidor Dedicado?
Se puede llegar a decir que un Servidor Dedicado es la contraparte del Hosting Compartido. Mientras que un servidor compartido …