Herramientas para el Desarrollo de Programas Paralelos
Palabras clave:
OpenMP, MPI, CUDA, Cómputo Paralelo..
Resumen
Hoy por hoy existen diversas herramientas que permiten el desarrollo de programas paralelos. Cada una de estas se especializa en explotar al máximo las características de una arquitectura computacional particular. En este artículo se presentan tres de las herramientas más populares en el desarrollo de programas paralelos: OpenMP para programación en arquitecturas con memoria compartida, MPI para arquitecturas con memoria distribuida y CUDA para programación en tarjetas gráficas. Se describen las principales características de cada una de ellas usando un ejemplo de programación.
Descargas
La descarga de datos todavía no está disponible.
Citas
[1] Robit Chandra, Leonardo Dagum, Dave Kohr, Dror Maydan, Jeff McDonald, and Ramesh Menon. 2001. Parallel programming in OpenMP. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA.
[2] William Gropp, Ewing Lusk, and Anthony Skjellum. 2014. Using MPI: Portable Parallel Programming with the Message-Passing Interface. The MIT Press.
[3] Shane Cook. 2012. CUDA Programming: A Developer’s Guide to Parallel Computing with GPUs (1st. ed.). Morgan Kaufmann Publishers Inc., San Francisco, CA, USA.
[2] William Gropp, Ewing Lusk, and Anthony Skjellum. 2014. Using MPI: Portable Parallel Programming with the Message-Passing Interface. The MIT Press.
[3] Shane Cook. 2012. CUDA Programming: A Developer’s Guide to Parallel Computing with GPUs (1st. ed.). Morgan Kaufmann Publishers Inc., San Francisco, CA, USA.
Publicado
2023-02-27
Cómo citar
Román Alonso, G., Quiróz Fabián, J. L., Castro García, M. A., & Aguilar Cornejo, M. (2023). Herramientas para el Desarrollo de Programas Paralelos. Contactos, Revista De Educación En Ciencias E Ingeniería, (127), 28-36. Recuperado a partir de https://contactos.izt.uam.mx/index.php/contactos/article/view/259
Sección
Artículos