4.40.2.1 Bases teóricas de la Computación Paralela y Distribuida (24 horas) [Habilidades 1,6]

Referencias Bibliográficas: [Pacheco, 2011,Schmidt, 1995a,Kirk and mei W. Hwu, 2013] Temas
  1. ¿Porqué y para qué Computación paralela y Distribuida?

  2. Procesadores mutlinúcleo.
  3. Memoria compartida vs memoria distribuida.
  4. Multiprocesamiento simétrico.
  5. SIMD, procesamiento de vectores.
  6. GPU, coprocesamiento.
  7. Taxonomia de Flynn.
  8. Problemas de Memoria:
    1. Caches multiprocesador y coherencia de cache
    2. Acceso a Memoria no uniforme (NUMA)
  9. Topologías.
    1. Interconecciones
    2. Clusters
    3. Compartir recursos (p.e., buses e interconexiones)
  10. La ley de Amdahl: la parte de la computación que no se puede acelerar limita el efecto de las partes que si pueden.
Objetivos de Aprendizaje
  1. Distinguir el uso de recursos computacionales para una respuesta mas rápida para administrar el acceso eficiente a un recurso compartido [Familiarizarse]

  2. Explicar las diferencias entre memoria distribuida y memoria compartida [Evaluar]
  3. Describir la arquitectura SMP y observar sus principales caracteristicas [Evaluar]
  4. Distinguir los tipos de tareas que son adecuadas para máquinas SIMD [Usar]
  5. Describir las ventajas y limitaciones de GPUs vs CPUs [Usar]
  6. Explicar las caracteristicas de cada clasificación en la taxonomía de Flynn [Usar]
  7. Describir los desafíos para mantener la coherencia de la caché [Familiarizarse]
  8. Describir los desafíos clave del desempeño en diferentes memorias y topologías de sistemas distribuidos [Familiarizarse]
  9. Usar herramientas de software para perfilar y medir el desempeño de un programa

Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM