Especialización en Computación Paralela
Postítulo
Online
Descripción
-
Tipología
Postítulo
-
Metodología
Online
-
Horas lectivas
450h
-
Duración
6 Meses
-
Inicio
Fechas disponibles
-
Campus online
Sí
-
Clases virtuales
Sí
Desde que en el siglo pasado empezasen a salir al mercado las primeras computadoras paralelas, este método de programación ha vivido una evolución sin precedentes. La mayoría de dispositivos, incluyendo los smartphones, incluyen ya procesadores con varios núcleos físicos, por lo que este modelo de computación se ha impuesto en todos los ámbitos. El profesional informático que domine esta técnica tendrá una ventaja significativa respecto a sus otros compañeros, lo que a la larga le acabará granjeando mejores oportunidades laborales. Por ello, este programa se centra en los aspectos técnicos y teóricos más importantes, presentados por un equipo docente con una amplia experiencia en el desarrollo y liderazgo de proyectos informáticos.
Información importante
Documentación
- 80especializacion-computacion-paralelaa.pdf
Sedes y fechas disponibles
Ubicación
comienzo
comienzo
A tener en cuenta
Objetivos generales
Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados
Analizar en profundidad la computación paralela multiplataforma para utilizar paralelismo a nivel de tarea entre distintos aceleradores hardware
Objetivos específicos
Módulo 1. Paralelismo en computación paralela y distribuida
Analizar los componentes de procesamiento: procesador o memoria
Profundizar en la arquitectura del paralelismo
Analizar las diferentes formas del paralelismo desde el punto de vista del procesador
Módulo 2. Análisis y programación de algoritmos paralelos
Analizar los distintos paradigmas de programación paralela
Examinar las herramientas más avanzadas para llevar a cabo
la programación paralela
Analizar algoritmos paralelos para problemas fundamentales
Módulo 3. Arquitecturas paralelas
Analizar las principales arquitecturas de computadores
Profundizar en aspectos clave como proceso, servicio e hilo de ejecución
Gestionar los procesos en ejecución en un sistema operativo
Con el compendio de conocimientos adquiridos durante este Experto Universitario, los informáticos pueden orientar su carrera no solo a la práctica de la programación o la arquitectura de sistemas, sino incluso también a la propia investigación en
el ámbito de la Computación Paralela. Este campo no ha parado de crecer en los últimos años, por lo que en este programa se recogen las principales novedades respecto a la Computación Paralela, unida a una teoría del primer nivel para garantizar una enseñanza completa y exhaustiva.
Este Experto Universitario en Computación Paralela contiene el programa educativo más completo y actualizado del mercado.
Tras la superación de la evaluacion, el alumno recibirá por correo postal* con acuse de recibo su correspondiente título de Experto Universitario emitido por TECH Universidad Tecnológica.
El título expedido por TECH Universidad Tecnológica expresará la calificación que hayan obtenido en el Experto Universitario, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores carreras profesionales.
Título: Experto Universitario en Computación Paralela
N.º Horas Oficiales: 450 h.
Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.
Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente,calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.
Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.
En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterioren iPad.
Opiniones
Materias
- Liderazgo
- Comunicación
- Programación
- Redes
- Computación
- Algoritmos
- Organización
- Proyectos
- Mercado
- Profesional
Profesores
Martín Olalla Bonal
Arquitecto blockchain
Temario
Módulo 1. Paralelismo en Computación Paralela y Distribuida
1.1. Procesamiento paralelo
1.1.1. Procesamiento paralelo
1.1.2. Procesamiento paralelo en computación. Finalidad
1.1.3. Procesamiento paralelo. Análisis
1.2. Sistema paralelo
1.2.1. El sistema paralelo
1.2.2. Niveles de paralelismo
1.2.3. Composición del sistema paralelo
1.3. Arquitecturas de procesadores
1.3.1. Complejidad del procesador
1.3.2. Arquitectura de procesadores. Modo de operación
1.3.3. Arquitectura de procesadores. Organización de la memoria
1.4. Redes en el procesamiento paralelo
1.4.1. Modo de operación
1.4.2. Estrategia de control
1.4.3. Técnicas de conmutación
1.4.4. Topología
1.5. Arquitecturas paralelas
1.5.1. Algoritmos
1.5.2. Acoplamiento
1.5.3. Comunicación
1.6. Rendimiento de la Computación Paralela
1.6.1. Evolución del rendimiento
1.6.2. Medidas de performance
1.6.3. Computación Paralela. Casos de estudio
1.7. Taxonomía de Flynn
1.7.1. MIMD: memoria compartida
1.7.2. MIMD: memoria distribuida
1.7.3. MIMD: sistemas híbridos
1.7.4. Flujo de datos
1.8. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.1. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.2. Coarse grain
1.8.3. Fine grain
1.8.4. SMT
1.9. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.1. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.2. Short vector processing
1.9.3. Vector processors
1.10. Formas de paralelismo: ILP (Instruction Level Paralelism)
1.10.1. Formas de paralelismo: ILP (Instruction Level Paralelism)
1.10.2. Procesador segmentado
1.10.3. Procesador superescalar
1.10.4. Procesador Very Long Instruction Word (VLIW)
Módulo 2. Análisis y programación de algoritmos paralelos
2.1. Algoritmos paralelos
2.1.1. Descomposición de problemas
2.1.2. Dependencias de datos
2.1.3. Paralelismo implícito y explícito
2.2. Paradigmas de programación paralela
2.2.1. Programación paralela con memoria compartida
2.2.2. Programación paralela con memoria distribuida
2.2.3. Programación paralela híbrida
2.2.4. Computación heterogénea - CPU + GPU
2.2.5. Computación cuántica. Nuevos modelos de programación con paralelismo implícito
2.3. Programación paralela con memoria compartida
2.3.1. Modelos de programación paralela con memoria compartida
2.3.2. Algoritmos paralelos con memoria compartida
2.3.3. Librerías para programación paralela con memoria compartida
2.4. OpenMP
2.4.1. OpenMP
2.4.2. Ejecución y depuración de programas con OpenMP
2.4.3. Algoritmos paralelos con memoria compartida en OpenMP
2.5. Programación paralela por paso de mensajes
2.5.1. Primitivas de paso de mensajes
2.5.2. Operaciones de comunicación y computación colectiva
2.5.3. Algoritmos paralelos por paso de mensajes
2.5.4. Librerías para programación paralela con paso de mensajes
2.6. Message Passing Interface (MPI)
2.6.1. Message Passing Interface (MPI)
2.6.2. Ejecución y depuración de programas con MPI
2.6.3. Algoritmos paralelos por paso de mensajes con MPI
2.7. Programación paralela híbrida
2.7.1. Programación paralela híbrida
2.7.2. Ejecución y depuración de programas paralelos híbridos
2.7.3. Algoritmos paralelos híbridos MPI-OpenMP
2.8. Programación paralela con computación heterogénea
2.8.1. Programación paralela con computación heterogénea
2.8.2. CPU vs. GPU
2.8.3. Algoritmos paralelos con computación heterogénea
2.9. OpenCL y CUDA
2.9.1. OpenCL vs. CUDA
2.9.2. Ejecución y depuración de programas paralelos con computación heterogénea
2.9.3. Algoritmos paralelos con computación heterogénea
2.10. Diseño de algoritmos paralelos
2.10.1. Diseño de algoritmos paralelos
2.10.2. Problema y contexto
2.10.3. Paralelización automática vs. Paralelización manual
2.10.4. Particionamiento del problema
2.10.5. Comunicaciones en computación
Módulo 3. Arquitecturas paralelas
3.1. Arquitecturas paralelas
3.1.1. Sistemas paralelos. Clasificación
3.1.2. Fuentes de paralelismo
3.1.3. Paralelismo y procesadores
3.2. Rendimiento de los sistemas paralelos
3.2.1. Magnitudes y medidas de rendimiento
3.2.2. Speed-up
3.2.3. Granularidad de los sistemas paralelos
3.3. Procesadores vectoriales
3.3.1. Procesador vectorial básico
3.3.2. Memoria entrelazada o intercalada
3.3.3. Rendimiento de los procesadores vectoriales
3.4. Procesadores matriciales
3.4.1. Organización básica
3.4.2. Programación en procesadores matriciales
3.4.3. Programación en procesadores matriciales. Ejemplo práctico
3.5. Redes de interconexión
3.5.1. Redes de interconexión
3.5.2. Topología, control de flujo y encaminamiento
3.5.3. Redes de interconexión. Clasificación según topología
3.6. Multiprocesadores
3.6.1. Redes de interconexión para multiprocesadores
3.6.2. Consistencia de memoria y cachés
3.6.3. Protocolos de sondeo
3.7. Sincronización
3.7.1. Cerrojos (exclusión mutua)
3.7.2. Eventos de sincronización P2P
3.7.3. Eventos de sincronización globales
3.8. Multicomputadores
3.8.1. Redes de interconexión para multicomputadores
3.8.2. Capa de conmutación
3.8.3. Capa de encaminamiento
3.9. Arquitecturas avanzadas
3.9.1. Máquinas de flujo de datos
3.9.2. Otras arquitecturas
3.10. Programación paralela y distribuida
3.10.1. Lenguajes para programación paralela
3.10.2. Herramientas de programación paralela
3.10.3. Patrones de diseño
3.10.4. Concurrencia de lenguajes de programación paralela y distribuida
Especialización en Computación Paralela