Especialización en Computación Paralela Avanzada

Postítulo

Online

$ 1.799.995 IVA inc.

Descripción

  • Tipología

    Postítulo

  • Metodología

    Online

  • Horas lectivas

    450h

  • Duración

    6 Meses

  • Inicio

    Fechas disponibles

  • Campus online

  • Clases virtuales

TECH - Universidad Tecnológica

La computación paralela se ha desarrollado tanto en los últimos años que una comprensión básica de la misma ya no es suficiente. Si el informático busca elevar su potencial y nivel laboral debe profundizar aún más en la materia, conociendo
el sistema de intercambio de información entre los procesos de diferentes máquinas y midiendo el desempeño de los algoritmos paralelos para detectar eficazmente aquellos aspectos que penalizan su rendimiento. Con esta premisa de profundización se presenta este programa universitario, que ahonda en las
cuestiones más avanzadas de la computación paralela con una perspectiva tanto innovadora como práctica. Una opción académica imprescindible para todo informático que busque un impulso de calidad en su trayectoria profesional.

Información importante

Documentación

  • 81especializacion-computacion-paralela-avanzadaa.pdf

Sedes y fechas disponibles

Ubicación

comienzo

Online

comienzo

Fechas disponiblesInscripciones abiertas

A tener en cuenta

Objetivos generales
Š Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Š Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados
Š Analizar en profundidad la Computación Paralela Multiplataforma para utilizar paralelismo a nivel de tarea entre distintos aceleradores hardware

Objetivos específicos
Módulo 1. Comunicación y coordinación en sistemas de computación
Š Analizar las diferentes arquitecturas y modelos de los sistemas distribuidos
Š Determinar las características de los sistemas paralelos y distribuidos
Š Profundizar en las diferentes comunicaciones que suceden a nivel de procesos
Módulo 2. Análisis y programación de algoritmos paralelos
Š Analizar los distintos paradigmas de programación paralela
Š Examinar las herramientas más avanzadas para llevar a cabo la programación paralela
Š Analizar algoritmos paralelos para problemas fundamentales
Módulo 3. Desempeño en paralelo
Š Analizar los aspectos de algoritmos paralelos que afectan a su desempeño y escalabilidad
Š Establecer las principales métricas de desempeño y escalabilidad de algoritmos paralelos
Š Examinar las principales técnicas de comparación de algoritmos paralelos

Este Experto Universitario tiene como objetivo proporcionar al informático las herramientas y conocimientos más avanzados en cuanto a Computación Paralela. De este modo, el egresado
mejorará ampliamente sus posibilidades de tener mejores cargos en proyectos que requieran una aproximación técnica muy específica, tales como aquellos relacionados con el big data,
el blockchain o el clima. Gracias a la profundidad alcanzada en el temario los alumnos podrán empezar a mejorar sus competencias incluso antes de finalizar el programa.

Este Experto Universitario en Computación Paralela Avanzada contiene el programa educativo más completo y actualizado del mercado.

Tras la superación de la evaluacion, el alumno recibirá por correo postal* con acuse de recibo su correspondiente título de Experto Universitario emitido por TECH Universidad Tecnológica.

El título expedido por TECH Universidad Tecnológica expresará la calificación que hayan obtenido en el Experto Universitario, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores carreras profesionales.

Título: Experto Universitario en Computación Paralela Avanzada
N.º horas oficiales: 450 h.

Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.
Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente,calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.

Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.

En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterioren iPad.

Preguntas & Respuestas

Añade tu pregunta

Nuestros asesores y otros usuarios podrán responderte

¿Quién quieres que te responda?

Déjanos tus datos para recibir respuesta

Sólo publicaremos tu nombre y pregunta

Opiniones

Materias

  • Comunicación
  • Programación
  • Computación
  • Algoritmos
  • Perspectiva
  • Calidad
  • Profesional

Profesores

Martín Olalla Bonal

Martín Olalla Bonal

Arquitecto blockchain

Temario

Módulo 1. Comunicación y coordinación en sistemas de computación

1.1. Procesos de Computación Paralela y Distribuida

1.1.1. Procesos de Computación Paralela y Distribuida
1.1.2. Procesos e hilos
1.1.3. Virtualización
1.1.4. Clientes y servidores

1.2. Comunicación en computación paralela

1.2.1. Computación en computación paralela
1.2.2. Protocolos por capas
1.2.3. Comunicación en computación paralela. Tipología

1.3. Llamada a procedimiento remoto

1.3.1. Funcionamiento de RPC (Remote Procedure Call)
1.3.2. Paso de parámetros
1.3.3. RPC asíncrono
1.3.4. Procedimiento remoto. Ejemplos

1.4. Comunicación orientada a mensajes

1.4.1. Comunicación transitoria orientada a mensajes
1.4.2. Comunicación persistente orientada a mensajes
1.4.3. Comunicación orientada a mensajes. Ejemplos

1.5. Comunicación orientada a flujos

1.5.1. Soporte para medios continuos
1.5.2. Flujos y calidad de servicio
1.5.3. Sincronización de flujos
1.5.4. Comunicación orientada a flujos. Ejemplos

1.6. Comunicación de multidifusión

1.6.1. Multidifusión a nivel de aplicación
1.6.2. Difusión de datos basada en rumores
1.6.3. Comunicación de multidifusión. Ejemplos

1.7. Otros tipos de comunicación

1.7.1. Invocación de métodos remotos
1.7.2. Servicios web / SOA / REST
1.7.3. Notificación de eventos
1.7.4. Agentes móviles

1.8. Servicio de nombres

1.8.1. Servicios de nombres en computación
1.8.2. Servicios de nombres y sistema de dominio de nombres
1.8.3. Servicios de directorio

1.9. Sincronización

1.9.1. Sincronización de relojes
1.9.2. Relojes lógicos, exclusión mutua y posicionamiento global de los nodos
1.9.3. Elección de algoritmos

1.10. Comunicación. Coordinación y acuerdo

1.10.1. Coordinación y acuerdo
1.10.2. Coordinación y acuerdo. Consenso y problemas
1.10.3. Comunicación y coordinación. Actualidad

Módulo 2. Análisis y programación de algoritmos paralelos

2.1. Algoritmos paralelos

2.1.1. Descomposición de problemas
2.1.2. Dependencias de datos
2.1.3. Paralelismo implícito y explícito

2.2. Paradigmas de programación paralela

2.2.1. Programación paralela con memoria compartida
2.2.2. Programación paralela con memoria distribuida
2.2.3. Programación paralela híbrida
2.2.4. Computación heterogénea - CPU + GPU
2.2.5. Computación cuántica. Nuevos modelos de programación con paralelismo implícito

2.3. Programación paralela con memoria compartida

2.3.1. Modelos de programación paralela con memoria compartida
2.3.2. Algoritmos paralelos con memoria compartida
2.3.3. Librerías para programación paralela con memoria compartida

2.4. OpenMP

2.4.1. OpenMP
2.4.2. Ejecución y depuración de programas con OpenMP
2.4.3. Algoritmos paralelos con memoria compartida en OpenMP

2.5. Programación paralela por paso de mensajes

2.5.1. Primitivas de paso de mensajes
2.5.2. Operaciones de comunicación y computación colectiva
2.5.3. Algoritmos paralelos por paso de mensajes
2.5.4. Librerías para programación paralela con paso de mensajes

2.6. Message Passing Interface (MPI)

2.6.1. Message Passing Interface (MPI)
2.6.2. Ejecución y depuración de programas con MPI
2.6.3. Algoritmos paralelos por paso de mensajes con MPI

2.7. Programación paralela híbrida

2.7.1. Programación paralela híbrida
2.7.2. Ejecución y depuración de programas paralelos híbridos
2.7.3. Algoritmos paralelos híbridos MPI-OpenMP

2.8. Programación paralela con computación heterogénea

2.8.1. Programación paralela con computación heterogénea
2.8.2. CPU vs. GPU
2.8.3. Algoritmos paralelos con computación heterogénea

2.9. OpenCL y CUDA

2.9.1. OpenCL vs. CUDA
2.9.2. Ejecución y depuración de programas paralelos con computación heterogénea
2.9.3. Algoritmos paralelos con computación heterogénea

2.10. Diseño de algoritmos paralelos

2.10.1. Diseño de algoritmos paralelos
2.10.2. Problema y contexto
2.10.3. Paralelización automática vs. Paralelización manual
2.10.4. Particionamiento del problema
2.10.5. Comunicaciones en computación

Módulo 3. Desempeño en paralelo

3.1. Desempeño de algoritmos paralelos

3.1.1. Ley de Ahmdal
3.1.2. Ley de Gustarfson
3.1.3. Métricas de desempeño y escalabilidad de algoritmos paralelos

3.2. Comparativa de algoritmos paralelos

3.2.1. Benchmarking
3.2.2. Análisis matemático de algoritmos paralelos
3.2.3. Análisis asintótico de algoritmos paralelos

3.3. Restricciones de los recursos hardware

3.3.1. Memoria
3.3.2. Procesamiento
3.3.3. Comunicaciones
3.3.4. Particionamiento dinámico de recursos

3.4. Desempeño de programas paralelos con memoria compartida

3.4.1. División óptima en tareas
3.4.2. Afinidad de Threads
3.4.3. Paralelismo SIMD
3.4.4. Programas paralelos con memoria compartida. Ejemplos

3.5. Desempeño de programas paralelos por paso de mensajes

3.5.1. Desempeño de programas paralelos por paso de mensajes
3.5.2. Optimización de comunicaciones en MPI
3.5.3. Control de afinidad y balanceo de carga
3.5.4. I/O paralela
3.5.5. Programas paralelos por paso de mensajes. Ejemplos

3.6. Desempeño de programas paralelos híbridos

3.6.1. Desempeño de programas paralelos híbridos
3.6.2. Programación híbrida para sistemas de memoria compartida/distribuida
3.6.3. Programas paralelos híbridos. Ejemplos

3.7. Desempeño de programas con computación heterogénea

3.7.1. Desempeño de programas con computación heterogénea
3.7.2. Programación híbrida para sistemas con varios aceleradores hardware
3.7.3. Programas con computación heterogénea. Ejemplos

3.8. Análisis de rendimiento de algoritmos paralelos

3.8.1. Análisis de rendimiento de algoritmos paralelos
3.8.2. Análisis de rendimiento de algoritmos paralelos. Herramientas
3.8.3. Análisis de rendimiento de algoritmos paralelos. Recomendaciones

3.9. Patrones paralelos

3.9.1. Patrones paralelos
3.9.2. Principales patrones paralelos
3.9.3. Patrones paralelos. Comparativa

3.10. Programas paralelos de alto rendimiento

3.10.1. Proceso
3.10.2. Programas paralelos de alto rendimiento
3.10.3. Programas paralelos de alto rendimiento. Usos realesV

Especialización en Computación Paralela Avanzada

$ 1.799.995 IVA inc.