Especialización en Computación Paralela

Postítulo

Online

$ 1.799.995 IVA inc.

Descripción

  • Tipología

    Postítulo

  • Metodología

    Online

  • Horas lectivas

    450h

  • Duración

    6 Meses

  • Inicio

    Fechas disponibles

  • Campus online

  • Clases virtuales

TECH - Universidad Tecnológica

Desde que en el siglo pasado empezasen a salir al mercado las primeras computadoras paralelas, este método de programación ha vivido una evolución sin precedentes. La mayoría de dispositivos, incluyendo los smartphones, incluyen ya procesadores con varios núcleos físicos, por lo que este modelo de computación se ha impuesto en todos los ámbitos. El profesional informático que domine esta técnica tendrá una ventaja significativa respecto a sus otros compañeros, lo que a la larga le acabará granjeando mejores oportunidades laborales. Por ello, este programa se centra en los aspectos técnicos y teóricos más importantes, presentados por un equipo docente con una amplia experiencia en el desarrollo y liderazgo de proyectos informáticos.

Información importante

Documentación

  • 80especializacion-computacion-paralelaa.pdf

Sedes y fechas disponibles

Ubicación

comienzo

Online

comienzo

Fechas disponiblesInscripciones abiertas

A tener en cuenta

Objetivos generales
Š Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Š Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados
Š Analizar en profundidad la computación paralela multiplataforma para utilizar paralelismo a nivel de tarea entre distintos aceleradores hardware

Objetivos específicos
Módulo 1. Paralelismo en computación paralela y distribuida
Š Analizar los componentes de procesamiento: procesador o memoria
Š Profundizar en la arquitectura del paralelismo
Š Analizar las diferentes formas del paralelismo desde el punto de vista del procesador
Módulo 2. Análisis y programación de algoritmos paralelos
Š Analizar los distintos paradigmas de programación paralela
Š Examinar las herramientas más avanzadas para llevar a cabo
la programación paralela
Š Analizar algoritmos paralelos para problemas fundamentales
Módulo 3. Arquitecturas paralelas
Š Analizar las principales arquitecturas de computadores
Š Profundizar en aspectos clave como proceso, servicio e hilo de ejecución
Š Gestionar los procesos en ejecución en un sistema operativo

Con el compendio de conocimientos adquiridos durante este Experto Universitario, los informáticos pueden orientar su carrera no solo a la práctica de la programación o la arquitectura de sistemas, sino incluso también a la propia investigación en
el ámbito de la Computación Paralela. Este campo no ha parado de crecer en los últimos años, por lo que en este programa se recogen las principales novedades respecto a la Computación Paralela, unida a una teoría del primer nivel para garantizar una enseñanza completa y exhaustiva.

Este Experto Universitario en Computación Paralela contiene el programa educativo más completo y actualizado del mercado.

Tras la superación de la evaluacion, el alumno recibirá por correo postal* con acuse de recibo su correspondiente título de Experto Universitario emitido por TECH Universidad Tecnológica.

El título expedido por TECH Universidad Tecnológica expresará la calificación que hayan obtenido en el Experto Universitario, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores carreras profesionales.

Título: Experto Universitario en Computación Paralela
N.º Horas Oficiales: 450 h.

Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.
Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente,calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.

Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.

En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterioren iPad.

Preguntas & Respuestas

Añade tu pregunta

Nuestros asesores y otros usuarios podrán responderte

¿Quién quieres que te responda?

Déjanos tus datos para recibir respuesta

Sólo publicaremos tu nombre y pregunta

Opiniones

Materias

  • Liderazgo
  • Comunicación
  • Programación
  • Redes
  • Computación
  • Algoritmos
  • Organización
  • Proyectos
  • Mercado
  • Profesional

Profesores

Martín Olalla Bonal

Martín Olalla Bonal

Arquitecto blockchain

Temario

Módulo 1. Paralelismo en Computación Paralela y Distribuida

1.1. Procesamiento paralelo

1.1.1. Procesamiento paralelo
1.1.2. Procesamiento paralelo en computación. Finalidad
1.1.3. Procesamiento paralelo. Análisis

1.2. Sistema paralelo

1.2.1. El sistema paralelo
1.2.2. Niveles de paralelismo
1.2.3. Composición del sistema paralelo

1.3. Arquitecturas de procesadores

1.3.1. Complejidad del procesador
1.3.2. Arquitectura de procesadores. Modo de operación
1.3.3. Arquitectura de procesadores. Organización de la memoria

1.4. Redes en el procesamiento paralelo

1.4.1. Modo de operación
1.4.2. Estrategia de control
1.4.3. Técnicas de conmutación
1.4.4. Topología

1.5. Arquitecturas paralelas

1.5.1. Algoritmos
1.5.2. Acoplamiento
1.5.3. Comunicación

1.6. Rendimiento de la Computación Paralela

1.6.1. Evolución del rendimiento
1.6.2. Medidas de performance
1.6.3. Computación Paralela. Casos de estudio

1.7. Taxonomía de Flynn

1.7.1. MIMD: memoria compartida
1.7.2. MIMD: memoria distribuida
1.7.3. MIMD: sistemas híbridos
1.7.4. Flujo de datos

1.8. Formas de paralelismo: TLP (Thread Level Paralelism)

1.8.1. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.2. Coarse grain
1.8.3. Fine grain
1.8.4. SMT

1.9. Formas de paralelismo: DLP (Data Level Paralelism)

1.9.1. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.2. Short vector processing
1.9.3. Vector processors

1.10. Formas de paralelismo: ILP (Instruction Level Paralelism)

1.10.1. Formas de paralelismo: ILP (Instruction Level Paralelism)
1.10.2. Procesador segmentado
1.10.3. Procesador superescalar
1.10.4. Procesador Very Long Instruction Word (VLIW)

Módulo 2. Análisis y programación de algoritmos paralelos

2.1. Algoritmos paralelos

2.1.1. Descomposición de problemas
2.1.2. Dependencias de datos
2.1.3. Paralelismo implícito y explícito

2.2. Paradigmas de programación paralela

2.2.1. Programación paralela con memoria compartida
2.2.2. Programación paralela con memoria distribuida
2.2.3. Programación paralela híbrida
2.2.4. Computación heterogénea - CPU + GPU
2.2.5. Computación cuántica. Nuevos modelos de programación con paralelismo implícito

2.3. Programación paralela con memoria compartida

2.3.1. Modelos de programación paralela con memoria compartida
2.3.2. Algoritmos paralelos con memoria compartida
2.3.3. Librerías para programación paralela con memoria compartida

2.4. OpenMP

2.4.1. OpenMP
2.4.2. Ejecución y depuración de programas con OpenMP
2.4.3. Algoritmos paralelos con memoria compartida en OpenMP

2.5. Programación paralela por paso de mensajes

2.5.1. Primitivas de paso de mensajes
2.5.2. Operaciones de comunicación y computación colectiva
2.5.3. Algoritmos paralelos por paso de mensajes
2.5.4. Librerías para programación paralela con paso de mensajes

2.6. Message Passing Interface (MPI)

2.6.1. Message Passing Interface (MPI)
2.6.2. Ejecución y depuración de programas con MPI
2.6.3. Algoritmos paralelos por paso de mensajes con MPI

2.7. Programación paralela híbrida

2.7.1. Programación paralela híbrida
2.7.2. Ejecución y depuración de programas paralelos híbridos
2.7.3. Algoritmos paralelos híbridos MPI-OpenMP

2.8. Programación paralela con computación heterogénea

2.8.1. Programación paralela con computación heterogénea
2.8.2. CPU vs. GPU
2.8.3. Algoritmos paralelos con computación heterogénea

2.9. OpenCL y CUDA

2.9.1. OpenCL vs. CUDA
2.9.2. Ejecución y depuración de programas paralelos con computación heterogénea
2.9.3. Algoritmos paralelos con computación heterogénea

2.10. Diseño de algoritmos paralelos

2.10.1. Diseño de algoritmos paralelos
2.10.2. Problema y contexto
2.10.3. Paralelización automática vs. Paralelización manual
2.10.4. Particionamiento del problema
2.10.5. Comunicaciones en computación

Módulo 3. Arquitecturas paralelas

3.1. Arquitecturas paralelas

3.1.1. Sistemas paralelos. Clasificación
3.1.2. Fuentes de paralelismo
3.1.3. Paralelismo y procesadores

3.2. Rendimiento de los sistemas paralelos

3.2.1. Magnitudes y medidas de rendimiento
3.2.2. Speed-up
3.2.3. Granularidad de los sistemas paralelos

3.3. Procesadores vectoriales

3.3.1. Procesador vectorial básico
3.3.2. Memoria entrelazada o intercalada
3.3.3. Rendimiento de los procesadores vectoriales

3.4. Procesadores matriciales

3.4.1. Organización básica
3.4.2. Programación en procesadores matriciales
3.4.3. Programación en procesadores matriciales. Ejemplo práctico

3.5. Redes de interconexión

3.5.1. Redes de interconexión
3.5.2. Topología, control de flujo y encaminamiento
3.5.3. Redes de interconexión. Clasificación según topología

3.6. Multiprocesadores

3.6.1. Redes de interconexión para multiprocesadores
3.6.2. Consistencia de memoria y cachés
3.6.3. Protocolos de sondeo

3.7. Sincronización

3.7.1. Cerrojos (exclusión mutua)
3.7.2. Eventos de sincronización P2P
3.7.3. Eventos de sincronización globales

3.8. Multicomputadores

3.8.1. Redes de interconexión para multicomputadores
3.8.2. Capa de conmutación
3.8.3. Capa de encaminamiento

3.9. Arquitecturas avanzadas

3.9.1. Máquinas de flujo de datos
3.9.2. Otras arquitecturas

3.10. Programación paralela y distribuida

3.10.1. Lenguajes para programación paralela
3.10.2. Herramientas de programación paralela
3.10.3. Patrones de diseño
3.10.4. Concurrencia de lenguajes de programación paralela y distribuida

Especialización en Computación Paralela

$ 1.799.995 IVA inc.