miércoles, 4 de enero de 2012

¿Qué es la Computación Paralela?


El paralelismo es una forma de computación basada en un principio aparentemente simple:
" Dividir los problemas grandes en varios pequeños y solucionarlos simultáneamente,"
Esto permite ejecutar más instrucciones en menos tiempo.
Pero llevado a la práctica es una cuestión altamente compleja en la que se encuentran investigando grupos científicos de todo el mundo.
En la Universidad de Valladolid, investigadores del Departamento de Informática trabajan desde hace años en estos temas de computación distribuida, un área en la que han publicado múltiples artículos.
" El problema que pretendemos resolver es que los ordenadores de hoy en día han dejado de ser cada vez más rápidos, y los fabricantes, en vez de hacer un único microprocesador más avanzado, que tiene unos consumos muy elevados, lo que hacen es poner dos, cuatro o más, incluso 80 en algunos ordenadores experimentales”, detallan los investigadores Diego Llanos y Arturo González.
Esto ha sido posible gracias a una mejora en la tecnología de fabricación, que ha posibilitado una reducción en el tamaño de los elementos que componen estos microprocesadores y, por tanto, que se puedan incluir más dispositivos en la misma área "



Otras Fuentes:

La computación paralela es una técnica de programación en la que muchas instrucciones se ejecutan simultáneamente. Se basa en el principio de que los problemas grandes se pueden dividir en partes más pequeñas que pueden resolverse de forma concurrente ("en paralelo"). 
Existen varios tipos de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. 
Durante muchos años, la computación paralela se ha aplicado en la computación de altas prestaciones, pero el interés en ella ha aumentado en los últimos años debido a las restricciones físicas que impiden el escalado en frecuencia. 
La computación paralela se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en los procesadores multinúcleo. 
Sin embargo, recientemente, el consumo de energía de los ordenadores paralelos se ha convertido en una preocupación.

Los ordenadores paralelos se pueden clasificar según el nivel de paralelismo que admite su hardware: los ordenadores multinúcleo y multiproceso tienen varios elementos de procesamiento en una sola máquina, mientras que los clusters, los MPP y los grids emplean varios ordenadores para trabajar en la misma tarea. 


Los programas de ordenador paralelos son más difíciles de escribir que los secuenciales porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los más comunes. 
La comunicación y la sincronización entre las diferentes subtareas son típicamente las grandes barreras para conseguir un buen rendimiento de los programas paralelos. 
El incremento de velocidad que consigue un programa como resultado de la paralelización viene dado por la ley de Amdahl.
______________________________


1 comentario: