Paralelismo ( informática)

Revisión del 15:34 8 nov 2011 de Enriquejccmg (discusión | contribuciones) (Página creada con '{{Definición |nombre=Paralelismo en la informática. |imagen=portadalee.jpg |tamaño= |concepto= }} <div align="justify"> ''' Paralelismo en la informática '''. Es una funció...')
(dif) ← Revisión anterior | Revisión actual (dif) | Revisión siguiente → (dif)
Paralelismo en la informática.
Información sobre la plantilla
Portadalee.jpg

Paralelismo en la informática . Es una función que realiza el procesador para ejecutar varias tareas al mismo tiempo. Es decir, puede realizar varios cálculos simultáneamente, basado en el principio de dividir los problemas grandes para obtener varios problemas pequeños, que son posteriormente solucionados en paralelo.

Aplicaciones.

El empleo de la computación paralela se convierte cada día en más grande y rápida, muchos problemas considerados anteriormente muy largos y costosos se han podido solucionar. El paralelismo se ha utilizado para muchas temáticas diferentes, desde bioinformática para hacer plegamiento de proteínas, hasta economía para hacer simulaciones en matemática financiera.

Tipos de paralelismo en la informática.

  1. Nivel de bit.
  2. Nivel de instrucción.
  3. Nivel de datos.
  4. Nivel de tarea.

El paralelismo o procesamiento paralelo ha sido empleado durante muchos años, sobre todo para la computación de alto rendimiento, teniendo en cuenta las generaciones de procesadores y sus características.

Desventajas.

  1. Requieren de un gran número de ciclos de procesamiento o acceso a una gran cantidad de datos.
  2. Encontrar un hardware y un software que permitan brindar estas utilidades comúnmente proporciona inconvenientes de costos, seguridad y disponibilidad.

Ventajas.

  1. Brinda a las empresas, instituciones y usuarios en general el beneficio de la velocidad.
  2. Ventaja competitiva, provee una mejora de los tiempos para la producción de nuevos productos y servicios.
  3. Colaboración y flexibilidad operacional.

Clasificación de los sistemas paralelos en la informática.

  • Flujo de control; las instrucciones se van ejecutando según el orden en el que se encuentran en memoria.
  • Flujo de datos; el flujo de ejecución es conducido por los datos; una instrucción será ejecutada cuando los operandos estén disponibles.
  • Reducción; la ejecución se realiza por demanda, una instrucción será ejecutada cuando otra necesite sus resultados. Son una clase de las de flujo de datos.
  • SISD; arquitectura de simple construcción sobre simple dato. Serie en datos e instrucciones, arquitectura Von Neumann.
  • SIMD; un solo flujo de instrucciones y múltiples en datos. Computadores matriciales. Una unidad de control que gobierna varias unidades aritmético-lógicas.
  • MISD; varios flujos de instrucciones y uno solo de datos. Arquitectura no implementada, consecuencia teórica de la clasificación. Superestructura Pipeline, varios conjuntos de unidad de control más unidad aritmético lógica realizan partes de una operación sobre un flujo de datos.
  • MIMD; arquitectura multiprocesador con varios flujos tanto de instrucciones como de datos. Varios procesadores serie convencionales que manejan cada uno un flujo de instrucciones sobre un flujo de datos.

Durante el proceso de computación se ejecutan sucesos concurrentes, que se clasifican de la siguiente manera.

Fuentes

  • www.intel.com
  • www.ciryx.com
  • www.mot.com
  • www.sun.com
  • www.xuletas.es/ficha/arquitectura-de-computadores-paralelismo
  • www.textoscientificos.com