Skip to main content

¿Qué son los sistemas operativos paralelos?

Los sistemas operativos paralelos se utilizan para interconectar múltiples computadoras en red para completar tareas en paralelo. La arquitectura del software es a menudo una plataforma basada en UNIX, que le permite coordinar cargas distribuidas entre múltiples computadoras en una red. Los sistemas operativos paralelos pueden usar software para administrar todos los diferentes recursos de las computadoras que se ejecutan en paralelo, como memoria, cachés, espacio de almacenamiento y potencia de procesamiento. Los sistemas operativos paralelos también permiten al usuario interactuar directamente con todas las computadoras de la red.

Un sistema operativo paralelo funciona dividiendo conjuntos de cálculos en partes más pequeñas y distribuyéndolos entre las máquinas en una red. Para facilitar la comunicación entre los núcleos del procesador y las matrices de memoria, el software de enrutamiento tiene que compartir su memoria asignando el mismo espacio de direcciones a todas las computadoras en red, o distribuir su memoria asignando un espacio de direcciones diferente a cada núcleo de procesamiento. Compartir memoria permite que el sistema operativo se ejecute muy rápidamente, pero generalmente no es tan potente. Cuando se usa memoria compartida distribuida, los procesadores tienen acceso tanto a su propia memoria local como a la memoria de otros procesadores; Esta distribución puede ralentizar el sistema operativo, pero a menudo es más flexible y eficiente.

La mayoría de los campos de la ciencia, incluida la biotecnología, la cosmología, la física teórica, la astrofísica y la informática, utilizan sistemas operativos paralelos para utilizar el poder de la computación paralela. Estos tipos de configuraciones de sistemas también ayudan a crear eficiencia en industrias tales como consultoría, finanzas, defensa, telecomunicaciones y pronóstico del tiempo. De hecho, la computación paralela se ha vuelto tan robusta que los cosmólogos la han utilizado para responder preguntas sobre el origen del universo. Estos científicos pudieron ejecutar simulaciones de grandes secciones de espacio al mismo tiempo: solo les llevó un mes compilar una simulación de la formación de la Vía Láctea, una hazaña que antes se creía imposible.

Los científicos, las investigaciones y las industrias a menudo eligen usar sistemas operativos paralelos debido a su rentabilidad también. Cuesta mucho menos dinero ensamblar una red informática paralela que desarrollar y construir una supercomputadora para la investigación. Los sistemas paralelos también son completamente modulares, lo que permite realizar reparaciones y actualizaciones económicas.

En 1967, Gene Amdahl, mientras trabajaba en IBM, conceptualizó la idea de usar software para coordinar la computación paralela. Publicó sus hallazgos en un documento llamado Ley de Amdahl , que describía el aumento teórico en la potencia de procesamiento que uno podría esperar al ejecutar una red con un sistema operativo paralelo. Su investigación condujo al desarrollo de la conmutación de paquetes y, por lo tanto, al moderno sistema operativo paralelo. Este desarrollo a menudo pasado por alto también fue el avance que más tarde inició el "Proyecto Arpanet", que es responsable de la base básica de la red de computadoras paralelas más grande del mundo: Internet.