LCGXXI


Computación distribuida

Procesamiento paralelo.

Como computación distribuida se entiende una serie de computadores individuales unidos por una red de comunicaciones distribuida, de manera que todos unidos forman un gran supercomputador. Esto permite resolver problemas demasiado grandes para un superordenador, con la participación de muchos unidos , dividiendo el problema en otros mas pequeños. Como el trabajo se divide en pequeñas partes que se pueden procesar simultáneamente, el tiempo de investigación se reduce de años a meses.

Esto nos lleva a distinguir entre dos formas de realizar este procesamiento paralelo: computación en cluster y computación en grid; la principal diferencia entre ambos es el grado de acoplamiento y lo heterogéneo de los ordenadores que lo componen. Y es en el "grid computing" donde ha surgido, como no podía ser de otra manera, una serie de proyectos de voluntariado que permiten aprovechar el potencial de los computadores cuando están encendidos, pero se encuentran inactivos por unos segundos o minutos, para proyectos que beneficien a la humanidad. Abundan los proyectos altruistas de este tipo que ayudan a la comunidad científica a progresar día a día. Y no pasemos por alto que es eficiente energéticamente hablando ya que de no utilizar eso tiempo ocioso de los PCs se hubiese desaprovechado esa energía.

Puedo citar el conocido SETI@Home o la World Community Grid. Utilizan el software BOINC que se puede instalar en PCs, Mac y/o móviles para unirse a la gran masa de dispositivos que ya colaboran con sus CPUs y GPUs.

Si algun@ de vosotros quiere unirse al equipo "Ciudad de La Coruña" será bienvenid@.

Las redes P2P, o redes entre iguales, si bien no constituyen un supercomputador si se las considera un "grid". Los dispositivos conectados a una red P2P, en general funcionan como servidores o clientes indistintamente formando una red constituida por nodos de similares características y que de esta manera comparten recursos, de procesamiento o de datos, entre ellos de igual a igual. Las computación distribuida en este tipo de "grid" tiene unas características de robustez, escalabilidad y descentralización que son algunas de las razones del éxito de la criptomoneda Bitcoin

Lo deseable es tener unas prestaciones máximas en cualquier situación, pero para una mejor comprensión se clasifican en dos amplios apartados:

Alto rendimiento HPCC (High Performance Computing Clusters: cluster de alto rendimiento) para aplicaciones de simulación por ordenador, renderizado, 3D, etc

Alta disponibilidad HACC (High Availability Computing Clusters: cluster de alta disponibilidad) por ejemplo en servidores de aplicaciones en Internet, cloud computing.

El trading de alta frecuencia, una aplicación de red social, Big Data, son dos ejemplos de casos en los que tanto rendimiento como disponibilidad son imprescindibles y se da un equilibrio entre ellos e incluso se adaptan a los requerimientosde demanda en cada momentos.

Como a estas alturas del siglo XXI ya hace tiempo que existen mas máquinas/computadoras que personas, es muy positivo que el flujo de información que se genera se almacene, realimente y redistribuya en y por cada integrante de la red global. Estos flujos de información entre máquinas (M2M), maquina-persona y persona-persona, son en su conjunto los que componen lo que se ha dado en conocer como Big Data. Una gran conjunto de datos poco estructurados, que se puede contraponer a los datos almacenados en una base de datos.


©2017 JCBretal
Powered by Google App Engine