Internet grid
La computación Grid es el conjunto de recursos informáticos
de varias ubicaciones para alcanzar un objetivo común. La rejilla puede ser
pensado como un sistema distribuido con cargas de trabajo no interactivos que
involucran un gran número de archivos. La computación grid se distingue de los
sistemas de computación de alto rendimiento convencionales, tales como la
computación en clúster en que las computadoras de la red tienen cada nodo
establecido para realizar una tarea / aplicación diferente. computadoras cuadrícula también tienden a ser
más heterogéneo y disperso geográficamente (por lo tanto no acoplado
físicamente) que las computadoras de racimo. Aunque una sola rejilla puede ser
dedicado a una aplicación particular, comúnmente una rejilla se utiliza para
una variedad de propósitos. Grids menudo se construyen con bibliotecas de
software middleware rejilla de uso general.
Tamaño de la cuadrícula varía una cantidad considerable.
Grids son una forma de computación distribuida por el que un "super
computadora virtual" se compone de muchos ordenadores débilmente acoplados
en red que actúan en conjunto para realizar tareas grandes. Para ciertas
aplicaciones, "distribuido" o "grid" computación, puede ser
visto como un tipo especial de computación paralela que se basa en equipos
completos (con CPUs a bordo, almacenamiento, fuentes de alimentación,
interfaces de red, etc.) conectados a una red (privada o público) por una
interfaz de red convencional, tal como Ethernet. Esto está en contraste con la
noción tradicional de una supercomputadora, que tiene muchos procesadores
conectados por un bus local de computación de alta velocidad.
Descripción
Grid computing combina computadoras de múltiples dominios
administrativos para alcanzar un objetivo común, [3] para resolver una sola
tarea, y pueden luego desaparecen con la misma rapidez.
Una de las principales estrategias de la computación grid es
el uso de middleware para dividir y repartir piezas de un programa entre varios
ordenadores, a veces hasta varios miles. La computación grid implica la
computación de una manera distribuida, que también puede implicar la agregación
de grupos a gran escala.
El tamaño de una cuadrícula puede variar desde pequeños
confinados a una red de estaciones de trabajo dentro de una empresa, por
ejemplo, a las grandes colaboraciones públicas, a través de muchas empresas y
redes. "La noción de una rejilla confinada también se conoce como la
cooperación intra-nodos, mientras que la noción de una red más grande, más
amplio por lo tanto puede referirse a una inter-nodos cooperación".
Grids son una forma de computación distribuida por el que un
"super computadora virtual" se compone de muchos ordenadores
débilmente acoplados en red que actúan en conjunto para realizar tareas muy
grandes. Esta tecnología se ha aplicado a computacionalmente problemas
científicos, matemáticos y académicos intensivos a través de la computación
voluntaria, y se utiliza en las empresas comerciales para aplicaciones tan
diversas como el descubrimiento de fármacos, la previsión económica, análisis
sísmico y la espalda de procesamiento de datos de oficinas en apoyo a e-
comercio y los servicios web.
La coordinación de las aplicaciones en Grids puede ser una
tarea compleja, especialmente cuando coordinar el flujo de información a través
de los recursos de computación distribuida. Sistemas de flujo de trabajo de
cuadrícula se han desarrollado como una forma especializada de un sistema de
gestión de flujo de trabajo diseñado específicamente para componer y ejecutar
una serie de etapas de manipulación computacional o datos, o un flujo de
trabajo, en el contexto de cuadrícula.
Comparación de las
redes y los superordenadores convencionales
"Distribuida" o "grid" computación en
general es un tipo especial de computación paralela que se basa en equipos
completos (con CPUs a bordo, almacenamiento, fuentes de alimentación, interfaces
de red, etc.) conectados a una red (privada, pública o Internet) por un
hardware de los productos básicos de interfaz de red producción convencional,
en comparación con la menor eficiencia de diseñar y construir un pequeño número
de superordenadores personalizados. La desventaja principal es el rendimiento
que los diferentes procesadores y áreas de almacenamiento locales no cuentan
con conexiones de alta velocidad. Este arreglo es por lo tanto muy adecuado
para aplicaciones en las que múltiples cálculos paralelos pueden llevarse a
cabo de forma independiente, sin la necesidad de comunicar los resultados
intermedios entre los procesadores. [5] La escalabilidad de gama alta de las
redes geográficamente dispersa es en general favorable, debido a la baja necesidad
para la conectividad entre nodos relativos a la capacidad de la Internet
pública.
También hay algunas diferencias en la programación e
implementación. Puede ser costoso y difícil de escribir programas que se pueden
ejecutar en el entorno de una supercomputadora, que puede tener un sistema
operativo personalizado, o requerir el programa para hacer frente a problemas
de concurrencia. Si un problema puede ser paralelizado adecuadamente, una capa
"delgada" de infraestructura "red" puede permitir que los
programas convencionales, independientes, dada una parte diferente del mismo
problema, a ejecutarse en múltiples máquinas. Esto hace que sea posible
escribir y depurar en una sola máquina convencional, y elimina las
complicaciones debido a varias instancias del mismo programa que se ejecuta en
la misma memoria compartida y el espacio de almacenamiento al mismo tiempo.
Consideraciones sobre
el diseño y las variaciones
Esta sección no citar todas las referencias o fuentes. Por
favor, ayudar a mejorar esta sección añadiendo citas de fuentes confiables.
Material de referencias puede ser impugnado y eliminado. (Agosto de 2013)
Una característica de las redes distribuidas es que pueden
formarse a partir de los recursos informáticos pertenecientes a múltiples
individuos u organizaciones (conocidos como múltiples dominios
administrativos). Esto puede facilitar las transacciones comerciales, como en
utility computing, o que sea más fácil de montar redes de computación
voluntaria.
Una desventaja de esta función es que los equipos que
realicen efectivamente los cálculos pueden no ser del todo fiable. Los
diseñadores del sistema deben por tanto adoptar medidas para evitar un mal
funcionamiento o participantes maliciosos de la producción falsa, engañosa o
resultados erróneos, y de utilizar el sistema como un vector de ataque. Esto a
menudo implica la asignación de trabajo al azar a diferentes nodos
(presumiblemente con diferentes propietarios) y la comprobación de que al menos
dos nodos diferentes informan la misma respuesta para una unidad de trabajo
dado. Las discrepancias identificarían nodos defectuosos y maliciosos. Sin
embargo, debido a la falta de control central sobre el hardware, no hay ninguna
manera de garantizar que los nodos no se caiga fuera de la red en momentos
aleatorios. Algunos nodos (como ordenadores portátiles o los clientes de acceso
telefónico a Internet) también pueden estar disponibles para el cálculo, pero
no la red de comunicaciones por períodos impredecibles. Estas variaciones se
pueden acomodar mediante la asignación de unidades de trabajo grandes (lo que
reduce la necesidad de conectividad de red continua) y la reasignación de
unidades de trabajo cuando un nodo dado no informa sus resultados en el tiempo
esperado.
Los impactos de la confianza y la disponibilidad en
dificultad el rendimiento y el desarrollo pueden influir en la elección de si
se debe desplegar en un clúster dedicado, a ralentí máquinas internas a la
organización en desarrollo, o con una red externa abierta de voluntarios o
contratistas. En muchos casos, los nodos participantes deben confiar en el
sistema central no abusar del acceso que se concede, al interferir con el
funcionamiento de otros programas, destrozando la información almacenada, la
transmisión de datos privados, o la creación de nuevos agujeros de seguridad.
Otros sistemas emplean medidas para reducir la cantidad de nodos de confianza
"cliente" debe colocar en el sistema central como la colocación de
aplicaciones en máquinas virtuales.
Los sistemas públicos o aquellos dominios administrativos
que cruzan (incluyendo diferentes departamentos de la misma organización) a
menudo resultan en la necesidad de ejecutar en sistemas heterogéneos, con
diferentes sistemas operativos y arquitecturas de hardware. Con muchos idiomas,
existe un compromiso entre la inversión en desarrollo de software y el número
de plataformas que puede ser soportada (y por lo tanto el tamaño de la red
resultante). Idiomas entre plataformas pueden reducir la necesidad de hacer
esta compensación, aunque potencialmente a expensas de alto rendimiento en
cualquier nodo dado (interpretación para funcionar en tiempo debido o la falta
de optimización de la plataforma en particular). Existen diversos proyectos científicos
y comerciales para aprovechar una red asociada en particular o con el propósito
de la creación de nuevas redes. BOINC es una común para varios proyectos
académicos que buscan voluntarios públicos; más se enumeran al final del
artículo.
De hecho, el middleware se puede ver como una capa entre el
hardware y el software. En la parte superior del middleware, una serie de áreas
técnicas tienen que ser considerados, y estos pueden o no ser middleware
independiente. Áreas ejemplo incluyen gestión de SLA, Confianza y Seguridad,
gestión de la organización virtual, gestión de licencias, Portales y gestión de
datos. Estas áreas técnicas pueden ser atendidos en una solución comercial,
aunque la vanguardia de cada área se encuentra a menudo en los proyectos específicos
de investigación que examinan el campo.
El lado del proveedor
El mercado global de rejilla comprende varios mercados
específicos. Estos son el mercado de middleware grid, el mercado de
aplicaciones de red habilitada, el mercado de la informática de servicios
públicos, y el-as-a-service software (SaaS) de mercado.
Middleware Grid es un producto de software específico, que
permite el intercambio de recursos heterogéneos, y organizaciones virtuales.
Está instalado e integrado en la infraestructura existente de la empresa
involucrados o empresas, y proporciona una capa especial colocado entre la
infraestructura heterogénea y las aplicaciones de usuario específicas.
Principales middleware grid Globus Toolkit son, gLite y UNICORE.
Utility computing se refiere como la prestación de grid
computing y aplicaciones como el servicio, ya sea como una utilidad de rejilla
abierta o como una solución de hosting para una organización o un VO. Los
principales actores en el mercado de la informática de utilidad son Sun
Microsystems, IBM y HP.
Aplicaciones de redes habilitadas son aplicaciones de
software específicas que pueden utilizar la infraestructura de red. Esto se
hace posible por el uso de middleware rejilla, como se ha señalado
anteriormente.
Software como servicio (SaaS) es "software que es
propiedad, entregado y gestionar de forma remota por uno o más
proveedores." (Gartner 2007) Además, las aplicaciones SaaS se basan en un
único conjunto de definiciones de códigos y de datos comunes. Se consumen en un
modelo de uno-a-muchos, y SaaS utiliza un As You Go modelo (de reparto) o un
modelo de suscripción que se basa en el uso de pago. Los proveedores de SaaS no
poseen necesariamente los propios recursos informáticos, que son necesarios
para ejecutar sus SaaS. Por lo tanto, los proveedores de SaaS pueden aprovechar
el mercado de utility computing. El mercado de la informática de utilidades
proporciona recursos de computación para los proveedores de SaaS.
El lado del usuario
Para las empresas que en el lado de la demanda o usuario del
mercado de la computación grid, los diferentes segmentos tienen implicaciones
significativas para su estrategia de implementación de TI. La estrategia de
implementación de TI, así como el tipo de inversiones en TI hecho son aspectos
relevantes para los usuarios potenciales de la cuadrícula y desempeñan un papel
importante para la adopción de cuadrícula.
CPU de barrido
CPU-barrido, ciclo de recolección de residuos, o la
computación compartida crea una "red" de los recursos no utilizados
en una red de participantes (ya sea a nivel mundial o internas en una
organización). Normalmente esta técnica utiliza escritorio ciclos de
instrucción de computadoras que otro modo se perdería en la noche, durante el
almuerzo, o incluso en los segundos dispersos a lo largo del día en que el
equipo está a la espera de la entrada del usuario o dispositivos lentos. En la
práctica, los sistemas participantes también donar cierta cantidad de soporte
de espacio de almacenamiento en disco, memoria RAM, y ancho de banda, además de
energía de la CPU en bruto.
Muchos proyectos de computación voluntaria, como BOINC,
utilizan el modelo de barrido de la CPU. Puesto que los nodos son propensos a
ir "fuera de línea" de vez en cuando, ya que sus propietarios
utilizan sus recursos para su objetivo principal, este modelo debe estar
diseñado para manejar este tipo de contingencias.
Historia
La computación grid término se originó en la década de 1990
como una metáfora de poder de toma de equipo como de fácil acceso como una red
de energía eléctrica. La metáfora red eléctrica para la informática accesible
rápidamente se convirtió canónica cuando Ian Foster y Carl Kesselman publicaron
su trabajo seminal, "The Grid: Modelo para una nueva infraestructura informática"
(1999).
Barrido de la CPU y la computación voluntaria se
popularizaron a partir de 1997 por distributed.net y más tarde en 1999 por SETI
@ home para aprovechar el poder de los ordenadores conectados en red a nivel
mundial, con el fin de resolver problemas de investigación intensivo de la CPU.

En 2007 el término cloud computing entró en popularidad, que
es conceptualmente similar a la definición de Foster canónica de grid computing
(en términos de recursos informáticos que se consumen en forma de electricidad
es de la red eléctrica). De hecho, grid computing es a menudo (pero no siempre)
están asociados con la entrega de sistemas de computación en nube como lo
ejemplifica el sistema AppLogic de 3Tera.
Rápidas
supercomputadoras virtuales
A partir de 2014 junio de Bitcoin Red. - 1166652 PFLOPS
A partir de abril de 2013, Folding @ home -. 11,4 x
86-equivalente (5,8 "nativos") PFLOPS [9]
A partir de marzo de 2013, en BOINC -. Procesamiento en
promedio 9.2 PFLOPS
En abril de 2010, de MilkyWay @ Home calcula en más de
1,6 PFLOPS, con una gran cantidad de este trabajo que viene de GPUs.
En abril de 2010, SETI @ Home calcula promedios de datos
de más de 730 TFLOPS.
En abril de 2010, Einstein @ Home está crujiendo más de
210 TFLOPS.
A junio de 2011, GIMPS está sosteniendo 61 TFLOPS.
Proyectos y Aplicaciones
Lista de proyectos de
computación distribuida
Grid computing ofrece una manera de resolver los problemas
de Gran reto como el plegamiento de proteínas, modelado financiero, simulación
de terremoto, y la modelización del clima / tiempo. Rejillas ofrecen una manera
de utilizar los recursos de tecnología de la información de manera óptima
dentro de una organización. También proporcionan un medio para ofrecer
tecnología de la información como una utilidad para los clientes comerciales y
no comerciales, con los clientes pagando sólo por lo que utilizan, al igual que
con la electricidad o el agua.
La computación grid está siendo aplicada por Nacional de
Tecnología de la rejilla de la Fundación Nacional de la Ciencia, de la NASA
Información Power Grid, Pratt & Whitney, Bristol-Myers Squibb Co. y American
Express.
Definiciones
Hoy en día hay muchas definiciones de la computación grid:

Los recursos informáticos no se administran de forma
centralizada.
Se utilizan estándares abiertos.
Se logra la calidad no trivial de servicio.
Plaszczak / Wellner: definen la tecnología de redes como
"la tecnología que permite el aprovisionamiento de virtualización de
recursos, a la carta, y el servicio (de recursos) para compartir entre las
organizaciones."
IBM define grid computing como "la capacidad,
utilizando un conjunto de estándares y protocolos abiertos, para tener acceso a
aplicaciones y datos, poder de procesamiento, capacidad de almacenamiento y una
amplia gama de otros recursos informáticos a través de Internet. Una red es un
tipo de paralelo y sistema distribuido que permite compartir, seleccionar, y la
agregación de los recursos distribuidos a través de 'múltiples' dominios
administrativos basados en su (recursos) la disponibilidad, capacidad,
rendimiento, costo y requisitos de los usuarios la calidad de servicio ".
Un ejemplo anterior de la noción de la informática como la
utilidad fue en 1965 por el MIT Fernando Corbató. Corbató y los otros
diseñadores del sistema operativo Multics imaginaron una instalación informática
que opera "como una compañía de electricidad o agua empresa".
Buyya / Venugopal [28] definir cuadrícula como "un tipo
de sistema paralelo y distribuido que permite compartir, seleccionar, y la
agregación de recursos autónomos distribuidos geográficamente de forma dinámica
en tiempo de ejecución en función de su disponibilidad, capacidad, rendimiento,
coste y calidad- de los usuarios de Servicio requisitos ".
CERN, uno de los mayores usuarios de la tecnología de redes,
hablar de The Grid: ". Un servicio para compartir el poder informático y
la capacidad de almacenamiento de datos a través de Internet"
No hay comentarios:
Publicar un comentario