viernes, 30 de enero de 2015

Internet grid
La computación Grid es el conjunto de recursos informáticos de varias ubicaciones para alcanzar un objetivo común. La rejilla puede ser pensado como un sistema distribuido con cargas de trabajo no interactivos que involucran un gran número de archivos. La computación grid se distingue de los sistemas de computación de alto rendimiento convencionales, tales como la computación en clúster en que las computadoras de la red tienen cada nodo establecido para realizar una tarea / aplicación diferente.  computadoras cuadrícula también tienden a ser más heterogéneo y disperso geográficamente (por lo tanto no acoplado físicamente) que las computadoras de racimo. Aunque una sola rejilla puede ser dedicado a una aplicación particular, comúnmente una rejilla se utiliza para una variedad de propósitos. Grids menudo se construyen con bibliotecas de software middleware rejilla de uso general.
Tamaño de la cuadrícula varía una cantidad considerable. Grids son una forma de computación distribuida por el que un "super computadora virtual" se compone de muchos ordenadores débilmente acoplados en red que actúan en conjunto para realizar tareas grandes. Para ciertas aplicaciones, "distribuido" o "grid" computación, puede ser visto como un tipo especial de computación paralela que se basa en equipos completos (con CPUs a bordo, almacenamiento, fuentes de alimentación, interfaces de red, etc.) conectados a una red (privada o público) por una interfaz de red convencional, tal como Ethernet. Esto está en contraste con la noción tradicional de una supercomputadora, que tiene muchos procesadores conectados por un bus local de computación de alta velocidad.
Descripción
Grid computing combina computadoras de múltiples dominios administrativos para alcanzar un objetivo común, [3] para resolver una sola tarea, y pueden luego desaparecen con la misma rapidez.
Una de las principales estrategias de la computación grid es el uso de middleware para dividir y repartir piezas de un programa entre varios ordenadores, a veces hasta varios miles. La computación grid implica la computación de una manera distribuida, que también puede implicar la agregación de grupos a gran escala.
El tamaño de una cuadrícula puede variar desde pequeños confinados a una red de estaciones de trabajo dentro de una empresa, por ejemplo, a las grandes colaboraciones públicas, a través de muchas empresas y redes. "La noción de una rejilla confinada también se conoce como la cooperación intra-nodos, mientras que la noción de una red más grande, más amplio por lo tanto puede referirse a una inter-nodos cooperación".
Grids son una forma de computación distribuida por el que un "super computadora virtual" se compone de muchos ordenadores débilmente acoplados en red que actúan en conjunto para realizar tareas muy grandes. Esta tecnología se ha aplicado a computacionalmente problemas científicos, matemáticos y académicos intensivos a través de la computación voluntaria, y se utiliza en las empresas comerciales para aplicaciones tan diversas como el descubrimiento de fármacos, la previsión económica, análisis sísmico y la espalda de procesamiento de datos de oficinas en apoyo a e- comercio y los servicios web.
La coordinación de las aplicaciones en Grids puede ser una tarea compleja, especialmente cuando coordinar el flujo de información a través de los recursos de computación distribuida. Sistemas de flujo de trabajo de cuadrícula se han desarrollado como una forma especializada de un sistema de gestión de flujo de trabajo diseñado específicamente para componer y ejecutar una serie de etapas de manipulación computacional o datos, o un flujo de trabajo, en el contexto de cuadrícula.
Comparación de las redes y los superordenadores convencionales
"Distribuida" o "grid" computación en general es un tipo especial de computación paralela que se basa en equipos completos (con CPUs a bordo, almacenamiento, fuentes de alimentación, interfaces de red, etc.) conectados a una red (privada, pública o Internet) por un hardware de los productos básicos de interfaz de red producción convencional, en comparación con la menor eficiencia de diseñar y construir un pequeño número de superordenadores personalizados. La desventaja principal es el rendimiento que los diferentes procesadores y áreas de almacenamiento locales no cuentan con conexiones de alta velocidad. Este arreglo es por lo tanto muy adecuado para aplicaciones en las que múltiples cálculos paralelos pueden llevarse a cabo de forma independiente, sin la necesidad de comunicar los resultados intermedios entre los procesadores. [5] La escalabilidad de gama alta de las redes geográficamente dispersa es en general favorable, debido a la baja necesidad para la conectividad entre nodos relativos a la capacidad de la Internet pública.
También hay algunas diferencias en la programación e implementación. Puede ser costoso y difícil de escribir programas que se pueden ejecutar en el entorno de una supercomputadora, que puede tener un sistema operativo personalizado, o requerir el programa para hacer frente a problemas de concurrencia. Si un problema puede ser paralelizado adecuadamente, una capa "delgada" de infraestructura "red" puede permitir que los programas convencionales, independientes, dada una parte diferente del mismo problema, a ejecutarse en múltiples máquinas. Esto hace que sea posible escribir y depurar en una sola máquina convencional, y elimina las complicaciones debido a varias instancias del mismo programa que se ejecuta en la misma memoria compartida y el espacio de almacenamiento al mismo tiempo.
Consideraciones sobre el diseño y las variaciones
Esta sección no citar todas las referencias o fuentes. Por favor, ayudar a mejorar esta sección añadiendo citas de fuentes confiables. Material de referencias puede ser impugnado y eliminado. (Agosto de 2013)
Una característica de las redes distribuidas es que pueden formarse a partir de los recursos informáticos pertenecientes a múltiples individuos u organizaciones (conocidos como múltiples dominios administrativos). Esto puede facilitar las transacciones comerciales, como en utility computing, o que sea más fácil de montar redes de computación voluntaria.
Una desventaja de esta función es que los equipos que realicen efectivamente los cálculos pueden no ser del todo fiable. Los diseñadores del sistema deben por tanto adoptar medidas para evitar un mal funcionamiento o participantes maliciosos de la producción falsa, engañosa o resultados erróneos, y de utilizar el sistema como un vector de ataque. Esto a menudo implica la asignación de trabajo al azar a diferentes nodos (presumiblemente con diferentes propietarios) y la comprobación de que al menos dos nodos diferentes informan la misma respuesta para una unidad de trabajo dado. Las discrepancias identificarían nodos defectuosos y maliciosos. Sin embargo, debido a la falta de control central sobre el hardware, no hay ninguna manera de garantizar que los nodos no se caiga fuera de la red en momentos aleatorios. Algunos nodos (como ordenadores portátiles o los clientes de acceso telefónico a Internet) también pueden estar disponibles para el cálculo, pero no la red de comunicaciones por períodos impredecibles. Estas variaciones se pueden acomodar mediante la asignación de unidades de trabajo grandes (lo que reduce la necesidad de conectividad de red continua) y la reasignación de unidades de trabajo cuando un nodo dado no informa sus resultados en el tiempo esperado.
Los impactos de la confianza y la disponibilidad en dificultad el rendimiento y el desarrollo pueden influir en la elección de si se debe desplegar en un clúster dedicado, a ralentí máquinas internas a la organización en desarrollo, o con una red externa abierta de voluntarios o contratistas. En muchos casos, los nodos participantes deben confiar en el sistema central no abusar del acceso que se concede, al interferir con el funcionamiento de otros programas, destrozando la información almacenada, la transmisión de datos privados, o la creación de nuevos agujeros de seguridad. Otros sistemas emplean medidas para reducir la cantidad de nodos de confianza "cliente" debe colocar en el sistema central como la colocación de aplicaciones en máquinas virtuales.
Los sistemas públicos o aquellos dominios administrativos que cruzan (incluyendo diferentes departamentos de la misma organización) a menudo resultan en la necesidad de ejecutar en sistemas heterogéneos, con diferentes sistemas operativos y arquitecturas de hardware. Con muchos idiomas, existe un compromiso entre la inversión en desarrollo de software y el número de plataformas que puede ser soportada (y por lo tanto el tamaño de la red resultante). Idiomas entre plataformas pueden reducir la necesidad de hacer esta compensación, aunque potencialmente a expensas de alto rendimiento en cualquier nodo dado (interpretación para funcionar en tiempo debido o la falta de optimización de la plataforma en particular). Existen diversos proyectos científicos y comerciales para aprovechar una red asociada en particular o con el propósito de la creación de nuevas redes. BOINC es una común para varios proyectos académicos que buscan voluntarios públicos; más se enumeran al final del artículo.
De hecho, el middleware se puede ver como una capa entre el hardware y el software. En la parte superior del middleware, una serie de áreas técnicas tienen que ser considerados, y estos pueden o no ser middleware independiente. Áreas ejemplo incluyen gestión de SLA, Confianza y Seguridad, gestión de la organización virtual, gestión de licencias, Portales y gestión de datos. Estas áreas técnicas pueden ser atendidos en una solución comercial, aunque la vanguardia de cada área se encuentra a menudo en los proyectos específicos de investigación que examinan el campo.
El lado del proveedor
El mercado global de rejilla comprende varios mercados específicos. Estos son el mercado de middleware grid, el mercado de aplicaciones de red habilitada, el mercado de la informática de servicios públicos, y el-as-a-service software (SaaS) de mercado.
Middleware Grid es un producto de software específico, que permite el intercambio de recursos heterogéneos, y organizaciones virtuales. Está instalado e integrado en la infraestructura existente de la empresa involucrados o empresas, y proporciona una capa especial colocado entre la infraestructura heterogénea y las aplicaciones de usuario específicas. Principales middleware grid Globus Toolkit son, gLite y UNICORE.
Utility computing se refiere como la prestación de grid computing y aplicaciones como el servicio, ya sea como una utilidad de rejilla abierta o como una solución de hosting para una organización o un VO. Los principales actores en el mercado de la informática de utilidad son Sun Microsystems, IBM y HP.
Aplicaciones de redes habilitadas son aplicaciones de software específicas que pueden utilizar la infraestructura de red. Esto se hace posible por el uso de middleware rejilla, como se ha señalado anteriormente.
Software como servicio (SaaS) es "software que es propiedad, entregado y gestionar de forma remota por uno o más proveedores." (Gartner 2007) Además, las aplicaciones SaaS se basan en un único conjunto de definiciones de códigos y de datos comunes. Se consumen en un modelo de uno-a-muchos, y SaaS utiliza un As You Go modelo (de reparto) o un modelo de suscripción que se basa en el uso de pago. Los proveedores de SaaS no poseen necesariamente los propios recursos informáticos, que son necesarios para ejecutar sus SaaS. Por lo tanto, los proveedores de SaaS pueden aprovechar el mercado de utility computing. El mercado de la informática de utilidades proporciona recursos de computación para los proveedores de SaaS.
El lado del usuario
Para las empresas que en el lado de la demanda o usuario del mercado de la computación grid, los diferentes segmentos tienen implicaciones significativas para su estrategia de implementación de TI. La estrategia de implementación de TI, así como el tipo de inversiones en TI hecho son aspectos relevantes para los usuarios potenciales de la cuadrícula y desempeñan un papel importante para la adopción de cuadrícula.
CPU de barrido
CPU-barrido, ciclo de recolección de residuos, o la computación compartida crea una "red" de los recursos no utilizados en una red de participantes (ya sea a nivel mundial o internas en una organización). Normalmente esta técnica utiliza escritorio ciclos de instrucción de computadoras que otro modo se perdería en la noche, durante el almuerzo, o incluso en los segundos dispersos a lo largo del día en que el equipo está a la espera de la entrada del usuario o dispositivos lentos. En la práctica, los sistemas participantes también donar cierta cantidad de soporte de espacio de almacenamiento en disco, memoria RAM, y ancho de banda, además de energía de la CPU en bruto.
Muchos proyectos de computación voluntaria, como BOINC, utilizan el modelo de barrido de la CPU. Puesto que los nodos son propensos a ir "fuera de línea" de vez en cuando, ya que sus propietarios utilizan sus recursos para su objetivo principal, este modelo debe estar diseñado para manejar este tipo de contingencias.
Historia
La computación grid término se originó en la década de 1990 como una metáfora de poder de toma de equipo como de fácil acceso como una red de energía eléctrica. La metáfora red eléctrica para la informática accesible rápidamente se convirtió canónica cuando Ian Foster y Carl Kesselman publicaron su trabajo seminal, "The Grid: Modelo para una nueva infraestructura informática" (1999).
Barrido de la CPU y la computación voluntaria se popularizaron a partir de 1997 por distributed.net y más tarde en 1999 por SETI @ home para aprovechar el poder de los ordenadores conectados en red a nivel mundial, con el fin de resolver problemas de investigación intensivo de la CPU.
Las ideas de la red (incluidos los de computación distribuida, la programación orientada a objetos, y los servicios Web) se reunieron por Ian Foster, Carl Kesselman, y Steve Tuecke, considerados por muchos como los "padres de la red".  liderado los esfuerzos para crear el Globus Toolkit incorporando no sólo la gestión de la computación, sino también la gestión del almacenamiento, aprovisionamiento de seguridad, el movimiento de datos, monitoreo y un conjunto de herramientas para el desarrollo de servicios adicionales sobre la base de la misma infraestructura, incluido un acuerdo de negociación, mecanismos de notificación, los servicios de activación, y agregación de información. Mientras que el Globus Toolkit sigue siendo el estándar de facto para soluciones de redes edificio, una serie de otras herramientas se han construido que responder algún subconjunto de los servicios necesarios para crear una empresa o rejilla global.
En 2007 el término cloud computing entró en popularidad, que es conceptualmente similar a la definición de Foster canónica de grid computing (en términos de recursos informáticos que se consumen en forma de electricidad es de la red eléctrica). De hecho, grid computing es a menudo (pero no siempre) están asociados con la entrega de sistemas de computación en nube como lo ejemplifica el sistema AppLogic de 3Tera.
Rápidas supercomputadoras virtuales
A partir de 2014 junio de Bitcoin Red. - 1166652 PFLOPS 
A partir de abril de 2013, Folding @ home -. 11,4 x 86-equivalente (5,8 "nativos") PFLOPS [9]
A partir de marzo de 2013, en BOINC -. Procesamiento en promedio 9.2 PFLOPS 
En abril de 2010, de MilkyWay @ Home calcula en más de 1,6 PFLOPS, con una gran cantidad de este trabajo que viene de GPUs. 
En abril de 2010, SETI @ Home calcula promedios de datos de más de 730 TFLOPS. 
En abril de 2010, Einstein @ Home está crujiendo más de 210 TFLOPS. 
A junio de 2011, GIMPS está sosteniendo 61 TFLOPS. 
Proyectos y Aplicaciones

Lista de proyectos de computación distribuida
Grid computing ofrece una manera de resolver los problemas de Gran reto como el plegamiento de proteínas, modelado financiero, simulación de terremoto, y la modelización del clima / tiempo. Rejillas ofrecen una manera de utilizar los recursos de tecnología de la información de manera óptima dentro de una organización. También proporcionan un medio para ofrecer tecnología de la información como una utilidad para los clientes comerciales y no comerciales, con los clientes pagando sólo por lo que utilizan, al igual que con la electricidad o el agua.
La computación grid está siendo aplicada por Nacional de Tecnología de la rejilla de la Fundación Nacional de la Ciencia, de la NASA Información Power Grid, Pratt & Whitney, Bristol-Myers Squibb Co. y American Express.
Definiciones
Hoy en día hay muchas definiciones de la computación grid:
En su artículo "¿Qué es la Red? Una lista de control de tres puntos ", Ian Foster, enumera estos atributos principales:
Los recursos informáticos no se administran de forma centralizada.
Se utilizan estándares abiertos.
Se logra la calidad no trivial de servicio.
Plaszczak / Wellner: definen la tecnología de redes como "la tecnología que permite el aprovisionamiento de virtualización de recursos, a la carta, y el servicio (de recursos) para compartir entre las organizaciones."
IBM define grid computing como "la capacidad, utilizando un conjunto de estándares y protocolos abiertos, para tener acceso a aplicaciones y datos, poder de procesamiento, capacidad de almacenamiento y una amplia gama de otros recursos informáticos a través de Internet. Una red es un tipo de paralelo y sistema distribuido que permite compartir, seleccionar, y la agregación de los recursos distribuidos a través de 'múltiples' dominios administrativos basados en su (recursos) la disponibilidad, capacidad, rendimiento, costo y requisitos de los usuarios la calidad de servicio ".
Un ejemplo anterior de la noción de la informática como la utilidad fue en 1965 por el MIT Fernando Corbató. Corbató y los otros diseñadores del sistema operativo Multics imaginaron una instalación informática que opera "como una compañía de electricidad o agua empresa".
Buyya / Venugopal [28] definir cuadrícula como "un tipo de sistema paralelo y distribuido que permite compartir, seleccionar, y la agregación de recursos autónomos distribuidos geográficamente de forma dinámica en tiempo de ejecución en función de su disponibilidad, capacidad, rendimiento, coste y calidad- de los usuarios de Servicio requisitos ".
CERN, uno de los mayores usuarios de la tecnología de redes, hablar de The Grid: ". Un servicio para compartir el poder informático y la capacidad de almacenamiento de datos a través de Internet"




domingo, 25 de enero de 2015

 Red Telefónica conmutada o  Conexión RTC 

Red telefónica conmutada. Es un tipo de conexión a internet basado en la comunicación telefónica de voz. Debido a que la voz es un fenómeno analógico, esta tecnología empezó usando su característica analógica para transmitir datos. Las técnicas digitales sólo se pudieron aplicar cuando se crearon los elementos activos de estado sólido que son: el transistor, los circuitos integrados y los chips. Además era necesario gestionar los bits a grandes velocidades para poder digitalizar las redes. Al digitalizarla se logra que una red preparada para transportar voz, pase a ser una red con condiciones para transportar solamente bits, cualquiera que sea la naturaleza de la información.
Cuando dos abonados de la red telefónica se comunican establecen un canal de comunicación. Este canal se diseñó para transmitir la voz humada de un modo reconocible. La voz humana tiene una frecuencia alrededor de 10KHz. El rango de frecuencias del canal telefónico posee entre 300 y 3.400Hz, su ancho de bandas es de 3,1 KHz, el cual no llega a 10 ya que supondría aumentar la complejidad y el coste, pues la atenuación del par de cobre y otras perturbaciones no deseables aumentan con la frecuencia. A través del canal telefónico es posible enviar cualquier tipo de señales, así no sean vocales, siempre y cuando su frecuencia esté comprendida entre el rango de frecuencias del canal.
La red telefónica posee un bucle de abonado, es una línea de hilos de cobre que va desde el terminal del usuario hasta la central local, a través de la cual se propaga la transmisión en ambos sentidos.
La red telefónica es muy flexible ya que permite establecer circuitos diferentes con varios equipos a partir de un punto sobre la red en donde está instalado un equipo terminal de datos.
La comunicación se establece a partir de un equipo terminal de datos llamado origen, desde donde se inicia la comunicación. Los módems de datos tienen incorporado un hardware que les permite iniciar automáticamente una llamada de datos o atender una comunicación entrando. El modem conecta internamente la línea telefónica al teléfono. Cuando se quiere transmitir datos, se deshabilita la conexión al teléfono y se toma la línea con ese fin. Se necesita un software de comunicaciones incluido en el sistema operativo del computador, el cual efectúa la llamada correspondiente.


La tarifa a abonar se relaciona con el tiempo que dura la comunicación y los costos establecidos entre los puntos origen y destino.

viernes, 23 de enero de 2015

RED Y SU TOPOLOGIÍA

RED Y SU TOPOLOGÍA 
 Red en bus: Red cuya topología se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.

Red en estrella: Una red en estrella es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.
Se utiliza sobre todo para redes locales. La mayoría de las redes de área local que tienen un enrutador (router), un conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo central en estas sería el enrutador, el conmutador o el concentrador, por el que pasan todos los paquetes.


Red en anillo (o doble anillo):
 red en la que cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.


Red en malla (o totalmente conexa): La topología en malla es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada, no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.


Red en árbol: Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.
Red mixta:  Las topologías mixtas son aquellas en las que se aplica una mezcla entre alguna de las otras topologías: bus, estrella o anillo. Principalmente podemos encontrar dos topologías mixtas: Estrella - Bus y Estrella - Anillo.
En una topología mixta, se combinan dos o más topologías para formar un diseño de red completo. Raras veces, se diseñan las redes utilizando un solo tipo de topología. Por ejemplo, es posible que desee combinar una topología en estrella con una topología de bus para beneficiarse de las ventajas de ambas.
Importante: En una topología híbrida, si un solo equipo falla, no afecta al resto de la red.
Normalmente, se utilizan dos tipos de topologías híbridas: topología en estrella-bus y topología en estrella-anillo.
En estrella-bus: En una topología en estrella-bus, varias redes de topología en estrella están conectadas a una conexión en bus. Cuando una configuración en estrella está llena, podemos añadir una segunda en estrella y utilizar una conexión en bus para conectar las dos topologías en estrella.

REDES Y SU CLASIFICACIÓN

REDES Y SU CLASIFICACIÓN

Red de área personal (PAN): Wireless Personal Área Networks, Red Inalámbrica de Área Personal o Red de área personal o Personal área network es una red de computadoras para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella.


Red de área local (LAN): Una red de área local, red local o LAN (del inglés local área network) es la interconexión de varias computadoras y periféricos. Su extensión está limitada físicamente a un edificio o a un entorno de 200 metros, o con repetidores podría llegar a la distancia de un campo de 1 kilómetro. Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc.
El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.


Red de área metropolitana (MAN):  El concepto de red de área metropolitana representa una evolución del concepto de red de área local a un ámbito más amplio, cubriendo áreas mayores que en algunos casos no se limitan a un entorno metropolitano sino que pueden llegar a una cobertura regional e incluso nacional mediante la interconexión de diferentes redes de área metropolitana.
Este tipo de redes es una versión más grande que la LAN y que normalmente se basa en una tecnología similar a esta. Las redes MAN también se aplican en las organizaciones, en grupos de oficinas corporativas cercanas a una ciudad, estas no contiene elementos de conmutación, los cuales desvían los paquetes por una de varias líneas de salida potenciales. Estas redes pueden ser públicas o privadas.
Las redes de área metropolitana, comprenden una ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de 4 km. Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto a la transferencia de datos.

Red de área amplia (WAN):  Un área amplia o WAN (Wide Área Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí. Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continua. Por esta razón también se dice que las redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro. A diferencia de las redes LAN (siglas de "local área network", es decir, "red de área local"), la velocidad a la que circulan los datos por las redes WAN suele ser menor que la que se puede alcanzar en las redes LAN. Además, las redes LAN tienen carácter privado, pues su uso está restringido normalmente a los usuarios miembros de una empresa, o institución, para los cuales se diseñó la red. 

TIPOS DE REDES Y SU CONEXION

Tipos de red

  • Ø  Las redes se pueden clasificar de diferentes maneras. Las principales clasificaciones son:
  • Ø  Por su extensión: Redes de área personal (PAN), local (LAN), extensa (WAN)... (ver cuadro inferior).
  • Ø  Por su topología: Estrella, bus, anillo, malla, mixta...
  • Ø  Por su conexión física: se clasifican en redes punto a punto (unicast) y redes multipunto o de difusión (broadcast).
  • Ø  Por su técnica de transmisión de datos: líneas dedicadas, circuito conmutado o paquetes conmutados.
  • Ø  Por su uso: se clasifican en redes privadas o corporativas y redes públicas.



Diámetro
Tipo
< 0,01 m
Paralelismo masivo. Procesadores multi-núcleo.
< 0,1 m
Multiprocesadores.
< 10 m
Redes de área personal (PAN: Personal Area Network). Redes de infrarrojos o bluetooth.
10 m - 3 km
Redes de área local (LAN: Local Area Network) y metropolitana (MAN). Ethernet, Wi-Fi.
> 3 km
englishRedes de área extensa (WAN: englishWide Area Networkenglish)english o redes interconectadas.
Frame-Relay, RDSI, ATM, SONet/SDH.


Por su conexión física
Redes punto a punto (unicast): basadas principalmente en cable y en cada conexión intervienen solo dos equipos. Tienen problemas de tipología. Se subdividen en:
Simplex: inútil en redes de computadores (monodireccional).
Semi-dúplex (Half-duplex): envía datos cada vez en un sentido.
Dúplex (Full-duplex): envía datos en los dos sentidos a la vez.
En las redes semi-dúplex y dúplex se puede disponer de la misma capacidad en las dos direcciones de transmisión (conexión simétrica) o no (conexión asimétrica).
Ejemplos de redes punto a punto: LANs en estrella con conmutadores centrales y la mayoría de las WAN (enlaces telefónicos, X.25, Frame Relay, RDSI, ATM, etc.).

Redes multipunto o redes de difusión (broadcast): basadas principalmente en bus compartido (cable bus y anillo) y redes inalámbricas (radio, satélites...); todos los equipos comparten el mismo medio de transmisión.
Tienen problemas de colisiones que se pueden afrontar con una gestión:
Estática (TDM): No emite si alguien lo está haciendo.
Dinámica (Centralizada o Distribuida).
Las emisiones pueden estar marcadas como unicast, multicast o broadcast, pero no garantizan la confidencialidad.

Ejemplos de redes multipunto: transmisiones vía radio o satélite, redes CATV y la mayoría de las LANs originales (Ethernet original, FDDI, Token Ring, Inalámbricas, etc.).
1.2.4 Por su técnica de transmisión de datos
Líneas dedicadas. Enlace punto a punto permanente y siempre disponible. Se utilizan principalmente en redes WAN con velocidades prefijadas por el proveedor, generalmente simétricas y full-dúplex. Otro caso habitual es el radio enlace. El nivel de enlace utilizado suele ser HDLC o PPP. Suelen tener un coste elevado por lo que solo son adecuadas si hay mucho tráfico continuo.
Modelos de circuito conmutado (Circuit Switching). En ellos las comunicaciones no comparten los medios. Al iniciarse la comunicación se reserva los recursos intermedios necesarios para establecer y mantener el circuito. Si el canal se corta se corta la comunicación. Los dispositivos mantienen información sobre el estado de la comunicación (statusfull). Utilizado en la Red Telefónica Conmutada (RTC4) incluyendo:
Red Telefónica Básica (RTB) -analógica-.
Red Digital de Servicios Integrados (RDSI o ISDN) -digital-.
GSM (englishGlobal System for Mobile Comunications) -digital por radioenlace-.
Una vez establecido el el circuito se comporta como una línea dedicada ofreciendo un transporte físico de bits sobre el que se puede utilizar cualquier protocolo de nivel de enlace.
El costo es proporcional al tiempo y la distancia de conexión.
Modelos de paquetes conmutados (Packet Switching). En ellos las comunicaciones se dividen en paquetes que comparten los medios. Se pueden utilizar varios enlaces en cada interfaz físico.
Ofrece un medio físico de transmisión de datos para los equipos. Existen dos submodelos:
Datagramas: Cada paquete debe estar delimitado e identificado y llevar la dirección destino, y cada uno se encamina independientemente, sin que el origen y el destino tengan que pasar por un establecimiento de comunicación previo. En este modelo no sabemos si los paquetes van a llegar todos ni si van a llegar por orden (ni si van a llegar sin errores). Los dispositivos no mantienen información sobre el estado de la comunicación (stateless). Es el modelo más sencillo de implementar y el único que soporta multidifusión (multicast). Se puede asimilar al sistema de correo tradicional.
Circuitos virtuales (VC: Virtual Circuit): Simula un circuito conmutado, pero compartiendo los medios. Primero se establece una conexión y los equipos intermedios reservan una parte de sus recursos; después todos los paquetes siguen la misma ruta ordenadamente. Este modelo es utilizado en telefonía digital GPRS y redes como X.25, Frame Relay o ATM.
PVC (Permanent VC): Los PVC son circuitos virtuales definidos estáticamente y permanentes.
SVC (Switched VC): Se establecen y terminan a petición del usuario de forma dinámica. La implementación de circuitos virtuales es más compleja que la de circuitos permanentes.
Otra división de redes por su técnica de transmisión de datos sería en servicios orientados a conexión - que incluiría los modelos de líneas dedicadas, circuito conmutado y circuito virtual- y servicios no orientados a conexión -el modelo de datagramas-.
La primera red (ARPANET) nació en 1964 y unía cuatro nodos con un protocolo de datagramas (NCP).

domingo, 18 de enero de 2015

REDES INFORMATIAS

Redes de Área Local (LAN)
Son redes de propiedad privada, de hasta unos cuantos kilómetros de extensión. Por ejemplo una oficina o un centro educativo.
Se usan para conectar computadoras personales o estaciones de trabajo, con objeto de compartir recursos e intercambiar información.
Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce, lo que permite cierto tipo de diseños (deterministas) que de otro modo podrían resultar ineficientes. Además, simplifica la administración de la red.
Suelen emplear tecnología de difusión mediante un cable sencillo al que están conectadas todas las máquinas.
Operan a velocidades entre 10 y 100 Mbps.

Tienen bajo retardo y experimentan pocos errores.



Redes de Área Metropolitana (MAN)
Son una versión mayor de la LAN y utilizan una tecnología muy similar.  Actualmente esta clasificación ha caído en desuso, normalmente sólo distinguiremos entre redes LAN y WAN.
Redes de Área Amplia (WAN)
Son redes que se extienden sobre un área geográfica extensa. Contiene una colección de máquinas dedicadas a ejecutar los programas de usuarios (hosts). Estos están conectados por la red que lleva los mensajes de un host a otro. Estas LAN de host acceden a la subred de la WAN por un router. Suelen ser por tanto redes punto a punto.
La subred tiene varios elementos:
- Líneas de comunicación: Mueven bits de una máquina a otra.
- Elementos de conmutación: Máquinas especializadas que conectan dos o más líneas de transmisión. Se suelen llamar encaminadores o routers.
Cada host está después conectado a una LAN en la cual está el encaminador que se encarga de enviar la información por la subred.
Una WAN contiene numerosos cables conectados a un par de encaminadores. Si dos encaminadores que no comparten cable desean comunicarse, han de hacerlo a través de encaminadores intermedios. El paquete se recibe completo en cada uno de los intermedios y se almacena allí hasta que la línea de salida requerida esté libre.
Se pueden establecer WAN en sistemas de satélite o de radio en tierra en los que cada encaminador tiene una antena con la cual poder enviar y recibir la información. Por su naturaleza, las redes de satélite serán de difusión.

domingo, 11 de enero de 2015

LA TECNOLOGÍA DEBE SER DOMINADA POR EL HOMBRE, NO EL HOMBRE DE LA TECNOLOGIA

HISTORIA DEL INTERNET

Los inicios de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país.

Esta red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red.
Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos.

La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos.

El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos.

El autor William Gibson hizo una revelación: el término "ciberespacio".
En ese tiempo la red era básicamente textual, así que el autor se basó en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinónimo de Internet.

El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.

La nueva fórmula permitía vincular información en forma lógica y a través de las redes. El contenido se programaba en un lenguaje de hipertexto con "etiquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para desplegar la información. Ese interprete sería conocido como "navegador" o "browser".

En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape.


A partir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiéndose en lo que hoy todos conocemos.

EVOLUCIÓN DEL INTERNET



Ø  1969. Envió de primer mensaje entre dos computadoras “LOGWIN”.
Ø  1971. Ray Tomlinson inventa el correo.
Ø  1972. Bob Kahn hace una demostración de ARPANET con 40 máquinas conectadas y causa sensación.
Ø  1974. Vint Cerf y Kahn publican su propuesta para un protocolo de comunicación, el TCP/IP.
Ø  1975 El e-mail cliente / 1976 mail real / 1978 Spam JohnVittal desarrolla el primer programa de e- mail. El nuevo desarrollo, llamado MSG, sumó dos funcionalidades ahora básicas: "Reply“ y "Forward". La reina Isabel manda su primer e-mail, en una visita a un centro científico Gary Thuerk envía lo que hoy se considera fue el primer spam (mail comercial no solicitado).
Ø  1977 Modem La creación de Ward Christensen permitió que los usuarios de computadoras con modem hablen entre ellos e intercambien datos y software.
Ø  1978 Primer boletín. Se desarrolló el primer boletín “bulletin board”, algo así como un chat primitivo, pero que permitía subir documentos y otras informaciones de varios usuarios al mismo tiempo.
Ø  1983. El 1 de enero todas las máquinas vinculadas a ARPANET deben utilizar el TCP/IP, Internet comienza a tomar forma.
Ø  1984. El novelista William Gibson publica “Neuromante”, y  define la palabra “ciberespacio”.
Ø  Creación de los  dominios  gov, mil, edu, com, org y  net así como los  sufijos geográficos.
Ø  1986. La Fundación Nacional de la Ciencia de EE.UU. crea la ‘columna vertebral’ de Internet mediante la conexión de cinco  supercomputadores.
Ø  1989. NSFNET transmitía 1.5 millones de bits por segundo.
Ø  1990. ARPANET deja de existir. Internet está consolidada y  definida como una Red de redes.
Ø  1991. Tim Berners Lee da a conocer la World Wide Web o Telaraña Mundial.
Ø  1993. El navegador Mosaic  facilita el acceso a la WWW, es  precursor de Netscape. Se transmiten 45 millones de bits por segundo.
Ø  1995. NSFNET es  reemplazada por otros centros  de cómputo y distribución de información ubicados en distintas partes de  mundo.
Ø  1998. Acuerdo para crear una agencia internacional de registro de nombres  o dominios.
Ø  1999. Según una agencia de Naciones  Unidas, hay  más  de 200 millones  de habitantes en el ciberespacio y 43.2 millones  de computadoras conectadas  a Internet.
Ø  2000. Internet se masifica.
Ø  2005. 164 millones de usuarios de banda ancha en el mundo. Aunque más de la mitad de la población no ha hecho nunca una llamada telefónica.