La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del






descargar 29.89 Kb.
títuloLa idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del
fecha de publicación31.08.2015
tamaño29.89 Kb.
tipoDocumentos
e.exam-10.com > Documentos > Documentos
La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del tiempo solamente consumiendo electricidad, dado que no eran usadas para procesamiento de información u otra tarea específica. Esta circunstancia dio lugar a la creación de diversos sistemas que permiten aprovechar la capacidad vacante de dichos procesadores para ocuparlos con fines benéficos.
Existe una gran confusión entre una red de computadoras y un sistema distribuido. La diferencia principal radica en que, en un sistema distribuido, un conjunto de computadoras indepenedientes aparece ante sus usuarios como un sistema consistente y unico. Por lo general, tiene un modelo o paradigma unico que se presenta a los usuarios. Con frecuencia, una capa de software que se ejecuta sobre el sistema operativo, denominada middleware es la responsable de implementar este modelo.
Un sistema distribuido es un sistema de software construido sobre una red. El software le da un alto grado de consistencia y transparencia. De este modo, la diferencia entre una red y un sistema distribuido esta en el software (Sistema Operativo), mas que en el hardware. Tanto los sistemas distribuidos como las redes de computadoras necesitan mover archivos, la diferencia esta en quien invoca el movimiento, el sistema o el usuario.
Algunas de las caracteristicas con las que debe cumplir un sistema distribuido son las siguientes:


  • Debera existir un solo mecanismo de comunicación global entre los procesos, de forma que cualquier proceso pueda comunicarse con cualquier otro.

  • Un sistema global de protección, la mezcla del acceso a las listas de control y los bits de protección.

  • La administración de procesos también debe ser la misma en todas partes. La forma en que se crean, destruyen, inician y detienen los procesos no deben de variar de una máquina a otra.

  • El sistema de archivos debe tener la misma apariencia en todas partes. Todo archivo debe ser visible desde cualquier posición, sujeto, por supuesto, a restricciones de protección y seguridad.


En resumen, la idea detrás de los sistemas operativos de red, en el sentido de que cualquier máquina puede hacer lo que desee, mientras obedesca los protocolos estandar cuando participe en una comunicación cliente servidor no es suficiente. No solo debe existir un conjunto de llamadas al sistema disponible en todas las máquinas sino que todas estas llamadas deben ser diseñadas de manera de que tengan sentido en un ambiente distribuido.
Como consecuencia lógica, del hecho de tener una misma interfaz de llamadas al sistema en todas partes, es normal que se ejecuten núcleos identicos en todos los CPU´s del sistema. Esto facilita la coordinación de actividades globales.

Para darnos una idea del alcance que puede tener él computo distribuido citaremos “que en conjunto, todos los procesadores compartidos a través de la red son capaces de ejecutar tareas equivalentes a 160 mil procesadores pentium II a 266 MHz en promedio, trabajando las 24 horas del día, durante los 365 días del año…”1
El concepto de comunicación peer to peer en su forma más simple se estructura como un sistema de intercambio punto a punto. Algunos de estos han sido implementados en redes y en Internet. Entre estas nuevas posibilidades, Peer to Peer (P2P) ha demostrado una capacidad de auto-estructuración y escalabilidad desconocidas hasta la fecha.
Una arquitectura Peer-to-Peer genera su propia organización para sus nodos. Algunos de los impactos de las comunicaciones P2P son debidos a la auto-organización.
Esto sucede de la siguiente manera:


  • P2P permite utilizar el protocolo HTTP que sirve como lenguaje no solamente entre clientes y servidores, también entre routers balanceadores de carga y servidores proxy. Una vez que conoces la cantidad de dispositivos que se pueden comunicar a traves de este protocolo, es facil adivinar por que se ha convertido en el protocolo estandar en internet.




  • Uno de los lenguajes utilizados en peer to peer es XML puesto que permite que computadoras no heterogeneas puedan recibir y enviar información de manera segura. XML ha probado ser una valiosa herramienta y los desarrolladores crearon XMLRPC (XML para llamadas remotas a procedimientos) y SOAP (Protocolo de acceso de objetos simple) para formalizar los metodos de intercambio de datos. SOAP se ha convertido en el metodo preferido para construir servicios basados en web y aplicaciones de computo distribuidas con metodos estandarizados para comunicarse una con otra. La utilización de HTTP y XML ayuda a habilitar la interoperabilidad y mejora la escalabilidad del sistema.




  • Respecto a una red P2P dada, a los usuarios se les conceden permisos para convertirse en un nodo de la red, al mismo tiempo, igualdad respecto a cada nodo de la misma.




  • A mayor escala, P2P puede organizarse de forma natural en millones de redes virtuales de grupos más pequeños agrupados según intereses específicos. Así, la organización de los nodos es independiente. Esta es la característica que permite la conectividad variable y facilita la escalabilidad. Esta facilidad para auto-organizarse es una gran diferencia respecto al modelo cliente/servidor tradicional.


Una de las características de tener una red peer to peer, es la facilidad de compartir los recursos con los que cuentan los demás nodos de la red, ya que solo se necesita ser miembro de una red para poder hacerlo.
Peer to peer ha tenido gran auge debido a las diferentes aplicaciones que hoy en día podemos encontrar para compartir archivos dentro de una red, tal es el caso de Napster, que te permite compartir archivos, tan solo identificando tu maquina dentro de Internet.
Peer to peer surgió como una solución al elevado costo de adquirir equipos capaces de procesar grandes volúmenes de información en poco tiempo, ya que los equipos “caseros” no poseían tal capacidad y no respondían de manera optima. El método que se utilizó para la creación de peer to peer se baso en el modelo del cluster, el cual dividía los procesos en tareas más pequeñas, los cuales se podían procesar en diferentes procesadores, la idea básica de peer to peer es aprovechar los recursos de los diferentes nodos de la red, ya que las tareas son repartidas entre todos los equipos y cuando estas son terminadas, devuelven toda la información al punto que se las asignó.
Básicamente, este tipo de programas, utilizán una red común, para comunicar entre si las computadoras de sus usuarios, existe un grave peligro para las computadoras integradas de ese modo. El simple hecho de permitir el acceso a cualquier persona extraña a una computadora personal, ya de por si, es algo que implica grandes riesgos, aunque los programas de ese tipo tengan implementadas las protecciones necesarias.
Uno de los principales riesgos, es el intercambio de archivos que no son lo que dicen ser, asi como de virus, gusanos o troyanos. Existen decenas de ejemplos, y es una de las fuentes más importantes de propagación e infección hoy día.
Pero tal vez más grave, sea la instalación de otros programas no deseados (Spywares o Adwares). Los programas espías o "Spyware", son usados por las empresas que desarrollan aplicaciones P2P comerciales, para recabar información sobre que sitios visita el usuario, cuáles son sus preferencias, o que archivos prefiere descargar.
En muchas ocasiones, esto incluye información más comprometida, con datos más personales, siempre con la idea de enviarle más basura a su correo, ya que para instalar un programa de este tipo, es necesario proporcionar un mail de referencia.
También permite especificar que banners publicitarios mostrarle, esto es lo que se denomina "Adware", es decir, los programas que se instalan para descargar y mostrar publicidad. Sin descartar la opción de que el usuario empiece a recibir información no deseada a través del correo electrónico.
La idea de compartir computadoras, ha llevado a diversas empresas a ofrecer este recurso como un servicio, poniéndolo a disposición de casi cualquier organismo sin importar su giro o ramo, y básicamente con el mismo fin: obtener un recurso mucho más grande que el que ofrece cualquier supercomputadora a un precio mucho más accesible, y utilizando solamente la capacidad instalada en la red.
Nuestra propuesta para una red Peer to Peer, es crear un agente capaz de procesar lenguaje natural, el cual se entrenará por medio de un buscador Web de manera gratuita a través de Internet para que posteriormente el agente en una etapa madura se pueda implementar en aplicaciones más avanzadas como la robótica, así como para crear un traductor políglota capaz de asimilar lenguaje natural.
La comunicación a utilizar será asíncrona, ya que el tráfico de información es alto y es el centro de llegada de diferentes puntos de información, por esto, no se establecerán sesiones entre los nodos y el super nodo solamente se realizarán transacciones.
Se utilizará el puerto 80 por ser una aplicación Web de acceso general. Se necesitan Firewalls para controlar el acceso de los usuarios al servidor Proxy, este se utiliza para la autentificación con el super nodo y como un servidor de base de datos, los servidores de base de datos, son comunmente distribuidos a través de una red y accesados remotamente por otras aplicaciones y servidores. También ayudan a distribuir los recursos de memoria de una aplicación y la carga de procesamiento de datos que resulta de la necesidad de buscar, acomodar y tabular resultados entre uno o más servidores. No es de importancia la velocidad y/o capacidad de transmisión puesto que no es una aplicación donde el tiempo de respuesta sea vital.
La información que se transmite del super nodo a los demás nodos no requiere de encriptación, si se refiere a la autentificación entre el servidor Proxy y el super nodo, es entonces donde se deberá encriptar dicha información.
El software para el cliente (nodo), está localizado en la página principal que contiene ligas para cada uno de los servidores Proxy con una cadena criptográfica de hash.
Dentro de la página principal, se mostrarán diferentes banners con las últimas actualizaciones del software.
El super nodo, será un servidor Web que utiliza lenguaje PHP para soportar las principales plataformas, (Windows, Linux o MacOS). El software que utiliza el cliente para conectarse al super nodo, no tiene dependencia de librerias dinámicas o framework como Java ó .Net; este software tiene una librería de programación de red de alto nivel.
Debemos considerar la simulación de ambientes para los usuarios finales lo mas reales posibles, asegurar que el funcionamiento del servidor es correcto despues de cualquier modificación, que un nodo puede estar dentro del proceso de envío de respuesta cuando pierde su conexión.
Nuestra principal base de datos, se encuentra en el super nodo y será respaldada una parte en cada uno de los servidores y semanalmente en cintas.
Gracias a que es una red Peer to Peer, en el super nodo se localiza el agente y los demás nodos mandan como respuesta el conocimiento adquirido. A continuación, describiremos la forma en que funciona dicho sistema.
La utilización de sistemas de búsqueda de información basados WWW conlleva un gran flujo de información, siendo del usuario la responsabilidad de su revisión en forma manual. La propuesta considera un Agente capaz de filtrar la información al usuario, a través de diferentes interacciones dialógicas vía lenguaje natural. El modelo se compone de tres componentes fundamentales: Una interfaz en lenguaje naturales capaz de procesar los requerimientos de búsqueda del usuario y un Agente Inteligente, encargado de realizar las búsquedas, filtrado y preprocesamiento de información.
La interacción comienza con la petición del sistema de algún requerimiento del usuario, luego esta “consulta” es procesada por un sistema de lenguaje natural a partir del cual se extrae la información clave más importante. A continuación se representa “vectorialmente” la información extraída según los patrones comunes detectados en las búsquedas. Paralelamente un Agente adaptivo toma dicho vector y realiza la primera búsqueda real de información que se traducirá en la entrada para el resto de las interacciones del sistema de usuario. Una vez que se encuentra la información posible se vectoriza y el agente por medio de un proceso de aprendizaje estadístico trata de encontrar los vectores de los documentos (referencias) que son más similares a la información actualmente disponible. Por cada interacción positiva por parte del usuario, nuevos slots se llenan en su vector y se realiza un proceso de filtraje local, después del cual el sistema es capaz de generar otra pregunta en lenguaje natural para reducir el universo de posibles referencias encontradas. La interacción termina cuando se obtiene un número de referencias a documentos o cuando no se pueda realizar mayores filtrados.

La representación utilizada para los documentos y el perfil del usuario se basa en la representación vectorial típica usada en el ámbito de recuperación de información. En la representación de espacios vectoriales, tanto en los documento (páginas) como las consultas se representan como vectores en algún espacio multidimensional. Cuando se procesa esta consulta se traduce a un patrón que representa su espacio vectorial de criterios y luego utilizando métricas de distancias se recuperan los documentos en base a sus “distancias” a la búsqueda deseada. Los criterios corresponden a aspectos relevantes que poseen las referencias a páginas WWW que podrían ser de utilidad en el momento de entrenar los patrones y de filtrar la información.
Cada vez que el sistema genera una pregunta al usuario, existe algún criterio que se va a cumplir por lo que se llenarán más criterios hasta que exista información adecuada y suficiente para realizar una búsqueda/ filtrado más específico. El agente adoptivo esta continuamente recibiendo entradas del usuario, aprendiendo de los procesos de búsqueda /filtrado que lleva a cabo y generando salidas al usuario, el agente es el encargado de tomar el vector del usuario y con el realizar las siguientes tareas: búsqueda /filtrado, aprendizaje y generación de preguntas.
Como un ejemplo de las aplicaciones peer to peer que se pueden desarrollar en un futuro muy cercano, esta la de crear una red de este tipo dentro de la universidad, con el objetivo de aprovechar la potencia de cálculo ocioso de los equipos (PC´s) utilizados en el campus, mediante el desarrollo de una "máquina paralela virtual" capaz de ejecutar las aplicaciones de cálculo intensivo. Para ello, se plantea analizar y resolver dos aspectos: por un lado el desarrollo de un modelo que permita estimar su potencia de cálculo, dimensionando así la configuración necesaria para cada aplicación en particular y por otro la construcción de la "máquina paralela virtual", que implica el estudio y la adaptación de diversos componentes de hardware y de software para el funcionamiento de la misma. Así promoviendo la investigación a bajo costo dentro de las universidades privadas del país, ya que actualmente la mayor parte de las investigaciones realizadas en México se realizan en la UNAM y en el IPN.
Es importante notar que en el esquema básico de está solución se considera la interconexión de los nodos a través de una red LAN de alta velocidad (100 Mbit/s, 1 Gbit/s o superior), lo cual permite una interacción muy rápida entre los nodos con el objeto de compartir recursos de memoria, almacenamiento, división de tareas, etc. Ante ello la posibilidad de usar un “cluster geográficamente distribuido” conectado a través de una red de alta velocidad es sumamente atractiva, siempre y cuando exista la coordinación necesaria entre todos los participantes para el uso de los recursos.
Algunos de los beneficios son:


  • En las entidades académicas y de investigación, estos clusters basados en PCs permitirían abordar tareas de simulación.




  • Se reducirían los costos en super-servidores. Se pueden construir potentes clusters con la misma capacidad de procesamiento que un gran mainframe con las ventajas que ofrece el hardware de Pcs y servidores.




  • La Implementación de un Cluster de Procesamiento Paralelo para Aplicaciones Científicas y de Ingeniería, puede soportar una gran cantidad de proyectos de investigación, y ser visto solo como un computador.




  • Difusión del software libre como una alternativa tecnológica que permita disminuir costos en tecnología.




1 Siglo Digital, Estrategias para la nueva economía, Año 3, Número 6, Junio 2002,

http://www.siglodigital.com, Pág. 20

Añadir el documento a tu blog o sitio web

similar:

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconY procesamiento de la información: sus aplicaciones, las computadoras...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconEl estudio plantea un amplio análisis de los factores históricos...
...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconA partir del estudio de un proyecto de riego

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconLa mercadotecnia en Internet es el estudio de las técnicas del uso de

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconEn tanto que unión de 25 Estados con más de 450 millones de habitantes...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconNotas para el estudio de procesos de democratización política a partir...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconEl siguiente ensayo trata de un breve estudio sobre los barcos portacontenedores,...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconFormas de movilidad transnacional, estrategias de reproducción social...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconResumen Este artículo tiene una introducción y dos partes. La primera...

La idea de compartir computadoras, surgió a partir de un estudio que demostraba que un porcentaje de maquinas conectadas a Internet, pasaba la mayor parte del iconI. la escena europea en el siglo XX
«etapa de maduración». En 1905, Stanislavski le da la posibilidad de dirigir el Teatro Estudio, dedicado a la experimentación escénica...




Economía


© 2015
contactos
e.exam-10.com