Orígenes de Internet 

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).

El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.

Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).

El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .

El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).

Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de “storage displays” ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.

Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación “estrella”: el correo electrónico. 
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.

En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.

Conceptos iniciales sobre Internetting

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.

Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para “federar” redes.

Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.

Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.

No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.

Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado “Transmisson-Control Protocol/Internet Protocol” (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

¿Qué es un blog? 

Blog, weblog, bitá… sin duda una palabra de moda, uno de esos términos que de la noche a la mañana hemos comenzado a ver repetido en todas partes. Aunque aparecieron a finales de los años 90 y podemos considerar el 2004 como su año de explosión en la internet anglosajona, no ha sido hasta los últimos meses del 2005 cuando el fenómeno ha eclosionado definitivamente en el mundo hispanohablante. 

¿Qué es arpanet?

¿Cómo de antiguo crees que es Para muchos de nosotros, nuestra experiencia con Internet se remonta a los años 90, donde la red de redes empezaba a situarse como un medio de información global. Sin embargo, Internet en si mismo es más antiguo que eso. Creció de la fusión de varias individuales – siendo la más antigua y la más influyente la llamada Arpanet. En 1966, la agencia ARPA (Advanced Research Projects Agency) tenía un programa con varias instituciones de investigación. La meta de ARPA era enlazar diferentes todos juntos, para mejorar la potencia general del procesamiento de los ordenadores, y descentralizar el almacenamiento de información.

El gobierno de los Estados Unidos quería encontrar una manera de acceder y distribuir la información en caso de una catástrofe, como por ejemplo un ataque nuclear. Si una bomba diera en un importante centro de ordenadores, las transferencias de información se pararían de inmediato. Sin embargo, si se pudieran unir varias redes diferentes y separadas, otras partes del sistema seguirían funcionando incluso si algunos enlaces fueran destruidos.

Este proyecto de ARPA gradualmente fue evolucionando de la teoría a proposiciones reales de construir esas redes. En 1968, ARPA envío una petición a varias instituciones pidiendo ofertas para crear la primera red de área extensa (WAN). La firma BBN ganó la oferta para diseñar 4 máquinas procesadoras de mensajes que crearían comunicaciones abiertas entre los cuatro dispositivos diferentes, y en cuatro sistemas oper

¿Qué es TCP/ IP?

Cuando se habla de TCP/IP , se relaciona automáticamente como el protocolo sobre el que funciona la red Internet . Esto , en cierta forma es cierto , ya que se le llama TCP/IP , a la familia de protocolos que nos permite estar conectados a la red Internet . Este nombre viene dado por los dos protocolos estrella de esta familia :

– El protocolo TCP, funciona en el nivel de transporte del modelo de referencia OSI, proporcionando un transporte fiable de datos.

– El protocolo IP, funciona en el nivel de red del modelo OSI, que nos permite encaminar nuestros datos hacia otras maquinas.

Pero un protocolo de comunicaciones debe solucionar una serie de problemas relacionados con la comunicación entre ordenadores , además de los que proporciona los protocolos TCP e IP .

Arquitectura de protocolos TCP/IP 

Para poder solucionar los problemas que van ligados a la comunicación de ordenadores dentro de la red Internet , se tienen que tener en cuenta una serie de particularidades sobre las que ha sido diseñada TCP/IP:

– Los programas de aplicación no tienen conocimiento del hardware que se utilizara para realizar la comunicación (módem, tarjeta de red…)

– La comunicación no esta orientada a la conexión de dos maquinas, eso quiere decir que cada paquete de información es independiente, y puede viajar por caminos diferentes entre dos maquinas.

– La interfaz de usuario debe ser independiente del sistema, así los programas no necesitan saber sobre que tipo de red trabajan.

– El uso de la red no impone ninguna topología en especial (distribución de los distintos ordenadores).

De esta forma, podremos decir, que dos redes están interconectadas, si hay una maquina común que pase información de una red a otra. Además, también podremos decir que una red Internet virtual realizara conexiones entre redes, que ha cambio de pertenecer a la gran red, colaboraran en el trafico de información procedente de una red cualquiera, que necesite de ella para acceder a una red remota. Todo esto independiente de las maquinas que implementen estas funciones, y de los sistemas operativos que estas utilicen .

Qué es www

WWW tiene dos significados o áreas relacionadas en un mismo concepto: Su primer significado consiste en ser un acrónimo que viene del concepto World Wide Web, también conocido como la telaraña, red o malla mundial. Básicamente consiste en un medio de comunicación en donde se dispone de documentos de hipertexto (o sea que se incluyen enlaces a otros sitios documentos) con textos, imágenes, videos, gráficos u otros objetos. Para acceder a estos documentos o páginas web, se requiere de un navegador, que no es más que un software o programa capaz de interpretar de manera gráfica o visible la información que obtiene de la Internet.

En otros artículos ya hemos hablado en extenso sobre la Internet, sus orígenes y su evolución, por lo que pasaremos de inmediato la otra gran connotación que tiene este acrónimo.

El segundo significado o área de aplicación de WWW es el uso esta sigla como un prefijo, agregado ya como costumbre al comienzo de la dirección o URL de un sitio en Internet. Por ejemplo en la página que visitas al momento, Mis Respuestas, si te fijas en su dirección esta se escribe como “www.misrespuestas.com”. En otros casos, te darás cuenta de que hay sitios que no emplean este prefijo en su dirección, e incluso hay algunos que tienen otros diferentes; por ejemplo en la sección de la comunidad de este sitio, la dirección se escribe como “tuspreguntas.misrespuestas.com”, o sea sin usar el www, y en vez de aquello se usa una palabra para identificar la sección del sitio.

La verdad es que el uso de WWW en las direcciones de los sitios no es un estándar ni una obligación, pero debido a la costumbre de asociar este término a los sitios o páginas web, es que se sigue usando en la mayoría de los casos para identificar las direcciones o URLs en la Internet. Cuando no se usa, entonces es común usar este espacio para dar referencia a una sección en particular de un sitio.

Otro motivo para la generalización del uso de WWW en los nombres de dominio, es que los servidores por lo general lo asignan automáticamente a la dirección; es decir los servidores reconocen generalmente la dirección se le agregue o no el prefijo al comienzo – o sea es en términos técnicos casi lo mismo (casi porque en muchos casos los propietarios de sitios modifican estas opciones para que se reconozca solo una versión del sitio, con o sin el prefijo, para no generar confusión entre los usuarios).

El nombre con el que se conoce a las siglas usadas antes del dominio o nombre oficial del sitio, es el de “dominio de tercer nivel” o subdominio. En todo caso lo usual es usar el término subdominio cuando se usa un prefijo distinto al ya clásico WWW.

Hipervínculo o hipertext

Hipervínculo o hipertexto, en informática, es el nombre que recibe el texto que en la pantalla de una computadora conduce a otro texto relacionado. La forma más habitual de hipertexto en documentos es la de hipervínculos o referencias cruzadas automáticas que van a otros documentos (lexias). Si el usuario selecciona un hipervínculo, hace que el programa de la computadora muestre inmediatamente el documento enlazado. Otra forma de hipertexto es el strechtext que consiste en dos indicadores o aceleradores y una pantalla. El primer indicador permite que lo escrito pueda moverse de arriba hacia abajo en la pantalla. El segundo indicador induce al texto a que cambie de tamaño por grados.

Es importante mencionar que el hipertexto no esta limitado a datos textuales, podemos encontrar dibujos del elemento especificado, sonido o vídeo referido al tema. El programa que se usa para leer los documentos de hipertexto se llama “navegador”, el “browser”, “visualizador” o “cliente” y cuando seguimos un enlace decimos que estamos navegando por la Web.

El hipertexto es una de las formas de la hipermedia, enfocada en diseñar, escribir y redactar texto en una media.

Los nodos son las partes del hipertexto que contienen información accesible para el usuario. Los enlaces son las uniones o vínculos que se establecen entre nodos y facilitan la lectura secuencial o no secuencial por los nodos del documento. Los anclajes son los puntos de activación de los enlaces.

Los hipertextos pueden contener otros elementos, pero los tres anteriores son los componentes mínimos. Otros elementos adicionales pueden ser los sumarios e índices. En este sentido, se habla, por ejemplo, de hipertextos de grado 1, 2, etc., según tengan la cantidad de elementos necesarios. Actualmente la mejor expresión de los hipertextos son las páginas web navegables.

Qué es http ?

El término http quiere decir “Hypertext Transfer Protocol”, en español “Protocolo de Transferencia de Hipertexto”. Para los que no tienen experiencia en términos computacionales, esto puede parecer complicado, pero en realidad no lo es si examinamos este asunto por partes. Un protocolo es un conjunto de reglas a seguir, o lenguaje en común, y en este caso es conjunto de reglas a seguir son para publicar páginas web o HTML. El hipertexto se refiere a texto común con algunos atributos propios de las páginas en Internet, como lo son los enlaces. Por lo tanto http es un conjunto de reglas acordadas para transferir texto con atributos propios de la Internet. Bastante sencillo.

Este protocolo opera a través de solicitudes y respuestas, entre un “cliente” y un “servidor”. El cliente para los usuarios es el navegador web, usado para navegar por la red como el Internet Explorer, y el servidor es aquel en donde se almacenan las páginas de Internet (aquellos que publican información en la Internet contratan estos servidores para almacenar su información, de tal manera que los usuarios o visitas puedan acceder a la misma desde sus computadores de manera remota).

Para saber que información esta accesando nuestro navegador en un momento dado, basta simplemente con observar la “barra de navegación”, en la parte de arriba de nuestra pantalla, justo después de las herramientas del navegador. La información que sigue a “http” se denomina el URI (Uniform Resouce Identifier), más conocido como URL, lo que no es más que la dirección que estamos visitando. Generalmente estas direcciones comienzan con www, que quiere decir “World Wide Web”, pero existen muchas otras extensiones posibles.

Ahora que ya sabemos esto, si somos observadores nos preguntaremos porqué cuando visitamos un banco o realizamos una compra por Internet este encabezado de direcciones cambia a “htpps”, y generalmente junto con esto un mensaje nos alerta de que estamos accediendo a un sitio o sección seguros. La respuesta es que este encabezado para las direcciones https le indica a nuestro navegador que emplee encriptación adicional para proteger la información que está siendo transferida, lo que es especialmente indicado para las transacciones en línea.

Saber lo que es http y toda la información que sigue a este atributo cuando visitamos páginas web no solo es un dato curioso, sino que además nos ayuda a proteger nuestra privacidad. Cuando realicemos compras en línea o transacciones en donde se involucre nuestra información personal, siempre debemos mirar nuestra barra de direcciones y buscar el https junto con el nombre correcto del sitio o institución que visitamos. Es un crimen bastante común el intentar imitar páginas de bancos y similares para que las personas ingresen su información personal, pero con algo de conocimiento básico esto es fácil de evitar.

La Wed 2.0

La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.

La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.

Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de

Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en que sufrían pocas actualizaciones y no tenían interacción con el usuario.

Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.

Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.

En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:

  • La web es la plataforma
  • La información es lo que mueve al Internet
  • Efectos de la red movidos por una arquitectura de participación.
  • La innovación surge de características distribuidas por desarrolladores independientes.
  • El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo

La Web 2.0 con ejemplos

Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:

¿Qué tecnologías apoyan a la Web 2.0?

El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.

Tecnologías que dan vida a un proyecto Web 2.0:

  • Transformar software de escritorio hacia la plataforma del web.
  • Respeto a los estándares como el XHTML.
  • Separación de contenido del diseño con uso de hojas de estilo.
  • Sindicación de contenidos.
  • Ajax (javascript ascincrónico y xml).
  • Uso de Flash, Flex o Lazlo.
  • Uso de Ruby on Rails para programar páginas dinámicas.
  • Utilización de redes sociales al manejar usuarios y comunidades.
  • Dar control total a los usuarios en el manejo de su información.
  • Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.
  • Facilitar el posicionamiento con URL sencillos.

¿En qué nos sirve la Web 2.0?

El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.

¿Que es FTP?

El termino FTP significa “File Tranfer Protocol” (Protocolo de Transferencia de Archivos). Se refiere a un conjunto de especificaciones y aplicaciones que permiten la transferencia de Archivos en una red TCP/IP. Como muchos otros servicios en la Internet, FTP es un servicio cliente/servidor.

El FTP requiere un cliente local -en este caso WS_FTP- para conectar con un servidor en el ordenador remoto. El cliente usa un conjunto de comandos que el servidor entiende como ordenes de transferencia en uno u otro sentido. Se suele llamar “dowload” a la acción de recibir un archivo del sistema remoto, y “upload” la transferencia del sistema local al remoto.

El programa cliente FTP permite que el usuario realice operaciones sobre en el ordenador remoto, tales como cambiar directorios, recibir listados y copiar archivos entre ambos sistemas. Como es obvio, para que se pueda realizar una conexión FTP contra determinada maquina, en aquella debe disponerse de una cuenta.CIBERIA ofrece a todos sus abonados una cuenta FTP para que puedan crear y actualizar una página web personal

Para iniciar una sesión FTP se indica al cliente FTP la dirección del servidor. Una vez establecida la conexión, el servidor FTP exige una presentación y autenticación del usuario (nombre de usuario y palabra de paso).

 

Configuración

El programa lleva una configuración por defecto que es valida para el acceso. Tan sólo hay que introducir los parámetros tal y

 

Como se ve en esta imagen hay que configurar los siguientes parámetros:

  • Profile Name Nombre que se le pone a la conexión. Ejem: INFASE
  • Host Name/Address: Dirección de la máquina en Internet donde se van a traer o enviar ficheros. En este caso “www.infase.es” o “ftp.infase.es”
  • Host Type: Automatic detec.
  • User ID Nombre de usuario
  • Password Contraseña del usuario.

Con esta configuración pulsar en Aceptar y con la conexión a Internet establecida, esperamos a que nos indique que ya esta conectado.

CONEXIÓNUna vez se han completado estos datos aparece la pantalla siguiente:En la parte izquierda de la pantalla aparece el directorio local, y a la derecha nos muestra nuestro directorio en Internet. Debemos cambiar al directorio “public_html”, donde se deben alojar los ficheros que queramos que se muestren en Internet.

Transferencia de Ficheros.

Para la transferencia de ficheros, hay que seleccionar que ficheros queremos traspasar de un lado o de otro y pulsar la flecha de la dirección de los ficheros. Al realizar esta operación vemos la transición de los ficheros de esta forma:

 

Comprobación de los ficheros.

Para ver el resultado de la transmisión de ficheros, desde el directorio de Internet se alojan en la dirección http://www.ciberia.com/~usuario.
No debe olvidar que el fichero inicial de acceso al directorio debe tener el nombre “index.htm o index.html”

Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.
Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.

Historia De HTML

 

HTML, siglas de Hipertexto Markup Lenguaje (Lenguaje de Marcas de Hipertexto), es el lenguaje de marcado predominante para la construcción de páginas web.
Es usado para describir la estructura y el contenido en forma de texto, así como para complementar el texto con objetos tales como imágenes.
HTML se escribe en forma de “etiquetas”, rodeadas por corchetes angulares (). HTML también puede describir, hasta un cierto punto, la apariencia de un documento, y puede incluir un script (por ejemplo Javascript), el cual puede afectar el comportamiento de navegadores web y otros procesadores de HTML. HTML también es usado para referirse al contenido del tipo de MIME text/html o todavía más ampliamente como un término genérico para el HTML, ya sea en forma descendida del XML (como XHTML 1.0 y posteriores) o en forma descendida directamente de SGML (como HTML 4.01 y anteriores). Por convención, los archivos de formato HTML usan la extensión .htm o .html. Historia de HTML [editar] Primeras especificaciones [editar]La primera descripción de HTML disponible públicamente fue un documento llamado HTML Tags (Etiquetas HTML), publicado por primera vez en Internet por Tim Berners-Lee en 1991.[1] [2] Describe 22 elementos comprendiendo el diseño inicial y relativamente simple de HTML. Trece de estos elementos todaví a existen en HTML 4.[3] Berners-Lee consideraba a HTML una ampliación de SGML, pero no fue formalmente reconocida como tal hasta la publicación de mediados de 1993, por la IETF, de una primera proposición para una especificación de HTML: el boceto Hypertext Markup Lenguaje de Berners-Lee y Dan Connolly, el cual incluía una Definición de Tipo de Documento SGML para definir la gramática.[4] El boceto expiró luego de seis meses, pero fue notable por su reconocimiento de la etiqueta propia del navegador Mosaic usada para insertar imágenes sin cambio de línea, reflejando la filosofía del IETF de basar estándares en prototipos con éxito. [5] Similarmente, el boceto competidor…

¿Qué es el PHP?

 El PHP (acronimo de PHP: Hypertext Preprocessor), es un lenguaje interpretado de alto nivel embebido en páginas HTML y ejecutado en el servidor. El PHP inicio como una modificación a Perl escrita por Rasmus Lerdorf a finales de 1994. Su primer uso fue el de mantener un control sobre quien visitaba su curriculum en su web.

En los siguientes tres años, se fue convirtiendo en lo que se conoce como PHP/FI 2.0. Esta forma de programar llego a muchos usuarios, pero el lenguaje no tomo el peso actual hasta que Zeev Surasky y Andi Gutmans le incluyeron nuevas características en 1997, que dio por resultado el PHP 3.0. La versión 5 es la más reciente y está previsto el lanzamiento de la rama 6.

¿Qué es el ASP?

Toda la información sobre las Active Server pages de Microsoft

alt=”Introducción al ASP (Active Server Pages)”
src=”/images/asp_title.gif” width=”318″/>

Al navegar más de alguna vez nos hemos
topado con alguna página que tiene archivos con extensión “.asp” y nos hemos preguntado que significa éste tipo de archivos.

Microsoft introdujo esta tecnología llamada Active Server Pages en diciembre de
1996, por lo que no es nada nueva. Es parte del Internet Information Server (IIS) desde
la versión 3.0 y es una tecnología de páginas activas que permite el uso de
diferentes scripts y componentes en conjunto con el tradicional HTML para mostrar
páginas generadas dinámicamente, traduciendo la definición de Microsoft: “Las

Active Server Pages son un ambiente de aplicación abierto y gratuito en el que
se puede combinar código HTML, scripts y componentes ActiveX del servidor para
crear soluciones dinámicas y poderosas para el web”.

El principio de la tecnología ASP es el VBScript, pero existe otra diversidad
de lenguajes de programación que pueden ser utilizados como lo es Perl,
JScript, etc.

El ASP es una tecnología dinámica funcionando del lado del servidor, lo que
significa que cuando el usuario solicita un documento ASP, las instrucciones
de programación dentro del script son ejecutadas para enviar al navegador únicamente
el código HTML resultante. La ventaja principal de las tecnologías dependientes
del servidor radica en la seguridad que tiene el programador sobre su código,
ya que éste se encuentra únicamente en los archivos del servidor que al ser
solicitado a través del web, es ejecutado, por lo que los usuario no tienen
acceso más que a la página resultante en su navegador.

Para explicar mejor el
funcionamiento del ASP se presenta la siguiente gráfica:

src=”/images/asp_intro.gif” alt=”aspintro”
width=”412″/>

Para insertar instrucciones ASP dentro
del código HTML se incluye encerrado entre “<% %>”. Estos comandos son
los que procesa el servidor antes de enviar la página al navegador.

A continuación tenemos un ejemplo del código ASP en el servidor y los resultados
HTML que serán vistos en el navegador:

Código ASP Código HTML Resultado en el Navegador
<P><% For I = 1 To 5 Step 1 %>

<FONT SIZE=”<%= I %>”>Maestros del Web!</FONT><BR>

<% Next %>

</P>

<P><FONT SIZE=”1″>Maestros del Web!</FONT><BR>

<FONT SIZE=”2″>Maestros del Web!</FONT><BR>

<FONT SIZE=”3″>Maestros del Web!</FONT><BR>

<FONT SIZE=”4″>Maestros del Web!</FONT><BR>

<FONT SIZE=”5″>Maestros del Web!</FONT><BR>

</P>

Maestros del Web!Maestros del Web!

Maestros del Web!

Maestros del Web!

Maestros del Web!

El ejemplo anterior crea un ciclo que
se repite 5 veces y aumenta el tamaño del tipo de letra en una frase establecida.

El desarrollo que se ha venido dando a lo que es
ASP ha sido bastante amplio. Entre sus funciones principales están el acceso
a base de datos, envió de correo electrónico, creación dinámica de gráficos
y otros. Básicamente, muchas cosas que podemos realizar por medio de <A
href=”http://maestrosdelweb.com/editorial/cgiintro/”>CGI pueden ser realizadas con esta tecnología. Esto debido a que el ASP es tan eficiente
con escribir código directamente a la interfase de aplicación del servidor,
con la ventaja de que es más eficiente que el CGI que depende de un compilador
ya que el ASP corre como un servicio en el servidor, tomando ventaja de la arquitectura
de multitareas.

Para empezar con el desarrollo de las Active Server Pages es necesario un servidor
con Windows NT 4.x o mayor y el Internet Information Server. El IIS es una aplicación
gratuita que puede conseguirse en el <A
href=”http://www.microsoft.com/ntserver/nts/downloads/recommended/NT4OptPk/default.asp”>Option Pack del NT. También es posible utilizar
ASP en
Windows 9x por medio del Personal Web Server junto al Option Pack
mencionado anteriormente.

En caso del uso de un servidor Linux, Chilisoft ha desarrollado el Chilisoft
ASP que también permite el uso de esta tecnología. Otra opción
es InstantAsp también para correr ASP en servidores
que no sean el IIS.

La mayoría de proveedores de Hosting pagado con plataformas NT tienen acceso
a esta tecnología en sus servidores. El código puede ser trabajado en cualquier
editor HTML o de texto. Existen en el mercado dos herramientas para trabajar
profesionalmente el ASP en modo visual como lo son el Drumbeat 2000 y el <A
href=”http://msdn.microsoft.com/vinterdev/”>Visual Interdev de Microsoft.

Para más información y resolución de dudas sobre ASP visita los <A
href=”http://www.forosdelweb.com/asp/”>foros.

Loading …

Unregistered

Al navegar más de alguna vez nos hemos topado con alguna página que tiene archivos con extensión “.asp” y nos hemos preguntado que significa éste tipo de archivos.
Microsoft introdujo esta tecnología llamada Active Server Pages en diciembre de 1996, por lo que no es nada nueva. Es parte del Internet Information Server (IIS) desde la versión 3.0 y es una tecnología de páginas activas que permite el uso de diferentes scripts y componentes en conjunto con el tradicional HTML para mostrar páginas generadas dinámicamente.

Traduciendo la definición de Microsoft: “Las Active Server Pages son un ambiente de aplicación abierto y gratuito en el que se puede combinar código HTML, scripts y componentes ActiveX del servidor para crear soluciones dinámicas y poderosas para el web”.

El principio de la tecnología ASP es el VBScript, pero existe otra diversidad de lenguajes de programación que pueden ser utilizados como lo es Perl, JScript, etc.
El ASP es una tecnología dinámica funcionando del lado del servidor, lo que significa que cuando el usuario solicita un documento ASP, las instrucciones de programación dentro del script son ejecutadas para enviar al navegador únicamente el código HTML resultante. La ventaja principal de las tecnologías dependientes del servidor radica en la seguridad que tiene el programador sobre su código, ya que éste se encuentra únicamente en los archivos del servidor que al ser solicitado a través del web, es ejecutado, por lo que los usuario no tienen acceso más que a la página resultante en su navegador.

Para explicar mejor el funcionamiento del ASP se presenta la siguiente gráfica:

Para insertar instrucciones ASP dentro del código HTML se incluye encerrado entre “< % %>“. Estos comandos son los que procesa el servidor antes de enviar la página al navegador.
A continuación tenemos un ejemplo del código ASP en el servidor y los resultados HTML que serán vistos en el navegador:

Código ASP Código HTML Resultado en el Navegador

< % For I = 1 To 5 Step 1 %>
Maestros del Web!

Maestros del Web!

Maestros del Web!

Maestros del Web!

Maestros del Web!

Maestros del Web!
Maestros del Web!
Maestros del Web!
Maestros del Web!
Maestros del Web!

El ejemplo anterior crea un ciclo que se repite 5 veces y aumenta el tamaño del tipo de letra en una frase establecida.

El desarrollo que se ha venido dando a lo que es ASP ha sido bastante amplio. Entre sus funciones principales están el acceso a base de datos, envió de correo electrónico, creación dinámica de gráficos y otros. Básicamente, muchas cosas que podemos realizar por medio de CGI pueden ser realizadas con esta tecnología. Esto debido a que el ASP es tan eficiente con escribir código directamente a la interfase de aplicación del servidor, con la ventaja de que es más eficiente que el CGI que depende de un compilador ya que el ASP corre como un servicio en el servidor, tomando ventaja de la arquitectura de multitareas.

Para empezar con el desarrollo de las Active Server Pages es necesario un servidor con Windows NT 4.x o mayor y el Internet Information Server. El IIS es una aplicación gratuita que puede conseguirse en el Option Pack del NT. También es posible utilizar ASP en Windows 9x por medio del Personal Web Server junto al Option Pack mencionado anteriormente.
En caso del uso de un servidor Linux, Chilisoft ha desarrollado el Chilisoft ASP que también permite el uso de esta tecnología. Otra opción es InstantAsp también para correr ASP en servidores que no sean el IIS.
La mayoría de proveedores de Hosting pagado con plataformas NT tienen acceso a esta tecnología en sus servidores. El código puede ser trabajado en cualquier editor HTML o de texto. Existen en el mercado dos herramientas para trabajar profesionalmente el ASP en modo visual como lo son el Drumbeat 2000 y el Visual Interdev de Microsoft.

¿Qué son puertos IP?

Aunque tu ordenador solo tiene una dirección IP en el amplio mundo que es Internet, una gran variedad de funciones y software están implicadas en una conexión de Internet. Por ejemplo, recibir y enviar correos electrónicos, ver una página Web, transferir archivos, son diferentes procesos, en el cual cada uno utilizará un software diferente. Para gestionar estas funciones de una manera sistemática, se hace uso de los llamados puertos IP como si fueran direcciones locales. Estos puertos no existen físicamente y no deben ser confundidos con los puertos USB o paralelos. Estas direcciones locales son usadas para dirigir los distintos tipos de actividad existente en Internet, al software apropiado en el ordenador local.

Piensa en tu ordenador como una oficina de un edificio, con varias salas y habitaciones para desempeñar diferentes funciones. La dirección IP que utilizamos para navegar por Internet correspondería con el nombre de la calle del edificio, y los puertos IP serían los números de las habitaciones. De hecho, en el formato estándar de una URL, se reserva una sección para el puerto designado. El número de puerto casi nunca es necesario en nuestro navegador de Internet ya que por defecto se utiliza el puerto 80 del protocolo http.

Qué es un Motor de Búsqueda 

Un motor de búsqueda es un programa software que busca sitios web basándose en palabras clave (keywords) designadas como términos de búsqueda.

Los Motores de Búsqueda y los Directorios Web no son lo mismo, aunque a menudo se utiliza el término de manera indistinta. Los motores de búsqueda crean listados de sitios web utilizando arañas (spiders) que rastrean (crawl) las páginas web, indexan su información y siguen los enlaces desde ellas hacia otras páginas. Las arañas regresan con frecuencia a los sitios ya rastreados para comprobar actualizaciones o cambios, todo lo que encuentran queda reflejado en la base de datos del motor de búsqueda.

Un Directorio Web organiza los sitios web por temas, y normalmente se mantienen por personas y no mediante software, por lo que sus bases de datos son menores que las de los motores de búsqueda. El usuario accede a las páginas web organizadas por categorías y menús.

Todos los motores de búsqueda siguen el siguiente proceso al realizar una búsqueda, pero al utilizar algoritmos de búsqueda diferentes, los resultados de las búsquedas también lo son.

  • El usuario teclea una pregunta en el motor de búsqueda.
  • El software del motor de búsqueda recorre literalmente millones de páginas de su base de datos para encontrar correspondencias a la pregunta.
  • Los resultados de la búsqueda se muestran listados en orden de relevancia.

Los motores de búsqueda buscan en sus propias bases de datos para encontrar lo que el usuario busca.  Los motores de busqueda son complejos, utilizan detallados procesos y metodologías que son actualizados continuamente.

Los motores de búsqueda son un elemento fundamental de Internet por lo que debemos tenerlos muy en cuenta a la hora de diseñar una página web. Suelen ser la principal fuente de tráfico, por lo que el ranking que asignen a un sitio web marcará de manera decisiva el éxito o el fracaso de este.

¿Qué es la Mensajería Instantánea? 

La Mensajería Instantánea es un punto intermedio entre los sistemas de chat y los mensajes de correo electrónico, las herramientas de mensajería instantánea, son programas regularmente gratuitos y versátiles, residen en el escritorio y, mientras hay una conexión a Internet, siempre están activos.

El servicio de mensajería instantánea ofrece una ventana donde se escribe el mensaje, en texto plano o acompañado de iconos o “emoticons” (figura que representan estados de ánimo), y se envían a uno o varios destinatarios quienes reciben los mensajes en tiempo real, el receptor lo lee y puede contestar en el acto.

A las últimas versiones se les han añadido una serie de aplicaciones extra como la posibilidad de entablar conversaciones telefónicas, utilizando la infraestructura de Internet, lo mismo que contar con sistemas de información financiera en tiempo real, y el compartir diferentes tipos de archivos y programas, incluidos juegos en línea.

Mensajería Instantánea 

La mensajería instantánea ha ganado popularidad en forma arrasadora. En los últimos años, el número de usuarios de cualquiera de los principales servicios: Instant Messenger de AOL, MSN Messenger de Microsoft, Yahoo! Messenger e ICQ, se ha incrementado en forma sustancial alcanzando casi el número total de usuarios de Internet.A través de los servidores de America OnLine, uno de los principales proveedores de este tipo de servicios, se calcula que a diario corren más de 300 millones de mensajes instantáneos, lo que significa que sus más de loo millones de usuarios del servicio, envían al menos tres mensajes al día a través de este recurso.

Independientemente de si ayudan a incrementar la productividad o deteriorarla, los sistemas de mensajería instantánea son una herramienta de trabajo y una forma de comunicación personal hoy imprescindible para muchas personas y empresas que verían afectadas sus actividades si carecieran de ellos.

Latinoamérica no se ha sustraído a la tendencia de uso de la mensajería instantánea y, según Gerardo Villarreal, director de TIMSN (portal resultado de la inversión entre Teléfonos de México y Microsoft), México es el tercer país a nivel mundial en uso del MSN Messenger con más de 3.8 millones de cuentas activas, sólo después de Inglaterra y Estados Unidos.

Villarreal estimó que en promedio a nivel regional, 70% de los usuarios de Hotmail tienen una cuenta de MSN Messenger. “La red MSN tiene a nivel mundial 72.5 millones de usuarios, Latinoamérica es una de las regiones de mayor crecimiento para el servicio de Microsoft, de julio del 2001 a la fecha ha mostrado un crecimiento de más de 45% en el uso de Messenger, México tiene más de 3.8 millones de usuarios, mientras que el resto de los lo principales países de la región tienen 5 millones más de usuarios”, explicó Villarreal.

Asimismo señaló que la duplicidad de cuentas, al menos en el caso del producto de Microsoft, es mínima, debido en parte a las características del servicio que permite tener listas separadas de contactos de los ambientes de trabajo, familia y otros, lo que evita disponer de más de dos cuentas para atender a cada tipo de contacto.

Gilberto Romero, analista de software de Select, empresa dedicada al análisis de la industria de Tecnologías de la Información en México, explicó que los usuarios individuales son quienes principalmente utilizan los sistemas de mensajería en el país. “La aplicación es sumamente sencilla de utilizar, combina las prestaciones del chat y del correo electrónico, anexar archivos, fotografías, juegos en línea, entre otras aplicaciones, toda esta funcionalidad lo hace muy atractivo para la gente”, opinó Romero.

“En una sociedad tan demandante, este tipo de herramientas es un recurso que no pasa desapercibido, sobre todo para jóvenes y adolescentes que están creciendo en este ambiente y para quienes es más conciso y práctico oprimir dos o tres teclas para estar en contacto con otras personas”, agregó el analista de Select.

Romero estimó que en el país la mayor parte de los usuarios de sistemas de mensajería instantánea lo son del servicio de Microsoft, MSN Messenger con más de 55% de la base instalada, seguido de Yahoo! con 28%; AOL Messenger, 7%; ICQ, 4%; y el restante 6% se reparte en otro tipo de servicios.

Igual que en otros segmentos de servicios relacionados con Internet, el número de herramientas de mensajería instantánea y proveedores del servicio se ha consolidado en tres principales empresas, America OnLine, que soporta su Instant Messenger e ICQ, Microsoft, y Yahoo!. En el camino han quedado esfuerzos de múltiples empresas como Excite y Terra, que ante la abrumadora penetración de mercado de las marcas dominantes prefirieron abandonar la oferta del servicio y concentrarse en sus negocios centrales.

SMTP y pop3

SMTP is short for Simple Mail Transfer Protocol and it is used to transfer e-mail messages between computers. It is a text based protocol in which message text is specified along with the recipients of the message. Simple Mail Transfer Protocol is a ‘push’ protocol and it cannot be used to ‘pull’ the messages from the server.A procedure of queries and responses is used to send the message between the client and the server. An end user’s e-mail client or the relaying server’s Mail Transport Agents can act as an SMTP client which is used to initiate a TCP connection to the port 25 of the server. SMTP is used to send the message from the mail client to the mail server and an e-mail client using the POP or IMAP is used to retrieve the message from the

SMTP Functions

An SMTP server performs the following two functions :

  1. It verifies the configuration and grants the permission to a computer that is making an attempt to send a message. It sends the message to the specified destination and tracks it to see whether it’s delivered successfully or not. If it’s not delivered successfully then an error message is send to the sender.
  2. There’s one limitation to SMTP and it’s the inability to authenticate the senders and this results in e-mail spamming. The enhanced version of SMTP also exists and it’s called as Extended SMTP (ESMTP). ESMTP is used to send the e-mails that include graphics and other attachments

 

 

 

 

 

 

Resumen

Las versiones del protocolo POP (informalmente conocido como POP1) y POP2 se han hecho obsoletas debido a las últimas versiones de POP3. En general cuando uno se refiere al término POP, nos referimos a POP3 dentro del contexto de protocolos de correo electrónico.

Características

POP3 está diseñado para recibir correo, no para enviarlo; le permite a los usuarios con conexiones intermitentes ó muy lentas (tales como las conexiones por módem), descargar su correo electrónico mientras tienen conexión y revisarlo posteriormente incluso estando desconectados. Cabe mencionar que la mayoría de los clientes de correo incluyen la opción de dejar los mensajes en el servidor, de manera tal que, un cliente que utilice POP3 se conecta, obtiene todos los mensajes, los almacena en la computadora del usuario como mensajes nuevos, los elimina del servidor y finalmente se desconecta. En contraste, el protocolo IMAP permite los modos de operación conectado y desconectado.

Los clientes de correo electrónico que utilizan IMAP dejan por lo general los mensajes en el servidor hasta que el usuario los elimina directamente. Esto y otros factores hacen que la operación de IMAP permita a múltiples clientes acceder al mismo buzón de correo. La mayoría de los clientes de correo electrónico soportan POP3 ó IMAP; sin embargo, solo unos cuantos proveedores de internet ofrecen IMAP como valor agregado de sus servicios.

Los clientes que utilizan la opción dejar mensajes en el servidor por lo general utilizan la orden UIDL (‘Unique IDentification Listing). La mayoría de las órdenes de POP3 identifican los mensajes dependiendo de su número ordinal del servidor de correo. Esto genera problemas al momento que un cliente pretende dejar los mensajes en el servidor, ya que los mensajes con número cambian de una conexión al servidor a otra. Por ejemplo un buzón de correo contenía 5 mensajes en la última conexión, después otro cliente elimina el mensaje número 3, el siguiente usuario se topará con que los últimos dos mensajes están decrementados en uno. El UIDL proporciona un mecanismo que evita los problemas de numeración. El servidor le asigna una cadena de caracteres única y permanente al mensaje. Cuando un cliente de correo compatible con POP3 se conecta al servidor utiliza la orden UIDL para obtener el mapeo del identificador de mensaje. De esta manera el cliente puede utilizar ese mapeo para determinar qué mensajes hay que descargar y cuáles hay que guardar al momento de la descarga.

Al igual que otros viejos protocolos de internet, POP3 utilizaba un mecanismo de firmado sin cifrado. La transmisión de contraseñas de POP3 en texto plano aún se da. En la actualidad POP3 cuenta con diversos métodos de autenticación que ofrecen una diversa gama de niveles de protección contra los accesos ilegales al buzón de correo de los usuarios. Uno de estos es APOP, el cual utiliza funciones MD5 para evitar los ataques de contraseñas. Mozilla, Eudora, Novell Evolution así como Mozilla Thunderbird implementan funciones APOP

Órdenes

Para establecer una conexión a un servidor POP, el cliente de correo abre una conexión TCP en el puerto 110 del servidor. Cuando la conexión se ha establecido, el servidor POP envía al cliente POP una invitación y después las dos máquinas se envían entre sí otras órdenes y respuestas que se especifican en el protocolo. Como parte de esta comunicación, al cliente POP se le pide que se autentifique (Estado de autenticación), donde el nombre de usuario y la contraseña del usuario se envían al servidor POP. Si la autenticación es correcta, el cliente POP pasa al Estado de transacción, en este estado se pueden utilizar órdenes LIST, RETR y DELE para mostrar, descargar y eliminar mensajes del servidor, respectivamente. Los mensajes definidos para su eliminación no se quitan realmente del servidor hasta que el cliente POP envía la orden QUIT para terminar la sesión. En ese momento, el servidor POP pasa al Estado de actualización, fase en la que se eliminan los mensajes marcados y se limpian todos los recursos restantes de la sesión.

Es posible conectarse manualmente al servidor POP3 haciendo Telnet al puerto 110. Es muy útil cuando envían un mensaje con un fichero muy largo que no se quiere recibir.

Que es P2p

  

Una red peer-to-peer (P2P) o red de pares, es una red de computadoras en la que todos o algunos aspectos de ésta funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red.

Forma coloquial de referirse a las denominadas redes entre iguales, redes entre pares o redes punto a punto. En estas redes no existen ni ordenadores cliente ni ordenadores que hagan de servidor. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados. El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que hayan sido, y estén siendo, utilizadas para intercambiar archivos cuyo contenido está sujeto a las leyes de copyright, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas.

Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, obteniendo más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.

Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red es también comúnmente usado en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.

La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local (cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su conexión a la red y capacidad de almacenamiento en disco

 

 

Aplicaciones de las redes P2P

En la actual Internet, el ancho de banda o las capacidades de almacenamiento y cómputo son recursos caros. En aquellas aplicaciones y servicios que requieran una enorme cantidad de recursos pueden usarse las redes P2P.

Algunos ejemplos de aplicación de las redes P2P:

  • Intercambio y búsqueda de ficheros. Quizás sea la aplicación más extendida de este tipo de redes. Algunos ejemplos son BitTorrent o la red eDonkey2000.
  • Sistemas de ficheros distribuidos, como CFS o Freenet.
  • Sistemas de telefonía por Internet, como Skype.
  • A partir del año 2006 cada vez más compañías europeas y americanas, como Warner Bros o la BBC, empezaron a ver el P2P como una alternativa a la distribución convencional de películas y programas de televisión, ofreciendo parte de sus contenidos a través de tecnologías como la de BitTorrent.[1]
  • Cálculos científicos que procesen enormes bases de datos, como los bioinformáticos.

 

 

Gráfico de un enjambre mostrando la distribución de los peers con sus respectivas trasmisiones y recepciones de datos dentro de un torrent en Azureus

Las redes P2P pueden ser también usadas para hacer funcionar grandes sistemas de software diseñados para realizar pruebas que identifiquen la presencia de posibles fármacos. El primer sistema diseñado con tal propósito fue desarrollado en 2001, en el Centro Computacional para el Descubrimiento de Medicamentos (Centre for Computational Drug Discovery) en la prestigiosa Universidad de Oxford con la cooperación de la Fundación Nacional para la Investigación del Cáncer (National Foundation for Cancer Research) de Estados Unidos.

Actualmente, existen varios sistemas software similares que se desarrollan bajo el auspicio de proyectos como el proyecto de Dispositivos Unidos en la Investigación del cáncer (United Devices Cancer Research Project). En una escala más pequeña, existen sistemas de administración autónoma para los biólogos computacionales, como el Chinook, que se unen para ejecutar y hacer comparaciones de datos bioinformáticos con los más de 25 diferentes servicios de análisis que ofrece. Uno de sus propósitos consiste en facilitar el intercambio de técnicas de análisis dentro de una comunidad local.

Las instituciones académicas también han comenzado la experimentación con compartición de archivos, como es el caso de LionShare.

Características

Seis características deseables de las redes P2P:

  • Escalabilidad. Las redes P2P tienen un alcance mundial con cientos de millones de usuarios potenciales. En general, lo deseable es que cuantos más nodos estén conectados a una red P2P mejor será su funcionamiento. Así, cuando los nodos llegan y comparten sus propios recursos, los recursos totales del sistema aumentan. Esto es diferente en una arquitectura del modo servidor-cliente con un sistema fijo de servidores, en los cuales la adición de más clientes podría significar una transferencia de datos más lenta para todos los usuarios. Algunos autores advierten de que si proliferan mucho este tipo de redes, Cliente-Servidor, podrían llegar a su fin, ya que a cada una de estas redes se conectarán muy pocos usuarios.
  • Robustez. La naturaleza distribuida de las redes peer-to-peer también incrementa la robustez en caso de haber fallos en la réplica excesiva de los datos hacia múltiples destinos, y —-en sistemas P2P puros—- permitiendo a los peers encontrar la información sin hacer peticiones a ningún servidor centralizado de indexado. En el último caso, no hay ningún punto singular de falla en el sistema.
  • Descentralización. Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red. En realidad, algunas redes comúnmente llamadas P2P no cumplen esta característica, como Napster, eDonkey o BitTorrent.
  • Los costes están repartidos entre los usuarios. Se comparten o donan recursos a cambio de recursos. Según la aplicación de la red, los recursos pueden ser archivos, ancho de banda, ciclos de proceso o almacenamiento de disco.
  • Anonimato. Es deseable que en estas redes quede anónimo el autor de un contenido, el editor, el lector, el servidor que lo alberga y la petición para encontrarlo siempre que así lo necesiten los usuarios. Muchas veces el derecho al anonimato y los derechos de autor son incompatibles entre sí, y la industria propone mecanismos como el DRM para limitar ambos.
  • Seguridad. Es una de las características deseables de las redes P2P menos implementada. Los objetivos de un P2P seguro serían identificar y evitar los nodos maliciosos, evitar el contenido infectado, evitar el espionaje de las comunicaciones entre nodos, creación de grupos seguros de nodos dentro de la red, protección de los recursos de la red… En su mayoría aún están bajo investigación, pero los mecanismos más prometedores son: cifrado multiclave, cajas de arena, gestión de derechos de autor (la industria define qué puede hacer el usuario, por ejemplo la segunda vez que se oye la canción se apaga), reputación (sólo permitir acceso a los conocidos), comunicaciones seguras, comentarios sobre los ficheros…

Problemas de funcionamiento

La mayor parte de los nodos de Internet no disponen de una dirección IP fija o siquiera accesible para otros nodos de Internet. Este es el caso, por ejemplo, de los nodos que se conectan a través de redes locales como Wifi o Ethernet, de aquellos que tienen algún tipo de Cortafuegos y NAT o de los que se conectan a través de la mayor parte de los ISPs del mundo. Para el correcto funcionamiento de una red P2P, hay que resolver dos problemas fundamentales: cómo se encuentra un nodo que ya esté conectado a la red P2P y cómo se conectan los nodos sin dirección IP pública entre ellos.

Para resolver el primer problema, la solución habitual es realizar una conexión a un servidor (o servidores) inicial con dirección bien conocida (normalmente IP fija) que el programa P2P tiene almacenada. Este servidor inicial se encarga de mantener una lista con las direcciones de otros nodos que están actualmente conectados a la red. Tras esto, los clientes ya tienen información suficiente para entrar en la red y pueden intercambiar información con otro nodos, ya sin intervención de los servidores iniciales.

Para resolver el problema de conexión cuando los nodos no tienen dirección pública, estos se conectan a través de otro nodo que funciona como proxy de la conexión. Los dos nodos se conectan al proxy y éste envía la información que llega de uno al otro. Cualquier nodo con una dirección IP pública puede ser escogido como proxy de una conexión entre dos nodos. Por ejemplo, en la red Skype a través de nuestro ordenador pueden pasar conversaciones de otras personas. En estos casos, es imprescindible la implementación de algún mecanismo de seguridad para evitar que los proxies pueden llegar a entender la comunicación entre los dos nodos.

Clasificación

Una posible clasificación de las redes P2P pudiera ser acorde a su grado de centralización:

 

 

Las tres topologías de red según los famosos grafos de Paul Baran que aplican también al diseño P2P

Redes P2P centralizadas

Este tipo de red P2P se basa en una arquitectura monolítica en la que todas las transacciones se hacen a través de un único servidor que sirve de punto de enlace entre dos nodos y que, a la vez, almacena y distribuye los nodos donde se almacenan los contenidos. Poseen una administración muy dinámica y una disposición más permanente de contenido. Sin embargo, está muy limitada en la privacidad de los usuarios y en la falta de escalabilidad de un sólo servidor, además de ofrecer problemas en puntos únicos de fallo, situaciones legales y enormes costos en el mantenimiento así como el consumo de ancho de banda.

Una red de este tipo reúne las siguientes características:

Se rige bajo un único servidor que sirve como punto de enlace entre nodos y como servidor de acceso al contenido, el cual distribuye a petición de los nodos.

Todas las comunicaciones (como las peticiones y encaminamientos entre nodos) dependen exclusivamente de la existencia del servidor.

Algunos ejemplos de este tipo de redes son Napster y Audiogalaxy.

Redes P2P híbridas, semi-centralizadas o mixtas

En este tipo de red, se puede observar la interacción entre un servidor central que sirve como hub y administra los recursos de banda ancha, enrutamientos y comunicación entre nodos pero sin saber la identidad de cada nodo y sin almacenar información alguna, por lo que el servidor no comparte archivos de ningún tipo a ningún nodo. Tiene la peculiaridad de funcionar (en algunos casos como en Torrent) de ambas maneras, es decir, puede incorporar más de un servidor que gestione los recursos compartidos, pero también en caso de que el o los servidores que gestionan todo caigan, el grupo de nodos sigue en contacto a través de una conexión directa entre ellos mismos con lo que es posible seguir compartiendo y descargando más información en ausencia de los servidores. Este tipo de P2P sigue las siguientes características:

Tiene un servidor central que guarda información en espera y responde a peticiones para esa información.

Los nodos son responsables de hospedar la información (pues el servidor central no almacena la información), que permite al servidor central reconocer los recursos que se desean compartir, y para poder descargar esos recursos compartidos a los peers que lo solicitan.

Las terminales de enrutamiento son direcciones usadas por el servidor, que son administradas por un sistema de índices para obtener una dirección absoluta.

Algunos ejemplos de una red P2P híbrida son BitTorrent, eDonkey y Direct Connect.

Redes P2P “puras” o totalmente descentralizadas

Las redes P2P de este tipo son las más comunes, siendo las más versátiles al no requerir de un gestionamiento central de ningún tipo, lo que permite una reducción de la necesidad de usar un servidor central, por lo que se opta por los mismos usuarios como nodos de esas conexiones y también como almacenistas de esa información. En otras palabras, todas las comunicaciones son directamente de usuario a usuario con ayuda de un nodo (que es otro usuario) quien permite enlazar esas comunicaciones. Las redes de este tipo tienen las siguientes características:

Los nodos actúan como cliente y servidor.

No existe un servidor central que maneje las conexiones de red.

No hay un enrutador central que sirva como nodo y administre direcciones.

Algunos ejemplos de una red P2P “pura” son: Kademlia, Ares Galaxy, Gnutella, Freenet y Gnutella2.

[editar] Otras categorías con base la red P2P

Algunos prefieren clasificar las redes P2P según su estructuración, clasificando las redes en:

Redes P2P estructuradas como CAN

Redes P2P sin estructura como Gnutella

También se podría clasificar las redes P2P de acuerdo a su generación y estas son:

Primera Generación de P2P: Son literalmente las primeras redes P2P las cuales eran centralizadas

Segunda Generación de P2P: En esta generación se implementa por primera vez la característica de la descentralización, siendo esta característica la más común en los actuales P2P

Tercera Generación de P2P: Son aquellos P2P de generación más reciente, que implementan una comunicación no directa, cifrada y anónima

Existe también la posibilidad de clasificar las redes P2P concorde a sus características de anonimidad o exclusividad como:

Sin características de anonimidad

Pseudónimo

Red P2P Privada

Friend-to-friend (de amigo-a-amigo)

Una reciente generación de sistemas peer-to-peer son llamados “metacomputing” o son clasificados como “middleware”. Estos incluyen: Legión, Globus

[editar] Redes P2P sin estructura y Redes P2P estructuradas

La red de sobrecapa del P2P consiste en todos los peer que participan como nodos de red. Hay enlaces entre dos nodos cualesquiera que se conozcan: es decir si un peer participante conoce la localización de otro peer en la red del P2P, entonces hay un borde dirigido del nodo anterior al último nodo en la red de sobrecapa. Basándonos en cómo los nodos en la red de sobrecapa se enlazan el uno al otro, podemos clasificar las redes del P2P como no estructuradas o estructuradas.

Una red P2P no estructurada se forma cuando los enlaces de la sobrecapa se establecen arbitrariamente. Tales redes pueden ser construidas tan fácilmente como un peer que desea unirse a la red puede copiar enlaces existentes de otro nodo y después formar sus propios enlaces en un cierto plazo.

En una red P2P no estructurada, si un peer desea encontrar un pedazo deseado de datos en la red, la petición tiene que recorrer toda la red para encontrar tantos peers como sea posible, para conseguir a alguien que comparta los datos. La desventaja principal con estas redes es que las peticiones no pueden ser resueltas siempre. Un contenido popular es muy probable estar disponible en varios peers y cualquier peer que busca ese contenido popular, es muy probable que encontrase lo mismo pero, si un peer está buscando datos raros o no-tan-populares compartidos por solamente algunos otros peers, después es altamente probable que la búsqueda no sea acertada. Puesto que no hay correlación entre un peer y el contenido compartido por él, no hay garantía que la petición encontrará al peer que tiene los datos deseados.

El flooding también causa una alta cantidad de señalar tráfico en la red y por lo tanto tales redes tienen típicamente una eficacia muy pobre en los resultados de búsqueda. La mayoría de las redes populares P2P tales como Napster, Gnutella y KaZaA son redes P2P sin estructura.

Las redes P2P estructuradas superan las limitaciones de redes no estructuradas manteniendo una tabla de hash distribuida(DHT) y permitiendo que cada peer sea responsable de una parte específica del contenido en la red. Estas redes utilizan funciones de hash distribuido y asignan valores a cada contenido y a cada peer en la red. Después siguen un protocolo global en la determinación de qué peer es responsable de qué contenido. Esta manera, siempre que un peer desee buscar ciertos datos, utiliza el protocolo global para determinar el (los) peer(s) responsable(s) de los datos y después dirige la búsqueda hacia el (los) peer(s) responsable(s). Algunas redes P2P estructuradas son:

 

Red social

Una red social es una estructura social compuesta de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes, intercambios económicos, relaciones sexuales, o que comparten creencias, conocimiento o prestigio.

El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como “nodos” o “vértices” y las relaciones como “enlaces” o “aristas”. La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.

En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes “sociocéntricas” o “completas”. Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de “red personal”.

La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.

Análisis de redes sociales

 

 

Ejemplo de un diagrama de una red social. El nodo con la más alta intermediación centralidad está marcado en amarillo.

El Análisis de redes sociales (relacionado con la teoría de redes) ha emergido como una metodología clave en las modernas Ciencias Sociales, entre las que se incluyen la sociología, la antropología, la psicología social, la economía, la geografía, las Ciencias políticas, la cienciometría, los estudios de comunicación, estudios organizacionales y la sociolingüística. También ha ganado un apoyo significativo en la física y la biología entre otras.

En el lenguaje cotidiano se ha utilizado libremente la idea de “red social” durante más de un siglo para denotar conjuntos complejos de relaciones entre miembros de los sistemas sociales en todas las dimensiones, desde el ámbito interpersonal hasta el internacional. En 1954, el antropólogo de la Escuela de Manchester J. A. Barnes comenzó a utilizar sistemáticamente el término para mostrar patrones de lazos, abarcando los conceptos tradicionalmente utilizados por los científicos sociales: grupos delimitados (p.e., tribus, familias) y categorías sociales (p.e., género, etnia). Académicos como S.D. Berkowitz, Stephen Borgatti, Burt Ronald Burt, Carley Kathleen Carley, Martin Everett, Katherine Faust, Linton Freeman, Granovetter Mark Granovetter, David Knoke, Krackhardt David Krackhardt, Peter Marsden, Nicholas Mullins, Rapoport Anatol Rapoport, Stanley Wasserman, Wellman Barry Wellman, R. White Douglas R. White, y White Harrison White expandieron el uso del análisis de redes sociales sistemático.[1]

El Análisis de redes sociales ha pasado de ser una metáfora sugerente para constituirse en un enfoque analítico y un paradigma, con sus principios teóricos, métodos network analysis software software para análisis de redes sociales y líneas de investigación propios. Los analistas estudian la influencia del todo en las partes y viceversa, el efecto producido por la acción selectiva de los individuos en la red; desde la estructura hasta la relación y el individuo, desde el comportamiento hasta la actitud. Como se ha dicho estos análisis se realizan bien en redes completas, donde los lazos son las relaciones específicas en un población definida, o bien en redes personales (también conocidas como redes egocéntricas, aunque no son exactamente equiparables), donde se estudian “comunidades personales”.[2] La distinción entre redes totales/completas y redes personales/egocéntricas depende mucho más de la capacidad del analista para recopilar los datos y la información. Es decir, para grupos tales como empresas, escuelas o sociedades con membrecía, el analista espera tener información completa sobre quien está en la red, siendo todos los participantes egos y alteri potenciales. Los estudios personales/egocéntricos son conducidos generalmente cuando las identidades o egos se conocen, pero no sus alteri. Estos estudios permiten a los egos aportar información sobre la identidad de sus alteri y no hay la expectativa de que los distintos egos o conjuntos de alteri estén vinculados con cada uno de los otros.

Una red construida a partir de una bola de nieve se refiere a la idea de que los alteri son identificados en una encuesta por un conjunto de Egos iniciales (oleada cero) y estos mismos alteri se convierten en egos en la oleada 1 y nombran a otros alteri adicionales y así sucesivamente hasta que el porcentaje de alteri nuevos empieza a disminuir. Aunque hay varios límites logísticos en la conducción de estudios de bola de nieve, hay desarrollo recientes para examinar redes híbridas, según el cual egos en redes completas pueden nombrar a alteri que de otro modo no estarían identificados, posibilitando que éstos sean visibles para todos los egos de la red. [3] La red híbrida, puede ser valiosa para examinar redes totales/completas sobre las que hay la expectativa de incluir actores importantes más allá de los identificados formalmente. Por ejemplo, los empleados de una compañía a menudo trabajan con consultores externos que son parte de una red que no pueden definir totalmente antes de la recolección de datos.

En el análisis de redes sociales, se distinguen varias tendencias analíticas:[4]

No se parte de la hipótesis de que los grupos son los bloques en la sociedad: el enfoque está abierto a estudiar sistemas sociales menos definidos, desde comunidades no locales, hasta enlaces a través de websites.

En lugar de tratar a los individuos (personas, organizaciones, estados) como unidades discretas de análisis, se centra en cómo la estructura de las relaciones afecta a los individuos y sus relaciones.

En contraste con los análisis que asumen que la socialización de las normas determina el comportamiento, el análisis de redes se utiliza para observar el grado en que la estructura y composición de las relaciones entre los individuos afectan a las normas.

La forma de una red social ayuda a determinar la utilidad de la red para sus individuos. Las redes más pequeñas y más estrictas, pueden ser menos útiles para sus miembros que las redes con una gran cantidad de conexiones sueltas (vínculo débil) con personas fuera de la red principal. Las redes más abiertas, con muchos vínculos y relaciones sociales débiles, tienen más probabilidades de presentar nuevas ideas y oportunidades a sus miembros que las redes cerradas con muchos lazos redundantes. En otras palabras, un grupo de amigos que sólo hacen cosas unos con otros ya comparten los mismos conocimientos y oportunidades. Un grupo de individuos con conexiones a otros mundos sociales es probable que tengan acceso a una gama más amplia de información. Es mejor para el éxito individual tener conexiones con una variedad de redes en lugar de muchas conexiones en una sola red. Del mismo modo, los individuos pueden ejercer influencia o actuar como intermediadores en sus redes sociales, de puente entre dos redes que no están directamente relacionadas (conocido como llenar huecos estructurales).[5]

El poder de análisis de redes sociales estriba en su diferencia de los estudios tradicionales en las Ciencias Sociales, que asumen que los atributos de cada uno de los actores -ya sean amistosos o poco amistosos, inteligentes o tontos, etc- es lo que importa. El análisis de redes sociales produce una visión a la vez alternativa y complementaria, en la cual los atributos de los individuos son menos importantes que sus relaciones y sus vínculos con otros actores dentro de la red. Este enfoque ha resultado ser útil para explicar muchos fenómenos del mundo real, pero deja menos espacio para la acción individual y la capacidad de las personas para influir en su éxito, ya que gran parte se basa en la estructura de su red.

Las redes sociales también se han utilizado para examinar cómo las organizaciones interactúan unas con otras, caracterizando las múltiples conexiones informales que vinculan a los ejecutivos entre si, así como las asociaciones y conexiones entre los empleados de diferentes organizaciones. Por ejemplo, el poder dentro de las organizaciones, a menudo proviene más del grado en que un individuo dentro de una red se encuentra en el centro de muchas relaciones, que de su puesto de trabajo real. Las redes sociales también juegan un papel clave en la contratación, en el éxito comercial y en el desempeño laboral. Las redes son formas en las cuales las empresas recopilan información, desalientan la competencia, y connivencia en la fijación de precios o políticas.[6]

Historia del análisis de redes sociales

Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.[7]

Los precursores de las redes sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con “solidaridad mecánica”- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con “solidaridad orgánica”- que desarrolla cooperación entre individuos diferenciados con roles independientes.

Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos. (Simmel, 1908/1971).

Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, L. Moreno J.L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por Lloyd Warner W. Lloyd Warner y Mayo Elton Mayo exploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.[8] Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.

El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Manchester (acompañando a Max Gluckman y después a Clyde Mitchell J. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de África, India y el Reino Unido. Al mismo tiempo, el antropólogo británico Frederick Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.[9]

Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de White Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de Harvard: Ivan Chase, Bonnie Erickson, Harriet Friedmann, Granovetter Mark Granovetter, Nancy Howell, Joel Levine, Nicholas Mullins, John Padgett, Schwartz (sociologist) Michael Schwartz y Wellman Barry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los “seis grados de separación”.[10] Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.[11]

Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan Freeman, Kathryn Faust, Kimball Romney A. Kimball Romney y White Douglas White; analistas cuantitativos de la Universidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Lin Nan Lin y Rogers Everett Rogers. En los 70s, se ćonstituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet Friedmann, Nancy Leslie Howard, Nancy Howell, Lorne Tepperman y Wellman Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Rapoport Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.[12]

En el mundo Iberoamericano existen la Revista REDES y el web REDES, albergado en REDIRis, creados a partir de la Conferencia Internacional de redes sociales celebrada en Sitges, Barcelona, en 1998.

Investigación

El análisis de redes sociales se ha utilizado en epidemiología para ayudar a entender cómo los patrones de contacto humano favorecen o impiden la propagación de enfermedades como el VIH en una población. La evolución de las redes sociales a veces puede ser simulada por el uso de modelos basados en agentes, proporcionando información sobre la interacción entre las normas de comunicación, propagación de rumores y la estructura social.

El análisis de redes sociales también puede ser una herramienta eficaz para la vigilancia masiva – por ejemplo, el Information Awareness Total Information Awareness realizó una investigación a fondo sobre las estrategias para analizar las redes sociales para determinar si los ciudadanos de EE.UU. eran o no amenazas políticas.

La teoría de Difusión de innovaciones explora las redes sociales y su rol en la influencia de la difusión de nuevas ideas y prácticas. El cambio en los agentes y en la opinion del líder a menudo tienen un papel más importante en el estímulo a la adopción de innovaciones, a pesar de que también intervienen factores inherentes a las innovaciones.

Por su parte, Dunbar Robin Dunbar sugirió que la medída típica en una red egocéntrica está limitado a unos 150 miembros, debido a los posibles límites de la capacidad del canal de la comunicación humana. Esta norma surge de los estudios transculturales de la sociología y especialmente de la antropología sobre la medida máxima de una aldea (en el lenguaje moderno mejor entendido como una ecoaldea). Esto está teorizado en la psicología evolutiva, cuando afirma que el number número puede ser una suerte de límite o promedio de la habilidad humana para reconocer miembros y seguir hechos emocionales con todos los miembros de un grupo. Sin embargo, este puede deberse a la intervención de la economía y la necesidad de seguir a los “polizones“, lo que hace que sea más fácil en grandes grupos sacar ventaja de los beneficios de vivir en una comunidad sin contribuir con esos beneficios.

Granovetter Mark Granovetter encontró en un estudio que un número grande de lazos débiles puede ser importante para la búsqueda de información y la innovación. Los Cliques tienen una tendencia a tener opiniones más homogéneas, así como a compartir muchos rasgos comunes. Esta tendencia homofílica es la razón por la cual los miembros de las camarillas se atraen en primer término. Sin embargo, de forma parecida, cada miembro del clique también sabe más o menos lo que saben los demás. Para encontrar nueva información o ideas, los miembros del clique tendrán que mirar más allá de este a sus otros amigos y conocidos. Esto es lo que Granovetter llamó “la fuerza de los lazos débiles”.

Hay otras aplicaciones del término red social. Por ejemplo, el Guanxi es un concepto central en la sociedad china (y otras culturas de Asia oriental), que puede resumirse como el uso de la influencia personal. El Guanxi puede ser estudiado desde un enfoque de red social.[13]

El fenómeno del Mundo pequeño es la hipótesis sobre que la cadena de conocidos sociales necesaria para conectar a una persona arbitraria con otra persona arbitraria en cualquier parte del mundo, es generalmente corta. El concepto dio lugar a la famosa frase de seis grados de separación a partir de los resultados del “experimento de un mundo pequeño” hecho en 1967 por el psicólogo Stanley Milgram. En el experimento de Milgram, a una muestra de individuos EE.UU. se le pidió que hiciera llegar un mensaje a una persona objetivo en particular, pasándolo a lo largo de una cadena de conocidos. La duración media de las cadenas exitosas resultó ser de unos cinco intermediarios, o seis pasos de separación (la mayoría de las cadenas en este estudio ya no están completas). Los métodos (y la ética también) del experimento de Milgram fueron cuestionados más tarde por un estudioso norteamericano, y algunas otras investigaciones para replicar los hallazgos de Milgram habrían encontrado que los grados de conexión necesarios podrían ser mayores.[14] Investigadores académicos continúan exploranto este fenómeno dado que la tecnología de comunicación basada en Internet ha completado la del teléfono y los sistemas postales disponibles en los tiempos de Milgram. Un reciente experimento electrónico del mundo pequeño en la Universidad de Columbia, arrojó que cerca de cinco a siete grados de separación son suficientes para conectar cualesquiera dos personas a través de e-mail.[15]

Los gráficos de colaboración pueden ser utilizados para ilustrar buenas y malas relaciones entre los seres humanos. Un vínculo positivo entre dos nodos denota una relación positiva (amistad, alianza, citas) y un vínculo negativo entre dos nodos denota una relación negativa (odio, ira). Estos gráficos de redes sociales pueden ser utilizados para predecir la evolución futura de la gráfica. En ellos, existe el concepto de ciclos “equilibrados” y “desequilibrados”. Un ciclo de equilibrio se define como aquél donde el producto de todos los signos son positivos. Los gráficos balanceados representan un grupo de personas con muy poca probabilidad de cambio en sus opiniones sobre las otras personas en el grupo. Los gráficos desequilibrados representan un grupo de individuo que es muy probable que cambie sus opiniones sobre los otros en su grupo. Por ejemplo, en un grupo de 3 personas (A, B y C) donde A y B tienen una relación positiva, B y C tienen una relación positiva, pero C y A tienen una relación negativa, es un ciclo de desequilibrio. Este grupo es muy probable que se transforme en un ciclo equilibrado, tal que la B sólo tiene una buena relación con A, y tanto A como B tienen una relación negativa con C. Al utilizar el concepto de ciclos balanceados y desbalanceados, puede predecirse la evolución de la evolución de un grafo de red social.

Un estudio ha descubierto que la felicidad tiende a correlacionarse en redes sociales. Cuando una persona es feliz, los amigos cercanos tienen una probabilidad un 25 por ciento mayor de ser también felices. Además, las personas en el centro de una red social tienden a ser más feliz en el futuro que aquellos situados en la periferia. En las redes estudiadas se observaron tanto a grupos de personas felices como a grupos de personas infelices, con un alcance de tres grados de separación: se asoció felicidad de una persona con el nivel de felicidad de los amigos de los amigos de sus amigos.[16]

Algunos investigadores han sugerido que las redes sociales humanas pueden tener una base genética.[17] Utilizando una muestra de mellizos del Longitudinal Study of Adolescent Health National Longitudinal Study of Adolescent Health, han encontrado que el in-degree (número de veces que una persona es nombrada como amigo o amiga), la transitividad (la probabilidad de que dos amigos sean amigos de un tercero), y la intermediación y centralidad (el número de lazos en la red que pasan a través de una persona dada) son significativamente hereditarios. Los modelos existentes de formación de redes no pueden dar cuenta de esta variación intrínseca, por lo que los investigadores proponen un modelo alternativo “Atraer y Presentar”, que pueda explicar ese caracter hereditario y muchas otras características de las redes sociales humanas.

Métricas (Medidas) en análisis de redes sociales

Intermediación

La medida en que un nodo se encuentra entre los demás nodos en una red. Esta medida toma en cuenta la conectividad de los vecinos del nodo, dando un mayor valor a los nodos que conectan a grupos. La medida refleja el número de personas que una persona conecta indirectamente a través de sus vínculos directos.[19]

        Conector

Un lazo puede ser llamado conector si su eliminación causa que los puntos que conecta se transformen en componentes distintos de un grafo.

          Centralidad

Esta medida da una idea aproximada del poder social de un nodo basándose en lo bien que se “conecte” éste a la red. “Intermediación”, “Cercanía”, y “Grado” son todas medidas de centralidad.

        Centralización

La diferencia entre el número de enlaces para cada nodo, dividido entre la cantidad máxima posible de diferencias. Una red centralizada tendrá muchos de sus vínculos dispersos alrededor de uno o unos cuantos puntos nodales, mientras que una red descentralizada es aquella en la que hay poca variación entre el número de enlaces de cada nodo posee.

        Cercanía

El grado en que un persona está cerca de todas las demás en una red (directa o indirectamente). Refleja la capacidad de acceder a la información a través de la “red de chismes” de los miembros de la red. Así, la cercanía es la inversa de la suma de las distancias más cortas entre cada individuo y cada una de las otras personas en la red. (Véase también: Proxemics). El camino más corto también es conocido como la “distancia geodésica”.

        Coeficiente de agrupamiento

Una medida de la probabilidad de que dos personas vinculadas a un nodo se asocien a sí mismos. Un coeficiente de agrupación más alto indica un mayor «exclusivismo».

         Cohesión

El grado en que los actores se conectan directamente entre sí por vínculos cohesivos. Los grupos se identifican como ‘cliques’ si cada individuo está vinculado directamente con con cada uno de los otros, ‘círculos sociales’ si hay menos rigor en el contacto directo y este es inmpreciso, o bloques de cohesión estructural si se requiere la precisión.[20]

        Grado

El recuento del número de vínculos con otros actores en la red. Véase también grado (teoría de grafos).

        (Nivel individual) Densidad

El grado de relaciones de un demandado de conocerse unos a otros / proporción de lazos entre las mencione de un individuo. La densidad de la red, o densidad global, es la proporción de vínculos en una red en relación con el total de vínculos posibles (redes escasas versus densas)

         Flujo de centralidad de intermediación

El grado en que un nodo contribuye a la suma del flujo máximo entre todos los pares de noso (excluyendo ese nodo).

        Centradidad de Eigenvector (Autovector)

Una medida de la importancia de un nodo en una red. Asigna puntuaciones relativas a todos los nodos de la red basadas en el principio de que las conexiones a los nodos que tienen una puntuación más alta, contribuyen más a la puntuación del nodo en cuestión

        Que es un Domino?

         Es un nombre y una dirección en el Internet

      Donde Puedo ver los planes de hosting?

       Ud puede ver los distintos planes de alojamiento

 

Anuncios
Esta entrada fue publicada en Uncategorized. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s