Ver las NORMAS de estos Foros Web ZackYFileS Chat ZackYFileS Agregar a Favoritos Contactar con Administrador
 
 

TU PUBLICIDAD AQUÍ!!
Navegación
Retroceder   Foros ZackYFileS >
OTROS TEMAS DE INTERES - INTERNET:
> HARDWARE y SOFTWARE del PC > SOFTWARE del PC - PROGRAMAS y S.O.
Nombre de usuario
Contraseña
Configuración de UsuarioAyuda (FAQs)Nuevos PostsBuscar


Respuesta
 
Herramientas
Antiguo 10/12/2004, 17:49   #1
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
Todo Sobre Internet

-------------------------------------------------------------------------------------------------------

NOTA: ESTA PUBLICACIÓN HA SIDO AMABLEMENTE AUTORIZADA EXPRESAMENTE PARA

ESTE SUBFORO DE ZACKFILES, POR DON A.J. MILLÁN, EL 8 DE DICIEMBRE DE 2004, POR

LO QUE MANIFESTAMOS AQUÍ EL MAYOR AGRADECIMIENTO.

------------------------------------------------------------------------------------------------------
Web original con fotografías:

[url]http://www.zator.com/Internet/[/url]

Indice.
Índice (esta página)
0.0 Búsqueda

1. Prólogo
1.1. Introducción

2. Historia de la Internet

3. Aspectos técnicos de las comunicaciones
3.1 Commutación de paquetes; protocolo TCP/IP
3.2 Direcciones IP
3.3 Calidad y problemas en la transmisión
3.4 Cuando no es problema de la Red
3.5 Servicio de Nombres de Dominio (DNS)
3.6 Direcciones IP dinámicas (enmascaramiento)
3.7 Resumen de protocolos utilizados en Internet

4. Servicios de Internet y otros Conceptos
4.1 Espejos
4.2 Tecnologías Pull/Push
4.3 Servicios de Internet
4.4 Cliente-Servidor
4.5 Otros conceptos (anfitrión; equipo local/remoto)
4.6 Otros elementos (Enrutador; Cortafuegos; Puente)

5. Historia moderna
5.1 Origen de la Web
5.2 Ideas básicas, hipervínculos, hipertexto.
5.3 Desarrollo posterior, el W3C.
5.4 Tendencias actuales

6. Problemas (y peligros) en la Red
6.1 La rana digital
6.2 Control de contenidos
6.3 Privacidad
6.4 Cifrado y firmas digitales
6.5 Certificados digitales
6.6 Identificación personal
6.7 Volatilidad de la información

7. Dispositivos de acceso a Internet
7.1 Proveedor de Servicios de Internet (PSI)
7.2 Medios físicos: Adaptadores
7.3 Medios físicos: Portadores
7.4 Medios lógicos. Software
8. Servicios de Internet
8.1 Correo electrónico (e-mail), apunte histórico
8.1.1 Generalidades del servicio de correo
8.1.2 Configuración. Problema de los formatos
8.1.3 Componentes del mensaje
8.1.4 Envío y recepción de mensajes
8.1.5 Seguridad
8.1.6 Normas de etiqueta
8.1.7 Otros usos del e-mail
8.2 Transferencia de ficheros (FTP)
8.2.1 Clientes FTP Web
8.2.2 Clientes FTP Internet
8.2.3 Tipos de ficheros; la propiedad; técnicas auxiliares
8.3 Listas de correo (Mail lists) y otros servicios
8.4 Grupos de noticias (News groups)
8.5 MUDs
8.6 ICQ
8.7 Telnet
8.8 Foros de debate IRC (Chat)

9. Buscar en Internet
9.1 Apunte histórico
10. Multimedia en la Web
11. Seguridad y Comercio electrónico
12. Metadatos
12.1 Problema de los formatos: Concepto de SGML
12.2 HTML, Introducción, concepto
12.3 HTML como gestor de información
12.4 Concepto de DHTML
11. Evolución futura

Apéndices
A: Direcciones IP generalidades
A-1: Subdireccionamiento
A-2: Traducción de direcciones (NAT)
A-3: Redes privadas
B: Parámetro TTL de TCP
C: Packet Internet Groper (PING)
D: Trazador de rutas (Tracert)
E: Servidores de nombres de dominio (DNS)
F: Comentarios de primera mano
G: Unified Resource Locator (URL)
H: El proyecto Xanadú
I: Libertad y privacidad en el primer mundo
J: Introducción a la telefonía convencional
K: Lógica Binaria

Notas
1: El ordenador electrónico digital
2: ENIAC
3: ENIGMA
4: Los orígenes de Internet
5: “Como internet vino a mí” (Vinton Cerf)
6: Registro de nombres de dominio (InterNIC ICANN)
7: Nombres de dominio de primer nivel (TLDs)
8: Códigos de dominio por países
9: TDN´s USA
10: ASCI White
11: Números de puertos
12: Cookies
13: Finger
14: RSA y distributed.net
15: El mayor (por ahora)
16: MIME
17 RSA el estado de la cuestión
18 “Spam”; el correo-basura
19 Gopher
20 El “cerebro electrónico” y el humano

Diccionario
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Publicidad: Conoce las ofertas de ANUNCIATE
Antiguo 10/12/2004, 17:53   #2
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
1. Introducción

§1.1 Convenciones tipográficas
Se han incluido numerosas notas a pié de página, señaladas mediante índices con números arábigos [n], que aclaran y comentan aspectos del texto.
Se han incluido también notas y comentarios en páginas aparte (que corresponderían a los apéndices en un libro tradicional), señaladas en este caso mediante un icono ( Nota x). Como en el caso de las notas a pié de página, completan y aclaran algunos aspectos del texto, aunque en estos casos se trata de comentarios más extensos que pueden leerse como entidades con sentido propio. Su nivel es a veces superior al de la simple iniciación, por lo que el alumno novel puede prescindir de su lectura si le resulta dificultosa.
Cuando a lo largo del texto hacemos referencia a otro epígrafe del mismo, se utiliza un indicador como ( A2.3) para señalarlo. En todos los casos, aprovechando las nuevas posibilidades, utilizaremos enlaces de hipertexto para facilitar la "navegación".

§1.2 Justificación y declaración de intenciones
"Estando en la sesión inaugural me vino a la cabeza lo que decía Danny Hillys: la humanidad de hoy se se mueve a tal velocidad de desarrollo que es incapaz de ver nada, salvo aquello que ya esta aquí, o en el mejor de los casos, lo que se le viene encima en un par de años, debido a la velocidad general". Adolfo Plasencia. Comentarios en Iblnews a la "I Conferencia Internacional sobre software libre" celebrada el 18-02-2004 en Málaga (España).

El desarrollo de la informática ha seguido un crecimiento exponencial desde sus comienzos. Si nos referimos a la Informática en general, como "Ciencia de la teoría y manejo de la información", no podamos establecer para ella una "fecha fundacional", tampoco es necesario remontarnos a la máquina analítica de Pascal para la somera visión sinóptica que aquí pretendemos, sin embargo, la Informática concebida como tratamiento de la información basada en la utilización de ordenadores electrónicos digitales ( Nota1), mucho más reciente, tiene fechas más precisas; podríamos establecer un hito, por ejemplo, el año 1946 cuando hace su presentación en sociedad el famoso ENIAC ( Nota2).
No ha existido nunca una ciencia o rama del saber humano que haya experimentado un desarrollo tan vertiginoso. Ya en 1.965 se citaba que a partir de 1.956, el desarrollo en la construcción de ordenadores había sido tan rápido que cada nuevo modelo quedaba anticuado casi de salida[2]. Para dar una idea de magnitudes, una comparación: Si la Medicina, hubiese tenido un desarrollo comparable, actualmente seríamos casi inmortales. Piense que prácticamente desde entonces se vienen cumpliendo con regularidad la denominada Ley de Moore [3], según la cual cada 18 meses se dobla la densidad de los circuitos de los equipos (y por tanto su rendimiento), ¿Podríamos suponer lo que significaría un aumento paralelo en la esperanza de vida?.
Con ser impresionante el desarrollo de la informática en su conjunto, un aspecto de ella, las tecnologías y aplicaciones derivadas de la tele-computación (informática distribuida, de Red, como dicen los especialistas), está alcanzando proporciones de auténtica explosión, ni Alvin Toffler [4] hubiese podido concebir una velocidad de cambio semejante, podemos hablar ya del fenómeno Internet. La "Web", será cada día más importante y determinante en nuestras vidas, pronto será un medio de comunicación social más importante que el telégrafo en el IXX o el teléfono en el XX; el paradigma del Siglo XXI. Estamos teniendo el dudoso privilegio de presenciar el nacimiento de una revolución que cambiará el curso de la historia y de la humanidad [5].
Como consecuencia de ello, antes que ninguno, el ámbito profesional se está viendo arrastrado por el *****val del cambio, que exigirá, está exigiendo ya, a grandes sectores de profesionales una adecuación y asimilación a marchas forzadas de tecnologías, hábitos, modos de hacer, vocabulario y paradigmas que nos permitan, cuando menos, mantenernos a flote. Sin un conocimiento suficiente de esta nueva cultura, los que sean descabalgados (modernos analfabetos funcionales), tendrán una situación análoga a la que, podemos suponer, tendrían los habitantes de la Roma Imperial que no supiesen Latín. En un mundo altamente tecnificado, la incultura (técnica) puede ser de gravísimas consecuencias [19].
Hace poco leíamos en una revista especializada que se corre el riesgo de ver surgir en el planeta una nueva raza de marginados: "Los náufragos de la red" o "nacidos sin información", y que en Estados Unidos, los usuarios de ordenadores, además de disfrutar de ventajas culturales y de ocio, tienen unos salarios 10% mas elevados que los "analfabetos informáticos" [6].
Además y por desgracia, de momento, en lo que respecta al Software, en opinión de todos los expertos, parece cumplirse escrupulosamente la Ley de Murphy [7], de forma que (seguramente para compensar la antes enunciada Ley de Moore), su complejidad aumenta a una velocidad aproximadamente el doble de lo que lo hace la potencia de los procesadores. Esto, unido a la aplicación de la denominada Ley del Aeroplano [8], hace que el manejo del Software sea cada vez más complicado.
Además de estas razones de supervivencia, las modernas tecnologías ofrecen unas posibilidades y características que podemos calificar de apasionantes (llegan a crear adicción), el futuro próximo se presenta como intelectualmente muy estimulante, por lo que existen razones sobradas para que estemos "al loro" respecto al tema.
"... Internet ha sido para mí (en lo personal), poner al mundo en el living de mi casa. Y todo esto, me pasó a mi en 40 años, no quiero, no puedo, ni debo imaginar que pasará en los próximos 5 años, pero sí algo te digo: Lo voy a disfrutar".
De: Luis Dantaz [email]ludantaz@adinet.com.uy[/email] Enviado: martes 15 de octubre de 1996 14:16 Para: [email]grumetes@listserv.rediris.es[/email]

El propósito de estos apuntes es servir de apoyo a un cursillo de introducción a Internet y más específicamente a la cultura de la "Web". Que ayude a graduados y profesionales, no informáticos, a adquirir los rudimentos mínimos de la "cultura" a que antes aludíamos. También podría servir como excusa para una introducción (que pretendemos sea amable) a este mundo de la informática para aquellos que hasta ahora le han estado dando vueltas y rodeos, argumentando que no les gusta, que le tienen fobia a las máquinas, etc., etc. ) Miedo a lo desconocido?.
Los profesionales del mañana seguramente no tendrán estas carencias, la juventud que ahora se "engancha" al "Chat" [9] los viernes noche en los "Web-cafés" o en su casa, habrán asimilado el día de mañana esta cultura con la misma naturalidad que nosotros usamos el automóvil [10], pero existe actualmente una generación de profesionales en activo, algunos de los cuales usaron la regla de cálculo en las escuelas técnicas, a los que si les vendrá bien un cierto reciclaje, al menos para que se sientan ciudadanos actuales, del mundo que les ha tocado vivir y no como extraños y anacrónicos especímenes prehistóricos; profesionales en suma, a los que, como mínimo, les interesa aumentar el vocabulario en común con sus hijos.
De la misma forma que no hace falta ser especialista en nutrición o crítico gastronómico para comerse un huevo frito con patatas, también puede concebirse el uso de la herramienta, sin tener absolutamente ninguna formación sobre el tema (aparte de la estrictamente formal; que botones hay que apretar para cada cosa), sin embargo, para el uso de herramientas muy tecnificadas, la situación puede compararse con la de un conductor que no supiera distinguir entre gasolina super, sin plomo o normal, gasoil o gasóleo; que tampoco supiera que las ruedas están llenas de aire ni que significa un círculo con un octógono rojo con la palabra "Stop" en un poste junto a la carretera. En estos casos, cuanto mayor sea el conocimiento del usuario respecto del instrumento y su entorno, mejor será su situación, su comodidad y su rendimiento. Recuerde que a fin de cuentas, en informática siempre se cumple la Ley de Greer: "Un programa de ordenador hace lo que Usted le ordena que haga, no lo que Usted quiere que haga" :-)
El cursillo tiene un 50% de teoría (pizarra) y un 50% de práctica (ordenador), su propósito no es tanto enseñar a "ratonear", cosa que suponemos hacen ya con mas o menos acierto (en aplicaciones de Internet o en otros programas), ni explicar el manejo de ningún programa determinado (los detalles cambian de un fabricante a otro e incluso de una versión a otra del mismo programa, de forma que incluso los libros monográficos quedan obsoletos rápidamente) sino exponer una perspectiva general que ayude a clarificar ideas y a comprender un poco mejor las herramientas, los conceptos que se esconden detrás de las palabras (de esa jerga de acrónimos ingleses). Se pretende también enseñar algunas de las técnicas y servicios básicos que ofrece Internet, situándolos en un contexto general, enseñando que hacen, como lo hacen, porqué lo hacen, cual es la mejor forma de usarlos, cual es el estado actual de la cuestión y que (creemos) se puede esperar para un futuro cercano.

La forma: Necesariamente concisa, yendo desde lo simple a lo complejo, intentando exponer los conceptos en su orden natural (normalmente es el propio orden histórico, en que aparecieron las cosas), huyendo de tecnicismos, procurando introducir brevemente cada nueva palabra o sigla la primera vez que se utilice en el texto, y desde luego, tratando de mantener ese difícil término medio entre dar por supuesto que el lector es necesariamente un experto y ese otro de suponerle definitivamente tonto.
La lengua "materna" de la informática es el inglés, así que utilizaremos directamente los nombres originales dejando para otros encontrar la traducción al castellano. Además, lo más probable es que el lector se encuentre una y otra vez estas palabras en el idioma original; a veces, las traducciones son tan desafortunadas que incluso al muy versado le cuesta identificar a que se están refiriendo realmente [11]. Por otra parte el lenguaje informático está plagado de acrónimos que rápidamente toman carta de naturaleza, pero que solo tienen sentido si conocemos, al menos, su original en inglés; si a lo largo del texto le parecen demasiados no se preocupe, incluso los profesionales Yanquis necesitan un diccionario de abreviaturas para saber de que se habla (debe ser que a los Anglo-parlantes les encanta fabricar nuevas palabras por "acronización" (se dice así?).
Por ejemplo: La prensa especializada, incluso las revistas de divulgación, los grupos de noticias de Internet, etc. están plagados estos días [12] de referencias al Síndrome, Fenómeno, Suceso, etc. Y2K, al que todo el mundo se refiere como si todos tuviéramos la obligación de saber que: "Y"=Year, 2=2 y "K"=1000, es decir, el famoso fenómeno del año 2.000.
Nota: Se refiere al problema que se presenta en determinados sistemas de archivo y programas antiguos, que son incapaces de interpretar correctamente fechas del siglo XXI. La razón básica proviene de tiempos en que los sistemas de almacenamiento eran escasos y caros. A muchos informáticos se les ocurrió que se podía ahorrar espacio si se guardaban los años de formato 19XX guardando solo las dos últimas cifras y dando por supuesto que se referían al siglo 20 (sumándole 1900 para obtener la verdadera fecha), así, un valor guardado como 45 se refería a 1.945.
Esto puede parecer baladí hoy, cuando cualquier estudiante puede tener un PC con discos de GigaBytes de capacidad, pero en la época, cuando (supongamos un banco) se tenían que almacenar millones de transacciones con millones de fechas y un almacenamiento de 5 "Megas" costaba el equivalente a una vivienda actual, el ahorro no era despreciable [13]. Naturalmente el problema empieza cuando uno de estos programas calcula el vencimiento de un pagaré e interpreta, por ejemplo, vencimiento = 12-05-1903, en vez de 12-05-2003 que sería su fecha correcta.

En la medida de lo posible se ha intentado poner la expresión completa junto a cada acrónimo la primera vez que se usa en el texto. Así mismo, para los que tengan curiosidad o quieran profundizar en algún tema, se han incluido referencias bibliográficas (webográficas?), que casi siempre tienen la forma de "Direcciones" de Internet URL [14], donde se puede obtener información adicional (faltaría mas, estamos en la era de la Red).
Tratándose de un trabajo de divulgación, la exposición es necesariamente superficial (que no está reñida con la veracidad y el rigor). Por desgracia, al ser una disciplina en la que se cumple la "Ley de Moore", aunque los conceptos no cambian, el detalle puede quedar "obsoleto" en poco tiempo (esta palabreja se usa mucho en informática por razones evidentes), por eso, al utilizar frases tales como: "Actualmente.....", es mejor poner: "Actualmente (Nov-2000)...".
Para los recelosos de la informática, una aclaración (de ánimo): Las herramientas matemáticas que se utilizan en la informática de consumo, no pasan generalmente de la suma, multiplicación y división (en este sentido los ordenadores son muy torpes y hacen la multiplicación sumando muchas veces). Los conceptos filosóficos los puede entender la portera de mi casa (con todos los respetos al dignísimo gremio de las porteras), los conceptos eléctricos se reducen a interruptor encendido o apagado, así con casi todo, de forma que toda esa palabrería iniciática esconde conceptos que pueden expresarse en un lenguaje que entienda un Graduado Escolar, otra cosa es que el enseñante sepa expresarlo con claridad o no. En este sentido puede utilizar la siguiente regla: Si usted no entiende la explicación, probablemente se ha saltado algo o el que lo enseña tampoco lo ha entendido. ¿Recuerda la última vez que fue al hospital porque le había entrado una mota en el ojo y el médico después de una inspección se puso serio y le dijo que tenía una oftalgia?.
Aunque las aplicaciones de Internet corren en diversas plataformas hardware [15]: PCs, Apple, Sun, IBM, etc. y bajo diversos Sistemas Operativos [16], la abrumadora mayoría de PCs y dentro de estos de Windows 95/98/2000 como Sistema Operativo, hace que nos refiramos casi exclusivamente a esta plataforma en los ejemplos y explicaciones concretas, sobre todo en las referencias de programas (aunque las bases, los conceptos generales, son evidentemente independientes de la plataforma). En concreto, salvo indicación expresa en contrario, las referencias al Navegador [17] y al programa de correo electrónico, se refieren a MS [18] Internet Explorer y a MS Outlook Express respectivamente.

[2] Hollingdaly y Tootil "Computadores Electrónicos". Alianza Editorial Madrid.
[3] Debida a Gordon Moore, fundador de la Compañía Intel, que en un 1.965 afirmó que cada 2 años se duplicaría la densidad de los circuitos integrados. Aunque la ley puede tomarse en un sentido amplio, de aumento de la potencia general de los ordenadores, de acuerdo con todos los analistas, la "Ley" sigue cumpliéndose desde entonces.
[4] Alvin Toffler. "El 'shock' del Futuro". Plaza&Janes.
[5] Ritchie, David. "El Cerebro Binario", Ed. Planeta Barcelona.
[6] Nosotros añadiríamos solo la apostilla de que esta diferencia puede ser precisamente "Per ende" y no justamente por el hecho de utilizarlos (que sería la otra posible interpretación).
[7] "La Ley de Murphy" de Arthur Bloch; Hizo universalmente célebre a su autor por haber descubierto en este libro, entre otros muchos "principios", porqué "Las tostadas caen siempre con el lado de la mantequilla hacia la alfombra". El libro ha sido traducido a casi todas las lenguas del mundo. En castellano puede encontrarse en la colección El Papagayo, de Ediciones Temas de Hoy S.A. Madrid.
[8] Conocida Ley de aviación según la cual lo que no existe no se estropea, También suele usarse en sentido inverso.
[9] "Charla" Uno de los servicios que ofrece Internet. Básicamente consiste en que varios interlocutores de una ciber-charla, situados en ordenadores distantes entre si, comparten una "pizarra" común en la que todos ven los mensajes que escribe cada uno de los demás participantes de este foro a distancia. Junto con cada mensaje o comentario, aparece un indicativo de su autor (remitente), generalmente un seudónimo "Nic" (de Nickname). Con el paso del tiempo las posibilidades se han ido sofisticando y actualmente, aunque con una calidad muy deficiente (todavía), es ya posible incluir video y audio (verse y oírse) . Este servicio se tratará con mas detalle en el capítulo oportuno.
[10] Según un reciente estudio de la consultora Student Monitor, en el segundo semestre de 1.997, un 95 por ciento de los estudiantes norteamericanos, incluidos los universitarios, utilizó los servicios de Internet y solo el 13 por ciento lo hizo por diversión.
[11] Como botón de muestra (el último que hemos visto) en el propio Instituto Cervantes hemos encontrado MMM "Malla Máxima Mundial" por WWW "World Wide Web" (dándole la vuelta a las letras), o "Malla Máxima" por "Web".
[12] El comentario se refiere a Julio de 1998 cuando fueron redactados los originales de estos apuntes.
[13] Todavía en 1.982, en la obra "Digital Circuit and Microprocessors", de Herbert Taub, Ed. Mc-Graw Hill, podemos leer: ".. los controles de los discos que hemos descrito son máquinas sofisticadas construidas para pequeñas tolerancias y muy caras (Una unidad de 100 mega-palabras puede tener el precio de dos automóviles)".
[14] URL Unified Resource Locator, nombre con el que, en la jerga de la Web, se conoce la "Dirección electrónica" de un recurso dentro de la propia Red. Este concepto se explicará con detalle mas adelante, en el Apéndice G.( Ap. G)
[15] "Hardware", parte física de los ordenadores (el "cacharro"), en contraposición con "Software" la parte lógica o programática (los programas), el "logical" que dicen los cursis.
[16] Sistema Operativo: El Hardware sin programas es como un ser humano en coma profundo, El sistema Operativo SO viene a ser como el soplo de vida que hace funcionar al ordenador. Es en realidad un conjunto (sistema) de programas que se encargan de gobernar su funcionamiento y sirven de soporte a otra capa de Software (a otros programas), los que se denominan "Programas de aplicación". Estos son los que hacen tareas ya directamente útiles para el usuario; en esta segunda categoría se incluyen, por ejemplo un Procesador de textos, un programa de Contabilidad, un Navegador para la Web, etc.
El Sistema Operativo es el encargado de manejar los dispositivos de hardware a nivel íntimo. Funciona también como un director de orquesta que coordina todos los recursos del ordenador sin que haya conflictos entre ellos y de forma que el rendimiento sea óptimo. Por ejemplo: Cuando Usted, directamente con el Explorador o su programa de contabilidad, necesita acceder a un dato dentro de un fichero que está en una unidad de disco, el programa traslada la petición al SO, que se encarga de poner las órdenes adecuadas en los canales adecuados para que el dispositivo de disco sepa que tiene que buscar y donde, recibe la respuesta y la pone a disposición del peticionario en forma inteligible para este. Si el SO no sabe que su ordenador tiene un disco (porque no se ha "instalado"), aunque lo tenga físicamente, para todos los efectos es como si no existiera. Por eso, antes que instalar cualquier programa de aplicación en el ordenador hay que instalar el Sistema Operativo (los programas de aplicación usan constantemente de los recursos del "Sistema"). De hecho, un mismo hardware con dos SO distintos, adquiere dos "personalidades" totalmente distintas. Por ejemplo, en un PC (IBM compatible) puede instalarse el SO Windows 95 o el UNIX. El resultado es como si fuesen máquinas totalmente distintas. A la inversa, un SO UNIX cargado en dos hardwares diferentes, por ejemplo en un PC y en una estación ALFA Digital, parecerían al usuario como prácticamente iguales (salvando algunas distancias naturalmente).
[17] También llamado "Browser" es el programa que permite "viajar" por la Web, es decir, ver el contenido de los "sitios" (páginas Web) que hay en Internet. Realmente es un programa de comunicaciones muy sofisticado, cada poco sale una nueva versión que hace más y mejores "monerías".
[18] MS (también M$), MicroSoft, empresa omnipresente y todopoderosa en el mundo de la informática actual.
[19] El párrafo original redactado en 1998 es ciertamente profético. Años más tarde, los conocimientos sobre "ofimática" parecen ser imprescindibles para casi cualquier trabajo mínimamente cualificado. En Abril de 2002 la situación de los "analfabetos funcionales" parecen endurecerse; a título de ejemplo, en la nota adjunta incluimos el texto íntegro de una noticia publicada en un boletín relacionado con las modernas tecnologías
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 17:55   #3
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
2.1 Un poco de historia (I)

§1 Los comienzos
Los ordenadores nacieron grandes, desgarbados, delicados, caros, difíciles de manejar y poco eficientes. De hecho, el propio ENIAC ( Nota2), al que hemos hecho referencia, era un buén ejemplo; pesaba cerca de 30 toneladas y ocupaba el espacio equivalente a una sala de baile; su operación requería la nada despreciable cantidad de 174.000 W de potencia [0].


ENIAC en 1946
Su costo era astronómico para la época, de forma que solo algunas instituciones, en este caso la universidad de Pensilvania con ayuda del Departamento de Defensa, podían permitirse tales "juguetes". A pesar de ello, pronto le siguieron otros, si bién parece ser que el EDVAC ("Electronic Discrete Variable Automatic Computer"), al que se hace referencia en un famoso artículo de Von Neumann [2] aparecido en 1945: "First draft of a Report on EDVAC", solo existió como una propuesta de diseño, nunca realmente. Sin embrago, el Ferranti Mark I basado en un diseño de F.C. Williams y T. Kilburn de la Universidad de Manchester fué el primer ordenador de uso general que se puso a la venta.
El EDSAC ("Electronic Delay Storage Automatic Calculator"), desarrollado por Maurice Wilkes de Cambridge, fué operativo por primera vez en Junio de 1.949, siendo el inspirador del primer ordenador específicamente construido para aplicaciones de "gestión", el LEO ("Lons Electronic Office").
Por parte americana siguieron el Whirlwind I y el IBM 701. En 1.952 se construyeron dos ordenadores idénticos en la Universidad de Illinois; uno de ellos, el ORDVAC ("Ordinance Variable Automatic Computer"), fue destinado al Laboratorio de Investigaciones Balísticas de Aberdeen, un campo de pruebas del ejército; el otro, ILLIAC, fue retenido en la propia universidad. En 1.949 Eckert y Mauchly, los creadores de ENIAC, ponen en funcionamiento otra criatura: BINAC ("Binary Automatic Calculator"). SEAC, MANIAC, GENIAC, BRANIAC, UNIVAC fueron otros tantos nombres, como puede verse, toda una constelación de incipientes ACs (Automatic Calculator). En 1951 ya aparecieron los primeros ordenadores comercialmente accesibles (a las empresas que pudieran costeárselos [3]).

§2 Una nueva profesión
Los nuevos ingenios se instalaban en edificios y locales con aire filtrado y acondicionado (especialmente los discos eran muy sensibles a los cambios de temperatura), atendidos por personal específico (durante muchos años el ordenador era el que disponía de mejor, a veces único, sistema de aire acondicionado en empresas e instituciones), de esta época viene la imagen de los operadores de ordenador en sus salas acristaladas (las "casas de cristal") provistos de batas blancas como sacerdotes de una nueva religión.
El coste de explotación era muy alto, por lo que su uso era muy restringido y selectivo (algo así como hoy día puede ser la utilización de un radiotelescopio astronómico), los usuarios no tenían por lo general acceso directo al ordenador. Los trabajos y programas se preparaban off-line [4], generalmente en formas de fichas y bandas perforadas que eran entregadas al personal de operación, el cual se encargaba de cargarlo en el ordenador y devolver los resultados, generalmente en forma de listados. Podemos hacernos una idea de la situación considerando que el Honeywell 516 de la Universidad de Utah (uno de los 4 equipos que formaron la primera Internet), tenía 12 KB. de memoria de acceso aleatorio RAM ("Random Access Memory").
Naturalmente había que hacer trabajar al ordenador el mayor tiempo posible (además eran bastante lentos), por lo que los trabajos esperaban en cola ("queue") para ser procesados ("Batch processing" [5] ). Esta técnica de proceso, de "Colas Batch", se sigue utilizando ampliamente en los grandes centros de cálculo con los super ordenadores cuya operación hay que optimizar, las tareas y los datos se cargan y aguardan en cola hasta que el ordenador puede ir "digiriendo" cada trabajo (lote) y devolviendo los resultados.

§3 Primeras conexiones
El contacto físico de los usuarios con los ordenadores era bastante escaso, por lo que empezaron a arbitrarse soluciones para acercarlos (siguiera parcialmente), empezó así el embrión de lo que sería el teleproceso y las Redes, al empezar a utilizar algunos dispositivos físicamente alejados de los ordenadores de los que dependían, enlazados mediante lineas de muy diverso tipo.
Uno de tales proto-servicios fue la impresión en remoto, donde el ordenador enviaba los resultados a equipos de impresión en las oficinas y despachos de los usuarios. Pronto apareció un antecesor de TELNET ( 8.7), un servicio que permitía ya el acceso a los ordenadores mediante terminales remotos. Cuando el parque de Computadoras en Universidades y centros de investigación fue creciendo, se hizo evidente la necesidad de enviar datos (ficheros) directamente de una computadora a otra, con lo que nació FT ("File Transfer"), un sistema para que una computadora entendiera lo que enviaba otra, salvando las posibles diferencias particulares (modelo, lenguaje, formato interno de los ficheros, etc). A estas alturas, no existía Internet tal como hoy lo concebimos, solo unas redes interconectando algunos ordenadores. Además, los ordenadores que formaban estas redes eran un mundo super restringido que se limitaba como queda dicho a unas cuantas universidades y centros de investigación del Gobierno USA.

§4 Primeras redes
Diciembre de 1957 marca otro hito importante en el desarrollo de la informática (en especial de Internet), cuando en plena Guerra Fría, en respuesta al primer satélite soviético, el Departamento de Defensa (DoD) funda la ya mítica ARPA [6], Agencia de Proyectos Avanzados de Investigación (Advanced Research Proyects Agency), para devolver a los EEUU la superioridad en el área de las aplicaciones militares de la informática. Esta agencia sería el promotor y mecenas de muchos proyectos científicos (no solo informáticos) de gran trascendencia [7], entre otros el lanzamiento del primer satélite artificial USA.
Durante los años 60 y 70 se crearon muchas tecnologías de redes, cada una basada en un diseño específico de hardware. Algunas de estas redes, llamadas de aérea local LAN (Local Aérea Network), conectan equipos en distancias cortas (normalmente dentro del propio Campus de la Universidad), mediante cables y hardware específico instalado en cada equipo. Otras redes más grandes, llamadas de aérea extensa, WAN (Wide Aérea Network), conectaban equipos a distancias mayores utilizando lineas de transmisión similares a las empleadas en los sistemas telefónicos.
A pesar de que las LAN y WAN hicieron que compartir información entre organizaciones fuera mucho más sencillo, la información no podía ser transferida mas allá de los límites de cada red. Cada tecnología de red tranmitía la información de modo diferente, supeditada al diseño del propio hardware. Una determinada tecnología LAN solo podía funcionar en ciertos equipos y la mayoría de las tecnologías LAN y WAN o eran incompatibles entre sí, o la comunicación entre ellas era súmamente complicada.
Con objeto de mejorar las capacidades de transmisión de las líneas telefónicas se ideó la multiplexación, esta nueva tecnología no es ni más ni menos que meter dos o más mensajes distintos (podían ser incluso a destinos distintos) por una misma linea telefónica. Para esto, los mensajes originales se fraccionan en trozos cortos y el tiempo de transmisión se divide igualmente en trozos, asignándose sucesivamente un intervalo de tiempo a cada trozo de un mensaje distinto. Un proceso inverso (desmultiplexación) es capaz de reconstruir en la llegada los mensajes a partir de los trozos de cada uno que van llegando sucesiva y alternativamente [8].
En 1959 en plena guerra fría, los soviéticos lanzan con éxito su primer satélite artificial Sputnik, lo que induce a Norteamérica a redoblar sus esfuerzos científicos y técnicos por conseguir la supremacía tecnológico-militar.
En 1960 el Departamento de Defensa ya poseía una red de computadoras uniendo sus centros estratégicos y de investigación (message-communication network, AUTODIN), aunque tenía conocidas deficiencias. En esta época, en la mitad de la Guerra Fría [9], el DoD se planteó si en caso de que un hipotético ataque nuclear quedara dañara la red de ordenadores, ¿Cómo seguiría comunicando el ejército americano con sus centros de misiles para una réplica?.
Nota: Esta versión, que ha circulado durante algún tiemo, es la versión "romántica"; aparentemente la realidad no fue exactamente así, pero desde luego la guerra fría influyó grandemente en todos los desarrollos relacionados con la defensa, e Internet fué en su origen un proyecto ligado al DoD.
En la nota adjunta ( Nota4), incluimos algunas opiniones autorizadas al respecto; en la Nota-5 ( Nota5), un interesantísimo artículo del propio Vinton Cerf ( [1] A1.1a), en el que explica todas estas cuestiones (en ambas notas se ha respetado el original Inglés).

La solución a este problema vino de la mano de la RAND Corporation (otra agencia de investigación gubernamental que tuvo un papel destacado en la obtención de la primera bomba atómica), fué una ampliación del concepto multiplexación antes aludido y recibió el nombre de Conmutación de Paquetes ("Packet-switching" [10] ). La base de la idea consiste en que la información a transmitir se fracciona en trozos; a continuación se construye un datagrama o paquete con cada trozo; además del fragmento de información a transmitir, se añaden etiquetas con información del origen del que partió, y del destino al que debe llegar [11], así como otros datos que permiten verificar que el paquete ha llegado íntegro, sin errores de transmisión y de los diversos pasos que ha realizado de ordenador en ordenador hasta que alcanza su meta. El camino que tiene que tomar para alcanzar su destino es indiferente. No importa la ruta, dos paquetes con el mismo origen y destino pueden llegar por caminos distintos. Gracias a este método, mientras exista algún camino para alcanzar una computadora, esta permanece comunicada con todos los demás sistemas de la red (esta técnica de comunicación se sigue empleando actualmente en Internet).
Naturalmente que el sistema exige que los elementos de la red sean lo suficientemente inteligentes para actuar con cada paquete según esa información. Esta "inteligencia" se proporcionó con lo que se denominaba IMP (Interface Message Processors). Una importante característica de diseño es que se contempla la posibilidad de que se "pierdan" algunos paquetes (lleguen mal como consecuencia de fallos y ruido en la transmisión), por lo que el sistema debe poder solicitar el "reenvío" de los trozos perdidos. Además, puesto que según estas premisas y en pura teoría el camino no importaba, los paquetes no deberían llegar necesariamente en el orden correcto, por lo que el receptor debería disponer de un Software suficientemente hábil como para reconstruir en destino el todo original a partir de los trozos desordenados [12].

En 1967 el DoD consideraba las posibilidades del sistema, la agencia ARPA estudia las posibilidades del IMP y empieza a cristalizar la idea de una red que concrete estas elucubraciones teóricas, a las que por esta época comienzan a referirse como "ARPA Contractor Machine-to-Machine Transmission" (lo que luego sería ARPANet).
Pa dar respuesta concreta a estas cuestiones y planteamientos teóricos, en 1969 la Agencia ARPA crea ARPANet ("Advanced Research Proyect Agendy Network"), una red experimental de computadoras, basada en la tecnología de conmutación de paquetes. ARPANet era un proyecto para interconectar los diversos tipos de redes y permitir el libre intercambio de información entre los usuarios, independientemente de las máquinas o redes que utilizaran. Para ello, se agregaron unos equipos especiales, llamados enrutadores o encaminadores, que conectaban redes LAN y WAN de diferentes tipos. Los equipos interconectados necesitaban un protocolo común. El nuevo protocolo de red propuesto por ARPA se denominó NCP [13] y el sistema de esta red de redes interconectadas dio en llamarse Internet (de ahí su nombre).
La primera instalación real de una red de este tipo, se realizó dentro del edificio del Laboratorio Nacional de Física de Inglaterra en 1968, pronto se construirían modelos mucho mayores. Muy poco después el Pentágono deseaba construir en USA una red basada en los mismos principios, la tecnología de conmutación de paquetes se convierte rápidamente en la base del programa de redes de datos del Departamento de Defensa y se decide construir una primera red uniendo cuatro ordenadores de alta velocidad (de entonces).
Una compañía de Cambridge ganó el concurso para construir los conmutadores de paquetes IMP que utilizaría la red. En el mes de septiembre llega a la universidad de UCLA el primer IMP (posteriormente esta universidad se convertía en el corazón de la comunidad Internet). Pocas semanas después llegaron IMPs a las universidades de Stanford (Stanford Research Institute, SRI), Santa Bárbara de California (UCSB) y la universidad de Utah en Salt Lake City. Cuando estos equipos estuvieron configurados, se conectaron a lineas telefónicas, y ARPANET empezó a funcionar con estos cuatro nodos en 1969.
Siguiente: Un poco de Historia (II)

[0] La crónica de los intentos de construir autómatas y máquinas de cálculo (entre los que hay precursores ingleses y españoles muy notorios) se remonta muy atrás, aunque esta parte de la historia está fuera del objeto de estas páginas.
[1] Winton Cerf es considerado el padre de la Internet.
[2] John Louis Von Neumann, nacido 28-12-1903 en Budapest, Hungría; fallecido en Washington D.C. el 8-II-1957. Brillante matemático que sintetizó y promovió un concepto súmamente fecundo en el campo de la computacón: La idéa de un programa que gobierna el funcionamiento de una máquina, almacenado en la propia máquina. Lo que se ha dado en llamar "Arquitectura von Neumann". [url]http://ei.cs.vt.edu/~history/VonNeumann.html[/url]
[3] Mark I fue el primer ordenador comercial, se vendieron ocho unidades. Los clientes eran tipos como la Oficina del Censo de los EEUU y sitios semejantes.
[4] Fuera de linea, en contraposición a "On-line", en linea, dos formas de actuar sobre el ordenador, cuando no se tiene una interacción directa e instantánea sobre este o cuando si se dispone de ella respectivamente.
[5] Traducido directamente, "Batch Processing" es Proceso por Lotes.
[6] También conocida como DARPA (Defense Advanced Research Proyects Agency)
[7] Para tener una cabal comprensión del estado actual de la cuestión, no hay que olvidar que el origen de todo esto es iniciativa militar y en USA, las secuelas, aunque muy mitigadas se dejan sentir aún hoy.
[8] Esta técnica se utiliza no solo con los "paquetes" de información de Internet, sino incluso con nuestras propias conversaciones habladas. Se basan en que los equipos que transmiten nuestras conversaciones habladas pueden transmitir un ancho de banda (cantidad de información) muchísimo mayor del que requiere una comunicación de voz, por lo que "meten" trozos de otras conversaciones en el mismo canal. A su llegada los trozos de cada conversación (paquetes) son separados y enviados al interlocutor correspondiente.
[9] Así pues, Internet nace bajo la amenaza del holocausto nuclear, justamente la época de los Beatles y de los Hippies (el poder de las flores).
[10] La idea fue expuesta por primera vez en Julio de 1961 por Leonard Kleinrock del MIT en su "Information Flow in Large Communication Nets". Inicialmente el sistema se denominaba simplemente de "Comunicaciones distribuidas", posteriormente, el británico Donald Davies, del grupo de trabajo de redes del NPL en Scantleburry, Inglaterra, acuñó el término "Packet switching" (Octubre 1967). "The development of packet switching for ARPAnet/Internet. The latter was developed independently, primarily by Larry Roberts and Len Kleinrock. They later learned of Paur Baran's concurrent theoretical studies".
Nota: A la Red se le atribuyen muchas fechas de "cumpleaños", esta de 1961 es una de ellas.
[11] Este paradigma primigenio, un-origen / un-destino, se conoce con el nombre de transmisión "Unicast", frente a otro concepto mas moderno (al que nos referiremos mas tarde), basado en la idea un-origen / múltiples-destinos, denominada "Multicast".
[12] Como veremos mas adelante, son estas características singulares del diseño inicial las que imprimen su caracter especial a las comunicaciones Internet, tanto en pro como en contra; por una parte se consigue de una utilización muy eficiente de la capacidad de transporte de las redes (del ancho de banda) por contra, se trata de un sistema muy poco adecuado para las comunicaciones en tiempo real, por ejemplo telefonía de voz.
[13] NCP "Network Control Protocol". ARPANET empezó usando este protocolo, propuesto por BBN, que ya utilizaba técnicas de conmutación, si bien fue rápidamente reemplazado por el denominado TCP/IP: "Transmission Control Protocol/Internetwork Protocol". El 1 de Enero de 1983 se abandona definitivamente el protocolo NCP, utilizándose exclusivamente TCP/IP que ya había sido aceptado como sustituto oficial del primitivo NCP. Volveremos sobre esto inmediatamente.

2.1 Un poco de historia (II)

Esta primera red (ARPANET) permitía a los investigadores trabajar conjuntamente en los super ordenadores de la época. Ofrecía básicamente tres servicios: Acceso a computadoras mediante terminal remoto (telnet), transferencia de ficheros FTP [14], e impresión en remoto. Curiosamente el correo electrónico no se había implantado todavía, fue un servicio que se consideró poco importante (pasa casi un año desde la aparición de ARPANET hasta que se envía el primer e-mail [15]), la velocidad de esta primera red era de 56 Kbps [16].
ARPANET siguió creciendo. En 1971 ya constaba de quince nodos [17], en 1972 ya eran 37 los miembros de esta red. Formar parte del club era por aquel entonces muy caro, una conexión costaba un cuarto de millón de dólares anuales.
Por esta época, 1972, Rovert Kahn hace la primera presentación-demostración pública de ARPANET, conectando 40 máquinas a lo largo y ancho del país con la TIP ("Terminal Interface Processor") en el vestíbulo del hotel Hilton en Washintong DC. ARPA cambia su nombre por DARPA ("Defense Advanced Research Projects Agency").
Se crea el INWG ("International Network Working Group"), entidad encargada de investigar protocolos comunes para la red. Vinton Cerf es elegido presidente a los 29 años; mas tarde será considerado el padre de Internet [17a]. Ray Tomlinson, de BBN [18], crea el primer programa de e-mail.

En 1973 el crecimiento de la red se estimaba en un nuevo miembro cada veinte días y ARPANET se internacionaliza con la inclusión del University College de Londres [19] y el Radar Real de Noruega. Se empieza a hablar de una red de ámbito global. Por otra parte, el continuo incremento de tráfico militar en la red hizo que en Julio de 1975 la DCA ("Defense Communications Agency") tomara el control sobre ARPANET.
En 1976 se materializa el proyecto de una red conmutada de paquetes vía satélite, SATNet ("Atlantic packet Satellite network"), que enlaza los EEUU con Europa, aunque sorprendentemente no usa satélites gubernamentales o militares, sino InTelSat ("International Telecommunications Satellite Organization"), una red de satélites de comunicaciones civiles.
Es en esta década de los 70 cuando comienzan a publicarse los primeros artículos, libros y conferencias apuntando la conveniencia de enfocar el desarrollo de esta incipiente red de ordenadores como un servicio público, sacándoloa de su nicho exclusivo (el gobierno y los grandes centros de investigación y enseñanza).
En 1979 Steve Bellovin (un graduado de la universidad de Carolina del Norte), Tom Truscott y Jim Ellis crean USENET, una red descentralizada de noticias (ver Capítulo 3).
1981 Comienzan a funcionar (separadamente) CSNET y BITNET
1982 ARPANET instala oficialmente el protocolo TCP/IP como el oficial de la red, sustituyendo al protocolo original NCP ("Network Control Protocol"), con que había empezado su operación. Comienza a funcionar FidoNet.
1983 En Enero, la DCA exige que adoten el protocolo TCP/IP a todos los sitios que deséen seguir conectados a ARPANET; el proceso, que suponía el abandono definitivo de NCP, el primitivo protocolo de ARPANET, necesitó de varios meses hasta la total adaptación. Es también en esta fecha (Octubre de 1983), cuando la primitiva red ARPANET se divide en MILNET, de uso preferentemente militar y la nueva ARPANET, de uso científico [20], por esta razón, es considerada por algunos como la fecha del verdadero nacimiento de Internet. Sin embargo, ARPANET e Internet nunca fueron la misma cosa, arpanet fué siempre una sola red, INTERNET fué siempre una red de redes, de la cuál ARPANET fué solo una de ellas.
En esta fecha, la Red alcanza 235 ordenadores y el término Internet va desplazando progresivamente al anterior. Comienza a funcionar EUNet ("European Unix Network").
1983: La red alcanza unos 500 ordenadores, concretamente en Agosto había registrados 563.
1984: William Gibson acuña el término "Ciberespacio" en su obra Neuromancer [21]. Se introduce oficialmente el sistema DNS [22].
1985: La Red cuenta con 1.000 ordenadores. Comienza a funcionar JUNet ("Japan Unix Network") y se estandariza el subdireccionamiento ("subnetting") con la especificación RFC 950 que permite interconectar pequeñas redes (LAN) con redes de ámbito mayor (WAN). En esta época comienza a popularizarse el PC ("Personal Computer").
1986: La Red cuenta con 2.000 ordenadores en Febrero y con 5.000 en Noviembre. Esta fecha es importante porque la NSF ("National Science Foundation") quiere acercar la potencia de los grandes computadores a los usuarios [23] mas modestos, para lo que decide crear cinco centros de super computación a lo largo del país e interconectarlos. En principio se proyecta utilizar ARPANET, pero su burocracia y a la escasez de soporte la hacen desistir, de forma que construyen su propia red utilizando el mismo protocolo IP de ARPANET. Los cinco centros quedan unidos (1.5 Mbps) en la denominada NSFnet, pero no pueden unir todas las Universidades con la nueva red, sencillamente porque no tienen suficientes recursos económicos para tender las conexiones (cables) con cada universidad. Para resolver el problema se decide que las escuelas y universidades de una misma región se unan entre sí, y esta red se une a su vez con uno de los super ordenadores. Como consecuencia el tráfico de la red crece continuamente y pronto los ordenadores y la lineas resultan lentos para digerir la ingente cantidad de datos. Desde entonces la red de la NSF se constituye en el corazón de Internet.
En esta fecha se crea IETF (Internet Engineering Task Force) [url]http://www.ietf.org[/url], un forum para coordinación técnica entre los contratistas de DARPA, que trabajaban en el ARPANET; DDN (US "Defense Data Network") y el denominado Internet core gateway system.
Nota: Posteriormente la IETF pasó a depender de la Sociedad Internet ("Internet Society"), fundada en 1992 con asistencia del Federal Networking Council, transformándose en una organización de voluntarios organizada en diversos grupos de trabajo, cuya misión es centralizar, estandarizar y difundir información sobre Internet.
1987: La Red alcanza 20.000 ordenadores.
Robert Morris.


§5 El primer virus de red
1988 es otro hito histórico (infausto), el 2 de Noviembre aparece el primer "Virus" informático. El gran público conoce la existencia de Internet al ser portada de periódicos y telediarios. Robert Morris, estudiante de la universidad de Cornell, conocedor del funcionamiento de la red, desarrolla un "Gusano" [24], un programa que lanzado desde un ordenador, generaba copias de sí mismo y se auto-enviaba a otros ordenadores.
Muchos de los servidores de la red se vieron sobrecargados y tuvieron que ser desconectados para poder eliminar esta nueva especie de cáncer informático (que colapsa unos 6.000 ordenadores, incluyendo equipos del Gobierno federal, la NASA y la Fuerza Aérea). En adelante un equipo de expertos gubernamentales, el CERT ("Computer Emergency Response Team") cuidará de hacer frente a este tipo de problemas, cuyo costo en tiempo perdido y esfuerzos para eliminarlo, se estimaron entre 15 y 100 millones de dólares.
1989: La red alcanza 100.000 ordenadores. En esta fecha ya existía en algunos círculos la clara percepción de que la red se estaba quedando pequeña. La Oficina de Ciencia y Tecnología en la persona de su presidente publica un informe sobre el Programa Federal de Computación de alta capacidad, donde se proponen cuatro areas de investigacón y desarrollo que devolverían? al país una posición preponderante en las tecnologías de computación y de redes. El informe propone que, basándose en NSFnet y en Internet, el gobierno funde una nueva red que pudiera llegar al rango del Gigabite (mas de un billón de bits por segundo); una vez puesta en marcha, la red sería transferida a manos de la iniciativa privada. El plan prevé un desarrollo a cinco años con una inversión total de 2 billones de dólares USA y de 988 el primer año, se considera que el costo total del proyecto equivale al de un bombardero B-2.
1990: El 1 de Junio es la fecha oficial de "defunción" de ARPANET, es desmontada 20 años después de su "nacimiento". De todos modos, los nodos que formaban ARPANET estaban ya conectados también mediante Internet, de forma que su desaparición pasó desapercibida.
Por esta época (1990) Internet era ya una importante red de ordenadores interconectados donde, a veces, empezaba a ser difícil encontrar la información que se andaba buscando [25]. Peter Deutsch de la McGill University de Montreal crea un programa "buscador" denominado Archie, el nombre tiene su origen en el de un personaje de un famoso cómic Norteamericano. Este servicio de búsqueda tuvo mucho éxito y pronto se difundió por la red.
1991: Se funda CIX ("Commercial Internet Exchange Association"). En Enero hay 376.000 ordenadores conectados; en Octubre son ya 617.000. El gobierno USA funda la NREN ("National Research and Educational Network"), según una propuesta liderada por el vicepresidente Al Gore, es entonces cuando se acuña el término "Autopistas de la información".
Este año Tim Berners-Lee concibe una idea original (genial), la noción de Hipervínculo (que transforma un texto normal en hipertexto) y crea la herramienta para manejarlo, el "Navegador", programa que deja en la Red a disposición de quien quisiera utilizarlo.
Hasta aquí, lo que podíamos denominar "Historia Antigua" de la Red, lo que sigue es ya "Historia Moderna". Para entenderla tenemos que asimilar un par de nuevos conceptos que se merecen un punto y aparte; haremos una pequeña escala (técnica) en los capítulos 3 y 4, y volveremos rápidamente con la historia en el capítulo 5.

§6 Webografía
Son muchas las cronologías ("Timelines") que existen en la Web sobre el desarrollo de lnternet (muchas de ellas copiadas unas de otras, incluyendo sus errores). Por citar alguna, recomendaríamos la Cronología de Internet de Hobbes ("Hobbe's Internet timeline") [url]http://www.zakon.org/;[/url] una de las "clásicas" del género.
Los aficcionados al género tienen su propia lista de correo en la que se discuten estas cuestiones: Community Memory: Discussion List on the History of Cyberspace [url]http://memex.org/community-memory.html[/url] (es una lista moderada).

[14] FTP se refiere en realidad al protocolo usado en la transmisión, "File Transfer Protocol", sobre el que hablaremos mas adelante ( 8.2), aunque las siglas han quedado mas bien como sinónimo del concepto "Transmisión de ficheros" y todo lo relacionado con esta forma de transmisión.
[15] e-mail; abreviatura de "Electronic-Mail", Correo Electrónico, uno de los servicios de Internet mas útil y que ha alcanzado mas popularidad.
[16] 56 Kilo bits por segundo, aproximadamente 5.600 caracteres por segundo.
[17] "Nodo" es una forma de referirse a un ordenador conectado a la red. En esta época eran: UCLA, SRI, UCSB, Universidad de Utah, BBN, MIT, RAND, SDC, Harvard, Lincoln Lab, Stanford, UIUC, CWRU, CMU, y NASA (Ames).
[17a] En Octubre de 2002 tuvimos ocasión de verlo en España junto con Lawrence Roberts, Robert Kahn y el padre de la Web, Tim Berners-Lee ( 5.1), con motivo de la concesión del premio Príncipe de Asturias de Investigación Científica, por cosiderárseles cojuntamente como "Padres de Internet". En palabras del propio Príncipe "El medio más inmediato, imaginativo y revolucionario de comunicación y de información de la historia de la humanidad".
[18] BBN: Bolt, Beranek and Newman. Una firma de consultoría y desarrollo, inicialmente financiada por ARPA.
[19] Como vemos, en honor a la verdad, los "Primos de Londres" contribuyeron también, grandemente, al desarrollo de esta incipiente informática.
[20] Algunas fuentes sitúan esta separación en Octubre de dicho año.
[21] Actualmente el término Ciberespacio se usa para describir todos los recursos que pueden encontrarse en Internet.
[22] DNS ("Domain Name Server"), un sistema para identificar los ordenadores de la red por nombres ( A3.5)
[23] Hasta entonces los grandes ordenadores, como los CRAY, estaban en centros de investigación, universitarios o militares, muy concretos.
[24] Gusano ("Worm"): Un programa que se reproduce a si mismo y se auto-propaga. Mientras que los virus son diseñados para causar problemas en equipos individuales y pasan generalmente a través de los diskettes, los gusanos, una especie de "virus de red", son diseñados para transmitirse a través de la red. Fueron definidos por primera vez por Shoch & Hupp de Xerox en ACM Communications (Marzo 1982). El mas famoso (o infame) fue el que aquí se comenta. Actualmente (1999/2000) los mas temidos Virus de Red son los denominados "Macro" (generalmente "Macros" de Word, el famoso procesador de textos).
[25] A medida que crece el volumen de la información contenida en La Red (ya es mastodóntica), que pronto albergará la totalidad del saber humano, las tecnologías y métodos para encontrar la información en este inmenso pajar se hacen más y más importantes.
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 17:57   #4
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
3 Aspectos técnicos de las comunicaciones en Internet

§1 Sinopsis
En este capítulo hacemos una pausa en la historia de Internet, para detenernos en ciertas cuestiones técnicas cuyo conocimiento es imprescindible para entender medianamente el funcionamiento de la Internet y el porqué de algunas de sus características.
En realidad todo este capítulo se dedica a mostrar algunos detalles de como está constituido este gigantesco sistema de mensajería que es Internet.
El epígrafe 3.1 se dedica a exponer los protocolos de comunicación que se utilizan en este tipo de comunicaciones entre ordenadores.
El epígrafe 3.2 trata del sistema de direcciones utilizado; explicamos como es la dirección de cada usuario de la Red y como este sistema permite que cada mensaje llegue a su destino.
En los epígrafes 3.3 y 3.4 exponemos algunos de los problemas de comunicación que se presentan en este tipo de comunicaciones, diferenciando los que son debidos a las propias deficiencias de la Red y los que son debidos a una inadecuada configuración de nuestro propio equipo.
Los epígrafes 3.5 y 3.6 abundan en detalles complementarios acerca del sistema de direcciones de Internet, su estructuración jerárquica y otros detalles técnicos.
3 Aspectos técnicos de las comunicaciones

3.1 Conmutación de Paquetes; protocolos
§3.1.1 Generalidades
Ya hemos visto, que por una serie de razones (estratégicas) la información viaja troceada por la red. De hecho, los trozos o "paquetes" [1], cada uno con su dirección y remitente incluidos, es entregado a este gigantesco servicio de correos que se encarga de hacerlos llegar a su destino, y que el camino seguido por cada uno no es muy significativo. A la tecnología envuelta en el proceso se la denomina de "Conmutación de paquetes"; el hecho de que no haya caminos predefinidos ni lineas específicas para la transmisión es el corazón y la esencia del funcionamiento, de ahí el nombre: Red conmutable de paquetes ("Packet-switched network").
En ocasiones se ha considerado a Internet como un "sistema telefónico para ordenadores", y si bién es cierto que las comunicaciones de Internet se basan muy a menudo en la RTB [2] (la misma que sirve para transportar nuestras conversaciones), existen desde luego diferencias substanciales que conviene enfatizar.
En primer lugar, la RTB es lo que se denomina una red de circuitos conmutables ("Circuit-switched network"). Al establecerse una llamada se establece una conexión directa entre los dos teléfonos que conversan. Una vez que cesa la comunicación, se arreglan las conexiones de otro modo y parte de esos circuitos se utilizan para la comunicación entre otro par de abonados cualquiera. Si en un momento dado no hay un circuito libre para establecer la comunicación aparece la conocida vocecita: "Por saturación en la línea le rogamos vuelva a marcar en cinco minutos...". Como contrapartida, si conseguimos comunicación, la transmisión es virtualmente instantánea, y si en un momento dado permanecemos en silencio, se está desaprovechando la capacidad de transmisión de la línea [3].
Internet por su parte, dispone de un conjunto de ordenadores intermedios denominados enrutadores ("Routers"), que se encargan de enviar los paquetes de una red a otra por la vía que esté disponible en ese momento. Cada paquete puede seguir un camino diferente del siguiente, incluso en el caso de que el paquete tenga el mismo destinatario. No existe por tanto el concepto de un circuito establecido, ni aún durante el tiempo que dura la transmisión; no existe la posibilidad de: "Espere, la línea está ocupada", pero a cambio la transmisión dista mucho de ser instantánea. Si en un momento dado permanecemos inactivos, otros pueden estar enviando paquetes por la misma línea, con lo que la utilización de recursos es más eficiente.
El sistema consiste en que cada vez que un paquete llega a un "router", este mira su dirección de destino y lo reexpide (enruta) por el camino que mejor le parece en ese momento. Los paquetes van dando saltos "hops" por los enrutadores de Internet hasta que finalmente llegan al punto de destino, donde un software especial se encarga de ordenarlos. A título de ejemplo, el cuadro adjunto muestra los saltos que un día cualquiera tuvieron que seguir los paquetes desde un servidor Web en Canadá hasta mi ordenador (Sire) en Granada (España) para que pudiera "ver" una página cualquiera
Hop Dirección IP Nombre del servidor (router)
1 66.46.176.3
2 216.191.97.45 pos5-2.core2-mtl.bb.attcanada.ca
3 216.191.65.217 srp2-0.core1-mtl.bb.attcanada.ca
4 216.191.65.173 pos8-1.core2-tor.bb.attcanada.ca
5 216.191.65.243 srp2-0.gwy1-tor.bb.attcanada.ca
6 207.45.212.45 if-10-0-0.bb3.scarborough.teleglobe.net
7 207.45.220.129 if-5-0.core1.scarborough.teleglobe.net
8 66.110.8.130 if-4-0.bb8.newyork.teleglobe.net
9 207.45.198.90 ix-9-1.bb8.newyork.teleglobe.net
10 195.22.208.23 ge9-1-mil8-milb.mil.seabone.net
11 195.22.196.54 retevision-13-es-mi5.seabone.net
12 62.81.4.67 madr-r16.red.retevision.es
13 62.81.125.5 gran-r15.red.retevision.es
14 62.81.65.197 gran-r8.red.retevision.es
15 62.81.84.14 tejadasb-ic-gran.red.retevision.es
16 62.81.225.89 SIRE

Desde un punto de vista ingenieril, el procedimiento utilizado en Internet tiene sus prós y sus contras, responde a las exigencias originales de su diseño: una gran fiabilidad en las transmisiones, así como una utilización muy eficiente del ancho de banda disponible (capacidad de transmisión de los circuitos), la situación sería comparable con la de un sistema telefónico en el que pudieran hablar muchas personas por la misma linea a cambio de hacerlo lentamente si hay muchas solicitudes. El reverso es la lentitud, a veces exasperante de las comunicaciones en la mayoría del planeta (al menos al día de hoy, 1998); al extremo que alguien la ha denominado "World Wide Wait". Los retrasos que pueden sufrir los paquetes en su llegada hacen a este sistema bastante inepto para las comunicaciones en tiempo real, por ejemplo telefonía de voz.

§3.1.2 Unificando criterios
Desde sus comienzos, en la Red coexisten computadoras de muy diverso tipo, por lo que se hizo necesario un protocolo común y único, de forma que todas pudieran entender e interpretar correctamente la información que circula. Este protocolo se denominó TCP/IP. En realidad son dos acrónimos distintos; TCP son las siglas de "Transmisión Control Protocol", mientras que IP significa "Internetwork Protocol", y ya hemos visto que fueron propuestos originariamente por ARPA (Defensa Americana) como estándar de comunicaciones para intercomunicar las pocas redes existentes en aquellos momentos.
Independientemente de su significado concreto, TCP/IP ha venido a ser casi sinónimo de Internet, a todo lo relacionado con la Red y con este tipo de comunicación basado en la conmutación de paquetes. En la actualidad el concepto TCP/IP engloba toda una filosofía de operación, basada por supuesto en la conmutación de paquetes, pero mas que de dos protocolos, se trata de todo un conjunto ("suite") que constituyen la base del funcionamiento de Internet.
Concretamente, IP es un estándar que subyace en todas las comunicaciones de la red. Incluye todas las especificaciones necesarias para hacer inteligible a cualquier máquina la información contenida en cada datagrama (paquete) transmitido. Entre otras, el tamaño normalizado de las cabeceras, remite, códigos de control de integridad, etc. Uno de sus elementos mas destacados, lo constituye un sistema universal y unificado para establecer las "Direcciones" de los ordenadores de la red. A esto se le denomina Dirección IP ("Internet Protocol Address").
Así pues, en principio IP es el encargado de la transmisión de los datos, que sea posible su tránsito de un ordenador a otro, mientras que TCP [4] es el encargado de juntar los paquetes, pedir los que faltan (en su caso) y finalmente ordenarlos, puesto que, como hemos visto, la Red no garantiza la llegada de todos los paquetes ni tampoco que su llegada sea en orden. En realidad, TCP se encarga de "negociar" con el equipo remoto determinados parámetros que determinan algunos detalles del modo en que se realizará la transmisión (por ejemplo el tamaño de los paquetes). Una comunicación en Internet es siempre un activo diálogo entre máquinas, incluso cuando aparentemente solo estamos "recibiendo" información, por ejemplo al descargar un fichero.
Nota: Los protocolos de transmisión utilizados en redes pueden ser de dos clases: enrutables y no-enrutables. Como hemos señalado, los enrutadores son equipos intermedios que sirven para conectar redes diferentes (las redes pueden cubrir un edificio, un campus o un país). Para ello disponen de unas tablas en RAM [5] que contienen las direcciones (por ejemplo direcciones IP) de los equipos conectados a otras redes ("Gateways"), así como tablas con el estado de otros "routers", con el fin de mejorar el tráfico y evitar las conexiones congestionadas. Los protocolos enrutables como TCP/IP o IPX/SPX ("Internet Packet Exchange/Sequenced Packet Exchange") pueden pasar entre diferentes redes a través de los enrutadores. Por su parte los protocolos no-enrutables que suelen utilizarse en redes pequeñas, como NetBEUI ("NetBIOS Enhanced User Interface") y DCL ("Data Link Control"), no pueden pasar a una red diferente de la propia.

§3.1.3 Descomponer el problema.
Los detalles técnicos de las comunicaciones por Internet son bastante complejos ya que están involucrados numerosos elementos software y hardware. Existe una larga cadena de sucesos y dispositivos entre el momento que señalamos la dirección (URL 5.2) de una página Web en nuestro navegador y el momento en vemos su contenido en pantalla, o entre el momento en que redactamos un mensaje de correo y este puede ser leído por su destinatario. Para mejor atacar el problema, éste conjunto de software (que controla el hardware) se divide física y conceptualmente en una serie de partes o capas, de forma que cada capa interactúa sobre la siguiente. En la parte superior está la capa que interactúa con el usuario humano; son los programas de aplicación como el Navegador Web o el programa de correo. En la capa inferior están los módulos que interactúan con el dispositivo físico (adaptador 7.2) por el que los datos salen y entran en nuestro ordenador (una tarjeta de red o un modem).
La razón de esta disposición en capas es de comodidad e interoperatividad. Lo normal es que distintas personas/empresas sean responsables de escribir el software de las diversas capas. Si la interfaz (modo de comunicación) de una capa con otra está estandarizada, es posible sustituir un dispositivo por otro (por ejemplo un modem RTB por uno ADSL) si necesidad de tener que cambiar todo el sistema. Solo hay que hacer que el módem y el adaptador ADSL se entiendan con las capas inferior y superior, de modo que resulten funcionalmente equivalentes. También es posible que un programador pueda escribir un nuevo navegador con solo preocuparse de la conexión con la capa inmediatamente inferior, desentendiéndose por completo de los detalles del resto de la cadena de transmisión. Este diseño de capas se denomina modelo OSI. En la página H12.2 puede verse un detalle del mismo.
Aunque las capas inferiores utilizan los protocolos TCP e IP antes mencionados, en realidad estos son solo algunos de los utilizados a lo largo de todas las capas. Para satisfacción de los más curiosos, en la sección 3.7 se expone una relación de los principales y la misión que tienen encomendada.

[1] Resulta así, que un paquete, que aquí se denomina marco ("Frame") es el "quantum" mínimo de información que puede transmitirse por la Red. El diseño de cada paquete está estandarizado, no así su contenido útil (la zona de datos). La estructura típica está formada por:
• Cabecera Ethernet de 14 bytes (suponemos aquí que la conexión se realiza sobre una red Ethernet H12.4)
• Cabecera IP de 20 a 60 bytes
• Cabecera TCP de 20 bytes
• Cabecera HTTP terminada en dos secuencias de nueva línea + retorno de carro CR+NL ("Carriage Return" + "New Line").
• Zona de datos de tamaño variable (el tamaño depende de varios factores)
Por dar una idéa de magnitudes podemos señalar que aunque un "Frame" Internet puede alcanzar teóricamente un tamaño de 64 Kbytes, las características de la red por las que debe atravesar son las que determinan su tamaño máximo o MTU ("Maximum Transfer Unit"). Por ejemplo, FDDI ("Fiber Distributed Data Interface"), un estándar para distribuir datos por fibra óptica a una velocidad aproximada de 100 M-bits-por-segundo, 10 veces mas rápido que Ethernet y casi el doble que T-3, permite un MTU de 4352 bytes, mientras que las redes Ethernet imponen una limitación de 1.500 bytes al tamaño de sus paquetes. Como lo normal es que en algún momento de su viaje los paquetes de Internet utilicen redes Ethernet, en la práctica el tamaño típico de los paquetes TCP/IP suele ser de 1500 bytes.
[2] RTB son las siglas de: Red Telefónica Básica, denominada PSTN (Public Switched Telephone Network) en la literatura inglesa; la red telefónica convencional que todos conocemos. Más información al respecto en el Apéndice J ( Ap. J)
[3] En realidad, las comunicaciones telefónicas en los paises desarrollados tienen algo que ver con las comunicaciones de paquetes. La voz solo viaja en forma analógica desde el teléfono del usuario a la central (el denominado bucle de abonado), allí es digitalizada y viaja en forma digital por el sistema telefónico hasta la central del otro usuario donde es vuelta a convertir en señal analógica antes de enviarla al teléfono del otro abonado. El proceso de comunicación entre centrales totalmente digital se basa en el protocolo SS7 (sistema de señalización 7) que permite establecer "circuitos virtuales", el resultado es que aunque los datos (voz) viajen utilizando una tecnología de multiplexación, la apariencia es que ambos interlocutores están enlazados por un circuito conductor exclusivo.
[4] El protocolo TCP fue inicialmente descrito en 1974 por Vinton Cerf ( A2.1a) y Bob Kahn en su artículo "A protocol for Packet Network intercommunications". Está documentado en RFC 793.
[5] RAM ("Random Access Memory") Memoria de acceso aleatorio que constituye la memoria principal o "Interna" del ordenador.
3.2 Direcciones IP.

§1 Sinopsis
Para que la información llegue a cada máquina, es necesario que estas tengan una "dirección" dentro de la red [1]. En el caso de Internet estas direcciones se llaman direcciones IP, y en principio a cada máquina de la Red se le asigna una (los mensajes incluyen las direcciones IP de las máquinas origen y destino).

§2 Métodos de difusión en tecnología de redes
Para entender mejor el sistema de direcciones de Internet, comenzaremos diciendo que en tecnología de redes se emplean dos métodos distintos, bridging y routing [2]. En el sistema bridging, las direcciones no contienen ninguna información sobre donde está la máquina a la que va destinado el paquete. El principio de funcionamiento supone que los paquetes circulan por "toda" la red. Todas las máquinas recibirán todos los paquetes, y solo prestarán atención a los que correspondan a su dirección. Esta técnica de transmitir en la que todos los elementos de la red reciban la información se denomina multi-difusión ("Broadcast") y es evidente que no resulta un sistema muy adecuado para redes medianas, grandes o de mucho tráfico, porque la sobrecarga del sistema se hace rápidamente insostenible. Las redes Ethernet y Token Ring pertenecen a esta primera categoría [3].
El routing por su parte es mas elaborado, se supone que (siguiera parcialmente) las direcciones contienen información sobre "donde" está el ordenador de destino dentro de la red, podríamos decir que se parece al sistema de direcciones del correo ordinario; esto hace posible la existencia de sistemas enrutadores ("Routers") que hacen seguir cada mensaje en la dirección adecuada. Es el sistema utilizado por Internet, ya que el bridging es impracticable para redes muy grandes. Es conveniente tener clara la distinción entre dirección y ruta; en este sistema (routing), la ruta está implícita en la dirección, pero su concreción está contenida en las denominadas tablas de rutas ("Routing tables"). Los sistemas routing suelen tener una estructura de niveles, en cada uno debe haber un equipo que se encargue de las tablas de ruta de ese nivel.

§3 Las direcciones IP
El sistema de direcciones de Internet, que data de los años 70, estableció un sistema jerárquico de direcciones, asignándose un número (dirección) a cada red (no olvidar que Internet es una red de redes) y un número a cada ordenador particular dentro de la red ("Host address"). El sistema estableció que las direcciones estarían contenidas en una etiqueta de 32 bits (4 octetos). Resulta así que cada máquina tiene una única dirección, que en binario tendría un aspecto como:
11001100011110110000001001001011

Para que la entiendan los "terrícolas", suele ser representada en números decimales mediante un conjunto de 4 cantidades separadas por puntos (una por octeto), con un un aspecto tal como por ejemplo: 204.123.2.75. Por esta razón este tipo de notación se conoce como representación decimal punteada ("Dotted decimal notation" 3.5). Por supuesto cada conjunto de cifras está comprendido en el rango entre 0 y 255 (cualquier cantidad fuera de dicho rango no corresponde con una dirección IP real). Las cifras de la izquierda son las mas significativas y van perdiendo peso hacia la derecha (exactamente igual que el sistema tradicional de numeración).
La dirección IP es lo mas parecido al número de teléfono de los ordenadores de la Red, solo que en esta jerga no se habla de "números de teléfono" sino de "direcciones IP". Cuando el navegador, un programa de descarga de ficheros o cualquier otro "llama" a una dirección IP, lo que hace en realidad es conectar (intercambiar paquetes) con el ordenador propietario de tal número (de tal dirección IP) [5]. Una estructura como esta (de 32 bits) ofrece un máximo teórico de 232 = 4.294.967.296 direcciones distintas. En el apendice A ( X.A) se amplía con algún detalle el esquema de direcciones adoptado.

Naturalmente, todo esto necesita una supervisión y control. Originariamente, era la NSF (National Science Foundation), la encargada de gestionar lo relativo a la organización de Internet, después delegó en Network Solutions, una compañía USA; esta colaboración recibió el nombre genérico de InterNIC, por último, a partir de 1998 es ICANN, una organización internacional sin ánimo de lucro. En la nota adjunta ( Nota-6) puede encontrarse una más amplia información respecto al estado actual de la cuestión y sobre el registro de dominios.

§4 Protocolo IPv4
El protocolo IP de 4 bytes usado actualmente (versión 4, IPv4) lleva mas de 20 años funcionando en Internet (es de los años 70, aunque la última revisión es de 1981) pero está alcanzando su límite, los expertos vaticinan que de seguir el ritmo actual de expansión, no podrá aguantar mas allá del 2010, por lo que se están estudiando alternativas, como las definidas en la versión 6 (IPv6, también conocida como IPng) que será su sustituto [6]. Entre los motivos principales que se citan para promover el cambio, está el agotamiento de la capacidad de direcciones nuevas en el sistema actual, también la emergencia de nuevas aplicaciones y modos de utilización de la Web, por ejemplo la computación personal portátil (nómada), las aplicaciones de ocio, la calidad del servicio y la seguridad en las comunicaciones (piense en todo lo relacionado con el comercio electrónico, por ejemplo).

[1] Aquí entendemos por dirección a un indicativo, que puede ser asignado a cada máquina y que es único para cada una de la red, permitiendo así identificarla del resto.
[2] Mantendremos la denominación original en inglés por ser mas extendida y por que las traducciones en español no nos parecen muy ilustrativas.
[3] Tanto Ethernet como Token Ring son tecnologías de Intranets, es decir, redes no muy grandes, de las que existen típicamente en oficinas y edificios de negocios. El problema es especialmente acusado en las redes Ethernet, que comienza a mostrar síntomas de degradación en sus prestaciones cuando se excede aproximadamente el 20% de su capacidad teórica; no puede esperarse que una Ethernet estándar corra a mas de unos 2 Mbps.
[5] Aunque por mantener el símil con el servicio telefónico hemos empleado los términos "llama" y "conecta", en este sentido la comparación no es afortunada, en realidad no hay tal llamada y conexión entre dos nodos de la Red (en el sentido telefónico), se trata mas bien de un intercambio de mensajes que son entregados a un servicio de mensajería (Internet) donde cada uno lleva la dirección de destino y el contenido sin posibilidad de ningún otro tipo de contacto o conexión.
[6] Microsoft: Introduction to IP Version 6
[url]www.microsoft.com/windows2000/techinfo/howitworks/communications/nameadrmgmt/introipv6.asp[/url]
This paper provides a foundation of Internet standards-based IPv6 concepts and is intended for network engineers and support professionals who are already familiar with basic networking concepts and TCP/IP.
3.3 Notas sobre calidad y problemas de transmisión

§1 Sinopsis
Podemos figurarnos que Internet es un conjunto de ordenadores (routers) que se intercambian paquetes de información a lo largo de la vía que esté disponible en un momento determinado. La mayoría de las veces, las conexiones son proporcionadas por la red telefónica básica (RTB), en este sentido la red telefónica mundial es meramente un vehículo para establecer una conexión temporal entre dos routers hasta que finaliza la transmisión.
Una de las característica distintivas del sistema de conmutación de paquetes de Internet es que no puede predecirse con exactitud el camino que recorrerán desde un ordenador a otro y que el camino de ida del ordenador A al B no tiene porqué ser una imagen en el espejo del que recorrerán los paquetes del B al A; de hecho la red se diseñó para que no hubiera que preocuparse del camino realmente seguido por los paquetes (esta es la razón por la que en los esquemas y dibujos Internet es representada generalmente como una nube). A pesar de esto, recientemente se ha desarrollado un protocolo IP avanzado denominado LSRR ("Loose Source Route") que permite especificar determinado nodo (o nodos) que queremos que nuestros paquetes IP atraviesen en su camino hacia su destino. Se utiliza principalmente en el análisis de redes, aunque en la actualidad no todos los enrutadores lo soportan (especialmente en Europa).



§2 Esquema de las conexiones Internet
Así pues, aparte de tener que atravesar los sistemas telefónicos de los diversos países hasta alcanzar su objetivo, la información que recorre la gran telaraña mundial, pasa también por distintos enrutadores que encaminan las llamadas hasta su destino, empezando por el de nuestro PSI Proveedor de Servicios de Internet [1]. Con frecuencia, desde que sale de nuestro PC, por la línea telefónica convencional, hasta que llega al de otro usuario, quizás también en su hogar o a un anónimo servidor Web [2] (pensemos en una empresa o departamento en una institución o universidad en el otro extremo del planeta), debe pasar por sucesivos vericuetos y dispositivos; pueden ser lentas conexiones serie, backbones de alta velocidad, conexiones vía satélite, etc. hasta alcanzar su destino. Esto hace que la calidad de la transmisión se degrade en cuanto a velocidad y en cuanto a pérdida de información, debido al ruido de la líneas que no son siempre de óptima calidad en todas partes [3].
Prescindiendo de los medios físicos para transmitir la señal, la información da una sucesión de saltos ("Hops") de un ordenador a otro hasta alcanzar su destino. Los diseñadores del protocolo TCP lo proyectaron de forma que un paquete no pudiera estar dando tumbos indefinidamente por la red, sino que al cabo de un número máximo de saltos fuera descartado. Esta información está contenida en un campo en la cabecera que viaja en cada paquete, lo que se denomina TTL ("Time To Live"); Windows establece en principio un valor de 32, aunque con el crecimiento desmesurado de Internet a veces, este valor puede quedar un poco corto (más detalles sobre el parámetro TTL en el apéndice B Ap.B).
Incluso a la velocidad de la luz, a 300.000 Km/s, la señal tarda un cierto tiempo en recorrer el camino; aparte de este retardo mínimo, la señal debe recorrer y ser procesada por un sinnúmero de dispositivos digitales (empezando por el propio modem [4] de nuestro ordenador que no es precisamente instantáneo), debe compartir líneas telefónicas que muchas veces están saturadas, en las que la multiplexación hace que a nuestros paquetes les toque de tarde en tarde; el ordenador de nuestro proveedor quizás también ande lento en responder debido a que no está bien dimensionado para la cantidad de clientes que quieren servicio en ese momento o quizás, por motivos económicos, no ha contratado con la Compañía Telefónica ("Carrier") las conexiones de capacidad y velocidad adecuadas, etc.
Como consecuencia de todo esto, a veces notamos que "La red está lenta". En ocasiones se producen grandes retrasos entre la llegada de dos paquetes sucesivos, lo que se denomina latencia ("Net lag") o temblor ("Jitter"), que depende de las condiciones de trafico de la red, pero que puede llegar a ser de 1.5 segundos. La tasa de perdida de paquetes [5] oscila entre el 15 y el 40% (aunque nosotros no seamos conscientes porque TCP se encarga de volver a pedirlos, solo notamos que se alarga el tiempo de espera). En ocasiones el retardo se hace más largo, la red parece "muerta" algunos segundos, puede que uno de los enrutadores o el propio servidor de destino se haya colapsado momentáneamente.
Todo ello hace que en las condiciones actuales (1998) la red no sea instrumento muy adecuado para trasmisiones del tipo audio o video en "tiempo real" [6], que requieren envío masivo y casi instantáneo de la información, por lo que, además de la nueva Internet [7], se están proponiendo protocolos mejorados (RSVP y RTP).
Aunque es de suponer que, en lo que respecta a estas dificultades, el tiempo corre a nuestro favor (la velocidad y calidad de las transmisiones deben mejorar con el tiempo), en la actualidad, hay veces que la navegación, la descarga de ficheros, etc. resultan frustrantes. La situación es mas o menos comparable a la de aquellos pioneros del automovilismo que recorrían con sus locos cacharros aquellas polvorientas carreteras pinchando en cada recodo...
A este respecto, es muy importante tener en cuenta el conocido aforismo: "La resistencia de una cadena es la del eslabón más débil". En nuestro caso, la velocidad de una conexión concreta de Internet entre dos puntos en un momento dado, es la del eslabón mas lento, solo que en este símil, la velocidad de algunos eslabones varía con el tiempo, a lo largo del día. Por ejemplo, nuestro ISP puede estar congestionado a una horas y "descansado" a otras de menor tráfico, un servidor de una Universidad puede estar sobrecargado cuando todo el personal está en los despachos y puede estar desahogado en cuanto termina la jornada laboral en sus centros. Para complicar mas las cosas, la percepción global de la velocidad de transmisión que podemos tener en un momento dado es la suma de la velocidad con que ha llegado un conjunto de paquetes que, en teoría, podrían haber seguido caminos distintos.

§3 Comprobar el estado de la Red
Existen multitud de recursos (programas) para verificar tanto la calidad como la longitud (camino que recorre) una conexión cualquiera de Internet. Si nos referiremos al Sistema Operativo Windows de MS, existen dos herramientas específicas a tal efecto: Ping y Tracert.

§3.1 Ping
Ping es un programa que se puede ejecutar directamente desde la ventana MS-DOS de Windows; se basa en una serie de protocolos Internet conocidos como ICMP ("Internet Control Message Protocol"). Es la forma más fácil de verificar la rapidez de respuesta de una conexión Internet. El funcionamiento es muy sencillo: El programa envía una señal de 32 bits a un servidor y mide el tiempo que tarda en llegar la respuesta -si es que hay alguna- (más sobre Ping en el apéndice C Ap.C).
En el caso del programa Ping de Windows 95, realiza 4 intentos consecutivos (una sola medición no se considera representativa) y muestra el resultado de todos ellos en milisegundos. La forma de utilizarlo es muy sencilla; desde la ventana MS-DOS se teclea [9]:
Ping
Por ejemplo:
Ping 204.123.2.75
El programa contesta:
Pinging 204.123.2.75 with 32 bites of data:
Reply from 204.123.2.75: bytes=32 time 374ms ttl=47
Reply from 204.123.2.75: bytes=32 time 461ms ttl=47
Request timed out.
Reply from 204.123.2.75: bytes=32 time 418ms ttl=47

La dirección IP del servidor interrogado puede escribirse directamente en forma numérica decimal o bien en formato DN ("Domain Name") [10], por lo que el resultado habría sido el mismo si en vez de:
Ping 204.123.2.75
Se hubiera puesto:
Ping altavista.digital.com

En el estado del asunto en 1.998 (España), cualquier tiempo menor de 300 ms. es normal, mientras que por encima de 400 ms. se considera una respuesta lenta. Como hemos señalado, la distancia también influye en el tiempo de respuesta, lo que puede suponer que tiempos de respuesta de 400 ms. no signifiquen necesariamente que el servidor vaya lento, sobre todo, porque también influyen los obstáculos, encaminadores (routers) que haya en el camino que puedan ralentizar la transmisión.
El resultado "Request timed out" significa que, en ese momento, el servidor está fuera de servicio, muy saturado (no contestó dentro del tiempo máximo establecido), está programado para no responder pings, o no está bien configurado.

§3.2 Tracert
Tracert es una utilidad Windows que permite inspeccionar la ruta de la llamada desde nuestro ordenador al destino final. Para ejecutarlo, desde la ventana del DOS, marcar (como en el caso del Ping) cualquiera de las dos formas siguientes:
Tracert 204.123.2.75
Tracert altavista.digital.com

En ambos casos, el programa contesta con un detalle de los saltos ("Hops") que sufre la transmisión a lo largo de su ruta (hasta un máximo de 30), por tanto muy útil para comprobar en que zona se producen retrasos. La respuesta puede tener el siguiente aspecto:
Tracing route to altavista.digital.com [204.74.103.37]

over a maximum of 30 hops:

1 195 ms 180 ms 179 ms 172.16.1.21
2 171 ms 178 ms 183 ms 172.16.100.4
3 * * * Request timed out.
4 1532 ms 210 ms 235 ms 10.53.252.4
5 229 ms 222 ms 240 ms 194.179.16.193
6 376 ms 308 ms 272 ms 194.179.3.129
7 237 ms 219 ms 205 ms 194.69.226.5
8 237 ms 267 ms 216 ms 194.69.227.33
9 693 ms 435 ms 488 ms borderx2?hssi3?0.PompanoBeach.mci.net [204.70.92.121]
10 * * 582 ms core1?fddi?1.PompanoBeach.mci.net [204.70.92.33]
11 593 ms * 329 ms core1?hssi?2.Atlanta.mci.net [204.70.1.133]
12 418 ms 368 ms 415 ms core3.WestOrange.mci.net [204.70.4.1]
13 456 ms * 388 ms sprint?nap.WestOrange.mci.net [204.70.1.210]
14 452 ms 415 ms 422 ms f2.peer1.nyc1.genuity.net [192.157.69.49]
15 449 ms 422 ms 433 ms f11?0.core1.sjc1.genuity.net [207.240.24.177]
16 443 ms 409 ms 441 ms fe?11?0.border1.sjc1.genuity.net [207.240.1.147]
17 437 ms 486 ms 439 ms altavista.digital.com [204.74.103.37]

Trace complete.

Como puede verse, el resultado incluye una relación numerada de los saltos sucesivos que realizan los paquetes hasta su objetivo, junto con el nombre de la máquina y su dirección IP, y los tiempos utilizados. Para cada nodo se dan tres valores de tiempo, en milisegundos, ya que por defecto se envían tres paquetes sucesivos a fin de obtener resultados más significativos. Más sobre Tracert en el apéndice D ( Ap. D).

§3.3 Otras herramientas
Existen otros programas para controlar la calidad de la llamada y la ruta; algunos son incluso capaces de representar gráficamente, sobre un mapamundi, el itinerario de los saltos. Existen también servicios (de pago) en Internet que ofrecen una especie de versión cibernética del estado del "tiempo" en los diversos puntos de la red, dando estadísticas y mapas de todo tipo, incluso de la intensidad del tráfico en cada momento en cada zona.
Muchos de estos programas son shareware [11] y pueden descargarse, "bajarse" desde la misma Web. Entre ellos tenemos:
Net Medic [url]http://www.vitalsigns.com[/url]
Este programa es capaz de monitorizar prácticamente todos los aspectos de una conexión a Internet. e incluso tomar medidas correctoras en algunos casos.

Visual Route [url]http://www.visualroute.com[/url]
Análogo a Tracert, pero mostrando de una forma gráfica el camino que siguen los datos en un mapa.

MIDS [url]http://www2.mids.org/weather[/url]
Matrix Information and Directory Service MIDS. Este servicio cuenta con robots que monitorizan constantemente una gran cantidad de servidores en todo el mundo, confeccionando estadísticas que son trasladadas a mapas (que recuerdan a los mapas meteorológicos tomados por satélite) en los que puede seguirse la densidad de tráfico en la Red, bien desde un punto de vista global o por zonas. Aunque el servicio es de pago, es un sitio interesante de visitar porque incluye algunos ejemplos de demostración del servicio para el visitante. En cualquier caso es un buen ejemplo de los imaginativos negocios que florecen a la sombra del fenómeno Web.

Internet Weather [url]http://www.internetweather.com[/url]
Es un servicio de la compañía Clear Ink (Walnut Creek, California), del que se pueden obtener extractos del estado de las conexiones (y posibles problemas) de los servidores primarios de los ISP más importantes de USA, información que es actualizada constantemente de forma automática. Entre otra información incluye: Nombre del proveedor, dirección IP (numérica) del servidor primario, % de paquetes perdidos desde estas conexiones, así como los valores mínimo, medio y máximo (en milisegundos) que tardan en mandarse y ser recibidos de vuelta una serie de 45 paquetes (lo que da idea de la velocidad de los servidores y del estado de las conexiones).

Dios Proveerá [url]http://www.areas.net/dp/[/url]
Se trata de la versión española de un servicio como el anterior (si no de la misma calidad técnica, si más cuidado), Entre muchas secciones, incluye comentarios y comparativas de calidad de servicio de los principales (si no todos) ISP españoles. Las comparativas no solo incluyen datos recopilados de forma automática con "motores" de verificación y chequeo, también encuestas de opiniones de los usuarios a las que se da gran importancia. Entre los datos que ofrece para cada ISP incluye: Puntuación de los usuarios, precio del servicio, velocidad y calificación global. Toda la información se da a título gratuito.

DU Meter [url]http://www.dumeter.com[/url]
El programa puede abrir una ventana que monitoriza en tiempo real la velocidad de la conexión (de Internet) que tengamos establecida. Incluso permite establecer una alarma que nos avise si la velocidad de transmisión baja de un valor determinado de antemano, así como darnos el valor medio de la velocidad al final de una conexión.

[1] Denominados abreviadamente ISP ("Internet Service Provider"); nos referimos mas extensamente a ellos en ( 7.1).
[2] En [1.g] se amplía este concepto.
[3] Una conexión cualquiera de nuestra casa al otro extremo del mundo (o a la ciudad vecina), puede recorrer caminos que incluyan desde redes troncales "Backbones" OC-12 capaces de transportar 622 millones de bits por segundo, a la línea de un modesto modem a 14.400 bits por segundo. En el apéndice D ( Ap.D) se ha documentado un ejemplo detallado del camino seguido por los paquetes en un caso concreto.
[4] MODEM: Acrónimo de Modulador-Demodulador. Es un dispositivo cuya misión básica es servir de conexión (puente) entre nuestro ordenador y la red telefónica convencional. Se comenta con mas detalle en el apartado 2.b
[5] La pérdida de paquetes, que en teoría no debería producirse, es responsable de una parte del retraso ocasional de las conexiones de Internet. El porcentaje de paquetes que se pierden en una conexión se denomina "Chew" en la jerga de la Red.
[6] Tiempo Real es una expresión muy comúnmente usada en informática para representar la respuesta o actuación de un sistema cuando está ocurriendo el suceso, en el mismo momento que se necesita dicha respuesta. Un símil comparativo en el mundo de la TV sería la transmisión en "Directo" versus "Diferido".
[7] Denominada Internet II, engloba una serie de iniciativas que ayuden a desarrollar la Internet del próximo milenio*. Nos referimos a ella en el capítulo 11 (* esta nota data de 1998).
[9] Tanto en este caso como en el siguiente (Tracert) se requiere que en el momento de la ejecución estemos conectados a Internet (a nuestro PSI) lo cual, en Windows 95/98 puede hacerse desde: Mi PC Þ Acceso telefónico a Redes.
[10] Explicaremos este concepto mas adelante al tratar del DNS ("Domain Name Service"). De momento nos basta saber que DN es una dirección IP traducida "al cristiano", para que la entiendan mejor los terrícolas. Direcciones del tipo 204.123.2.75 están muy bien para los ordenadores pero "digital.altavista.com" es mucho mejor para un humano.
[11] Un método de venta de programas bajo el lema: "Probar antes de pagar". Puesto de moda en Internet especialmente. En esta modalidad de venta, los programas pueden ser probados un cierto tiempo, generalmente de una semana a un mes, antes de decidir su compra . Por otra parte, los programas se descargan "Bajan" (en el argot de la Web) directamente desde el "Sitio" del autor hasta nuestro ordenador.
No confundir esta modalidad con Freeware, que son programas de dominio público, aquellos que su autor pone en la Web a libre disposición de quienes quieran utilizarlo. Mas información sobre estas cuestiones en el Artículo 4.
3.4 Cuando no es problema de la Red

§1 Sinopsis
Mejorar la calidad de la conexión a Internet no solo es problema del estado de las conexiones telefónicas involucradas y de la rapidez de los ordenadores y "routers" en el camino; algunos parámetros dependen del propio ordenador y los dispositivos instalados, sobre todo de la configuración del Sistema Operativo. Para empezar, la propia conexión al exterior de nuestro equipo (el cordón umbilical que le une al universo exterior), debe estar correctamente instalado y configurado. La conexión suele ser de tres clases, aunque son posibles algunas mas [1]:

• Mediante tarjeta de red: Es el caso típico de empresas e instituciones que disponen de una intranet. Los equipos están conectados a dicha red y existe uno, o varios, conectados a Internet (LAN gateways) son las "puertas" de conexión de la intranet al exterior (Internet), puede que incluso esta pasarela sea lo que se denomina un servidor Proxi [2]. En este caso, es poco lo que podemos hacer al respecto, pues todos los aspectos de la conexión están bajo la tutela del administrador de la red. En estos casos consultar y comentar con dicha persona las incidencias y problemas para ver si están dentro de lo que se puede esperar o puede tomar alguna medida al respecto.
• Mediante conexión telefónica RDSI [3]: Si estamos conectados mediante este servicio, no tenemos propiamente un módem (no hay nada que modular, la transmisión es directamente digital) sino un dispositivo "adaptador", que nos habrá colocado el proveedor del servicio (la compañía Telefónica). Probablemente nuestra accesibilidad sea muy alta (en lo que respecta a la transmisión puramente telefónica). Los retrasos serán seguramente achacables a la propia idiosincrasia de Internet y las medidas posibles entran dentro de intentar lo que a continuación definimos como una "sintonía fina" de algunos parámetros de nuestro Sistema Operativo.
• Módem (tradicional): Esta será casi con seguridad nuestra circunstancia si estamos en nuestro hogar conectados mediante la línea RTB (Red telefónica Básica). En este caso es necesario que nuestro módem esté bien configurado para que responda a la máxima velocidad de lo que en teoría sea capaz [4].
• Módem de cable: Esta será probablemente la opción del futuro, una conexión de fibra óptica o coaxial por el que recibiremos todos los servicios, Transmisión de datos (Internet), Televisión, teléfono, radio, etc. Por el momento solo es accesible en determinadas zonas que disponen de este tipo de cableado (originariamente pensado para televisión por cable).
• Otros: Existen otras posibilidades de conexión mas avanzadas, pero solo son accesibles a grandes empresas y requieren equipos de conexión muy específicos y costosos, por lo que nos limitaremos a citarlas de pasada: ADSL (línea digital disimétrica de subscriptor) y conexiones T1, de alta velocidad pero muy cara de instalar y mantener [6].

§2 Ajustes
Ya hemos señalado que, en cada conexión, el protocolo TCP "negocia" algunos aspectos de la transmisión con el ordenador interlocutor. Algunos aspectos de esta negociación dependen de ciertos parámetros contenidos en unos ficheros de registro (System.dat y User.dat), el valor óptimo para estos parámetros no tiene regla fija, pues depende grandemente de las circunstancias de cada momento, estado y tipo de las conexiones con nuestro servidor, características de este, etc., de forma que encontrar el valor óptimo requeriría muchas pruebas, procediendo por tanteo. Windows tiene preestablecidos unos valores estándar, por defecto (que en el caso de Windows 95 no eran los mas adecuados para una conexión por módem). La opción sería modificar el contenido de los parámetros en los ficheros anteriores, cosa totalmente desaconsejable a no ser que sea un verdadero experto, sin embargo, existen varios programas que pueden realizar estas modificaciones de forma automática con más o menos acierto. Entre estos podemos citar:
TweakDUN


Este programa (shareware), puede modificar manual y automáticamente el valor de ciertos registros internos de Windows en orden a optimizar el rendimiento de las conexiones con Internet, especialmente a través de módem.
MTUSpeed.
Análogo al anterior; sintoniza los parámetros del sistema en orden a optimiza el rendimiento de las conexiones con Internet (Shareware).
Speed-O-meter
Este programa de Freeturtles.com no solo permite optimizar los parámetros de conexión si se está conectado a través de módem, también monitorizar las velocidades de entrada y salida de nuestra conexión IP, tanto en valores instantáneos como en tanto por ciento sobre el máximo teórico. Tiene la ventaja de ser freeware, el autor solo nos pide que le enviemos un e-mail si lo consideramos de utilidad.
Descarga [5]: Speed-O-meter Ver. 3.0 netspeed.zip 916 KB.

Nota: Los ajustes anteriores se refiere a una "sintonía fina" del sistema para funcionar de la mejor forma en Internet, y evidentemente no son estrictamente necesarios para el usuario normal que ocasionalmente navega o baja su correo.

[1] Ver: Byte 45 p.144 "Acceso rápido y barato a la red", donde se da un repaso comparativo a las diversas alternativas para el caso de una pequeña empresa con unos pocos ordenadores.
[2] Un ordenador especial que se conecta como puerta de acceso de una Intranet a Internet. Aparte de realizar esta conexión (Gateway) hacia/desde Internet, suelen realizar dos funciones adicionales: Por un lado, acelerar la comunicación porque, a veces, guarda los contenidos externos accedidos mas frecuentemente, de forma que es capaz de devolver las llamadas interiores a estos contenidos de forma instantánea; de otro, realizar funciones de seguridad y protección de la Intranet frente a posibles ataques desde el exterior.
[3] RDSI (Red Digital de Servicios Integrados). Un servicio telefónico en el que la conexión no está pensada para transmitir sonidos (como la tradicional), sino contenidos digitales (aunque utilizando los hilos de cobre convencionales). Mas información en el apartado 2.b.
[4] El programa NetMedic ( A3.3) mencionado en capítulos anteriores, hace un análisis bastante completo del comportamiento del módem y en caso necesario, puede incluso de tomar medidas correctoras (en lo que se refiere a los parámetros de Windows para módem).
Puede véase también: I. World n. 5 Mayo 98 "Entender los Modems".
I World n. 7 Jul-Agosto 98 p.44 "Navegar sin problemas"
[5] El programa está comprimido en formato ZIP, por lo que es necesario un descrompresor de archivos de este tipo para descomprimirlo. En caso necesario puede bajarse uno desde WinZip Computing, Inc [url]www.winzip.com[/url], donde puede descargarse una versión de evaluación, válida para 21 días, adecuada para descomprimir este tipo de ficheros.
[6] En el momento de escribir el original de estos apuntes (1998) la conexión ADSL era exclusiva de empresas; hoy (2002) son bastantes los hogares que en España empiezan a instalar este tipo de conexión, sobre todo en contratos de acceso con tarifa plana. Existen diversas modalidades de contratación, desde 256 Kbps hasta 2 Mbps.

3.5 Servicio de Nombres de Dominio (DNS)

§1 Sinopsis
El servicio de direcciones IP se estandarizó por primera vez en Septiembre de 1981. Como hemos señalado ( A3.2), estas direcciones son como el número de teléfono de cada computador de la red, y (actualmente) vienen representadas por 32 bits. Para facilitar su identificación (humana), este conjunto se considera formado por 4 octetos, que se representan por números separados por puntos, del tipo 145.10.34.3, lo que se denomina la notación decimal punteada ("Dotted-decimal notation"). En la figura se indica el proceso de traducción de los 32 bits a la notación decimal.
Para facilitar la introducción y el recordatorio de estas direcciones por los operadores, se usan nemónicos, es decir, nombres que si tienen un significado (del tipo: altavista.digital.com). De forma que a cada nombre (fácil de recordar e introducir) le correspondería una dirección IP; además el sistema de nombres hace mas evidente el sistema jerárquico de la estructura de direcciones ("Routing address") adoptada para Internet que detallamos a continuación, aunque para evitar confusiones, antes puntualizaremos la nomenclatura empleada:

§2 Nomenclatura
• Dirección IP: Un número de 32 bits; generalmente viene expresado en forma decimal punteada. Es importante recordar que estos "números de teléfono" de los ordenadores de la red corresponden a una red mundial; aquí no ocurre lo mismo que en el teléfono, donde dos abonados de ciudades o países distintos pueden tener el mismo número. Las direcciones IP son únicas y de su gestión se encarga ICANN , un organismo internacional.
• Nombre de dominio: Nombre alfanumérico que identifica un ordenador o conjunto de ellos (sub-red) en lnternet (red de redes).
Para entender el resto del asunto [1], es preciso establecer claramente el concepto de dominio, palabra que usaremos repetidamente a lo largo del texto. El concepto "dominio", que sugiere algo extenso, proviene de que las direcciones primitivas se referían a ordenadores de grandes instituciones, que pronto dejaron de ser ordenadores únicos, deviniendo en sitios donde a su vez existían varios ordenadores en red (Intranets). Por ejemplo: ucla.edu no era un ordenador aislado, sino a una serie de ellos.
Actualmente, la situación ha cambiado en parte, una misma máquina (o conjunto de ellas), sobre todo los sistemas de los PSI ( 7.1), albergan dominios de diversos clientes, por lo que el concepto de dominio se distanció del de máquina concreta o subred de ordenadores. En el estado actual, un dominio es meramente una concesión administrativa, se asocia con un nombre (único) y generalmente [2] referencia a una sola máquina en la red.
• Nombre de servicio ("Service name"): Una cadena alfabética corta que identifica un servicio específico de Internet ( A3.9), por ejemplo: HTTP, FTP, TELNET, etc.

§3 El sistema DNS
Para automatizar el proceso y hacerlo transparente para el usuario, en 1984 se estableció un servicio de traducción de nombres a números (y a la inversa) [3], por el procedimiento de incluir en algunos ordenadores del sistema, unas tablas que permitieran saber que altavista.digital.com equivale a 204.123.2.75.
Los ordenadores que contienen estas tablas se llaman Servidores de Nombre, abreviadamente NS ("Name Servers"); además de las mencionadas tablas disponen de un software capaz de responder a las peticiones de información. De esta forma, aunque las máquinas usan las direcciones numéricas nosotros podemos utilizar directamente los nombres de dominio. Sin embargo el sistema DNS tiene una finalidad adicional a la mera traducción de nombres a números y viceversa, y es que derivado al crecimiento desmesurado de Internet servidor de nombres no podía almacenar la tabla completa con la dirección/nombre de todos los ordenadores de la red (y menos mantenerla actualizada), por lo que se estableció una estructura jerárquica para los NS de forma que en la cúspide están los servidores de nombres raíz ("Root-Nameservers") que administran los dominios de primer nivel (ver a continuación). Estos contienen las direcciones de otros servidores que administran los diferentes dominios de segundo nivel y así sucesivamente. El proceso es parecido al que sigue una carta ordinaria en el sistema postal internacional. En realidad el servicio de Correos de cada país no tiene porqué saber donde está cada destinatario del mundo; en principio le basta saber como enviar una carta a su país de destino. Una vez en el país de destino el servicio central no necesita saber donde está cada dirección, basta que sepa enviarlo a la ciudad correspondiente. Dentro de esta puede ser redistribuida por zonas. Finalmente el cartero atiende una zona o barrio concreto y es capaz de saber con precisión donde está cada calle, cada número y cada piso.
Al sistema que resultó de todo esto se le denomina [4] Servicio de Nombres de Dominio DNS ("Domain Name Service"), es el "servicio" encargado de transformar nombres, como zator.com, en cifras, como 10.23.143.12; como veremos, el DNS también juega un papel importante en el sistema de tráfico del correo de Internet (e-mail). En el apéndice E ( Ap. E) se amplían detalles sobre los servidores de nombres.

§3.1 El Espacio de Nombres
Para los nombres se creó una estructura jerárquica denominada espacio de nombres ("Namespace") y ciertas reglas. Los nombres de dominio pueden estar formados por dos o más palabras separadas por puntos (recuerdan a sus ancestros numéricos [5] ), solo podían usarse minúsculas, y normalmente se estructuran de forma que la parte izquierda es la más específica y la derecha la mas general. Por ejemplo, la designación ibm.armonk.ny.us se refiere a un dominio de IBM en la ciudad de Armonk, estado de Nueva York en USA, otra empresa XYZ de la misma ciudad podría tener un dominio de nombre xyz.armonk.ny.us
Las estructuras de nombres dentro de los diversos países muestran grandes diferencias. En cualquier caso la responsabilidad de la administración de nombres de cada terminación es del administrador de cada país. En algunos prácticamente no existe estructura bajo la terminación genérica del país, en cambio en otros, existen clasificaciones genéricas de segundo nivel, con otras terminaciones (por ejemplo: .ac, .co, .go, .re, etc.), en otros existe una organización de segundo nivel basada en geografía política (caso de USA Nota-9) Finalmente, en otros países, los usuarios están directamente bajo el primer nivel (caso de España), donde todas las terminaciones son del tipo xxxxx.es sin más estructura.

§3.2 TLDs
Para la estructura se adoptó en forma de árbol invertido (ver figura ), a cada rama le corresponde un nombre alfanumérico [6]. Al nivel mas alto, la raíz, no se le ha dado ningún nombre especial. Debajo de este están los nombres de dominio de alto nivel, TLDs ("Top Level Domain Names"). En este nivel se establecieron en principio 8 dominios genéricos (una especie de apellidos) que englobarían los diversos dominios según un esquema que dependía del tipo de institución que utiliza el nombre. Los TLDs originales de ARPANET eran 4 a los que posteriormente se añadieron otros 4, son los siguientes:
.com Empresas comerciales.
.edu Educacional (Universidades y colegios).
.org Organizaciones de fin no lucrativo.
.net Redes de ordenadores independientes pero conectados a Internet
.int Internacional.
.gov Gobierno (Organismos oficiales USA)
.mil Organismos militares USA
.nato Organización del Tratado del Atlántico Norte (OTAN/NATO).

Con la explosión de Internet, cuando ya había instituciones y organismos de los cinco continentes y prácticamente de todos los países, hubo que ampliar el sistema, utilizando terminaciones que recordaran al país correspondiente, por ejemplo:



.es España
.uk Reino Unido
.fr Francia
.gi Gibraltar (con protestas por parte de España)
.va Vaticano

Parece ser que con esto se acaban los nombres "Top Level", pues el referido documento reconoce que es altamente improbable que se incluyan nuevas clases (terminaciones) en lo sucesivo [8].
Nota: En la página adjunta ( Nota-7), se incluyen algunos detalles de las previsiones que se hicieron para los usos de las 8 terminaciones genéricas originales; en ( Nota-8).se incluye un listado de estas terminaciones a la fecha (1999).

§3.3 Debajo de estos cuelgan los dominios de segundo nivel (2LDs), por ejemplo zator.com. Por debajo este segundo nivel se pueden crear estructuras de nombres de tercer nivel (3LDs) pero que son ya responsabilidad de las organizaciones propietarias del dominio de segundo nivel.
Nota: Como el lector habrá supuesto, el dominio raíz y los de alto nivel (TLDs ) son responsabilidad de las autoridades de registro de nombres de Internet (ICANN ).

En el caso de la figura anterior, la interpretación de los nombres de dominio terminados en ibm.com está a la discrecionalidad de IBM, que gobierna el área que pueda colgar de su "rama" [11] (el espacio de su nombre de dominio), también conocido como zona de autoridad ZoA ("Zone of Authority"). Por ejemplo: si la empresa Ford Motors tiene un dominio, digamos ford.com, puede establecer sucesivos niveles correspondientes a sub-redes o máquinas específicas dentro de su organización: spain.ford.com, international.ford.com, france.ford.com, etc.

§4 ICANN
El organismo internacional que gestiona estos aspectos de Internet es el ICANN ( Nota-6); una de sus misiones es gestionar la concesión de nombres de dominio, y sus correspondientes direcciones IP, en este sistema telefónico mundial de ordenadores que es el sistema DNS.
Actualmente (2002), el núcleo del sistema de nombres lo constituyen 13 ordenadores especiales repartidos por el mundo y controlados por la ICANN, que contienen tablas con los nombres de dominio y sus correspondientes direcciones IP de todos los 2LDs del mundo. Estos ordenadores, denominados servidores raíz o también TNS ("Top Name Servers"), contienen todos la misma información, y constituyen el corazón del sistema de Internet; el hecho de ser 13 es para repartir la carga de trabajo, y el contener todos la misma información permite que cada uno sirva de copia de seguridad a los demás. Sin embargo su distribución no es muy homogénea: diez de ellos están situados en Estados Unidos, dos en Europa (Londres y Estocolmo) y el último en Japón [9].
Nota: Los TNS fuero noticia en Octubre del 2002 porque se detectó un ataque informático a gran escala contra estos servidores en un intento de colapsar la Red. Sin embargo, y a pesar que un servidor de este tipo atiende (2002) una media de 270 millones de consultas diarias, el ataque no tuvo consecuencias apreciables porque fue detectado a tiempo. El último accidente serio en los servidores se remonta a 1997, cuando un enrutador mal configurado provocó el colapso de la Red.

Un 2LD puede pertenecer a una institución importante, que físicamente dispone de un ordenador propio o incluso toda una sub-red conectada a Internet; también el caso opuesto: una pequeña empresa (o particular) que no mantiene servidor Internet propio, utilizando para esta función un ordenador (de su PSI) compartido con otros. En cualquier caso, gran empresa (un dominio-varios ordenadores) o pequeña (un ordenador-varios dominios), ambas tienen una zona potencial de autoridad (ZoA), y son responsables de resolver las direcciones que hubiera en ella. Si se trata de una gran empresa (caso de Ford), esta tiene su propio servidor de nombres para resolver los nombres bajo su ZoA, en cambio, si es pequeña (caso de Zator), lo mas probable es que no mantenga servidor propio de nombres, delegando esta función en su PSI, en este caso Nostracom, compañía que a su vez contrata el segundo servidor [10] a la compañía British Telecom, por lo que las direcciones de los servidores primario y secundario correspondientes a zator.com son:
Nombre de dominio DN Dirección IP
NS.NOSTRACOM.COM 212.163.0.2
NS2.BT.ES 212.49.128.66

cuando alguien, en cualquier parte del mundo, pregunta por una dirección, digamos xxx.zator.com, los TNSs ("Top Name Servers") envían la llamada al servidor ns.nostracom.com (212.163.0.2) que a su vez puede informar sobre cualquier dirección IP relativa al dominio zator.com, entre ellas la del host que atiende el servicio. Así pues, los servidores de nombres de dominio son sistemas que pueden dirigir a otros servidores de nombres que pueden dirigir a otros..., hasta que finalmente se encuentra el que realmente contiene la información buscada (para comenzar las búsquedas los ISP suelen cargar en sus máquinas las direcciones de los servidores de dominio de alto nivel TNS).

El resultado de todo esto es que después de los servidores "maestros", existen dispersos por el mundo millares de otros ordenadores que periódicamente copian la información de los servidores raíz; son los Servidores de Nombres de Dominio ("DNS Servers" o simplemente "resolvers"). Estos servidores se localizan en redes institucionales o en proveedores de servicios de Internet ISPs (normalmente ISP y servidor DNS son el mismo), de forma que pueden ser consultados fácilmente, devolviendo la dirección IP de cualquier nombre de dominio que se interrogue.
Puesto que existen millones de servidores, es imposible que cada uno tenga actualizada la tabla de conversión, como por otra parte, existen cientos de miles de servidores DNS y no sería práctico ir preguntándoles a todos. La estructura piramidal, tanto en los nombres posibles como en los servidores, estableciéndose unos servidores "raíz" y una estructura de nombres cuyo último eslabón es el "dominio", hace que no sea necesario buscar en todos sino que con una serie muy pequeña de consultas, se resuelva la incertidumbre.
Ya vimos que ICANN, auxiliada por empresas colaboradoras autorizadas, es la organización encargada de mantener el sistema mundial de servidores de nombres de dominio primarios, pero durante mucho tiempo, cuando la gestión estaba en manos de Network Solutions, existían delegaciones regionales con representación a su vez en cada país; estas representaciones mantenían el servidor encargado de contestar las preguntas de su propia terminación. EsNIC en España, un departamento de Rediris, dependiente del CSIC, Consejo Superior de Investigaciones Científicas (en España, como en USA, Internet empezó por las instituciones científicas y de educación).

[1] El lector atento observará que a partir de este punto hacemos una trasposición sutil, sustituyendo el concepto "Dirección de una máquina en la red" por el de "Dirección de un dominio" (concepto este último mucho mas preciso) que no hay que confundir con el anterior. Una máquina física puede tener de hecho muchas direcciones en la red (puede servir a muchos dominios).
[2] Por supuesto se sigue dando el caso de que algunos dominios (de grandes Compañías, Universidades, Instituciones, etc.) no están constituidos por una sola máquina, sino por varias, formando sub-redes (a veces enormes) dentro de Internet.
[3] El concepto fue desarrollado inicialmente en la Universidad de Wisconsin en 1983. Posteriormente el sistema es introducido oficialmente en 1984.
[4] Utilizaremos NS para "Name Server" y DNS para "Domain Name Service". El "sistema".
[5] En contra de lo que podría parecer, no hay una correspondencia entre las palabras separadas por puntos (DN), y los números de la dirección IP. De hecho, una dirección IP es de cuatro números separados por puntos, y un nombre de dominio puede tener dos, tres, cuatro o más palabras separadas por puntos.
[6] La asignación de nombres de dominio DNs, es totalmente distinta de la asignación de direcciones IP
[8] A pesar de lo anterior, en Noviembre del 2000 seguía el debate sobre la creación de nuevos TLDs. Ante la gran congestión existente en las terminaciones .com, supuestamente se añadirían las siguientes: .web .firm .store .arts .nom .info .rec. Finalmente, en 2001 se zanjó la polémica añadiendo las terminaciones .biz, .info, y .museum; las dos primeras pueden ser registradas por personas o empresas privadas. Por ejemplo: zator.biz y zator.info; la última está dedicada a los museos.
[9] De los 10 servidores situados en USA, cuatro están en California, y seis en el Este (cuatro en Virginia y dos en Maryland). Puede consultarse la situación de estos servidores y las organizaciones responsables de su mantenimiento en [url]http://www.quands.info/misc/websf1.gif[/url]. A su vez, en
el servicio WHOIS de InterNIC [url]http://www.internic.com/[/url], pueden consultarse las direcciones de los servidores de nombre primario y secundario para cualquier dominio de segundo nivel.
[10] Como se indica en el apéndice E ( Ap. E), por razones de seguridad, se establece que debe haber un mínimo de dos servidores por dominio que contengan la misma información (Primario y Secundario respectivamente); se recomiendan tres y un máximo de siete.
[11] No se olvide que un dominio puede ser a su vez raíz de una estructura arborescente de cualquier complejidad.
3.6 Direcciones IP dinámicas

§1 Sinopsis
Hemos visto ( A3.2) que las direcciones IP vienen a ser como el "número de teléfono" de los ordenadores en la red. Cuando conectamos a Internet por RTB mediante un modem, es evidente que si nos llega la información es porque tenemos una "dirección" en Internet, esta dirección IP nos la asigna nuestro proveedor PSI ( 7.1) de entre un cierto número de ellas que tiene disponibles.
Nota: No confundir esta dirección IP con el número de teléfono convencional de la compañía Telefónica mediante el que realizamos la conexión con nuestro proveedor PSI.

Aprovechando que no están conectados 24 horas al día los 365 días del año, lo que hacen los PSIs con los abonados de conexión telefónica, es utilizar una cualquiera de las que tienen libres para asignarla al cliente que se conecta en ese momento. Esto es lo que se llama asignación dinámica de IPs, o IPs dinámicas. Si nuestro PSI tiene, digamos 255, direcciones IP disponibles, puede aceptar en cualquier momento un máximo de 255 clientes conectados simultáneamente (debe tener por supuesto 255 líneas de acceso telefónico conectadas a su servidor Web, posiblemente mediante un servidor de terminales al que aludíamos en 4.4).
Por tanto, resulta más que probable, que no nos corresponda la misma dirección IP para cada conexión sucesiva. De hecho las IPs dinámicas son un método de economizar direcciones compartiéndolas entre muchos usuarios potenciales. La contrapartida es que, como no tenemos siempre el mismo "número de teléfono" en Internet, no podemos decirle de antemano a un amigo cual es nuestra dirección IP [1].

Nota: Por lo general existe cierta tendencia a confundir su dirección IP con su dirección de correo. La dirección IP es el "número de teléfono mundial" que nos corresponde en cada conexión que hacemos a lnternet, mientras que una dirección e-mail (de correo electrónico) es la dirección de nuestro buzón, que no cambia nunca (a menos que cambiemos de PSI). Cuando alguien nos envía un e-mail, el servidor de correo de nuestro PSI lo deposita en nuestro buzón; mas tarde, cuando arrancamos nuestro cliente de correo, este busca automáticamente en nuestro buzón y se "baja" la correspondencia acumulada. Una vez que la transmisión ha finalizado con éxito, el servidor de correo del PSI borra el contenido del buzón en respuesta de una orden que se inicia en nuestro cliente de correo.

§2 DHCP
Los servidores que deben proporcionar direcciones IP dinámicas a sus clientes utilizan el protocolo DHCP ("Dynamic Host Configuration Protocol"). Este protocolo fue creado por un grupo de trabajo de la IETF ( A2.1a) con objeto de simplificar la administración de grandes redes IP, permitiendo que los equipos individuales de una red puedan obtener sus datos de configuración desde un servidor (DHCP). Esta posibilidad es especialmente útil, en especial para aquellos servidores que no tienen información exacta sobre los equipos individuales hasta que estos no recaban la información (caso típico de servidores de ISPs).
Cuando un equipo desea conectarse a Internet necesita una dirección IP, de forma que recaba una al servidor DHCP y este le asigna una de las que tiene disponibles. Los datos enviados son: Dirección IP; máscara de subred ("Subnet mask"), y puerta de enlace predeterminada ("Default Gateway"). En el apéndice A pueden encontrarse más detalles sobre estos conceptos.
Para conectarse a la red cualquier máquina necesita también la dirección de al menos un servidor de nombres (DNS). Esta dirección puede ser suministrada automáticamente por DHCP o permanecer como un dato fijo en la máquina que se conecta.
Nota: Cuando en Windows 95/98 establecemos una conexión telefónica a redes para preparar la conexión a Internet mediante módem, hay que responder ciertas cuestiones acerca de la configuración TCP/IP. En la figura adjunta se muestra el aspecto del cuadro de diálogo correspondiente.
En el ejemplo de la figura se ha señalado la opción "Dirección IP asignada por el servidor"; esta es justamente la opción que indica que utilizaremos direcciones IP dinámicas.
A su vez, la dirección del servidor de nombres puede ser asignada por el servidor o por el usuario. En este caso se ha elegido la segunda opción. Los valores indicados corresponden a los servidores DNS primario y secundario del servidor (PSI).
Las casillas en blanco señaladas como WINS principal y WINS secundaria corresponden a las direcciones de los servidores principal y secundario de un servicio análogo a DNS denominado WINS ("Windows Internet Name Service"), corresponde a un tipo de red de Microsoft que también puede utilizar los protocolos TCP/IP pero que no se utiliza para conexión entre redes, solo para pequeñas subredes departamentales o domésticas. En este caso la conexión se utilizará para Internet y por lo tanto no es de aplicación el servicio WINS.



§3 Conocer la dirección IP de una conexión
Si no disponemos de una IP fija (lo que solo es frecuente en empresas), en ocasiones puede ser interesante conocer la dirección IP que nos ha correspondido en una sesión. Este dato puede ser de utilidad en algunos casos. Por ejemplo para ejecutar juegos en Internet sin necesidad de servidores de juego o para que un amigo realice conexiones FTP con nuestro servidor.

§3.1 Windows 95/98
Windows 95/98 tienen un programa IPconfig.exe situado normalmente en el directorio Windows. Este programa debe ejecutarse desde una ventana MS-DOS, y acepta varias opciones en la línea de comando, que pueden obtenerse mediante:
ipconfig /H

La figura muestra la información proporcionada en el momento de una conexión a Internet a través de un PSI mediante un acceso telefónico a redes (mediante módem) [2].
Configuración IP de Windows 98

Nombre del host . . . . . . . . . . . : SIRE
Servidores DNS. . . . . . . . . . . . : 62.81.0.1
62.81.16.197
Tipo de nodo. . . . . . . . . . . . . : Difusion
Id. de ámbito NetBIOS . . . . . . . . :
Enrutamiento IP activado. . . . . . . : No
WINS Proxy activado . . . . . . . . . : No
Resolución NetBIOS usa DNS. . . . . . : No

0 Ethernet adaptador :

Descripción . . . . . . . . . . . . . : PPP Adapter.
Dirección física. . . . . . . . . . . : 44-45-53-54-00-00
DHCP activado . . . . . . . . . . . . : Sí
Dirección IP. . . . . . . . . . . . . : 62.81.225.38
Máscara de subred . . . . . . . . . . : 255.0.0.0
Puerta de enlace predeterminada . . . : 62.81.225.38
Servidor DHCP . . . . . . . . . . . . : 255.255.255.255
Servidor WINS primario . . . . . . . :
Servidor WINS secundario. . . . . . . :
Permiso obtenido. . . . . . . . . . . : 01 01 80 0:00:00
Permiso caduca. . . . . . . . . . . . : 01 01 80 0:00:00

1 Ethernet adaptador :

Descripción . . . . . . . . . . . . . : Xircom Ethernet 10/100 + Modem 56 PC Card
Dirección física. . . . . . . . . . . : 00-10-A4-01-FF-F1
DHCP activado . . . . . . . . . . . . : Sí
Dirección IP. . . . . . . . . . . . . : 169.254.58.226
Máscara de subred . . . . . . . . . . : 255.255.0.0
Puerta de enlace predeterminada . . . :
Servidor DHCP . . . . . . . . . . . . : 255.255.255.255
Servidor WINS primario . . . . . . . :
Servidor WINS secundario. . . . . . . :
Permiso obtenido. . . . . . . . . . . : 09 04 02 7:10:07
Permiso caduca. . . . . . . . . . . . :

También puede utilizarse la versión Windows, que es el ejecutable Winipcfg.exe (Windows IP Configuration tool).


Figura 1.


Figura 2
La figura-1 muestra el resultado en el momento de una conexión análoga a la anteriormente descrita (IPconfig.exe ).
La dirección IP indicada en la tercera ventana, en este caso 62.81.225.192, es la que ha correspondido a esta sesión. Como puede verse, aunque obtenida en el mismo equipo, es distinta de la indicada por la versión DOS (62.81.225.38) lo que nos indica que ambos resultados se han obtenido en sesiones de conexión distintas.

El programa ofrece otra pantalla con información ampliada pulsando el botón Más información. Esta segunda pantalla (figura-2), muestra información complementaria sobre el adaptador y sobre el servidor al que estamos conectados, permitiendo comprobar algunos datos adicionales de nuestra conexión IP.
La casilla "Servidor DNS" (con el valor 62.81.0.1 en este caso), se refiere a la dirección IP de los servidores de nombre de dominio (DNS) primario y secundario que estamos utilizando.
Nota: Para ver ambos valores hay que pulsar alternativamente el botón (...) a la derecha de la ventana.

§3.2 Windows NT/2000
Desde el símbolo del sistema ("Command Prompt") escribir: ipconfig /all; el valor buscado aparece en la línea señalada dirección IP ("IP Address").

§3.3 Linux
Ejecutar el programa ifconfig; el valor buscado aparece indicado como inet addr.

§4 Enmascaramiento
El enmascaramiento ("Masquerading") es una técnica que permite que varios ordenadores interconectados compartan una misma conexión a Internet. Por ejemplo un módem o (preferiblemente) una conexión RDSI o ADSL ( 7.1) que está conectado físicamente a uno de ellos.
Su finalidad es conseguir que la dirección IP Internet asignada al equipo propietario de la conexión pueda ser compartida por otros para realizar también comunicaciones con la Red, aunque desde el punto de vista del exterior Internet percibe un solo equipo conectado, el que realiza el enmascaramiento.
En cierta forma el equipo que efectúa la conexión física realiza también funciones de protección o cortafuegos ( 4.6) del resto, ya que los aísla del exterior, porque sus direcciones no son visibles desde fuera de la red local.
En UNIX y Linux el servicio es denominado enmascaramiento IP, mientras que en Windows se conoce como "Conexión compartida a Internet". En Windows9x es una opción que no se instala por defecto, debiendo seleccionarse expresamente en el panel de instalación correspondiente (Menú de Inicio Configuración Panel de Control Agregar o quitar programas Instalación de Windows Herramientas de Internet Conexión compartida a Internet).


[1] No olvidemos que nos estamos refiriendo a nuestras conexiones a Internet como clientes estándar de un ISP. Es decir, un cliente conectado mediante la red telefónica o mediante un módem de cable. Todo lo anterior no es óbice para que si contratamos un Dominio, este si tenga una dirección IP fija en Internet, es decir, cualquiera que quisiera acceder a nuestros contenidos tendría siempre que dirigirse a la misma dirección IP (la misma URL en el Navegador).
[2] El valor "Permiso obtenido" para el adaptador 1, corresponde a la fecha y hora del inicio de la sesión Windows. Si el adaptador no está siendo utilizado, como es el caso del adaptador 0 del ejemplo, este campo tiene un valor 0 que corresponde a las 0:00 horas del 1 de Enero de 1980.
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:00   #5
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
4 Servicios de Internet y otros conceptos
4.1 Espejos

§1 Sinopsis
Debido a la popularidad de algunos "sitios" de Internet (de la Web, sobre todo), hicieron su aparición los espejos (Mirror Sites). Son áreas de un computador que replican, "mirror", en el argot de la Web [1], el contenido y estructura exacta de otro ordenador, de forma que si se tienen problemas de conexión con uno, puede acudirse a alguno de estor espejos para encontrar exactamente lo mismo. Por supuesto que estos "espejos" son actualizados a intervalos regulares desde el sitio original.


Uno de los mas conocidos y utilizados es el famoso buscador AltaVista, que contiene "espejos" en diversas partes del mundo, concretamente uno de ellos en España, de contenidos en Español dirigido a nuestro país y a todo el mundo hispanohablante. El sitio original es: altavista.com, el espejo español es: altavista.magallanes.net.
Es frecuente también, que empresas de mucho éxito, con gran afluencia de público, por ejemplo algunas compañías de programas Shareware y Freeware, que funcionan como auténticos mega-almacenes de tales programas; a la hora de intentar "descargar" el producto elegido, nos ofrezcan varias alternativas, indicando incluso la situación geográfica de cada una de ellas, lo que nos permite elegir la que nos parezca (o comprobemos) que tiene una conexión más rápida. La traducción práctica se reduce a apuntar y "cliquear" en un sitio u otro de la página en la que se nos anuncian/ofrecen las opciones.



[1] El término también es empleado para designar una técnica utilizada en sistemas de muy alta seguridad en los que la información se escribe simultáneamente en dos discos.

4 Servicios de Internet y otros conceptos
4.2 Tecnologías Pull/Push

Nota: El original de este epígrafe está escrito en 1998; representa el estado de la cuestión en aquellos momentos. Esta y otras tendencias de la Web, van y vienen como las modas; actualmente (2002), la tecnologías demasiado invasivas parece que están perdiendo actualidad (exceptuando las publicitarias). Por su parte Microsoft ha abandonado el asunto de los canales en sus últimas versiones del navegador, sin embargo lo mantenemos aquí porque las bases permanecen; representan aspectos de la Web que seguirán siendo importantes, y como todas las cuestiones relativas a la moda, puede ser que vuelvan a la actualidad.

§1 Sinopsis
Estas palabras, que empiezan a utilizarse mucho al hablar de la Web y sus tecnologías asociadas, se refieren a lo que indica exactamente su traducción inglesa: Tirar/Empujar, en referencia a dos paradigmas distintos de utilización de la Red.
En cuanto al primero, la tecnología Pull (tirar) es la que se utilizamos cuando con nuestro navegador visitamos cualquier sitio Web. El servidor envía información bajo demanda, es el cliente (nosotros) el que inicia la acción. En este sentido puede decirse que la Web es un medio esencialmente "Pull", decidimos que queremos, el navegador lo encuentra y en cierta forma puede decirse que "tira" del contenido que recibe.
La tecnología Push representa un intento de invertir dicho estado de cosas. Aceptando de antemano que incluso la mas intrusiva de estas tendencias Push será el resultado de un acto deliberado del cliente, el momento y la forma pueden ser totalmente controladas por el sistema. Como puede verse, se trata del paradigma ideal para los publicistas, la información viene a nosotros sin necesidad de hacer nada deliberado para recibirla.

§2 Noticias
Dentro de esta filosofía de uso existen variedad de servicios y diversos grados. Los menos invasivos podemos personalizarlos en algunos servicios de Noticias que nos envían e-mails con la información correspondiente (por ejemplo financiera) a la que estamos suscritos.

§3 Subscripciones
Un segundo nivel es el establecido por las "subscripciones". MS. Internet Explorer 4 ya proporcionaba esta característica, que consiste en que el explorador busca en los sitios prefijados la aparición de nuevos contenidos de acuerdo con el programa que se especifique. La acción respuesta puede limitarse a la mera notificación de que hay nuevo contenido o descargarlo automáticamente en el disco duro (por ejemplo, por la noche o cuando el equipo esté inactivo) de forma que se puede navegar por dichas páginas sin estar conectado (off-line). Esto recibe el nombre de "suscripción" a un sitio Web y permite obtener automáticamente información actualizada del sitio de acuerdo con una programación (diarias, semanales o mensuales), sin tener que visitar el sitio ni actualizar el contenido manualmente. En el capítulo 7 se detalla la operatoria a seguir en este caso ( 7.4).
En este orden de ideas, existen servicios en los que es posible apuntar la dirección de una página y nos notifica si existen variaciones, por ejemplo el que citamos a continuación.

NetMind [url]http://www.netmind.com[/url]
Se trata de un servicio (gratuito por el momento) al que se le indica una o varias paginas Web a "vigilar"; NetMind le avisa por correo cuando estas paginas se actualicen, cambien de sitio, o desaparezcan. Incluso puede recibir la pagina indicada por correo. Puede ser una buena opción si nos interesan las actualizaciones o cambios en determinados sitios y presenta unas innegables ventajas sobre las subscripciones del MS. I.E.
Nota: Despues de algunos avatares y cambios de denominación, en Mayo de 2002 este servicio había desaparecido, en esta fecha solo era posible su excavación arqueológica. Su último propietario era Pumatech.inc.


§4 Canales
Un paso mas sofisticado del proceso lo representan los "canales". En este caso la subscripción se realiza a un sitio Web cuyo servidor está preparado al efecto para soportar esta tecnología. Los canales son sitios Web que se actualizan automáticamente en nuestro ordenador según un programa especificado por el proveedor del contenido. El navegador MS. I.E. 4.x de Windows permite mostrar los canales en el explorador como otras páginas Web estándar, en ventanas completas o en el escritorio. Algunos canales también están diseñados para ser utilizados como protectores de pantalla. La subscripción a un canal puede realizarse según un perfil sugerido por el proveedor de contenido o puede personalizarla el cliente. En el capítulo 7 se detallan los procedimientos previstos en el explorador de Windows para manejar los canales ( 7.4).

§5 Perfiles
Otro paso mas en la escala viene representado por los denominados perfiles ("Profiles"). Un perfil (un programa robot) inspecciona determinadas páginas Web u otras fuentes de información específica recuperando automáticamente la información. Es posible establecer criterios sobre el tipo y clase de información deseada (palabras clave, fechas, valores, reglas de comparación etc.). Una vez que se han alcanzado las condiciones que nosotros mismos hemos establecido, los perfiles envían la información. Los procedimientos que utilizan para comunicar con el cliente son similares a los de las noticias, aunque no se limitan a realizar un informe diario o a intervalos regulares como aquellas, de hecho, los contactos son impredecibles, dado que ocurren cuando se cumplen las condiciones que hemos establecido (que un valor de bolsa alcance un precio determinado, un stock de material descienda de una cifra, noticias relativas al precio del grano en tal zona, etc).
Un estilo análogo se manifiesta en la forma de actualización de algunos programas, especialmente de los relacionados con las tecnologías de la Red, en los que se advierte una creciente tendencia a usar la tecnología Push para actualizar, enviar avisos de actualizaciones disponibles u otro tipo de noticias relacionadas con el producto, aprovechando los momentos de uso de los citados programas en los que se dispone de conexión a la red. En estos casos, si al arrancar se dispone de conexión a la red, el programa se encarga de avisar al sitio del fabricante y en función de la versión, este puede enviar automáticamente la actualización o un simple mensaje de que esta está ya disponible para su descarga bajo demanda; por citar uno entre muchos, el buscador Copernic de Agents Technologies actualiza de este modo su información sobre los diversos canales [1] o el famoso diccionario Babylon cuando actualiza su vocabulario, o las cotizaciones de divisas.

§6 Channel-changer
La tecnología channel-changer se basa en la subscripción a un servicio y en un agente software, en el ordenador cliente, que avisa automáticamente a la base cuando el equipo está conectado a la Red, de forma que comienza a descargar el contenido contratado, el cual puede ser visto mas tarde en diferido sin necesidad de estar conectado. Con el fin de no ralentizar los otros procesos, el agente se encarga de suspender y resumir la transmisión en las pausas de la navegación cuando no se está utilizando todo el ancho de banda disponible, además suele disponer de lo que se conoce como descarga diferencial (differential download), solo se descarga aquello que ha cambiado, además los contenidos suelen transmitirse comprimidos.
Esta tecnología channel-changer, que supone un aviso del cliente a la base de que está conectado, para desencadenar algún tipo de acción por parte del servidor, es un modelo muy prometedor sobre el que se están construyendo varios tipos de aplicaciones y utilidades, por ejemplo la descrita en el conocido programa ICQ (ver capítulo 5).

[1] Como veremos más adelante ( 6.3), al referirnos al Spyware (software espía), esta utilización a veces raya en la ilegalidad y en el menoscabo de nuestra privacidad, cuando determinados programas (a veces no somos conscientes de su existencia en nuestro ordenador), acechan nuestros movimientos por la Red e informan a sus creadores sobre ellos.

4 Servicios de Internet y otros conceptos
4.3 Servicios de Internet

§1 Sinopsis
La red de redes así establecida ( A2.1a), comenzó a ser utilizada de muchas formas y con muchos propósitos, cada una de estas formas de uso es lo que se conoce como un servicio, una forma estandarizada de utilización, lo que a su vez requiere el uso de protocolos (estándares) universalmente aceptados tanto por los "clientes" como por los "proveedores" del servicio. Un caso paradigmático en este sentido, podría ser el correo electrónico. Por supuesto los servicios no han sido siempre los mismos ni se han utilizado exactamente de la misma forma; algunos han aparecido nuevos (uno de los últimos y más espectaculares, la Web), otros han sufrido modificaciones y otros siguen prácticamente igual que en sus orígenes.
Aunque cada uno será expuesto con mas detalle en el capítulo correspondiente ( 8), adelantamos aquí un breve resumen de los principales servicios que ofrece actualmente (año 2000) la Red, aunque debemos advertir que Internet es una criatura viva, de desarrollo muy rápido y en constante evolución. Continuamente están surgiendo iniciativas y modos de uso que, en caso de tener éxito, pueden convertirse rápidamente en "servicios" estándar; otros que fueron muy populares pierden rápidamente aceptación al se utilizados de otro modo. Algunos de estos servicios son muy populares y conocidos, otros son mas especializados y desconocidos a nivel del usuario de a pié.
• Correo electrónico (e-mail).
• Emulación de terminal TELNET: se utiliza para conectar a equipos remotos mediante la Red emulando un terminal del equipo al que se realiza la conexión.
• Transferencia de ficheros FTP: se usa para enviar o recibir ficheros (de cualquier tipo) entre dos equipos conectados a la red.
• Servicio de nombres de dominio DNS ("Domain Name Service" A3.5): en realidad es un servicio que raramente se utiliza solo; es usado por otros, como TELNET, FTP, WWW, etc. para conseguir las direcciones IP (numéricas) de las máquinas remotas a partir de los nombres de dominio.
• Gopher: Un servicio de información basado en servidores y que sirve de interfaz para otros servicios de información.
• WAIS ("Wide Area Information Service"): como su nombre indica, se trata de otro servicio de información basado en bases de datos de ficheros que permiten su rápida localización.
• finger: Un servicio de identificación de usuarios ( N-13).
• La Web, WWW, W3: un servicio basado en HTTP (Hyper Text Transfer Protocol), el último y más popular que está fagocitando a muchos de los anteriores [1].
• Sistema de ficheros de red NFS ("Network File System"): un sistema que permite a los equipos físicamente distantes compartir discos y directorios, mediante la técnica denominada RPC ("Remote Procedure Call"), que hace que tales recursos aparezcan como si estuvieran en el propio sistema.
• Servicios de Información de Red, NIS ("Network Information Services"): también basados en RPC, permite que varios sistemas puedan compartir una misma base de datos situada en remoto; por ejemplo, varios sistemas pueden compartir bases de datos con el mismo fichero de seguridad (password file), lo que facilita su gestión centralizada.
• Servicios "R": tales como rlogin, rsh y otros. Utilizan la idea de acuerdos entre sistemas (hosts trusting), que permite ejecutar comandos y otras órdenes en equipos remotos sin requerir un password.
En lo que sigue, añadiremos una somera descripción de algunos conceptos informáticos que son de referencia constante al tratar de asuntos y servicios relacionados con Internet.

[1] Como vemos, el servicio de exploración de páginas de hipertexto, eso que llamamos la Web, es uno de los muchos servicios que ofrece Internet, y aunque quizás el más popular (junto con el correo electrónico), no es desde luego el único.

4 Servicios de Internet y otros conceptos
4.4 Cliente/Servidor

§1 Sinopsis
Ya vimos ( A3.1) que Internet es una gigantesca red de ordenadores y sub-redes interconectados. Entre estos hay de muchas clases, tamaños, Sistemas Operativos, etc. Pero desde un punto de vista funcional las tareas están generalmente agrupadas, de forma que desde esta perspectiva (de su funcionalidad), podemos establecer tres grandes grupos: Servidores, Clientes y Correos o enrutadores.
Los primeros son máquinas que actúan como "almacenes" de información, esta información es solicitada por los ordenadores-cliente, de forma que el Servidor responde a peticiones de información devolviendo los datos solicitados. Este paradigma de funcionamiento Cliente-Servidor es utilizado constantemente en la informática distribuida (donde existen muchos ordenadores inter-conectados). Como existen muchos tipos de almacenes de información, existen muchas clases de servidores, por ejemplo:
• Servidores DNS: Al tratar del servicio de direcciones ( 1.e), hemos visto que se encargan de devolver la dirección IP (numérica) en respuesta a una petición alfabética, o cuando menos la dirección de otro servidor DNS que contiene dicha información.
• Servidores de Correo: Los que almacenan y reexpiden los mensajes de correo electrónico (e-mail). Funcionan exactamente igual que el servicio de correos convencional; la información que manejan son mensajes de correo.
• Servidores Web ("Web server"): Almacenan "Sitios" Web, inicialmente páginas de Hipertexto en formato HTML, actualmente guardan también imágenes, música (sonidos) e incluso ficheros ejecutables, bases de datos, etc. Actualmente casi todos los sitios Internet están adoptando la apariencia (la interfaz) Web, y responden a las peticiones de los navegadores. La información que está viendo en este momento proviene de un servidor Web donde están alojadas estas páginas, una copia han viajado a su ordenador a requerimiento de su navegador que las muestra según las recibe.
• Servidores FTP: Son almacenes de ficheros preparados para ser descargados y consultados mediante técnicas FTP. Inicialmente, casi toda la información habida en lnternet estaba en estos servidores; aunque muchas instituciones y universidades mantienen servidores de este tipo con gigantescos directorios de ficheros, su utilización (como otras muchas del Internet) está descendiendo en favor del "formato" Web. Los programas para "bajar" ficheros de servidores FTP, otrora muy populares, están prácticamente desapareciendo como aplicaciones "stand-alone" [1], aunque por supuesto el concepto FTP se usa amplia y cotidianamente.
• Servidores de Noticias ("News server"). Almacenan los cientos de miles (millones) de mensajes hacia/desde decenas de miles de grupos de noticias que existen en la Red.
• Servidor de terminales ("Terminal Server"): Un ordenador utilizado para conectar muchos módems así como una conexión de red de alta velocidad a otro ordenador (host). El servidor de terminales hace el trabajo de atender las llamadas telefónicas de los módems y pasar la comunicación al host (un nodo Internet) por la línea de alta velocidad. Esta función se conoce en informática con el nombre de "Front-End".

Cuando la operación entre clientes y servidores se realiza a través de una red (como es el caso de Internet), la información viaja codificada a lo largo de redes que pueden ser del tamaño de un edificio o de tamaño planetario. En caso de redes grandes, aparte de servidores y clientes, se necesita un tercer tipo de máquinas para gestionar las transmisiones. Se denominan enrutadores ("Routers") y funcionan como elementos de recepción y transmisión de tráfico Internet. Estos equipos (junto con los telefónicos) tienen una finalidad exclusivamente transmisora de la información, sin importar su uso o contenido que pueda tener la información transportada ( 4.6).
El paradigma cliente-servidor no solo se utiliza en referencia a las máquinas físicas, también a los programas que las hacen funcionar según su utilidad. Por ejemplo, son frecuentes expresiones tales como "cliente de correo" o "servidor de noticias" en referencia a programas. La primera se refiere al que utilizamos normalmente para interrogar nuestro buzón e-mail, "bajar" el correo y manipularlo (verlo, imprimirlo, borrarlo, etc.); el segundo se refiere a un programa o sistema de ellos que en un servidor (máquina) realiza el trabajo de alojar los mensajes de noticias, atender las peticiones de los "clientes", etc.
Observe que en realidad el concepto cliente/servidor es muy genérico que puede ser entendido incluso en el ámbito de una sola máquina donde unas aplicaciones pueden prestar servicio a otras. Sin embargo, su significado desde el punto de vista informático suele presuponer la existencia de varias máquinas (al menos dos) unidas en una red:
• Un servidor es cualquier máquina que dispone un recurso para ser compartido.
• Un cliente es cualquier máquina que necesita un recurso externo.
• Un servidor de determinado recurso puede ser cliente de otros y a la inversa, un cliente puede ser a su vez servidor de otro recurso.

[1] El término "Stand alone" se utiliza para designar aquellas aplicaciones que pueden ejecutarse y controlarse por el operador como entidades independientes de cualquier otra (en el sentido que Usted usa un procesador de textos, por ejemplo). La expresión se utiliza en contraposición a aquellas rutinas llamadas por alguna otra aplicación para ejecutar alguna tarea específica, pero en cuyo uso tenemos poca o nula intervención. Por ejemplo, cuando en el navegador apuntamos un icono que dice "descarga" (de un fichero), en realidad llama a un programa FTP que es el que nos pregunta donde queremos guardar el fichero que vamos a traer, pero ahí acaba nuestra intervención. En realidad es un módulo (FTP) del Navegador.

4.5 Otros conceptos

§1 Anfitrión
Se dice que un ordenador es anfitrión ("Host") de otro, que es el cliente o huésped, cuando proporciona servicios (de almacenamiento de datos u otro tipo) al un cliente. Por ejemplo, en el sentido al que aludíamos en ( A3.9) al tratar los diversos "servicios" que podemos obtener de un ISP. Este concepto de hospedaje cibernético ("Hosting") es muy utilizado en informática para referenciar a este tipo de servicios. Por supuesto, muchos ordenadores de la Red (todos los ISP) hacen funciones de "hosting" en mayor o menor medida.
Como tradicionalmente los ordenadores dedicados a estas funciones eran sistemas grandes, el vocablo Host ha quedado también, un poco, como sinónimo de gran sistema (Mainframe), en contraposición a la idea de PC (computador personal). Aunque en realidad, un computador personal no tiene porqué ser pequeño necesariamente, la designación PC está también asociada, inevitablemente, a una idea de tamaño pequeño.

§2 Equipo Local/Remoto
Desde que se conectaron por primera vez dos ordenadores entre sí, apareció el paradigma informático local/remoto, que se refiere a los dos equipos (por supuesto desde el punto de vista del usuario). El equipo "Local" es un equipo próximo, accesible, generalmente un PC, o quizás un gran ordenador del Departamento de la Universidad o de una empresa (con el que se trabaja mediante una terminal). Mediante la conexión el usuario puede trabajar, acceder, consultar, modificar, etc. información o datos en otro equipo, quizás en el otro extremo del planeta, el "Remoto".
La conexión con un equipo remoto, para lo que Internet facilita las herramientas y servicios adecuados, fue por supuesto uno de los motivos fundacionales de ARPANET ( A2.1). En general, además del programa adecuado y la conexión, se requiere algún tipo de autorización para utilizar el equipo remoto, generalmente en forma de identificación como usuario autorizado mediante un nombre de usuario y una clave de acceso ("Password") [1].
Actualmente, existen programas comerciales que permiten conectar con un ordenador remoto (que puede ser un humilde PC o un gran ordenador) desde nuestro equipo (otro PC) y llegar a actuar "como si" estuviéramos sentados frente a la pantalla y a los mandos del otro ordenador (se puede llegar a suplantar completamente al operador del otro equipo).
Esta forma de utilización de sistemas remotos existe desde hace años; en un principio se utilizaban conexiones "directas" entre ordenadores mediante la red telefónica (RTB); todo lo que se necesitaba era un programa adecuado en cada una de las máquinas a conectar (local y remota) y un par de módems. Actualmente contemplamos una progresiva migración, sustituyéndose la conexión directa RTB por la conexión a través de Internet; esta última presenta la ventaja del abaratamiento del coste de la conexión, pues permite sustituir el enlace telefónico convencional por el enlace a través de Internet. A continuación exponemos dos ejemplos de este tipo de programas.
HiperTerminal
Este es el programa que acompaña al SO MS Windows para realizar conexiones remotas. Normalmente en: C:\Archivos de programa\Accesorios\HyperTerminal\HYPERTRM.EXE
En concreto, la versión que acompaña a Windows 98 2e ha sido desarrollada para Microsoft por una compañía independiente: Hilgraeve [url]http://www.hilgraeve.com[/url]
VNC

Aunque existen muchos programas que permiten conectar con un ordenador remoto y trabajar en él como si estuviésemos en una consola frente al mismo, este es posiblemente uno de los mejores, además es Freeware y viene de la mano de los laboratorios de AT&T, lo que supone una excelente tarjeta de presentación. [url]http://www.uk.research.att.com/vnc/[/url]
VNC significa "Virtual Network Computing". Se trata de un sistema de pantalla remota que permite ver el escritorio de un equipo remoto desde una máquina local. El equipo remoto puede estar en cualquier parte de la Red y puede ser cualquier tipo de máquina (no necesariamente un PC con Windows). El programa se compone de dos módulos, el "servidor" que genera las imágenes en el ordenador remoto y el "visor" que permite ver la imagen en la pantalla del ordenador local.

El programa tiene dos características principales: La primera es que puede correr sobre arquitecturas diferentes, por ejemplo, desde un PC en casa podemos estar viendo un Host corriendo UNIX, Linux, Macintosh, Solaris, etc. La segunda es que aunque se interrumpa la conexión momentáneamente, no hay consecuencias; incluso puede ser retomada desde otro sitio distinto, lo que confiere al cliente una gran movilidad.

.

[1] En los grandes sistemas multi-usuario, cada usuario tiene registrados unos determinados derechos de acceso: Que cosas puede hacer, a que directorios puede acceder, cuanto espacio de disco puede utilizar, etc. Mediante el nombre de usuario ("User name") nos identificamos al sistema; mediante la clave de acceso ("Password") -una palabra o frase secreta distinta para cada usuario y que solo debe conocer este- garantizamos que somos quien decimos ser. Esta es la forma más tradicional y clásica de identificación, aunque existen otras, por ejemplo, la introducción de una tarjeta que solo posee el usuario autorizado u otras más "personales", basadas en características biométricas como puede ser la retina, la voz, la huella dactilar o la caligrafía.

5 Historia Moderna de Internet y otros conceptos

§1 Sinopsis
En el presente capítulo continuamos la historia de Internet, que abandonamos en el capítulo 2, haciendo una reseña de su "Historia moderna", que suponemos arranca con la introducción de páginas de hipertexto [1], y comentando su desarrollo y evolución hasta la actualidad.
Exponemos también algunos conceptos e ideas básicas que ayudarán a una mejor comprensión de ciertas cuestiones relacionadas con Internet.
Terminamos dando una pincelada sobre las tendencias actuales; como se está moviendo esta tecnología en la que los años se miden por meses, y hacia donde (creemos) que va la Internet.

[1] Páginas escritas en un lenguaje informático denominado HTML ("HiperText Markup Languaje"), que junto con los programas auxiliares, navegadores ("Browsers") y servidores, hacen posible lo que hoy conocemos como "La Web".

5 Historia Moderna
5.1 Origen de la Web

§1 Sinopsis
Hasta el verano de 1.991, el uso de Internet era bastante restringido; todo se reducía a usuarios en Universidades y centros de Investigación repartidos por el mundo que accedían a los servicios que proporcionaba la Red, mediante programas cuya utilización exigía secuencias de comandos totalmente crípticos para el profano. Casi todas las máquinas utilizaban el SO. Unix, cuyo manejo no tiene precisamente fama de sencillo y cuyo intérprete de comandos (un sistema de órdenes por las que el operador indica al sistema que quiere que haga), no es lo que podríamos calificar como muy "intuitivo". El resumen era que si uno quería, por ejemplo, conectar con un servidor FTP ( 8.2) en un organismo o institución remota, consultar sus fondos, "bajarse" un fichero e imprimirlo, tenía que hacer todo esto a "pedal" (la Red solo era utilizada por especialistas).


Tim Berners-Lee

Así las cosas, el británico Berners-Lee [1] (al que se considera el padre de la Web), que a la sazón trabajaba en el CERN de Ginebra [2], empezó a escribir un programa que le permitiera almacenar información. De modo magistral, dio forma y aplicación a un par de conceptos que ya habían sido formulados anteriormente de forma más o menos vaga y genérica: El hipervínculo, que conducía directamente al concepto de hipertexto [3], de ahí al de páginas HTML (páginas Web) que a su vez, darían origen a un nuevo servicio de Internet (mejor diríamos una nueva forma de usar la Red) que acabaría arrasando, y a un nuevo paradigma de arquitectura de la información: Los "Hypermedia".
Las páginas de hipertexto, con sus hipervínculos enlazando información en cualquier parte del mundo, tejen una telaraña mundial [4], de ahí el nombre que recibió, Telaraña Mundial, "World Wide Web" [5], abreviadamente "La Web"; WWW o W3.

§2 Una opinión autorizada:
Por su interés, y por tratarse de un personaje "Histórico", antes de extendernos en detalles sobre toda esta jerga de siglas (HTML, HTTP, Hipervínculo, etc.), reproducimos un trozo de una entrevista publicada en el diario "El País" con el "Padre" de la Web.
En el país de Bill Gates, Marc Andreessen y los demás multimillonarios de Intemet, se ve a Tim Berners-Lee como una especie de forma de vida extraterrestre. Tim Bemers-Lee, de 42 anos (1997), el discreto inventor británico de la Web (Red), el servicio de Internet que ha popularizado la red global, se negó a convertir su invento en la gallina de los huevos de oro. Tomó la decisión de no patentar su obra para mantener la Red abierta al mayor número de gente posible. Berners-Lee es realmente modesto: Hay montones de tecnologías inteligentes y cientos de genios en el mundo. Si la Red ha tenido un impacto de tales dimensiones, es simplemente porque es global.
Pregunta: Cómo creó la red mundial?
Respuesta: Cuando trabajaba en CERN. en 1989, empecé a escribir un programa para mí mismo que me permitiera almacenar información. Pensé que tendría un impacto asombroso el hecho de que el público pudiera compartir sus conocimientos en una red. Me rondaban tres cosas por la cabeza. Una era el tremendo poder personal derivado de tener a la vez una enorme cantidad de información disponible y ser capaz de escribir hipertexto. Un hipertexto permite establecer referencias con conexiones en todas partes. Se puede escribir un documento con mucha fuerza si se le compara con un texto normal.
Lo segundo era la emoción de encontrar formas nuevas de trabajar en equipo de manera más eficaz, y especialmente, atravesando barreras geográficas. Hasta en la misma oficina se daba una nueva manera de comunicarse compartiendo conocimientos a través de la red. Y la tercera era llegar a ser capaz de analizar la estructura de la sociedad a través de lo que sucede en la red.
Intenté convencer a los demás de que era una buena idea, pero se trataba de algo más apropiado para un laboratorio de tecnología que para uno científico, que era donde yo trabajaba. Sin embargo, mi jefe lo apoyó y hacia finales de 1990 hice el proyecto. Lo coloqué en Intemet en el verano de 1991 y a partir de entonces ha experimentado un desarrollo constante.
Pregunta: Tras haber desarrollado la Red, ingresó en el Instituto de Tecnología de Massachusetts en 1994. ) Quiere esto decir que el futuro de la Red está en EEUU?
R.: Desde luego que no. Entré en el MIT [6] porque históricamente el centro de Internet se halla en EEUU La consecuencia fue que la red despegó allí muy rápidamente, mientras que Europa no disponía de una red trans europea semejante. De modo que, por razones prácticas, teníamos que tener una base en EEUU para poder gestionar el Consorcio WWW que coordina Internet y desarrollar la WWW en Intemet.


[1] Timothy Berners_Lee nació y se crió en Londres. Sus padres, Conway y Mary Berners-Lee, son matemáticos. Ambos trabajaron en el primer ordenador comercial de Inglaterra (el Ferranti Mark I). Acabó física teórica en 1976, en el Colegio Queen de Oxford, con las mejores notas. En 1980, tras trabajar componiendo programas de ordenador en diferentes empleos, pasó seis meses en el CERN de Ginebra, donde diseñó una especie de agenda informática para Internet llamado "Enquire-Within-Upon-Everything", que le ayudaba a seguir el rastro de sus propias conexiones esporádicas. Volvió al CERN en 1984 en calidad de ingeniero de programación. Posteriormente pasó al MIT, y en la actualidad dirige el W3C. En el 2004 fue nombrado por la rina Isabel II Caballero Comandante de la Orden del Imperio Británico, pasando a ser Sir Timothy.
[2] Laboratorio Europeo de Física de Partículas CERN ("European Particle Physics Laboratory") [url]http://www.cern.ch[/url]
[3] En realidad Berners no inventó el hipertexto; el concepto era conocido desde antes; de hecho, en su primer documento de declaración de propósitos presentado a las autoridades del CERN para que aprobaran el proyecto, admite y explica que se han hecho algunos intentos e investigaciones al respecto: "Defence has given a big incentive to hypermedia research...". Su mérito fue aplicar el concepto a las capacidades de la Red de una forma clara, simple y bastante madura desde el principio.
[4] No confundir "la Web" con "la Red". La Red (con mayúsculas) es Internet y como hemos visto, estaba inventada bastante antes. La Web es uno de los muchos servicios que proporciona Internet, aunque actualmente ha devenido en el principal y casi único para el profano; además, como la Web es, entre otras cosas, una "interfase" para utilizar la red (de tremendo éxito), muchos de los servicios se han "maquillado de Web", adoptando formas compatibles con los navegadores.
[5] El nombre se debe al propio Berners-Lee, que lo eligió como adecuado para su proyecto después de haber considerado otros igualmente sugerentes: "Information Mesh", "Mine of Information" e "Information Mine".
[6] MIT ("Massachusetts Institute of Technology"). El famoso Instituto de Tecnología de Masachusset, institución de un enorme prestigio en el ámbito de la ciencia y la tecnología; más información en:
Sitio oficial: [url]http://web.mit.edu[/url]
Alumnos: [url]http://www.mit.edu[/url]

5 Historia Moderna
5.2 Ideas básicas: Hipervínculo, hipertexto

§1 Hipervínculos e hipertexto
La idea de hipervínculo es muy sencilla, se trata de la referencia a una información que no está en el texto sino fuera de él. En un escrito normal, una llamada a pié de página; la referencia a una nota al final de texto, o una cita a cierto pasaje de otra obra, son "vínculos", es decir, son sencillamente direcciones que conducen a sitios donde podemos encontrar información adicional relacionada (o debería serlo) con el tema que tenemos a la vista. Lo que hizo Berners-Lee, fue aplicar este concepto (de forma muy general) a documentos electrónicos, aprovechando las capacidades de la informática y más concretamente de Internet [1] Como se trataba de documentos electrónicos y además los tales vínculos tienen en este caso una enorme ubicuidad, y desde luego gran potencia, a la palabra normal se le ha antepuesto el prefijo "Hiper" y ya tenemos la palabreja hipervínculo (que suena más impresionante).
La tecnología informática de red (que por entonces ya estaba planamente operativa), permite que una llamada a pié de página, a otro punto del texto (no importa que esté mil páginas mas adelante), e incluso a un punto concreto de un documento en un ordenador al otro lado del mundo, puedan ser accedidos casi instantáneamente. Para dar forma a esta idea, Berners-Lee estableció una forma estandarizada para que en determinados pasajes de cualquier documento electrónico de un tipo especial (que se llamaría hipertexto) [2], se pudieran insertar unas etiquetas especiales (hipervínculos o hiper enlaces) que contuvieran la dirección electrónica de la información que se quiere referenciar. Apuntando sobre dicha etiqueta, el sistema se encarga de reclamar para nosotros la información de forma automática y de presentárnosla directamente en pantalla.
Fácilmente se comprende que la estructura de referencias así creada, puede crecer exponencialmente en complejidad, cuando el documento referenciado por un hipervínculo contiene a su vez hipervínculos que "apuntan" a documentos que a su vez contienen hipervínculos que a su vez...[3]. Es por esto que eligió el nombre de "Telaraña mundial" para su proyecto. En palabras del propio Berners-Lee: "El mundo de la Web es por tanto un mundo de información y parte de esa información es información sobre información" (¿Será alguna vez el verdadero "cerebro" del planeta?).

§2 Concretando la idea
Para dar forma concreta a su idea, Berners-Lee se inventó un sistema especial de escritura de páginas mediante un lenguaje ad-hoc, al que denominó Lenguaje de Marcas de Hipertexto HTML ("Hyper Text Markup Languaje"). Esta escritura está orientada a la presentación de datos en la pantalla del ordenador [4], y en ella, junto con el texto e imágenes que se quieren mostrar, se incluyen una serie de órdenes y comandos que indican "como" debe representarse la información, así como la forma en que deben embeberse en el documento las etiquetas de hipertexto a que antes nos referíamos. En 1990 escribió el primer "editor+visor" de HTML, un programa denominado "WorlDwidEweb", que corría en un ordenador NeXT Step.
Una vez escritos los documentos, quedaban cuatro cuestiones que resolver: Poder localizarlos fácilmente; poder transmitirlos por la red; poder visualizarlos en las pantallas de los receptores, y desde luego, hacerlos accesibles a todo el que quisiera consultarlos.

En cuanto a la primera, para referirse a los documentos concretos, dentro de la inmensidad de la Red, Berners-Lee ideó un sistema de direcciones al que denominó Localizador de Recursos Unificado URL ("Unified Resource Locator"). El concepto está estrechamente relacionado con el de URI ("Unified Resource Identifier") [5]. Una "dirección" URL tiene un aspecto como:
[url]http://www.cerberus-sys.com/belleisl/tune.htp[/url]

Por supuesto, contiene toda la información necesaria para saber en que dirección IP está el ordenador que contiene el documento; la posición del fichero dentro del ordenador; su nombre, y datos que indican que se trata de un documento de hipertexto y que protocolo utilizar para accederlo [6]. En el Apéndice G ( Ap. G) se amplían detalles sobre este concepto y sus diversas formas.

§3 Herramientas auxiliares
Para el segundo problema, Berners estableció las bases del protocolo HTTP ("Hyper Text Transfer Protocol") que se utiliza para transmitir los documentos HTML (documentos Web) de un punto a otro [7]. En cuanto al tercero (la visualización), escribió un programa especial para "ver" los documentos HTML. Este programa, que después se ha llamado Browser o Navegador, es en realidad un visor de documentos HTML. Puede deducirse fácilmente que lo de "Navegador" viene de que al mirar documentos HTML, debido a su enorme facilidad para pasar de un documento a otro mediante hipervínculos, el resultado es muy parecido a "navegar" por la red dando saltos de un punto a otro.
Nota: Es esta es una característica distintiva de la Web; el hecho de poder saltar de un documento a otro, nos permite estar viendo un documento y un instante después, mediante un clic de ratón, estar viendo otro que está en la otra parte del mundo. Decimos que "navegamos", pero en realidad solo vemos documentos que no están demasiado lejos; han sido transmitidos a nuestro ordenador por el protocolo HTTP; el "Browser" se encarga de mostrárnoslos. Los que navegan son realmente los documentos, o mejor "copias" de ellos, que nos envían los servidores Web.

§4 El primer sitio Web
Por último, para poner en marcha la idea, para hacer accesibles los documentos a toda la comunidad Internet, necesitaba desde luego un servidor de páginas HTML, que el mismo Berners-Lee alojó en los ordenadores del CERN en el verano de 1991. Con gran visión, colocó en este servidor primigenio [8] las especificaciones sobre HTTP, URL y HTML, a fin de que pudieran ser accedidas por todos y pudiera establecerse un foro de discusión sobre ellas. Así pues, la primera Web incluyó básicamente información sobre la Web. La primera información accesible como tal, fue un listín de teléfonos del CERN, de forma que la primera impresión sobre ella era la de ser una agenda telefónica con una apariencia extraña. Siguieron informaciones sobre las materias concernientes al CERN, de forma que sus primeros usuarios pertenecían al círculo de la física teórica [9].

[1] Parece existir universal consenso en atribuir la paternidad de la idea a Vannevar Bush. Ingeniero Norteamericano que fue pionero y precursor de la idea. Director de la Oficina de Desarrollo e Investigación Científica durante la II Guerra Mundial, asesor del presidente Roosevelt para temas científicos y posteriormente vicepresidente del MIT y Director de la Carnegie Institution. En Julio de 1.945, en su famoso artículo "As we may think" en el Atlantic Montly, desarrolló estas ideas (aunque el término hipertexto fue acuñado mas tarde) concretándolas en una máquina, Memex con la que pretendía resolver el creciente problema de la información científica y técnica que comenzaba a ser desbordante (en su calidad de director de la Oficina de Desarrollo e Investigación Científica, tenía que dirigir y coordinar la actividad de unos 600 investigadores de élite). Desafortunadamente su ingenio no tuvo éxito, pues adelantado a su época, carecía de los instrumentos electrónicos adecuados para llegar a ser práctico (Memex era una especie de pupitre electromecánico que almacenaba la información en microfichas).
[2] Los términos Hipertexto e Hypermedia fueron acuñados por Ted Nelson en un documento de la 20 conferencia nacional de la ACM. "By 'hypertext' mean nonsequential writing-text that branches and allows choice to the reader, best read at an interactive screen". Ver en el Apéndice H más información relativa a este precursor ( Ap. H).
[3] Como puede verse, el sistema resuelve en parte un viejo problema que ya había preocupado a Vannevar Bush: El hecho de que normalmente la información está organizada en índices jerárquicos (libros y bibliotecas). Cuando se encuentra cierto material y se quiere seguir la búsqueda de otro material relacionado, hay que salir del sistema y volver a entrar por un nuevo camino (nuevo índice); la mente humana en cambio parece funcionar por asociaciones muy dinámicas, mas que por índices.
[4] Esta concepción es rigurosamente historicista; en el capítulo 11 veremos que HTML ha devenido rápidamente en un vehículo para contenidos de tipo muy amplio y general.
[5] La distinción entre URL y URI, ("Locator" y "Identifier"), es meramente semántica y académica; con frecuencia se suelen confundir ambos términos. El primero referencia un contenido de "Dirección", algo que puede ser mutable con el tiempo, dado que se refiere a la localización del contenido en la Red y puede cambiar cada vez que el contenido es pasado de un sitio a otro o es clonado en un nuevo lugar. El segundo, se refiere a un contenido de "Nombre", algo que una vez asignado, sigue (o debería seguir) al contenido durante toda su vida.
[6] Como veremos en los ejemplo siguientes, la URL no solo sirve para apuntar a páginas Web, en realidad es un comando que tiene varios significados (puede solicitar varios servicios distintos al navegador).
[7] Por supuesto, que HTTP es una capa de software que usa a su vez los servicios de los protocolos estándar TCP/IP ( 3.1). No solo puede transferir ficheros HTML, también de otros tipos. Una característica (poco utilizada) de este protocolo, la "Negociación de Formato", permite al cliente negociar con el servidor ciertas características de la transmisión referentes al lenguaje y formato de los datos a enviar .
[8] La primera "dirección" de la Web fue: info.cern.ch.
[9] Así pues, tanto la concepción (la idea), como las primeras realizaciones de la Web son genuinamente Europeas.
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:02   #6
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
5 Historia Moderna
5.3 Desarrollo posterior, el W3C

§1 La historis continúa
Como hemos visto, Berners-Lee creó en 1990 las especificaciones del HTML, del HTTP y el precursor del URL. Junto a su compatriota y colega del CERN Robert Cailliau, dejaron su programa en el primer servidor en 1991. Los tres primeros años fueron una especie de cruzada en que intentaban persuadir a la gente que se sumara a la idea y la usaran. Finalmente, en 1993 empezó a popularizarse, cuando Mac Andersen y sus colegas del NCSA ("National Center for Supercomputing Applications") de la universidad de Illinois [1] (que habían visto uno de los primeros navegadores de la red, el Viola-WWW), escribieron el ahora famoso Mosaic [2]. Entre 1991y 1994 el número de clientes del Web pasó de 10 a 100.000; la carga de proceso del primer servidor se multiplicaba por 10 cada año. En Mayo de 1991 se pone en marcha el primer servidor Web de USA en el SLAC ("Stanford Linear Accelerator Laboratory").
En 1992 toda la comunidad científica estaba al corriente; en 1993 el proyecto empezó a ser considerado por la industria informática. La Casa Blanca tiene dirección de correo electrónico, [email]president@whitehouse.gov[/email], en Enero de este año hay 1.3 millones de ordenadores conectados a la Red. En 1994 se llega a 2.000.000 de ordenadores conectados; la Casa Blanca y el Congreso de los EEUU tienen páginas de información en la Web.

§2 El W3C
Sin embargo, el CERN, un organismo de investigación de física teórica, no era el marco más idóneo para un proyecto que crecía a un ritmo que amenazaba descontrolarse. El propio Berners admite: "La gente empezó a decir: Mira, esta cosa se está haciendo tan grande que nuestra compañía se está orientando totalmente en torno a la Red. Queremos estar seguros de que va a ser estable" y que empezó a estar bajo gran presión para que definiera la evolución futura. Después de muchas discusiones, en Septiembre de 1994, decidió crear el W3C ("World Wide Web Consortium"), con sedes en el MIT en USA, en el INRIA en Francia [4] y actualmente en la Universidad Keio de Japón.


El Consorcio es un foro neutral, abierto y apátrida, donde compañías y organizaciones para las que el futuro de la Web es importante, discuten y acuerdan nuevos protocolos informáticos. Ha llegado a constituirse en el centro donde se maduran los asuntos, se diseñan y consensuan las decisiones sobre los estándares de la Web y se planifica su desarrollo futuro [5].
A continuación se relacionan los organismos, comisiones y grupos de trabajo que tienen influencia y autoridad en lo relativo a la Web e Internet y el registro de nombres:
• Internet Engineering Task Force (IETF) [url]www.ietf.org/[/url]
• Internet Architecture Board (IAB) [url]www.iab.org/[/url]
• Internet Engineering Steering Group (IESG) [url]www.ietf.org/iesg.html[/url]
• World Wide Web Consortium (W3C) [url]www.w3.org/[/url]
• Internet Society (ISOC) [url]www.isoc.org/[/url]
• The Internet Corporation for Assigned Names and Numbers (ICANN) [url]www.icann.org/[/url]
• Internet Assigned Numbers Authority (IANA) [url]www.iana.org/[/url]
• International Telecommunication Union (ITU) [url]www.itu.int/[/url]
• European Telecommunication Standards Institute (ETSI) [url]www.etsi.org/[/url]
• International Trademark Association (INTA) [url]www.inta.org/[/url]
• World Intellectual Property Organization (WIPO) [url]www.wipo.int/[/url]

§3 Las normas de Ia Web
Las normas del W3C reciben nombres tales como RFC1521 ("Request For Comment"). En realidad RFC es el nombre del proceso de creación de un estándar, pero dado que la IETF [6] no es una autoridad (en el sentido que pueda obligar), mas bien un foro de debate y de adopción de acuerdos consensuados. El proceso es el siguiente:
Cuando interesa acordar la estandarización de algún asunto, se crea en el seno de IETF un grupo de trabajo conformado por un grupo de expertos interesados en dicho asunto que utilizan listas de correo como herramienta de trabajo. Tanto la creación del grupo como su composición es completamente libre. Cualquier internauta puede suscribirse a las listas de correo de uno de estos grupos y, a todos los efectos, pasar a formar parte del mismo. La experiencia de los años ha demostrado que este método es muy eficiente y que permite la elaboración de estándares de forma rápida.
En principio los documentos son borradores "Propuestas para comentar" (de ahí su nombre). Cuando hay consenso de que están completados pasan a ser una propuesta de estándar. Finalmente, cuando se han evaluado dos implementaciones independientes de la tecnología correspondiente, son ratificados, convirtiéndose en un estándar de facto. Sin embargo siguen conservando su nombre de nacimiento, las siglas RFC y el número que le correspondió a la primera propuesta.
Toda la información necesaria sobre la materia puede obtenerse en: [url]www.faqs.org/rfcs[/url].

§4 Mayoría de edad de Internet
En 1995 la red llega a su mayoría de edad, la NSF se retira y es privatizada totalmente.
En 1996, en una runión del Federal Networking Council Advisory Committee, el gobierno USA anuncia su intención de privatizar ciertas funciones importantes de Internet. En Agosto de este mismo año, el Consorcio agrupaba a unas 150 instituciones y empresas, entre las que se encuentra los principales líderes de la industria del Software y de la tecnología de la Web en general, incluyendo representantes de compañías cuyos negocios están basándose cada vez mas en su funcionalidad y ubicuidad. En realidad, el segundo quinquenio de los 90 puede considerarse la época de la difusión social de Internet; el vocabulario Internet toma carta de naturaleza entre el público, es aceptado por el mundo comercial y se inicia una auténtica explosión de proveedores de contenidos, de servicios, libros sobre el tema etc. que llega a ser objeto de atención de los medios de comunicación, prensa, radio y TV.
Como puede verse en el gráfico adjunto, que muestra el número de servidores Web a lo largo del tiempo a partir de 1996, el crecimiento ha sido constante. Según Alan Taffel, vice presidente de márketing de UUNet Technologies, en 1997 el tráfico de Internet debido a la Web se duplicaba cada tres o cuatro meses; a finales de 1998 cada mes se incorporaban mas de 3 millones de nuevos usuarios a la Red, y de acuerdo con los resultados de una reciente conferencia en Heidelberg (Alemania), promovida por el EURESCOM (Instituto Europeo de Investigación y Estudios Estratégicos de Telecomunicaciones), se estimaba que para el año 2.000 habría mas de 200 millones de usuarios de Internet en todo el mundo.
1999: En Marzo de este año, el prestigioso informe de Price Waterhouse Coopers "Technology Forecast", señala entre otras consideraciones, en sus más de 800 páginas, que el tráfico de Internet en Europa se duplica cada 100 días y que se espera pasar de los actuales 30 millones de usuarios a 85 en el 2002.
Nota: La World Wide Web cumplió en 1999 su décimo cumpleaños; al mismo tiempo Internet cumplía su treinta cumpleaños. Coincidiendo con tan señalada fecha se iniciaron en la Red varios proyectos que tenían como fin principal documentar la historia de la Web desde sus primeros pasos allá en 1989 hasta la actualidad. Uno de estos proyectos es el W3History, que puede consultarse en [url]http://www.w3history.org[/url]

§5 La fiebre .com
A las puertas del nuevo milenio (ver nota ), el desarrollo de la Web ha entrado en una especie de frenesí, todo el mundo, desde los sociólogos hasta los técnicos, pasando por anarquistas, estudiantes y enseñantes, empresarios y empleados, parecen fascinados con las posibilidades del nuevo medio al alcance de la humanidad (al menos la del primer mundo). La evolución es tan rápida que apenas logramos atisbar un nuevo concepto cuando aparece otro, nos asombramos ante una nueva forma imaginativa de uso (y negocio) de la red cuando se nos presenta otra aún mas audaz. La prensa nos sorprende con noticias de adquisiciones de empresas relacionadas con Internet por precios astronómicos, empresas que hace tres o cuatro años siquiera existían. El cambio es tan rápido que en palabras de Rodolfo Carpintier [7]: "La velocidad de crucero de años de dos meses (SUN dixit) crea revoluciones y cambios de tendencia por períodos cada vez más cortos y crear entornos que, en un par de años, corresponden a tres generaciones de productos de la era pre-Internet".
Desde el punto de vista económico, todas las empresas importantes hacen tremendos esfuerzos para tomar posiciones y estar las primeras en este nuevo mundo recién "descubierto" (por el gran público), algo así como una moderna fiebre del oro donde no se va a California, sino al Ciber-Espacio. Leemos que dentro de muy poco, enviar un "Currículum" por correo ordinario, en vez del electrónico será motivo seguro para ser rechazado, no solo eso, una buena presentación del mismo debería ser multimedia e interactiva, mejor ofreciendo la propia Web del candidato...
Nota: Como puede verse, el original del presente capítulo, escrito en 1998 corresponde al comienzo de la "Fiebre .com". Lo he dejado sin cambios porque refleja perfectamente el espíritu de una época.

[1] Este era uno de los cinco centros de super-computación del NSF.
[2] Uno de los primeros navegadores, escrito originariamente por Pei Wei, por entonces terminando su graduación en la Universidad de Berkley en California. Otros proto-navegadores fueron "Erwise", "Midas" y "Cello".
[4] INRIA ("Institut National pour la Recherche en Informatique et Automatique") [url]http://www.inria.fr[/url]
[5] Como no podía ser menos, en la propia "sede" oficial del Consorcio, [url]http://www.w3.org[/url], puede encontrarse abundante información sobre estas cuestiones.
[6] IETF ("Internet Engineering Task Force"). Este nombre tan aguerrido corresponde a la fuerza de ingeniería de protocolos y desarrollo de Internet. Se trata de una gran comunidad de ingenieros de redes, operadores, vendedores e investigadores que tienen interés en la evolución de la arquitectura y en el correcto funcionamiento de Internet. Tiene su sede en: [url]http://www.ietf.cnri.reston.va.us[/url]
[7] "Comercio tradicional vs Comercio electrónico" Publicado en AECOC, Mayo 1998

5 Historia Moderna
5.4 Tendencias actuales

§1 Sinopsis
Intentaremos presentar aquí una visión de la Web actual (aunque la "rabiosa" actualidad en materia tan cambiante sea difícil de conseguir). Algunos de los asuntos expuestos, son realidades ya implementadas o en consolidación; otros son proyectos o desarrollos en curso, que si bien no han alcanzado el grado de estándares o recomendaciones oficiales del W3C ( A5.3), son cuestiones que se están considerando en los comités correspondientes. En cualquier caso, proporcionarán al lector una visión del estado actual, de las tendencias sobre la materia (que cuestiones están en candelero) y le permitirán saber en que dirección se está moviendo. Esto con independencia de que en el capítulo 10 juguemos a adivinos, hablemos de lo que se piensa será la evolución futura a mas largo plazo.

§2 Evolución
La idea primigenia de páginas electrónicas, que mediante etiquetas especiales (hipervínculos) devienen en un nuevo tipo de documento al, que llamamos hipertexto (páginas Web), ha sufrido una natural maduración y generalización con el paso del tiempo. La idea en sí misma ha sido muy elaborada, pues compete a una de las fronteras actuales de las ciencias de la información y del conocimiento. Uno de los últimos intentos (visionario por el momento), el proyecto Xanadu, del que por su interés conceptual incluimos un más detallado comentario ( Apéndice H), imagina un universo de ordenadores conectados (on-line) que nos permita todo el conocimiento como hipertexto, de forma que uno pueda leer cualquier cosa escrita en el mundo en cualquier orden que se desee; "El universo del conocimiento sin ninguna estructura predeterminada".
La ubicuidad de la Web ha permitido que todo este hiperespacio sea considerado actualmente como una extensión del escritorio de nuestro propio ordenador [1] (por utilizar una terminología Windows), aunque naturalmente esto presenta ciertos problemas, principalmente del tipo de propiedad intelectual y derechos de autor, cuestiones estas no resueltas todavía en la Red (en el apéndice antes citado se incluyen algunas consideraciones al respecto).

Por lo común no se habla ya de páginas en el sentido de documentos humanamente legibles; en su lugar se utilizan conceptos más amplios y abstractos, tales como "recursos" y "objetos". Se acepta que una dirección URL de la Web referencia específicamente un "objeto" de naturaleza entendible por las máquinas. El hipertexto ha dado paso a un concepto mas general, hipermedia [2], donde los objetos pueden contener datos de muchos tipos, empezando por información sobre su propia estructura. Este primer tipo de contenidos (con información sobre información) son generalmente conocidos como "Metadatos". Por supuesto que otra parte del contenido puede ser texto en formato humanamente legible, aunque también puede contener sonidos, música, imágenes (fijas o dinámicas) e incluso piezas completas de software que se ejecuten en la máquina del cliente (Applets [3], Cookies [4], etc). En palabras de Berners-Lee: "Una telaraña de documentos legibles por el hombre está emergiendo de una telaraña de datos entendibles por las máquinas. El potencial de la unión de hombres y máquinas trabajando juntos y comunicándose a través de la Web, puede ser inmenso".
Estas palabras, nos traen inevitablemente a la memoria las ideas, que una década antes del nacimiento de la Web, expresara Barry Lippman [5]: "Los ordenadores son el siguiente paso en la evolución humana; un salto hacia adelante equivalente al desarrollo de la corteza cerebral" (nosotros añadiríamos que la Web debería ser la corteza cerebral colectiva, raquítica o inexistente hasta ahora).

§3 Los negocios entran en la Red
La popularización y universalización de la Web está trayendo nuevos servicios y nuevos problemas que no existían en la Internet primitiva, además ha cambiado sensiblemente su filosofía. En un principio Internet, nacida en un ambiente de investigación académica y gubernamental, limitó estrictamente su uso a actividades de investigación, enseñanza y oficiales, siendo prohibida cualquier tipo de actividad comercial [6], sin embargo en 1991 se funda CIX ("Commercial Internet Exchange Association"); la idea, promovida por los grandes ISP USA, se basa en poderse enviar tráfico entre sus propias redes sin limitaciones, evitando tener que usar las redes troncales de la NSF.
La idea, puede parecer poco entendible bajo la óptica Española, donde al presente (1998), los ISP son legión. Una miríada de pequeñas y minúsculas compañías que basan su servicio en un servidor Web, quizás poco más que un PC, conectado con unos cuantos módems a la Compañía Telefónica. En cambio, en USA, donde el servicio telefónico está mucho más desarrollado, existen compañías ("IP Providers") que cuentan con sus propias redes privadas con puntos de presencia en las localidades más importantes y que ofrecen toda clase de servicios, incluyendo acceso a Internet (a la Web por tanto), además de otros específicos. Algunas de estas compañías [7] están orientadas a dar servicio (incluso intercontinental) a empresas, mientras que otras están mas orientadas al mercado de consumo.
Entre las primeras (servicio) se encuentran IBM Global Network [13]; Northern Telecom, y BBN Planet. Entre las últimas (mercado de consumo), las denominadas "Tres grandes"; son América Online, CompuServe y Prodigy. En lo que respecta a España, las pocas compañías con redes propias, capaces de haber podido ofrecer servicios comparables (por ejemplo RENFE), por una u otra razón se limitan a vender su capacidad de tráfico a la todopoderosa "Telefónica".
Además de ser entendida como un medio de almacenaje/recuperación de información y conocimiento de extensión universal, Internet y más concretamente la Web (por su facilidad de uso), está concitando toda una pléyade de nuevas aplicaciones basadas fundamentalmente en su capacidad bi-direccional de manejar la información.
A través de la Web es posible instalar sistemas que permiten video en tiempo real con escenas de lo que está pasando en el otro extremo del mundo, consultar mapas, el tiempo meteorológico, etc. Se pueden realizar observaciones astronómicas solicitando tiempo de uso de un telescopio o vigilar una empresa. Algunas de estas realizaciones permiten inter-actuar con robots remotos de forma que es posible controlar su actuación a distancia. Aunque las realizaciones actuales son por lo general rudimentarias y no pasan de ser meras curiosidades tecnológicas (debido principalmente a la congestión y falta de velocidad de la Internet), un examen superficial de algunas de ellas pueden servir como anticipo y muestra de las amplias posibilidades que encierra la idea y de las aplicaciones novedosas que pueden realizarse:
[url]http://www.yahoo.com/Computers_and_Internet/Internet/[/url]
[url]http://www.geocities.com/~anderberg/ant/machines/[/url]
En estas dos direcciones es posible encontrar una lista de cacharros y dispositivos conectados a Internet.
[url]http://www.usc.edu/dept/raiders[/url]
USC's Mercury Project: Tele-excavación; se controla un brazo robot para buscar objetos enterrados.
[url]http://www.eia.brad.ac.uk/rti[/url]
Bradford Robotic Telescope Operations Menu: Telescopio programable desde la red.
[url]http://rr-vs.informatik.uni-ulm.de/rr/[/url]
Interactive Model Railroad: Un tren en miniatura que se controla desde WWW.
[url]http://www.taponline.com/tap/spy-cams.html[/url]
Indice de cámaras en la red con imágenes del mundo real en directo.

Por otra parte, la Red parece estar llegando a su mayoría de edad. Desde su fundación y durante muchos años, fue subvencionada y tutelada por el Gobierno USA, primero a través de ARPA y después de la NSF, pero desde 30 de abril de 1995 en que trasladó el objeto de su interés a una nueva red experimental [8] vBNS (Very-High-Speed Backbone Network Service), ha reducido progresivamente los fondos asignados a Internet, previéndose llegar a anularlos completamente en 1998 [9]. Por de pronto, la operación de NSFNet (la que se considera espina dorsal de Internet), se ha privatizado, pasando a un consorcio de compañías comerciales.

§4 Luces y sombras
"El problema de las balas no son las balas en sí mismas, sino su velocidad".
Instructor militar.
Con su crecimiento, la Red está convirtiendo en realidad uno de los sueños de su fundador, que llegara a ser "Un océano de conocimiento compartido". Cada vez más pueden encontrarse contenidos de lo más variopinto; desde sesudos tratados de matemáticas, pasando por ofertas "Porno"; información sobre viajes; acceso a la base de datos de la Biblioteca del Congreso de los Estados Unidos [10]; un sitio especial que le indicará con detalle como deshacerse de su ordenador (si se cabrea con él); información sobre como fabricar explosivos o la mejor forma para suicidarse. La Web es ya un microcosmos donde todo tiene cabida y que se desarrolla en una forma que haría las delicias de los viejos anarquistas [12], aunque existen problemas e inconvenientes que hay que aprender a sortear.
Entre los problemas presentados empezaríamos destacando uno poco comentado, el que denominamos "La Rana Digital" [11]. Ocupan también lugar importante los relativos a la privacidad y a la seguridad de la Web; dentro de este último asunto, que engloba aspectos muy variados, podemos citar cuestiones como los de seguridad de los propios ordenadores, seguridad de la red, servicios de autenticación, validación y cifrado de mensajes; privacidad y control de contenidos por citar algunos. En los siguientes capítulos nos referiremos brevemente a cada uno de ellos para tener unas pinceladas del estado actual de estas cuestiones.

[1] De hecho, la difícil o imposible disociación: Navegador-Web/Explorador-del-propio-sistema, ha sido la principal baza de MicroSoft, acusado de prácticas monopolísticas, en su famoso enfrentamiento con la competencia en los tribunales USA.
[2] El primer sistema hipermedia parecer ser el realizado en 1978 por Andrew Lippman del Architecture Machine Group, del MIT, la película del plano de Aspen ("Aspen Movie Map").
Cuatro cámaras apuntando en otras tantas direcciones se montaron en un camión a través de las calles de Aspen tomando fotos a intervalos regulares. Las fotos fueron reunidas en videodisco y enlazadas de forma que permitían al usuario empezar su paseo virtual en un punto determinado y moverse hacia delante, detrás, derecha o izquierda. Una vez que se había elegido una ruta por la ciudad, el sistema podía mostrar las imágenes en una rápida sucesión creando sensación de movimiento. Un mapa mostrado simultáneamente, permitía al usuario saltar directamente a cualquier punto de la ciudad, sin necesidad de tener que "conducir" hasta el punto a través de las calles.
[3] Applet: Pequeño programa Java que se incrusta en una página Web y es tratado por el navegador como otro contenido mas (un dibujo, un sonido, etc). Son ejecutados por el navegador mediante una "Máquina virtual" Java; normalmente son archivos binarios con la etiqueta [b]class[/b] y se referencian directamente desde la etiqueta [b]applet[/b] que se inserta en la página HTML. Cuando el navegador lee esta etiqueta, pone en marcha la Máquina Virtual Java (si se ha habilitado para ello) que se encarga de interpretar el código en cuestión.
[4] Cookies: Su traducción literal sería "Galletitas"; se denomina así cualquier mecanismo que pueda utilizar un servidor para almacenar y recuperar información en/de un cliente; como se verá mas adelante, no existe realmente ninguna razón de peso para llamar Cookies a estos dispositivos software ( Nota-12).
[5] David Ritchie. "El cerebro binario". Ed. Planeta (Barcelona).
[6] Los términos de la AUP ("Acceptable Use Policy") de la NSF ("National Science Foundation"), que desde los tiempos de ARPANET controla la espina dorsal de Internet, excluyen cualquier anuncio, excepto relativos a nuevos productos para investigación o educación.
[7] En 1994 había en USA del orden de 50 de estas compañías de rango medio (regional).
[8] vBNS, la que se supone será la Internet del próximo milenio. Volveremos a ello en el capítulo 11.
[9] Hasta 1995 la NSF había invertido anualmente unos 11 millones de Dólares USA en el desarrollo de la NSFNet.
[10] La Biblioteca del Congreso de los Estados Unidos de América, [url]http://www.loc.gov[/url], está considerada la versión contemporánea de la famosa biblioteca de Alejandría ( 6.7).
[11] El término lo hemos tomado de un proyecto, desarrollado por los propios estudiantes, en el que se fotografió detalladamente la disección de una rana por un experto y se montó de forma interactiva con texto sincronizado, en un CD-ROM. El proyecto está destinado a evitar y mejorar la frecuente (para algunos traumática) experiencia de diseccionar ranas en los institutos USA.
[12] Sin embargo, al igual que aquél (el sueño anarquista), es posible que la ilusión se evapore rápidamente. Actualmente (2002) contemplamos el intento desde muchos gobiernos del planeta para controlar la Red; España no es ajena al asunto con la polémica presentación de la denominada LSSI (Ley de Servicios de la Sociedad de la Información) o Ley de Internet. Para que el lector pueda hacerse una idea de por donde van "las tendencias", en el enlace adjunto puede verse un breve análisis de la citada Ley española, publicado en la Red por el doctor Luis Fajardo López, profesor de Derecho de la Universidad Autónoma de Madrid (España) [url]www.fajardolopez.com/materiales/claves_integra.html[/url]
[13] Creo recordar que con posterioridad (a 1998) IBM se deshizo de su red mundial de comunicaciones
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:06   #7
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
6 Problemas y peligros de la Red
6.1 La rana digital
§1 Entre los problemas potenciales de la Web, empezaremos por este, que puede afectar principalmente a las personas con poca formación y especialmente a los menores, muchos de los cuales tienden a la dispersión y a tener problemas de concentración. La extraordinaria facilidad para saltar de un punto a otro, tiene innegables ventajas y puede ayudar drásticamente a la formación y al conocimiento, pero también puede llegar a ser perjudicial para personas que no posean una cierta estructura mental previa consolidada.
Refiriéndose al tema de la información que puede encontrarse en la Web, Manuel Molina, un investigador de filología advierte: "Hay tal cantidad de datos, que podemos dedicar demasiado tiempo a su recopilación y a su gestión y menos a lo que es la creación, la utilización y el manejo de esos datos. La red es imprescindible, pero hay que usarla de forma racional para no perder de vista nuestro objetivo".
Aunque las ideas de hipertexto ( A5.1) y de hipermedia ( A5.4) son atractivas, una de sus características es la de poseer poca o nula estructura. Tender a una cierta desorganización de la información. En palabras de Jerry Pournelle [1]: "Todos hemos tenido la experiencia de ir a una enciclopedia para buscar alguna información y emerger horas mas tarde. Eventualmente hemos aprendido algo de esta forma, pero sospecho, que la mayoría de los que aprenden son los que van a la enciclopedia con una infraestructura intelectual previa en la que depositar los nuevos conocimientos. Hechos desorganizados no son ciencia, son meramente anécdotas, es incumbencia de una teoría estructurada el transformar anécdotas en datos... Se pueden espigar hechos en cualquier orden que uno desee. Esto puede ser útil para expertos bien cimentados en la materia del caso, pero en manos de principiantes, pueden ser herramientas de distracción mas que de aprendizaje".
*** El subrayado es mío.
La navegación libre por la Web puede llegar a ser tan instructiva (o perniciosa) como una sesión de "zaping" televisivo. Hace poco leíamos que "El uso desordenado de los ordenadores puede interferir en el desarrollo de las habilidades del niño para pensar lógicamente y para dintinguir entre realidad y fantasía".

[1] Byte Magazine. Septiembre 1995. "Of COM Ports and Digital Frogs".

6 Problemas y peligros de la Red
6.2 Control de contenidos

§1 Sinopsis
No debe extrañar que de entre los problemas señalados, destaque la preocupación de los padres, maestros, educadores y gobiernos por el acceso de los menores a contenidos potencialmente peligrosos, ya sea por sus contenidos de violencia, indecencia o cualquier otra razón. Ante las pretensiones de intervención gubernamental, solicitando algún tipo de "censura", la comunidad Internet, ultra liberal en su conjunto [1], reaccionó presentando en el W3C ( A5.3) la iniciativa PICS ("Platform for Internet Content Selection").
Nota: Todo lo relativo a la libertad de la Web es tenido muy en cuenta por la comunidad de Internautas; existen varias asociaciones orientadas a la defensa de los principios de libertad en Internet, entre ellas EFF ("Electronic Frontier Foundation" [2]); ACLU ("American Civil Liberties Union" [url]www.aclu.org[/url]) y el "Electronic Privacy Information Center".

§2 Criterios de control
Es generalmente admitido que Internet ofrece estupendas posibilidades educativas, por lo que se debe facilitar y fomentar el acceso a los pequeños, pero que como toda gran ciudad, tiene sitios potencialmente peligrosos [3], de los cuales es razonable apartar a los menores. La idea básica es permitir a los padres el establecimiento de filtros en la información accesible a los niños; filtros que pueden depender del criterio de los padres o de organismos de evaluación independientes (los que tengan edad suficiente recordarán los famosos "rombos" de TVE). Esto permitiría a los padres (antes que a los gobiernos) establecer que és o no és "indecente" para sus hijos. Como puede verse, se trata de una solución descentralizada y democrática, acorde con la propia naturaleza de Internet y del Web [4].
Desde el punto de vista técnico, esto ha supuesto establecer las especificaciones de unas "etiquetas" (metadatos 5.4) entendibles por el software de filtrado. Estas etiquetas PICS pueden obtenerse de muy diversas maneras, bien incluidas en un CD-ROM o sencillamente viajar con el resto del contenido que vendría "etiquetado". Pueden venir firmadas digitalmente [5], de forma que se pueda verificar su autenticidad con independencia de la forma en que se hayan obtenido. Aparte de la posible auto-calificación que puedan realizar los propios creadores de contenidos, otro método propuesto sería su obtención (en tiempo real) de compañías especializadas. Este método establece que protocolo utilizar cuando el consumidor "A" pide a la compañía "B" datos sobre clasificación de los "contenidos" del proveedor u origen "C".
Aunque PICS [6] introduce en la arquitectura del Web nuevos protocolos y formatos para los datos, y esta tecnología está pensada originariamente para satisfacer las exigencias de una cierta "decencia" en las recepciones, en realidad puede tener muchas otras aplicaciones y se pretende que los principios utilizados puedan aplicarse en desarrollos futuros.
Dado que la tecnología permite el establecimiento simultaneo de muchos sistemas y organismos de evaluación independientes [7], los protocolos que se desarrollan para "interrogación" de etiquetas, pueden ser utilizados también para indicar si el material puede ser utilizado para la enseñanza; su nivel de calidad en general; su orientación religiosa, política, etc. No solo pueden ser utilizados en contenidos Web, también en otro tipo de ciber-contenidos (juegos de consola, por ejemplo). Esta especie de "certificados de calidad" permitiría a cada uno seleccionar sus lecturas, compras, entretenimientos etc, con conocimiento de causa.
Las recomendaciones técnicas "oficiales" del W3C sobre la materia contienen especificaciones que permiten incluso que el cliente pueda establecer sus preferencias en esta materia en sus consultas de interrogación a los motores y dispositivos de búsqueda (ver capítulo 8). Entre los organismos de "evaluación de contenidos" existentes, podemos citar los siguientes:
NetShepherd [url]http://www.shepherd.net[/url]
Este sistema ha clasificado unos 300.000 sitios Web.

Safe Surf [url]http://www.safesurf.com[/url]
Este sistema ha catalogado unos 50.000 sitios.

RSAC [url]http://www.rsac.org[/url]
Esta última organización ("Recreational Software Advisory Council") independiente y sin ánimo de lucro, pretende establecer un sistema objetivo de auto-etiquetado que permita a los creadores de software de entretenimiento y de otro tipo (como los editores Web), establecer una auto-evaluación de contenidos atendiendo a cuatro aspectos de la información que pudieran ser potencialmente ofensivos: Sexo, Desnudo, Violencia y Lenguaje obsceno (por su vulgaridad o su contenido de odio); dentro de cada aspecto se establecen cinco niveles.

Nota: Este sistema está contenido en MS I Explorer , por lo que lo comentamos someramente.

§3 Criterios de filtrado
Una sinopsis de los criterios anteriores se expone en la tabla que reproducimos por si algún lector está interesado en saber que significan esos iconos que aparecen en el navegador y cuales son los criterios generales que se han tenido en cuenta para la "evaluación".
Violencia:
• Nivel 4: Violencia perversa y gratuita.
• Nivel 3: Muerte con sangre y horror: Personas malheridas o muertas.
• Nivel 2: Muerte: Personas o criaturas malheridas o muertas con complacencia en el daño a criaturas que no representan una amenaza.
• Nivel 1: Lucha: Criaturas malheridas o muertas con daño a imitaciones muy realistas.
• Nivel 0: Sin violencia: Sin violencia agresiva ni violencia natural, o accidental. Contenidos deportivos.
Desnudez:
• Nivel 4: Desnudos frontales (exhibiciones provocativas).
• Nivel 3: Desnudos frontales.
• Nivel 2: Desnudos parciales.
• Nivel 1: Vestidos sugerentes o atrevidos.
• Nivel 0: Ninguna de las anteriores.
Sexo:
• Nivel 4: Actos sexuales explícitos.
• Nivel 3: Actos sexuales no explícitos.
• Nivel 2: Tocamientos sexuales con ropa.
• Nivel 1: Besos apasionados.
• Nivel 0: Besos inocentes, Romances: No se muestra actividad sexual, simplemente romance.
Lenguaje:
• Nivel 4: Lenguaje explícito o cruel: Lenguaje extremadamente crudo y vulgar. Referencias sexuales explícitas, odio extremo.
• Nivel 3: Gestos obscenos: Lenguaje vulgar y malsonante con gestos obscenos. Uso de epítetos. Palabras gruesas o de odio.
• Nivel 2: Interjecciones y reniegos moderados: Reniegos sin referencias a la anatomía sexual. Blasfemias, tacos.
• Nivel 1: Reniegos suaves: Reniegos suaves, o términos suaves para las funciones fisiológicas.
• Nivel 0: Jerga inofensiva sin palabras soeces.



§4 Hay que destacar que los principales fabricantes de software del sector (de navegadores), MicroSoft y Netscape se han sumado a la iniciativa, permitiendo la posibilidad de este tipo de control en sus navegadores.
En el caso de MS I Explorer 4.0, dispone de un "Asesor de contenidos". El ajuste puede hacerse en:
Inicio Þ Configuración Þ Panel de Control Þ Opciones de Internet Þ Contenido Þ Asesor de contenido (ver figura adjunta).
Por defecto tiene instalado el sistema RSCA anteriormente descrito, pero permite que pueda instalarse cualquier otro sistema normalizado de evaluación de contenidos.
Permite establecer independientemente cualquiera de los cinco niveles para cada uno de los cuatro contenidos potencialmente peligrosos. La selección queda protegida por una contraseña (de supervisor) que es necesario conocer para acceder a los contenidos o cambiar los criterios de filtrado. Una vez establecida la contraseña y el "perfil" de protección deseado, caben dos opciones:
• Los usuarios pueden ver sitios no restringidos. Especifica si las personas que utilizan este equipo tienen permiso para ver el material no restringido.

Si esta casilla de verificación está activada, es posible que cuando el autor de una página Web no la haya clasificado con el sistema de restricciones que usted emplea, los usuarios puedan ver material cuestionable.

Si esta casilla de verificación está desactivada, los usuarios no podrán ver ninguna página Web que no se haya clasificado según su sistema de restricciones, independientemente de que su contenido sea adecuado o no.
• El supervisor puede especificar si desea permitir que los usuarios que conozcan la contraseña de supervisor pueden escribirla para poder ver páginas Web que contengan contenidos posiblemente cuestionables.

Si esta casilla de verificación está desactivada, aparecerá un mensaje indicando que no se le permite ver la página Web y que no se le permitirá escribir la contraseña de supervisor para verla.
En lo que se refiere a política de seguridad, como señala BBN Internet Services (Cambridge, MA), pueden esquematizarse cuatro posturas básicas:
• Paranoica: Sin conexión a Internet. Todo está prohibido, incluso lo que debiera o pudiera estar permitido.
• Prudente: Todo está prohibido excepto lo que sea permitido explícitamente.
• Permisiva: Todo está permitido excepto lo que se prohíba explícitamente.
• Inexistente: Todo está permitido, incluso lo que quizás debiera estar prohibido.

[1] Como botón de muestra: "Una declaración de independencia del Ciberespacio" [url]http://memex.org/barlow.html[/url]. En cualquier caso, los intentos de control gubernamental no se deben exclusivamente a cuestiones morales, sino a la ancestral tendencia de los gobiernos a controlarlo todo. Respecto a la Web en concreto, se han producido múltiples intentos, tanto de control de contenidos como de limitación de la encriptación (por citar dos ejemplos).
[2] Puede obtenerse mas información al respecto, e incluso asociarse a la Electronic Frontier Foundation en: [url]www.eff.org[/url]. La organización mantiene una lista de correo; para subscribirse puede obtenerse enviando un e-mail a: [email]listserv@eff.org[/email], poniendo la frase: "subscribe effector-online" (sin las comillas) en el cuerpo del mensaje.
[3] En cualquier caso, Internet contiene material polémico, calificado por algunos como "Apoyo al terrorismo" y como "información" por otros (por citar un ejemplo).
[4] Entre las organizaciones que se preocupan por los contenidos en relación con los niños, está Netparents. Una organización nacida del acuerdo de compañías comerciales, organizaciones no lucrativas y personas interesadas en educar al público en el uso de las nuevas tecnologías. Pueden obtenerse mas datos sobre Software de filtrado y bloqueo de contenidos, organizaciones de verificación de contenidos, sitios adecuados para niños etc. en la sede oficial de esta organización [url]www.netparents.org[/url].
[5] La tecnología de seguridad y encriptación electrónica dispone actualmente de procedimientos por los que se pueden establecer estas "firmas electrónicas", que incluidas en un documento garanticen de forma inequívoca la autenticidad de su origen, de forma mejor quizás que las autógrafas tradicionales ( A6.4). Se están estudiando así mismo procedimientos para asegurar la recepción (o al menos el envío), como podría ocurrir con una carta certificada.
[6] PICS está alojada en el W3C y puede consultarse en: [url]http://www.w3c.org/PICS[/url]
[7] Aunque esta tecnología y aplicaciones están aún en su infancia, ya existe una iniciativa de la Universidad de Michigan, denominada PICS Application Incubator ( [url]http://www.si.umich.edu/~presnick/PICS?incubator/[/url]) que permite ver las "etiquetas" que diversos organismos de clasificación han otorgado a un mismo "sitio" (URL).

6 Problemas y peligros de la Red
6.3 Privacidad
"La privacidad... No te preocupes por ella... Simplemente no existe!!"
Anónimo.
§1 Introducción
Las cuestión de privacidad en la Red que tratamos en este epígrafe, es solo una faceta de un todo mucho más amplio: la privacidad, en general, de los ciudadanos en los países tecnológicamente desarrollados.
Ciertamente los avances tecnológicos han mejorado sustancialmente nuestra calidad y esperanza de vida. Sin embargo, existe un reverso de la moneda. Parece que también han sentado las bases para una progresiva pérdida de la privacidad que corre el riesgo de evaporarse (si no lo ha hecho ya). Para situar al lector en una perspectiva global sobre el asunto, en el Apéndice I ( Ap. I) presentamos una introducción general sobre el tema y su situación actual.

§2 Sinopsis
Una cuestión generalmente desconocida por el gran público, es que al "visitar" los sitios Web, los navegadores proporcionan cierta información sobre el equipo que se conecta. De forma que los editores de contenidos pueden recolectar alguna información sobre los "visitantes" de sus páginas. Resulta así que las "visitas" y paseos por el ciberespacio no son totalmente anónimas.
Cada vez que nos conectamos a un sitio, inevitablemente proporcionamos cierta información: Quién es nuestro ISP y cual es la identificación de su servidor; Sistema Operativo y Navegador que utilizamos; resolución de pantalla y número de colores de nuestro sistema; tipo de procesador de nuestro equipo; nuestro IP (aunque hemos visto -IP dinámico A3.6- que esto puede cambiar de una conexión a otra); cual es el último servidor que visitamos (de donde venimos [0]); fecha y hora de nuestro sistema, etc.
Nota: Heche un vistazo a la sección "Privacy Analysis of your Internet Connection" del sitio Privacy Net que señalamos en el apartado de referencias .

Por motivos publicitarios, comerciales, o de otra índole, a los Webmasters [1] les interesa a veces obtener la máxima cantidad de información de los visitantes, por lo que han desarrollado denominados "contenidos" que viajan junto con las páginas Web hasta los ordenadores de los clientes. Estos contenidos, Cookies ( Nota-12), applets Java y JavaScript, pueden ser auténticos Caballos de Troya que se introducen en el ordenador cliente y pueden realizar múltiples actividades, incluso de espionaje. En algunos casos pueden bloquear determinados controles del navegador, es el denominado Hijacking. Otras veces son inocentes programitas que despliegan toda esa serie de anuncios móviles y "monerías" similares que estamos acostumbrados a ver en nuestras navegaciones [2]. En casos extremos pueden realizar virtualmente cualquier acción en nuestro propio sistema.
Nota: Un caso revelador es el del propio MicroSoft, que en uno de sus "sitios oficiales". Al entrar en la sección de "Actualizaciones", realizaba un completo chequeo de los programas de nuestro propio ordenador, señalando que componentes del software estaban actualizados y cuales deberían actualizarse. Es fácil suponer que de la misma forma, una de tales "inspecciones" puede obtener virtualmente cualquier información contenida en nuestro sistema y enviarla a cualquier sitio de la Web.
Algún tiempo después de publicada esta nota, recibimos una noticia de seguridad que amplía y confirma las sospechas anteriores ( A6.3w1)
En ocasiones esta recogida de información se reconoce en la "letra chica" de los contratos de suministro de servicios. A título de ejemplo incluimos un párrafo del contrato de ADSL de la Compañía Telefónica española.
"TELEFÓNICA DE ESPAÑA podrá emplear tecnología de recogida de información con la finalidad de adaptar el Servicio a las preferencias de los CLIENTES, proveer nuevos servicios así como nuevas prestaciones y facilidades relacionadas con el Servicio ADSL, ofreciendo a los CLIENTES los productos y servicios que mejor se ajusten a sus preferencias. TELEFÓNICA DE ESPAÑA no empleará en ningún caso tecnología de recogida de información para recuperar información existente en el propio equipo informático del CLIENTE (excepto la proporcionada por las "cookies" de TELEFÓNICA DE ESPAÑA ya instaladas)".
Observe que a excepción de las "cookies" antes mencionadas , no pueden recuperar la información existente "en" nuestros equipos, pero en cambio "si podrá emplear tecnología de recogida de información...". Cabe entonces la pregunta: ¿De donde sacarán esta información?: acaso..., tal vez..., de nuestras propias transmisiones!!!???

§3 SpyWare, Adware y Malware en general
Las "Galletitas" (cookies) comentadas anteriormente, fueron solo el principio (bastante inocente por cierto). Por desgracia la cuestión ha ido a más; ocurre como siempre: los primeros marcan el camino, después otros lo ensanchan; finalmente otros lo vuelven intransitable.
Espoleada por la conveniencia de recabar datos y remitir publicidad no deseada, ha surgido toda una constelación de software que incluso ha alumbrado nuevas palabras, el software espía ("Spyware") o añadido subrepticiamente Adware; ambos incluidos dentro de la categoría general del "Malware". Se utilizan también otras denominaciones: Badware, Trojanware, etc. El problema es muy amplio y presenta numerosas aristas; aquí nos centraremos en los aspectos relativos a la privacidad, aunque hay algunas variedades que pueden darnos un disgusto serio. Por ejemplo los dialer.
Nota: Los dialer son programas que se cuelan subrepticiamente en nuestro ordenador, generalmente al visitar sitios con ciertos contenidos que se nos ofrecen gratuitamente (por ejemplo sitios "Porno"). Estos programas sustituyen las constantes de marcación de nuestro equipo por otras distintas, de forma que la llamada se realiza a través de una línea que factura a un precio muy elevado nuestros minutos de conexión. En los casos más graves esta alteración se produce de forma permanente, de forma que estamos llamando a una línea muy costosa mientras pensamos que utilizamos nuestra conexión normal de tarifa plana. Naturalmente la sorpresa llega con la próxima factura de la compañía telefónica, sin que podamos hacer ya nada al respecto.

Spyware se refiere a aquellas aplicaciones que de forma más o menos solapada se cuelan en nuestro sistema (en ocasiones instaladas bajo la cobertura de utilidades gratuitas), y envían información a sus creadores en los momentos de conexión a Internet. En ocasiones de forma totalmente subrepticia, sin que nos demos cuenta en absoluto, mientras que en otras tenemos vagos indicios de ello. Por ejemplo: un programa nos avisa inopinadamente que existe una nueva actualización cuando no le hemos dicho que mire en ninguna parte!!.
Nota: A partir de los ataques terroristas del 11 de Septiembre del 2001, las cuestiones de seguridad cobraron una inusitada importancia, No nos referimos aquí a los "Carnívores" y "Echelones", un software espía distinto que merece mención aparte [6].

Mejor que mis palabras permitidme una traducción más o menos libre, de la información contenida en uno de los programas (Ad-aware) que presento más adelante .
Spyware

Herramienta utilizada por los hackers. Puede ser utilizada para robar sus datos y enviarlos al hacker o a quién sea a través de Internet sin su conocimiento. Los caballos de Troya como Back Orifice and BackDoor-G son ejemplos de este tipo de software.
Que es spyware?

R: Spyware es sinónimo de sistemas de publicidad que utilizan secretamente su conexión Internet para descargar banners o enviar datos del usuario al servidor de alguna compañía con o sin conocimiento de este. Estas compañías construyen perfiles de los usuarios con fines estadísticos o los venden a terceros para que realicen publicidad.
Todas estas compañías tienen políticas de privacidad muy agradables, que es mostrada durante la instalación de su software en el equipo de los usuarios. Nuestra experiencia es que casi nadie es consciente del hecho que instalan un publicista parásito cuando instalan el "freeware" que hace de huésped del software espía. En cualquier caso es como la letra chica del contrato, obviamente cercano al fraude.
Cuando finalmente decidimos desinstalar la aplicación huésped (Freeware), el spyware aún permanece activo en nuestro sistema, de forma que el llamado "freeware" no es totalmente gratis, puede costarnos nuestra privacidad, o al menos ancho de banda (de la conexión) y recursos de procesador.
Por ejemplo, la compañía Radiate está muy ufana de sus cerca de 2.000.000 de víctimas (sí, es lo que proclaman en su página principal). Puede preguntarse cuantos de ellos son conscientes.

Uno de los ejemplos más paradigmáticos y (en mi opinión) odiosos, es el famoso diccionario Babylon [url]www.babylon.com[/url]. Este software, realmente útil y práctico, apareció como un producto gratuito. Al principio, "inocentemente", solicitaban que se sugirieran palabras o se incorporaran nuevas definiciones y/o correcciones; yo mismo envié alguna sugerencia, y supogo que como yo otros miles (o millones?) de confiados internautas, con lo que cómodamente entre todos escribimos el "Corpus" de un completo diccionario multilingüe (la parte más difícil, y costosa). Pasado un tiempo, nos ofrecieron una "actualización" gratuita, pero una vez descargada e instalada, descubrimos que el nuevo software no era ya gratuito, se trataba de una versión "Shareware"; pasados unos días dejaba de funcionar de forma completa [8]. Además, durante el periodo de prueba constantemente salen molestísimos anuncios que se muestran cada vez que se busca una palabra (incluso estando desconectados). Estos anuncios se renuevan constantemente, descargándose por Internet sin que tengamos constancia de ello (ignoro que otro tipo de información trasiega el referido programa...)
Propuesta: La idea de Babylon es buena; supongo que hay por ahí muchos estudiantes (y profesores) de informática pensando en un buen trabajo fin de carrera. Sugiero un ingenio de las características del mencionado; dotarlo de un sistema de envío/recepción de definiciones multi-lengua (podíamos empezar con el Español/Inglés), distribuirlo bajo licencia GNU [5] y situarlo en el host de alguna Universidad o cualquier otro sitio. En un ratito, entre todos, podemos hacer un producto por lo menos igual [4]. Si alguien lo inicia, por favor, ponedme un e-mail y permitidme poner un enlace en este sitio a la página correspondiente.
Nota: Existe una alternativa, es Atómica [url]www.atomica.com/;[/url] una enciclopedia, diccionario, traductor y centro de información que quizás puede competir con Babylon en algunos aspectos; también es posible acceder a la definición de un término con un clic de ratón; puede descargarse gratuitamente en la dirección arriba indicada. El único problema es que es preciso estar conectado a Internet, ya que el programa es realmente un interrogador a la base de datos de Atómica, que debe estar online. Es mucho más que un simple diccionario, una enciclopedia, pero sería deseable disponer de un diccionario-traductor que funcionase off-line, dejando la conexión para cuando se necesitase información adicional [13].

A poco de redactar estas líneas aparecía un nuevo caso en la prensa especializada informando del descubrimiento de una función oculta en el popular bazar de intercambio online KaZaA (ver la noticia: [url]http://iblnews.com/news/noticia.php3?id=33904[/url]).

§4 P3P
Debido a las inquietudes surgidas respecto a la privacidad, se creó en el seno del W3C ( A5.3) una Plataforma para las Preferencias de la Privacidad, conocida abreviadamente como P3P. Se trata de proyectar un estándar para la Web, actualmente (1998) a nivel de borrador, mediante el cuál se puedan controlar dos aspectos: Que los usuarios puedan informarse de la política seguida por los proveedores de contenidos en lo referente a privacidad y que, en lo referente a dichas prácticas, puedan ejercer sus preferencias, delegando las acciones oportunas en el ordenador cuando esto sea posible (que los navegadores tengan en cuenta cual es el nivel de intimidad que desea el usuario).
Nota: El 16 Abril del 2002, el W3C estableció oficialmente la especificación de la plataforma P3P como una recomendación que permite a sus usuarios definir y publicar su política de privacidad. Ayudando a automatizar la forma en que estas políticas son interpretadas. P3P también permite a sus usuarios controlar el uso que hacen, de su informacón personal, los sitios Web que visitan.

La teoría es que el cliente establece un "perfil de privacidad" (que datos permite sean conocidos y cuales no); el navegador comprueba cual es la política en materia de privacidad de cada servidor accedido, y proporciona información solo hasta el nivel determinado por el usuario. Si al llegar a un sitio, sus prácticas están de acuerdo con el perfil del usuario, la navegación sigue sin problemas. En caso contrario, es avisado y libre de seguir la navegación o no. Por supuesto se pretende que todo esto se realice de forma sencilla, de forma que los navegantes puedan tomar sus decisiones con independencia de su experiencia informática o de navegación.




En la figura adjunta se sintetiza el tipo de diálogo que podría establecerse entre cliente y proveedor en orden a un acuerdo sobre las prácticas de privacidad del sitio visitado [7].
Aunque la mayoría de las "visitas" Web pueden ser anónimas, en otras puede ser necesario proporcionar cierta información al proveedor del servicio. A menudo esta información se requiere para completar una transacción iniciada por el cliente. Por ejemplo: pueden requerirse datos sobre medios de pago (tarjeta de crédito), información fiscal (para emitir una factura) e información postal (para el envío) de un artículo adquirido por el cliente.
A este fin, los protocolos P3P prevén la posibilidad de que se creen repositorios donde se guarden aquellos datos del cliente que sean preguntados frecuentemente. Entre estos datos estarían el nombre del usuario, fecha de nacimiento, dirección postal, número de teléfono, dirección de correo electrónico, medios de pago, etc. Por supuesto que dichos datos solo serán facilitados a aquellos proveedores de servicios con los que el cliente llegue a un acuerdo.
La idea de un repositorio de este tipo presenta ventajas (y peligros) tanto para clientes como proveedores. En cuanto a los primeros, porque evita tener que repetir datos que pueden ser requeridos repetidamente, los segundos porque obtienen respuestas homogéneas cada vez que el cliente vuelve a visitar el sitio. Por otra parte, mantener los datos en un único repositorio facilitará a los fabricantes de software implementar las técnicas de seguridad adecuadas para evitar que sean objeto de ataques de virus, husmeadores (Cookies o Applets) y cualquier procedimiento que pretenda conseguir accesos no autorizados.
Completando estas ideas, se pretende implementar un vocabulario armonizado para describir el tipo de información que se pretende obtener, de forma que cada uno de los datos anteriores se identificara un nombre y un formato estándar de Internet, por ejemplo los utilizados en las vCard (ver capítulo 2). Se podrán solicitar los elementos de este repositorio individualmente o en conjunto. Por ejemplo, un servidor puede requerir su fecha de nacimiento completa o simplemente el año de nacimiento. La estandarización evitará que se reduzca la posibilidad de confusiones y errores resultante de que diferentes servicios soliciten la misma información bajo diferentes nombres.

§5 Protección de datos
En general existe bastante concienciación popular y gubernamental en lo que a la protección de datos se refiere (al menos en teoría; algo menos en la práctica). En España se han promulgado leyes relativas a las medidas de protección, seguridad y responsabilidad que deben mantener los administradores de sistemas que contengan datos con información personal de terceros [3].
La Agencia de Protección de Datos [url]http://www.ag-protecciondatos.es[/url], un Ente de Derecho Público (español), con personalidad jurídica propia y plena capacidad pública y privada, actúa con plena independencia de las Administraciones Públicas. Su finalidad principal es velar por el cumplimiento de la legislación sobre protección de datos personales informatizados y controlar su aplicación, en especial en lo relativo a los derechos de información; acceso; rectificación, y cancelación de datos. Esta Web incluye un Registro de Protección de datos, una lista de las bases de datos que contienen información personal y sobre las que la Agencia mantiene un seguimiento especial.

§6 Terapia y profilaxis
Conscientes del problema, algunos miembros de la comunidad Internauta han alzado la voz de alarma y preparado contramedidas que tratan de neutralizar la amenaza. Además de las herramientas de seguridad que ofrece el propio navegador, que comentaremos en el apartado correspondiente, existen varios tipos de ayuda: Programas que detectan cualquier actividad no autorizada en el ordenador [9] y/o ficheros sospechosos; sitios que mantienen bases de datos con información respecto de programas convictos o sospechosos de contener spyware o adware; filtros que se instalan en el navegador ("Browse filters"), y que previenen determinadas acciones hostiles desde Webs maliciosas, o sencillamente evitan que se envíe información sobre nosotros mismos, de forma que nuestra navegación sea lo más "anónima" posible (dentro de esta última categoría de software de protección están los anonimadores).

§6.1 Anonimato
Existen varias formas de conseguirlo, una es mediante el software indicado anteriormente (anonimizadores). Otra iniciativa para proteger la privacidad son los servicios de anonimato ("Anonymizers"). Se trata de servidores que hacen de tampón o conexión entre los sitios que queremos visitar y nosotros, el anonimador trae las páginas que queremos ver y nos las devuelve, actuando como un filtro, de forma que el proveedor no puede recabar información sobre nosotros (técnicamente su comportamiento es parecido al de un servidor Proxi).
Se trata de sitios que, a cambio de un canon, ofrecen el servicio no solo para la navegación, también proporcionan correo anónimo (nadie sabe quién es el remitente) e incluso de publicidad. Uno de los más conocidos es Anonymizer.inc [url]http://www.anonymizer.com[/url]

§6.2 Cifrado
Esta técnica se refiere a los contenidos. Es una forma de evitar que nuestras comunicaciones por Internet (principalmente correo electrónico) puedan ser leídas en caso de ser interceptadas.
Los métodos de cifrado pueden ser muy variados, el más utilizado a nivel popular es un sistema denominado PGP ("Pretty Good Privacy"), desarrollado en USA. También se ha utilizado la estenografía, un procedimiento por el que se ocultan mensajes en el interior de documentos aparentemente inocentes como imágenes o archivos de audio. Este último tiene el inconveniente de la gran cantidad de basura (el continente, imagen o fichero de audio) que hay que enviar para un contenido pequeño (el mensaje).
Cuando comenzaron a desarrollarse este tipo de productos, y a pesar que las versiones disponibles por el gran público pueden tardar solo unas 24 horas en ser descifrados [11], el gobierno norteamericano comenzó a poner inconvenientes para su desarrollo y exportación.
Nota: La limitación llegó al extremo de que hasta 1999 los programas de encriptación dura ("strong encryption") como PGP no podían ser exportados fuera de USA en formato electrónico. Esto motivó que cada vez que se lanzaba una nueva versión, PGP Internacional adquiría en importaba a Europa la versión impresa del código fuente, que era escaneada para reconstruir el programa original (la historia en detalle [url]http://www.pgpi.org/pgpi/project/scanning/[/url]).

PGP ha sido adquirido por Network Associates [12], de forma que el sitio USA redirecciona a una página de esta empresa ( [url]www.pgp.com[/url] ). Sin embargo, la FSF ("Free Software Foundation") ha desarrollado una versión equivalente GnuPG ("GNU Privacy Guard"). Una versión de descarga libre que es distribuida bajo licencia GNU [5]. Puede obtenerse en: [url]www.pgpi.org[/url]. Volveremos a referirnos a este programa al tratar de la seguridad en el correo electrónico ( 8.1.5).
Más información: [url]http://www.gnupg.org[/url]

§6.3 Otros recursos
Cualquiera de los sitios que se relacionan es buen punto de partida para ponerse al día de lo que ocurre en este lado oscuro de la Red (ver también la lista webográfica incluida al final ).

Ad-aware [url]www.lavasoft.de[/url]
AD-aware permite escanear el PC en busca de ficheros "espía" y borrarlos de forma segura. Pueden elegirse los módulos a eliminar, guardar ficheros de registro, y personalizar el menú del programa. El programa permite detectar y eliminar los ficheros de spyware bien conocido, como Aureate/Radiate, CometCursor, Cydoor, Conducent/Timesink, Flysway, Gator y Web3000. También incluye la detección de publicidad de Webhancer, DSSAgent, y Alexa.

Spychecker [url]www.spychecker.com[/url]
Este sitio contiene una base de datos con sitios e información respecto al software espía. Contiene una lista completísima de herramientas anti-espía freeware y shareware. Seguramente es el sitio por el que debería empezar su búsqueda si está preocupado por el tema.
Spyware info [url]www.spywareinfo.com[/url]
Sitio dedicado a proporcionar la herramientas y conocimientos necesarios para proteger la privacidad del ataque del software espía y de la vigilancia gubernamental y corporativa.

§7 Webografía
Existen en la Red bastantes sitios concernientes al tema de la privacidad, software espía y protección de datos.
Centre for Democracy and Technology [url]http://www.cdt.org/[/url]
EFF Electronics Frontier Foundation [url]http://www.eff.org/[/url]
Privacy Rights Clearinghouse [url]http://www.privacyrights.org/[/url]
Esta organización sin ánimo de lucro radicada en San Diego (USA), se interesa por la divulgación de hábitos seguros de privacidad para el público (como un ejemplo de la penetración de nuestro idioma en USA, contiene unas "Página Informativas" en Español). De lectura muy recomendable.
Electronic Privacy Information Center EPIC [url]http://www.epic.org[/url]
Esta organización se ocupa de los aspectos de la privacidad electrónica. En la página de recursos online sobre privacidad [url]http://www.epic.org/privacy/privacy_resources_faq.html#Privacy_Sites[/url], encontrará una lista muy completa.
Privacy net [url]http://privacy.net[/url]
Esta organización está dedicada a la privacidad de los consumidores. Especialmente interesante es la sección "Privacy Resources". También muy interesante de visitar la sección "Privacy Analysis of your Internet Connection" [url]http://www.privacy.net/analyze/[/url], donde puede comprobar la cantidad de información que pueden obtener de usted los Webmasters.

Si desea tomar medidas activas contra el posible spyware instalado en su ordenador:
SpyBot [url]http://spybot.safer-networking.de[/url]
PepiMK Software ofrece en sus páginas un programa para Windows en sus diversas versiones (desde W-95 en adelante), que puede identificar y destruir no solo el spyware instalado en su ordenador; también Trojans; Hijackers; dialers y otro Malware. Altamente recomendable si está interesado en estas cuestiones. Si navega mucho por la red y es algo "promiscuo" con programas y utilidades, quizás se encuentre sorprendido al enterarse de todo lo que tiene en su ordenador. Es un producto freeware, aunque el autor acepta donativos voluntarios.

Si quiere unos sitios más "técnicos":
Los foros de Becky: [url]http://www.morelerbe.com/cgi-bin/ubb-cgi/ultimatebb.cgi[/url]
Web Securite: [url]http://websec.arcady.fr[/url]
Web mantenida por Jean Balczesak, muy informativa y organizada. Adecuada si sabe leer francés.
Voiceofthepublic [url]http://www.voiceofthepublic.com[/url]
Sitio bién mantenido que le mantendrá al día de las últimas noticias en seguridad.
Gibson Research Corporation [url]http://www.grc.com[/url]
Steve Gibson mantiene este sitio en el que puede encontrar información sobre aspectos relativos a la seguridad.
Privacy Power [url]http://accs-net.com/smallfish[/url]
Una buena referencia con bastante información, especialmente la página "Adware, Badware & Spyware".
IDcide [url]www.idcide.com/[/url]
La compañía IDcide se ocupa de las cuestiones de privacidad a nivel privado y de empresa. Dispone de un software de descarga libre: Privacy Companion un add-on para el navegador MS I.Explorer que le permite detectar cuando está siendo espiado en la Red, y el nivel de privacidad que desea.
Spaceports [url]http://mir.spaceports.com[/url]
Esta empresa dispone de Proxomitron ( [url]http://mir.spaceports.com/~ptron/[/url]), un completo y potente filtro para navegador Web de descarga gratuita.
Webwasher [url]http://www.webwasher.com[/url]
Webwasher ofrece otro potente filtro para navegador en dos versiones; una versión freeware y otra "Enterprise" shareware. También DynaBlocator, una base de datos para bloqueo de accesos a determinados contenidos desde los navegadores. La empresa lo ofrece a compañías y organismos públicos alegando el costo que supone el mal uso de Internet -navegación a sitios inadecuados- de los empleados [10].
Counterexploitation http://www.cexx.org
Sitio con cantidad de información sobre Spyware, Adware y Malware en general.

[0] Esta es la que se denomina información referida ("referrer information"). Cuando en el navegador pulsamos un enlace, de una página Web, se pide información a la URL referenciada (para que nos envíe la página), al tiempo que se le envía información de la URL de la que se ha tomado el enlace. Supuestamente esta información ayudaría a los Webmaster (ver punto siguiente) a comprobar los sitios desde los que se les visita, de forma que pueden comprobar que mecanismos de búsqueda han utilizado sus visitantes para encontrarlos.
[1] Webmaster: Persona que edita y controla el funcionamiento de un "sitio" Web.
[2] Para prevenir contenidos potencialmente peligrosos, los navegadores incluyen herramientas de control de los tales Applets y Cookies (ver capítulo 2).
[3] El texto de esta Ley es de recomendada (diría obligada) lectura para todos los responsables de sistemas informáticos que contengan información de este tipo.
[4] Aunque el proyecto es en principio "informático", seguro que el departamento de Lengua de alguna Universidad quiere prestar su apoyo para supervisar la inclusiones a partir del "Corpus" así conseguido.
[5] GNU Sistema de software no propietario, de dominio público, que está a libre disposición en Internet de forma que cualquiera puede bajarlo, modificarlo y redistribuirlo (el SO LINUX es su mejor exponente). El concepto fue iniciado en 1984 por Richard Stallman en el MIT como un medio de conseguir software gratuito y soportado por la comunidad informática. Sus ideas, expuestas en un documento que se ha llamado "El manifiesto GNU" ha sido traducido a casi todas las lenguas ( [url]www.gnu.org/gnu/manifesto.html[/url]). El proyecto está apoyado por la FSF ("Free Software Foundation"), que se encarga de recabar fondos para el proyecto.
Puede obtener más información sobre la vitalidad de este movimiento en OSDN ("Open Source Development Network") [url]http://www.osdn.com[/url]
La "gratuidad" y "libertad" de uso del software GNU se entiende de la siguiente manera:
• Primero. Libertad de realizar cuantas copias se desee y distribuirlas libremente.
• Segundo: Libertad de cambiarlo a nuestro gusto, para lo que se dispone del código fuente.
• Tercero: Libertad de distribuir libremente la versión modificada, de forma que se ayude a la comunidad.
En este último caso, deben ponerse los fuentes a disposición de la comunidad. Puede cobrarse una cantidad en concepto del acto de la copia y su soporte físico.
[6] Programas del gobierno y agencias federales USA que espían a discreción todo el tráfico de la Red. Las palabras del Fiscal General estadounidense, John Ashcroft son suficientemente explícitas: “Vamos a perseguir el terrorismo en Internet, vamos a abrir sus correos electrónicos antes de que ellos los lean, a escuchar sus mensajes telefónicos”.
[7] PUID es un método por el que el usuario se identifica frente a un servicio bajo un acuerdo específico y durante un tiempo determinado. Estas identificaciones corresponden a un campo de interés ("Realm") determinado y a un acuerdo concreto. Son enviadas dentro de las cabeceras P3P como parte de la identificación de acuerdo (agreementID), que acompaña a cualquier petición a un servidor.
La identificación de acuerdo (agreementID) es un pequeño trozo información que señala que ambas partes (prestador y receptor) de un servicio, están de acuerdo para un propósito determinado, es como la rúbrica de aceptación de este propósito. La presencia de esta rúbrica en la cabecera P3P es la declaración definitiva de que el acuerdo es efectivo para un campo determinado.
[8] A este respecto vea lo indicado en Privacy Power!, un "site" dedicado a cuestiones de la seguridad y privacidad (en ambos casos respeto el original inglés): "Updates may change a previously ad-free version into an adware product. All this makes for a confusing mess and users need to be on guard when installing any type of software".
En otro sitio (Cexx.org): "Drug Dealer Ware* is software/services that are peddled the same way a drug dealer drives sales of addictive dope: It's given away for free, until the user is "hooked" on it, at which point the prices are jacked up. Some Adware products are distributed in this manner, as well as many "free" internet services such as email, web space and internet access. For example, an adware developer may set up his/her software so that it masquerades as a Freeware product for a length of time, until the user has gotten accustomed to freely using this "freeware" as part of his/her daily life, created files in this program's proprietary format, etc., and is somewhat "stuck" to it. Then the program suddenly changes from Freeware to $hareware or Advertising Supported $hareware. While a normal user looking for a software product may see a program listed as Adware and keep looking, someone who's already wasted the time downloading this one may not have the ambition to start the search all over again (hence more $$$ for the drug dealer developer, and one of the reasons it is created in the first place). This is a shameful and deceptive practice that, much like an actual drug dealer, often targets children".
[9] Estos programas, denominados genéricamente husmeadores de paquetes ("Packetsniffer"), detectan transmisiones no deseadas en Internet.
[10] De acuerdo con un estudio de Abril del 2002, elaborado por el FBI y el Computer Security Institute, en un 78% de las empresas encuestadas se detectó un uso indebido de los accesos a Internet por parte de sus empleados. Más sobre esta noticia y las medidas que suelen tomar los responsables de informática de las empresas en [url]http://www.internetnews.com/dev-news/article/0,,10_1015141,00.html[/url]
[11] Los sistemas de cifrado más avanzados necesitan un mes de plazo para ser descifrados por métodos normales, lo que les hace indescifrables a efectos prácticos. Sin embargo, entre estos métodos "Normales" no se encuentran por supuesto los métodos extraordinarios de computación con que cuentan los gobiernos como el Norteamericano ( Nota-10) o el Japonés ( Nota-15).
[12] En Enero de 1998 saltaba la noticia: "Network Associates adquiere PGP. Network Associates ha anunciado la compra de PGP, firma cuya tecnología utilizará para desarrollar una nueva gama de productos de seguridad en las empresas. El futuro de PGP, y sobre todo de sus versiones gratuitas, resulta todavía incierto..."
[13] Como un ejemplo vivo de lo que venimos diciendo, algún tiempo después de subir esta página a la red, cuando vuelvo a utilizar mi vieja versión de Atómica descubro que el servicio ha dejado de ser gratuito.

6 Problemas y peligros de la Red
6.4 Cifrado y firmas digitales
"Es más seguro dormir en un edificio con un riesgo remoto de que se derrumbe, que dormir a la intemperie con riesgo cierto de coger una pulmonía".
Eduardo Torroja (Ingeniero Español).
§1 Sinopsis
Con el incremento del tráfico de documentos por la red, y especialmente relacionada con la seguridad del correo y el comercio electrónicos, está la cuestión de la autenticidad de documentos. ¿Cómo podemos estar seguros de que un documento que recibimos es de quién dice que es? [1]. ¿Realmente lo ha enviado el supuesto remitente?. Existen varias respuestas, una de ellas consiste en ingeniar el método y la tecnología para incluir en los documentos una "firma electrónica" (digital) que identifique biunívocamente y sin duda a su emisor [2].
Para responder a estas interrogantes, se ha creado en el seno del W3C ( A5.3) un grupo de trabajo dedicado al estudio de esta cuestión, el Dsig ("Digital Signature Working Group").


Su objetivo es establecer unos estándares para establecer unos códigos (firmas digitales) entendibles por los ordenadores, que contengan información fiable sobre el origen de un recurso concreto.

§2 Cifrado
Es fácil comprender que esta cuestión de las "firmas electrónicas" está íntimamente relacionada con las técnicas de cifrado (encriptado) de datos, y que aparte de militares y gobiernos, existen muchos intereses comerciales en ello. Por ejemplo, las instituciones bancarias son las primeras interesadas en garantizar la seguridad de las transacciones electrónicas, que a fin de cuenta son "mensajes" que transportan datos.
Las técnicas de cifrado, métodos de encriptar mensajes de forma que no pueda ser descifrados por terceros, salvo los conocedores de la "clave", son casi tan antiguas como la propia escritura. En ocasiones el conocimiento de los métodos utilizados por el enemigo han servido para definir el resultado de algunas contiendas, y su búsqueda ha movilizado considerables esfuerzos ( Nota-3).
Resumiendo podemos decir que el método clásico, denominado de clave simétrica [0], única o privada, consiste en encriptar el mensaje original por medio de esta clave; el mensaje resultante (cifrado), junto con la clave utilizada para crearlo deben ser conocidas por el receptor. Este método es útil para determinadas circunstancias, por ejemplo mensajes militares, pero no sirve para otros usos, por ejemplo probar que el mensaje es de quién dice ser; este último punto debe ser probado por otros métodos. Por ejemplo, en un mensaje militar podría ser por la identidad del mensajero.

§3 Cifrado de clave pública
Este método es distinto del anterior, para exponerlo en dos palabras, digamos que este sistema utiliza dos claves, que son en cierta forma complementarias. El fundamento teórico del método se basa en la dificultad matemática y computacional para encontrar los factores primos de números muy grandes, así pues, el tamaño de la clave da idea de la seguridad del método empleado.
Nota: Con la capacidad de cálculo de los ordenadores modernos, las claves pequeñas pueden ser violentadas de forma relativamente fácil. Como veremos a continuación, con las capacidades de proceso actuales (2002), una clave de 1.024 bits es casi inexpugnable con recursos "normales" de computación.

La literatura académica está llena de estudios sobre el tema, nos limitaremos a señalar que los algoritmos utilizados actualmente funcionan basándose en la denominada Criptografía de Clave Pública [3] cuyo esquema de funcionamiento es el siguiente:
Existen dos claves para cada persona, denominadas clave privada y clave pública. La privada (o secreta) solo es conocida por el propietario, la pública (como su nombre indica), puede ser proporcionada a todo el que la necesite. El proceso se realiza en dos pasos: La clave privada se utiliza para generar la firma (o documento cifrado, en su caso); la clave pública sirve para descifrarla. El sistema tiene la importante propiedad de que cada clave hace exactamente lo contrario que la otra, de forma que solo la pública puede descifrar lo que ha cifrado la privada y viceversa [4]. Resulta por tanto que se puede verificar así su autenticidad, al poder garantizar que solo el poseedor de la clave secreta pudo haber generado el mensaje. Así pues, el sistema tiene propiedades de cifrado y autenticación. Por supuesto, es imposible averiguar la clave privada a partir de la pública [5].
El sistema tiene también otra importante aplicación: La posibilidad de enviar un mensaje específico a una persona determinada, de forma que solo él pueda leerlo con la seguridad que es nuestro. Para ello, primero ciframos el mensaje original A con nuestra clave privada, con lo que obtenemos un mensaje cifrado B; después ciframos B con la clave pública (que suponemos conocida) del destinatario, con lo que obtenemos un texto C que le enviamos. Cuando este recibe el texto C, puede descifrarlo utilizando su clave privada, con lo que obtendrá el texto B; este texto puede descifrarlo utilizando nuestra clave pública, con lo que obtendrá el original A con la garantía que es nuestro. Observe que aunque el texto C caiga en manos de terceros, no podrán en ningún caso desvelar su contenido.
Estas propiedades gozan de las premisas necesarias para constituir una "firma electrónica". En efecto, si una persona puede descifrar la firma de alguien utilizando su clave pública conocida [6], es forzoso que fue ella la que la cifró, de forma que el mensaje en sí mismo puede considerarse como una especie de firma electrónica que nadie mas puede reproducir.

§4 Algoritmos de clave pública
Los algoritmos de este tipo más conocidos son:
Firma DSS, Desarrollada por el US NIST ("National Institute for Standards and Technology") en colaboración con la NSA (National Security Agency). Es un sistema meramente de firma, es decir, solo autenticación. Fue elegido como obligatorio para las compañías que mantienen negocios con el Gobierno Americano.
Nota: Se argumenta que fue elegido porque al ser solo firma, no limita la capacidad del gobierno USA para meter las narices en los asuntos ajenos, de forma que este tipo de software puede exportarse (desde USA) libremente y sin restricciones.

Firma RSA [7], también de clave pública, sirve no solo para firmas, también para cifrado general de contenidos, por lo que su exportación está (1997) sujeto a severas restricciones por parte del Gobierno USA, esto a pesar de que, como hemos señalado, los fundamentos matemáticos del sistema son universalmente conocidos.
Dentro de este campo, ocupa una posición especial la empresa RSA Data Security, fundada por los creadores de la primera versión comercial del método, que a pesar de haber tenido que afrontar numerosos litigios y controversias con las autoridades, es propietaria de las principales patentes en este campo y ha sabido consolidarse como líder en la fabricación de herramientas software para seguridad y encriptación. Entre sus clientes están MicroSoft, IBM, SUN y Digital.
Una variedad de este sistema, es el DES ("Data Encryption Standard"); estándar de cifrado adoptado en 1997 por el gobierno federal USA que utiliza una clave RSA de 56 bits, cuya seguridad ha sido repetidamente cuestionada.
Como anécdota, señalar que en 1977, la RSA Data Security creó un pequeño mensaje encriptado con la clave RSA-129 de su propio sistema (así denominada porque su clave es de 129 dígitos, 429 bits) y desafió públicamente a toda la comunidad cibernética a que intentara descifrarlo, ofreciendo una recompensa de 100 dólares al que lo consiguiera. En 1993 Arjen K. Lenstra un científico de los afamados laboratorios Bell, aceptó el desafío y en mayo de 1994 anunció que había reventado la clave después de 8 meses de esfuerzos.
En realidad los 8 meses no fueron de programación o de tiempo de proceso de algún ordenador, la complejidad de encontrar los factores primos de números tan grandes, requirió la organización de un "metacomputador", una especie de confederación de muchos ordenadores, cada uno de los cuales trabaja en una parte del problema. En este caso, el proyecto requirió de la potencia de 1600 ordenadores (PCs y Workstations [8]), así como la contribución por Internet de 600 colaboradores distribuidos por todo el país.
En la actualidad han surgido varios proyectos encaminados a utilizar la gigantesca fuerza de computación distribuida que suponen cientos de ordenadores esparcidos por la Red trabajando de forma concertada en proyectos de este tipo. Entre las organizaciones que coordinan estos esfuerzos de forma pública, está Distributed Net; en su sitio Web [url]http://www.distributed.net[/url] puede encontrarse toda la información al respecto, incluyendo información sobre los trabajos en curso. También pueden descargarse módulos de programas para sumarse a los proyectos. La última hazaña (Enero 99) había sido descifrar un mensaje cifrado con la clave RSA Data Security DES Challenge III en 22 horas y 15 minutos utilizando la fuerza bruta de 100.000 PCs conectados a la Red.
Posteriormente, en Septiembre del 2002 Distributed Net anunciaba una nueva hazaña: el reto RC5-64 de la RSA también había sido vencido, y conseguido el premio de 10.000 USD. En esta ocasión el desafío consistía en reventar un mensaje cifrado con una clave RSA de 64 bits, y habían sido necesarios casi cinco años de esfuerzos.
A pesar de esto, la confianza y fiabilidad del sistema no ha sido puesta en duda. De un lado está la dificultad de reunir una fuerza de cómputo análoga [10], de otro, los sistemas de encriptación actuales utilizan claves de 512 a 1024 (o más) bits de largo. Se estima que descifrar una clave RSA de 1024 bits requeriría un trabajo de proceso 3 x1011 MIPS-año [9].
Nota: A poco de redactar las líneas anteriores, nuevas noticias perfilan el estado actual de esta cuestión (siempre cambiante) de la relación seguridad Û longitud de clave utilizada ( Nota-17).

§5 Webografía
En la nota adjunta se incluye alguna información adicional sobre los fundamentos teóricos del sistema de clave pública; el sistema RSA y los esfuerzos de distributed.net por descifrar sus claves, y alguna bibliografía complementaria ( Nota-14).

Hispasec [url]www.hispasec.com[/url]
Una empresa de consultoría y formación sobre temas de seguridad electrónica. Es un buen punto de inicio si está interesado en los aspectos de la seguridad en Internet. Contiene secciones sobre criptología, virus, legislación, etc. en español. Publican un boletín diario sobre seguridad, notas sobre nuevos virus, actualizaciones y parches de seguridad, etc. Si quiere estar al día recomendamos la subscripción (gratuita) al mismo.
La firma electrónica [url]www.fajardolopez.com/materiales/Fajardo_RJUAM.html[/url]
De lectura muy recomendable si desea profundizar en estos temas. Interesante artículo sobre sus aspectos jurídicos del doctor Don Luis Fajardo López, profesor de la Universidad Autónoma de Madrid (UAM). Después de una introducción de los aspectos técnicos, hace referencia a las directivas de la Comunidad Europea y un análisis comparativo de las normas alemana y española. Aunque de contenido técnico, está escrito en un tono alejado de la verborrea jurídica, resultando conciso y entendible por el profano.

[0] En relación a que la clave para descifrar el mensaje es la misma que se utilizó para cifrarlo.
[1] Existe un famoso chiste al respecto: En una viñeta dos perros "navegando" frente al ordenador. Uno de ellos dice al otro: "Lo bueno de Internet es que nadie sabe que eres un perro".
[2] El sentido informático de firma electrónica es exactamente el mismo que en el lenguaje corriente. Recordemos que desde un punto de vista semántico, Rúbrica o Firma es un signo o señal que identifica biunívocamente a una persona porque (supuestamente) nadie mas puede realizarla (imitarla exactamente).
[3] También conocidos como de "Clave dual" y "Clave asimétrica", en contraposición con los de "Clave única", que tienen el inconveniente de necesitar compartir la clave entre el emisor y el receptor, por lo que son mas vulnerables y entrañan problemas adicionales.
[4] Si el propietario cifra algún contenido utilizando su clave pública, es evidente que permanecerá secreto para todo el mundo, ya que solo puede descifrarse con la clave secreta (que solo él conoce).
[5] Existe una explicación de los fundamentos matemáticos del proceso en "How Public-Key Vtypyo works" Byte Magazine Junio 1997.
[6] Como no hay nada perfecto, según veremos a continuación, este es justamente uno de los problemas del sistema: Como garantizar que la clave pública es realmente de quien se supone... (el sistema acaba siendo el cuento de las muñecas rusas).
[7] El sistema fue desarrollado en 1976 por Whitfield Diffie y Martin Hellman en la Universidad de Stanford, pero debe su popularización a tres profesores del MIT, Ronald L. Rivest, Adi Shamir, y Leonard M. Adleman (de ahí el nombre, Rivest-Shamir-Adleman), que realizaron la primera versión utilizable y fundaron una compañía para explotar comercialmente el sistema (RSA Data Security).
[8] Literalmente "Estación de Trabajo". Se denominan así ordenadores de tamaño y potencia intermedia entre los PCs y los grandes mainframes. Generalmente de usos específicos para ingeniería, diseño, etc. Se caracterizan por su elevadas capacidades gráficas y de cálculo (casi todos los efectos especiales con que nos inunda el Cine actual se han realizado en este tipo de estaciones).
[9] MIPS forma (unidad) de medir la capacidad de proceso de un ordenador. Millones de Instrucciones que es capaz de realizar en un segundo.
[10] Desde esta óptica resulta más que evidente uno de los posibles motivos del gobierno USA para disponer de las herramientas de cómputo más potentes que puedan proporcionar el dinero y la tecnología ( Nota-10). Por otra parte, el anuncio de la existencia de un supercomputador japonés mucho más potente aún que el anterior ( Nota-15), parece que obligará a reconsiderar que longitud se deberá emplear para considerar una clave como verdaderamente segura.

6 Problemas y peligros de la Red
6.5 Certificados digitales

§1 Sinopsis
Como el lector habrá adivinado rápidamente, todo este sistema del cifrado y las firmas electrónicas ( A6.4), conduce al problema de verificar si la clave pública es realmente de quien dice ser. Generalmente los usuarios de esta tecnología añaden su clave pública a los mensajes salientes con objeto de que los receptores no tengan que consultarla en algún repositorio de claves públicas, pero ¿Cómo puede estar seguro el receptor de que el mensaje no ha sido enviado por un intruso que pretende suplantar la personalidad del supuesto remitente? Pensemos en una orden de traspaso de saldo bancario u orden de pago por Internet, por citar un ejemplo.

§2 Certificados digitales
Para resolver (en parte) el problema se idearon los identificadores digitales (que se han traducido al español como Certificados Digitales). En esencia, el sistema consiste en que la parte de clave pública que acompaña al mensaje va a su vez "certificada" (viene a su vez cifrada y firmada) por un organismo o autoridad en quien sí confiamos, o cuya clave pública si conocemos sin margen de duda (algo así como conseguir un certificado notarial de una firma o la compulsa de un documento).
En organizaciones privadas o públicas, esta persona puede ser un director de seguridad o gabinete de certificación. En Internet, se trata de compañías multinacionales que se encargan de esta labor, se denominan CA ("Certification Authorities") [1]. Funcionan como notarios que nos proporcionan certificados digitales de nuestra propia firma pública, mediante el pago de cierta cantidad por supuesto.

El procedimiento operativo será entonces el siguiente: Recibimos un mensaje firmado; la clave pública del remitente viene cifrada y firmada por una autoridad de certificación; decimos que viene acompañado de un "Certificado" de la compañía "X" de certificación, cuya clave pública conocemos sin lugar a dudas. El receptor usa la clave pública en que confía para verificar que el "Certificado" es auténtico; el certificado le señala a su vez que la clave pública del remitente es auténtica. Hecho esto, la utiliza para comprobar que la firma (o el documento) es auténtica.
Si queremos que nos certifiquen la firma (para incluirla en nuestros mensajes), acudimos a una de estas autoridades de certificación y, previo pago, obtenemos un certificado. Es un fichero de varios miles de bits que contiene la información indicada en la tabla adjunta.
Información de identificación del firmante:
Nombre, Dirección, Empresa.

Clave pública del firmante.

Fechas de validez (caducidad) del certificado.

Número de certificado

Firma digital de la Autoridad de Certificación e información de la misma.

En el cuadro siguiente se muestra la firma digital de un documento (un correo electrónico) de Hispasec, una consultora de seguridad [url]www.hispasec.com[/url].
-----BEGIN PGP SIGNATURE-----
Version: PGP 6.5.2
iQCVAwUBPMnQhutaAupcB1VZAQHsoAQAlPU/H8tARnyh1l3DT3EGdg9SorYTwW2u
oDv4KFHlIcoXfzqku12Rwt47rolLvGVlCEjM/0ZPvICDqb+yq1L204WsK0NGsh16
ZyaKeM/E1MKsNMMNZXItJv/pWX7ayzYbSezDCuJaUBApZvVorOJRgxcxP+MzkBc1
bPz05gO9row=
=UmlY
-----END PGP SIGNATURE-----

Para comprobar que el correo es precisamente de quien dice ser (Hispasec), en el mismo mensaje se incluye una línea señalando que la clave pública está en su sitio Web:
Llave pública PGP en [url]www.hispasec.com/claves/NoticiasHispasec.asc[/url]
Una vez consultada, la citada clave pública tiene el siguiente aspecto:
-----BEGIN PGP PUBLIC KEY BLOCK-----
Version: PGPfreeware
6.5.3 for non-commercial use
mQCNAzxOrToAAAEEAMtBJCAL9PI1txpv1clYuF288vPd0kqHbbawW7TzxWwAUpN1 QkwNXNaGXJDQfjW9SOM3OL1mA83z/lZjEHXSwoH51FbysFleecTzJ4E46he6zULa CI253aUJDAwubdb2sE7frJ+nMF1Tpw6u0hnh4pSiL2W5tdAh2etaAupcB1VZAAUR tDBOb3RpY2lhcyBIaXNwYXNlYyAtIDIwMDIgPG5vdGljaWFzQGhpc3Bhc2VjLmNv bT6JAJUDBRA8Tq5eFxV8KKYYQ6EBAdBsBACYT25i0WAq77ll1SF2d2r7iwQ2Kwh1 798gF1WqJzIE0PUA3lIQBzlJjtTde51U5X2gQcxElIDmkD/Hai0gydfbQ+wEd8V2 uNt15jiv1hWbiu5YtJXlGoxQCPeAZ5tRWanlXgSvEDodwnJFFdFocC1cIYNt+9ue mx1p11IXBHshwg==
=AZVA
-----END PGP PUBLIC KEY BLOCK-----

§3 La pirámide de confianzas
Fácilmente se comprende que comienza a construirse una "pirámide de confianzas". Si no se confía en la autoridad de certificación se deberá establecer un nivel superior que la avale en el que "si" confiemos, etc.
Se dice que un certificado es raíz cuando ya no tenemos necesidad de verificarlo. La principal tarea consiste precisamente establecer esta pirámide de confianzas. En la realidad cotidiana de Internet los certificados producidos por estas compañías de certificación bien conocidas se consideran certificados "raíz", pero se admite que pueden establecerse jerarquías superiores. Se piensa, por ejemplo que las Naciones Unidas certificaran a los gobiernos de los diversos países, por ejemplo al de EEUU, el cual certificaría a los organismos federales y a los gobiernos de los estados, los que a su vez certificarían los organismos locales, etc.

[1] En la legislación española se denominan Prestadores de Servicios de Certificación (PSC).

6 Problemas y peligros de la Red
6.6 Identificación personal

§1 Sinopsis
Como puede adivinarse fácilmente, una parte importante de la seguridad concierne al asunto de la identificación personal en el acceso a los servicios, es decir: Que en base a una total seguridad en la identificación del operador, pueda garantizarse que en el sistema solo pueden hacer determinadas cosas determinadas personas.

§2 Métodos de identificación
Desde un punto de vista general puede afirmarse que la informática aborda esta cuestión atendiendo a tres modelos de identificación:
• Primer nivel: Idenficación en base a algo que se tiene, por ejemplo, una credencial con una fotografía, con una banda magnética, una tarjeta inteligente, una llave, etc.
• Segundo nivel: Identificación en base a algo que se sabe; por ejemplo, una clave de acceso o palabra de paso (password), un número de acceso PIN (personal identification number), etc. Este ha sido el método tradicional mas comúnmente empleado y no abundaremos en su consideración por ser sobradamente conocido.
• Tercer nivel: Identificación en base a algo que se és o algo que se hace. Es la denominada tecnología biométrica a la que nos referiremos a continuación .

§3 Tarjetas inteligentes
Este método pertenece al denominado primer nivel (identificación en base a algo que se tiene); Una propuesta de identificación se basa en la utilización de las denominadas Tarjetas inteligentes ("Dongles"). La teoría es que las susodichas tarjetas, que incluyen un chip en su interior, son capaces de crear firmas digitales únicas, así pues, la identificación se basa en la posesión de la tarjeta, de la misma forma que nos identificamos con el DNI [1] o sacamos dinero del cajero con la tarjeta del banco y un número secreto, por ejemplo. La tarjeta acompaña al usuario que la introduce en una ranura especial del ordenador para "firmar" determinadas operaciones, o para identificarse como tal y tener acceso a determinados servicios.

El proceso de conexión a un servidor para una transacción o solicitud de servicio determinado, es mas o menos como sigue:
Þ El cliente solicita la conexión.
Ü El servidor envía una petición de identificación, cadena de reto; esta cadena cambia constantemente para prevenir ataques reiterados.
Þ La tarjeta firma el reto y lo devuelve al servidor.
Ü El servidor comprueba la firma y autoriza o deniega el servicio.

Este tipo de soluciones son especialmente interesantes para las personas que tienen que identificarse remotamente a un servidor u ordenador central, ya que evitan la posibilidad de que alguien robe la contraseña (a cambio naturalmente de no perder la tarjeta). Especialmente en aquellos casos en que un mismo usuario debe acceder a un servidor desde máquinas distintas.

§4 Biomediciones
En la actualidad se están realizando importantes esfuerzos para conseguir una identificación fiable de las personas en base a mediciones de características físicas y biológicas que se suponen son únicas e inimitables; se trata de una serie de tecnologías que aúnan recursos hardware, firmware y software muy sofisticados que se conocen bajo el nombre genérico de tecnología Biométrica.
Al hacer referencia a estas tecnologías, es importante hacer hincapié en que se refieren a sistemas de medición de determinadas características, físicamente medibles, que conduzcan a una identificación automática del sujeto, de forma que no se trata de ninguna clase de ayuda a la identificación humana.
Entre las características que se utilizan cabe destacar: Rasgos Faciales; Huellas dactilares; Geometría de la mano; Geometría del iris; Huella de la Palma de la mano; firma, y voz.
Nota: A raíz de los sucesos del 11 de Septiembre del 2001, todos los aspectos de la seguridad han cobrado gran importancia, incluyendo los aspectos de identificación biométrica, que ha experimentado un fuerte incremento en cuanto a los esfuerzos I+D empleados en esta rama de la seguridad informática. Se leen frases como: "Alta tecnología contra el terrorismo", sin embargo, algunos aspectos de esta "Alta tecnología" (informática o apoyada en ella), tienen connotaciones realmente inquietantes.

§5 Identificador de firmas
La compañía LCI ( [url]www.lcigroup.com[/url] [2]), ha desarrollado un bolígrafo especial denominado LCI-smartpen que está dotado de una minúscula pila y de la electrónica necesaria para analizar y almacenar las características biométricas de nuestra firma.


Teóricamente puede identificar mejor una firma que un experto calígrafo, dado que puede evaluar no solo la geometría (trazo), también otras "en tiempo de trazado", como presión, inclinación, velocidad y aceleración del grafo (está dotado de sensores de fuerza y acelerómetros).
La conexión con el PC es sin cable, y se realiza mediante un módulo de criptografía de que está dotado para garantizar que la transmisión bolígrafoÛPC sea segura. Con este sistema, para firmar una transacción o lograr un acceso que requiera identificación solo habría que "firmar" con el bolígrafo en cuestión (suponemos que las características biométricas de nuestra firma estarían previamente almacenadas en un repositorio).

§6 Identificador de huellas dactilares
Basándose en el hecho conocido de que no existen dos huellas dactilares iguales, se han desarrollado sistemas específicos de reconocimiento de imagen que permiten identificar las huellas (poniendo el dedo en un captador adecuado); existen ya unidades incluidas en el propio teclado para colocar en un PC e identificar a los posible usuarios autorizados con la misma facilidad con que un escáner identifica un código de barras.

Este sistema remedaría en cierta forma el viejo sistema de "poner el dedo" para la firma de personas que no saben escribir. También en este caso suponemos que para firmar con el sistema, debe existir una copia de nuestra huella dactilar en un repositorio adecuado. Tiene la ventaja de que esta es una "tarjeta" de identificación que siempre llevamos con nosotros y que no requiere recordar ninguna clave.

Nota: En Abril de 2002 la credibilidad de las tecnologías biométricas sufría un serio revés cuando saltaba a los medios la noticia de que utilizando medios caseros, un japonés había conseguido crear un dedo artificial de gelatina con el que era fácil engañar a los sistemas de reconocimiento digital.
La noticia ponía de nuevo en candelero la cuestión de la seguridad "digital". Se planteaban cuestiones como las siguientes [3]:
"Un usuario confiable sufre una amputación del dedo, o daños en sus
yemas tras un fin de semana de bricolaje?
Y si el usuario confiable sufre de ceguera parcial y no puede pasar el
escáner retiniano debido a sus cataratas y, como es de imaginar, no
existen mecanismos de autenticación de respaldo?
Y si tras una larga noche tenemos ronquera y nuestra voz es
irreconocible?.
Y si estamos afónicos o tenemos congestión nasal?".
Evidentemente estas situaciones son extremas, además, si no amputamos un dedo tampoco podemos firmar en la chequera ni quizás ir a la oficina. Sin embargo, a buen seguro que la tecnología dará respuesta a estas cuestiones y la identificación biométrica (mediante el ADN?) aumentará su eficacia.
Mientras tanto, el consejo parece ser no confiar del todo en la tecnología (ni en los seres humanos tampoco).

§7 Webografía
Biometrics Catalog [url]www.biometricscatalog.org/[/url]
Portal con información sobre tecnologías biométricas patrocinada por el Gobierno USA (que últimamente está muy interesado en estas cuestiones). Incluye una extensa introducción e historia sobre biométrica, así como noticias, textos legales, documentos gubernamentales, informes de investigación, evaluación de productos, e información sobre proveedores y consultores.
ICSA ("Internet Computer Security Agency"): [url]www.icsa.net/services/consortia/cbdc/links.shtml[/url]
Si está interesado en saber mas sobre el tema, un buen punto de comienzo puede ser en esta página de enlaces de biométrica.

[1] DNI Documento Nacional de Identidad.
[2] Esta firma desapareció de la Red en algún momento posterior a Septiembre del 2001
[3] Boletín Hispasec "Una-al-día" 27/05/2002 [url]http://www.hispasec.com/[/url]

6 Problemas y peligros de la Red
6.7 Volatilidad de la información

§1 Sinopsis
A estas alturas (2002) casi nadie discute que Internet, y más específicamente la Web, constituyen una fuente inagotable de información, que incluso logra sorprendernos un poco más cada día a los que llevamos algunos años de "navegación" y muchos más en esto de la informática.
Por supuesto hay también mucha, ¿demasiada? basura, o para ser más precisos, demasiado ruido en la línea (nos hemos referido tangencialmente a ello cuando hablábamos de "La rana digital" 6.1). A veces es necesario cribar mucha paja para conseguir algún trigo, pero aún así, hoy día la Red es, con mucho, la mejor enciclopedia que puede concebirse; es seguro que dentro de poco albergará todo el saber humano [1].
Aparte del problema de su localización, al que dedicaremos un capítulo, otro de los problemas de la información en Internet es su ubicuidad, que se traduce en una cierta "volatilidad". Nos referimos concretamente al hecho de que cierta información que hoy está en un "sitio" (una URL Ap. G), mañana ya no aparece. Es el motivo principal del famoso y fatídico mensaje: "404 page not found" (se ha estimado que la información contenida en la Web tiene un periodo medio de permanencia de 75 días).
Las razones pueden ser muy diversas. Mucha información está albergada en páginas más o menos "personales"; son publicadas por aficionados o profesionales de ciertas materias que cambian de criterio o sencillamente de servidor, ya que muchos de ellos se hospedan en "Sitios" gratuitos. En algunas ocasiones nos hemos encontrado con que una magnífica información sobre tal o cual materia, publicada en una dirección que corresponde a la página de un profesor asociado en la Universidad X, que sencillamente ya no aparece porque ha pasado a la Universidad Y. Quizás era profesor visitante o invitado en algún departamento; o sencillamente un doctorando que una vez terminado su trabajo ya no es localizable en el mismo sitio. Pasado un tiempo esta persona es ya historia en la institución, y los responsables del departamento sencillamente borran sus ficheros.
Es muy frecuente, especialmente en empresas e instituciones, que determinada información desaparezca porque los responsables del sitio ya no la consideran relevante, o quizás porque haya cambiado la política de publicación de sus gerentes. En las empresas muy grandes, del tipo Microsoft o Intel por ejemplo, determinada información suele desaparecer porque quizás corresponda a productos que se consideran obsoletos o son retirados del mercado. También es muy frecuente que los Web master realicen reestructuraciones de los sitios Web, lo que origina que la información no esté en el sitio esperado (con suerte quizás la encontremos todavía en algún otro rincón de la misma Web). Por esta razón, a menos que se encuentren en una Web muy grande, las referencias no deben ser demasiado precisas. Por ejemplo esta página que está leyendo tiene la siguiente dirección: [url]http://www.zator.com/Internet/A6_7.htm;[/url] sin embargo cualquier reestructuración de la Web de Zator Systems podría cambiarla de sitio; mucho mejor sería referenciarla como: [url]www.zator.com[/url] Tutoriales Internet Problemas y peligros de la red Volatilidad de la información. Aunque mucho menos directa, posiblemente esta última forma de localización resistiera mejor el paso del tiempo.
En un mundo empresarial muy dinámico, son frecuentes las desapariciones de empresas (la "recesión .com" ha hecho desaparecer a muchas), también las absorciones y fusiones. La resaca de estos movimientos empresariales se deja sentir también en sus sitios Web que son rápidamente eliminados o reestructurados. La información suele cambiar de sitio o ser sencillamente eliminada para adecuarse al "estilo" e intereses del nuevo propietario.
El resultado de todo esto es una cierta dificultad añadida al asunto de la búsqueda. Ya no se trata solamente de encontrarla y anotar su dirección, el problema es que quizás mañana ya no será accesible. En un reciente estudio realizado en USA sobre apuntes que los profesores habían dejado en Internet para uso de sus alumnos, se descubrió que poco después de su publicación del orden de un 15% de los enlaces utilizados ya no eran válidos.
El problema es tan insistente que la mayoría de los sitios Web que contiene información sobre información, por ejemplo colecciones de enlaces, suelen disponer de medios estandarizados para que los propios usuarios informen al webmaster de los enlaces rotos o problemáticos. Aparte de esto, existen programas que automáticamente chequean los enlaces de una web para verificar su validez [4].
Nota: En este sentido, el sistema antiguo del libro "en papel" es sin duda superior. Un libro editado siempre será el mismo y tendrá su mismo contenido. Si nos interesa mucho lo compramos; en caso contrario siempre podremos buscarlo en la biblioteca o en la librería. Si es muy antiguo en la librería de usado, para lo cual Internet es también un fantástico aliado [2].

Mi recomendación al respecto es que si el asunto le interesa mucho, no confíe en que la información seguirá estando allí maña; es preferible sacar una copia, impresa o electrónica, y guardarla para ulteriores consultas [3].

§2 Intentos de solución
El problema al que aludimos ha sido reconocido, e incluso relacionado con las veces en que, a lo largo de la historia, la humanidad ha sufrido pérdidas irreparables en su patrimonio cultural. Por citar un par de casos infaustos, el incendio de la famosa Biblioteca de Alejandría, que supuestamente albergó la totalidad del saber de su época [url]http://www.greece.org/alexandria/library/library1.htm[/url], o la casi total desaparición de la enciclopedia Yongle.
La biblioteca de Alejandría, creada unos 300 años A.C. estaba considerada una de las maravillas del mundo antiguo. Desgraciadamente, sus contenidos se perdieron para siempre; físicamente dividida en dos partes, el edificio original, más cercano al puerto, fue devastado por un incendio durante la guerra entre Cesar y el faraón Ptolomeo XIII en el año 48 antes de nuestra era. El segundo edificio, que correspondía a una ampliación, estaba situado más al sur, dentro de la misma ciudad egipcia, y sobrevivió a la época imperial romana hasta que fue destruido en el siglo IV por el emperador Teodosio junto con otros templos "Paganos" [7].
The New Bibliotheca Alexandrina A Link in the Historical Chain of Cultural Continuity [url]http://www.slis.uwm.edu/SLIS/[/url] Buscar este título del doctor Mohammed M. Aman. Un magnífico resumen sobre lo que significó este foco del saber antiguo en el SOIS "School of Information Studies" de la Universidad de Wisconsin en Milwaukee (USA).

Posiblemente la versión contemporánea de la Biblioteca de Alejandría sea la Biblioteca del Congreso de los Estados Unidos [url]www.loc.gov[/url], sin duda la mayor concentración de libros y documentos del planeta; aunque actualmente ha sido sobrepasada, no en cuanto a libros físicos, sino respecto al total de la información contenida.
La enciclopedia Yongle, la más antigua del mundo, con 11.095 libros en 22.877 volúmenes, fue recopilada entre 1403 y 1407 bajo el mandato del emperador Yongle, de la dinastía Ming, más de tres siglos antes de que el francés Denis Diderot concibiera la primera enciclopedia en Occidente en el siglo XVIII. A su terminación era doce veces más grande que la compilada en la Francia de la Ilustración. De sus 11.095 volúmenes quedan en la actualidad sólo unos 400 desperdigados por varias bibliotecas del mundo [url]http://www.china.org.cn/english/31248.htm[/url]
[url]http://english.peopledaily.com.cn/200204/18/eng20020418_94279.shtml[/url]


§3 La nueva biblioteca de Alejandría
El proyecto de reedificar una nuevo centro que pudiese devolver a Egipto y a la humanidad, un lugar comparable a la antigua Biblioteca de Alejandría, comenzó a gestarse en la década de 1980. En 1989 un estudio noruego de arquitectura resultó vencedor del concurso internacional convocado al efecto. Los trabajos de construcción se iniciaron en 1995; finalmente, veinte años más tarde, el 23 de Abril del 2002 fue inaugurado oficialmente un complejo edificio construido por el Gobierno Egipcio, con ayuda de la UNESCO y de organismos culturales de todo el mundo [5]. [url]http://www.unesco.org/webworld/alexandria_new/[/url]
Sus 13 plantas, con 60.000 m2 construidos sobre una superficie de 40.000 m2 permiten albergan unos ocho millones de libros. Sus fondos actuales (2002) no llegan ni con mucho a esta cantidad, aunque contiene unas 50.000 cartas y mapas, 100.000 manuscritos y 10.000 libros antiguos de incalculable valor, así como gran cantidad de material multimedia.
La nueva biblioteca concebida como albergue del saber humano, incluye centro de convenciones y conferencias; un museo de la ciencia; un planetario; un laboratorio de restauración y conservación; un museo de manuscritos, y es el centro de la Escuela Internacional de Estudios de la Información ISIS ("International School of Information Studies"), aunque ha sido criticada por algunos como una obra "Faraónica" que desentona con el actual desarrollo social, económico y político del citado país norteafricano. [url]http://www.bibalex.gov.eg/[/url].

§4 El archivo de Internet
Las consideraciones relativas a la cantidad de saber humano perdido a lo largo de la historia, al que nos hemos referido, así como la necesidad de preservar la cantidad de información que cada día desaparece de la Internet, propiciaron el nacimiento de una iniciativa realmente espectacular y atrevida, que bajo el nombre de Archivo Internet ("Internet Archive" [url]www.archive.org[/url]), pretende nada menos que archivar todo lo que existe en la Red, así como otro material gráfico y sonoro de la historia reciente.
Desgraciadamente una inmensa cantidad de material gráfico, en forma de fotografías y películas de inestimable valor histórico y cultural, han desaparecido para siempre debido a accidentes, desastres, desinterés, e incluso al deseo de recuperar la plata contenida en las emulsiones fotográficas. Ni que decir tiene que la mayoría de emisiones radiofónicas y de TV también han desaparecido para siempre en el éter. Además, en palabras de Brewster Kahle : "La Red vuelve a nacer y se destruye con cada día que pasa. Está claro que no podemos permitirnos el lujo de perder la oportunidad de capturar lo que fue".

El archivo se inicia cuando Brewster Kahle, un joven millonario norteamericano decide crear una versión cibernética de la legendaria biblioteca de la antigüedad. Su misión volvería a ser albergar todo el saber humano, comenzando por el material disponible en la Red. Una idea propia de un visionario o de un loco, y que no se había intentado llevar a la práctica en los últimos 2300 años, desde que Ptolomeo I decide crear la famosa biblioteca de Alejandría bajo la dirección de Demetrius de Phaleron.
Nota: Parece ser que la idea le surgió cuando supo que no existen registros históricos disponibles de las primeras emisiones de televisión, puesto que nadie pensó entonces que más tarde podía ser un material histórico muy valioso.

A Brewster Kahle no le faltaban ni la experiencia ni los conocimientos técnicos para saber que su idea distaba mucho de ser utópica. En 1982 se había graduado en el famoso MIT ("Massachusetts Institut of Technology"), y había trabajado para Thinking Machines, una compañía de Cambridge, Massachusetts, que se había dedicado al tratamiento de información en superordenadores. Posteriormente, en 1989 [8] había creado el sistema WAIS ("Wide Area Information Servers system"), una especie de índice temático de la Web. En realidad uno de los proto-buscadores de Internet junto con Archie, gropher o VERONICA (volveremos sobre ellos más adelante), que en la época de la "fiebre" .com vendió a AOL ("America OnLine) por 15 millones de dólares USA.
Nacido en 1996, la ubicación del Archivo Internet corresponde a un sitio casi tan extravagante como la idea; Kahle consiguió unos locales para desarrollar su proyecto en el presidio de San Francisco, California. El archivo funciona como una institución sin ánimo de lucro, y ha recibido ayudas de otras instituciones norteamericanas seducidas por la magnitud del proyecto, su utilidad y su audacia técnica.
En principio se limitó a almacenar información de la Web bajada las 24 horas del día por los robots y arañas [9] de Alexa (otra empresa [url]www.alexa.com[/url] creada también por Kahle y relacionada con Internet) y trabajar con las colecciones del Instituto Smithsoniano y la Biblioteca del Congreso.
En principio la colección sólo incluía texto hasta 1996, pero Internet Archive comenzó a recopilar información un ritmo de cerca de 200 imágenes cada 5 segundos. Las cifras concretas se quedan rápidamente anticuadas, además la mente humana tiene cierta dificultad para imaginar magnitudes demasiado grandes (o demasiado pequeñas), pero los sistemas automáticos del Archivo Internet añaden mensualmente a sus fondos una imagen de 10 Terabytes ( E1.7.1) del estado de la Red, lo que representa aproximadamente la mitad del contenido de la Biblioteca del Congreso!!.
De momento el Archivo no dispone de ningún sistema de búsqueda específica (que sea conocido y accesible por el público), pero a finales de Octubre del 2001 fue inaugurado un servicio de búsqueda de las URLs almacenadas: The Wayback machine; algo así como una máquina del tiempo que permite acceder al estado de un sitio tal como estaba hace meses o años; el sistema permite incluso visitar sitios que ya han desaparecido.

Por supuesto una empresa de estas características y magnitud presenta problemas e inconvenientes no existentes hasta el momento. Uno de ellos, las cuestiones de la propiedad intelectual. Por ejemplo: Que sucede si el propietario de cierta información publicada, decide posteriormente retirarla de la Red?.
Podemos adelantar que la política del Archivo Internet parece ser muy respetuosa al respecto. Basta solicitar la exclusión para que (en palabras de Brewster) los contenidos sean "Borrados de la historia..." . Además existe la posibilidad de incluir en las páginas Web determinadas etiquetas ("Tags") que advierten a los robots que no deseamos que nuestra información sea escaneada automáticamente.
Por otra parte, sabemos que no es físicamente posible rastrear la totalidad de la Web por estos métodos automáticos; existen infinidad de sitios de acceso restringido mediante claves de acceso, o en los que hay que rellenar ciertos formularios de entrada. De forma que el tamaño real de la Web es desconocido y sus contenidos parcialmente insondables.

[1] Otra cuestión será la del acceso a toda esta información; posiblemente no todo será libre y gratuitamente accesible. Esto de la "gratuidad" es una idea que poco a poco irá desapareciendo de una parte de la Internet.
[2] El autor ha tenido ocasión de comprobarlo en un par de ocasiones. Recientemente he tenido ocasión de encontrar y adquirir, por Internet una novela de un autor italiano, Guido Milanesi, por el que llevaba años preguntando cada vez que encontraba una librería de usado o una feria del libro. Finalmente lo encontré en Estados Unidos!!; un libro en español, editado en Barcelona en 1944, del que seguramente la edición original no fueron más allá de 500 ejemplares.
[3] Aunque el derecho no es mi especialidad, entiendo que una copia para uso exclusivamente personal de lo publicado en Internet y de acceso público no es ilegal en la mayoría de los casos. Sin embargo, sea precavido, algunas publicaciones electrónicas actuales pueden contener limitaciones relativas a:
• Prohibición de copiar el material al portapapeles ("Clipboard"), de forma que no puede ser copiado a otro documento.
• Prohibición de realizar copias impresas.
• Prohibición de ser prestado o cedido a terceros
• Prohibición (incluso) de ser leído en voz alta.
[4] A título de ejemplo podemos citar Xenu [url]http://home.snafu.de/tilman/xenulink.html[/url] un programa que cumple bastante bien su cometido, con la ventaja de ser gratuito ("freeware").
[5] Debido a la guerra, no declarada, entre Palestinos e Israelitas, desgraciadamente los actos no tuvieron la debida repercusión en los medios internacionales.
[6] "Vitruvius, in the first century (de Arch. VII. praef. 1-2) expresses the appreciation and gratitude felt by subsequent generations for the work of the 'predecessors' in preserving for the 'memory of mankind', the intellectual achievements of earlier generations". Profesor Moustafa El-Abbadi; "The ancient Library of Alexandria" [url]http://www.greece.org/alexandria/library/library12.htm[/url]
[7] Como puede verse, otra de las "instimables" aportaciones del cristianismo a la cultura occidental y del mundo.
[8] Algunos autores sitúan la fundación de WAIS en 1991.
[9] Robots y arañas ("Bots" y "Spiders"), nombres que reciben los programas automáticos que recorren Internet en busca de información que es analizada y almacenada. Generalmente la información utilizada por los buscadores de Internet, Altavista, Yahoo, Google, etc, se recopila mediante estos programa
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:09   #8
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
7 Dispositivos de acceso a Internet
Generalidades
"Aprender a desenvolverse por Internet no solo significa manejar con soltura los aparejos, también implica aprender a relacionarse". (Antonio Caravantes en Anecdotario Grumete).
§1 Sinopsis
En este capítulo se exponen los medios, tanto físicos (hardware) como lógicos (software), necesarios para conectar a la Red, de forma que el alumno adquiera un conocimiento suficiente de que son, para que sirven y cuales son las posibles alternativas a los elementos que le permitirán acceder a Internet.
Además del propio ordenador, los dispositivos y servicios necesarios para conectarse a Internet podemos agruparlos para su estudio en cuatro apartados:
• Proveedor: Abreviadamente PSI (Proveedor de Servicios de Internet) o ISP ("Internet Service Provider") en la literatura inglesa. Empresa que presta determinados servicios informáticos (de comunicaciones) y que conduce nuestras comunicaciones desde/hacia el resto de la Internet [1] ( 7.1).
• Adaptadores: Modems, y otros dispositivos que permiten la conexión eléctrica entre el ordenador y el exterior ( 7.2). Desde el punto de vista que aquí nos interesa, este "exterior" está constituido por la red de voz y/o datos de la compañía telefónica (en ocasiones puede ser una red de TV por cable).
• Portadores ("Carriers"): Líneas, generalmente telefónicas, que comunican el adaptador con el proveedor de servicios Internet. También incluimos en este apartado a las compañías que prestan este servicio de comunicación de datos ( 7.3). Actualmente una parte del camino puede ser inalámbrico (ver nota ).
• Software: Programas de comunicaciones de diversos tipos que, utilizando los protocolos adecuados, permiten conectar a la Red y utilizar los servicios que ofrece ( 7.4). Los más emblemáticos son los Navegadores (Browsers) que permiten acceder a la Web, aunque hay de muchos tipos (clientes de correo electrónico, de Chat, de búsqueda, etc).

Nota: La descripción anterior describe el estado de la cuestión en el momento de la redacción del original de estos apuntes (1998), y corresponde a un modelo de uso basado en el ordenador personal (PC) conectado a la Red a través de las líneas telefónicas. Actualmente (2002) comienza a popularizarse formas alternativas de conexión (y uso) de la Red. Se trata de formas móviles [3], sin cables ("Wireless"), una palabra que utilizaremos mucho en el futuro. Los dispositivos conectados no son solo el ordenador personal (fijo o portátil); también una serie de dispositivos de mano ("Hand helds"; PDA's [2]; teléfonos móviles, etc) dotados de los correspondientes elementos para conexión inalámbrica, vía radio, a "bases" o puntos de acceso, que permiten conexión a los dispositivos móviles que se encuentran dentro de su radio de alcance (unos cientos de metros).
La facilidad de comunicación "Wireless" entre dispositivos ha motivado que comience a hablarse de PANs ("Personal Area Networks") que estarían constituidas por diversos dispositivos del usuario en una red sin cables. Por ejemplo: Ordenador personal (PC), videocámara, impresora, ratón, PDA, escáner, etc.

[1] Cuando estamos conectados a la Internet también formamos una parte (aunque sea minúscula) de la gran red de redes.
[2] PDA "Personal Digital Assistant"; dispositivo portátil tipo agenda a los que pueden adaptarse múltiples accesorios, incluyendo cámaras de foto digital, sistemas de posicionamiento por satélite GPS ("Global Positioning System"), teléfono móvil, etc.
[3] En estos días (Junio 2002) se comienza a hablar de la "revolución Mobility".

7 Dispositivos de acceso a Internet
7.1 Proveedor de Servicios de Internet (PSI)

§1 Que es, que hace un PSI
Con objeto de acercar las posibilidades de Internet a usuarios con escasa o nula infraestructura informática, o en cualquier caso, inadecuada para conectarse a la Red, aparecieron los Proveedores de Servicios de Internet PSI. Empresas que a cambio de un canon mensual, nos "alquilan" parte de los recursos necesarios (hardware y software) para que, a través de ellos, podamos acceder a la Red.

La conexión entre el usuario final y el PSI, se realiza normalmente mediante RTB (Red Telefónica Básica), siendo nuestra llamada conducida por la Compañía Telefónica hasta una máquina en la sede del PSI. A partir de este punto, comienza para nosotros el universo Internet. Esta máquina del PSI que permite al cliente conectarse a la Red se dice que es su pasarela ("Gateway") a Internet.
Los servicios ofrecidos son muy variados, pero el que podemos llamar básico, incluye una cuenta de correo [2], una conexión a Internet [3] y en algunos casos, un cierto "espacio" (capacidad de almacenamiento) para poder poner nuestra propia página Web o alguna otra información (ficheros para que alguien los descargue) [4].
Naturalmente, en caso que pongamos una página Web, su dirección en la Web, la que tendría que marcar en el navegador cualquiera que quisiese visitarla, seria una extensión de la dirección de nuestro proveedor (que es propietario de un dominio). Supongamos que hemos contratado con Nostracom (un PSI) un paquete básico. Nostracom es propietaria de un dominio (dirección) de nombre: "nostracom.com" (español por supuesto). La dirección que tendría la supuesta página Web del cliente "fulanito" sería algo así: [url]www.nostracom.com/clientes/fulanito/home.htm[/url]
En capítulos anteriores, hemos visto como el sistema DNS ( 3.5) no encuentra dificultad alguna para redirigir al servidor Web de Nostracom las llamadas a "nostracom.com". La parte siguiente de la dirección (clientes/fulanito/home.htm), es manejada por el propio servidor de Nostracom (como un asunto interno), le indican que debe dirigirse al directorio de "clientes" y dentro de este al subdirectorio "fulanito", una vez ahí, coger un fichero de nombre home.htm [5] y entregarlo al subsistema TCP/IP ( 3.1) para que lo expida al peticionario.
Con el correo ocurre otro tanto. A nuestro hipotético cliente le han dejado elegir un nombre (que no estuviere previamente ocupado) y como consecuencia, su dirección internacional de correo es algo así: [email]fulanito@nostracom.com[/email]
El sistema de correo de Internet (Internet-mail), otro de los servicios que proporciona la Red, también pregunta al sistema DNS y sabe que todo el correo con direcciones de la forma [email]cualquier-nombre@nostracom.com[/email] debe dirigirse a un servidor de correo situado en España (cuyo número es...). Conforme van llegando los mensajes, el servidor de correo de Nostracom (que puede acaso ser un ordenador distinto del servidor Web), va colocando la correspondencia en los buzones de cada cliente (lo que sigue a partir de este momento, lo veremos en el capítulo 8).

§2 Tener un dominio
Los proveedores pueden ofrecer un servicio mas completo: La posibilidad de contratar un dominio propio, es decir, tener una dirección Internet registrada. En nuestro caso, supondría tener una dirección que del tipo: fulanito.com, fulanito.es, fulanito.biz, etc ( Nota-7).
El registro de un dominio ( Nota-6) requiere un cierto "papeleo", que incluye: nombre de la persona o empresa, nombre de tres responsables (administrativo, técnico y de facturación), dirección, etc. y pagar anualmente unos derechos [6]. Aunque esto puede hacerse de forma particular, dirigiéndose al organismo adecuado, lo usual es que lo haga nuestro PSI, que en este caso funciona como una gestoría. En ambos casos se requiere que el nombre que pretendemos "fulanito", no esté registrado previamente [7]. En caso de un dominio .com, el organismo responsable es internic.com. En caso que se desee una terminación .es, el organismo es Rediris; el precio un poco más caro; el plazo un poco más largo, y las condiciones un poco más estrictas [8].
Una vez resuelto el problema burocrático-legal, necesitamos soporte físico. Esto nos lo proporciona también el PSI, que se encarga de alquilarnos los Mbytes necesarios para nuestro "sitio" así como el soporte duplicado para los servidores de nombres de nuestro dominio, etc. Se encarga así mismo de cualquier cuestión técnica de funcionamiento y de relación con la autoridad InterNIC o EsNIC [9]. Hace copias de seguridad periódicas (tiene "respaldado" el contenido), mantiene el servidor funcionando las 24 horas del día (Internet no duerme), se encarga de atender puntualmente los pagos anuales por el servicio, etc.
A la hora de cerrar estos apuntes (Otoño 1998) [1] los grandes operadores telefónicos encabezados por la propia Compañía Telefónica, han anunciado su intención de entrar en este negocio que hasta la fecha era ofrecido por pequeñas compañías privadas. Dado que ya controlan una parte del servicio (la transmisión de datos) y disponen de una enorme capacidad económica, es de esperar que asistamos rápidamente a la desaparición de las decenas de pequeñas compañías privadas que abrieron el mercado en la época difícil de los comienzos.
Años más tarde comprobamos que las previsiones de entonces se han cumplido. El 25 Julio de 2002 un artículo del periódico El País [url]www.elpais.es[/url], recordaba que en 1995 existían en España 3 PSIs, y que en 1998 ya encabezaba la lista de países con más Proveedores de Servicios de Internet. Entonces la oferta superaba a la demanda: más de 300 proveedores para 1,5 millones de internautas, mientras que en las mismas fechas, en USA había 150 proveedores para 60 millones de usuarios.
Tras la entrada de las grandes operadoras en el negocio, con sus políticas de competencia (desleal?) y de gratuidad, se produjo una paulatina desaparición y concentración de los proveedores, en el año 2002 se estimaba que subsistían menos de 50 de estas empresas con un volumen de negocio razonable.

§3 Criterios para elegir un PSI
Es este un tema para el que no pueden darse recetas generales, ya que las circunstancias varían grandemente según los casos, los núcleos de población en que resida el futuro usuario y los países (los consejos para elegir un restaurante no pueden ser los mismos para un habitante de Bangladesh que para un residente en Manhattan). Además, la evolución de la propia Red en la mayoría de los países ha hecho modificar los parámetros de evaluación.
A continuación se muestra el original inglés de la introducción a un artículo sobre este tema publicado a mediados de los años 90.
What do I look for when choosing an Internet Service Provider (ISP)?

In deciding which Internet Service Provider (ISP) to use, you should look for the following:
• Does the ISP support PPP?
• Does the ISP offer free technical support?
• What kind of connection speeds does the ISP support?
• Does the ISP support 56K modems? V.90 standards?
• What kind of search tools do they provide?
• Does the ISP have an adequate number of phone lines and a large enough pipe to the Internet in order to provide good response time?
• What range of services, such as mail, newsgroups and hosting, does the ISP offer, and at what charge?

Unos años más tarde algunas de las observaciones carecen de interés en la mayoría de los casos. Por ejemplo, actualmente (2002) será difícil, si no imposible, encontrar un PSI que no soportara PPP ("Point-to-Point Protocol"), un protocolo para transmitir paquetes a través de enlaces serie punto a punto.
Nota: PPP es uno de los sistemas más utilizados para establecer conexiones con Internet, ya que permite utilizar protocolos estándar, tales como TCP/IP, sobre conexiones telefónicas estándar. Es justamente el protocolo que permite conexión a redes a través de módem (Windows lo instala cuando se instala un módem o servicio RAS).

Tampoco se concebiría un PSI que no soportara servicio de e-mail (correo electrónico). En cambio, las herramientas de búsqueda que pueda ofrecer son irrelevantes. Internet ha desarrollado sus propios sistemas de búsqueda (programas y sitios) que son infinitamente superiores a los que pueda ofrecer cualquier ISP (que a la postre terminará usando los mismos que puede uno procurarse de forma independiente). Trataremos este punto con más extensión al tratar de las búsquedas en Internet.
Actualmente (2002), el resultado del movimiento de toma de posición iniciado en 1998, al que aludíamos en el párrafo anterior , se ha dejado sentir plenamente. Los grandes operadores, con Terra a la cabeza en España y sudamérica; AOL en USA, Retevisión, etc. han intentado copar el mercado configurándose como PSIs y ofreciendo este servicio incluso de forma gratuita [10].
Es muy importante no perder de vista que hay tres conceptos que los publicistas intentan enmascarar en un todo, mostrando la faceta que más les interesa. Por ejemplo, mostrándonos lo estupendos que son sus "Portales" y la cantidad de contenidos que tendremos a nuestra disposición si somos clientes "de pago".
Nota: Esto de los "contenidos" parece ser muy del gusto de los ejecutivos y publicistas de las grandes compañías, sobre todo cuando se empeñan en vendernos algo que no necesitamos en absoluto.

§3.1 Como decía, hay tres conceptos distintos que no conviene confundir, aunque la oferta disponible puede incluir "combinados" de dos o más de ellos (lo ideal es elegir de la "carta" solo aquello que realmente necesitamos -si nos dejan-):
• Servicio de "Carrier": Conexión Cliente <---> PSI
• Servicio de Internet propiamente dicho ("Gateway", hospedaje de páginas propias y correo) .
• Servicios de Portal (Contenidos, chat, News, buscador, etc) .

§3.1a El servicio de PSI propiamente dicho, es decir: la pasarela a Internet.
Si somos un particular sin más pretenciones que husmear en la Red, todo lo que necesitamos en esto y quizás una cuenta de correo para tener un buzón en el ciberespacio. Si queremos alguna "presencia", también necesitaremos algo de espacio de almacenamiento para poner nuestra página personal (ambas cosas suelen estar incluidas en el paquete básico de todos los PSIs).
Estas exigencias suelen bastar para una persona física, un profesional o incluso un pequeño negocio (personal o familiar). A partir de ahí las necesidades pueden crecer; podemos requerir un dominio propio y más espacio de almacenamiento. El punto extremo sería tener un servidor propio (una máquina) que estaría alojada en los locales del ISP. En este caso usted o su empresa podrían tener un completo control sobre sus servidor web y de correo, así como desarrollar aplicaciones avanzadas que generalmente no son accesibles en los servidores compartidos con más usuarios.
Nota: Algunos PSIs disponen de "granjas de servidores", en los que sitúan los servidores privados (máquinas) de los usuarios que solicitan este servicio. Esta situación representa el modo más avanzado de utilizar un PSI. El próximo paso, corresponde a aquellos usuarios (generalmente una gran empresa) que se constituyen en su propio PSI. Para esto dispondrán de un servidor en los locales de la propia empresa y las correspondientes conexiones con el exterior, líneas de datos contratadas con la compañía telefónica.

Los comienzos en España fueron más o menos así: Se contrataba con un PSI y se accedía con un módem mediante RTB. En principio, si el PSI estaba en otra ciudad, la conexión era una conferencia (llamada de larga distancia), con lo que muy pocos podían costeárselo. Afortunadamente, la Compañía Telefónica estableció pronto una red de datos (Infovía) a la que estaban conectados los PSIs, que disponía de puntos de acceso en las principales capitales del país (un número de teléfono en cada provincia) lo que permitía acceder a los PSIs mediante un número de teléfono local. La existencia de esta red fue lo que realmente permitió el despegue de la Internet en España a nivel popular.
Nota: La otrora famosa Infovía, vendida con gran alarde publicitario, permitía al gran público velocidades de conexión raquíticas. En realidad era un artificio contable de la Compañía Telefónica por la que aplicaba una tarifa local si se llamaba bajo ciertas condiciones (las "Info Vías" eran en realidad los viejos caminos de siempre).

§3.1b Servicio de conexión entre el cliente y el PSI.
Esta conexión se establece mediante la red telefónica, y existen dos o tres modalidades (dependiendo del sitio): Red telefónica básica RTB; Red Digital de Servicios Integrados RDSI [11] y ADSL ("Asymmetric Digital Subscriber Line"). Las detallaremos al tratar de los medios físicos (hardware) de conexión ( 7.2).
Nota: En algunos sitios en que existe TV por cable, los operadores están ofreciendo también posibilidad de telefonía de voz y conexión a Internet a través de sus propios servidores. En estos casos las señales de autio, de datos (Internet), y TV, viajan juntas. La modalidad adoptada suele ser de tarifa plana y el servicio de alta velocidad (comparable a ADSL).

El punto importante a detallar aquí es que en los tres casos esta conexión tiene un costo (a pagar a la compañía telefónica). En el primer caso basta un modem y utilizar la línea telefónica normal de voz. Con el inconveniente de que no podemos hacer o recibir llamadas mientras navegamos y de que pagamos a la compañía telefónica el coste de cada llamada al PSI (que nos habrá proporconado el número de uno de sus modems). Como decíamos, si el número corresponde con nuestra ciudad el coste es el de una llamada local, pero si se trata de una ciudad o región distinta, puede necesitarse incluso de una llamada de larga distancia (mucho más cara).
Nota: Para facilitar la conexión a sus clientes los PSIs disponen de "puntos de acceso" (números de teléfono) en las principales ciudades. Las conexiones RDSI y ADSL permiten combinar voz y datos repartiendo el ancho de banda, que en estos casos, es mucho más elevado que el de RTB.

Con este sistema, utilizando el sistema telefónico "a pelo", la factura telefónica mensual era a veces astronómica, por lo que las compañías telefónicas (expoleadas por las asociaciones de consumdores y los gobiernos) han realizado ofertas de tarifa plana y tarifa ondulada (en España). En la primera el coste es fijo con independencia del tiempo de conexión; en las segundas el coste es fijo siempre que la conexión se establezca en una franja horaria (de 6 de la tarde a 8 de la mañana días laborables y de 6 de la tarde del viernes a las 8 de la mañana del lunes, es decir, fin de semana completo).
El problema es que con estas modalidades de conexión obligan a conectar con sus propios servidores, y este servicio, que incluye la consabidas cuentas de correo, espacio Web, etc. es facturado aparte (en ocasiones existe una versión "gratuita" que suele ser terriblemente lenta). El resultado es que, en estos casos, el servicio de conexión y el de PSI no pueden disociarse, por lo que a cambio de una tarifa más económica nos obligan a llamar a un único número de teléfono.

§3.1c Servicio de Portal
Englobamos aquí los servicios de buscador, chat, noticias (News), etc, sin olvidar los manidos "Contenidos" que los "Portales" (otro invento relativamente moderno de Internet) se empeñan en vendernos. Como decíamos antes, son más que nada un invento de la gente de márketing de las grandes operadoras que pretenden hacernos creer que utilizando sus servicios de conexión y de pasarela (que son los que realmente nos interesan), tendremos acceso al mundo maravilloso que es su Portal.
Por supuesto los "sitios" especializados ocupan un lugar destacadísimo en Internet. Ya sean sobre Salud, Leyes, Coleccionismo de sellos, Noticias o Pornografía dura. Lo que, en mi opinión, no tiene sentido es un portal generalista (la Web entera SI es generalista). He leído publicidad del tipo: "El lugar perfecto para iniciar sus navegaciones por Internet...". Eslóganes como ese me parecen una soberana majadería, aunque desgraciadamente suelen ser el punto en el que los operadores cargan las tintas y el esfuerzo, olvidándose que es mucho más interesante para el usuario una tarifas de conexión económica y, en todo caso, unos servidores Web y de Correo rápidos y con conexiones de alta velocidad. La situación me recuerda a la de un sastre que se empeñara en vendernos lo felices que seremos con sus trajes sin preocuparse de la calidad del tejido o de la confección.

[1] Una vez revisados, los subo a la red en Junio de 2002. Evidentemente este párrafo del original está desfasado, pero lo mantengo por razónes de tipo histórico.
[2] En el capítulo 8 hablaremos de ello con mas detalle. Por el momento, nos basta saber que es el equivalente a contratar un apartado de correos, es decir, un sitio donde el servicio de correos (e-Mail) de Internet deja los mensajes que vienen destinados al cliente.
[3] Es decir, la capacidad de reconducir nuestras llamada a/desde la Web. Lo que hace nuestro navegador cuando le pedimos (marcamos) una dirección (URL Ap. G). En este sentido, podemos decir que el primer salto (hop) que da nuestra información, es precisamente desde nuestro ordenador al servidor (ordenador) de nuestro PSI.
[4] Este almacenamiento, en los discos del servidor de nuestro PSI, se mide en Mbytes. La cantidad que viene con el paquete "Básico" suele ser fija, del orden de 2/3 MB (datos de 1998) y unos 15 MB en 2002, aunque es posible contratar espacio adicional (algunos proveedores ofrecen capacidad ilimitada).
[5] Este fichero es precisamente la página Web del cliente "fulanito". Veremos mas adelante como el cliente tiene medios y autorización (claves de acceso) adecuados para poder transferir el fichero "home.htm" (que ha confeccionado laboriosamente en su casa) al ordenador del PSI. A partir de este momento estará a disposición de media humanidad.
[6] Hasta 14 de Septiembre de 1995 los costos burocráticos del mantenimiento del sistema de dominios fue sufragado por la NSF ("National Science Foundation"), a partir de esta fecha, se estableció un canon anual de 50 dólares USA por este servicio.
[7] Incluso esta verificación puede efectuarse directamente por Internet. Basta consultar a un servicio denominado Whois de InterNIC, donde introducimos el nombre que pretendemos. Si está registrado proporciona una cierta información sobre él: Nombres y dirección de la empresa propietaria del Dominio, nombres números de teléfono y e-mail de los responsables administrativo, técnico y de facturación, Fecha del registro del Dominio, y las direcciones IP de los servidores primario y secundario. En caso de que la respuesta sea negativa, ya sabemos que está libre y que se puede registrar dicho nombre.
Registro números Americanos: [url]http://www.arin.net/whois/arinwhois.html[/url]
Registro direcciones Europeas: [url]http://www.ripe.net/db/whois.html[/url]
Registro zona Asia-Pacífico: [url]http://www.apnic.net/reg.html[/url]
Registro militar USA: [url]http://www.nic.mil/cgi-bin/whois[/url]
Registro Gov. Federal USA: [url]http://www.nic.gov/cgi-bin/whois[/url]
[8] Como viene siendo habitual, somos mas papistas que el Papa, el organismo español es más estricto que el americano (que los inventores), por lo visto, seguimos siendo reserva espiritual (informática) de Occidente. Es también mas caro y mas lento. Aunque parezca mentira, es mas fácil conseguir desde España una dirección .com que una .es (cosa que por otra parte no importa, porque .com "farda" mucho mas que .es).
Nota: El viernes 12 de Julio de 2002 el BOE (Boletín Oficial del Estado, órgano que publica las leyes en España), publicaba la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI), que incluye entre otras disposiciones apartados relativos al sistema y tasas de asignación del dominio .es que caracteriza los dominios españoles.
Las nuevas disposiciones pretenden regular los principios inspiradores del sistema de asignación de nombres de dominio .es, "conjugando los principios de vinculación con el territorio español y de protección de derechos preexistentes con los de flexibilidad".

También se contempla la creación de un sistema de resolución extrajudicial de conflictos que permita solucionar "de manera rápida y eficaz" las disputas que puedan surgir por la utilización de los nombres de dominio, "sin excluir el derechos de las partes a la tutela judicial efectiva", así como un mecanismo "más flexible" para la determinación de la cuantía de la tasa por asignación del recurso limitado de nombres y direcciones de Internet.
[9] De hecho, los contactos técnico y de facturación suelen ser el propio PSI, pero si no queremos estar amarrados para siempre al mismo proveedor, conviene que al menos, uno de los tres "contactos" que aparece en la documentación oficial (normalmente el "administrativo"), sea de la empresa del cliente.
[10] Parece que este asunto de la "gratuidad" comienza a hacer aguas, lo mismo que ocurrió en su momento con los teléfonos móviles (todavía recuerdo cuando regalaban un móvil con la compra de una caja de botellas de Whisky). Pasado el furor .com, parece que en la valoración de las sociedades ya no tiene tanto peso el cómputo de clientes "gratuitos", ahora cuentan más los "de pago" (como ocurría hace muchos años con los alumnos en los colegios religiosos).
[11] Red Digital de Servicios Integrados (RDSI), nombre con el que se conoce en español al ISDN ("Integrated Services Digital Network")

7 Dispositivos de acceso a Internet
7.2 Medios físicos de conexión. Adaptadores

§1 Sinopsis
Hemos señalado ( 7) que los adaptadores son dispositivos físicos que permiten una conexión eléctrica entre el ordenador y el mundo exterior. Existen varias clases, cada uno con una función y características específicas.

§2 Modems
Modem es acrónimo de modulador/demodulador; es el dispositivo adaptador más simple y popular; sirve para unir el ordenador a la línea telefónica. La razón de su necesidad (además de una adaptación eléctrica), es que la información del ordenador es de naturaleza digital (ceros y unos, tensión/no-tensión), y la red telefónica básica RTB es analógica (no entiende de ceros y unos) ya que en su origen fue pensada y diseñada para transmitir sonidos (la voz humana).
Nota: El Apéndice J ( Ap_J) contiene una breve introducción a la telefonía. Expone sus principios de funcionamiento y algunos conceptos básicos que le ayudarán a comprender mejor estas cuestiones .

Los módems representaron un gran avance en la comunicación de micro y mini ordenadores, incluyendo los PCs. Básicamente el modem coge una cadena de bits (información digital) y la transforma en música (información analógica); tonos audibles que pueden transmitirse por la red telefónica. De modo inverso, recoge una serie de tonos entrantes y los transforma en cadenas de ceros y unos asimilables por el ordenador.
Existen dos tipos: Internos, que se conectan en el interior del ordenador como una tarjeta mas y Externos, que se conectan a un puerto serie, o en el caso de los módems para portátiles, adoptan la forma de una PC-Card (PCMCIA). Desde el punto de vista del software, el modem ocupa el espacio de un puerto serie, COM1, COM2, etc.
Uno de los factores determinantes de la calidad de un modem (entre otras) es su velocidad, medida en bps (bits por segundo). En el estado actual los módems más rápidos funcionan con velocidades del orden de 38.400 y 56.000 bps. Esto representa aproximadamente el límite teórico de velocidad para este tipo de transmisión por la RTB, aunque lo frecuente es que no se alcancen en el mejor de los casos velocidades por encima de los 46 Kbps, de modo que los módems de 56 Kbps no funcionan en todas las líneas [1]. En general los módems sirven para aplicaciones donde no es necesario un gran ancho de banda (velocidad de transmisión).
Nota: Dado que una conexión a Internet es una cadena de eslabones, la velocidad total es la del eslabón mas lento, por lo que (por regla general), en el estado actual de las conexiones a Internet mediante líneas RTB cualquier modem de velocidad por encima de 38400 bps no suele ser aprovechado totalmente.

§2.1 Tecnología V.90
Como se ha dicho, los módems tradicionales funcionan en la suposición de que ambos extremos de la conexión telefónica son analógicos, de forma que las conversiones analógico-digital y posterior digital-analógica, limitan la velocidad de transmisión real a unos 33.6 Kbps, que es la máxima velocidad de los módems que podríamos llamar "convencionales".
La tecnología V.90 asume que lo existente en el otro extremo es realmente un dispositivo digital, como ocurre por ejemplo con nuestro proveedor de Internet, de forma que al considerar la red telefónica básica como si fuese enteramente digital (desde este punto de vista), es capaz de alcanzar velocidades de 56 Kbps. en sentido descendente, es decir, desde el proveedor de Internet a nuestro ordenador. Hay que resaltar que se trata de una comunicación asimétrica; la comunicación descendente (la mayor parte) se realiza a 56 Kbps, mientras que la ascendente, desde nuestro ordenador al PSI sigue siendo a 33.6 Kbps. En la mayoría de los casos el volumen de transmisión en este sentido es mínimo comparado con el anterior, por lo que es una solución adecuada para usuarios intensivos de Internet, ya que las descargas de páginas, de correo, de ficheros, sonido, video, etc. se realiza a 56 Kbps.
Esta tecnología dispone también de lo que se denomina "Comprobación de línea" (Line Probing), que permite establecer la calidad de la línea (relación entre la señal y el ruido), lo que redunda a su vez en una disminución de los errores de transmisión con el consiguiente aumento de la velocidad.

La características principales de los módems actuales son dos: Compresión de datos y ajuste automático de la velocidad de conexión.
La capacidad de comprimir los datos permite transmitir más información en el mismo tiempo; lo que exige que ambos módems utilicen el mismo algoritmo de compresión. Por supuesto, esta actividad de compresión/descompresión es transparente para el usuario.
Respecto a la velocidad de conexión, habida cuenta que las velocidades altas son más propensas a errores (con la consiguiente necesidad de reenviar parte de la información), y que las velocidades bajas son más fiables, pero más lentas, se intenta conseguir que la tasa de transmisión sea la mayor posible, para lo que se ajusta la velocidad al estado (calidad) de la línea en cada momento. Puesto que ambos módem deben utilizar la misma velocidad, utilizan un protocolo de "negociación" para decidir cual será el valor a utilizar.

§3 Adaptadores RDSI
En el caso de que la conexión del ordenador no se realice a la RTB, sino a la más moderna RDSI, Red Digital de Servicios Integrados, puesto que en este caso la línea es digital no existe ya necesidad de modular o demodular; no se habla ya de "módems" sino de "adaptadores" que son más sencillos que aquellos. Todos ellos tienen capacidad para funcionar a 64 y a 128 Kbps.
Como en el caso de los módems los hay de tipo PC Card para los portátiles, internos y externos, aunque en este último caso, al tener que estar conectados a un puerto serie, requieren que este sea de alta velocidad, por lo menos de 230 Kbps (cuestión esta a tener en cuenta si lo queremos adaptar a un ordenador concreto H2.5.1.1). En cambio tienen la ventaja de que son más configurables y que (como en el caso de los módems externos) tienen una serie de indicadores del estado e incidencias de la conexión. Como contrapartida, son mucho más caros que los internos.
En algunos casos tienen la capacidad de implementar Virtual COM, que es la posibilidad de emular un puerto COM virtual, lo que traducido al cristiano se refiere a que, en caso necesario, pueden emular el comportamiento de un módem, aunque en esta forma solo operen a velocidad estándar, es decir a 33.6 o 57.6 Kbps.
Los adaptadores de cable (si recibe conexión mediante la red de TV por cable) y los adaptadores ADSL ("Asymmetric Digital Subscriber Line") tienen aproximadamente las mismas características señaladas para los adaptadores RDSI.

§3.1 Webografía
IDG Communications [url]http://www.idg.es/pcworld/[/url]
La editorial de PC World en España presenta varios artículos interesantes sobre el tema. Seleccionar las palabra adecuada (RDSI) en el buscador y marcando la opción "Revista" (hay otra opción que busca la palabra en las secciones de "Noticias").
El número 136 de la revista, de 1-10-1997, contiene una serie de artículos monográficos sobre el tema, entre ellos: "Trabajar en RDSI"; "Adaptadores en RDSI" y "¿Que es RDSI?".
"Acceso a Internet a través de RDSI" número 142 de 1-04-1998
"RDSI: la revolución digital Conozca el estándar de red para transmisión de voz y datos" Número 111 de 1-06-1995.

§4 Enrutadores
En muchos despachos profesionales y Pymes [2], es frecuente que existan pequeñas intranets, redes que enlazan varios ordenadores. En estos casos, si se pretende dar acceso a Internet a varios de los ordenadores de la red, es necesario un enrutador ("Router") que encamine las llamadas desde cualquier ordenador de la intranet hacia el exterior (hacia el ISP y de ahí a Internet). -En estos casos suponemos desechada por ilógica, la solución de conectar cada uno de los equipos con su propio modem y su propia línea al exterior-.
En general los routers son dispositivos que unen dos redes distintas entre sí (existen decenas de miles en Internet); a los que nos referimos aquí son dispositivos algo mayores que un modem externo que cuentan con (al menos) un conector RJ-45 o BNC [3] para conectarlo a la intranet, y otra conexión (también RJ-45) para conectarlo a la red telefónica RDSI [4]. Algunos modelos son de ejecución combinada, es decir, hacen simultáneamente la función de router y de concentrador ("Hub"), en cuyo caso hacen innecesario ningún otro tipo de dispositivo en la intranet, siendo ideales para Pymes.
El router se limita a permanecer a la espera de paquetes con dirección al exterior. Cuando detecta alguno, realiza una llamada al teléfono que hayamos predefinido, y establece una conexión vía RDSI con la red remota, que en nuestro caso es el proveedor ISP. Cuando termina la llamada, el router desactiva automáticamente la conexión. El número de conexiones simultaneas es ilimitado, el router se limita a repartir el ancho de banda disponible (de la conexión RDSI) entre los distintos terminales de la intranet que acceden simultáneamente al ISP.

§4.1 Webografía
Dealer World [url]http://www.idg.es/dealer/[/url]
La editorial IDG communications en España presenta a veces interesantes artículos editoriales sobre temas de informática. Seleccionar la frase adecuada (El mundo del router) en el buscador marcando la opción "Revista".
"El mundo del router: la comunicación con el exterior Comparamos siete routers para PYMES" Numero: 46, Fecha: 01/10/1998, Sección: Comparativa. Por: Fco. Javier Gª Moratalla y Ramón A. Fernández.

§5 Servidores Proxi
También en este caso se trata de una solución para intranets, es decir, cuando se quiere dar conexión a Internet a los ordenadores de una red local. En estos casos, la pasarela al exterior puede es un ordenador dedicado a este fin específico; la máquina dedicada a este menester se denomina servidor Proxi. Se trata de un ordenador conectado a la red y a una linea exterior RDSI (por lo menos) con un programa especial que realizan la misma función que un router , aunque en estos casos pueden realizar algunas tareas complementarias.
El uso de un servidor Proxi presenta ciertas varias ventajas:
• Se pueden conectar todos los equipos de la intranet con una única cuenta en un proveedor de Internet (PSI).
• El servidor Proxi hace servicio de cache. Va almacenando las páginas Web en disco duro, lo que permite acceder a las páginas más visitadas de una forma más rápida, ya que una vez que la página está en disco duro, no hace falta (a no ser que queramos actualizarla) volver a bajarla.
• Posibilidad de transferencia automática de correo electrónico (si el software de servidor Proxi contempla esta posibilidad)
• Realizar funciones de seguridad para la intranet actuando de cortafuegos [5] ("Firewall") con el exterior.

Existen multitud de programas que permiten a un ordenador actuar como servidor Proxi, entre ellos:

S-Proxy [url]http://www.ovislink.es/Desarrollo/ovis/ovislink.nsf/software?OpenPage[/url]
Desarrollado en España por Simedia; existe una versión de evaluación gratuita con validez para 30 días.
Netproxy [url]http://download.com.com/[/url] (Introducir la palabra Netproxy en el buscador)
Programa shareware que permite la conexión simultanea a Internet de múltiples usuarios de una red. La conexión puede ser de varios tipos, mediante un módem y RTB; RDSI y otras mas (no ofrecidas todavía en el mercado español). Ofrece soporte para varios protocolos, incluyendo HTTP, sHTTP, RealPlayer, FTP, Telnet, SMTP, POP3, SOCKS y port mapping, diversas posibilidades de conexión y un firewall altamente configurable.

§6 Adaptadores de red
Si, como hemos supuesto en los casos anteriores, el ordenador pertenece a una red de área local LAN, es posible que la única conexión con el mundo exterior sea precisamente el adaptador (tarjeta de red); en estos casos, la conexión a Internet puede estar fuera del propio equipo en algún otro punto de la red (en un servidor proxi , o en un enrutador ), aunque también pueden coexistir en el mismo equipo un adaptador de red y una conexión directa a Internet (un modem por ejemplo).
En estos casos, la red puede ser de cualquiera de los tipos que se utilizan actualmente (ver tabla ), aunque lo mas probable es que se trate de una red Ethernet ( H12.4), en cuyo caso el ordenador estará conectado mediante un cable coaxial y un conector BCN, o mediante cable de par trenzado con un conector RJ-45 (probablemente conectado a un concentrador).
Las redes que se instalan actualmente son en una gran mayoría Ethernet, seguidas quizás de Token Ring, aunque hay algunos otros estándares. En la tabla adjunta se indican sus características principales.
Red Topología Cable utilizado Velocidad MB/s.
Ethernet Bus
Estrella Coaxial o fibra
Par trenzado o fibra. 10
10
Token Ring Anillo o estrella Par trenzado o fibra. 4 y 16
Local Talk Bus Par trenzado 230
Fast Ethernet Estrella Par trenzado o fibra. 100
FDDI Anillo en estrella Par trenzado 100
TP-PMD Anillo en estrella Par trenzado 100
ATM Estrella Par trenzado o fibra 155+

[1] Actualmente (1998) existen dos estándares (incompatibles entre si) para este tipo de módems de alta velocidad: X2 de US Robotics (adquirida recientemente por 3Com) y K56 flex de Rockwell y Lucent. Se espera que este problema de incompatibilidad quede resuelto con un estándar de la ITU (International Telecommunications Union), organismo de las Naciones Unidas.
[2] PYME Pequeña y mediana empresa.
[3] RJ-45 conector muy parecido al tradicional conector telefónico (RJ-11) aunque un poco mayor y con 8 contactos en vez de los 4 de aquél. BNC ("Bayonet Nut Connector"), otro tipo de conector para cable coaxial. Ambos tipos son muy comunes en el cableado de redes, especialmente en las de tipo Ethernet.
[4] Puesto que deben prestar servicio a varios ordenadores, incluso simultáneamente, se considera que la RTB es totalmente inadecuada en estos casos, por lo que suelen venir directamente preparados para conexión RDSI o ADSL.
[5] Un "Firewall" es un software de seguridad que se carga en un servidor (Proxi). Tiene la misión de separar una intranet del resto de Internet, controlando los accesos desde/hacia el exterior, con el fin de proteger la integridad de la red local frente a posibles accesos no autorizados provenientes del exterior.
La publicación 800-10 "Introduction to Firewalls" del NIST ("National Institute of Standards and Technology"), organismo USA encargado de la estandarización, contiene una magnífica exposición sobre muchos aspectos relacionados con la seguridad en Internet, con especial mención a los Firewalls. [url]http://csrc.nist.gov/publications/nistpubs/800-10/node30.html[/url]
El mismo organismo ha publicado una continuación del anterior; la publicación 800-41 "Guidelines on Firewalls and Firewall Policy". Es parecido en cuanto a contenido (uno de sus autores, John Wack, es el mismo) aunque más actualizado (Enero del 2002). Puede obtenerse una copia en formato pdf: [url]http://csrc.nist.gov/publications/nistpubs/800-41/sp800-41.pdf[/url]
En cuanto a los programas de este tipo, quizás el más conocido para uso a nivel personal, sea ZoneAlarm. Un excelente cortafuegos muy estable y gratuito (para uso personal) Zone Labs [url]www.zonelabs.com[/url]. Aunque el programa viene acompañado de un manual de uso (en inglés), existe una breve introducción en español que le puede ayudar en los primeros pasos con el programa [url]http://www.lanacion.com.ar/EdicionesAnteriores/Nota.asp?nota_id=178482[/url]
También puede probar otro excelente firewall de Sygate Technologies; Sygate Personal Firewall, que es gratuito si se utiliza para aplicaciones no profesionales [url]http://download.com.com/3000-2092-10049526.html[/url]

7 Dispositivos de acceso a Internet
7.3 Medios físicos. Portadores ("Carrier")

§1 Sinopsis
En este epígrafe incluimos los dispositivos que transportan la información desde el ordenador (en realidad desde el adaptador 7.2) hasta la pasarela (gateway) a Internet, lo que viene a significar la conexión (generalmente telefónica) entre nuestro ordenador y los servidores del PSI ( 7.1).

Por lo común, este tipo de conexiones utiliza servicios (líneas) de proveedores de servicios de comunicación (compañías telefónicas). Aunque en España la situación ha sido un tanto atípica, debido a las circunstancias del monopolio de "Telefónica", la situación está cambiando rápidamente y esperemos que pronto se acerque (siguiera de lejos) al estándar USA. En el Apéndice J ( Ap. J) exponemos una breve introducción a las características básicas del sistema telefónico, necesaria para comprender mejor las opciones que se presentan al abonado particular y a la pequeña y mediana empresa [1].
Al redactar estas líneas (Agosto de 1998), la situación es de transición, puesto que aunque de momento la oferta se reduce a la de Telefónica, antes de fin de año se harán públicas las de Retenet, red IP propiedad de Retevisión, el segundo operador español de telefonía y de algún otro carrier que ha anunciado su intención de dar este tipo de servicios. En cualquier caso es muy probable que las ofertas que se presenten sean técnicamente análogas a las actuales aunque con las naturales diferencias en cuanto a las condiciones económicas, posibilidad de tarifa plana, etc.
Como queda dicho, en este preciso momento existen solo dos alternativas posibles para conexión a Internet: La veterana RTB (Red Telefónica Básica) y la RDSI (Red digital de Servicios Integrados). La primera consiste sencillamente en utilizar las líneas del teléfono convencional para, mediante un modem (adaptador) adecuado, enviar datos de formato digital sobre una red analógica. La segunda es una configuración digital de principio a fin.
Nota: Con posterioridad (2002) en España, la compañía Telefónica se resiste a instalar líneas RDSI; en cambio gasta millones en publicitar las conexiones ADSL ("Asymmetric Digital Subscriber Line"), bastante parecidas a las anteriores de las que solo se diferencian en detalles técnicos.

§2 RTB
En cuanto a la Red Telefónica Básica, el problema es que estas líneas, pensadas originariamente para transmisión de voz, no tienen ancho de banda suficiente para transmitir, en un tiempo razonable, la cantidad de información exigida por determinados servicios Internet, sobre todo de tipo multimedia. Por ejemplo, audio o video en tiempo real. Aunque los módems ( 7.2) se han perfeccionado mucho, realmente se está llegando al límite físico de lo que este tipo de transmisión es capaz de alcanzar (la velocidad máxima actual -2002- está en 56 Kbps).
Nota: Se han conseguido transmisiones mucho más rápidas de 56 Kbps sobre pares de hilos de cobre vulgares, por ejemplo, mediante las mencionadas tecnologías ADSL, con las que se pueden conseguir flujos de datos del 1.5 a 8 Mbps. Pero no de forma simétrica, es decir, la velocidad para el flujo de datos en ambas direcciones (downstream/upstream) es desigual; además tienen un cierto número de limitaciones, incluida una fuerte dependencia de la distancia del cliente a la central, es decir de la longitud del bucle de abonado.
Por otra parte, la conexión de una línea ADSL con un PC no puede efectuarse a través de un puerto serie estándar debido a su elevada velocidad. Los módems ADSL deben ser instalados como dispositivos internos. A pesar que los observadores de la industria esperan un despliegue a gran escala de ADSL, con un crecimiento extremadamente rápido a partir de 1998, particularmente somos escépticos al respecto [2].

§3 RDSI
La segunda opción que nos presenta Telefónica es la Red Digital de Servicios Integrados, abreviadamente RDSI, ofrecida comercialmente con el nombre de Novacom y denominada ISDN ("Integrated Service Digital Network") en el mundo civilizado. Una tecnología que hace ya 10 años era discutida en USA en cuanto a su idoneidad frente a las necesidades del Internet moderno.
Básicamente consiste en un sistema que permite a los proveedores de servicios telefónicos ofrecer al mismo tiempo voz y servicios digitales de red utilizando los viejos pares telefónicos convencionales (el sistema puede utilizar también otros medios). En Europa sigue la norma DSS1, también denominada Euro-RDSI y EDSS1, un acuerdo firmado en 1989 por 26 países del área europea. El CCITT ("Consultative Commitee for International Telephone and Telegraph") es el que define los estándares relativos a esta tecnología.
Nota: Con el fin de proporcionar al lector una perspectiva "No oficial" al respecto, incluimos un informe (respetando el original inglés) aparecido en Byte Magazine, Junio 1990, de Richard Jay Solomon, Investigador del Laboratorio de Investigaciones Electrónicas del MIT y del programa de Política de Comunicaciones del Laboratorio de Medios de dicho Instituto: "On the Threshold of a Dream"
Unlike videotext, which provides relatively slow speed data (normally via modem on a voice line), hypermedia needs something that's faster to integrate voice, video, and complex data streams. The first step on the road to such integrated services is ISDN, which is fast enough for only rudimentary hypermedia services.
.....
While that sounds fast if you use a 2400-bps modem, it's not fast enough to carry and switch certain services, such as high-definition video. Nor is it fast enough to implement certain types of user-shared network control, to interface directly with LANs, or to permit direct memory access to CPUs.
ISDN may be sufficient for residential users who do not require full-motion video or highresolution graphics, but it simply will not fit the needs of business, education, or industrial processes in the near future. The popularity of ever-faster LANs attests to this. But even for residential voice, ISDN's 2B + D makes little sense. The B channel is overkill for a voice circuit; you can buy modems that operate within the range of the D channel for such things as standard videotext. Getting a second analog loop for another voice circuit is not a major problem in the U.S.
ISDN is best characterized as a carrier-driven intelligent network that emulates today's voice and slow-speed data systems. You would be extremely hard-pressed to implement a full-fledged hypermedia network using ISDN.


Aunque RDSI utiliza el mismo par de cobre que la telefonía convencional, el sistema es totalmente digital, por lo que consigue mayores velocidades que con la tradicional RTB, además de otras ventajas. La conexión es casi instantánea, posibilidad de conectar un fax del grupo 4, más rápido y de mayor calidad (siempre que en el otro extremo exista un equipo similar); posibilidad de establecer videoconferencias (de calidad primitiva pero aceptable), acceso más rápido a Internet y otros servicios complementarios que se expondrán mas adelante. Es una modalidad casi imprescindible en oficinas y despachos donde deba tener salida a Internet mas de un ordenador.
La capacidad de transporte de RDSI está dividida (desde un punto de vista lógico) en canales, de los que existen dos tipos:
• Canal B: Capacidad de 64 Kbps [3]. Soporta la información del usuario.
• Canal D (Delta): Una especie de "canal de servicio", con capacidad de 16 ó 64 Kbps; es utilizado exclusivamente para envío de cierta señalización de la central al equipo del usuario. También puede utilizarse para enviar señales en sentido inverso, aunque esta es una opción que las compañías telefónicas desactivan a menos que se pague una cuota adicional. Este canal es el que hace posible algunos servicios auxiliares propios de RDSI que se comentan a continuación.
El sistema es comercializado en dos paquetes o niveles de servicio (para necesidades intermedias es posible contratar varios accesos básicos y, en caso necesario, establecer un grupo de salto entre ellos).
Acceso básico: 128 Kbps
16 Kbps Dos canales B.
Un canal D. (2x 64 Kbps)
Acceso primario: 1.920 Kbps
16 Kbps 30 canales B.
Un canal D. (30 x 64 Kbps)

Los canales B permiten bastante flexibilidad, cada uno de ellos puede ser utilizado para voz y datos, también sumarse sus capacidades para obtener una única conexión a 128 Kbps. El acceso primario no se hace ya con par telefónico sino con cable coaxial o fibra óptica. Las posibilidades anteriores son meramente comerciales (la compañía telefónica nos vende el coche en solo dos colores), en otros países la oferta es distinta, por ejemplo en USA se consideran los denominados canales H (agregados de varios canales B) según el siguiente esquema:
H0 384 Kbps 6 canales B 6 x 64 Kbps
H10 1472 Kbps 23 canales B 23 x 64 Kbps
H11 1536 Kbps 24 canales B 24 x 64 Kbps
H12 1920 Kbps 30 canales B 30 x 64 Kbps



Esquema de conexión entre la red local de un cliente (LAN) y su PSI a través de un enlace RDSI (fuente: Compañía Telefónica de España).

§3.1 Aspectos de la conexión física
La posibilidad de contratación de RDSI depende de las características de la central que cubre el área del usuario y de la distancia de este a la central [4], por lo que es necesario enterarse si Telefónica soporta este acceso en el sitio en cuestión. Los responsables aseguran que el servicio será completamente universal con el tiempo, de momento puede consultar las posibilidades en el 022 o en el 900.601.602 (información de RDSI -1998!!-).

Ya hemos señalado que la parte externa del bucle de abonado es idéntica en las instalaciones RDSI y RTB, el clásico par de cobre. Las diferencias comienzan en la caja de entrada a la parte interna (instalación del abonado), que en este caso no se llama PTR, sino TR1 (Terminación de Red), la parte interna se denomina bus pasivo, es un cable plano de 8 hilos, de los que solo se utilizan 4 (2 para transmisión y 2 para recepción) y rosetas con conectores planos RJ-45 de 8 contactos (en lugar de los tradicionales RJ-11). En su instalación es preciso tener en cuenta algunas precauciones para evitar interferencias.

§3.2 Aspectos de la conexión telefónica
Es importante señalar que, aunque digital, el sistema RDSI está integrado en la red telefónica convencional, por lo que puede manejar de forma nativa llamadas desde/hacia cualquier abonado conectado a la RTB. A efectos prácticos, los dos canales B pueden utilizarse simultáneamente como si dispusiésemos de dos líneas de teléfono tradicionales independientes, aunque con mejor calidad de voz y una conexión casi instantánea. Para recibir o llamar por voz debe disponerse de un teléfono RDSI (digital) o uno tradicional (analógico) con un adaptador especial.
Nota: Telefónica comercializa un tipo de Terminador de Red de tipo mixto, TR1+2a/b, que sustituye al TR1 normal, y que tiene incluido dicho adaptador, por lo que además de las dos salidas RDSI normales (RJ-45) tiene dos salidas analógicas a las que se puede conectar cualquiera de los dispositivos de telefonía convencional (RJ-11), con sus ventajas y limitaciones.
Telefónica permite contratar hasta cuatro números de teléfono al instalar una conexión RDSI, pero cualquier número adicional al primero, tiene un costo de alta y una cuota mensual. No se trata de 4 líneas, de estos hipotéticos 4 números, 2 están asignados a un canal B y 2 al otro.

§3.3 Servicios Suplementarios
El sistema RDSI permite algunos servicios suplementarios (SSs), implementados en el canal delta , que son posibles debido a su carácter digital. Estos SSs son muy variados y no existe una normativa europea al respecto, por lo que al adquirir un teléfono o dispositivo RDSI es muy conveniente asegurarse que cumple la norma española de Telefónica [5]. Algunos de estos SSs se dan como un valor añadido con el servicio, en otros casos son de pago. Téngase en cuenta además que para utilizar estos servicios se requieren teléfonos digitales RDSI (mucho mas caros que los convencionales).
Los que ofrece la Compañía Telefónica española son los siguientes:
• Notificación del importe de la comunicación. Ver el coste de la llamada que se está realizando.
• Notificación del llamante. El número del que llama se muestra en el visor del teléfono RDSI, esta opción puede ser desactivada por el llamante.
• Identificación del conectado. Permite saber que número es el que ha recibido (contestado) la llamada, es útil en casos de redireccionamiento de llamadas para saber quién es realmente el receptor de la misma. Esta opción puede ser desconectada por el llamado.
• Llamada en espera. Cuando hay establecida una comunicación por un canal B, si entra otra llamada (por alguna línea de las 4 posibles), se utiliza el otro canal B. Si se están utilizando todos los canales B y entra otra llamada, este servicio permite aceptarla o rechazarla.
• Grupo de salto. Si se tienen varios servicios básicos y se quiere que cualquier llamada a un número sea atendida por uno de los canales B. disponibles. El número no dará señal de comunicando mientras queden canales B para atender la llamada.
• Línea directa sin marcación. Permite marcar un número determinado con solo descolgar el teléfono. Puede dar un tiempo previo antes de esta marcado automático para dar tiempo si se quiere marcar otro número.
• Señalización entre usuarios. Permite intercambiar información de control entre usuarios que están conectados por RDSI a través del canal delta.
• Subdireccionamiento. Como en el bus pasivo puede haber múltiples receptores RDSI compartiendo un mismo número exterior, este servicio permite incluir una subdirección, de forma que la llamada externa se dirija a uno de estos receptores en concreto.

§3.4 Instalación de una línea RDSI
La instalación de abonado RDSI [6] comienza en una caja de conexión a la que llega el par de cobre de la Compañía Telefónica, aunque en este caso no se llama PTR (Punto de Terminación de Red), sino TR1, conocido también por su nomenclatura inglesa NT1 ("Network Termination").
El TR1 es algo mas que una simple caja de conexión como en el caso del PTR, requiriendo incluso alimentación eléctrica de la red. Es una unidad que convierte la señal del interfaz U (2 hilos) a interfaz S/T (4 hilos). Cuenta con dos diodos LED ("Light Emitting Diode") para control de que la alimentación exterior y la conexión con la central son correctas. Dispone también de dos conectores RJ-45 donde se pueden instalar directamente dos dispositivos digitales RDSI o de donde pueden salir dos buses interiores.
Cada bus pasivo admite varias configuraciones:
• Corto. Hasta 200 metros de longitud. Puede tener hasta 10 rosetas con 8 dispositivos RDSI funcionando simultáneamente (sin regeneración de señal). Las rosetas se pueden situar en cualquier punto del bus, con derivaciones de 1 m. máximo y con cordones de aparato de 10 m. máximo (todas las derivaciones que se hagan, donde se incluyen los cordones de aparato deben ser lo más cortas posible pues son tramos que quedan sin adaptar).
• Ampliado. Hasta 500 metros de longitud. Pueden soportar hasta 4 dispositivos RDSI, con la particularidad de que tienen que estar situados en los últimos 50 metros del bus.
• Punto a punto. Hasta 1.000 metros de longitud. Un único dispositivo RDSI conectado al final del bus.
En la instalación física de la línea, es preciso tener en cuenta algunas precauciones básicas para prevenir interferencias, en especial, se recomiendan unas distancias mínimas de seguridad entre el cableado del bus y las canalizaciones eléctricas.
Distancia (d) que transcurren en paralelo las líneas RDSI y eléctrica Distancia D de seguridad que debe existir entre ambas.
d <= 2 m. D >= 2 cm.
d <= 5 m. D >= 5 cm.
d > 5 m. D >= 30 cm.
Distancia a tubos fluorescentes D >= 30 cm.
Distancia a tubos de neón y otras fuentes de gran perturbación D >= 30 cm.

Además se requiere terminar los dos circuitos (cada par) con resistencias de 100 ohmios (valor próximo a la impedancia característica de un par). Por tanto debe haber 4 resistencias en total dos en un extremo y otras dos en el otro.
+-----+
| |
1 2 3 4 5 6 7 8
| |
+-+
Esquema de la colocación de las resistencias respecto a los hilos en del conector RJ-45:
Una resistencia iría entre 4 y 5 (TX de la red) los dos más internos. La otra entre 3 y 6 (TX de los terminales) los siguientes más externos. Generalmente la TR1 lleva ya las resistencias conectadas internamente, con lo cual se supone que va en un extremo. Habría que conectar las otras dos resistencias en el otro extremo de la conexión. Lo fundamental es considerar siempre que tenemos dos líneas de transmisión y que en ambas siempre tiene que haber 100 ohmios en los extremos.

§3.5 Webografía
Los enlaces indicados están un poco "fuera de fecha", dado que actualmente (2002) la Compañía Telefónica de España ha perdido todo interés en las conexiones RDSI. Los incluimos por mera curiosidad histórica.
IDG Communications [url]http://www.idg.es/pcworld/[/url]
Existen varios artículos de introducción al tema por Jaime de Yraolagoitia en el número 136 de PC World (1-10-1997): "Trabajar en RDSI"; "Adaptadores en RDSI" y "¿Que es RDSI?". Seleccionar las palabra adecuada (RDSI) en el buscador y marcando la opción "Revista" (hay otra opción que busca la palabra en las secciones de "Noticias").
Telefónica: Información general [url]www.telefonica.es[/url]
Publicaciones de Telefónica I+D [url]http://in1.ral.telefonica.es[/url]

Página de los usuarios de RDSI [url]http://www.geocities.com/SiliconValley/Heights/5770[/url]

Nota final: Las conexiones de alta velocidad actualmente (2002) "de moda" en España son, como hemos dicho las líneas ADSL. Técnicamente son muy similares a RDSI, y desde el punto de vista del usuario la mayoría de las observaciones anteriores pueden aplicarse a ambos tipos de conexión.

[1] Las posibilidades de las grandes compañías son por supuesto mucho mas vastas; desde redes de cobertura mundial privadas (caso de IBM) a líneas dedicadas de alta velocidad, fibra óptica, enlaces por satélite (Motorola), etc.
[2] El comentario es de 1998; la expansión significativa de la "alta velocidad" en las conexiones a Internet (mediante ADSL), ha comenzado a realizarse en España a comienzos del 2002; ello a pesar de que las tarifas son de las más caras de Europa, y gracias a una campaña publicitaria masiva. En nuestra opinión (volvemos a jugar a "adivinos"), cuando la Compañía Telefónica quiera volver a reaccionar (bajando las tarifas ADSL), las tecnologías inalámbricas emergentes las habrán dejado obsoletas.
[3] En RDSI las Ks son de 1.000, así 64 Kbps son 64.000 bits por segundo ( E1.7.1).
[4] Aparte de soportar la capacidad RDSI, la central no puede estar a mas de unos 5.5 Km del usuario, so pena de tener que instalar costosos repetidores.
[5] Tenga en cuenta, que aunque el fabricante indique que el dispositivo se ajusta a la normativa vigente, NET-3, NET-5, I-CTR, etc. en NINGÚN caso garantiza NADA respecto a los Servicios Suplementarios.
[6] Parte de la instalación telefónica que discurre por el interior de los locales del abonado.

7 Dispositivos de acceso a Internet
7.4 Medios lógicos (software)
§1 Sinopsis
En este capítulo analizaremos los medos software necesarios para utilizar Internet; hemos indicado ( 7) que se trata de programas de comunicaciones que permiten conectar a la Red y utilizar los servicios que esta ofrece. Los más emblemáticos son los Navegadores (Browsers) que permiten acceder a la Web, aunque hay de muchos tipos (clientes de correo electrónico, de Chat, de búsqueda, etc). Veremos que cada uno de estos servicios utiliza un protocolo específico, de forma que a veces, son conocidos por el nombre del protocolo. Por ejemplo, se habla de "Cliente FTP" para referirnos a un programa que permite intercambiar ficheros porque utilizan un protocolo denominado FTP ("File transfer protocol").

§2 El navegador
§2.1 Introducción
Los dispositivos software de acceso a la Red son tan variados como los servicios y Sistemas Operativos que habitan en ella, pero por ser la Web el servicio más popular y el espacio por antonomasia de Internet, nos referiremos en primer lugar a la herramienta software que permite utilizar dicho servicio: el navegador ("Browser"). En capítulos sucesivos nos referiremos a otros servicios y a las herramientas software correspondientes.
Como hemos visto, un navegador WWW es sencillamente un programa especial de comunicaciones TCP/IP ( 3.1) para ver páginas escritas en lenguaje HTML ( 5.2). Recordemos ( 5.1) que en 1990 Berners-Lee creó las especificaciones del HTML, del HTTP y el precursor del URL ( Ap. G). Junto a su colega Robert Cailliau dejó su programa en el primer servidor del CERN en 1991. En 1993 Mac Andersen y sus colegas del NCSA ("National Center for Supercomputing Applications") de la universidad de Illinois escribieron el otrora famoso Mosaic, un navegador inicialmente shareware.
Los navegadores Viola y Midas para X-Windows (una interfaz gráfica de Unix), fueron lanzados en Enero de 1993. Al mismo tiempo fue lanzada una versión preliminar (alfa) de un navegador para Macintosh. El 15 de Enero de 1992, estuvo disponible www, un navegador de modo texto vía Telnet, pero el primer navegador realmente popular fue el mencionado Mosaic, de la NCSA, cuya primera versión, Mosaic for X, que solo soportaba HTML 1.0 vio la luz en Febrero de 1993. Rápidamente se prepararon versiones para las plataformas mas frecuentes (X, PC/Windows y Macintosh). En Septiembre del mismo año, Marc Andreessen, alma del programa, fundó su propia compañía, Mosaic Communications Corp. (hoy Netscape) y lanzó su navegador, el Netscape Navigator 1.0, que pronto controló el 70% de su segmento de mercado. MicroSoft, que vio su fantástico éxito, se apresuró a lanzar su propio navegador, el MS Internet Explorer, que fue repartido de forma gratuita. En 1998 existía una beta 4.5 del Navegador de Netscape y una versión 4 del MS Internet Explorer.
Nota: Después de que el listísimo Bill Gates empezara apostando claramente en contra de lo que representaba Internet y totalmente de espaldas a lo que el incipiente fenómeno llegaría a constituir, la iniciativa posterior de lanzar al mercado el MS Internet Explorer de forma gratuita, y después incluirlo de forma indisoluble? [1] al propio SO Windows, es uno de los más bochornosos capítulos (y no desgraciadamente el único) protagonizado por la elefantiásica compañía, y una muestra de lo que el poder económico puede hacer para aplastar a la competencia.

En MS Internet Explorer 2.0 se incluyeron algunas cosas que no existían en el Navigator, por ejemplo la función de desplazamiento del texto (scrolling). Netscape por su parte no estaba dormida, y añadió algunas cosas que no existían en el Explorer, por ejemplo los marcos (frames) y las tablas. Ambos navegadores implementaros en sus nuevas versiones la mayoría de los elementos de HTML que ya formaban parte del estándar HTML 4.

§2.2 El navegador: Funciones básicas
§2.2.1 Configuración.
Es relativamente frecuente que algunas direcciones Web incluyan la tilde (símbolo ~ ), que no existe como carácter en los teclados españoles. Sin embargo puede disponerse de ella; basta pulsar la tecla Alt (izquierda), y manteniéndola pulsada, marcar 126 en el teclado numérico situado a la derecha del teclado normal; después soltar la tecla Alt [2].
Nota: En los portátiles, en los que no existe este teclado independiente, es posible utilizar parte del teclado normal "QWERTY" en el que algunas teclas tienen un doble uso. Para ello hay que bloquear momentáneamente el teclado en "modo numérico", para lo que suele existir una tecla especial (generalmente señalada como Fn).

§2.2.2 Acelerar las conexiones
Es posible indicar al navegador si queremos aceptar imágenes y sonidos, o solo texto. Esto puede ser útil porque en ocasiones la red está muy lenta y consideramos que las imágenes y los sonidos (que suelen tardar mucho tiempo en cargarse), no son imprescindibles, por lo que la adopción de esta medida puede aumentar extraordinariamente la velocidad de navegación.
En el MS I. Explorer 5.5 la opción es accesible en:
Herramientas Opciones de Internet Opciones avanzadas Multimedia
Se puede seleccionar: Mostrar imágenes si/no
Activar animaciones si/no
Mostrar videos si/no.
Reproducir sonidos si/no

Aparte de estas opciones propias del navegador, existen otros programas comerciales (shareware o freeware) que pretenden conseguir el mismo efecto (acelerar la navegación). Existen dos tendencias o formas distintas de conseguirlo:
• Intercepción de contenidos. Las herramientas de esta categoría consiguen acelerar la navegación interceptando el tipo de contenido que especifiquemos, por ejemplo los molestos banners publicitarios, gifs animados, música y otros contenidos "de relleno" no absolutamente imprescindibles.
• Caché de navegación. Agrupamos en esta categoría aquellos programas que se encargan de analizar los enlaces que tiene la página visitada para descargarlos aprovechando los momentos de inactividad del navegador; lo que se pretende es intentar adelantarse a los deseos del usuario, de forma que con suerte, al intentar acceder a la página siguiente, esta puede aparecer de forma inmediata. Entre los representantes de esta categoría podemos citar:
NetSonic [url]http://www.web3000.com[/url]
Existen dos versiones, una de pago y otra gratuita (freeware).

§2.2.3 Protegerse de los cookies
Al tratar de los asuntos de la privacidad den la Red, señalamos que estas "galletitas" son mecanismos que puede utilizar un servidor Web para almacenar y recuperar información en/desde los clientes ( Nota-12). Aunque inofensivos, hay usuarios que prefieren no sufrir lo que consideran intromisión en sus ordenadores.
Nota: Conviene recordar que si se usa el MS Internet Explorer, los cookies están guardados en el directorio C:\Windows\Cookies, y que pueden verse con el "Explorador de Windows" (no confundirlo con el "Explorador de Internet" [3] ).

Cualquiera que sea el navegador utilizado, puede instruírsele para que no acepte cookies.
En el caso de MS I Explorer 4.x el ajuste puede hacerse en:
Herramientas Opciones de Internet Opciones Avanzadas
Se plantean tres posibilidades (aceptar Cookies):
Aceptarlos siempre.
Preguntar antes de aceptar.
Desactivar el uso de cualquier Cookie.
A partir de la versión 5 de MS I.E, la gestión de cookies pasó a estar en:
Herramientas Opciones de Internet Seguridad
Aquí hay cuatro zonas: Internet; Intranet local; Sitios de confianza, y Sitios restringidos.
La política de cookies (y el resto de opciones de seguridad) pueden establecerse de forma particular e independiente para cada una de las zonas señaladas. En el botón personalizar nivel, se accede a un cuadro de diálogo; respecto a los cookies hay dos opciones (a y b), cada una de las cuales permite elegir entre tres opciones:
a.- Habilitar cookies propios de cada sesión no almacenados: Activar; Desactivar y Pedir datos.
Esta opción se refiere a cómo desea que I Explorer maneje los cookies temporales, que son aquellos que tienen validez solo durante la sesión de navegación en que visitamos la página [4]. Para especificar que desea que Explorer acepte cookies sin preguntarle antes, haga clic en Activar. Para especificar que desea que Explorer le avise cuando esté a punto de recibir un cookie de un sitio Web, haga clic en Pedir datos. Para especificar que no desea permitir que los sitios Web envíen cookies al equipo y que dichos sitios no puedan leer los cookies existentes en el equipo, haga clic en Desactivar.
b.- Permitir que los cookies se almacenen en el quipo: Activar; Desactivar y Pedir datos.
Esta opción especifica el tratamiento que recibirán los cookies permanentes, que son aquellos que permanecerán en nuestro equipo a la espera de que volvamos a visitar el sitio que los creó. Para especificar que desea que I Explorer acepte cookies sin preguntarle antes, haga clic en Activar. Para especificar que desea que Internet Explorer le avise cuando esté a punto de recibir un cookie de un sitio Web, haga clic en Pedir datos. Para especificar que no desea permitir que los sitios Web almacenen cookies en el equipo y que dichos sitios no puedan leer los existentes en el equipo, haga clic en Desactivar.
En Netscape:
Edición Preferencias Avanzadas Cookies

Con frecuencia surge la cuestión de si es igual la navegación en un sitio si se tiene prohibida la recepción de Cookies que si se aceptan. En teoría, la respuesta es que debería ser exactamente igual, excepto quizás en el caso de sitios de compra (comercios en Internet) en los que si sea necesario aceptar los cookies para finalizar una transacción. Sin embargo los sitios Web son cada día más sofisticados, y es posible que muchos webmasters dispongan las cosas de forma que el servidor Web se niegue a suministrarnos una página si detecta que nuestro explorador no acepta cookies, en cuyo caso puede aparecer un mensaje parecido al siguiente: Cannot open webpage because cookies are not enabled. Enable cookies and then retry.

§2.2.4 Favoritos (Bookmarks)
Son una facilidad que nos ofrecen los navegadores de mantener un índice con las direcciones Web que visitemos frecuentemente, de forma que sea más fácil dirigirnos a ellas. Esta opción permite organizar las direcciones en grupos y subgrupos (en realidad son directorios y subdirectorios) de forma que estén agrupadas según nuestras preferencias. Por ejemplo, podríamos agruparlas por sitios relativos a Hobbys; Noticias de Cine; páginas de información musical, etc. etc.
Aparece como un botón en la barra de herramientas del navegador. En realidad, el contenido de la opción "Favoritos" que aparece en el navegador MS I Explorer, es una vista del árbol de directorios y ficheros situados en C:\Windows\Favoritos.
Práctica: Realizar un "bookmark" de una página concreta (añadirla a "Favoritos").
En ocasiones es necesario guardar la dirección contenida en un enlace del interior de una página visitada (donde el cursor se transforma en una mano ). Para esto se selecciona el menú contextual (clic con el botón derecho del ratón) y se selecciona la opción "Agregar a favoritos" o "Copiar acceso directo"; esta última opción nos permite pegar la URL contenida en el enlace en cualquier documento.

§2.2.5 Subscripciones:










Concepto:
A partir de la versión 4, MS. I Explorer proporciona esta característica, que consiste en que el explorador busca en los sitios prefijados la aparición de nuevos contenidos (cambios o adiciones en las páginas) de acuerdo con el programa que se especifique. La acción respuesta puede limitarse a la mera notificación de que hay nuevo contenido, o descargarlo automáticamente en el disco duro (por ejemplo, por la noche o cuando el equipo esté inactivo), de forma que se puede navegar por dichas páginas sin estar conectado (off-line). Esto recibe el nombre de "suscripción" a un sitio Web, y permite obtener automáticamente información actualizada del sitio de acuerdo con una programación (diarias, semanales o mensuales), sin tener que visitar el sitio ni actualizar el contenido manualmente.

Como suscribirse:
Para subscribirse a un sitio Web en MS IE, debe conectarse a la página Web a la que desee subscribirse (a la página inicial si es un sitio completo), y en el
menú Favoritos seleccionar Agregar a Favoritos.
A partir de aquí aparecen una secuencia de cuadros de diálogo en los que pueden seleccionarse diversas opciones, para que el comportamiento del sistema se ajuste a nuestras preferencias.
La secuencia de cuadros que aparecen sucesivamente son los que se muestran en esta página.
Como puede ver en la primera imagen , el proceso agrega la página a la carpeta de favoritos. Además debe seleccionar que SI desea tener acceso a la página sin conexión (cuando esté desconectado de Internet). A continuación seleccionar el botón Personalizar, e ir contestando sucesivamente a las diversas cuestiones.
Los mensajes que acompañan a cada caso son bastante explicativos, sobre todo si tenemos en mente que el sistema es capaz de guardar en el disco duro una copia de la página o páginas que cuelgan de la que seleccionamos.
Tenga en cuenta que lo normal es que unas páginas conduzcan a otras (contienen hipervínculos que enlazan con otras), y así sucesivamente, por lo que debemos limitar la "profundidad" de la descarga, sobre todo si tenemos poco espacio en disco, pues de lo contrario nos veremos imitando involuntariamente a Brewster Kahle e intentando reproducir en nuestro ordenador el Archivo de Internet ( 6.7).
Lo que hace el sistema es que después de una primera descarga de las páginas seleccionadas, comprueba (con la periodicidad y resto de condiciones especificadas), si el sitio presenta adiciones y/o actualizaciones en sus páginas, y de ser así descarga las últimas versiones.
Cambiar la configuración de las subscripciones:


Si después de realizada una suscripción, y especificado un perfil, cambiamos de criterio, es posible modificarla yendo a Favoritos Organizar Favoritos, donde aparece un nuevo cuadro de diálogo (figura 6).
Debe seleccionar en el cuadro de la derecha la suscripción que quiere cambiar; a continuación, seleccionando el botón Propiedades, pueden modificarse las especificaciones anteriores.
§2.2.6 Canales
Al tratar de los servicios de Internet ( 4.2) ya señalamos que los canales son un sistema de recibir actualizaciones e información de sitios Web según un proceso de suscripción pero en el que las actualizaciones de contenido se realizan según un programa especificado por el proveedor del contenido que puede ser personalizada por el cliente.
Nota: La tecnología de canales, fue impulsada por Microsoft en las versiones 4x de su navegador, pero cayeron en desgracia a partir de las versiones 5.x, en las que quedaron reducidas a una carpeta de la sección "Favoritos" .
El Explorador de Windows permite mostrar los canales de varias formas: En el explorador como otras páginas Web estándar; en ventanas completas, y en el escritorio, pero la forma mas fácil es mediante la denominada Barra de Canales. Esta es una ventana en el escritorio que puede usarse para abrir rápidamente sitios Web desde el escritorio sin tener que abrir previamente el explorador.

Mostrar la barra de canales: La barra de canales puede mostrarse en el escritorio tanto si se instaló únicamente el explorador MS. IE-4 como si se instaló el explorador con el nuevo escritorio [5].
• Si se instaló únicamente el explorador:
Menú de Inicio Programas Internet Explorer Barra de canales
• Si se instaló el nuevo escritorio con el explorador:
Menú Inicio Configuración Active Desktop Personalizar mi escritorio En la ficha Web Ver Active Desktop como una página Web Activar Barra de canales Internet Explorer.
Agregar un canal a la barra de canales: [6]
• Barra de herramientas botón "Canales"
• En las barras del explorador Channel Guide Seguir las instrucciones que aparecen en pantalla.
Subscribirse a un canal:
• En la barra de herramientas botón "Canales"
• En las barras del explorador Channel Guide Seguir las instrucciones que aparecen en pantalla.
Mostrar un canal en el explorador:
• En la barra de herramientas botón "Canales".
• En las barras del explorador Canal o categoría que desee ver.
Mostrar un canal en el escritorio:
• Botón secundario del ratón en el escritorio Propiedades ficha Web Nuevo.
Si se desea abrir el sitio Web Galería de Active Desktop y elegir un canal allí: Sí (se cerrará el cuadro de diálogo).
Si se desea seleccionar otro canal: No (continuar en el paso siguiente).
Escribir la dirección del canal o Examinar (para buscarlo).

§3 Prácticas de Navegación
Las direcciones URL no pueden contener espacios, ni (generalmente) mayúsculas en su primera parte (dirección de dominio primario).
Buscar la sección: FAQ.
Guardar una página (problemas que pueden presentarse).
Imprimir una página, opción de imprimir tabla de vínculos (utilidad).

§3.1 Problemas que suelen presentarse:
Cuando no aparece la página.
Uno de los principales problemas de navegantes y buscadores [7] es la ya comentada, volatilidad de la información en la Red ( 6.7). En dicho capítulo indicamos que las causas de desaparición de una página pueden ser muy diversas, una de las más frecuentes es el cambio de dirección de un sitio Web. El resultado es el conocido y fatídico mensaje "404-Document Not Found error". El origen es casi siempre el cambio de PSI ( 7.1); en estos casos, si el cliente no disponen de un dominio propio, la dirección de su Web cambia cada vez que cambia de proveedor. A veces, para prevenir la pérdida de visitantes, se mantienen enlaces en el sitio antiguo durante un cierto tiempo, incluyendo mensajes indicando que la página ha cambiado de sitio y que debemos actualizar nuestro bookmark. En ocasiones la redirección es automática, de forma que pasado unos segundos de ver el mensaje, la página nos conecta automáticamente con la nueva dirección.
Otra causa muy frecuente de que no aparezca una página concreta es la reestructuración de la Web que la aloja, algo frecuentísimo si el Webmaster rediseña y/o redistribuye los contenidos. En estos casos basta dirigirse a la página principal (de entrada) e intentar buscar la nueva ubicación del contenido que nos interese, en caso que no aparezca, puede enviarse un e-mail al Webmaster, cuya dirección suele incluirse en algún rincón, preguntándole por la suerte que ha corrido el objeto de nuestro interés.
Las webs de las grandes corporaciones suelen ser mastodónticas, en palabras de un amigo "Como las pirámides de Egipto", es fácil perderse en ellas. En estos casos es muy frecuente que el contenido de una página no aparezca a la segunda visita por razón de las comentadas reestructuraciones. Afortunadamente estos sitios suelen contar con potentes buscadores en los que, con las palabras-clave adecuadas, podemos intentar localizar el contenido que nos interesa.
Si se trata de direcciones muy antiguas podemos intentar hacer arqueología en el Archivo de Internet ( 6.7), donde con suerte quizás encontremos la página deseada.

§4 Navegación diferida (off-line)
En ocasiones es deseable tener acceso a los contenidos e información de una página o sitio Web sin la obligación de estar físicamente conectados a Internet. Los motivos pueden ser muy variados: Que debemos consultar el sitio muy frecuentemente, que la información debe ser accesible en momentos en que no disponemos de conexión a Internet (estar de viaje, fuera de la oficina, en el domicilio de un cliente, etc), que es muy elevado el coste de la conexión repetida, que la red está muy lenta, etc.
Para resolver estos problemas, se han desarrollado programas (denominados "Aspiradores de Web"), que son capaces de descargar una página o sitio Web completo y grabar el contenido en el disco duro, de forma que pueda ser accedido mas tarde sin conexión a la red. La grabación suele hacerse en un formato específico, que el propio programa es capaz de interpretar más tarde, aunque algunos pueden utilizar el navegador Web estándar que tengamos instalado. En cualquier caso, el resultado es una navegación en diferido (off-line) que no difiere en nada de la real [8], con la única diferencia de que los accesos son prácticamente instantáneos, al tener los datos en el propio disco duro.
Como hemos señalado, algunas Webs son mastodónticas, de forma que sus contenidos no cabrían en el disco duro de nuestro ordenador y/o el tiempo de descarga sería inaceptable. Además es muy frecuente que contengan enlaces a otros sitios, en lo que puede ser una cadena sin fin que nos obligaría a descargar todo el universo Web en nuestro disco duro. Por estas razones, estos programas suelen contar con una serie de directrices, que pueden ser establecidas por el usuario, de forma que solo se descargue el contenido que interese, limitando el objeto de la descarga tanto en calidad como en cantidad y en tiempo.
Las limitaciones y condiciones que se pueden establecer en este tipo de programas, son las siguientes:
• Cantidad máxima en MB. a descargar en el disco duro (para no correr el riesgo de llenarlo demasiado).
• Cantidad máxima en KB. para el elemento mayor cuya descarga se permite (dibujo, ejecutable, archivo de sonido, etc).
• Profundidad de la exploración: Caso de una página que llama a una página que llama a otra página que... , número de estas llamadas que se permiten. Recuerde que el interior de un sitio Web tiene una estructura de árbol.
• Si se permite seguir la exploración en otra Web, o la descarga debe limitarse a los contenidos en la dirección inicialmente señalada (los redireccionamientos son muy frecuentes en los sitios Web).
• Tiempo máximo de la descarga: Pasado el tiempo establecido, si la descarga no ha terminado, se da por finalizada y el equipo puede desconectarse de Internet e incluso apagar el ordenador.
• Que tipo de contenidos se guardarán. Se dan por supuesto los contenidos texto de tipo HTM y HTML; a partir de aquí pueden consentirse o no distintos tipos de contenidos: Imágenes, ejecutables (aplicaciones), texto, audio, video, applets Java, Active X, etc. La razón de estas limitaciones suele ser tanto para acelerar las descargas como para disminuir el tamaño de los ficheros resultantes, manteniéndolos al mínimo imprescindible.
• A veces se puede definir un cronograma para las descargas, que se ajustarán automáticamente a lo establecido. Si el ordenador está encendido, pueden incluso iniciar por si mismos la conexión a Internet y desconectarse cuando ha concluido el trabajo. Pueden establecerse determinados días y horas de la semana (cuando los precios de las conexiones son mas baratos, la Red está mas rápida, etc).
Existe multitud de programas de este tipo en la Web, entre los que pueden recomendarse para uso personal tenemos los siguientes:
WebVCR. [url]http://www.netsresultscorp.com[/url]
Programa shareware de Netsresults. Permite grabar una cinta con el contenido de una Web o parte de ella. Tienen todas las opciones típicas de un programa de este tipo, incluyendo grabación temporizada.
WebZip [url]http://www.spidersoft.com[/url]
Este programa Shareware de Spidersoft puede capturar una Web completa, o parte de ella, de forma automática y comprimirla en un fichero ZIP que se guarda en el disco. Después es posible navegar off-line con el navegador normal o el que tiene incorporado el programa.
MemoWeb [url]http://www.memoweb.com[/url]
Programa de Goto Software del que existe versión en español, en la misma línea que los anteriores.

§5 Contenidos: Propiedad intelectual. Conceptos legales.
Es conveniente recordar que el hecho de que determinados contenidos e información sean accesibles de forma bastante libre en Internet y en la Web en particular, no significa que no sigan siendo válidos los conceptos de propiedad intelectual y artística. Esta cuestión se expone con alguna mayor extensión en el capítulo 4.d al hacer referencia a la transferencia de ficheros (FTP).


[1] Precisamente esta cuestión ha sido uno de los ejes fundamentales del contencioso entre Microsoft y la Justicia Norteamericana. Microsoft ha sido acusada de prácticas monopolísticas por obligar a los fabricantes de ordenadores a incluir el Navegador MS si querían utilizar Windows; la compañía ha respondido a estas acusaciones aduciendo que era imposible separar el navegador del propio Sistema Operativo (ver la nota 5 ). Posteriormente fuentes académicas demostraron la falsedad de esta afirmación.
[2] Este truco sirve no solo para la tilde; también para cualquier carácter ASCII ( E2.2.1a); el número que hay que marcar es el valor decimal del carácter que queramos obtener.
[3] El Explorador de Windows sirve para "navegar" por los directorios y ficheros de nuestro propio equipo, o de otros equipos, si estamos conectados a una red de área local (LAN). Por su parte, el Explorador de Internet ("I Explorer") sirve para navegar por la Web.
[4] Los cookies tienen un periodo de validez que es establecido por el diseñador de la página que visitamos; pasado este plazo, son automáticamente borrados de nuestro equipo por el navegador.
[5] El nuevo escritorio (estilo Web), que puede instalarse en Windows 95 o Windows NT 4.0, viene como un añadido de MS I. Explorer 4.x, que es distribuido sin cargo por MicroSoft. En Windows 98 y Windows NT 5.0. viene ya integrado como parte inseparable de ambos productos.
[6] Muchos canales ofrecen la opción de configurar una suscripción al agregar el canal a la barra de canales.
[7] Una de las tareas mas importantes de los robots de búsqueda es repasar constantemente los enlaces de sus bases de datos, detectando los cambios y enlaces rotos, para garantizar que la información ofrecida se mantiene actualizada.
[8] Naturalmente que siempre existen funcionalidades inaccesibles en esta forma de navegación, por ejemplo realizar transacciones de comercio electrónico o consultas en
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:14   #9
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
8 Servicios de Internet
8.1 Correo electrónico (e-mail)
El 24 de Mayo de 1844, Samuel B. Morse hace historia enviando el primer telegrama: "What hath god wrought" [1].

El 10 de Marzo de 1876 nace la era del teléfono, anunciada por Alexander Graham Bell en su ya legendaria convocatoria a su asistente: "Mr. Watson, come here; I want you."

Aunque las palabras exactas de la primera transmisión inalámbrica de Guillermo Marconi en 1895 no son recordadas para la historia, no pasó mucho tiempo sin que amasara honores y reconocimientos, culminados con un Novel de Física en 1909. Incluso 30 años mas tarde, la inauguración del servicio inalámbrico entre Inglaterra y Sur África parecía una circunstancia histórica a los participantes: "We speak across time and space. . . . May the new power promote peace between all nations" rezaba el radiograma enviado por Sir Edgar Walton, alto comisionado de Sur África al general J. B. M. Hertzog, primer ministro de Sur África en 1924.

Tampoco nos es conocido el contenido del primer e-amil enviado por Internet....

§1 Apunte histórico
A finales de 1971 Ray Tomlinson, un ingeniero de la BBN ( 2.1.a) meditaba sobre un programa de mensajería electrónica, denominado SNDMSG, que había escrito para ayudar a intercambiar mensajes entre los investigadores que trabajaban en una máquina Digital PDP-10. Pero esto no era e-mail tal como lo conocemos hoy [2]; desde principios de los 60 existían programas que trabajaban localmente; se limitaban a dejar ficheros en un directorio al efecto (mail box) que podían ser accedidos solo por los usuarios de la misma máquina. Cada destinatario tenía su buzón y los demás podían añadir mensajes (líneas) a su contenido, pero no ver o borrar lo que ya había en el buzón. Cada persona tenía derecho de acceso sobre su propio buzón (algo fácil de hacer en Unix), de forma que cada cual podía ver los mensajes que recibía.
Como Tomlinson estaba trabajando por entonces en un protocolo experimental (CYPNET) para transferir ficheros entre ordenadores remotos de ARPANET, se le ocurrió utilizarlo para permitir que su propio SNDMSG pudiera depositar mensajes en buzones de máquinas remotas. Para esto solo tenía que añadir a CYPNET la capacidad de agregar material a ficheros ya existentes, lo cual solo requería retoques menores en el código, además decidió utilizar el símbolo @ (arroba) para distinguir entre direcciones de buzones en la propia máquina y aquellas otras que se referían a máquinas remotas en la Red. El propio Tomlinson señala al respecto: "Usé el signo @ para indicar que el usuario, en vez de ser local, estaba en -at- algún otro ordenador". Hecho esto, se auto-envió un mensaje entre dos máquinas PDP que estaban en el mismo local de la BBN, pero cuya única conexión era a través de ARPANET.
Una vez que se convenció del funcionamiento de su nueva versión del SNDMSG, envió un mensaje a todos sus colegas indicándoles las nuevas características así como instrucciones de poner el símbolo @ entre el nombre de usuario y el nombre del ordenador. Así pues, el primer uso público del nuevo servicio e-mail de ARPANET fue anunciar su propia existencia [3].
El éxito fue instantáneo, una vez que la gente dispuso de la nueva versión de SNDMSG, virtualmente todas las comunicaciones comenzaron a ser vía e-mail. Dos años mas tarde se descubriría que el 75 % del tráfico de ARPANET consistía en correo electrónico. Cinco años después, los diseñadores y constructores de ARPANET caían en la cuenta de que una de las razones del éxito de la Red era el correo electrónico. Un informe al respecto escrito por la propia ARPA en 1976 indica: "Uno de los aspectos sorprendentes del servicio de mensajes es la naturaleza de su nacimiento y rápido crecimiento; ni planeado, ni previsto, ni desarrollado deliberadamente, sencillamente pasó. Su historia se parece mas al descubrimiento de un fenómeno natural que a un acto deliberado de desarrollo tecnológico".
Desde luego una de las razones de que fuera tan rápidamente aceptado es que se ajustaba perfectamente a las necesidades y estilo de comunicación de los ingenieros que construyeron ARPANET. En un artículo publicado en 1978 por el IEEE (Institute of Electrical and Electronic Engineers), dos de los responsables más importantes de la creación de ARPANET, J. C. R. Licklider y Albert Vezza, explicaron su opinión de las razones para la popularidad del e-mail (que siguen siendo vigentes): "Una de las ventajas del sistema de mensajería sobre el sistema de cartas por correo ordinario [4] es que en ARPANET cualquiera puede escribir de forma concisa y mecanografiar de forma imperfecta, incluso a una persona en una posición superior, o incluso a alguien a quién no se conozca bien, sin que el receptor de la nota se sienta ofendido... Entre las ventajas del servicio de mensajería de la Red sobre las llamadas telefónicas están que puede irse directamente al grano sin necesidad de preámbulos [5]; que se mantiene un registro de las cuestiones tratadas, y que el remitente y el receptor no tienen porqué estar disponibles exactamente en el mismo momento".

Según hemos visto, inicialmente el correo se limitaba a escuetos mensajes entre investigadores, que además era recibido a veces en meros teletipos, sin embargo, con la proliferación de la Web, la capacidad multimedia de los equipos actuales y la capacidad de los modernos programas de correo de aceptar no solo texto (plain text), sino también formato HTML, el panorama está cambiando. Ya es posible recibir auténticas "preciosidades" de e-mail que incluyen gifs animados [6]; toda clase de texto en colorines, e incluso sonidos (como esas postales que tienen música). Literalmente es ya posible abrir un mensaje de correo que nos diga "Cumpleaños Feliz" de viva voz mientras nos muestra un video-clip [7]. El formato de los e-mail está definido en RFC822.
De acuerdo con Forrester Research (compañía de estudios de mercado de Cambridge, Mass.), en 1996 el 15 % de la población USA tenía ya acceso a e-mail, y el servicio era citado como uno de los motivos principales para poner PCs en los hogares, con un volumen diario de 100 millones de mensajes e-mail. La citada compañía preveía que para el año 2001, el 50 % de la población USA tendría correo electrónico y que el volumen de transacciones alcance la astronómica cifra de 5 billones de transacciones diarias para el año 2005.
Según eMarketer.com, un portal especializado en datos y estadísticas, en Enero del 2001 se enviaban diariamente 1.470 millones de correos electrónicos en todo el mundo, mientras que el número de envíos postales ordinarios se cifraba en 570 millones.

[1] En 1866 ya existía un servicio trasatlántico de mensajes telegráficos por cable, aunque el coste era tremendo; un mensaje de 20 palabras costaba 100 dólares oro.
[2] Al correo electrónico en Internet se le conoce también (quizá mas) por e-mail, contracción de "Electronic mail".
[3] Recordemos que por aquella época, ARPANET conectaba solo 15 nodos en sitios tales como UCLA en California, la Universidad de Utah en Salt Lake City y BBN en Cambridge, Massachusetts. Es decir, en Internet se conocía todo el mundo!!.
[4] Snail Mail (Correo Caracol) en el argot de la Web.
[5] Una de las características heredadas del primitivo correo electrónico, que se mantiene hasta nuestros días, es precisamente esta falta de formalismos y etiqueta en los comunicados, propios del ambiente en que nació. Con frecuencia los mensajes, incluso los destinados a foros públicos -grupos de noticias-, comienzan con un escueto "Hola", e incluso sin saludo inicial.
[6] GIF es el acrónimo de ("Graphic Interchange Format"), un estándar para codificación de imágenes muy utilizado en informática, en especial en la Web. Por extensión, un "Gif" se refiere a una figura en este formato. Los "Gifs" animados son figuras en este formato (generalmente pequeñas) que contienen varios cuadros (frames) que por un mecanismo especial son mostrados por el navegador en rápida sucesión, haciendo la ilusión de movimiento, son esas figuritas de las páginas Web que repiten incansablemente el mismo movimiento.
[7] Aunque no estemos en contra del progreso, y las tales utilidades puedan ser de utilidad real en circunstancias determinadas, en general se reducen a una pérdida de tiempo (de descarga), de espacio (en servidores y equipos) y de ancho de banda (en los medios de transmisión).

8.1 Servicio de correo electrónico
8.1.1 Generalidades

§1 El protocolo de transmisión
El mecanismo del envío y recepción de los mensajes está controlado por SMTP ("Simple Mail Transport Protocol"), nombre con el que se conoce al protocolo encargado del tráfico de correo, que por supuesto se apoya en los protocolos estándar de la Red TCP/IP ( 3.1). El proceso es mas o menos como sigue: El remitente escribe un mensaje con un programa especial (denominado cliente de correo), en el mismo momento o más tarde, cuando dispone de conexión a Internet ordena su envío. En este momento una "capa" de SMTP denominado IMAP ("Internet Message Access Protocol") construye un datagrama con el mensaje [1]. Este datagrama se compone de una cabecera (header) y el cuerpo del mensaje (el texto).
Nota: En el epígrafe 8.1.3 describiremos más pormenorizadamente las partes que componen el mensaje.
La cabecera incluye información sobre el origen ("From"), el destino ("To"), el resumen ("Subject"), fecha de envío ("Date"), así como otros datos internos, que son proporcionados por el propio sistema de forma automática. En el cuadro 8.8.1a se muestran algunos de los datos incluidos en la cabecera de cualquier mensaje que enviemos [5]. A su vez, el cuerpo del mensaje constituye lo que podríamos denominar su carga útil (lo que queremos transmitir). En los primeros correos solo era posible transmitir texto, pero hemos indicado ( 8.1) que actualmente es posible transmitir cualquier otro contenido.
From: "A.J.Millan"
To:
Subject: =?iso-8859-1
?B?RXN0YSBsZW5n/GEg8W/xYSBubyBzZSBpcuEgY29uIOlsLiA=?=
Date: Wed, 2 Sep 1998 13:00:57 +0200
MIME-Version: 1.0
Content-Type: text/plain;
charset="iso-8859-1"
Content-Transfer-Encoding: 8bit
X-Priority: 3
X-MSMail-Priority: Normal
X-Mailer: Microsoft Outlook Express 4.72.2106.4
X-MimeOLE: Produced By Microsoft MimeOLE V4.72.2106.4
Cuadro 8.1.1a
El paquete de información es transmitido al servidor de correo de nuestro PSI ( 7.1), el cual lo reexpide a la dirección adecuada. Después de varios saltos por los agentes de correo MUAs [2], y enrutadores (routers), finalmente llega a su destino; otro servidor de correo en alguna parte, el cuál lo deposita en el buzón correspondiente. Mas tarde, cuando el destinatario desea recibir su e-mail, se conecta a Internet y su cliente de correo se encarga de inspeccionar el buzón, recibir los posibles mensajes y borrarlos del buzón una vez recibidos conforme. En realidad, el mecanismo de esta última fase es el siguiente: En el servidor de correo existe un conjunto de programas conocidos como POP ("Post Office Protocol"), cuando el PSI nos asigna una cuenta de correo y una clave de acceso ("password"), en realidad nos está dando una autorización para usar dicho sistema POP en el servidor, el cliente de correo solicita el envío de correo al sistema POP y este lo envía al cliente [6].
Cada uno de los "routers" por los que pasa nuestro mensaje, añade una etiqueta a la cabecera que deja constancia de su paso. Esta etiqueta contiene indicación de quién lo envía, quién lo recibe y algunos detalles adicionales, de forma que es perfectamente posible rastrear el itinerario del mensaje. Las etiquetas que se van añadiendo tienen mas o menos el siguiente aspecto:
Received: from
by:
Fecha y hora.
El primer salto es desde nuestro ordenador al servidor de correo de nuestro PSI, y como tal queda registrado. Como primer "router" remitente aparece el nombre que le hayamos dado a nuestro propio ordenador [3], y como primer "router" receptor el servidor de correo de nuestro PSI.
Nota: En el capítulo siguiente veremos que la transmisión de correo utiliza un tratamiento distinto para las cabeceras y para el cuerpo de los mensajes ( 8.1.2).

A título de ejemplo, en el cuadro 8.1.1b, se muestra como ha sido "etiquetado" el mensaje original del cuadro 8.1.1a después de ir y venir al servicio Eco de Rediris [4].
Received:
from sandra2.ctv.es (sandra2.ctv.es [194.179.52.11])
by chico.rediris.es (8.9.1/8.9.1) with ESMTP id MAA25895
for ; Wed, 2 Sep 1998 12:53:05 +0200 (MET DST)
Received:
from portatil (ctv21225134040.ctv.es [212.25.134.40])
by sandra2.ctv.es (8.8.7/CTV-1.1) with SMTP id MAA23834
for ; Wed, 2 Sep 1998 12:52:21 +0200 (MET DST)
X-Envelope-To:
From: "A.J.Millan"
To:
Cuadro 8.1.1b

En algunas circunstancias, el sistema de correo es incapaz de encontrar al destinatario. Podemos suponer el caso de haber tomado mal la dirección, o sencillamente el destinatario ha cambiado de PSI y ese buzón ya no existe. Por ejemplo: Fulanito estaba en CTV, su cuenta de correo era [email]fulanito@ctv.es[/email] y ahora se ha trasladado a Arrakis, su nueva dirección de correo es [email]fulanito@arrakis.es[/email]. Cuando el servicio de correo intente entregar el mensaje en el servidor de CTV para "fulanito", este lo rechaza diciendo "desconocido" (exactamente igual que pasa con sus cartas si cambia de domicilio).
En estos casos (como su homólogo tradicional), el sistema (que aparece en el remite como "Mail Delivery Subsystem"), redacta un e-mail al remitente cuyo asunto es: "Returned mail: User unknown", en el texto se encuentra una nota explicativa de que no ha podido ser entregado (en el cuadro 8.1.1c se muestra un ejemplo del texto que podemos recibir). Además de esta nota explicativa se incluye nuestro mensaje original, bien en el cuerpo del mensaje, bien como un fichero adjunto.
The original message was received at Mon, 31 Aug 1998 13:46:00 +0200 (MET DST)
from ctv21225130195.ctv.es [212.25.130.195]

----- The following addresses had permanent fatal errors -----

----- Transcript of session follows -----
... while talking to chusuk.arrakis.es.:
>>> RCPT To:
<<< 550 ... User unknown
Cuadro 8.1.1c

En otros casos, el correo puede tener problemas de entrega por otras causas. Por ejemplo, el servidor de correo del destinatario se ha "caído", está fuera de linea por algún motivo (puede que tenga una avería y lo estén reparando). Entonces, pasado un tiempo prudencial (por ejemplo 4 horas), el sistema de correo Internet nos avisa que el mensaje todavía no ha podido ser entregado pero no tenemos que hacer nada, seguirá intentándolo mas tarde (cuadro 8.1.1d).
**********************************************
** THIS IS A WARNING MESSAGE ONLY **
** YOU DO NOT NEED TO RESEND YOUR MESSAGE **
**********************************************

The original message was received at Sun, 4 Oct 1998 00:13:19 +0200 (MET DST)
from ctv21225136252.ctv.es [212.25.136.252]

----- The following addresses had transient non-fatal errors -----


----- Transcript of session follows -----
... while talking to abbs.idg.es.:
>>> DATA
<<< 451 Local processing error - try again later.
... Deferred: 451 Local processing error - try again later.
Warning: message still undelivered after 4 hours
Will keep trying until message is 5 days old
Cuadro 8.1.1d
.

[1] IMAP, junto con POP, al que nos referimos a continuación, constituyen dos de los "Layers" mas importantes de SMTP. IMAP permite a los clientes de correo acceder y manipular los mensajes almacenados en nuestro buzón (del servidor de correo de nuestro ISP). Incluye operaciones para crear, borrar y verificar la llegada de nuevos mensajes y otras utilidades.
[2] MUA ("Mail User Agent"). Un término algo ambiguo que se refiere al conjunto de dispositivos hardware y software que intervienen en el servicio e-mail.
[3] En Windows 98 el nombre de nuestro ordenador es accesible desde: Menú de Inicio Configuración Panel de Control Red Identificación Nombre PC.
[4] Respecto a este servicio, ver el punto siguiente: Problemas de configuración ( 8.1.2)
[5] La adjunta ( Nota16) contiene detalles adicionales sobre los campos de cabecera.
[6] En el número de Mayo del 2000, de la edición española de Selecciones de Reader's Digest (p. 83), puede leerse un artículo de John Dyson "Como viaja un correo electrónico", que muestra de forma muy amena y accesible las peripecias de un e-mail.

8.1 Servicio de correo electrónico
8.1.2 Configuración; Problema de los formatos

§1 Presentación del problema
Para entender cabalmente el asunto de la codificación y los formatos es conveniente recordar que en la transmisión de correo confluyen varios conceptos y problemas distintos. Hemos visto ( 8.1), que el sistema de correo empezó en USA, en máquinas UNIX (aunque incluso en estas existían mas de una versión de ASCII [1] ), de modo que la versión usada en el e-mail estándar, es la denominada US-ASCII, que utiliza palabras de 7 bits, por lo que estrictamente hablando, el e-mail solo es capaz de transmitir mensajes escritos con este juego de caracteres (texto Americano imprimible). Como justamente era esa su utilización inicial, el e-mail cumplía su cometido a la perfección y no existían problemas. Sin embargo, el sistema fue pronto utilizado para transmitir mensajes escritos en otras lenguas (utilizando otros sistemas de codificación distintos del US-ASCII); además, aunque no había sido el objetivo inicial en el ánimo de su inventor, se hacía cada vez mas necesario poder transmitir ficheros binarios, porque la gente empezaba a querer utilizar el correo como medio de transmitir todo tipo de contenidos además de texto.
Para ilustrar el problema en su situación actual, supongamos un hipotético caso en que un amigo árabe (Omar) desea enviarme por e-mail una felicitación que contiene un texto y un pequeño mensaje sonoro (suponemos que lo envía desde su PC que está configurado para escribir texto en su lengua).
Evidentemente, el primer problema es el idioma (no conozco el árabe, así que voy a mostrar el mensaje a un vecino que si lo conoce para que me lo traduzca). La segunda cuestión es el sistema de codificación utilizado. En está escrito en árabe; los símbolos (extraños para mi) que él escribe, son codificados en su computadora mediante un sistema especial (por ejemplo Árabe de Windows), así que cuando Omar escribe la letra d, su PC lo transforma en un código ASCII extendido (de 8 bits) que normalmente será mostrado en mi PC como el carácter Æ. El tercer problema es el trozo sonoro del mensaje, es un fichero WAV codificado en binario (un tipo de fichero de audio de Microsoft).
Cuando Omar compone el mensaje y da la orden de enviar, IMAP debe componer un datagrama con la cabecera y el cuerpo ( 8.1), pero recordemos que generalmente los MUAs solo conocen de transmisiones en US-ASCII (7 bits), por lo que en principio no habría forma de transmitir nada codificado en 8 bits ni en binario. Además, sería conveniente incluir en el mensaje alguna indicación del sistema de codificación utilizado para el texto y el trozo sonoro. Así mi PC podría ser capaz de mostrar el texto en su grafía original (caracteres árabes que debe leer mi vecino) y llamar al programa que será capaz de reproducir los sonidos del fichero WAV.
Por supuesto toda esta información es incluida, junto con otros datos, en la cabecera del mensaje, así que (suponiendo que arbitremos una fórmula para enviarlo), una vez leída esta, es posible obtener información sobre la estructura del cuerpo mensaje. Evidentemente nos enfrentamos a un problema circular. ¿Como leer la cabecera sin saber como está codificada?.
Para resolver el problema, IMAP da un tratamiento distinto a la cabecera y al cuerpo de los mensajes. Los datos de cabecera están escritos exclusivamente en US-ASCII, de forma que esta parte del mensaje puede circular libremente por los MUAs, además, lo clientes de correo pueden interpretar fácilmente su contenido.
Una vez resuelta esta parte del problema, solo quedaba el de la transmisión del cuerpo de los mensajes. Este es el objeto de este capítulo, pero adelantemos que la solución consistió en transformar cualquier contenido en US-ASCII antes de transmitirlo y reconvertirlo de nuevo en destino al formato original.

§2 La solución
Como hemos visto, el sistema de correo necesitaba poder transmitir ficheros binarios además de texto, pero el problema no se reducía a esto. Por otro lado, los creadores del protocolo SMTP habían establecido dos condiciones a los mensajes que empezaban a ser molestas: Ni la longitud total de una línea ni del mensaje podían exceder de 1.000 caracteres. Además, debido a que los textos pueden ser enviados y recibidos por usuarios de máquinas muy distintas (no hay porqué suponer que todo el mundo lo hará en Windows sobre un PC) y al conocido problema con los formatos (incluso ASCII), puede darse el caso que lo escrito por un noruego en un Apple lo reciba un hispano como sánscrito en un PC, y no digamos nada si está escrito en Ruso o Japonés. Incluso utilizando código ASCII de 7 bits, el mensaje solo se transmitía bien (sin trastocar caracteres) si las máquinas origen y destino utilizaban la misma versión.
Para resolver el problema, se inventaron varios procesos, todos basados en el mismo principio: Transformar el fichero no ASCII en US-ASCII (de 7 bits); transmitirlo en este formato y reconvertirlo en el destino al formato original. El proceso de transformar no ASCII en US-ASCII se denomina "codificar" (encode), el inverso "decodificar" (decode), reconstruye el fichero original en la máquina del destinatario. Aunque el sistema funcionaba bien, con la evolución del servicio empezó a verse que no era suficiente, algunas redes y enrutadores que no utilizaban el protocolo UUCP [2], corrompían el contenido de las transmisiones. Usuarios y fabricantes ofrecieron soluciones, pero con frecuencia, las diversas parejas encode/decode de diversos fabricantes no coincidían exactamente con el resultado de que no hacían bien el trabajo.
Para resolver este y otros problemas, en 1991 la IETF ( 2.1a) comenzó a desarrollar un sistema denominado MIME ("Multipurpose Internet Mail Extensions Encoding"). Se trata de un estándar con dos finalidades muy concretas: De un lado, normalizar el modo de intercambiar por Internet todo tipo de archivos de forma transparente para el usuario (texto, audio, vídeo, etc.); de otra, acabar con el problema de las transferencias de texto internacional (al que aludíamos al principio del párrafo) por correo electrónico. El estándar ha sido ampliamente aceptado y en la actualidad no solamente ha sido integrado en los programas de correo, de forma que ya aceptan cualquier juego de caracteres (incluso trozos multimedia en los mensajes), sino que se ha integrado en el protocolo HTTP de la Web, de forma que cuando se lee una página HTML, el navegador examina las cabeceras, identifica el tipo de archivo y lo abre o ejecuta según su tipo.
Desgraciadamente, a la fecha (1998) no es todavía la panacea universal, subsisten muchos clientes de correo que no lo tienen correctamente implementado o que utilizan codificaciones no compatibles.
El entandar MIME es muy amplio (su descripción ocuparía mas de 100 páginas), no obstante, podemos decir que la base del proceso está en especificar como se enviarán los ficheros según su clase (mediante unas tablas que el programa consulta y que le indican cual es la acción adecuada en función del tipo de contenido). En la nota adjunta ( Nota16) se amplían algunos detalles sobre este importante estándar para los lectores que quieran saber algo mas sobre las opciones de configuración que nos ofrece el programa de correo.


§3 Configurar el cliente de correo
Antes de enviar mensajes se debe estar seguro que se tiene bien configurado el cliente de correo, sobre todo la configuración MIME. A este respecto, hay un procedimiento que permite ver como queda nuestro mensaje; consiste en hacer una prueba, enviando un mensaje a la dirección: [email]echo@rediris.es[/email] que contestará automáticamente tal como lo veríamos. El sistema es válido para hacer una primera prueba de comprobación general, pese a que un destinatario real, distinto de nosotros mismos, podría recibirlo de forma distinta (por otros problemas de configuración).
Si utilizamos el español en la redacción de nuestros mensajes, no solo no hay inconveniente en puntuar bien (acentos diéresis, etc.), sino que "se debe" [3]; para ello es necesario configurar el cliente de correo correctamente. En la nota antes señalada ( Nota16) se amplían algunos detalles al respecto, pues el tipo de codificación elegido tiene gran influencia; para el español es mejor elegir la codificación MIME "Quoted-Printable".
En la figura adjunta (Fig.1) se muestra el cuadro de diálogo de configuración del cliente de correo MS Outlook Express 5.50. Dentro de este programa, el cuadro de la figura es accesible en: Herramientas Opciones Enviar.
Para los propósitos de este capítulo solo nos interesan las opciones Configuración internacional y las de configuración de envío de correo y de noticias.
La opción Incluir mensaje en la respuesta será cometada al tratar del envío y recepción de mensajes ( 8.1.4)

Figura 1
§3.1 Codificación de nuestros mensajes
Suponiendo que utilizamos MS Outlook 5.50, esta opción es accesible en el botón Configuración Internacional (Fig.1), y conduce a un cuadro de diálogo como en la figura 2.
Aquí decidimos que juego de caracteres que se usará al enviar mensajes internacionales. En nuestro caso, utilizamos el Europeo occidental.
Figura 2
Recordemos que la cabecera del mensaje se codifica en US-ASCII; esto hace que los campos origen ("From"), destino ("To") y resumen ("Subject") sean codificados en este formato. La consecuencia para nosotros es que sea preferible no utilizar acentos al escribir estos campos, ya que es altamente probable que estos caracteres no sean correctamente interpretados por algunos agentes de correo.
En el cuadro de la figura 2, la marca Usar encabezados en inglés al responder a un mensaje, se refiere a utilizar las palabras inglesas To, From y Subject en nuestros mensajes, incluso aunque el idioma de la respuesta no sea inglés. Esto es conveniene en especial cuando nuestros mensajes son atendidos por sistemas automáticos.

§3.2 Codificación de formato de envío de correo
Con el aumento de capacidad de los clientes de correo, comenzó a ser posible que estos mostrasen correctamente mensajes cuyo cuerpo estubiese escrito en HTML ( 5.2). Esta nueva capacidad ha extendió la costumbre de enviar e-mails que más parecen páginas web que meros mensajes de texto.
Los clientes de correo Microsoft Outlook Express permiten utilizar ambas formas, tanto para los mensajes normales de correo como para los mensajes enviados a grupos de noticias ("News"). Mi consejo es utilizar en ambos casos texto sin formato ("Plain text"). En el caso de mensajes normales se optimiza el ancho de banda, además siempre podemos adjuntar cualquier fichero, documento, imagen, etc que deseemos como una atadillo ("Attachment").
En cuanto a los mensajes enviados a grupos de noticias, generalmente es obligatorio enviarlos en formato de texto ASCII y sin ningún atadillo.
Nota: Aunque el tema será tratado con más profundidad al tratar las normas de etiqueta en la red (Netiqueta), adelantemos aquí que los mensajes a grupos de noticias deben ser texto sin formato, lo más concisos posibles, y solo enviar un fichero adjunto si es solicitado expresamente. En estos casos es preferible no enviar la respuesta al grupo de noticias, sino responder particularmente al contertulio que lo solicitó.

[1] Para comprender cabalmente esta parte de la exposición, le recomendamos que leer previamente una breve introducción a los ordenadores electrónicos digitales ( E0.1) y a los tipos que se utilizan para almacenar texto, los denominados caracteres ASCII ( E2.2.1a).
[2] UUCP ("Unix to Unix Copy Program"). Protocolo de comunicaciones desarrollado en 1976 en los laboratorios AT&T
Bell. Utiliza un esquema de codificación para los contenidos a transmitir denominado Uuencode "Unix-to-Unix Encoding"), distinto del sistema MIME que es el más popular actualmente en Internet.
[3] Es cierto que el correo electrónico permite un nivel de informalidad mucho mayor que el usual en el sistema de correo tradicional, pero nunca está de más prestar cierta atención a la forma (sintaxis y ortografía). Además de ser una deferencia hacia nuestro interlocutor y de mejorar y clarificar la comunicación, una correcta ortografía dice mucho en favor del que escribe.

8.1 Servicio de correo electrónico
8.1.3 Componentes del mensaje de correo

§1 Sinopsis
Los mensajes de correo electrónico (e-mail) tienen varias partes que describiremos brevemente:
• Cabecera
• Dirección de destino
• Destinos adicionales
• Dirección del remitente (desde donde se envía el mensaje)
• Dirección de respuesta (a donde queremos que nos contesten)
• Asunto (breve sinopsis del contenido o el motivo del mensaje)
• Cuerpo (contenido del mensaje propiamente dicho)
• Añadidos (otros elementos adjuntos)

§2 Cabecera (header)

Fig. 1
Información oculta que, como se ha señalado ( 8.1.1), es añadida automáticamente por el sistema. No tenemos que preocuparnos por ella.


§3 Dirección de destino (to)

El componente más importante (e imprescindible); todo lo demás puede faltar. Es siempre de la forma: quién@donde. La primera parte es el destinatario, se refiere naturalmente al nombre de un buzón en un servidor e-mail. Por ejemplo joseantonio.gonzalez; la segunda indica al sistema donde se encuentra el buzón en cuestión. Por ejemplo, antheon.cis.yale.edu. Como puede verse, se trata de la dirección de un dominio ( 3.5). La dirección completa del ejemplo sería por tanto: [email]joseantonio.gonzalez@antheon.cis.yale.edu[/email].
Nota: No confundirse con el hecho de que algunos clientes de correo permiten escribir la dirección como si fuera un nombre o alias cualquiera que tenemos en un repositorio (una especie de agenda de direcciones e-mail y otros datos que tiene el propio cliente de correo [1] ). En estos casos, auque nosotros "veamos" otra cosa, la dirección interna tiene siempre el formato quién@donde.
En el ejemplo de la figura 1 la dirección de destino es [email]president@whitehouse.gov[/email].

§4 Direcciones de destino adicionales (CC)
Los clientes de correo actuales permiten el envío simultáneo de correos a varios destinos. Para esto hay dos modalidades, que serán comentadas más detalladamente en el apartado correspondiente. La primera permite a cada destinatario conocer que el mensaje ha sido enviado a los demás. La segunda es más confidencial, porque cada destinatario no es consciente de que el resto también ha recibido el mensaje.
En el ejemplo de la figura 1, el mensaje se envía también (Con Copia) a la dirección [email]pope@curia.va[/email].

§5 Dirección del remitente (from)

Aunque los clientes de correo incluyen siempre la dirección (e-mail) del remitente en la cabecera, junto con otros datos, de forma automática, los clientes e-mail actuales permiten añadir una etiqueta "From" para indicar de forma más "humana" de quién viene el correo, generalmente se pone un apodo (Nickname), que junto al asunto (subject ), permite identificar rápidamente al remitente. No es recomendable colocar caracteres no US-ASCII en este campo.

Fig. 2
Algunas personas, sobre todo en los Grupos de Noticias o Listas de Correo, usan apodos imaginativos o humorísticos que los identifiquen inequívocamente.
En MS Outlook Express 5.50 la configuración del "nick" del remitente es accesible en: Herramientas Cuentas Correo Propiedades. Su aspecto es el indicado en la figura 2 (campo Nombre)

§6 Dirección de remite
Es la dirección e-mail de la cuenta de correo que utilizamos para transmitir el mensaje; como se ha señalado, es incluida automáticamente por el sistema.
Salvo que se indique otra cosa (según se indica en el punto siguiente), es la dirección que utilizan los clientes de correo cuando se utiliza la opción "Responder al remitente" de un mensaje recibido.
En la figura 2, correspondiente a MS Outlook Express, es el campo "Dirección de correo electrónico".

§7 Dirección de respuesta
Existe la posibilidad de incluir automáticamente otra dirección e-mail para que sea utilizada como dirección alternativa de respuesta cuando los demás utilicen la opción "Responder al remitente". Es especialmente útil cuando enviamos los mensajes desde un sitio distinto del utilizado para recibirlos.
Si este campo es dejado en blanco, y a la recepción del mensaje, el destinatario utiliza la opción "Responder al remitente", la dirección utilizada será la de remite .
En la figura 2, es el campo "Dirección de respuesta".

§8 Asunto (subject)
Un espacio, generalmente una línea, en la que podemos poner un breve resumen descriptivo del contenido u objeto del mensaje. No es recomendable colocar caracteres no US-ASCII en este campo.
Es conveniente rellenarlo para darle al destinatario ocasión de poder echar un vistazo previo al contenido de los mensajes (en especial si los mensajes están dirigidos a Listas de Correo o Grupos de Noticias). En algunas ocasiones, en especial cuando se contesta o escribe a determinados sistemas automáticos de correo, es necesario incluir aquí algo concreto y literal, por ejemplo "Subscribe" o "Unsuscribe" [2].
En el mensaje de la figura 1. el asunto es "Una solicitud urgente".

§9 Cuerpo (body)

El cuerpo es el texto, lo que motiva el mensaje. Por lo común es meramente textual, pero puede no serlo, por ejemplo un documento HTML, que contiene múltiples partes no textuales (gifs, imágenes, sonidos, etc). De hecho el estándar MIME establece un mecanismo multi-parte para los mensajes que es recursivo, esto es, el mensaje puede ser "multipart", con diversos tipos de contenido (texto, imágenes, sonidos, etc), cada uno de los cuales puede ser multi parte a su vez.
En el ejemplo de la figura 1 el cuerpo del mensaje sería "Dejadnos vivir en paz".

§10 Ficheros asociados (Attachments)
Junto con el cuerpo, meramente textual o no, se pueden incluir otros contenidos, figuras, ficheros binarios, archivos comprimidos, etc. Resulta un procedimiento muy cómodo para enviar datos adicionales entre usuarios que solo disponen de una cuenta de correo [3].
Aunque el cuerpo (si es texto simple) no puede ser peligroso, los ficheros adjuntos pueden ser de cualquier tipo, incluso ejecutables y "Macros", por lo que debe extremarse la precaución antes de "abrir" uno de estos atadillos incluidos en e-mails de origen dudoso o desconocido [4].
En el ejemplo de la figura 1, además del texto del cuerpo, el mensaje tiene tres ficheros asociados: Una imagen (bmp) y dos ficheros ejecutables (exe).

[1] Esta agenda de direcciones ha sido ampliamente explotada por los creadores de virus de correo, haciendo que los equipos infectados envíen a su vez múltiples correos patógenos a todas las direcciones de esta "agenda", simulando que es el propio infectado el remitente de los mismos. Al ver que es de un conocido, el receptor del mensaje infectado puede caer en la tentación de abrirlo para ver su contenido, lo que hace que resulte a contaminado su vez. Por este procedimiento es perfectamente posible que seamos propagadores del virus entre nuestros amigos y conocidos de forma totalmente involuntaria e inconsciente.
[2] Estos sistemas se utilizan para asuntos tales como darnos automáticamente de alta, o baja, en grupos de noticias o listas de correo. En algunos casos, todo el proceso se realiza sin intervención humana, y el agente de correo toma una u otra acción dependiendo del contenido del "Subject" y de la dirección electrónica del remitente.
[3] Si el remitente dispone de un "sitio" Web, puede resultar mucho más cómodo situar el contenido en un directorio especial del sitio, y enviar un mensaje con enlaces ("Links") a los contenidos (junto con un texto alusivo), de modo que el receptor del mensaje puede "bajarlos" a su discreción. Es el procedimiento adecuado si los contenidos adicionales son muy voluminosos, dado que algunos sistemas de correo (en especial si son gratuitos) limitan el tamaño máximo de los mensajes aceptados.
[4] Algunos creadores virus y troyanos intentan engañar al receptor cambiando los nombres de estos atadillos, de forma que pueden ser ejecutables con nombres del tipo Imagen.gif.exe, que el receptor puede confundir con un inocente Imagen.gif.

8.1 Servicio de correo electrónico
8.1.4 Envío y recepción de mensajes

§1 Envío de e-mail
Antes que nada, tenga en cuenta que no todo el mundo utiliza su mismo cliente de correo ni su mismo sistema operativo. Utilice solo los "procedimientos estándar" de Internet, así evitará crear, y que le creen problemas; a nadie le apetece recibir un correo con caracteres "en chino".
No utilice formatos o codificaciones propias en los mensajes sino los compatibles de Internet, sobre todo los formatos y codificaciones estándar MIME ( Nota-16). En este sentido, se deberá desactivar cualquier opción que por defecto envíe los mensajes en formato HTML tal y como implementan algunos paquetes de correo electrónico. Recuerde que Uuencode no es un estándar y por lo tanto no es compatible. Se debe utilizar codificación base64 tal como indican los estándares MIME. Muchas Estafetas de correo estropean mensajes con formatos Uuencode. Existe un amplio abanico de codificadores y decodificadores Uuencode, incluso variantes para PC, VMS y UNIX y no todos compatibles.
En caso que desee enviar mensajes en formato Uuencode lo más razonable es que antes se pusiera en contacto con el destinatario para preguntarle si es capaz de decodificarlo (esta práctica debería de ser habitual con otros formatos).
Recuerde que la colocación de caracteres no ASCII en el campo From (De) o en el Subject (Asunto) puede acarrear problemas a los receptores debido a:
• Estafetas intermedias MTAs (Message Transfer Agents) obsoletas o mal configuradas que no sigan las normas.
• Clientes de correo UAs (User Agents) que no implementen de forma correcta las especificaciones.
• Importante: Si se decide utilizar caracteres no ASCII en alguna de las cabeceras de un mensaje nunca deben localizarse entre " " (comillas dobles).
Es conveniente configurar las líneas de los mensajes a menos de 80 columnas; 75 es un número aceptable (72 es el ancho estandarizado). Esto depende de varios factores que hay que ajustar: resolución de la pantalla (píxels horizontales); tamaño de letra; tamaño de la ventana, y configuración del cliente de correo. Los clientes de correo que tengan la opción de formatear las líneas de un mensaje al leerlos y/o enviarlo, deberían fijarlo en 75 para dar un poco de margen a los clientes de correo que utilicen los destinatarios de sus mensajes.
Si el texto no se reorganiza y visualiza líneas muy largas (que se salen por la parte derecha de la pantalla), tal vez sea porque nuestro programa de correo electrónico es obsoleto y no tiene capacidad para reorganizar el texto. También es posible que sencillamente no este bien configurado y que se pueda modificar alguna opción de la configuración para que realice la adaptación automática de las líneas a la ventana. En cualquier caso, la opción más sensata y que no conlleva mucho esfuerzo es formatear el mensaje a mano.
Si se desea que el cuerpo de los mensajes contenga enlaces activos [1], se deben consignar los URLs ( Ap.G) correctamente es decir:
• Sitios Web: [url]http://.[/url]....
• Sitios ftp: [url]ftp://.[/url].....
• Buzones de correo: mail to: xxx@yyyy

§2 Envío de correo a Compuserve
Las direcciones e-mail de esta red tienen un aspecto como 12345,678, la dirección desde Internet sería: [email]12345.678@compuserve.com[/email] (reemplazar la coma por un punto)

§3 Envío de correo a MCI
Las direcciones MCI [2] tienen un aspecto como 12345 (numérica) o abcdef (alfabética); la dirección desde Internet sería:
[email]12345@mcimail.com[/email]
[email]abcdef@mcimail.com[/email]

§4 Envío de correo a FidoNet
Las direcciones FidoNet tienen un nombre de usuario, por ejemplo pepe.ruiz y una dirección dentro de la red del tipo 1:234/567 ó 1:234/567:8, con la siguiente descripción:
1 Número de zona
234 Número de red
567 Número de nodo (dentro de la red)
8 Número de punto (dentro del nodo); este número puede faltar.
Las direcciones e-mail desde Internet serían:
[email]pepe.ruiz@f567.n234.z1.fidonet.org[/email]
[email]pepe.ruiz@p8.f567.n234.z1.fidonet.org[/email]

§5 Envíos múltiples
Algunos MUAs permiten el envío simultaneo de un solo mensaje a múltiples destinatarios. Esto presenta la ventaja de que el proceso se realiza automáticamente; solo es necesario redactar una vez el mensaje. Además el envío se realiza como si se tratara de un solo mensaje, con el consiguiente ahorro de tiempo de conexión; es el servidor de correo del PSI ( 7.1) el encargado de "desdoblar" nuestro mensaje en todas las copias necesarias a los destinatarios individuales.
MS Outlook Express permite dos formas para hacer este tipo de envíos: pública y privada (u oculta). En la primera, todos los receptores ven y tienen constancia de la lista de destinos (a todos los demás a los que se les ha enviado el mismo mensaje). Esta circunstancia es particularmente útil para grupos de trabajo enlazados mediante e-mail. En la modalidad oculta cada destinatario es ajeno a que el mensaje forma parte de un envío múltiple.

§6 Contestar "versus" Reenviar
Los clientes de correo permiten estas dos opciones con cualquier mensaje recibido.
Contestar genera automáticamente un nuevo mensaje con la dirección del remitente (dirección "From:" del mensaje recibido) ya colocada en el sitio correspondiente (dirección "To:" de la contestación); el nuevo mensaje incluye una copia del texto recibido (si se ha seleccionado esta opción -ver Nota-). Además de esto, el cliente de correo inserta automáticamente nuestra dirección en la ventana "From" del nuevo mensaje, y en la ventana asunto ("Subject") incluye una copia del asunto del mensaje original precedido de la abreviatura "Re:" ("Response"). Lo único que hay que hacer es añadir el texto de nuestra contestación.
Nota: Esta costumbre de incluir en la respuesta la totalidad, o un trozo del mensaje que se responde, es especialmente útil, ya que permite seguir fácilmente un diálogo sobre cualquier tema mediante e-mail. Es muy frecuente que la contestación se realice párrafo por párrafo, situando nuestra respuesta a cada punto debajo del párrafo correspondiente, de forma que se intercalan párrafos del original con los de nuestra cosecha.
Si utiliza MS Outlook Express, para que se inserte automáticamente una copia del texto recibido en la respuesta, es necesario tener marcada la casilla Incluir mensaje en la respuesta del cuadro de configuración correspondiente ( 8.1.2).
Tenga en cuenta las reglas de "Etiqueta" señaladas respecto a este punto ( 8.1.5)

Reenviar hace exactamente lo mismo pero, permite establecer manualmente quién será el destinatario del nuevo mensaje (establecer el contenido de la dirección "To:").


§7 Firma
Los programas de correo tienen una opción que permite tener registrada una "firma" que puede añadirse automáticamente a los mensajes salientes. La firma puede ser un texto ASCII o bien un fichero que puede contener cualquier elemento HTML, aunque es preferible lo primero.

Fig. 1
En MS Outlook Express 5.50, la firma puede definirse mediante un cuadro de diálogo (fig. 1), que es accesible en: Herramientas Opciones Firma.

Outlook permite definir una serie de firmas, y asignar una para cada cuenta de corre. A su vez las firmas definidas pueden ser un texto o el contenido de un fichero externo.
Si se desea que la firma sea añadida a los mensajes que enviamos, no hay que olvidarse de marcar la casilla "Agregar firmas a todos los mensajes salientes". Por el contrario, si se quiere insertar solo en algunos mensajes (no en todos), debe dejarse sin señalar dicha casilla, y a la hora de redactar un mensaje nuevo, ir a:
Insertar Firma.

Si utiliza una cuenta de correo de la empresa o institución para la que trabaja, los mensajes particulares, en especial a grupos de noticias, pueden incluir junto a la firma una anotación ("Disclaimer") de que las opiniones vertidas lo son a título particular, con objeto de no verse envuelto en posibles controversias sobre involucraciones a su compañía o institución (recuerde la utilización de una cuenta de correo de este tipo equivale que de alguna forma a utilizar "papel membretado" de su empresa).
The views expressed in this document are the author's and are not intended to represent in any way The MITRE Corporation or its opinions on this subject matter.
En el recuadro adjunto se incluye un ejemplo (tomado al azar) de lo que queremos decir.
Nota: Sea especialmente cauto en este tipo de uso particular de los recursos de la empresa. Consulte con sus superiores las normas al respecto.

[1] Esta técnica es muy utilizada, sobre todo en e-zines, y mensajes a Grupos de Noticias y Listas de Correo, ya que evita que los receptores de los mensajes tengan que introducir manualmente los URLs.
[2] MCI es uno de los operadores estadounidenses de comunicaciones, dispone de sus propias redes y ofrece servicios de comunicación a empresas y al por menor (usuarios privados). En otoño de 1998 ha sido adquirida por Cable & Wireless otro operador en una operación de mas de 270.000 millones de pesetas.

8.1 Servicio de correo electrónico
8.1.5 La seguridad

§1 Sinopsis
Hablar de seguridad en el Correo electrónico obliga casi inevitablemente a referirse a PGP ("Pretty Good Privacy"), un programa de seguridad para el correo electrónico al que ya hemos hecho referencia ( 6.3). Originario de Phil Zimmerman en 1990, es actualmente comercializado por PGP Inc, pero existe una versión bajo licencia GNU. Utiliza un procedimiento de clave asimétrica, permitiendo utilizar claves DSS. Desde su nacimiento, es el mas extendido y acreditado para cifrar correo electrónico, existiendo versiones freeware y de pago. Su autor tuvo grandes problemas legales con el Gobierno USA debido a la política restrictiva de este respecto al uso y exportación de sistemas de clave.
En la práctica, utilizarlo equivale a dotar al correo de los siguientes valores añadidos:
• Confidencialidad: Ningún extraño puede leer el correo.
• Autentificación: Se puede comprobar la autoría de los mensajes recibidos y firmar los enviados.
• Integridad. Se puede detectar fácilmente cualquier manipulación de terceros sobre los mensajes o ficheros recibidos y enviados.

§2 Referencias sobre la seguridad
La cantidad de información que puede obtenerse en la Web respecto a PGP es enorme, empezando naturalmente por el sitio de la propia PGP Inc. ( [url]http://www.pgp.com[/url]). Respecto a información en español, en la revista I World hay varios artículos que comentan las sucesivas versiones del programa, empezando por la 5. Estos artículos están disponible en la Web de la revista: IDG Communications [url]http://www.idg.es/iworld/[/url]
Seleccionar las palabra adecuada "PGP" en el buscador marcando la opción "Revista" (hay otra opción que busca la palabra en la Web). A continuación hemos seleccionado las respuestas del citado buscador que pueden ser interesantes:
PGP Personal Edition v.5.5 Protección de datos
La privacidad de nuestros datos cuando usamos el correo electrónico enviando o recibiendo información está en entredicho. La seguridad es un tema que se ha puesto de moda ya que, como dice el fabricante de PGP (Pretty Good Pr...
Javier A. Bedrina., 01/05/1999
PGP 6.0.2i en 12 pasos
En el mundo están sucediendo demasiadas cosas y no muy buenas, por ello, las autoridades gubernamentales desean tener acceso a los sistemas de cifrado o impedirlos. La Red esta plagada de “personajes” que se dedican a husme...
, 01/07/1999
PGP 5.5.3i Programa de cifrado y firmas digitales

Con algunos meses de retraso respecto a la versión original norteamericana acaba de publicarse la última versión para uso internacional de PGP, el programa más extendido para cifrado de correo electrónico, con más de cuatro millones de ...
José M. Gómez., 01/05/1998
Manual práctico de PGP 5 Correo electrónico seguro en 32 preguntas y respuestas
Hasta tan sólo 25 años, el intercambio de mensajes cifrados era todavía un privilegio reservado a militares, diplomáticos y servicios secretos. Los modernos sistemas de claves públicas establecieron las bases para acercar esta potente te...
Jose M. Gómez., 01/02/1998
PGP 5.0: la intimidad electrónica se actualiza

Desde su lanzamiento en 1991, el programa PGP (Pretty Good Privacy) ha venido disfrutando del reconocimiento de más de dos millones de usuarios de todo el mundo, que lo consideran la mejor herramienta para proteger la intimidad de sus co...
Beatriz Ontañón., 01/09/1997.

8.1 Servicio de correo electrónico
8.1.6 Normas de etiqueta

§1 Sinopsis
Nota: Para el lector interesado en profundizar el tema, señalaremos que el IETF ("Internet Engineering Task Force") tiene un grupo de trabajo específico: RUN ("Responsible Use of the Network"), las normas "oficiales" al respecto (en inglés) están contenidas en la RFC 1855 [url]http://www.cybernothing.org/cno/docs/rfc1855.html[/url]

Como el lector habrá supuesto, la palabra está formada por la contracción (españolizada) de "Net" (Red) y "etiquette" (etiqueta, protocolo). Se refiere a aquellas reglas de buenas costumbres que es conveniente seguir, en la Red como en cualquier otra colectividad, a fin de que la vida sea lo más amable posible. No olvidemos que la Red es quizás (si no lo es ya, pronto lo será) la colectividad multirracial, multiétnica, multilingüística y multirreligiosa mayor que haya existido jamás [1].
En este epígrafe hemos incluido algunas "reglas" que se refieren a la política de uso correcto de Internet. Aunque son de carácter mas bien técnico, podemos considerarlas de urbanidad, en el sentido de que la ciber-educación engloba todas aquellas actitudes y usos que redunden en un buen funcionamiento de Internet; reglas cuya trasgresión quedaría dentro de lo que los anglosajones consideran "net-abuse", abuso en el uso de la Red.
Son reglas "no escritas", pero sancionadas por el uso y el sentido común. Los recursos de Internet no son ilimitados, es preciso administrar bien la capacidad total (ancho de banda) disponible. No hay que olvidar tampoco que en la red no existe ninguna autoridad en el sentido estricto del término, sin embargo, y aunque en todos sitios hay excepciones, la red es probablemente el caso más asombroso de auto-regulación que haya existido nunca.
Algunas de estas reglas son elementales en cualquier relación humana, y no las repasaremos aquí por considerarlas sabidas ¿?. Otras en cambio son particulares, ya que Internet tiene algunos aspectos únicos y no comparables. Estas reglas se refieren básicamente a cuatro servicios, aquellos en los que, de alguna forma, tenemos contacto con nuestros semejantes, es decir:
• Servicio de Correo (E-mail)
• Servicios de noticias (News) y listas de distribución (Maillists)
• Servicio de Charla (Chat)
• Sitios Web
• Algunos juegos, MUDs, MOOs, etc.

Aunque este capítulo está dedicado al e-mail, haremos también un breve repaso a las normas de estilo y de Netiqueta en las "News"; en el "Chat" y en las páginas Web. En cuanto a los primeros, porque los mensajes son bastante parecidos a los de correo, con la diferencia de que nuestros mensajes no tienen un receptor concreto, estarán en cambio en un enorme tablón de anuncios donde todo el mundo puede leerlos. El Chat por su parte es equivalente a un debate público (aunque puede haber conversaciones privadas). Por último, en cuanto a las páginas Web, con la proliferación de Internet empiezan a ser no solo sitios de empresas o instituciones, también tarjetas de presentación personales o familiares aunque eso sí, de alcance mundial. En estos últimos casos (de los que cada vez hay mas ejemplos en la Web) es conveniente guardar unas mínimas reglas de "presentación".
Aunque señalaremos algunas recomendaciones básicas adecuadas para cada caso, podemos adelantar que estos "mandamientos" se pueden resumir muy brevemente en dos:
• No olvide nunca que al otro lado de la conexión (actual o futura) hay personas, seres humanos (frecuentemente menores de edad). Piense que los comportamientos ofensivos lo son aunque no veamos la cara del ofendido.
• No malgaste el ancho de banda de Internet (su capacidad de transporte no es infinita), ni el tiempo de los demás (que tampoco lo es). Por ejemplo, no envíe añadidos no solicitados o superfluos a sus mensajes. Sea lo más escueto posible.

§2 Netiqueta en el e-mail
Con respecto al servicio de correo es conveniente tener presentes las siguientes reglas de urbanidad y de estilo:


§2.1 Tamaño de los mensajes
Hay que tener cuidado con el tamaño de los mensajes. Incluir largos ficheros de procesador de textos, Postcript, o programas, puede hacer su mensaje tan largo que tenga problemas de recepción, así como consumo de recursos innecesarios al receptor del mensaje (espacio en el buzón de correo). Si se envían mensajes muy largos y es una época de vacaciones, en que el destinatario no recoge su correo, puede darse el caso de saturación del espacio asignado por el PSI.
Es necesario conocer las aplicaciones Internet y usar cada una para la finalidad con que fueron diseñadas. El correo electrónico debe de ser usado con tamaños de mensajes moderados. Para tamaños grandes usar FTP en lo posible.

§2.2 Ficheros adjuntos (atadillos)
Bajo ningún concepto envíe ficheros adjuntos de ningún tipo a nadie que no sea advertido previamente y espere el contenido.
No debe transmitirse jamás un recurso que ya existe en alguna otra parte de la red. En estos casos, mejor que enviar el fichero, notifique a su interlocutor la URL del mismo (donde usted lo encontró).
Es aconsejable ponerse en contacto con el destinatario antes de enviar un mensaje que no sea texto. Por ejemplo, si deseamos enviar un fichero Word deberíamos preguntarle algo así como:
"Necesito enviar texto en formato Word-6 codificado MIME ¿De acuerdo?".

§2.3 Cabeceras
La cabecera de los mensajes ofrece información al receptor de un mensaje sobre quién lo envía, su contenido y otros datos.
Recordemos ( 8.1.3) que en el programa MS Outlook Express 5.50 la cabecera " from" de los mensajes se establece de una vez por todas en la opción: Herramientas Cuentas Correo Propiedades General Información del usuario Campo "Nombre".
De hecho, podemos tener varias "Cuentas" (aunque se refieran a un mismo buzón) y hacer que en cada una aparezca una cabecera from distinta (aunque desde luego puede no ser demasiado práctico).
A la hora de enviar el mensaje utilizaríamos la opción: Archivo Enviar el mensaje usando: "Cuenta" con la que queramos aparecer.


La figura 1 muestra el aspecto de la ventana utilizada para enviar un nuevo mensaje con MS Outlook Express 5.50. Los datos de cabecera que hay que rellenar como mínimo son:

Fig. 1
1.- Cabecera De ("From"); es la que informará a los receptores "quién" es el remitente del mensaje. Los formatos normales para esta cabecera [3]:
a) Tu_nombre Tus_apellidos (lo corriente es abreviarlos, por ejemplo: J. M. Pérez; Maria F. Gómez, etc).
b) login@direccion (nuestra dirección de e-mail).
El formato (a) es preferible, pero si elegimos la fórmula (b), la parte "dirección" deberá ser lo más corta e indicativa posible, es decir: Entre las direcciones [email]usuario@polite.fis.uab.es[/email] y [email]usuario@uab.es[/email] es preferible esta última.
Si elegimos la fórmula (a), es correcto y legal, pero poco recomendable colocar caracteres no ASCII (si ponemos nuestro nombre no utilizar acentos), de modo que sería mejor poner J. M. Perez; Maria F. Gomez, etc.
2.- Cabecera Para ("To"); Por supuesto es la principal, pues informa la dirección del destinatario del mensaje. Es ilegal colocar caracteres no ASCII en esta parte, la dirección debe tener la sintaxis de una dirección e-mail, es decir: [email]xxxxx@yyy.zzz[/email]
3.- Cabecera Asunto ("Subject"); una línea resumen que leerán los receptores para tener una idea por adelantado del asunto tratado en el mensaje. Rellene el campo Subject: con una frase corta y lo más descriptiva posible del contenido del mensaje.
Cuando nuestro mensaje sea contestación de alguno anterior del destinatario, es frecuente poner en esta cabecera el mismo texto que utilizó el remitente precedido de las letras "RE:" (respuesta), así sabrá que es contestación a la cuestión anteriormente planteada (MS Outlook hace esto automáticamente cuando se le ordena "responder" a un mensaje).

§2.4 Cuerpo de los mensajes
Debía parecer superfluo señalar que el cuerpo debe ser escrito correctamente. Si utilizamos el español puntuar adecuadamente (no olvide los acentos diéresis, etc). Esto permitirá expresarnos de forma correcta, con sentido y ¡que nos entiendan!. Para ello es necesario seleccionar la codificación MIME "Quoted-Printable", para lo que hay que configurar correctamente el cliente de correo.
:-) :-(

:-D ;-]

:-o >
• Utilice símbolos para enfatizar palabras o frases. Puedes utiliza el símbolo * para decir: *Esto es muy importante* o remarcar *esto otro*.
• Use "smileys" para indicar estados de ánimo [2]. Pero úselos con mesura.
• Recuerde que, tanto en el correo, como en los Grupos de noticias (News), escribir con mayúsculas equivale a GRITAR.

§2.5 Responder correo
Antes de contestar a un mensaje personal o a través de una lista debe de tenerse en cuenta los siguientes puntos:
• La cita completa del mensaje anterior que está replicando es totalmente innecesaria; sólo se debe citar lo que se va a contestar y lo que sea imprescindible para entender el contexto del mensaje. No llegar al caso que el texto nuevo sea menor que la repetición del mensaje anterior.
• Si como, es frecuente, se tiene habilitada la opción de incorporación automática del texto original ( 8.1.4), lo correcto es repasar el mensaje antes de enviarlo y eliminar las partes del texto original que no sean muy significativas.

§2.6 Firmas
Es aconsejable la incorporación de una firma al final de cualquier mensaje, aunque solo sea el nombre, o nombre y cargo, nombre y empresa, nombre y departamento, etc. según los casos. No hacerlo no tiene mucha excusa, sobre todo por que los programas de correo tienen una opción de insertar la firma (que podemos diseñar nosotros) de forma automática ( 8.1.4).
Las firmas deben ser lo más concisas posible, mas de 10 líneas empiezan a ser molestas. Por supuesto las firmas no deben ser ficheros anexos, por ejemplo gráficos (no se empeñe en mandar su autógrafo, Internet es otra cosa).
Es importante que la primera línea de la firma sea -- (dos guiones); son caracteres entendidos por muchos servidores automáticos (servidores de listas etc.) como el comienzo de la firma. Según esto, un ejemplo de firma podría ser:
--
Victoria J.M.
Responsable Dpto. Logística.
[email]vicjm@suempresa.com[/email]

§3 Netiqueta en Grupos de Noticias y Listas de Distribución
Antes de lanzarse a publicar (o pedir) algo en un Grupo de noticias ("News Group"), es conveniente dar un repaso al máximo número de mensajes posible (desde la fecha actual hacia atrás), para ver el tono general de los temas tratados, el estilo y sobre todo si ya existe una respuesta a nuestra cuestión (es muy frecuente que el mismo tema se haya contestado antes varias veces).
Utilizar siempre el idioma adecuado para el foro en cuestión. Por ejemplo no poner mensajes en español en foros en inglés o viceversa. Recuerde que tanto en los grupos de noticias como en Listas de distribución, los contenidos comerciales están terminantemente prohibidos. A lo sumo, en los grupos de noticias, se permiten anuncios de ofertas de trabajo (no demandas de empleo) relacionadas con la especialidad o el tema en cuestión.
No incluir mensajes que no vengan a cuento en el foro de discusión (cuyos contenidos son temáticos). Por ejemplo no solicitar la solución de un problema de matemáticas en un grupo de noticias de música o viceversa. En la red hay un sitio para cada cosa.
Si propone una cuestión nueva en un grupo de noticias o foro de discusión, inicie una nueva hebra ("thread"). Es de mal gusto insertar un mensaje con una cuestión extemporanea en un debate ya iniciado (a esto se le denomina "hijak" en el argot de la Web).
Es de mal efecto publicar una cuestión y solicitar que se nos conteste particularmente, a no ser que solicitemos un fichero, en cuyo caso debería salir del remitente enviarlo a la dirección particular de e-mail.
En foros de discusión es necesario explicitar a quién se está contestando, sobre qué tema, y en que momento de la conversación. Tener en cuenta que algunas veces la Red puede producir malas jugadas y ocasionar retrasos en la entrega de mensajes, por lo que la secuencia de sucesos (cuestión-respuesta-réplica-contrarréplica, etc.) puede perderse.
Antes de contestar a un mensaje de una forma visceral, es conveniente hacer una pausa y contestarlo (si merece la pena) cuando podamos hacerlo con la cabeza fría. En ocasiones es mejor un escueto "Gracias por tu amabilidad. Que tengas un buen día"; pensad que esto lo verá todo el mundo, y que todos entenderán (la mejor bofetada se da sin mano).
Envíe exclusivamente mensajes de texto sin formato (texto plano). Bajo ningún concepto envíe mensajes en formato HTML. Active la opción "Ajuste de línea". De esta forma evitará que sus mensajes aparezcan como una única línea muy larga.
Bajo ningún concepto envíe ficheros adjuntos de ningún tipo (gif, jpeg, zip, etc) a listas de distribución o Noticias. Internet ofrece otras vías para intercambiar información de este estilo. Además, si los "atadillos" son grandes puede recibir comentarios airados de visitantes que quedan desagradablemente sorprendidos al recibir (y tener que esperar) la descarga de mensajes muy extensos. De hecho está Usted ralentizando a todos los navegantes en su visita a las "News".
En caso que quiera poner algún fichero de este tipo a disposición del grupo, puede incluir en las News un mensaje del tipo: "El fichero xxx.zip de nnnn KB. Está a disposición de quién lo solicite, se lo enviaré, a su dirección e-mail". Los interesados le enviarán un e-mail a su buzón particular solicitándolo y usted podrá "contestar al autor" adjuntando el fichero con algo así como: "Adjunto el fichero solicitado".
Si teme recibir "millones" de solicitudes lo mejor es buscar un "sitio", quizás es mismo espacio que le proporciona su PSI y depositar ahí el fichero enlazado a una pequeña página Web de presentación, de forma que los peticionarios potenciales puedan "bajarlo" directamente. Si no dispone de él, también puede solicitar que alguien del grupo de noticias lo aloje para la comunidad, en cuyo caso solo tendría que enviarlo al hospedero.
No enviar jamás mensajes en formato Uuencode, HTML ni nada que no sea puro texto a Grupos de Noticias o Listas de Distribución bajo la amenaza cierta de ser duramente recriminado ("Flamed", en el argot de la Web). Recuerde que, en este sentido, estas comunidades son las mas conservadoras del universo Web.
--
Steve Quinn
BRUTE Computer Services - Australia
[email]squin@brutecom~com.au[/email] <--- ANTI-SPAM Replace ~ with .
[url]http://www.brutecom.com.au[/url]
Algunos incluyen su dirección e-mail junto a la firma, en especial cuando redactan mensajes para grupos de noticias, de forma que el que lo desee pueda dirigirse a ellos particularmente. El problema es que tales firmas han sido utilizadas por robots de búsqueda especiales para proveer bases de datos con las que realizar "spams", por lo que algunos incluyen determinados símbolos y caracteres "anti-spamming", que pretenden burlar la labor de los referidos robots [4]. Naturalmente, en estos casos, si queremos contestar particularmente al remitente, es preciso remover manualmente los caracteres sobrantes de la firma. En el recuadro adjunto se incluye un ejemplo de uno de tales artificios (tomado al azar, de entre los que abundan en los grupos de noticias).
En lo particular creemos que dichas barreras son ineficaces frente a los sistemas mas sofisticados, dado que en cualquier caso, la dirección del remitente está incluida en el mensaje, de forma que para conseguir el anonimato es preciso recurrir a las técnicas de ocultación ("Steal") más sofisticadas.

§4 Netiqueta en el diseño de páginas Web
Si se copian elementos gráficos de otras páginas [5], pedir permiso o como mínimo dar crédito. Mejor ambas cosas.
Nota: Existe la idea errónea que lo que hay en Internet es libre y de uso público, lo cual no es cierto. Siguen existiendo las leyes de propiedad intelectual. No podemos hacer uso indiscriminado en nuestro propio provecho de cualquier contenido que exista en la Red sin estar seguros de que estamos del lado de la legalidad. Muchas veces (sobre todo si no vamos a hacer un uso comercial del material solicitado), los autores son magnánimos y comprensivos, lo único que desean es un reconocimiento o que se les cite (por cortesía de: ....).

Incluir siempre, al menos, una dirección de correo electrónica en cualquier "Sitio" Web.
Indique con claridad que hay de nuevo cada vez que actualice la página, para que los habituales sepan con claridad que hay (esto no siempre es tan sencillo de hacer, empezando por que habría que matizar que se entiende por "nuevo").
Responda con claridad y rapidez a las consultas. Agradezca las colaboraciones.
No abuse de elementos gráficos (imágenes y/o fondos muy grades) y o multimedia ("musiquillas", gift animados) demasiado aparatosos, la primera vez causan cierta impresión, pero a la larga enlentecen la visita, con lo que ahuyentan a los visitantes.
En su caso, no está de más añadir una coletilla en una esquina de la página: © 1998 Fulanito de copas. También es buena idea incluir a pié de página una indicación de la fecha de la última actualización.

[1] Estas palabras son de 1998; actualmente (2002), sin lugar a duda la Red es la comunidad más grande que haya existido jamás.
[2] También llamados emoticonos; Una simpática costumbre consistente en unas pequeñas "caras" construidas con los caracteres del teclado (deben verse de lado). Generalmente indican estados de ánimo, o refuerzas en sentido de una frase: Sonrisa, tristeza, desagrado, asombro, etc. Reminiscencias de una época en que no era tan fácil enviar imágenes o sonidos y los terminales en los que debían reproducirse los mensajes eran quizás un simple teletipo.
[3] Si utiliza MS Outlook Express estos datos ya los tendrá grabados en sus "Cuentas" de correo ( 8.1.3)
[4] En el argot de Internet esta técnica se llama "Munge".
[5] Tenga en cuenta que muchas imágenes pueden estar firmadas, tener "marcas de agua" invisibles a simple vista, pero que con las herramientas adecuadas pueden ponerse de manifiesto identificando al autor.

8.1 Servicio de correo electrónico
8.1.7 Otros usos del e-mail

§1 Sinopsis
La popularización del servicio de correo (millones de personas tienen buzón de e-mail), ha hecho que determinadas compañías y particulares lo hayan contemplado como un medio sencillo y económico de llegar a miles de destinatarios, para fines de publicidad y difusión. Mediante robots especiales, denominados "address sniffers" [1], estas compañías (e-junkmailers) consiguen las direcciones e-mail de sus futuras víctimas, principalmente de los mensajes enviados a los foros de discusión y noticias. Más tarde, mediante programas de correo automático (bulk mailers), envían propaganda de forma masiva e indiscriminada. Este tipo de mensajes publicitarios no deseados reciben el nombre de Spam [2] y a la técnica "Spamming". Hizo su primera aparición en la red en 1.994, cuando una firma de abogados inundó los buzones con publicidad (en la página adjunta se incluyen algunas precisiones sobre esta controvertida práctica publicitaria N.18).

§2 Spamware
Existen en la Web gran cantidad del software denominado spamware. Son programas especiales de correo (bulk mailers), tanto de uso gratuito ("Freeware") como "de pago" (comerciales). En las páginas de Bulk e-mail Information Center [url]http://www.emailprofits.com/[/url] puede encontrarse información y referencias sobre este tipo de programas, incluso bajarse versiones demo.
WorldMerge [url]http://www.coloradosoft.com/worldmrg/[/url]
Es un programa shareware para envío masivo de correo. La versión de prueba (sin registrar) es completamente funcional y no caduca, aunque incluye un pequeño mensaje publicitario propio en todos los mensajes que se envían.

Del mismo modo que existen programas para enviar fácilmente cientos o miles de mensajes con publicidad, también existen para lo contrario: para protegerse de los molestos e-mails no deseados (moderna versión electrónica de los papeles que diariamente inundan nuestros buzones). Estos programas anti-spam, permiten filtrar los mensajes que llegan a nuestro buzón, de entre ellos y por citar alguno:
Bounce Spam Mail [url]http://www.davecentral.com/2678.html[/url]
CSM Internet Mail Scanner [url]http://www.davecentral.com/5849.html[/url]
CYBERsitter AntiSpam [url]http://www.davecentral.com/4919.html[/url]
ESP Spam Destroyer [url]http://www.davecentral.com/6866.html[/url]


§3 Revistas electrónicas y listas de distribución
La utilización de sistemas automatizados de correo, permite el envío y recepción de mensajes sin utilización de operadores humanos, lo que está facilitando a los Webmasters utilizaciones novedosas del e-mail. Se trata de la automatización tareas tales como la recepción y envío de información a la carta o la suscripción y cancelación a determinados servicios (especialmente e-zines), aparte de los ya mencionados envíos masivos de publicidad (spamming) entre otros ( 8.1.7w1).

En cuanto a los primeros, a continuación incluimos un par de instrucciones recogidas al azar de sistemas que proporcionan automáticamente determinada información que, por si mismas, resultan bastante ilustrativas del proceso.
For a list, send E-mail to [email]kaminski@netcom.com[/email] with "Send PDIAL" in the subject field
For a list, send E-mail to [email]nixpub@digex.com[/email] (no subject or message text)

En cuanto a los segundos (suscripción y cancelación de determinados servicios de forma automatizada), a título de ejemplo de lo que cabe esperar en este sentido, reproducimos unas instrucciones (recibidas por e-mail) correspondientes a un servicio de información de la Enciclopedia Británica:
This is a post-only mailing. Please do not respond to this message. All questions should be sent to [email]inquiries@eb.com[/email]. If you prefer not to receive future product update mailings from us, CAREFULLY follow this simple step:
Send an e-mail to [email]remove@eb.com[/email], from the original e-mail address you signed up with, and add the text "remove" to your subject heading. (This is an automated process, so messages sent to [email]remove@eb.com[/email] will not be read.)

Los antes mencionados e-zines [3], son ciber-revistas o publicaciones periódicas electrónicas que se publican en Internet a través del servicio de e-mail. En cuanto a su distribución, tienen un funcionamiento parecido a las listas de distribución (Maillists), con la diferencia de que su contenido es confeccionado exclusivamente por una persona o institución que es responsable de su difusión.
Suelen tratar de los temas mas variados, desde literatura a chistes, incluyendo noticias y comentarios relativos a la propia Web. Los de instituciones y corporaciones dan difusión y publicidad periódica a actividades, proyectos, nuevos productos, cursillos, seminarios, etc. de la empresa en cuestión. La suscripción o cancelación se hace mediante e-mail; en el primer caso solo es necesario proporcionar la dirección e-mail donde recibiremos las noticias. En el segundo, enviar igualmente un correo (a veces sin ningún texto) a otro buzón determinado. El proceso es totalmente automático.
Un sitio para comenzar a ver lo que hay (en USA) y suscribirse a alguno: [url]http://zines.miningco.com/[/url]


Si usted dispone de un sitio Web y quiere crear una de estas listas, a continuación se incluyen un par de referencias [4].
Onelist [url]http://onelist.com/[/url]
Si esta pensando en crear su propio boletín, lista de correo, e-zine o como quiera llamarlo y no desea gastarse un duro pero tampoco esta dispuesto a hacerlo todo en plan artesanal (como un servidor), este es (parece) una buena alternativa.
No lo he probado, pero la lista de características del servicio parece muy interesente, tanto por las funciones que ofrece a los subscriptores como a usted como propietario de la lista.
Usted como propietario de la lista puede recibir un mensaje de correo cada vez que alguien se subscribe o se borra. Puede crear un mensaje de correo de bienvenida que será enviado a cada persona cuando se subscriba. Puede configurar su lista de correo como mas le guste, por ejemplo esta puede ser publica (cualquier subscriptor puede enviar un mensaje a la lista y lo recibirán los demás subscriptores), Moderada (los mensajes enviados a la lista deben ser aprobados por el propietario antes de distribuirse), Restringida (el propietario de la lista debe aprobar las subscripciones para que tengan efecto) o Privada (solo el propietario puede enviar mensajes a la lista)...y muchas cosas más...todas ellas de forma automática.
Supongo que tendrá sus pegas, pero estas cosas hasta que no se usan no se descubren.
Otra alternativa similar si no le gusta esta es Egroups en [url]http://www.egroups.com/[/url]

[1] No son estos los únicos "habitantes" que pululan por la Web; más adelante veremos que está realmente plagada de "bichos" tales como "Spiders" (arañas), "Wanderers" (vagabundos), "Crawlers" (orugas) y "Snakes" (culebras), por citar algunos.
[2] Spam: nada que ver con su traducción literal del inglés: "Fiambre enlatado de carne de cerdo" (y una marca registrada de este producto). El término se usa también para señalar el contenido trivial, no relacionado realmente con el tema o de baja calidad que puede encontrarse en algunos foros de discusión o grupos de noticias. Por consiguiente, frases como: "There are intelligent technical conversations and very little spam" referido a uno de estos foros es indicativo de utilidad y calidad técnica. En un sentido muy amplio (incluso referido al contenido de páginas Web), el término significa "Basura", "Desaprovechable", "No adecuado", que no tiene que ver en el tema en cuestión, también uso indebido del e-mail.
[3] Palabra formada por la contracción de "Electronic-Magazine".
[4] Tanto las dos referencias como el comentario, están tomados precisamente de uno de estos e-zines, denominado "Transfusión". Desgraciadamente hace tiempo que no lo recibo y he perdido la dirección del mail-master.

8 Servicios de Internet
8.2 Transferencia de ficheros (FTP)

§1 Introducción
FTP es el acrónimo inglés de "File Transfer Protocol". Como indica su nombre, un protocolo para transferencia de ficheros; una de las primeras utilidades de la Red, que permitía a los investigadores de ARPA conseguir material de otros colegas diseminados en Universidades y Centros de investigación.
En un principio el protocolo permitía la transferencia de ficheros entre máquinas (Unix principalmente), mediante una serie de comandos de sistema en modo texto, pero muy pronto, el material disponible para estas transferencias comenzó a depositarse en directorios específicos de ciertos ordenadores, llamados Servidores FTP, apareciendo también programas cliente específicos para consultar en estos servidores y descargar los ficheros seleccionados de forma rápida e intuitiva. Sobre todo, a partir de la popularización del PC y del acceso a Internet, aparecieron clientes FTP que permitían transferencia desde/hacia los servidores usando una interfaz gráfica (Windows, Mac, OS/2 etc.) mediante acciones de tipo arrastrar y soltar ("drag and drop").
Como veremos en el capítulo 9, fue precisamente el aumento de los ficheros en los servidores FTP y la creciente dificultad para encontrar la información buscada, lo que propició la aparición de los primeros dispositivos de búsqueda en la Red (Archie y Gopher). En los comienzos, antes de la popularización de la Web, universidades y centros de investigación llegaron a contar con gigantescos servidores FTP con cientos de miles de ficheros. En la actualidad, aunque la información está todavía en la Red (y sigue aumentando), la importancia de los clientes FTP ha decaído, popularizándose la interfaz proporcionada por la Web, del tipo apuntar y disparar ("Point and clic"), aunque los clientes FTP siguen siendo usados por profesionales e investigadores para el tráfico de ficheros en ambientes fuera de la Web.
Nota: La transferencia de ficheros ha adquirido recientemente una importancia particular en determinados grupos de Internautas que intercambian ficheros de música y películas. El malogrado Napster fue el primero de ellos, al que han seguido muchos otros. Alrededor del fenómeno se ha desarrollado toda una nueva categoría de software que permite al PC conectado a Internet, actuar al mismo tiempo como servidor y como cliente frente al resto de usuarios.

Conviene recordar que, aunque desde un punto de vista general, todos los servicios de Internet implican tráfico de algún tipo de ficheros, cuando estos son de tipos determinados, los servicios y programas que los ejecutan, reciben nombres especiales. Por ejemplo, un navegador es en cierta forma un programa FTP, que recibe un tipo especial de documentos (HTML), y que además es capaz de mostrarlos en pantalla; en este caso el protocolo de transferencia utilizado es muy específico (HTTP). Un programa de correo electrónico es también un caso especial de transferencia de ficheros de una clase muy concreta (e-mail); el protocolo específico es SMTP, etc. Sin embargo, FTP se reserva para un uso genérico y es sinónimo de transferencia de cualquier tipo de ficheros: ejecutables, imagen, multimedia, etc, sin ninguna elaboración posterior, es decir, el mero hecho de transferirlos entre máquinas (enviar por la Red una copia de un fichero contenido en el servidor y grabarlo en el disco de la máquina cliente).
Nota: El protocolo FTP fue definido inicialmente en la RFC 959 [1], siendo actualizado posteriormente en la RFC 2228. Actualmente (2002) el estándar primitivo ha servido durante 40 años como guía y norma para la trasferencia de ficheros sin que apenas muestre signos de vejez, si bien la nueva propuesta incluye extensiones tendentes a conseguir conexiones seguras (cifradas y autentificadas).

Los servidores FTP identifican a los usuarios mediante un fichero en el que se almacenan los datos identificativos de las personas que tienen acceso [2], generalmente un nombre de usuario y una clave de acceso, que son cotejados con los que debe proporcionar el usuario en el momento de la conexión. Generalmente ambos datos son enviados por la Red en texto plano (sin codificar), aunque existe una RFC que especifica la forma de cifrarlas no es una práctica demasiado común.

§2 Servidores y clientes
Para ejecutar FTP se precisa la existencia de dos máquinas, cada una con un software adecuado: el Servidor, que contiene los ficheros a transferir y el Cliente que solicita la descarga el fichero. Típicamente los servidores FTP son grandes máquinas (hosts y mainframes) en Universidades, Centros de Investigación, Empresas, etc. que contienen los ficheros, mientras que el cliente puede ser un sencillo usuario individual con un PC.
Hemos señalado que los Servidores FTP son máquinas en las que hace falta una identificación para poder conectarse e iniciar la transferencia (o realizar cualquier otra acción), es decir, se necesita lo que en la jerga informática se denomina "tener una cuenta" en dicha máquina, que viene a significar autorización para usarla (bajo unas condiciones). Así pues, al conectarnos a un servidor, este nos exige identificarnos como paso previo para cualquier otra acción, y esta identificación se realiza mediante un nombre ("User name") y una contraseña o clave de acceso ("Password"), que sirve como autentificación de que el usuario es quién dice ser.
En función de como sea la política de accesos, se dividen en Públicos (denominados también "anónimos") y Privados (bajo clave). Los primeros son accesibles para todo el mundo, basta la palabra "anonymous" como identificación de usuario ("User name") y la dirección de correo (e-mail) como clave de acceso [3]. Hecho esto, el servidor permite el acceso en forma lectura (descarga) de los ficheros situados en la zona de acceso público del servidor; esta suele ser la forma de acceso en la mayoría de los servidores FTP. Por el contrario, los servidores bajo clave, requieren una identificación de usuario y clave de acceso específicas.
Los clientes FTP son en esencia programas que permiten conectarse con el servidor remoto, navegar por su estructura de directorios, ver los contenidos (ficheros) albergados en ellos e iniciar la descarga ("Download") de ficheros hacia nuestro equipo, o carga ("Upload") de ficheros desde el cliente al servidor [4].

Con la proliferación de la Web como medio de acceso a Internet, gran cantidad de servidores de contenidos, en especial los de acceso público, que estaban en servidores FTP anónimos, han pasado a contar con pasarelas Web (se les ha dotado de esta interfaz). Además, como veremos en el punto siguiente, algunos navegadores, como es el caso de MS. I. Explorer, cuentan con una interfaz que permite navegar en la estructura de directorios del servidor FTP, así como de un cliente FTP integrado (aunque unidireccional), que solo permite descargas en dirección Servidor Cliente, con lo que si solo se pretenden descargas (downloads) de ficheros, puede prescindirse de cualquier cliente FTP mas específico.
Nota: Por regla general, la única circunstancia en que al usuario normal le puede resultar necesaria la operación inversa; transferir ficheros desde su ordenador al servidor, es cuando necesita transferir los documentos HTML de su página Web (e imágenes asociadas), al servidor del PSI ( 7.1). Para estos casos, MS. I. Explorer viene con una utilidad denominada "Asistente para la publicación en la Web" que no es ni mas ni menos que un cliente FTP que permite el tráfico en la dirección nuestro ordenador Servidor Web.

La situación señalada, hace que podamos referirnos a los clientes FTP agrupados en dos categorías: Los tradicionales; Clientes FTP para tráfico de ficheros hacia/desde servidores FTP de Internet, y los específicos para la Web, mas orientados hacia la descarga de ficheros desde servidores Web, uno de cuyos primeros exponentes es el cliente FTP asociado al Navegador.

[1] RFC "Request For Comment" Estas siglas, junto con un número, son la identificación de los documentos que contienen las especificaciones técnicas de Internet. El nombre deriva de como se consensúan estas normas que comienzan siendo proposiciones abiertas a toda clase de comentarios ( A5.3).
[2] Como todo el resto de prerrogativas y autorizaciones de las máquinas Unix, estas tablas están controladas por el administrador del sistema.
[3] Generalmente está permitido colocar un signo menos "-" precediendo la dirección e-mail, para limitar el número de mensajes recibidos del servidor FTP.
[4] Esta última operación ("Upload") es mas infrecuente; lo normal es descargar ficheros desde los servidores FTP que en condiciones normales no permitirán la maniobra contraria. Para los usuarios normales son dispositivos de "Solo lectura".

8.2 FTP: Transferencia de ficheros
8.2.1 Clientes FTP Web

§1 Generalidades
Empezaremos este comentario sobre los clientes FTP refiriéndonos a los orientados a su utilización en la Web, de los que existen multitud. El propio Navegador dispone de un cliente FTP integrado que es llamado automáticamente con el comando ftp:/// por ejemplo: [url]ftp://cdrom.com/pub[/url]

Fig. 1

Fig. 2
Fig. 3

En el caso de MS I. Explorer (Windows), al seleccionar en el navegador una URL como la anterior, si se trata de un servidor FTP anónimo, el programa es capaz de conectarnos automáticamente (proporcionando el "user name" y "password" adecuados), permitiendo la visión y navegación por los directorios del servidor. Cuando finalmente seleccionamos un fichero concreto (haciendo clic en él), el Navegador llama a un módulo FTP (Fig. 1) que es capaz de abrir o descargar el fichero señalado hacia el directorio de nuestro propio equipo que señalemos y con el nombre que se elija (Fig. 2). Una vez elegido el directorio de nuestro equipo en que se alojará el fichero y el nombre, se inicia el proceso de transferencia propiamente dicho (Fig. 3).
Este programa, aunque eficaz y con la ventaja de ser gratuito (está incluido en el navegador), es muy rudimentario. Solo permite descargas ("Downloads") de ficheros en sentido del servidor FTP al cliente. Tampoco permite reiniciar descargas interrumpidas ni otros refinamientos propios de programas mas elaborados.
Si se deben realizar muchas descargas, es preferible utilizar uno de los muchos clientes FTP shareware específicos para la Web (no confundir los servidores Web de ficheros con los servidores FTP de Internet). Entre los muchos que se podrían citar:

GetRight [url]http://www.getright.com[/url]
Cliente FTP shareware realmente estupendo que organiza y facilita las descargas de ficheros desde la Web. Incluye múltiples opciones, incluyendo una fundamental: Reiniciar las descargas interrumpidas por cualquier causa. Permite también planificarlas en el tiempo de forma automática, incluyendo la posibilidad de conectar con la red, realizar la descarga y desconectar una vez terminada, también podemos iniciar la descarga manualmente e instruir al programa que desconecte el módem cuando haya concluido. Mantiene un registro de los ficheros descargados con sus direcciones originales, recibir varios ficheros al mismo tiempo, etc.
El programa puede permanecer corriendo en un segundo plano y sustituir al del Navegador en el momento en que decidimos bajar cualquier fichero. Imprescindible cuando se navega a menudo por la Red.
Go!Zilla [url]http://www.gozilla.com[/url]
Programa de descargas en línea con el anterior. Existe una versión freeware totalmente funcional, aunque hay que aguantar algunos anuncios de los patrocinadores. También permite continuar las descargas interrumpidas.

8.2 FTP: Transferencia de ficheros
8.2.2 Clientes FTP Internet

§1 Generalidades
Los clientes FTP clásicos, creados para acceder a los servidores FTP tradicionales (anónimos o privados), pueden bajar/subir ficheros, es decir, transferirlos entre cliente y servidor FTP en cualquier sentido. El caso más típico de transferencia desde el cliente al servidor suele presentarse cuando queremos transferir nuestras páginas HTML desde nuestro PC al servidor Web de nuestro PSI ( 7.1).

Windows dispone de un cliente FTP de modo texto: ftp.exe situado en la carpeta C:\Windows, que tiene las funcionalidades de los antiguos clientes para Unix. Una vez abierta la aplicación (una ventana MS-DOS), puede obtenerse un listado de los comandos disponibles mediante el comando help (?). Aunque muy primitivo, este programa puede conectarse y transferir ficheros con cualquier servidor remoto. A título de curiosidad, indicaremos aquí los comandos permitidos (respetando sus explicaciones originales en inglés).
Comando Orden asociada
?. Help, obtener un listado de los comandos disponibles
!. Escape to the shell
append. Append to a file.
ascii. Set ASCII transfer type
bell. beep when command completed (toggle ON/OFF)
bye. Terminate FTP session and exit
cd. Change remote working directory
close. Terminate FTP session
delete. Delete remote file
debug. Toggle debuggin mode
dir. Display contents of remote directory
disconnect. Terminate FTP session
get. Receive file
glob. Toggle metacharacter expansion of local file names
hash. Toggle printing ‘#' for each buffer transferred
help. Print local help information
lcd. Change local working directory
literal. Send arbitrary ftp command (see quote)
ls. Nlist contents of remote directory
mdelete. Delete multiple files
mdir. List contents of multiple remote directories
mget. Get multiple files
mkdir. Make directory on the remote machine
mls. Nlist contents of multiple remote directories
mput. Send multiple files
open. Connect to remote ftp
prompt. Force interactive prompting on multiple commands
put. Send one file
pwd. Print working directory on remote machine
quit. Terminate ftp session and exit
quote. Send arbitrary ftp command (see literal)
recv. Receive file
remotehelp. Get help from remote server
rename. Rename file
rmdir. Remove directory on the remote machine
send. Send one file
status. Show current status
trace. Toggle packet tracing
type. Send file transfer type
user. Send new user information
verbose. Toggle verbose mode

Existen decenas de estos programas en la Web, con mayor o menor funcionalidad y opciones, pero todos comparten una estructura básica [1]. Disponen de tres ventanas (ver figura 1 ): Una de ellas (generalmente a la izquierda), simboliza el ordenador local (directorio de trabajo del equipo cliente); otra, la máquina remota (el directorio actual en el servidor FTP). La tercera recoge un registro de los comandos utilizados (generalmente bajo las otras dos), de forma que puede verificarse lo ocurrido en la sesión (tanto los comandos enviados como las respuestas recibidas desde la máquina remota).

§2 Operatoria
La transferencia de ficheros de una ventana a otra pueden realizarse seleccionando los ficheros correspondientes en la ventana origen y la orden adecuada en el menú, descargar ("Download") o cargar ("Upload"). También se puede arrastrar y soltar de una ventana a otra.
Estos programas no solo realizan la transferencia propiamente dicha, disponen también un cierto número de utilidades que hacen más cómodo el trabajo. Por ejemplo, pueden reemprender descargas interrumpidas por cualquier casua, guardan un directorio de los sitios mas frecuentes con sus claves de acceso, directorio de inicio, etc.

Una vez iniciada una conexión con un servidor remoto, este solicita la clave de usuario y el password. Ya hemos señalado que si se trata de un servidor anónimo, puede utilizarse la palabra anonymous y la dirección e-mail, y que generalmente los clientes FTP permiten almacenar estos valores (clave de usuario y password) para los servidores de uso más frecuente, de forma que basta señalar la URL ( Ap. G), y el programa se encarga de los detalles de la conexión.
En caso de establecerse la conexión, algunos servidores FTP devuelven un primer mensaje de advertencia o saludo tal como el indicado en el cuadro adjunto , en el que se informa del número de usuarios FTP conectados en ese momento en el servidor.


§3 Programas FTP
Como ejemplos de este tipo de clientes FTP citaremos dos (existen decenas de ellos):
WS_FTP [url]ftp://ipswitch.com[/url] [url]http://www.ipswitch.com[/url]
El programa de Ipswitch Inc, dispone de dos versiones, profesional y limitada. La primera es Shareware, la segunda es de uso libre siempre que se destine para uso doméstico, no comercial, estudiantes, instituciones educativas, gobierno o instituciones federales USA.
Cute FTP [url]ftp://ftp.cuteftp.com/pub/cuteftp/cute2532.exe[/url]
Figura 1


§4 Advertencia correspondiente a la conexión con el servidor FTP de Compaq.com.
220 onlineftp02 Microsoft FTP Service (Version 3.0).
331 Anonymous access allowed, send identity (e-mail name) as password.
230-.. -- Standard Disclaimer --

Neither Compaq Computer Corporation nor its
employees assume any responsibility for the
integrity or operability of the programs found
on this machine.

USE AT YOUR OWN RISK!!!

If you have any unusual problems with the
FTP server, please report them via e-mail to
[email]postmaster@compaq.com[/email]. Compaq Softpaqs are
located in the pub directory.

Thomas-Conrad, NetWorth and Microcom FTP
content is located in the pub/softpaq/IPG
and pub/productinfo/IPG directories.

230 Anonymous user logged in.

§5 Sitios FTP

Existen centenares, aunque van cediendo su lugar a sitios páginas Web. A continuación se incluyen algunas direcciones para que el lector pueda practicar.
Dept. of Earth and Planetary Sciences stoner.eps.mcgill.ca/pub
Technical University of Clausthal ftp.tu-clausthal.de/pub

Indiana State University. Many Winsock Applications papa.indstate.edu/winsock
Various Software. Huge Mirror site with lots of software ftp.cdrom.com/pub

Washington Unversity Archive. Another Mirror Site with lots of Software wuarchive.wustl.edu
Advanced Technology and Planning FTP Server gated.cornell.edu/pub/video
Radient Software. CommNet Program ftp.radient.com

Forte Agent. Agent Email Software ftp.forteinc.com/pub/agent

Qualcomm, Inc. Eudora Email Software ftp.qualcomm.com/eudora

Pegasus. Pegasus Email Reader risc.ua.edu/pub/network/pegasus
Commtouch. Pronto/IP Mail Reader commtouch.com
Electric Arts. Games ftp.ea.com/pub

ID Software. Doom, Hexen, and more!! ftp.idsoftware.com

VocalTec. IPphone by VocalTec vocaltec.fast.net/pub
Addison Wesley Longman. E-books!! ftp.awl.com

e-Book Site ftp.mcp.com/pub

Prentice Hall. Tons of Information ftp.prenhall.com/pub

Wiley & Sons Publishing. An amazing amount of information ftp.wiley.com/public

Borland ftp.borland.com/pub

Intel ftp.intel.com/pub

McAfee ftp.mcafee.com/pub

NetManage ftp.netmanage.com/pub

Novell ftp.novell.com

DNet ftp.zdnet.com/pcmag

Boca Research, Inc. ftp.bocaresearch.com

Compaq Computer ftp.compaq.com/pub

Creative Labs ftp.creaf.com/pub

Dell Computer ftp.dell.com

Diamond Multimedia Systems, Inc ftp.diamondmm.com/pub

Gateway 2000 ftp.gateway.com

!Hayes Microcomputer Products, Inc ftp.hayes.com

Hewlett-Packard ftp.hp.com

IBM PC Company ftp.pc.ibm.com

Iomega ftp.iom/pub

Lexmark International, Inc. ftp.lexmark.com/pub

Linux Journal ftp.ssc.com/pub/lj

Sys Admin ftp.mfi.com/pub/sysadmin

UNIX Review ftp.mfi.com /pub/unix-review

Debian ftp.de.debian.org/debian

Caldera ftp.caldera.com/pub

Linux Online ftp.linux.org/pub

Red Hat Linux ftp.redhat.com

Sunsite Linux Archives sunsite.unc.edu/pub/Linux
Yggdrasil ftp.yggdrasil.com/pub

SCO ftp.sco.com

Apple Macintosh OS support Non US
ftp.apple.com/Apple_Support_Area/Apple_Software_Updates/Worldwide/Macintosh/System

Apple Macintosh OS support (US)
ftp.apple.com/Apple_Support_Area/Apple_Software_Updates/US/Macintosh/System

Microsoft NT files ftp.microsoft.com/bussys/winnt

Microsoft Win95 Files ftp.microsoft.com/Products/Windows/Windows95

XFree86 Project ftp.xfree86.org/pub

Adobe Systems, Inc. ftp.adobe.com/pub

Claris Corporation ftp.claris.com/pub

Netscape ftp.netscape.com

Symantec ftp.symantec.com/public

SAS Institute ftp.sas.com

Montagar VMS Archive ftp.montagar.com

Western Kentucky U Archive ftp.wku.edu

MacUser ftp.zdnet.com/macuser

MacWeek ftp.zdnet.com/macweek

NT Systems ftp.mfi.com/pub/ntsys

Windows Sources ftp.zdnet.com/wsources

Amdahl Corporation ftp.amdahl.com

Tandem Computers, Inc ftp.tandem.com

3Com ftp.3com.com

Bay Networks, Inc ftp.baynetworks.com

NeXt ftp.next.com

Sony Corporation ftp.sony.com/ccpg

Telebit Incorporated ftp.telebit.com/pub

U.S.Robotics, Inc ftp.usr.com

IBM AIX ftp.austin.ibm.com/pub

Sun Microsystems ftp.sun.com

NASA Jet Propulsion Lab ftp.jpl.nasa.gov/pub/images

NASA Images nssdc.gsfc.nasa.gov/pub/photo_gallery/image
Stuttgart University ftp.uni-stuttgart.de/pub/graphics/pictures

SUNET Sweden ftp.sunet.se/pub/pictures

Computer Shopper ftp.zdnet.com/cshopper

ComputerLife ftp.zdnet.com/clifeuk

Computerlife US ftp.zdnet.com/complife

FamilyPC ftp.zdnet.com/familypc

PC Computing ftp.zdnet.com/pccomp

PC Direct UK ftp.zdnet.com/pcdiruk

PC Magazine ftp.zdnet.com/pcmag

CERT. Computer Emergency Response Team ftp.cert.org/pub

InterNIC internic.net
USENET FAQ Listrtfm.mit.edu
World Wibe Web Consortium. w3.org
PC Week. zdnet.com/pcweek
Underground-Online. zdnet.com/ugonline
WEB Techniques ftp.mfi.com/pub/webtech

ZD Internet Magazine. zdnet.com/zdimag
C++ Users Journal ftp.mfi.com/pub/cuj

Dr. Dobb's Journal & Sourcebook ftp.ddj.com

Embedded Systems Programming ftp.mfi.com/pub/espmag

Game Developer ftp.mfi.com/pub/gamedev

Microsoft Systems Journal ftp.microsoft.com/developr/msj

R&D Books ftp.mfi.com/pub/rdbooks

Software Developement ftp.mfi.com/pub/sdmag

Windows Developer's Journal ftp.mfi.com/pub/windev

Computer Gaming World. zdnet.com/gamespark
3D-Design Studio. #3D-Design 3D Studio Plugin FTP Site ftp.mfi.com/pub/3d-design

AutoCAD Tech Journal ftp.mfi.com/pub/atj

Federal Communication Commission ftp.fcc.gov/pub

FedWorld ftp.fedworld.gov/pub

SEC. Securities and Exchange Commission ftp.sec.gov/edgar

American Football. ftp.vnet.net/pub/football

PK. Home of PKWARE's PKZIP data compression software. Wareftp.pkware.com

Cryptology Programs ftp.csua.berkeley.edu/pub/cypherpunks

RSA Data Security ftp.rsa.com/pub

S-KEY ftp.bellcore.com/pub/nmh

Download.Com ftp.download.com/pub

Oak Archives oak.oakland.edu
PAPA Winsock papa.indstate.edu
Univ. of Massachusetts ftp.uml.edu

Maxtor Corporation ftp.maxtor.com/pub

Western Digital Corporation ftp.wdc.com

ZyXel. zyxel.com
Cray Research, Inc ftp.cray.com

Intel Scalable Systems Div. ftp.ssd.intel.com

nCube. ncube.com/pub
Thinking Machines Corporation. think.com
Digital Equipment Corporation ftp.digital.com

Silicon Graphics, Inc. ftp.sgi.com

Apple Newton.
apple.com /Apple_Support_Area/Apple_Software_Updates/Worldwide/Newton
US Robotics Pilot ftp.usr.com/pub/usr/dl06

CRL FTP Server crl.dec.com
Customer Service ftp.service.digital.com

Datastorm Technologies ftp.datastorm.com/pub

NCSA. National Center for Supercomputing Applications ftp.ncsa.uiuc.edu/

Walnut Creek. cdrom.com
Games ftp.microsoft.com/deskapps/games

CICA ftp.cica.indiana.edu

CPfSR. Computer Professionals for Social Responsibility ftp.cpsr.org/cpsr

Kodak. kodak.com
Finger clients sparky.umd.edu/pub
X500. nasa.gov/software
Music Lyrics and More ftp.leo.org/pub/rec/music

Classical Music. cs.ruu.nl/pub/MIDI
Music Conversion Programs qiclab.scn.rain.com/pub/music
Music Stuff ftp.luth.se/pub/sounds

Gardening ftp.lysator.liu.se/pub/gardening

Alternative Energy sunsite.unc.edu/pub/academic/environment
Satallite Ozone Data & Images jwocky.gsfc.nasa.gov/pub
NCGI National Center for Geographic Information Analysis Ancgia.ucsb.edu/pub
Paleomagnetic Archive Site earth.eps.pitt.edu
United Nations Enviroment Program camelot.es.anl.gov/pub
Robotics cherupakha.media.mit.edu/pub/projects/6270
Bob Dylan Lyrics ftp.leo.org/pub/rec/music/vocal/lyrics/uwp/d/dylan.bob

Radio ftp.cs.buffalo.edu/pub/ham-radio

Amateur Radio for Mac-Users ftp.demon.co.uk/pub/ham/mac

Newsgroup Faq's rtfm.mit.edu/pub/usenet-by-group
AOL's Music Site mirrors.aol.com/pub/music/
Genealogy ftp.cac.psu.edu/genealogy

Genealogy Programs ftp.cac.psu.edu/genealogy/programs

Chessics. onenet.net/pub/chess
Chess FAQ rtfm.mit.edu/pub/usenet/news.answers/games/chess
Inventions. &Manual of Patent Examination Procedure ftp.std.com/obi/USG/Patents

Inventions2 ftp.uu.net/published/aspenbks

Animation ftp.cs.tu-berlin.de/pub/msdos/dos/graphics/stuba

Astronomy ftp.funet.fi/pub/astro/

Maritime Things. Seyways' Ships in Scale ftp.seaways.com

Soccer ftp.funet.fi/pub/sports/soccer

Hockey ftp.funet.fi/pub/sports/hockey

Racing ftp.funet.fi/pub/sports/racing

NBA ftp.funet.fi/pub/sports/nba

NFL ftp.funet.fi/pub/sports/nfl

NHL ftp.funet.fi/pub/sports/nhl


[1] Nos referimos aquí a los clientes FTP de interfaz gráfica, tipo Windows, OS/2, etc. En la figura 1 se ha representado la pantalla principal de uno de estos programas en el momento de una conexión.

8.2 FTP: Transferencia de ficheros
8.2.3 Tipos de ficheros y otras cuestiones complementarias

§1 Tipos de ficheros que pueden encontrarse
En Internet existen millones de ficheros con toda clase de contenidos, intentar una clasificación puede resultar un tanto artificioso, pero una aproximación al tema sería considerar el tipo de contenido y la utilidad que nos puedan reportar (su posible uso), considerando solo aquellos que pueden ser "abiertos" [1] en nuestro ordenador personal. Para acotar un poco mas el campo suponemos que se trata de un PC corriendo Windows como sistema Operativo. No obstante, aún con estas restricciones, es decir, considerando solo aquellos ficheros que pertenecen al mundo Windows y/o MS-DOS, existen centenares (diríamos miles) de tipos distintos de ficheros, su enumeración y clasificación se saldría de la extensión de estas páginas [2], pero limitándonos a un pequeño grupo de los mas frecuentes (que sin embargo definen una mayoría sobre el total), podemos clasificarlos según el siguiente esquema:

§1.1 Ficheros de Texto
Ficheros que solo contienen ASCII estándar ( E2.2.1a), denominado "Plain text" o texto plano (sin formato) en la jerga informática. No presentan problemas de presentación, aunque puede haberlo con algunos caracteres especiales si se trata de ASCII en algún dialecto de idioma distinto al nuestro. Los más notables son los ficheros read.me, lea.me, etc. Todos ellos pueden ser abiertos con un procesador de textos normal (por ejemplo el WordPad del propio Windows).
Aunque no directamente representables en su verdadero formato (necesitan para esto del navegador) incluimos aquí los formatos de la Web (HTML), que son también solo texto ASCII. Tienen las terminaciones que se indican: HTML, HTM, SHTM, SHTML, CHTML, CHTM, ASP, CSS, TXT, TEXT, IIF

§1.2 Texto formateado
Existen muchos tipos (tantos como fabricantes), el contenido es principalmente ASCII pero acompañado de múltiples caracteres específicos de control de formato y presentación. Son los ficheros producidos por procesadores de texto (del tipo Word de MS o WordPerfect, por ejemplo) y sistemas de auto edición. Requieren un programa específico para abrirlos. Pueden ser también abiertos con un procesador de texto ASCII puro, pero entonces son difícilmente legibles, porque junto con el texto normal aparecen combinaciones de caracteres extraños (los denominados caracteres de control) que sirven para indicar que tipo de letra se utiliza en cada párrafo, si es negrita, subrayado, etc. etc.
Tienen terminaciones muy diversas, a continuación incluimos algunas (incluimos también algunos formatos correspondientes a hojas de cálculo): DOC, RTF, WPD, PDF, DVI, GID, HLP, GID, VK1, XLS.

§1.3 Ficheros de Audio
Ficheros de sonido de diversos tipos, existen multitud de "codecs" para este tipo de ficheros, pero los más frecuentes en la Web son los siguientes [3]: WAV, AU, RA, RAM, AIF, AIFC, AIFF, MID, MIDI, LAM, SND, MP3, VCD, RMI.

§1.4 Ficheros de imágen
Ficheros con imágenes estáticas o animadas (no-video), incluyendo formatos para diseño gráfico CAD ("Computer Aided Design").
En informática se utilizan dos formas básicas para almacenar imágenes, a su vez de cada una existen muchas variantes; son denominadas raster y vectorial. El sistema raster consiste en descomponer la imagen en una serie de puntos (píxel) como si fuese un mosaico, y almacenar el color y brillo de cada uno de estos puntos. Naturalmente se consigue más definición cuento mayor sea el número de puntos, pero a cambo de que el fichero resultante es mayor (hay que almacenar más datos).
Este tipo de imagen es el que vemos en la pantalla de nuestro monitor (que a fin de cuentas muestra puntos), y es poco adecuado para ciertas manipulaciones, por ejemplo hacer zoom (aumentar o disminuir). Es fácil entender que si se aumenta mucho la imagen empiezan a verse los puntos (como si nos acercamos demasiado a una foto del periódico). Entre los ficheros de este tipo están los terminados en GIF, JPG, TIF, JPEG, PNG, BMP, ICO. Los formatos para ser vistos en páginas Web son todos de este tipo.
En el sistema vectorial, cada elemento de la imagen, línea, punto, polígono, zona de color, etc. es definida por sus propiedades matemáticas, de forma que, por ejemplo, una línea entre dos puntos puede ser definida como una recta (o un tipo de curva) que pasa por dichos puntos, con un color, un grueso y un tipo de trazo (continuo, discontinuo, puntos, etc).
Las imágenes vectoriales son muy indicadas para dibujos de tipo técnico, por ejemplo: mapas geográficos, cartografía, diseño arquitectónico, diseño mecánico, etc, así como para cierto tipo de diseño artístico. Resulta imprescindible para dibujos en los que se necesita conocer la escala, o sobre los que es necesario hacer cálculos. Por ejemplo, conocer la distancia entre dos puntos o la intersección de dos líneas. Soporta los cambios de tamaño (zoom) con absoluta precisión. Entre los ficheros de este tipo están los terminados en DWG, DWF, DXF.
§1.5 Ficheros de Video
Ficheros con video para ser reproducido en el ordenador (pueden incluir sonido) y en general contenidos multimedia: MOV, AVI, QT, MPE, MPEG, MPG, ASF.

§1.6 Ficheros ejecutables
Ficheros que pueden ser ejecutados directamente en el ordenador; son realmente programas, aunque algunos tienen la sola finalidad de desempaquetar un cierto contenido que viene incluido en el propio fichero (caso de los denominados ficheros auto-extraíbles y compresores). Entre estos últimos están los de terminación: EXE, ZIP, ARC, COMO, ARJ, LZH, TAR y TGZ. También existen ejecutables de tipo muy específico, por ejemplo ser incluidos en páginas Web. Entre estos están los programas Java y Active-X, por ejemplo: CLASS, JAVA, JS, CAB, INF y OCX.

§2 Propiedad y usabilidad
Es importante tener en cuenta, que el ser Internet un sistema de acceso universal (especialmente la Web), y que tenga una gran tradición de protocolos abiertos, no significa que todo lo que hay en la Red sea de dominio público (sin dueño). Ni que nos podamos apropiar por las buenas de los contenidos que encontremos en ella, documentos, imágenes, sonidos, ejecutables (programas) etc. Una cosa es que el autor los exponga en un escaparate (por amplio que este sea) y otra muy distinta que podamos usarlos a nuestro antojo, aunque en ocasiones, los autores permiten un uso indiscriminado de su obra, transformándolas "de facto" en objetos de dominio público.
La propiedad intelectual y artística siguen vigentes, y sigue siendo necesario contar con la autorización del propietario (al menos pedir permiso) para usar cualquier contenido que creamos interesante, sobre todo si vamos a hacer un uso comercial del mismo.
Precisamente, el hecho de que la adecuada protección de la propiedad intelectual es una de las asignaturas pendientes de la Red (de ahí los primitivos intentos de Ted Nelson y su proyecto Xanadu), es lo que ha limitado la publicación en la Web de ciertos contenidos (libros por ejemplo). En el apéndice H se ofrece más amplia información sobre el referido "Proyecto Xanadú", así como una interesantes consideraciones del padre de la Web relativas a la propiedad intelectual ( Ap. H).
En este sentido, Internet ha popularizado dos tipos de contenidos, conocidos por su denominación inglesa: shareware y freeware. Aunque la denominación se refiere principalmente a programas, el concepto puede aplicarse a cualquier otro tipo de material susceptible de ser descargado de la Red.

§2.1 Shareware
Un método de venta de programas y otros contenidos bajo el lema: "Probar antes de pagar". En esta modalidad, los programas pueden ser probados un cierto tiempo, generalmente de una semana a un mes, antes de decidir su compra. Pasado este periodo hay que adquirirlo (pagar al autor) o borrarlo del equipo. Durante el periodo de prueba el programa puede mostrar algunos mensajes indicando que está en demostración. Pasado el tiempo, puede sencillamente dejar de funcionar o limitarse a recordar que hay que adquirirlo. En estos casos, después del pago (que suele hacerse mediante tarjeta de crédito a través de Internet), el autor envía un e-mail (correo electrónico) con una clave que se puede introducir en el programa que desde este momento queda "Registrado". Esto suele servir también para que, a partir de ese momento, nos mantengan informados de las novedades y mejoras que se puedan ir introduciendo en el producto, incluso en algunos casos las actualizaciones son gratis para los clientes registrados.
El sistema no se limita a ejecutables (programas), funciona también con otros tipos de contenidos. Muchas empresas exponen y venden sus productos de todo tipo por Internet (es una parte del denominado "e-comerce"). Por ejemplo publicaciones de todo tipo, enciclopedias, libros, catálogos, folletos, imágenes, música, etc. Solo hay que pagar si se usan. A este respecto es conveniente recordar que existen sistemas de firma en las imágenes digitales, marcas de agua, que aunque invisibles a simple vista, pueden ser puestas de manifiesto con técnicas especiales, por lo que hay que ser muy cauto a la hora de usar sin autorización este tipo de contenidos que aparentemente no tienen propietario identificable.
Muchos programas de dibujo y retoque disponen de esta opción; es una utilidad que permite insertar una marca (un número de identificación) en el dibujo, pero imperceptible a simple vista. El número es asignado por la empresa propietaria del sistema, Digimarc corporation, en la que hay que registrarse para conseguir la identificación. Otra utilidad permite leer la marca en el dibujo, una vez obtenido el número, puede identificarse al autor o propietario en la Base de datos de la Web de la empresa. Mas datos en: [url]http://www.digimarc.com[/url]

§2.2 Freeware
Programas u otro tipo de contenidos (imágenes, sonidos, etc.) de dominio público, aquellos que su autor pone en la Web a libre disposición de quienes quieran utilizarlo. A veces con el único ruego que si lo encontramos interesante le enviemos un e-mail o una postal.
A todos los efectos este tipo de contenidos siguen perteneciendo a su autor, en el sentido de que no puede revenderse ni utilizarse con fines (directamente) lucrativos, por ejemplo incluirlos en recopilaciones o catálogos que tengan un costo. Tampoco pueden ser modificarlos, desensamblarlos o realizar ingeniería inversa sobre ellos.

§2.3 Servicios
Además de los bienes susceptibles de propiedad intelectual que puede ofrecer la Red (en régimen shareware o freeware) Internet también ofrece determinados servicios, suministrados por ciertas compañías, que pueden ser igualmente gratis o de pago. No se incluyen en la categoría anterior (shareware o freeware) porque se trata de bienes de naturaleza distinta a la de utilizar un programa, una fotografía o una composición musical.
En general las empresas que ofrecen servicios cobran por ellos (ese es su negocio). La Red no es una excepción, sin embargo es posible encontrar gran cantidad de ellos gratis, el secreto está en la publicidad, en el fondo ocurre que la red es un macrocosmos; una gran ciudad si se quiere (en crecimiento constante), con millones de habitantes que pululan por ella. Las leyes de la economía y la publicidad son válidas en la Red como en cualquier otro sitio, por lo que los anuncios en sitios muy concurridos son tan valiosos como una valla junto a una autopista. El motivo de ofrecer determinados servicios de forma gratuita no es mas que favorecer y garantizar el mayor número posible de visitantes que por una u otra razón pase por determinados sitios de este ciber-espacio. A mayor número de visitantes, mayor es el precio de la publicidad que inevitablemente inunda estos sitios y servicios "gratuitos", son los conocidos banners: "Unas palabras de nuestro sponsor...".
Existen muchos sitios y servicios gratis, e incluso sitios Web (especie de buscadores de gangas) cuya especialidad es justamente informar sobre los mismos. Entre los que se podrían citar están:
• Ferca [url]http://ferca.net/esgratis[/url]
Contiene recursos de todo tipo, tanto programas, ficheros, etc. como servicios gratuitos
• Guía para Cibernautas inquietos [url]http://costa-brava.com/internet[/url]
Una bien estructurada y organizada relación con enlaces y referencias de servicios gratuitos en Internet.

§2.4 El movimiento de Software Libre (Free Software Movement)
Aparte de los contenidos freeware y shareware antes mencionados, a principios de los 90 apareció en el mundo informático un movimiento denominado de Software Libre, iniciado por un estudiante del MIT, Richard Stallman, que introdujo un nuevo concepto en las formas y modos de desarrollar, publicar y en cierta forma "comercializar" el software. Este sistema, conocido por sus iniciales GNU, se basa en un curioso concepto del copyright. La esencia del mismo puede resumirse en que cada cual puede utilizar y modificar libremente el software, a condición que publique su código y lo ponga a disposición del resto de la comunidad de la misma forma [3a].
Esta forma de uso se denomina Licencia Pública General GPL ("General Public License"), y estipula que los programas "libres" son propiedad de sus autores y deben ser distribuidos en su código fuente. Según los términos de esta licencia, cualquiera puede comercializar un programa libre, incluso con sus propias modificaciones, pero no tiene derecho a apropiárselo para sí solo. De esta forma se garantiza que estos programas estén disponibles para todo el mundo, garantizando la perpetuidad de su estatus.
Stallman publicó sus intenciones e ideas en un artículo aparecido en 1984. El documento ha sido traducido a casi todas las lenguas y es ahora mundialmente conocido como "El manifiesto GNU" ( [url]http://www.gnu.org/gnu/manifesto.html[/url] ). Su objetivo, conseguir un sistema de Software libre y gratuito incluyendo tanto Sistemas Operativos como programas de aplicación de todo tipo. Para desarrollar su proyecto inició una fundación sin ánimo de lucro, denominada Free Software Foundation cuya misión sería recabar ayudas para desarrollar el proyecto.
Nota: Aparentemente las iniciales GNU no significan nada. Todo lo que sabemos sobre las mismas en palabras del propio Stallman es lo siguiente: "GNU, which stands for Gnu's Not Unix, is the name for the complete Unix-compatible software system which I am writing so that I can give it away free to everyone who can use it. Several other volunteers are helping me. Contributions of time, money, programs and equipment are greatly needed".
GNU [url]http://www.gnu.org/[/url]
Free Software Foundation [url]http://www.gnu.org/fsf/fsf.html[/url]

Para entender todo este movimiento hay que recordar que a mediados de los 80 todo el software disponible era propiedad de las pocas compañías fabricantes de ordenadores de entonces, de forma que después de un cierto tiempo de su uso, las empresas que los habían adquirido eran en cierta forma "prisioneras" de los fabricantes, ya que los programas de aplicación desarrollados por la empresa, y las bases de datos e información histórica correspondientes, se hacía cada vez más importante. Y solo corría en las máquinas del fabricante.
Un método muy común para forzar periódicamente a los clientes a renovar su parque de máquinas por nuevos y costosos modelos, era subir anualmente el costo del contrato de mantenimiento (obligatorio) para los equipos antiguos. En ocasiones estas prácticas rozaban la tiranía, ya que los costos y problemas de un cambio de proveedor eran tales que muy pocos directores de informática ("mecanización" como se llamaba entonces) se exponían a este riesgo. Los Sistemas Operativos de cada fabricante eran totalmente incompatibles entre sí, así como los formatos de ficheros, la filosofía de operación, los lenguajes, etc. Ni siquiera había seguridad que la cinta magnética grabada en un sistema pudiera ser leída por otro.
A continuación se incluyen unos comentarios [4] de David Solomon Bennahum ( [url]http://www.memex.org/[/url] ), publicados en Community Memory, lista de discusión sobre la historia del ciberespacio [url]http://www.memex.org/community-memory.html[/url], que exponen con más claridad de lo que yo pudiera hacerlo, los antecedentes y circunstancias que rodearon los comienzos del movimiento.
Of at least as much interest as Internet's technical progress in the 1990s has been its sociological progress. It has already become part of the national vocabulary, and seems headed for even greater prominence. It has been accepted by the business community, with a resulting explosion of service providers, consultants, books, and TV coverage. It has given birth to the Free Software Movement.
The Free Software Movement owes much to bulletin board systems (BBS), but really came into its own on the Internet, due to a combination of forces. The public nature of the Internet's early funding ensured that much of its networking software was non-proprietary. The emergence of anonymous FTP sites provided a distribution mechanism that almost anyone could use. Network newsgroups and mailing lists offered an open communication medium. Last but not least were individualists like Richard Stallman*, who wrote EMACS, launched the GNU Project and founded the Free Software Foundation*. In the 1990s, Linus Torvalds wrote Linux, the popular (and free) UNIX clone operating system.
For those list members interested in Richard Stallman, and the Free Software Foundation [5], I did an interview with him in 1996 and a transcript of that conversation is available for you at [url]http://www.memex.org/meme2-04.html[/url].

The explosion of capitalist conservatism, combined with a growing awareness of Internet's business value, has led to major changes in the Internet community. Many of them have not been for the good.
First, there seems to be a growing departure from Internet's history of open protocols, published as RFCs. Many new protocols are being developed in an increasingly proprietary manner. IGRP, a trademark of Cisco Systems, has the dubious distinction as the most successful proprietary Internet routing protocol, capable only of operation between Cisco routers. Other protocols, such as BGP, are published as RFCs, but with important operational details omitted. The notoriously mis-named Open Software Foundation has introduced a whole suite of "open" protocols whose specifications are available - for a price - and not on the net. I am forced to wonder: 1) why do we need a new RPC? and 2) why won't OSF tell us how it works?
People forget that businesses have tried to run digital communications networks in the past. IBM and DEC both developed proprietary networking schemes that only ran on their hardware. Several information providers did very well for themselves in the 80s, including LEXIS/NEXIS, Dialog, and Dow Jones. Public data networks were constructed by companies like Tymnet and run into every major US city. CompuServe and others built large bulletin board-like systems. Many of these services still offer a quality and depth of coverage unparalleled on the Internet (examine Dialog if you are skeptical of this claim). But none of them offered nudie GIFs that anyone could download. None of them let you read through the RFCs and then write a Perl script to tweak the one little thing you needed to adjust. None of them gave birth to a Free Software Movement. None of them caught people's imagination.
The very existence of the Free Software Movement is part of the Internet saga, because free software would not exist without the net. "Movements" tend to arise when progress offers us new freedoms and we find new ways to explore and, sometimes, to exploit them. The Free Software Movement has offered what would be unimaginable when the Internet was formed - games, editors, windowing systems, compilers, networking software, and even entire operating systems available for anyone who wants them, without licensing fees, with complete source code, and all you need is Internet access. It also offers challenges, forcing us to ask what changes are needed in our society to support these new freedoms that have touched so many people. And it offers chances at exploitation, from the businesses using free software development platforms for commercial code, to the Internet Worm and the security risks of open systems.
People wonder whether progress is better served through government funding or private industry. The Internet defies the popular wisdom of "business is better". Both business and government tried to build large data communication networks in the 1980s. Business depended on good market decisions; the government researchers based their system on openness, imagination and freedom. Business failed; Internet succeeded. Our reward has been its commercialization.

§3 Técnicas auxiliares
Muchos elementos software, especialmente programas, no se componen en realidad de un solo fichero sino de varios (a veces muchos), aunque por razones de comodidad y rapidez se pueden empaquetar mediante programas especiales en un único archivo que es el que se transmite y viaja por la red. Una vez en su destino, un procedimiento inverso restituye la individualidad de cada componente, con lo que pueden ya utilizarse o instalarse en el ordenador de destino.
Las técnicas de compresión de ficheros (para ahorrar espacio de almacenamiento) son conocidas desde antiguo en la informática, pero la popularización de la Web y su inmenso trafico de datos, las ha vuelto a poner en candelero. Desde el punto de vista de la Red, los programas de compresión y empaquetado [6] de ficheros presentan una doble ventaja:
• Gracias a las técnicas de compresión empleadas, el resultante total es siempre menor que la suma de las partes, lo que significa transmisiones más rápidas y menor exigencia de espacio de almacenamiento en servidores y clientes.
• Al empaquetar todos los elementos de una aplicación en un solo fichero no existe riesgo de que se pierda algún elemento, que nos olvidemos descargarlo, que confundamos un componente antiguo con el de una actualización, etc.
Además, algunos de estos programas añaden utilidades adicionales. Por ejemplo: pueden imponer una cierta técnica de cifrado de los contenidos, de forma que el fichero resultante solo puede volverse a su estado original conociendo la clave utilizada, lo que supone un valor añadido en lo que a seguridad de las transmisiones se refiere.
Al margen de su utilidad como vehículo o excipiente para las transmisiones, este tipo de programas resultan útiles incluso para el almacenamiento de datos en el propio ordenador, ya que al margen de la compactación, la agrupación de múltiples ficheros en uno solo tiene beneficios añadidos desde el punto de vista de la optimización de los almacenamientos de disco, sobre todo en unidades de gran capacidad con clusters de gran tamaño. Máxime cuando, a pesar de estar compactados, los ficheros mantienen casi intacta su accesibilidad y operatividad (como ocurre en el caso que comentamos a continuación).
Existen muchos y muy buenos programas de este tipo, algunos con especial énfasis en las capacidades de compresión, en la velocidad, en la seguridad, etc. Pero de todos ellos, el que aquí comentamos se ha convertido de facto en una especie de estándar mundial en lo que se refiere a las transmisiones de ficheros en Internet. Realmente se trata de una de las herramientas que no debe faltar en el taller de cualquier buen internauta.


WinZip [url]http://www.winzip.com[/url]
Programa shareware de Nico Mak Computing Inc. Reúne todas las opciones para hacerlo sumamente interesante, entre ellas la posibilidad de empaquetar múltiples ficheros en uno solo (los populares ficheros .ZIP) que puede ser auto extraíble, es decir, el receptor no necesita ninguna utilidad adicional para restituir el contenido (el fichero puede desempaquetarse a sí mismo). Permite añadir una clave de acceso al fichero resultante, con lo que puede aumentarse la seguridad en las transmisiones [7]. No solo comprime ficheros (con buenos índices de optimización), también directorios completos y sus contenidos, manteniendo su estructura al restituirlos. Permite ver y restituir los contenidos individualmente (los ficheros individuales) sin necesidad de desempaquetar la totalidad.

En ocasiones, cuando se descargan aplicaciones, en vez de un fichero .ZIP, se reciben ficheros ejecutables (EXE); se trata también de ficheros comprimidos auto extraíbles, cuya única misión al ejecutarse es desempaquetar los elementos integrantes e iniciar el proceso de instalación del software en el ordenador anfitrión, aunque en este caso es poco lo que puede hacerse para ver el contenido (no tienen tantas opciones como los ficheros ZIP). En cualquier caso, una vez realizada la instalación puede borrarse el fichero original .exe o .zip (salvo que deseemos guardarlo por cuestiones de seguridad).

[1] El término es deliberadamente ambiguo, si se trata de texto suponemos que pueda ser visto e impreso en nuestro sistema; si de música, que pueda ser reproducida; si una imagen, que pueda ser mostrada en pantalla; si un programa, que pueda ser ejecutado; etc. No hay que olvidar, que salvo en este último caso (ejecutables), para abrir un fichero es siempre necesario un programa específico que puede estar incluido o no como un componente estándar en el propio sistema operativo (Linux, Windows o cualquier otro).
[2] Existen varios libros dedicados exclusivamente a la descripción de los formatos y tipos de ficheros que aparecen el la Web; uno de los últimos en castellano: "Formatos de ficheros en Internet". Tim Kientzle Ed. Paraninfo.
[3] Mas información en el capítulo 10. Multimedia en la Web ( 10).
[3a] El resultado más conocido y exitoso de esta fórmula ha sido Linux. Iniciado por Linux Thorwald, que creó el núcleo de este sistema operativo y lo puso en la Red a disposición de todo el que quisiera utilizarlo bajo la licencia GNU.
[4] Respetamos el original inglés. Los comentarios y subrayados son nuestros.
[5] No confundir con la Open Software Foundation.
[6] Por compresión entendemos reducir el tamaño resultante de un fichero mediante algoritmos adecuados. La compactación se refiere a la agrupación de varios ficheros en uno solo esté o no acompañada de una compresión previa de los elementos integrantes. En el capítulo 10 se comentan mas extensamente estas cuestiones.
[7] Si utiliza este programa y ha olvidado la contraseña de algún fichero comprimido, quizás este programa pueda ayudarle: Advanced ZIP Password Recovery. Es una utilidad shareware que ayudará a recuperarlos. El programa extrae las contraseñas de ficheros ZIP, usando el ataque basado en la "fuerza bruta". Su capacidad es de diez millones de contraseñas por minuto (en un Pentium 166).

8 Servicios de Internet
8.3 Listas de Correo ("Mail Lists")

§1 Introducción
Las Listas de Correo ("Mail lists"), también llamadas Listas de Distribución ("Listserv"), tienen su origen a mediados de la década de 1970, es un sistema de difusión de información [1] basado en el correo electrónico y orientado a grupos de interesados en temas específicos. La base del sistema es un ordenador (el servidor de la lista) en el que un programa especial mantiene una lista con las direcciones e-mail de una serie de personas interesadas en un tema en cuestión, los denominados Suscriptores; el sistema también guarda copias de los mensajes recibidos durante un cierto tiempo, por ejemplo el último mes. Aparte del mantenimiento de la lista (altas, bajas, etc.), su actividad se reduce a que, cuando recibe un mensaje para la lista, de cualquiera de los suscriptores, envía una copia a todos los demás miembros, consiguiéndose así unificar la información recibida por todo el grupo. Como puede verse, se trata de un medio excelente para divulgación e intercambio de conocimiento, opiniones y noticias sobre temas concretos entre grupos de interesados, que pueden ser pocos o decenas de miles, dependiendo del interés que suscite el tema tratado.
No hay que confundir las Listas de Distribución con los Grupos de Noticias (a las que haremos referencia en el próximo capítulo), aunque tienen un funcionamiento parecido; las listas envían los mensajes automáticamente a sus subscriptores por e-mail, mientras que para recibir las noticias hay que conectarse y seleccionar para su lectura las que, por su título, parezcan interesantes (se usa un protocolo parecido al de e-mail). Hechas estas distinciones, hay que advertir que en algunos casos, las listas de distribución tienen pasarelas a grupos de noticias, es decir, el servidor de la lista envía copia de los mensajes recibidos a algún grupo de noticias.

§2 Foros controlados
El funcionamiento de las listas no es caótico y automático, existe la figura del Administrador o Moderador ("Sysop"), responsable de su mantenimiento. Este mantenimiento comienza por la creación de la propia lista, alguien que tiene la idea de que un tema determinado sería interesante para un número de personas. Las altas y bajas, así como la exclusión de los suscriptores que no muestren un comportamiento acorde con la política de contenidos de la propia lista [2]. El administrador es, en parte, responsable del buen funcionamiento, controlando además el servidor de ficheros (mensajes), de forma que interviene casi todos los aspectos del servicio. Por ejemplo, puede impedir la difusión de mensajes que, por alguna razón, considere impropios o inoportunos, de contenido no acorde con el carácter de la lista, etc.
El hecho de ser foros moderados y de necesitar un registro previo, les confiere carácter; suelen ser sitios más serios, más específicos y de más altura que los grupos de noticias [3]. No obstante, en ocasiones es posible ver en listas de distribución mensajes con el título "off-topic" (fuera de contexto), cuyo contenido no concuerda con el carácter general de la lista y que, a veces, son tolerados por los administradores que permiten su difusión.
Actualmente (1998) existen decenas de miles de listas de correo de los temas más variados. En Agosto de 1998, Liszt, uno de los principales buscadores de listas de distribución contenía mas de 90.000; la lista adjunta es una somera clasificación de parte de los contenidos [4].
Artes Crafts, Televisión, Películas...
Libros Artículos, ciencia-ficción, Vida y trabajos de...
Negocios Finanzas, Trabajos, Márketin...
Ordenadores Hardware, Bases de datos, Programación...
Cultura Gay, Judía, Crianza de los hijos...
Educación Educación a distancia, Académica, En Internet ...
Salud Medicina, Alergología, Mantenimiento ...
Humanidades Filosofía, Historia, Sicología...
Internet WWW, Negocios, Márketin...
Música Bandas, So-Cantautores, Estilos...
Naturaleza Animales, Medio ambiente, Plantas...
Noticias Internacional, Regional, Política...
Política Medio ambiente, Activismo, Derechos humanos...
Entretenimiento Juegos, Automóviles, Deportes...
Religión Cristiana, Judía, Mujer...
Ciencia Biología, Astronomía, Química...
Social Regional, Religión, Niños...

En España, la Red académica Iris mantiene varias de las más importantes, con la ventaja de contenidos en castellano. La forma de buscarlas en Internet concierne a las técnicas generales de búsqueda, tema al que nos referiremos en el capítulo 8. Aquí nos limitaremos a señalar que RedIris mantiene un catálogo con abundante información, tanto de las propias como foráneas en general, buscadores nacionales e internacionales, instrucciones para la suscripción y solicitud de creación de nuevas listas, etc. Puede encontrarse información al respecto en [url]http://www.rediris.es/list[/url]
En este tipo de "comunidades" es especialmente importante tener presentes las reglas de Netiqueta y de prudencia ( 8.1.6), en especial no enviar información comercial. Tenga en cuenta que las listas de distribución no son sitios públicos (como el resto de la Web); en ocasiones se trata de grupos muy cerrados y peculiares que tienen sus propias reglas y costumbres; a veces con un gran sentido de la individualidad del grupo (o casta). El hecho de que nos acepten en la lista de distribución no significa en modo alguno que seamos miembros de pleno derecho (con voz), simplemente somos "oyentes". Se recomienda un periodo inicial de varias semanas de observación de los usos y costumbres antes de enviar nada a estos grupos, además de asegurarse de que el grupo admite tal tipo de "colaboración" por nuestra parte. En ocasiones, junto con el mensaje de bienvenida, comunicándonos que hemos sido admitidos en la lista nos envían un resumen de las normas de conducta y de operación.

§3 Forma de operación
El procedimiento operativo es mas o menos como sigue: Una vez localizada la lista deseada, enviamos un e-mail solicitando nuestra inscripción. Pasado un tiempo, podemos recibir un correo solicitándonos que lo contestemos como verificación de que realmente queremos adherirnos al grupo. Esto se hace para evitar bromas o que alguien, que conozca nuestra dirección e-mail, nos apunte a alguna lista sin consultarnos. Algún tiempo después, recibimos un e-mail notificándonos la aceptación en el grupo y quizás algunas normas de operación (al menos como podemos desconectarnos, para dejar de recibir los mensajes). A partir de ese momento, recibimos los mensajes que sean publicados junto con el resto del correo ordinario en nuestro buzón e-mail.
Hay que advertir, que el progresivo perfeccionamiento de los programas servidores de listas de correo, los ha convertido en sistemas altamente automatizados, prácticamente sin intervención humana. Todo el proceso, solicitud de ingreso, confirmación, baja, petición de información adicional, etc., se realiza mediante comandos enviados en los mensajes, utilizando determinadas palabras clave en el cuerpo de los propios e-mails que enviamos. Por ejemplo, para solicitar el alta pueden pedirnos que enviemos un mensaje a una dirección específica (Listserv address) con una única palabra o frase literal (y quizás nuestro nombre) en el cuerpo del mensaje, podría ser: SUBSCRIBE CYHIST Adolfo J. Millan; un simple Ok en el cuerpo del mensaje para confirmarla; Unsubscribe para cancelarla, etc. En estos casos se nos advierte que por ser procesos sin intervención humana, no incluyamos nada mas, y que sea exacta y literalmente como se nos indique. Tener muy en cuenta que, en estos casos, las palabras o frases del texto debemos considerarlas como meros comandos para el servidor de la lista, por lo que cualquier otra palabra aunque sea sencillamente "gracias", produce un error o es descartada [5]. En estos casos el listerv address es exclusivamente utilizado para estos comandos, para un contacto personal con el Sysop se proporciona otra dirección de correo.
En los sistemas muy automatizados es posible que los mensajes que queramos publicar en la lista, deban ser enviados a otra dirección específica (List address). Cualquier mensaje que enviemos a esta dirección será automáticamente copiado y remitido a cada uno de los suscriptores (pueden ser decenas o miles de destinatarios). En estos casos es muy importante no confundir las dos direcciones citadas y tener perfectamente claro para que sirve cada una.
Otro punto importante a tener en cuenta a la hora de subscribirse a grupos de noticias, es crear una carpeta especial para este efecto y guardar los mensajes. Al menos los que enviamos para solicitar la suscripción y los que recibimos como parte del diálogo inicial (reglas, instrucciones para cancelar la suscripción, etc). De esta forma mantendremos un cierto control sobre las listas a las que estamos suscritos, lo que resulta muy útil caso de irnos de vacaciones, de cambiar de dirección de correo, etc.

§4 Foros Web
Los foros Web ("Web Forums") son un servicio relativamente nuevo de la Web. Se trata de sistemas para intercambio de noticias, estilo los BBS ("Bulletin Board System") centralizados en un sitio Web que puede ser navegado con un "Browser". Los usuarios pueden visitar este tipo particular de Web para leer los mensajes y dejar los suyos.
Aunque por el momento (Sept. 1998) no hay estadísticas fiables al respecto, Reference [6] estima que hay mas de 25.000 foros Web en funcionamiento.

[1] Es un sistema precursor de los Grupos de Noticias, del Chat y otros similares que ha popularizado la Web posteriormente.
[2] Por supuesto que las listas de correo NO son sitios para insertar anuncios, "Si insertas un anuncio en una lista de correo, vendrá el demonio y te arrancará las uñas de los pies" (leído en la Web).
[3] Algunos creen esta "comunidad" es la mas civilizada que hay actualmente en la Web.
[4] Téngase en cuenta que mensualmente aparecen mas de 100 nuevas listas en el mundo.
[5] No perdamos de vista que, aunque sea mediante e-mail, estamos "dialogando" con una máquina.
[6] Reference.com, un importante buscador de grupos de noticias, listas de correo y ahora también de foros Web. [url]http://www.reference.com[/url]

8 Servicios de Internet
8.4 Grupos de Noticias (News)
Tradicionalmente, la mejor fuente de información sobre los grupos de noticias ha sido la Universidad de Indiana: [url]http://kb.indiana.edu/menu/usenet.html[/url]. Contiene enlaces a otras fuentes de información, datos sobre netiqueta, FAQs, noticias, etc.

§1 Introducción
Los Grupos de noticias (news groups) son un servicio de Internet que comienza en 1979 con el nombre de Usenet New Service, con lo que Usenet ha quedado como sinónimo de Grupo de Noticias entre los angloparlantes. De cierta similitud con el correo electrónico [1] y las listas de correo (mail lists), se basa en que en determinados puntos de la Red, existen ordenadores con un programa especial, Servidor de Noticias, que se comporta como un conjunto de grandes buzones de mensajes con la peculiaridad de que pueden ser consultados públicamente desde cualquier punto de la Web. Funciona como un tablón de anuncios ("Bulletin board"), donde aparecen publicados todos los mensajes enviados al grupo [2]. Estos mensajes son análogos a los e-mail.
Todo lo que se necesita para acceder a un grupo de noticias es un programa especial (cliente de noticias), con el que conectar con el servidor [3]. Al conectar con un grupo de noticias, el aspecto es parecido a un directorio en el que en vez de nombres de ficheros aparecen las cabeceras de los mensajes, autor y fecha de envío. Mediante el mismo programa es posible "leer" los contenidos (esto último se hace bajándose el cuerpo del mensaje). El mismo programa sirve para "publicar" en el grupo de noticias, es decir, para enviar mensajes al servidor.
Por lo general, los mensajes permanecen un tiempo en el tablón hasta que son borrados, cediendo su puesto a los que van llegando. Como se ha dicho, para ahorrar tiempo, los programas cliente están hechos de manera que descargan solo las cabeceras, que son almacenadas en la máquina cliente, mientras que los contenidos son bajados a petición (cuando a la vista de su cabecera, un mensaje nos parece que puede ser interesante). Como las cabeceras pueden permanecer en el equipo local después de haber sido borrados los mensajes del servidor, en ocasiones es posible ver mensajes cuyo contenido no pueden ser ya leído; en estos casos aparece un aviso: "El mensaje ha sido borrado del servidor".
En contra de lo que pudiera parecer por su nombre, no se trata de noticias en el sentido periodístico del término (aunque puede haberlas). Se trata de foros públicos en los que la gente intercambia información, opiniones, preguntas y respuestas sobre los temas mas variados en casi todos los idiomas, aunque naturalmente predomine el inglés que es el idioma oficial de la Web.
Actualmente (2002), existen en la Web decenas de miles de grupos de noticias de la mas variada índole, algunos con una gran actividad [4]. Un foro donde diariamente, millones de personas intercambian billones de palabras, con debates muy vivos, en los que suelen ser frecuentes las réplicas y contrarréplicas, con intervención de muchos contertulios. Junto con las listas de distribución constituyen una de las fuentes de información puntual más valiosas de la Red. En cierta forma son una versión escrita del IRC, con las ventajas e inconvenientes que esto supone.
Aunque la inmensa mayoría son auto-regulados, siendo los propios usuarios los que establecen las reglas y contenidos del grupo, algunos son regulados, en el sentido de que tienen un moderador (Sysop), encargado de verificar y controlar los contenidos antes de permitir su publicación.
When usenet was designed it was reasonable to expect none of the users would attack the infrastructure. Cancels were supposed to be used if someone posted something wrong and wanted to cancel their own post.
The cancel feature is now used to automatically cancel the vast majority of usenet spam. Because of this many usenet spammers want to persuade newsserver administrators to disable cancels on their servers (so more people will read their spam).
One spammer, Mike Enlow, with the connivance of win.net, has released a program that allows people to issue massive cancels for messages containing any particular word. His hopes of persuading news admins to turn off cancels look unlikely to succeed, thanks to the efforts of some members of S.P.U.T.U.M.
Tomado de las "Help" del programa Spade.

§2 Aspectos técnicos
Desde un punto de vista técnico, Usenet se basa en el NNTP ("Network News Transport Protocol"), definido en 1986 (RFC 977) por Kantor y Lampsley. Es utilizado por los programas servidores y clientes de noticias para enviar y recibir información. Se apoya desde luego en el protocolo TCP/IP de Internet ( 3.1). El formato de las noticias (muy parecido al de e-mail), fue definido en RFC 850 por Mark Horton; la versión actual (que reemplaza a la original) es la RFC 1036.
Información adicional en apéndice G ( Ap. G).

§2 Historia
Información sobre los orígenes de USENET, en especial en lo concerniente al software utilizado en los grupos de noticias en [url]http://www.gcg.com/staff/rose/history_of_usenet.html[/url]
El documento anterior contiene abundante información sobre software para grupos de noticias. Incluyendo RFCs, sitios donde conseguir las fuentes de los programas, grupos de noticias y discusión sobre el tema. Además, para su preparación el autor contó con asesoramiento de los propios protagonistas de la historia.
[url]http://www.nottowayez.net/~leebum/netstuff.htm[/url]

A finales de 1979 dos graduados de la Universidad de Duke en Carolina del Norte, Tom Truscott y Jim Ellis conciben la idea de un sistema para intercambiar opiniones e información entre la comunidad de usuarios UNIX. Otro egresado, Steve Bellovin da forma al primer programa que permitía hacer tal cosa. Lo instalan en dos ordenadores de la universidad (unc y duke), al que pronto se les añade un tercero (phs), a principios de 1.979. Nace así lo que originariamente se denominó Unix User Network y mas tarde Usenet New Service; abreviadamente Usenet o Netnews. Como su propio nombre indica, una especie de red dentro de Internet dedicada inicialmente a discusión sobre temas UNIX. Con objeto de mantener un esquema organizativo, cada tema era discutido en un foro separado, también llamado grupo de noticias ("Newsgroup"). Los tres primeros fueron: net.general, net.v7bugs y net.test, aunque después albergó gran cantidad de información heterogénea.
Como muchos de la época, el sistema corría en máquinas UNIX basándose en UUCP (Unix to Unix Copy Program), un protocolo de comunicaciones que había sido desarrollado pocos años antes, 1976, en los laboratorios AT&T Bell, aunque en Marzo de 1986 pasó a utilizarse el NNTP antes aludido . El software inicial, concebido para unas aspiraciones muy modestas, solo unos pocos artículos por grupo y día, se vio pronto desbordado, por lo que en 1981 con Mark Horton y Matt Glickman, en Berkeley, comienza una secuencia de actualizaciones y mejoras, entre ellas la introducción de la figura del moderador del grupo (inspirada en la experiencia de las BBS y del sistema de listas de correo de ARPA).
En cuanto a los grupos de noticias, en un principio se pretendió que existiera una cierta uniformidad en cuanto a los nombres:
• net. para grupos sin moderador
• mod. para grupos moderados
• fa. para ARPANET
Ante el crecimiento de Usenet y en orden a facilitar su administración, pronto se vio la necesidad de utilizar una clasificación temática implícita en los propios nombres de los grupos; tras algunas discusiones, en 1986 se comenzó con los denominados siete grandes, dentro de cada uno existían subgrupos según un esquema jerárquico (por ejemplo: soc.culture dentro del grupo soc):
• comp. Ordenadores y asuntos relacionados
• rec. Entretenimiento (Recreational) Artes, Aficiones, deportes y actividades de ocio.
• sci. Asuntos científicos (Science).
• soc. Asuntos de sociedad y amistad, culturas del mundo, religión, etc.
• talk. Debates y discusiones de gran duración y con pequeño contenido de información práctica; asuntos banales sin demasiada importancia. Para aligerar la carga de proceso o de tráfico, algunos servidores no aceptaban este tipo de grupos.
• news. Grupos interesados en los Grupos de Noticias (aspectos de hardware y software), incluyendo preguntas mas frecuentes (FAQs) e instrucciones de uso.
• misc. Miscelánea, asuntos que no encajaban en las otras categorías.

Dada la vitalidad de la Web y su relativa tendencia a la anarquía, pronto surgieron otros nombres, por ejemplo el famoso alt. (alternative) para los que no querían ser controlados por el Clan de Usenet [5]. Actualmente no existe un corpus de clasificación que merezca tal nombre en lo que a la denominación de los grupos se refiere, a pesar de ello, subsisten ciertas reglas en la composición de los nombres que pueden dar una idea del contenido, pero tenga en cuenta que estos son mundos muy dinámicos, que constantemente se están adaptando a las necesidades de cada momento.
• alt. Alternativo/controversia, incluyendo asuntos como sexo o drogas.
• biz. Negocios (Business)
• clari. Grupos controlados por Clarinet Inc.
• education. Enseñanza.
• gov. Asuntos Gubernamentales (Government).
• k12. Educación secundaria (hasta los 12 años)
• lang. Lengua, lenguaje (casi siempre relativo a los ordenadores).
• microsoft. Microsoft
• newusers. Temas de introducción e información sobre los grupos de noticias orientada a principiantes.
• sounds. Música.
• ucb. Grupos controlados por la Universidad de California (Berkeley).

Los indicativos de países indican tanto el país como la lengua utilizada en el grupo de noticias.
Aus. Australia
Can. Canadá
De. Alemania (Deutschland)
Es. España (español). Fr. Francia (francés).
Uk. Reino Unido (United Kingdom)
Us. Estados Unidos (USA)

La mayoría de las respuestas que pueden darse a preguntas sobre este servicio ya están escritas (en inglés) e incluidas en [url]http://www.cis.ohio-state.edu/hypertext/faq/usenet/top.html[/url], que contiene una extensísima guía de las FAQs relativas a Usenet [6]. En el capítulo 9 se amplía información sobre como buscar grupos de noticias en Internet.

[1] Esta similitud, y el hecho de que normalmente, el mismo cliente de correo sirva para gestionar este otro servicio, no debe inducirnos a confundirlos. El e-mail y los grupos de noticia ("Newsgroups") son servicios distintos, de origen distinto, y usan distintos protocolos.
[2] De hecho Usenet y la Web han arrasado con los antiguos BBS ("Bulletin Board System") que comenzaron a proliferar a principios de los 90.
[3] Normalmente el mismo cliente de correo sirve para este menester. Por ejemplo MS. Outlook.
[4] En 1998 Deja News, el principal buscador de grupos de noticias, anunciaba tener clasificados más de 50.000 de tales grupos.
[5] También denominado humorísticamente "Usenet Cabal" y "Backbone Cabal". Un pequeño grupo de expertos en computación, que por su situación de administradores o encargados de grandes sistemas, tenían mucho poder en como y cuando se hacían las transmisiones relativas a los grupos de noticias (basadas entonces en el UUTP). Ya que por aquella época, aunque los ordenadores estaban conectados, las transmisiones no eran tan libres como ahora. Además el "servicio" era prestado un poco "al margen de la ley", en el sentido de que era una asignación de recursos en equipos destinados "oficialmente" a otros menesteres por las instituciones que los patrocinaban.
El grupo comenzó en 1.983 su propia lista de noticias, frecuentada por un selecto grupo de administradores de sistemas y amigos próximos. El fondo de la discusión era quién debía pagar el costo de las transmisiones; se pretendía un sistema jerárquico de nombres para que fuese posible seleccionar las que un determinado servidor "no quería" recibir, en palabras de la propia Cabal: "Usenet se rige por la regla de oro: El que tiene el oro (el dinero) hace las reglas", lo que equivalía a decir que se podían negar a sufragar el costo de transmisiones de larga distancia para servicios de noticias que no consideraban interesantes. La respuesta de ciertos sectores (ultraliberales como todos los de la Internet de la época) era que un grupo de jóvenes de 20 a 30 (la Cabal) no podían decidir los nombres del complejo y diverso universo que comenzaba a ser Usenet. Finalmente, como suele ocurrir con frecuencia, los avances tecnológicos dijeron la última palabra, la "Cabal" perdió influencia y poder cuando el protocolo NNTP universalizó el uso de las News en Internet, independizándolas del soporte que pudieran prestarle un grupo reducido de personas.
[6] FAQ es un acrónimo muy utilizado en informática que también se ha extendido a otras áreas: "Frequent Asqued Questions".

8 Servicios de Internet
8.5 MUDs

§1 Introducción
Los MUDs (Multi User Dungeon, Multiple User Dimension, o Multiple User Dialogue), no tienen una traducción fácil. Literalmente sería: "Juegos de mazmorras multiusuario". Son pasatiempos [1] que pueden ser jugados simultáneamente y en tiempo real por muchos participantes a través de Internet (en este sentido comparten la característica de inmediatez del IRC [2] por ejemplo). Requieren cierto tipo de "servidores" que soportan la aplicación de juego. La interfaz suele ser modo texto y puede jugarse mediante una sección de Telnet, aunque de algunos de los más populares existen interfaces gráficas para las plataformas más populares (Windows y Apple). Por su naturaleza, los servidores de este tipo de juegos no pueden ser máquinas pequeñas, se trata de grandes sistemas Unix o mainframes de Corporaciones o Universidades.
Existen varias modalidades o familias: MUXs, MUCKs, MOOs (Mud Object-Oriented), MUSEs, MUSHs (Multi-user Shared Hallucination). Cada una tiene su propio tipo de servidor, de los que existen docenas en Internet, y cada uno implementa un tipo de mundo virtual diferente. Por ejemplo, los hay basados en el pasado (medievales), en el futuro (tipo Star Trek) y en mundos atemporales y fantásticos. Unos son juegos de tipo "social", utilizados para una inter-relación ocasional y distendida. Otros son juegos de rol que pretenden construir una realidad con extensiones fantásticas, donde cada usuario controla una personalidad, avatar, encarnación o carácter [3]. Bajo esta naturaleza es posible moverse, charlar con otros seres, explorar zonas infestadas de monstruos, resolver jeroglíficos, buscar tesoros e incluso crear uno sus propios espacios. En algunos casos es necesaria una autorización para jugar, que debe obtenerse de la "Deidad" (God) que controla el servidor. También existen unos caracteres de menor rango, Magos (Wizards), con ciertos poderes. Puede obtenerse una buena introducción al tema en: [url]http://www.lysator.liu.se/mud/faq/faq1.html[/url]

§2 Otros detalles
El primer mud fue creado en 1979 por Roy Trubshaw y Richard Bartle en la Universidad de Essex (Reino Unido). La versión original simplemente permitía un usuario (jugador) moviéndose por un mundo virtual. Versiones posteriores aportaron nuevas posibilidades, incluyendo objetos y comandos que podían ser modificados durante el juego o fuera de él. El propósito de este primer mud fue crear un juego multi-usuario que pudiese ser definido y gobernado por una base de datos externa. Esta base de datos contiene los objetos, comandos, mundos, etc. El hecho de tener esta información en una base de datos externa es lo que les permite la característica de ser polimórficos y cambiantes, que los define confiere su peculiar atractivo.
En realidad, bajo este epígrafe se esconde un nuevo paradigma de utilización de la Red, juegos ¿O formas de relación?, para personas solas, cansadas de hacer "solitarios", a las que Internet permite jugar con otras físicamente distantes, a veces en mundos con un toque de fantasía e irrealidad. Es evidente que con servidores adecuados pueden idearse muchos de estos juegos. Por ejemplo: [url]http://www.fibs.com[/url]. Un servidor donde se puede jugar al backgammon por la Red.
Para lo referente a los juegos por Internet en general, y a estos en particular, puede visitar la página de Yahoo: [url]http://www.yahoo.com/Recreation/Games/Internet_Games[/url].
También The Mud Connector [url]http://www.mudconnect.com[/url]
Un excelente punto de entrada a este mundo, con innumerables enlaces y referencias de todo tipo.

[1] Aunque generalmente están considerados como juegos, algunos pretenden darles un tono mas serio, afirmando que son simplemente de "Entornos en los que mucha gente puede inter actuar" (será la forma de relación de la ciber-sociedad del siglo XXI?). Sin entrar en otras discusiones, por el momento preferimos llamarlos así (pasatiempos).
[2] IRC ("Internet Relay Chat"), charla por Internet ( 8.8).
[3] Esta personalidad se denomina Carácter ("Character"), en oposición a Jugador ("Player") que se refiere a la persona física.

8 Servicios de Internet
8.6 ICQ

§1 Introducción
ICQ es un "invento" de la compañía Israelita Mirabilis Software ( [url]http://www.mirabilis.com[/url]). Se trata de un programa construido alrededor de una idea muy simple: disponer de un sistema que permita saber en un momento dado si una persona determinada está conectada a Internet para poder contactar con ella. La idea es desde luego de una conexión en línea, es decir, aprovechar que ambos están en Internet para iniciar un "Chat" ( 8.8) o forma de comunicación similar (para comunicación off-line, el correo electrónico cumple perfectamente).
El programa, en su versión actual (1998) es "Freeware" ( 8.2.3) y realmente tiene tantos complementos, añadidos y opciones, que ha llegado a convertirse en una verdadera "Suite" de comunicaciones. Aunque la idea central, que lo justifica y hace esencialmente distinto de todo lo demás (que conozcamos en este sentido en Internet), es la capacidad anteriormente reseñada.
Para llevar a cabo la idea, la compañía ha establecido un servidor donde debemos registrarnos, consignando los datos personales que queramos hacer públicos (los mínimos son prácticamente nulos). Hecho esto, nos asignan un número ICQ, como nuestro DNI [1], y elegimos clave de acceso (password) con la que en el futuro podremos cambiar algunas de las características bajo las que aparecemos. El programa funciona en segundo plano, comprobando el estado de nuestra conexión a Internet. Una vez en línea puede hacer varias cosas, dependiendo del comportamiento que hayamos establecido, pero en síntesis, son tres las acciones principales:
• Notificar al servidor ICQ que estamos conectados, aunque la información que el servidor hará pública sobre nosotros al resto de usuarios puede ser muy matizada. Por otra parte, también podemos decirle al sistema que seamos opacos para los demás (no puedan saber que estamos conectados).
• Verificar la lista de contactos. En segundo lugar el programa chequea el estado de conexión de una serie de usuarios que tenemos definidos en una lista (Contact list), que pueden ser parientes, amigos, etc, indicándonos como se encuentran.
• Avisar de los eventos: El sistema puede avisarnos si durante una sesión de Internet, alguien conectado al sistema pretende ponerse en contacto con nosotros, enviarnos un mensaje directo, solicitar que establezcamos un Chat, etc.

Un punto interesante respecto a este último, el estado de conexión de los usuarios (así como el propio), es que permite varios matices. Pueden seleccionarse varias posibilidades para el estado que los demás verán sobre nosotros mismos:
• Away. El usuario está alejado, pero se le puede dejar un mensaje.
• N/A. No disponible (Not Available). Se le puede dejar un mensaje.
• Occupied. Ocupado.
• DND. El usuario no desea ser molestado ("Do not disturb").
• Free for Chat. El usuario está disponible para charlar.
Uno de las opciones, permite avisarnos si tenemos correo en nuestro buzón sin tener necesidad de bajarlo; informando en su caso de las cabeceras y su tamaño (aunque esto no es ninguna novedad conceptual, ya que existen multitud de programas que lo hacen). Otro servicio del sistema es que cuenta con un sistema de búsqueda para localizar a otros usuarios si no conocemos su ICQ, por nombre, ciudad, e-mail, etc.
El programa es gratuito (freeware) y puede ser descargado desde la propia Web de Mirábilis. Aunque está en inglés, existe un manual de ayuda en castellano (formato Help de Windows), escrito por José Lombardía (ICQ 5616769), que puede descargarse gratuitamente en [url]http://Lombardia.Home.ml.Org[/url]
Nota: Como habrá comprobado el lector, este capítulo mantiene su redacción original (de 1998). En la actualidad (cuando lo subo a la red en el 2002), las cosas han cambiado mucho, aunque no en lo substancial. Otras empresas han comprado la idea, y desde luego supongo que existirán versiones en español.

[1] DNI Documento Nacional de Identidad. En España es obligatorio a partir de los 16 años.

8 Servicios de Internet
8.6 Telnet

§1 Introducción
Telnet es uno de los servicios más antiguos de Internet, data de la época de ARPANET ( 2.1), y se utiliza para conectar ("Login") con un equipo remoto a través de la Red, de forma que el ordenador cliente se comporta como una terminal conectada (on-line) con el ordenador remoto. Todo lo que se necesita es un cliente Telnet (un programa especial). Utilizando la terminología informática anterior a la Web, diríamos que un cliente telnet es en realidad un programa de emulación de terminal para teleproceso adaptado al sistema de Internet, es decir, al protocolo TCP/IP ( 3.1).
Nota Tanto Unix como Windows tienen su propio cliente: Telnet.exe. En el caso de Windows puede encontrarlo en el directorio C:\Windows. Este programa dispone de un buén fichero de ayuda, Telnet.chm, con todos los detalles necesarios para su operación.
Generalmente, cuando en el navegador Web se teclea el comando [url]telnet://.[/url].. lo que este hace realmente es llamar al programa al mentado Telnet.exe. El formato para llamarlo desde el navegador es:
telnet://:@:/
Ejemplo: [url]telnet://well.sf.ca.us[/url]
El carácter "/" final puede omitirse, así como toda la parte :

Lo usual es que se trate de conectar con grandes ordenadores (mainframes, hosts, servers, etc), en empresas, universidades, centros de investigación y sitios análogos (máquinas Unix generalmente). Por tanto, no se trata de conectar con el ordenador del vecino por Internet (para esto existen otro tipo de herramientas). La razón de la conexión puede ser muy diversa, desde un investigador que quiere continuar la jornada de trabajo desde su domicilio, hasta un internauta que desea algún servicio en un host que solo puede ser accedido de esta forma, no son servicios de la Web (todavía).
La primera idea que es necesario tener en cuenta es que, como hemos dicho, no se trata de conectarse a un PC, sino a máquinas grandes donde existen decenas, a veces centenares, de usuarios. Por razones de seguridad, estos grandes sistemas no pueden ser accedidos por cualquiera, la operación se hace mediante la concesión de un derecho (cuenta de acceso) que concede el administrador del sistema, y que lleva implícita una serie de condiciones de la mas variada índole. Por ejemplo: fechas y horas en que podemos conectar; directorios que podemos visitar/usar; si podemos grabar en ellos o solo leer; cuanta información podemos guardar (espacio de disco que nos conceden), etc [1]. Para identificar a cada usuario con cuenta abierta en el sistema, se utiliza un nombre (nick name) que identifica al usuario o al servicio y una clave de acceso (password) que lo autentifica.
Debería ser superfluo indicar que para hacer Telnet en un ordenador remoto, una vez establecida la comunicación, es imprescindible saber como operar en él. No tiene sentido conectar a una máquina remota sin conocer mínimamente su Sistema Operativo y el programa de aplicación que debemos utilizar.

§2 Modos de operación
Para utilizar telnet, es muy importante tener en cuenta que el cliente telnet dispone de dos formas de operación: modo comando y modo de uso normal.
El modo comando permite utilizar una serie de órdenes que afectan al modo de operación, incluyendo conectar y desconectar. Entre estos comandos están:
• CLOSE Cierra la conexión Telnet con el ordenador remoto y vuelve al modo comando (si se inició en modo comando) o cierra la aplicación saliendo de Telnet.
• QUIT Cierra la sesión Telnet. Si se está conectado a un equipo remoto, este comando cierra la conexión y a continuación cierra la aplicación Telnet.
• SET ECHO Si no podemos ver lo que estamos tecleando, o por el contrario, lo vemos doble, este comando arregla la situación.
• OPEN Este comando establece una conexión con un ordenador remoto.
En modo normal nuestro equipo se comporta como si fuese un teclado (modificado y remoto) del ordenador al que estamos conectados. Cada pulsación de tecla es enviada al equipo remoto, y lo que vemos en la pantalla es realmente el eco que, en respuesta a esa señal, nos envía el equipo remoto.
Cuando se está en modo normal y se desea pasar a modo comando (por ejemplo para terminar la sesión mediante QUIT), hay que enviar el carácter de escape. Esto se consigue generalmente pulsando simultáneamente la tecla Ctrl y el carácter [ (Ctrl + [), lo que interrumpe momentáneamente la sesión Telnet y nos coloca en modo comando [1a]. A su vez, si estamos en modo comando y pulsamos la tecla CR o Return, salimos de él y volvemos a modo normal.

§3 Detalles
Teniendo en cuenta lo anterior, la primera acción para hacer telnet en un sistema remoto será conectarse (hacer "Login"). El programa cliente inicia una negociación con el host que pretendemos acceder; negociación que incluye el establecimiento de determinados métodos y características de la transmisión/servicio a utilizar. Para ello es necesario proporcionar al cliente varios datos iniciales que es necesario conocer:


Nota: La figura adjunta muestra el cuadro de diálogo que presenta el cliente Telnet v. 1.0 de Microsoft para realizar la conexión.
• Nombre: Se refiere a la dirección IP del servidor, bien en forma numérica bien su forma URL ( Ap. G), por ejemplo: 207.170.64.219 4201 o perm.mccr.org.
• Número de puerto: Indica el servicio concreto que se desea acceder dentro del servidor. Una dirección telnet con un número adicional de puerto permite, no solamente acceder al ordenador remoto, sino también acceder a un servicio o programa específico dentro de él ( N-11). Salvo indicación en contrario, el número por defecto es el 23 (el que se utiliza normalmente para conectar a una cuenta de acceso de usuario). En el momento de la conexión, el número puede añadirse a continuación del nombre o en una casilla aparte, dependiendo del programa. Por ejemplo, en el caso anterior (desde el navegador) seria [2]: [url]telnet://perm.mccr.org:4201[/url]
Así pues, las direcciones de servicios telnet tienen un aspecto como:
seabass.st.usm.edu 23
cybernet.cse.fau.edu 2010
bbhost.hq.eso.org 6969
fedworld.gov 4242
128.118.36.5 23
192.160.13.1 66
• Tipo de terminal: La identificación del terminal es un acuerdo que utilizan tanto la máquina cliente como el servidor referente a ciertas características y secuencias a utilizar. De esta forma se utiliza un terminal virtual, con independencia de cual sea realmente el terminal físicamente utilizado [3]. Desde el punto de vista del cliente, la identificación debe hacerse en dos partes[4].
o a: Indicado al programa cliente que se comporte como terminal virtual de un cierto tipo.
En MS Telnet v.1.0, esto se hace en: Terminal Preferencias Emulación. Puede elegirse dos tipos: 52 y 100/ANSI (si no tiene idea de que hacer al respecto elija esta última).
o b: Indicando al servidor que tipo de terminal utilizaremos. Se trata de una cadena de caracteres que se envía al host durante el proceso de negociación de la conexión.
En el MS Telnet v.1.0, se indica en: Conectar Sistema remoto Tipo de terminal. Las opciones disponibles son las cadenas de caracteres típicas que un host espera durante esta negociación (la mas estándar es VT100).
• Login: Nombre de usuario (que a veces se identifica con un servicio concreto). En algunos servicios no es necesario el login ni password, porque el servidor no los exige para el servicio en cuestión (por ejemplo, la primera vez que se accede a determinados juegos tipo MUD).
• Password: Contraseña que autentifica al usuario. Para los servicios públicos que aceptan invitados (usuarios visitantes), puede ponerse
• Log-off: El último paso al final de una sesión en un ordenador remoto (o local) es cerrarla antes de la desconexión física, con objeto de no dejar una sesión abierta indefinidamente en el anfitrión (que siempre consume recursos del sistema). La forma concreta depende del sistema; no existen reglas fijas, pero en algunos sistemas, en el login, junto con un mensaje de bienvenida se indica la palabra adecuada para desconectar. Por lo común es alguna de las siguientes:
BYE, LOGOFF, LOGOUT, QUIT, END, EXIT, STOP.
CLOSE, precedido de la secuencia de escape.
ABORT, precedido de la secuencia de escape (Úselo como último recurso).

[1] Los grandes sistemas multi-usuario tipo Unix, permiten a sus administradores detalladísimos perfiles del uso de los recursos que se tolera a cada usuario. Solo el gerente (System Manager) tiene a su disposición todos los recursos de un sistema determinado.
[1a] La secuencia o carácter de escape es generalmente indicada junto con otros datos en el mensaje de bienvenida.
[2] Este ejemplo iniciaría una sección de MUSH ( 8.5) mediante telnet.
[3] Esta indicación viene de los tiempos en que cada gran sistema tenía conectadas terminales (pantalla y teclado) concretos de cada modelo y fabricante, la mayoría de las veces con teclas de función particulares. A su vez, aún del mismo fabricante podían conectarse dos o tres tipos de terminales distintos, por lo que dentro de los límites de un pequeño menú, el Sistema Operativo del servidor podía (y aún puede) comportarse de forma distinta dependiendo del tipo de terminal que tuviese conectado en cada línea.
Con el advenimiento del PC y del teleproceso, se comenzaron a utilizar ordenadores personales como sustitutos de los antiguos terminales con un doble uso: Como máquinas autónomas (por ejemplo para utilizar un procesador de texto bajo MS-DOS o Windows) y como terminal (cuando realmente se trabajaba en el host). Para esto se hace correr en el PC un programa emulador que se comporta frente al host como si estuviera frente a una terminal concreta de su propia marca. A su vez, del lado del PC, estos programas permiten emular ciertas teclas de función del terminal original que realmente no existen en los teclados PC estándar.
[4] Si al establecer la conexión aparecen en la pantalla caracteres sin sentido, es que alguno de los dos parámetros es incorrecto, por lo que debe desconectarse y cambiarlos antes de intentarlo de nuevo.

9 Buscar en Internet
§1 Sinopsis
Como señalamos en el capítulo anterior ( 8.2), uno de los primeros servicios que ofreció Internet fue el de transmisión de ficheros (FTP), lo que permitía que los investigadores pudieran conseguir el material de otros colegas en Universidades y Centros de investigación. En general, el material disponible para estas transferencias se depositaba en forma de ficheros en directorios específicos de ciertos ordenadores, los llamados Servidores FTP. Sin embargo, con el crecimiento de la Red, empezó a ser difícil encontrar el material que se necesitaba, había que buscar en decenas y luego en cientos y miles de ordenadores.
El párrafo anterior corresponde a una situación que comenzó a principio de la década de 1980, y desde luego, la situación ha ido evolucionando (empeorando) de forma exponencial con los años. La Internet se ha hecho mastodóntica, de forma que hoy (2002) es prácticamente imposible encontrar todo el material publicado sobre un tema concreto. El problema se debe sencillamente al volumen ingente de la información disponible, y a que esta no está estructurada o indexada, ya que por naturaleza la Internet (especialmente la Web) tiene una estructura caótica. Aunque, como veremos a lo largo de este capítulo, son muchos los intentos que se han hecho para poner un poco de orden en este caos, el problema dista mucho de estar resuelto, de forma que para encontrar información de utilidad, se requiere un cierto conocimiento de las herramientas disponibles, y como en el resto de las cosas, un poco de experiencia y un toque de suerte.
Justamente el propósito de este capítulo es hacer un breve repaso sobre estos recursos y procedimientos de búsqueda, con objeto de proporcionar una visión clara del problema, y un bagaje suficiente como para que el lector comience sus propias experiencias con cierta garantía de éxito.
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Antiguo 10/12/2004, 18:17   #10
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
9 Buscar en Internet
9.1 Apunte histórico

§1 ARCHIE
En 1989 un estudiante, Peter Deutsch de la McGill University de Montreal, creó un sistema buscador de ficheros en servidores FTP ( 8.2) denominado Archie [1] basado en una idea muy simple: Construir un índice que contiene los nombres de los ficheros y la dirección del servidor donde se encuentra. Este índice se instala en un servidor que pueda ser consultado por todos (Servidor Archie). Se trata pues de una suerte de directorio (como la guía de teléfonos, pero no de personas sino de ficheros), con información muy escueta sobre cada fichero: junto con el nombre y dirección del servidor FTP que lo alberga, una sucinta descripción del mismo. El funcionamiento se basa en que el usuario pregunta al servidor Archie por el nombre del fichero que desea, y el sistema responde con una lista de sitios donde puede encontrarlo.
Nota: "Archie was first 'released' (to the general public) at the end of 1989 and existed at McGill for a few months before it was shared with Rutgers in 1990". (Alan Emtage, one of the creator of Archie). De la historia del ciberespacio. Dr. Giesbert Damaschke, Muenchen [url]http://www.w3history.org/[/url]

En realidad, Archie es mas que un solo servidor, es un sistema de base de datos distribuida, en la que los índices se guardan en distintos servidores de FTP que cuentan con información sobre millones de ficheros. Para mantener actualizados los índices, los servidores de Archie se conectan mensualmente a los sitios FTP que tienen registrados y recogen los cambios observados [2]. Una vez efectuada la consulta, puede usarse un programa FTP para bajarse el fichero localizado [3].
El servicio Archie tuvo mucho éxito y pronto se difundió por la red -El servidor de la propia McGill registraba unas 30 conexiones diarias en Noviembre de 1990, que habían pasado a ser 2.600 para Septiembre del 91-. El programa original fue posteriormente retocado y mantenido por el Archie Group de la dicha universidad, pero adolecía de la dificultad de que había que conocer de antemano el nombre del fichero buscado. Para subsanar esta dificultad surgieron programas o servicios como CWIS, WAIS y Gopher, que permitían buscar por contenidos y no solo por nombres.
En Otoño de 1991 se estimaba que los servidores Archie contenían información sobre unos 900 servidores FTP, distribuidos por los cinco continentes, con 1 millón de ficheros y un ritmo de crecimiento de 7 a 10 nuevos sitios cada semana (contando solo servidores Unix). En Agosto de 1994 existían unos 1.200 servidores FTP anónimos, con cientos, a veces miles de ficheros en cada uno.
Incluso sabiendo el servidor en que hay que buscar, la tarea no es fácil, por lo que es mejor preguntar a Archie en la esperanza que haya indizado todos los ficheros de cada uno de los servidores que tiene registrados. A la fecha (1998), los ficheros en servidores FTP clasificados por Archie se referían mayoritariamente a información técnica relacionadas con la ingeniería, las ciencias de la computación y catálogos de bibliotecas. Este último campo de información (la catalogación de fondos bibliográficos), es uno de los que ha tenido más rápido carecimiento en Internet, de forma que bibliotecas de la mas variada índole, Colegios, Universidades, Instituciones, etc. se han apresurado a "Publicar" sus fondos en la Web (se supone que una vez estén los catálogos, el próximo paso será contar con la obra misma).

Tradicionalmente han existido tres maneras de acceder a servidores Archie para hacer consultas:
• Correo electrónico: Los servidores Archie disponen de una interfaz que permite a los clientes enviar preguntas y recibir las respuestas por e-mail ( 8.1).
• Sesión remota (Telnet 8.7): Evidentemente para usar este procedimiento es necesario tener una "Cuenta" en un Servidor Archie para que podamos conectarnos al mismo, con Telnet, y realizar la consulta, o bien que el servidor sea anónimo.
• Cliente Archie, de los que existen infinidad. En esencia los clientes Archie son meramente interfaces que permiten acceso remoto (Telnet) a los servidores (mediante el protocolo Prospero). Permiten realizar consultas y búsquedas, bajar listas de contenido por FTP, y enviar mensajes al servidor e-mail del sistema anfitrión, que se encarga de enviar automáticamente listados del índice o del resultado de la búsqueda. Todo ello sin necesidad de utilizar directamente los comandos Unix. Además estos programas suelen tener también capacidad FTP, de forma que es posible bajarse el fichero una vez localizado. También puede darse la circunstancia complementaria, que los buenos clientes FTP cuenten con la capacidad añadida de buscar en los Servidores Archie.

Archie ha seguido perfeccionándose y extendiendo el servicio, a fin de ampliar el tipo de información proporcionado, incluyendo directorios de "Páginas Amarillas" y de direcciones de correo. Actualmente es mucho más fácil utilizar las múltiples pasarelas Web [4] (la Web está fagocitando muchos de estos proto-servicios de Internet). Por otra parte, los modernos robots de búsqueda están convirtiendo en obsoletos estos servicios que serán pronto reliquias históricas.

§2 Gopher
Para superar algunos de los problemas de Archie, en 1991, un equipo dirigido por Mark McCahill de la universidad de Minnesota, crea Gopher (inicialmente solo estaba pensado para administrar información a nivel del campus de la propia Universidad). Se trata de un sistema cliente-servidor (precursor de la Web en ciertos aspectos), en el que los proveedores de información disponen de un sistema (servidor Gopher), que organiza un sistema de índices jerarquizado con las descripciones de los datos que contiene el servidor. Una especie de guía de contenido, que los clientes por su parte verán como menús por los que navegar (con una estructura que remeda la organización de directorios y ficheros en cualquier ordenador), de forma que se puede ir horquillando la búsqueda hasta dar con la información buscada.
Nota: "Gopher was originally developed in April 1991 by the University of Minnesota (Microcomputer, Workstation, Networks Center), to help users on the campus find information". Clay Irving: "Using and Finding Gophers" en: "The Internet unleashed, 1994". De la historia del coberespacio. Dr. Giesbert Damaschke, Muenchen [url]http://www.w3history.org/[/url]

Como se ha dicho, debido a ciertas peculiaridades, Gopher es considerado el precursor de la Web. De hecho, un cliente Gopher permite una cierta clase de "Navegación" por la información, ya que estos servidores almacenan información, creando lo que se dio en llamar Gopherespacio (un remedo de Ciberespacio).
La simplicidad del modelo permitió que de inmediato se construyeran clientes Gopher para multitud de plataformas, y el sistema se extendió rápidamente (en Noviembre de 1993 ya había censados unos 2.200 servidores Gopher). Además utiliza un protocolo muy sencillo (a medio camino entre FTP y HTTP). Gopher presenta la información organizada en un símil de directorios y ficheros (como FTP), mientras que comparte con HTTP el poder referenciar información que esté físicamente situada en cualquier parte del sistema, incluso fuera de la propia red local (en otro continente). Esta similitud ha permitido dotar a los navegadores actuales de capacidades Gopher, de forma que el Gopherespacio puede ser navegado como parte de la propia Web [5].
Nota: Aunque este protocolo caería en desuso con la aparición de HTTP ( 5.2) y la Word Wide Web. Microsoft Internet Explorer incluye un cliente gopher que permite acceder a este tipo de servicios a travéés de URLs que comiencen con "gopher://".
Desde el navegador se puede usar un comando Gopher como se hace como con cualquier otro: [url]gopher://nombre.de.servidor/pathname[/url].
"Nombre de servidor" es el nombre del dominio que aloja al servidor
"Pathname" es la dirección completa del fichero dentro del dominio.

Más información en Nota 19 ( N.19).

§3 VERONICA
Para resolver algunos problemas que presentan las búsquedas en el Gopherespacio, por ejemplo, cuando no se sabía en que servidor empezar la búsqueda, o la clasificación exacta del recurso deseado, se inventa VERONICA [6] ("Very Ease Rodent-Oriented Netwide Index To Computerized Archives") en la Universidad de Nevada. Este servicio hace en el Gopherespacio lo que Archie en los servidores FTP, es decir, crear un motor que escanéa periódicamente los servidores Gopher, construyendo un índice con el contenido de sus menús. Por esta razón Veronica ha sido denominado el "Archie del Gopherespacio".
Recordemos que Gopher es un sistema de búsqueda mediante navegación (sistema de índices navegables ), pero gracias a Veronica el Gopherespacio se convierte también en un área donde son posibles búsquedas del tipo pregunta-respuesta. Su eficacia y popularidad se deben a que los clientes Gopher pueden acceder al servidor Veronica, e inmediatamente (gracias al sistema de hiperenlaces de sus menús, y a la política de puertas abiertas de la mayoría de los sitios), a los servidores Gopher que contienen los recursos encontrados.
Veronica encuentra e indiza la práctica totalidad de los servidores Gopher de acceso público. En Febrero de 1994, contenía índices de mas de 3.200 de estos servidores en unos 2.500 equipos de Internet. En dicho mes, las consultas a servidores Veronica se estimaron en 1.200.000 accesos, siendo resultas la mayoría en menos de 20 segundos. Ocho de estos servidores (de grandes instituciones) atendían las necesidades del público de Internet en general, mientras que algunos otros atendían las necesidades específicas de ciertas organizaciones.
The veronica service infrastructure has been fairly stable since July, 1993, with eight server sites offering searches for the internet community (March 1994). These servers are supported by the participating institutions: NYSERNET, PSI, SERRA, CNIDR, University of Koeln, SUNET, University of Bergen and the University of Nevada System Computing Services. Several additional servers offer searches with access limited to internal users; in this class are servers at MSU, SUNET, and the Australian University system.

El servicio Veronica comprende dos tareas (que no tienen porqué ser realizadas necesariamente por el mismo ordenador):
• Recolectar datos de los servidores Gopher e indizarlos de forma que sean utilizables.
• Poner esta información a disposición de los clientes.

Los servidores Veronica son fácilmente accesibles mediante los propios clientes Gopher (actualmente también se puede acceder a Veronica desde pasarelas Web), ofreciendo varios tipos de búsquedas, desde las mas simples (de una sencilla palabra clave), a interrogaciones lógicas de tipo booleano (and, or, not, etc. Ap. K) de cualquier complejidad (incluyendo paréntesis). Es posible así mismo establecer el número máximo de respuestas que se desean, así como restringir la búsqueda a ciertos tipos Gopher. Los resultados de las interrogaciones se obtienen en formato Gopher, es decir, como una serie de ítemes de tipo menú, cuyos títulos responden al criterio de búsqueda utilizado. Debido a que la interrogación se realiza utilizando un cliente Gopher, el usuario puede ya seleccionar directamente cualquiera de estos ítemes que le conducirá directamente al servidor Gopher que contiene la información correspondiente.

En 1.994 la recolección y preparación de datos era realizada por la Universidad de Nevada que distribuía los resultados a los diversos servidores Veronica. Desde el propio Veronica se pueden obtener mas instrucciones sobre su utilización.

§4 WHAIS
El sistema WAIS ("Wide Area Information Servers system"), fue introducido en 1991 por Thinking Machines Corporation de Cambridge, Massachusetts en colaboración con Apple Computer, Dow Jones & Company y KPMG Peat Marwick.
Nota: Otras fuentes citan que WAIS fue creado en 1989 por Brewster Kahle, un desarrollador de Thinking Machines (que más tarde fundaría The Internet Archieve), que comienza a trabajar en un sistema para compartir datos de redes, incluyendo Internet; se traslada a San Francisco y funda WAIS Inc.
Aquí es donde interviene WAIS. Brewster Kahle, fundador y presidente de WAIS Inc. declaraba en septiembre pasado (1998) a Internet World: "Nos gusta usar esta analogía: un libro tiene tres secciones, la tabla de contenidos, las páginas, y el índice analítico. Así que pensemos en la Internet como en un libro: está Gopher, que es la tabla de contenidos; está el World-Wide Web, que son las páginas de hipertexto, y está WAIS, que es una búsqueda directa cuando sabes lo que quieres". Cuando uno sabe lo que busca, y sólo le falta encontrarlo, tiene WAIS, que sería algo así como un índice analítico para el WWW. Pero WAIS no se ha conformado siempre con este papel secundario. En un principio aspiraba a ser mucho más.
Carles Bellver Torlà "Índices electrónicos en el World-Wide Web" [url]http://nti.uji.es/docs/nti/net/indices.html[/url]. (este artículo se publicó originalmente en el número de febrero de 1996 en la revista Net Conexión).

Se trata de un sistema electrónico de indizado, publicación y recuperación de información multimedia, en un entorno de red, es decir: de bases de datos personales, corporativas o públicas en cualquier punto del mundo. La información es accesible con independencia de su formato, ya sea texto corriente, documentos formateados, imágenes, hojas de cálculo, gráficos sonidos o video [7].
Nota: Algunos sistemas actuales son ya capaces de identificar y leer mas de 200 formatos de archivo diferentes y estas habilidades crecen sin parar.

Utiliza un modelo Cliente/Servidor y un sencillo protocolo (Z39.50-1988). Consta de tres paquetes software de los que existen versiones para la mayoría de los Sistemas Operativos (mas detalles en: [url]http://www.iti.gov.sg/iti_service/irg/irg.faq.html[/url]). El sistema tiene varios componentes:
• Indizador: Permite clasificar automáticamente cualquier cantidad de información por grande que sea. Se distingue de otros sistemas de índice, como Archie o Veronica, en que no solo puede indizar los documentos contenidos en un servidor, también indizar una descripción del contenido del mismo.
• Servidor: Permite hacer utilizable la información a través de redes como Internet. Un servidor Wais permite al administrador establecer un índice de los documentos (o recursos) que serán publicados. Dispone de un agente, encargado de recibir las interrogaciones de los clientes y devolver el resultado. Por su parte, el usuario del servicio puede utilizar un cliente Wais, encadenarlo a un servidor específico, establecer un patrón de búsqueda y asociarlo a su vez al índice del servidor, de forma que búsquedas que hayan sido probadas satisfactoriamente pueden ser repetidas automáticamente, y que avisen de la nueva información que haya al respecto tan pronto como se encuentre disponible.
• Cliente Wais: Como clientes pueden usarse clientes Wais específicos; clientes Gopher (mediante una pasarela trasparente para el usuario), y clientes Web (Navegadores) como Mosaic, Netscape o MS I Explorer (también mediante pasarelas). Esta última facilidad es responsable de que, en la práctica, resulte excepcional la utilización de clientes Wais, siendo por lo común interrogados los servidores con los navegadores mediante pasarelas Web. En la Universidad Complutense de Madrid existe una de estas pasarelas, aunque recientemente (1998) ha dejado de actualizar sus índices: [url]http://www.ucm.es/INET/wais.html[/url].

El sistema permite ser interrogado en lenguaje natural, de forma que la búsqueda y recuperación de información se realizan utilizando el lenguaje nativo (se han usado Ingles, Francés, Italiano y Latín). Las palabras mas comunes ("stop" words) son eliminadas y se suponen "OR" lógicos implícitos entre las palabras que quedan. También se permiten búsquedas lógicas (booleanas) e incluso de condiciones de proximidad de palabras, etc. El servidor Wais lee la consulta, busca a continuación en la totalidad de los textos de su base de datos, intentando encontrar los documentos que considera concordantes al respecto. A continuación, los documentos seleccionados, son ordenados mediante un proceso estadístico tras asignar un cierto peso a las palabras según un esquema de su relevancia probable (que incluye no solo el número de encuentros en el texto sino la proximidad de unos a otros); de esta forma, el sistema contesta proporcionando la información de forma ponderada y ordenada según su importancia probable. En realidad, el servidor no tiene que comprender totalmente la pregunta, el sistema de recuperación de la información se base en un método de búsqueda que contiene elementos de lógica difusa, denominado de realimentación de relevancia ("Relevance feedback"). El usuario puede elegir ver determinados documentos o realizar un nuevo afinado.
Una de las características más interesantes de la utilización de esta lógica es que, con el fin de refinar búsquedas sucesivas, los documentos más relevantes encontrados (cualquiera que sea su tamaño), pueden ser reenviados al servidor diciéndole: "Encuéntrame algo más, parecido a esto".
Muchos de los servicios de búsquedas distribuidas que permiten consultas en lenguaje natural sobre índices (muchos buscadores de la Web), utilizan sistemas Wais (algunos son claramente identificables, precisamente porque devuelven los resultados ordenados en orden de importancia decreciente).

[1] El nombre tiene su origen en el de un personaje de un famoso cómic Norteamericano, aunque viene a ser "Archive" menos una letra.
[2] En principio los servidores Archie solo escrutaban los servidores de ficheros en máquinas UNIX.
[3] Los servidores FTP suelen tener en su directorio raíz un fichero con un nombre algo así como 1s-1R que contiene los nombres de todos los ficheros contenidos en el servidor.
[4] En [url]http://www.ucm.es/INET/ZArchie.html[/url] de la Universidad Complutense de Madrid, es una de estas pasarelas Web-Archie.
[5] En [url]http://www.ucm.es/INET/gopher.html[/url] de la Universidad Complutense de Madrid, existe una pasarela Web-Gopher.
[6] Premio al acrónimo mas largo!. "Los 20 peores acrónimos". Byte Magazine Septiembre 1995.
[7] Existe una buena descripción de sistema en "Browsing Through Terabytes" de Richard Marlon Stein. BYTE Magazine Mayo 1991 (edición USA).
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir
Publicidad: Conoce las ofertas de ANUNCIATE
Respuesta


Usuarios viendo actualmente este tema: 1 (0 usuarios registrados y 1 visitantes)
 
Herramientas

Permisos para publicar mensajes
No puedes crear nuevos temas
No puedes responder mensajes
No puedes subir archivos adjuntos
No puedes editar tus mensajes

Los BB code están Activado
Los Emoticones están Activado
El código [IMG] está Activado
El Código HTML está Activado

Ir al foro


!! ADVERTENCIAS !!: Las informaciones aquí publicadas NO CONTIENEN KEYS para la decodificación de ningún sistema: NO SON OPERATIVOS en sistemas SAT que precisen de su correspondiente suscripción.

ESTA TOTALMENTE PROHIBIDO EL USO DE ESTAS INFORMACIONES PARA LA MODIFICACIÓN O  DEFRAUDACIÓN DE SISTEMAS DE ACCESO CONDICIONAL.

ESTOS FOROS SON MODERADOS Y NO SE PERMITE LA PUBLICACIÓN DE INFORMACIONES ILEGALES POR PARTE DE LOS USUARIOS. EN CASO DE DETECTARSE ESTE TIPO DE INFORMACIONES, LOS USUARIOS SERÁN EXCLUIDOS DE ESTAS PÁGINAS.

USO DE COOKIES: Utilizamos COOKIES y de terceros para mejorar nuestros servicios y navegación por la web. Si continua navegando, consideramos que acepta su uso.  


La franja horaria es GMT +2. Ahora son las 18:59.


-------------------------------------------------------------------- --------------------------------------------------------------------

Powered por vBulletin™ Version 3.8.10
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.
Traducido por vBsoporte - vBulletin en español
Hispaservicios - J.G.C - 29112549T - Rio Cinca, 2, 30 (50180) SPAIN.
Todos los derechos reservados. Prohibida cualquier reproducion total o parcial.


Foros Patrocinados por anunciantes.