http://en.wikipedia.org/wiki/History_of_the_World_Wide_Web (Consultado en Diciembre de 2007) La WWW es un medio de información hipertextual a través de Internet, en el cual los usuarios pueden leer y escribir. La WWW fue influenciada por los trabajos de IBM con su lenguaje de marcado general, luego SGML, y con el proyecto Xanadu de Ted Nelson. El concepto de un sistema de información global soportado por un supercomputador (Multivac), al que se puede acceder desde la casa a través de una red mundial, fue planteado por el escritor de ciencia ficción Isaac Asimov en su cuento Aniversario (1959). En 1994 se realiza la primera conferencia internacional de la WWW, organizada por Robert Caillau del CERN. En este mismo año, el CERN anuncia que cualquiera puede usar el protocolo web libre de derechos de autor, esta reacción se debió en parte, al anuncio de la Universidad de Minnesota de empezar a cobrar licencias por la implementación del protocolo para el servicio de Gopher. A partir de 2002, y después de pasar el efecto de la burbuja punto com, la web se vuelve ubicua, con la consolidación de los sitios de redes sociales, los blogs, los sistemas de sindicación... aparece el concepto de Web 2.0. http://en.wikipedia.org/wiki/Robert_Cailliau http://es.wikipedia.org/wiki/Robert_Cailliau (Consultado en Diciembre de 2007) Nace en Bélgica en 1947. Cailliau, es quien consigue la financiación inicial, y las gestiones para desarrollar el primer proyecto de gran envergadura para compartir información en Europa, en todos los niveles y ámbitos, utilizando un sistema web. En 1994, Caillau organiza con ayuda del CERN la primera conferencia internacional de la WWW y en ella se conforma un comité para organizar cada año esta conferencia. Caillau fue miembro desde 1994 hasta 2004. Se retira del CERN en 2005 o 2007 [Discrepancia]. http://en.wikipedia.org/wiki/World_Wide_Web http://es.wikipedia.org/wiki/World_Wide_Web (Consultado en Diciembre de 2007) La World Wide Web es un sistema de interenlaces, documentos de hipertexto a los que se accede vía internet. Con un navegador web, un usuario visualiza paginas web que contienen texto, imágenes y otros archivos multimedia, y navega entre ellos usando hiperenlaces. La WWW fue creada por Tim Berners-Lee en 1989 cuando trabajaba en el CERN. Después de esto, Berners-Lee ha guiado el desarrollo de los estándares para la web y ahora viene trabajando en la Web Semántica. Robert Cailliau, también del CERN, fue el principal promotor del proyecto en sus inicios. El concepto de hipertexto fue originado en proyectos de los años 60, tales como el Hypertex Editing System (HES) y el proyecto Xanadu, en los que estuvo Ted Nelson, y el proyecto oN-Line System (NLS) de Douglas Engelbart. Ambos fueron inspirados por la idea del memex de Vannevar Bush. World Wide Web tenía algunas diferencias en relación con otros sistemas de hipertexto que estaban disponibles en aquel momento: en primer lugar, la WWW sólo requería enlaces unidireccionales en vez de los bidireccionales, lo que hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso, reduciendo significativamente la dificultad de implementar servidores web y navegadores, pero a cambio se tenia el problema de los enlaces rotos; en segundo lugar la WWW era una tecnología libre, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia. En esencia, la Web esta basado en tres estándares: el Identificador Uniforme de Recurso (URI), que es un sistema universal para referenciar recursos en la Web; el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor; y el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto. El éxito de la WWW inicia con la aparición del navegador web Mosaic en 1993, un navegador gráfico desarrollado por Marc Andreessen y Eric Bina en el Centro Nacional para Aplicaciones de Supercomputación (National Center for Supercomputing Applications - NCSA, uno de los 5 centros originales de la NSF) de la Universidad de Illionis. La novedad de este navegador, es la posibilidad de visualizar textos e imágenes de forma simultanea, esto es lo que ocasiona que la WWW se convierta en el servicio más popular de Internet. Andreessen es cofundador de la compañia Netscape. Un significativo avance en la tecnología web fue la plataforma Java de Sun Microsystems, con la cual fue posible ver e interactuar con pequeños programas (llamados applets) en las página web, al igual que la aparición de Macromedia Flash. Pero de otro lado esta JavaScript, un lenguaje de guiones desarrollado por Netscape que no tiene que ver con el lenguaje de programación Java. Como evolución de esta tecnología surgió Ajax (Asynchronous JavaScript And XML), la cual permite actualizar partes de una página web a partir de información suministrada por el usuario. Esta funcionalidad permite que las páginas sean más sensibles e interactivas a las acciones humanas. Ajax es un componente importante para la llamada Web 2.0. Uno de los aspectos críticos para la WWW es la congestión y la alta latencia, que ocasiona que la navegación sea lenta. Esta situación ha llevado a discusiones sobre la necesidad de plantear tecnologías de calidad de servicio y acceso distribuido. La naturaleza efímera de la Web ha generado diferentes esfuerzos para archivar sitios web. El Internet Archives es uno de los proyectos más conocidos y que se encuentra activo desde 1996. http://en.wikipedia.org/wiki/Uniform_Resource_Locator http://es.wikipedia.org/wiki/Localizador_Uniforme_de_Recursos (Consultado en Diciembre de 2007) El Localizador Uniforme de Recursos (Uniform Resource Locator - URL), también conocido como Localizador Universal de Recursos, es una técnica a través de la cual se identifica de forma univoca cualquier archivo disponible en una red. Sin embargo esta idea evoluciono para incluir la referencia a otros elementos que no necesariamente eran localizaciones, por lo que se definió de forma más exacta en la especificación RFC 1630 como Identificador Uniforme de Recursos (Uniform Resource Identifier - URI), pero el termino URL fue el que se generalizo. Esta es uno de los conceptos principales de la WWW. Una URL es una URI (pero no al revés), porque una URL además de identificar un recurso, permite localizarlo en una red. http://en.wikipedia.org/wiki/Uniform_Resource_Identifier http://es.wikipedia.org/wiki/Uniform_Resource_Identifier (Consultado en Diciembre de 2007) Un Identificador Uniforme de Recursos (Uniform Resource Identifier - URI) es una cadena de caracteres compacta, que se usa para identificar o nombrar un recurso. El propósito de este identificador es permitir la interacción con una representación de este recurso en una red. La idea de la URL como una cadena de caracteres que representa a un recurso y que es el objetivo de un hiperenlace, fue implícitamente introducida por Tim Berners-Lee en 1990. Pero en los siguientes tres años se vio la necesidad de diferenciar entre los identificadores que dan la dirección o localización del recurso en la red (URL) y los identificadores que sólo nombrar el recurso en la red (URI). En 1998, la U de URI/URL pasa de representar la palabra Universal a Uniforme. http://en.wikipedia.org/wiki/Gopher_%28protocol%29 (Consultado en Diciembre de 2007) Gopher es un buscador de documentos distribuidos y jerárquico, y un protocolo de recuperación de documentos diseñado para Internet. Fue creado en 1991 en la Universidad de Minnesota. Si bien el servicio de Gopher alcanzo una buena estabilidad antes que el WWW, tres factores llevaron a su estancamiento: 1) el anuncio de la Universidad de Minnesota de cobrar por las implementaciones del protocolo, lo que ocasiono que muchos usuarios se cambiaran a WWW (luego licenciaron la aplicación con GPL, pero ya era tarde); 2) las funcionalidades del cliente Gopher fueron implementadas por los navegadores web, además de incluir texto e imágenes, algo que no tenia Gopher; y 3) Gopher tenia una estructura inflexible comparada con la WWW. http://www.cs.brown.edu/memex/ACM_HypertextTestbed/papers/62.html (Consultado en Diciembre de 2007) Cailliau, R. & Ashman, H. (1999, diciembre). Hypertext in the Web - a History. ACM Computing Surveys, 31, (4). Recuperado en diciembre de 2007, de http://www.cs.brown.edu/memex/ACM_HypertextTestbed/papers/62.html En 1989 Berners-Lee propuso un "sistema de hipertexto distribuido" para la "gestión de información... en el CERN", que fuera "escalable y portable". Este sistema se baso en el Lenguaje de Marcación Generalizado (Standard Generalized Markup - SGML), en el cual se incluyo una forma explicita de representar los enlaces de hipertexto, creando así el Lenguaje de Marcación de Hipertexto (HyperText Markup Language - HTML). Luego, este formato se definió como un tipo de documento SGML (Document Type Definition - DTD). Para direccionar y recuperar los documentos en una gran red de datos (que era el caso del CERN), se creo un protocolo para el proceso de comunicación, al que se le llamo Protocolo de Transferencia de Hipertexto (hypertext transfer protocol - HTTP), para hacer énfasis en la importancia del hipertexto en el sistema. El HTML no adiciona por si mismo la característica de Hipertexto al sistema, esta funcionalidad se da en conjunto con el software servidor y el software cliente (navegador web). Los navegadores iniciales de 1990, tenían una herramienta para crear enlaces en los documentos de otros, aparte de la herramienta de autor para crear documentos. Sin embargo, para 1993 esta herramienta ya no era implementada en los navegadores, dando la impresión que el ser usuario de la información y ser autor eran cosas diferentes. La creación espontánea y arbitraria de enlaces ha sido considerada como una de las características claves de los sistemas de hipertexto, desde sus inicios, cuando Bush describía la creación de senderos de información personalizados. La discusión ha estado en que algunos consideran que no es deseable que otros agreguen enlaces o comentarios a la información de otra persona, pero considerando que cualquiera puede subir información a la web, incluyendo material de cuestionable calidad o integridad, el no posibilitar comentar lo de otros, puede afectar una forma altamente democrática de control de calidad sobre los contenidos de la web. Otro par de funcionalidades que los navegadores perdieron fueron: las operaciones Siguiente y Anterior, que significaba retroceder a la página que contiene el enlace a la página actual y seguir a la página del siguiente enlace. Esto requería la construcción de una tabla de contenido, con la secuencia de enlaces que constituían una ruta predeterminada de páginas. Estas opciones son muy diferentes de las que actualmente se encuentra en los navegadores. Finalmente, otra funcionalidad que se perdió en los navegadores modernos, era la de presentar una sección particular de un documento de forma resaltada o al principio de la página. Desde el principio, diferentes personas han planteado las deficiencias de la web como sistema de hipertexto completo. Esto ha disparado el desarrollo de navegadores que permitan una mejor implementación de las características del hipertexto, sin embargo la ignorancia y quizás una falta de comprensión de los beneficios, limita la adopción de estas herramientas, un caso clásico de ausencia del "efecto red". El efecto red es una forma de retroalimentación positiva que demuestra cómo el éxito lleva a más éxito, especialmente cuando se usa software. El nuevo estándar XML cambia la funcionalidad hipertextual de la web en un nivel esencial. Dentro de las posibilidades que se vislumbran, están: enlaces que pueden tener más de un destinatario, adicionar comportamientos a los enlaces, entre otros. Aunque estas posibilidades se pueden ver limitadas por la tendencia a desarrollar versiones privativas de HTML. http://es.wikipedia.org/wiki/SGML http://en.wikipedia.org/wiki/SGML (Consultado en Diciembre de 2007) SGML son las siglas de Standard Generalized Markup Language o Lenguaje de Marcación Generalizado. Consiste en un sistema para la organización y etiquetado de documentos que tuvo su origen en el Lenguaje de Marcado Generalizado (Generalized Markup Language - GML) desarrollado por Charles Goldfarb en los años 60, en IBM. La Organización Internacional de Estándares (ISO) normalizo este lenguaje en 1986. El lenguaje SGML sirve para especificar las reglas de etiquetado de documentos y no impone en sí ningún conjunto de etiquetas en especial. Por eso se le considera un metalenguaje. El lenguaje HTML esta definido en términos del SGML. XML es un estándar de creación posterior, que incorpora un subconjunto de la funcionalidad del SGML (suficiente para las necesidades comunes), y resulta más sencillo de implementar pues evita algunas características avanzadas de SGML. http://es.wikipedia.org/wiki/HTML http://en.wikipedia.org/wiki/HTML (Consultado en Diciembre de 2007) HTML es el acrónimo inglés de HyperText Markup Language, que se traduce al español como Lenguaje de Etiquetas de Hipertexto. Es un lenguaje de marcado para páginas web, que describe la estructura de los textos (base de la información en los documentos), los enlaces de hipertexto y las referencias a otros objetos embebidos. http://es.wikipedia.org/wiki/Lenguaje_de_marcado http://en.wikipedia.org/wiki/Markup_language (Consultado en Diciembre de 2007) Un lenguaje de marcado o lenguaje de etiquetas es una forma de codificar un documento que, junto con el texto, incorpora etiquetas o marcas que contienen información adicional acerca de la estructura del texto o su presentación. El lenguaje de marcas más extendido es el HTML, fundamento del World Wide Web. Los lenguajes de marcas se llaman así por la práctica tradicional de marcar los manuscritos con instrucciones de impresión en los márgenes. En la época de la imprenta, esta tarea ha correspondido a los marcadores, que indicaban el tipo de letra, el estilo y el tamaño, así como la corrección de errores, para que otras personas compusieran la tipografía. Esto condujo a la creación de un grupo de marcas estandarizadas. El concepto de lenguaje de marcas fue expuesto por vez primera por William Tunnicliffe en 1967. La mayor novedad consistía en la separación entre la presentación y la estructura del texto. Sin embargo, quien es considerado el padre de los lenguajes de marcas es Charles Goldfarb, investigador para la compañía IBM, y quien participó en la creación del lenguaje GML, y posteriormente dirigió el comité que elaboró el estándar SGML, la piedra angular de los lenguajes de marcas. En cualquier caso, y a pesar de las controversias sobre su origen, es comúnmente aceptado que la idea surgió de forma independiente varias veces durante los 70, y que se generalizó en los 80. Se suele diferenciar entre tres clases de lenguajes de marcado: - El marcado de presentación es aquel que indica el formato del texto, es útil para maquetar la presentación de un documento para su lectura, pero resulta insuficiente para el procesamiento automático de la información, resulta complicado de mantener o modificar por lo que su uso se ha ido reduciendo en proyectos grandes en favor de otros tipos de marcado más estructurados. Por ejemplo HTML, RTF, TeX. - El marcado de procedimientos está enfocado hacia la presentación final del texto, el programa que visualiza el texto debe procesarlo en el mismo orden en que se encuentra. Por ejemplo TeX y PostScript. - El marcado descriptivo o semántico utiliza etiquetas para describir los fragmentos de texto, pero sin especificar cómo deben ser representados, o en que orden. Los lenguajes expresamente diseñados para generar marcado descriptivo son el SGML y el XML. Tim Berners-Lee, que había aprendido SGML de su compañero en el CERN Anders Berglund, utilizó la sintaxis SGML para crear el HTML. Este lenguaje era similar a cualquier otro creado a partir del SGML, sin embargo resultó extraordinariamente sencillo, tanto que el DTD no se desarrolló hasta más tarde. La flexibilidad y escalabilidad del marcado HTML fue uno de los principales factores, junto con el empleo de URLs y la distribución libre de navegadores, fueron el éxito de la World Wide Web. Los lenguajes de marcado son la herramienta fundamental en el diseño de la web semántica, aquella que no solo permite acceder a la información, sino que además define su significado, de forma que sea más fácil su procesamiento automático y se pueda reutilizar para distintas aplicaciones. Esto se consigue añadiendo datos adicionales a los documentos, por medio de dos lenguajes expresamente creados: el RDF (Resource descriptión framework o Marco para la Descripción de Recursos) y OWL (Web Ontology Language o Lenguaje de Ontologías para la Web), ambos basados en XML. http://www.w3.org/History/1989/proposal.html (Consultado en Diciembre de 2007) Berners-Lee, T. (1989). Information Management: A Proposal. Recuperado en diciembre de 2007, de http://www.w3.org/History/1989/proposal.html Muchas discusiones en el CERN terminan con la pregunta ¿Cómo vamos a gestionar la información de un proyecto tan grande?. Esta propuesta proporciona una respuesta. En primer lugar, se analiza el problema de acceso a la información en el CERN, luego se introduce la idea de los sistemas de información vinculados y se compara con sistemas menos flexibles. A continuación, resumo mi corta experiencia con sistemas de texto no-lineal conocidos como hipertexto, lo que necesitaría el CERN de un sistema como estos y lo que la industria puede proporcionar. Por último, se sugieren las medidas que nosotros debemos tomar con el hipertexto, para entender lo que estamos creando. Perdida de Información en el CERN Aunque el CERN tiene estructuras jerárquicas, la estructura real de trabajo es como una red o telaraña cuyas interconexiones evolucionan con el tiempo. Un problema es la alta rotación de las personas. La introducción de una nueva persona en un puesto le demanda mucho de su tiempo, y el de los demás, antes de tener una idea de lo que necesita saber. Es muy difícil registrar en un libro, de forma lineal, la información que genera un proyecto en el CERN, debido a que en el transcurso se producen muchos cambios de ideas y de uso de tecnologías, lo que a su vez implica buscar e informar a todos los que se pueden ver afectados. Los detalles técnicos de los proyectos a veces se pierden para siempre, y la información que se ha registrado, simplemente no se puede encontrar. Estos problemas de información en el CERN son críticos, pero esto se puede ver como un modelo en miniatura de lo que sucederá en el mundo en pocos años. Sistemas de Información Enlazados Un sistema para gestionar la información de estos proyectos en el CERN, debe permitir evolucionar con las características mencionadas. Para que esto sea posible, el método de almacenamiento no debe poner limitaciones en la información. Por ello, una telaraña/red de notas con enlaces entre ellos es mucho más útil que un sistema jerárquico fijo. Para describir un sistema complejo se recurren a los diagramas de círculos y flechas para describir las relaciones que un cuadro no permite [cómo las tablas de una base de datos]. El sistema que necesitamos en el CERN es como uno de estos diagramas, en donde los círculos pueden ser: personas, módulos de software, grupos de personas, proyectos, conceptos, documentos, hardware... y las flechas pueden indicar relaciones de: dependencia, referencia, uso, composición, particularización. Este sistema debe permitir ingresar la información de cualquier forma y debe permitir encontrar cualquier tipo de información, así una persona no sepa que esta buscando. Una ventaja de los sistema que organizan la información de manera jerárquica es que dan a cada nodo un único nombre, sin embargo este modelo no representa la realidad. Otro problema es que hay que saber la ruta exacta para recuperar la información. Otra forma de búsqueda de información es a través de las palabras claves cuando no se cuenta con información exacta de lo que se esta buscando. El problema es que dos personas nunca escogerán las mismas palabras claves para caracterizar la misma información. Una solución: El Hipertexto Un antecedente es Enquire, un programa que escribí en 1980 para realizar seguimiento a unas aplicaciones informáticas. Enquire permite almacenar fragmentos de información y relacionarlas de alguna manera. Para encontrar la información, sólo se deben seguir los enlaces. Es similar a la aplicación Hypercard producida recientemente por Apple, pero Enquire se diferencia en que no es gráfica y corre en un sistema multiusuario, lo que permite que muchas personas accedan a los mismos datos. Existen muchos programas que han implementado las ideas sobre Hipertexto, aunque todos han sido en muy pequeña escala y por tanto no son adecuados para las necesidades del CERN. La mayoría de ellos usan los "Hot Spots" (Puntos Calientes [o anclajes]) en los documentos, en los iconos, faces y áreas sensibles. Tocando un "Hot Spots" con un ratón, se accede a la información pertinente. Las referencias que se hacen en estos documentos, están asociadas con direcciones de red, de manera que se puede saltar a los recursos referidos con sólo hacer clic con el ratón. Hipertexto es un termino acuñado en los 60 por Ted Nelson, que se utiliza para hacer referencia a dos ideas: una se refiere a información legible por humanos vinculada entre si de forma espontánea (que es el sentido utilizado en esta propuesta); la otra es referida a documentos multimedia que incluyen gráficos, voz y vídeo, y para la que prefiero utilizar la palabra hipermedia. Requerimientos del CERN - Acceso remoto a la información a través de redes, debido a que el CERN esta distribuido. - Acceso a la información desde computadores con tecnologías heterogéneas. - La información no debe requerir un control centralizado o coordinación. - Acceso a la información existente de forma rápida. - Contar con enlaces públicos y privados. - Almacenamiento en texto ASCII con la posibilidad de adicionar gráficos. - Posibilidad de realizar cierto tipo análisis automático sobre la información. - Los enlaces deben poderse crear y borrar de acuerdo con las necesidades. - Para el CERN lo importante es el intercambio de la información y no las discusiones sobre Derechos de Autor y Seguridad de la Información que se ha planteado en los sistemas de hipertexto. Estado del Arte en Hipermedia - Uno de los temas de investigación en el campo de las interfaces es el de navegar a través de información compleja. Sin embargo muchos de los usuarios del CERN utilizan terminales primitivas, por lo que un sistema sofisticado de ventanas no sera importantes por el momento. - La mayoría de los sistemas disponibles hoy utilizan una sola base de datos, pero hay pocos productos que desarrollan la idea de enlazar nodos de diferentes bases de datos. Existe una énfasis en la necesidad de normalizar un formato para el intercambio de información. Esta también es una preocupación y un requerimiento de la industria editorial y de los bibliotecarios, cuyo trabajo consiste en organizar la información. - Para que el sistema de hipertexto del CERN sea flexible, se requiere separar el software de almacenamiento de información, del software de visualización, con una interfaz bien definida entre ellos [interfez = protocolo]. Esta división también es importante para que puedan interactuar la heterogeneidad de maquinas que hay en el CERN (y que también se presenta en el mundo en general). Acceso a la información existente Los actuales sistemas de hipertexto solo pueden trabajar con datos nuevos, por el contrario, el sistema de hipertexto del CERN debe poder vincular la información nueva con la existente. Para ello se requiere un servidor de hipertexto que proporcione la información existente de acuerdo con una interfaz estandarizada. Este servidor no genera una base de datos de hipertexto, sino que genera una vista hipertextual de la base de datos existente. En algunos casos, puede ser que sea complicado lograr la escritura sobre estas base de datos, en cuyo caso sólo se buscaría permitir la lectura de la información. En otros casos es posible almacenar la información en formato de hipertexto para enlazar la información y lograr una mayor integración entre los antiguos y los nuevos sistemas de información. Conclusión Esta propuesta hace referencia a un sistema de información universal de enlaces, en el que la escalabilidad y portabilidad son los aspectos más importantes que sobre las interfaces gráficas y funcionalidades complejas extras. En una primera etapa, la idea es desarrollar un navegador con un servidor como fuente de información. Para esta etapa seria necesario dos personas con una destinación de 6 a 12 meses. La segunda etapa del proyecto seria crear un sistema real, que incluya a varias maquinas del CERN. Una parte importante seria la integración del sistema de hipertexto con los datos existentes. Además, esta seria un excelente proyecto para probar las nuevas técnicas de programación orientada a objetos. http://www.w3.org/2005/01/timelines/timeline-2500x998.png (Consultado en Diciembre de 2007) Gráfico con línea de tiempo http://www.w3.org/Consortium/future (Consultado en Diciembre de 2007) La W3C sigue trabajando para que la web: - Sea para todos, independiente de la cultura, sus habilidades, etc. - Sea para todo, desde computadores de escritorio hasta dispositivos móviles - Este en todas partes, sin importar si se tiene altos o bajos anchos de banda - Con diversos modos de interacción, ya sea por tacto, lápiz, ratón, voz, etc. - Haciendo el trabajo con el computador más útil, a través técnicas más avanzadas de intercambio y de búsquedas de datos http://dig.csail.mit.edu/2007/03/01-ushouse-future-of-the-web.html http://energycommerce.house.gov/cmte_mtgs/110-ti_hrg.030107.WorldWideWeb.shtml (Consultado en Diciembre de 2007) Berners-Lee, T. (2007). The Future of the World Wide Web. Recuperado en diciembre de 2007, de http://dig.csail.mit.edu/2007/03/01-ushouse-future-of-the-web.html Aunque tuve el privilegio de dirigir el esfuerzo que dio origen a la Web, en este momento ya no es el esfuerzo de una persona o una organización. La web es un recurso publico del que dependen muchas personas, comunidades, empresas y gobiernos, y que desde un principio ha sido creado y sostenido por el esfuerzo cooperativo de muchas personas en el mundo. I. Fundación de la WWW La creación de la Wold Wide Web, construida sobre una Internet abierta, estuvo condicionada por tres factores críticos: 1) enlaces ilimitados desde cualquier parte de la Web a cualquier otra parte; 2) estándares técnicos abiertos como base para el continuo crecimiento de innovaciones; y 3) la separación de las capas de red, posibilitando innovaciones independiente en los niveles de transporte, enrutamiento y aplicaciones. Aunque esto parezca poco importante, es necesario recordar que la Web solo fue posible por la existencia de una Internet como plataforma abierta. A. Enlazamiento Universal Desde una perspectiva técnica, la Web es una gran colección de paginas Web, escritas en formato HTML, enlazadas con otras páginas a través del estándar URI, y disponibles sobre Internet usando el protocolo HTTP. Así, la Web a crecido porque es fácil escribir una página web y es fácil enlazar a otras páginas, y no se tiene un límite en el número de páginas o en el número de enlaces sobre la Web. Adicionalmente, una página web no requiere de coordinación con una autoridad central y tiene un costo muy pequeño. Esto se debe en parte a que el protocolo HTTP no es discriminatorio. Un buen ejemplo de la baja barrera que tiene la Web para leer, escribir y enlazar son los Blogs, que en tan sólo 5 años han alcanzado una gran popularidad como medio de excreción de cualquier cosa. Lo mismo esta sucediendo con la creación de plataformas abiertas para la expresión y el intercambio de todo tipo. La universalidad y flexibilidad de la arquitectura Web, tiene una capacidad única para romper las barreras de distancia, lenguaje y dominio de conocimiento. La universalidad ha sido la llave para posibilitar la innovación de la Web, y lo continuara siendo en el futuro. B. Fundación abierta para manejar la información sobre innovación La Web no solo ha sido un lugar para el libre intercambio de ideas, sino que también ha sido una plataforma para la creación de una amplia variedad de nuevos servicios tanto en la academia como en la industria, todas ellas gracias a los estándares abiertos y las tecnologías libres de derechos de autor. La W3C sólo estandariza tecnologías si estas pueden implementarse sobre la base de un uso libre de costos de licencia. C. Separación de Capas Cuando yo invente la Web, yo no tuve que pedir permiso a nadie. La Web como una nueva aplicación, se desarrollo sobre Internet sin realizar cambios sobre ella. Esta es la genialidad del diseño de Internet. La separación de capas es lo que permite el desarrollo de innovaciones autónomas y simultaneas. II. De cara al futuro La evolución de la Web no esta en manos de una persona, sin embargo, tres ámbitos en los que espero adelantos son: la Web debe ayudar a manejar, integrar y analizar datos; la Web debe ser accesible desde diferentes tipos de redes y dispositivos; y las aplicaciones Web deben ser más ubicuas, deben estar en todas los ámbitos humanos. La Integración de los datos La información digital se ha convertido en algo clave en nuestras vidas, y ya están apareciendo innovaciones que, junto con una mayor apertura al intercambio de información, están llevando a la WWW hacia la llamada Web Semántica, debido a que la complejidad de los fenómenos que se están investigando hoy, requieren acceder a diferentes fuentes de información, cruzar datos y realizar procesamiento de datos en diferentes tipos de información. Pero otro ámbito de la Web Semántica tiene que ver con el manejo de la información personal. Creemos que para proteger la vida privada y otros valores de la política pública, es necesario que la investigación de nuevas técnicas que proporcionen transparencia en las formas como la información se utiliza. B. Diversidad de redes e independencia de dispositivos C. Aplicaciones web ubicuas D. La Web no esta completa La Web se ha desarrollado sobre dos aspectos: los protocolo tecnológicos y las convenciones sociales. Las tecnologías tales como HTTP y HTML determinan como los computadores interactúan. Las convenciones sociales, tales como el enlace a recursos valioso o las reglas de interacción en un sitio web de redes sociales, es acerca de como a la gente le gusta interactuar. Sin embargo, hace falta mucho por investigar sobre el diseño, el funcionamiento y el impacto en la sociedad de la WWW. Estudiar la compleja interacción entre la tecnología y la sociedad en torno a la Web, requiere de de un ámbito particular de estudio al que hemos llamado Ciencia de la Web (Web Science). El propósito de esta iniciativa es crear una base intelectual que permita tomar la web como objeto de investigación científica social y de innovación en ingeniería. http://info.cern.ch/ (Consultado en Diciembre de 2007) Pantallazos de las primeras páginas html creadas por Tim Berners http://www.w3.org/1998/02/Potential.html (Consultado en Diciembre de 2007) Berners-Lee, T. (1997). Realising the Full Potential of the Web. Recuperado en diciembre de 2007, de http://www.w3.org/1998/02/Potential.html Resumen La primera fase de la Web es la comunicación humana a través del conocimiento compartido, aunque falta mucho por hacer para tener un espacio intuitivo en el que podamos dejar nuestros pensamientos y construir nuestra comprensión de lo que queremos hacer, y cómo y por qué lo hacemos. La segunda fase de la Web todavía no emerge, y es la de maquinas que comprenda la información. Con esta segunda fase, el propósito es liberar a las personas de las tareas repetitivas y mecánicas para que se dediquen a la intuición y la inspiración. El origen del sueño La Web fue diseñada para ser un espacio universal de información. Tu puedes hacer un enlace a cualquier archivo de información que sea accesible en Internet, con el objetivo de trabajar con otros de mejor forma. La idea original de la Web fue el trabajo colaborativo, al construir juntos una web hipertextual, un grupo se vería obligado a utilizar un lenguaje común, con el fin de superar los malentendidos y tener información de forma actualizada sobre sus planes y objetivos. La mitad del tiempo en las reuniones se gasta en buscar un entendimiento verbal, se duplican esfuerzos por ignorancia, la falta de cooperación se puede atribuir a la incapacidad de entender a los otros. La Web se diseño para evitar malentendidos, por lo tanto para que funcione, la Web no sólo debe ser fácil de navegar y sino que también debe facilitar la expresión. También se requiere que los computadores, las redes, los sistemas operativos y los navegadores sean invisibles, con una interfaz que nos dejen los más directamente posible con la información. La Web deber ser un medio para la comunicación entre personas a través de la difusión de conocimiento. Un segundo objetivo al crear la Web, es que si se tiene un proyecto o empresa o lo que sea, que utiliza la Web, entonces debe existir un mapa en donde se enlace información de todas las partes relacionadas. Con esto se abre la posibilidad de tener programas que analicen esta información y nos ayuden a gestionar de mejor forma el conocimiento allí contenido. La Web vista como un canal de televisión, con pocos escritores y muchos lectores es sólo una parte del plan. La creación intuitiva de interfaces para hacer la autoría de texto una parte natural de la vida, sigue en desarrollo. No es sólo la ausencia de editores lo que ha impedido el uso de la web como medio de colaboración, por un lado las personas necesitan un control de acceso fiable, que permita compartir la información con aquellos que quiere. También requieren control sobre las herramientas que hacen posible la Web. Pero también existe limites que no podemos superar sin la ayuda de maquinas. De un lado esta la información poco fiable que esta proliferando en la red, de otro lado esta la poca pertinencia de los motores de búsqueda. Por ello, necesitamos información acerca de la información o metadatos, que nos ayuden a organizar la información. El Consorcio de la WWW es un lugar para aquellas empresas que consideren que la Web es fundamental, y por tanto es necesario ponerse de acuerdo en las bases que permitan a todos seguir adelante. Hacia donde va la Web Uno de los problemas en la actualidad son los lentos tiempos de respuesta. En parte esto se debe a las políticas de los proveedores de acceso a Internet, que aumentan el número de usuarios cuando aumentan la velocidad de los canales. Algunas tecnologías se están explorando, pero lo cierto es que una solución debe considerar de forma conjunta servidores, clientes y técnicas preventivas o reactivas de transferencia de información. Otro aspecto es la necesidad de tener un formato común para describir la información acerca de la información o metadatos. Con esto se espera tener una red más inteligente, que procese previamente la información para ofrecer lo que es pertinente y para alcanzar mejores niveles de seguridad para el acceso a la información. En cuanto a seguridad, es necesario avanzar hacia una Web de Confianza en la cual, ciertos documentos de importancia estén firmados digitalmente, al igual que la información de metadatos. Así la gente confiara en la información por que su experiencia se lo dice o por recomendación. Para que lo anterior sea posible, es necesario que exista información entendible para las maquinas asociada a la información entendible para las personas. Si bien esta era la intención desde un principio, en el desarrollo se perdió. La razón puede estar en que HTML, al igual que SGML, da estructura, pero no semántica. Uno de los aspectos más importantes para mi, es que la Web pueda utilizarse en todos los niveles, desde el personal, pasando por grupos de todo tamaño, hasta la población mundial, y para ello es necesario crear mecanismos que permitan controlar el acceso a la información. Por eso, las firmas digitales no son sólo una necesidad del comercio electrónico. La Web ya aumenta el poder de nuestros escritos, lo que los hace accesibles a un gran número de personas y nos permite acceder a cualquier parte de la información mundial con un simple enlace hipertexto. La imagen del mundo de las personas con las maquinas forman parte activa de la infraestructura. Si podemos hacer algo descentralizado, fuera de control y de gran simplicidad, debemos estar dispuestos a sorprendernos con lo que pueda resultar. La Web tendrá un profundo efecto en las culturas del mundo, para bien o para mal. Nosotros somos las células de un gran cerebro global, y estamos emocionados de empezar a pensar colectivamente. Qué sera de nosotros, dependerá de nuestra forma de pensar. http://www.w3.org/People/Berners-Lee/1996/ppf.html (Consultado en Diciembre de 2007) Berners-Lee, T. (1996). The World Wide Web: Past, Present and Future. Recuperado en diciembre de 2007, de http://www.w3.org/People/Berners-Lee/1996/ppf.html Resumen La WWW fue diseñada originalmente como un espacio interactivo de información compartida, a través de la cual las personas puedan comunicarse entre sí y con las maquinas. Desde su creación en 1989 ha crecido inicialmente como medio de difusión de material de sólo lectura desde los servidores corporativos hacia los usuarios conectados a Internet. Recientes intereses comerciales han puesto de moda las Intranet, en donde los grupos más cerrados logran una mayor interacción. En el futuro esperamos que la Web pueda convertirse en un instrumento más eficaz incluso a nivel familiar y en sistemas de información personal. Otra novedad interesante sería el carácter interactivo de la interfaz con el usuario, y el uso de información entendible para las maquinas, de tal forma que sea posible su procesamiento automático. Introducción La Web es un espacio abstracto donde las personas pueden interactuar, que en la actualidad esta llena de interrelaciones entre páginas de texto, imágenes y vídeos. Su existencia marca el fin de una era frustrante de las incompatibilidades entre los sistemas informáticos. El potencial comercial del sistema ha llevado al rápido desarrollo de nuevas características. Historia Los orígenes se remontan, en lo conceptual, a la idea de Memex de Vannevar Bush, los trabajos de Douglas Engelbart y el concepto de hipertexto de Ted Nelson; y desde la experiencia, a los intentos de transferir información entre muchos diferentes tipos de computadores en el CERN. La intención de la WWW era de la un sistema que debería poder llevar información privada a un espacio público, considerando algunos criterios: - El sistema debería ser capaz de realiza asociaciones espontáneamente entre cualquier tipo de información ubicada en diferentes tipos de bases de datos. - La asociación de información entre dos bases de datos no debe requerir la fusión de estas bases. - Limitar el sistema a un determinado lenguaje o sistema operativo estaría condenado al fracaso. - La información debería estar disponible en todas las plataformas. - Limitar el modelo mental de los usuarios de datos en un determinado patrón esta condenado al fracaso. - Si la intención es que la organización se pueda representar en el sistema, la adición o corrección de la información deber ser trivial para las personas que tienen el conocimiento. Un objetivo de la web es que en el se diera una representación extra de las personas, las ideas, las interacciones, los modelos de trabajo, entre otros, de tal forma que el sistema se convirtiera en una potente herramienta de gestión de información. Principios básicos de la arquitectura - Independencia de las especificaciones, para alcanzar mínima restricción y permitir la evolución de las antiguas a las nuevas tecnologías. - Identificadores Universales de Recursos, que permiten la referencia sin consultar el destino, con lo cual posibilitan la escalabilidad, una de las principales características de la WWW. - Opacidad de los identificadores, de tal forma que el usuario ve palabras significativas. - URI Genéricos, lo que permite suministrar información dependiendo de las preferencias del usuario. - HTTP, protocolo que tiene entre sus características, especificar los preferencias de idioma y formato de datos. - HTML, formato de datos. Historia Antigua - Entre octubre y diciembre de 1990 se escribió un servidor y un cliente-editor wysiwyg, y se realizó una página web inicial sobre la Web haciendo enlaces a archivos gráficos y de sonido. - En 1991 se realizar un navegador por línea de comandos, teniendo en cuenta que en el CERN había muchas terminales brutas. - Se escribió un segundo servidor web como pasarela de una base de datos de un directorio telefónico del CERN. Este fue la primera aplicación web útil y que además tuvo una grana acogida. Luego se desarrollaron otros servidores. - La comunidad de Internet utilizo el cliente WorldWideWeb para crear muchísimos otros clientes, tanto por línea de comandos como gráficos. - El Internet Gopher fue considerado durante mucho tiempo como un sistema de información mejor y que evitaba la complejidad de HTML, pero los rumores de que esta tecnología dejaría de ser abierta hicieron reevaluaron esta posición. - En 1993, Marc Andreessen escribió Mosaic, el primer cliente Web que integro la visualización de imágenes. Una de las primeras métricas de la Web fue el crecimiento de la carga del primer servidor web, que curiosamente creció como una constante exponencial, en un factor de diez por año, durante los primeros tres años. Situación actual Los estándares de URI, HTTP y HTML han permitido el crecimiento de la web, lo que ha dado lugar a nuevos tipos de datos y protocolos, pero se están presentando problemas de compatibilidad entre los clientes y los servidores por la falta de especificación de algunos formatos. Desde 1992 existe la preocupación que la fragmentación de los estándar destruyan la Web. Por tal motivo se creó en 1994 el W3C con el fin de tener un foro neutral para que las empresas puedan ponerse de acuerdo sobre las especificaciones, por el bien común. Ante la preocupación por el acceso de los niños a material no adecuado por ellos, la comunidad académica reacciono rápidamente conformando la iniciativa: Plataforma de Selección de Contenidos de Internet (Platform for Internet Content Selection - PICS) de la W3C, con la cual se espera introducir nuevos protocolos y formatos de datos de tal forma que permita a los padres el establecimiento de filtros de acceso de información a sus hijos. En la actualidad también existen una serie de propuestas para lograr mayores niveles de seguridad y privacidad relacionadas con el intercambio de información montaría, y hacer viable el comercio electrónico. Hasta ahora, la análisis de la información sobre la Web se ha limitado a la indexación que realizan los motores de búsqueda, pero son inútiles para determinar la calidad de los documentos. La exploración de algunas tecnologías no sólo abordan el análisis de información en la Web, sino también la interacción de las personas con esta información. Orientación Futura Las tres metas a largo plazo son: mejorar la infraestructura para prestar un servicio más funcional, sólido, eficaz y disponible; mejorar la web como medio de comunicación e interacción entre las personas; y convertir la Web no sólo en un espacio para que las personas naveguen por la información, sino que también pueda ser analizado por las maquinas. Los asuntos éticos y sociales también deben considerarse. La necesidad de considerar el acceso de los niños a la información de la Web, las preocupaciones sobre la privacidad y la propiedad intelectual son sólo algunos de los temas que se deben tratar, además de los retos técnicos. También existen dudas respecto al impacto que la Web tiene sobre la cultura y la democracia. Conclusiones La Web es un espacio de información se esta convirtiendo en un poderoso lugar en donde las nuevas generaciones resolverán sus problemas, por eso es esencial que mantenga su independencia del hardware, sistema operativo y otras aplicaciones. La legislación de los países tendrá que ir de la mano con el desarrollo de las especificaciones de los protocolos de red. http://jamillan.com/parapoder.htm (Citado en Diciembre de 2007) Para poder pensar: Encuentro, creación y transmisión en la Red José Antonio Millán, 2001 http://jamillan.com/para_can.htm (Citado en Diciembre de 2007) La Web como memoria organizada: el hipocampo colectivo de la red Javier Candeira, 2001 La organización de la información no tiene nada que ver con la informática ­o no necesariamente http://jamillan.com/averigua.htm (Citado en Diciembre de 2007) Del Averiguador a la Malla Mundial: La cultura en la comunidad virtual del español José Antonio Millán, 1998 Un siglo y cuarto más tarde podemos reconocer en la cultura de las redes muchos de los elementos que hemos encontrado en el análisis del Averiguador. Su comparación nos permitirá extraer algunas conclusiones sobre los medios de que se dota la curiosidad intelectual para encontrar los medios de realizarse. http://www.hipertext.net/web/pag273.htm (Citado en Diciembre de 2007) Motores de búsqueda de información científica y académica Lluís Codina, 2007 Existe mas de una contradicción cuando se unen en la misma frase las palabras "web" y "ciencia". Por un lado, los contenidos de la Web, no sin algo de razón, siempre han despertado recelos en sectores académicos y profesionales: 1) ¿Quién controla la información que se publica en la Web?, 2) ¿Hasta qué punto es fiable la información que encontramos a través de los motores de búsqueda?, 3) ¿Se aplican a la Web los controles editoriales propios de las publicaciones impresas que tanto han significado para el progreso de la ciencia?. Comentarios ==================== - ¿Que tanto del proyecto WWW se utiliza en el CERN hoy? - ¿Que lógica de pensamiento se requiere para aprovechar el uso de estas tecnologías? ¿Cómo se puede desarrollar esta lógica en diferentes grupos de personas? - Berners-Lee enfatiza reiteradamente la necesidad de desarrollar tecnologías abiertas, libres de pago por derechos y universales. Estos son los principios con los que rige la W3C. - En los escritos de Berners-Lee se lee un cambio en el propósito de la WWW. En sus inicios intentaba resolver un problema de acceso a la información, por parte de un comunidad de investigadores que trabajaban como red, pero luego plantea la WWW como un instrumento que ayuda a mediar en las diferencias que tienen las personas cuando se comunican.