BAQUIA

La Web inteligente

Poco imaginaba Luis Ángel Fernández Hermana, experto internacional en Internet y Gestión del Conocimiento y director de Enredando, que los preparativos de la II Jornada en.red.ando se iban a convertir en un inesperado via crucis. \”Al decidir que el tema de este año sería el de la \’Web Inteligente\’ apuntábamos muy alto. La investigación en este campo se concentra en unos pocos centros, sobre todo de EEUU, de donde escogimos a los ponentes de la Jornada, todos ellos líderes indiscutibles en sus respectivas disciplinas\”.

\”Pero otros\”, continúa Fernández Hermana, \”decidieron apuntar más alto todavía. El terrible y mortífero ataque contra las Torres Gemelas y el Pentágono abatió no sólo estos edificios, en un abrir y cerrar de ojos nos quedamos sin ponentes y, por tanto, sin Jornada. Pero en otro abrir y cerrar de ojos, casi todos los invitados confirmaban su asistencia\”. Y es que cuatro los cinco invitados trabajaban, directa o indirectamente, para el Pentágono, y la primera reacción del Gobierno de EEUU tras el atentado fue, lógicamente, la de suspender todos los actos donde hubiera alguna representación oficial\”. Y a pesar de la inesperada ausencia de gloriosas firmas como Tim Berners-Lee, la Jornada fue un éxito.

¿Y qué es una web inteligente?

El proyecto de la Web Inteligente bebe, según Fernández Hermana, \”de tres fuentes diferentes. Una, con un grado de inmediatez evidente, se refiere a la capacidad de los servidores web de comprender el contenido de todo lo que almacenan o distribuyen por la Red, ya sea bajo la forma de texto, sonido, imagen o gráficos. No sólo comprenderlo, sino estructurarlo y gestionarlo a partir de una valoración semántica de dicho contenido\”.

La segunda pata de la Web Inteligente reside en la estructuración del conocimiento. A fin de cuentas, el objetivo de toda esta investigación es conseguir que la generación y gestión de conocimiento en red, a cualquiera de sus escalas, desde la individual a la colectiva (organizaciones, empresas, administraciones, etc.), se logre representar de tal manera que las máquinas puedan discernirlo y jerarquizarlo. Y finalmente, todo este esfuerzo apunta al funcionamiento de la Red como un cerebro global. Una especie de supraorganismo, mayor y diferente que sus partes, constituido a partir de una negociación social de las inteligencias que contribuyen a su existencia. Ahí queda eso.

¡Por fin! Alguien me entiende

Así define Eva Rexach, del equipo de Enredando, la II Jornada que tuvo lugar el 26 de octubre de 2001: \”Fue una fecha histórica. Tal vez aún no seamos conscientes de ello, pero cuando trabajemos con ordenadores capaces de entender lo que necesitamos, que busquen en la Red aquella información que deseamos y que sean capaces de aprender de nuestro trabajo, nos acordaremos de este día y de esos cinco ponentes que nos estuvieron hablando de cosas tan increíbles como la Web Semántica, el Cerebro Global, los agentes inteligentes y los Sistemas de Conocimiento Distribuido\”.


Francis Heylighen fue uno de estos expertos. Heylighen vino a Barcelona a presentar su teoría sobre el Cerebro Global y su idea de una Web que piensa y aprende. Una Web que sabe \’\”qué información necesitamos\”, aunque nosotros mismos no sepamos qué es lo que buscamos o qué palabras clave precisamos para encontrarlo. Junto con Johan Bollen, su colaborador más cercano, Heylighen se ha centrado en el desarrollo de una web que auto-organiza su conocimiento, que \”aprende\” nuevos conceptos y asociaciones según es utilizada. Su idea es que el ordenador puede funcionar como un cerebro global, ya que observando el funcionamiento del cerebro humano sabemos que la recuperación de datos es flexible y eficiente, que nuestra masa encefálica es capaz de recoger de nuestra memoria la información, la respuesta, que necesitamos\”. (El artículo completo aquí).


El compromiso entre los humanos y las máquinas

Por la experiencia del año pasado, Karma Peiró, directora de Contenidos de Enredando, sabía que en la nueva jornada se enfrentaban a un \”maratón mental\”.

La II Jornada reunió a investigadores de primera línea procedentes de EEUU y Europa, que \”están trabajando para conseguir que Internet se convierta en una red inteligente por dos vías diferentes\”, cuenta Peiró. Una apuesta por un sistema que permita que la búsqueda y recuperación de información sea más intuitiva y precisa a partir de la aplicación de la semántica, de ontologías y de agentes inteligentes (Tim Berners-Lee, Hans-Georg Stork, y James Hendler); la otra vía de investigación persigue que los servidores sean capaces de aprender el recorrido virtual que hacen los internautas en su navegación por la Red para que ésta acabe funcionando como un cerebro global (Francis Heylighen, Johan Bollen y Cliff Joslyn).


Peiró explica en su artículo como trabaja la Web Semántica, en un esfuerzo por \’ordenar el caos del conocimiento en la Red\’. \”Todos los investigadores partieron de la base de que, actualmente, Internet se entiende como una gran biblioteca pero, en realidad, no es más que una recopilación desordenada de libros, revistas, e información basura, de cuya mezcla resulta complicado y costoso extraer conocimiento alguno. En una biblioteca todo el material está ordenado y clasificado: un grupo de expertos se encargan de estructurar y analizar la información, y de hacer una descripción de los recursos para finalmente prestar servicios a sus usuarios. La Web Semántica tiene por objeto ordenar el caos de Internet\”, propone Hans-Georg Stork, responsable de la investigación la Web Semántica de la Comisión Europea, matemático y doctor en Informática Teórica. El objetivo es modificar la forma en que se presenta la información de la Web de un modo que facilite el procesamiento de la misma por parte de las máquinas\”. (El artículo completo aquí).

Internet: un inmenso entorno colaborativo

Otra persona del equipo de Enredando, Mar Centenera, comenta la visión de la Red de Cliff Joslyn: \”Cualquier parecido con la ciencia ficción quedó borrado por Joslyn, el último de los ponentes, al especificar que detrás de esas tecnologías \’no hay magia\’ sino que todo \’es pura matemática\’. Es posible aplicarlas a Internet gracias a los protocolos, programas y lenguajes informáticos que se están desarrollando. Una de las principales ventajas de la búsqueda ontológica respecto a los resultados que se obtienen en los buscadores actuales es que permite encontrar todos los documentos que están relacionados conceptualmente, independientemente de que contengan las palabras de nuestra búsqueda\”.

Tal y como explicó Johan Bollen, si queremos saber algo sobre el inicio de la vida, en un servidor basado en ontologías podremos encontrar, por ejemplo, documentos sobre biogénesis; mientras que, si hemos introducido \”inicio\” y \”vida\” en un buscador convencional, sólo encontraremos aquellas páginas web que contengan ambos vocablos. Desarrollar las ontologías a través de equipos requiere mucho tiempo (Heylighen mencionó que la concreción de algunas había requerido siete años), así que es necesario encontrar sistemas que aceleren el proceso. Pero, como contrapartida, el trabajo colaborativo y distribuido facilita que el diseño de ontologías compartidas \”se realice de abajo a arriba en vez de estar impuesto desde un grupo reducido de expertos\”. (El artículo completo aquí).

¿Y cómo fue la jornada?

Para no perderse nada de lo allí acontecido, nada mejor que leer el Cuaderno de Bitácora escrito por uno de los asistentes. Para abrir boca, algunas de las mejores jugadas extraídas del mismo.

Hans-Georg Stork, responsable de la Web Semántica para el programa IST de la Comisión Europea, abría la sesión con la conferencia \”Navegando por la Red: por un viaje seguro en el espacio del conocimiento\”. Este profesional de las matemáticas y la informática comenzó con una analogía con HAL, la computadora que todo lo controla en 2001: una odisea en el espacio. Stork señaló las principales diferencias entre la Red actual y la que está por llegar, y mencionó entre otras cosas la necesidad de capitalizar la participación ciudadana, en diferentes niveles de compromiso, con el afán de la Web Semántica por ser desarrollada de una manera veloz y eficiente.

En \”La Web que piensa y aprende\”, Francis Heylighen, director del Centro de Investigación Leo Apostel, hizo una introducción sobre el \”Cerebro Global\” y afirmó que \”la Red que está por llegar optimizará la conexión y asumirá relevancia de los sitios de visita\”. A su vez, la intervención de Johan Bollen expuso con detalle la manera de comportarse de la Web Semántica y disertó acerca de los grados de importancia de las conexiones que cada usuario realice, permitiendo, de este modo, un conocimiento más preciso sobre su comportamiento en la Red y una memoria de los sitios más visitados.

Por aquél entonces ya flotaban en el aire muchas preguntas que encontrarían respuesta en la presentación de James Hendler, minutos más tarde. Hendler, investigador de Inteligencia artificial y colaborador de Tim Barnes-Lee, inventor de la World Wide Web, presentó una exposición sobre \”Los Agentes y la Web Semántica\” en directo desde la Universidad de Maryland, a través de una videoconferencia.

Más tarde intervino Luis Angel Fernández Hermana, quien principalmente habló de la creación de un Meta-en.medi@, que toma como punto de partida la base de datos almacenada en los distintos en en.medi@ (conjunto de documentos organizados en torno a un tema específico en el cual la participación escrita de los participantes es el capital principal) desarrollados por en.red.ando.

A su exposición siguió la conferencia de Cliff Joslyn, que se basó en la aplicación de la semántica en la Web a través de ejemplos claros y sencillos que permitieron aterrizar los conceptos previamente definidos.

Un maldito privilegio

Así definió Fernández Hermana –en un artículo bajo el mismo nombre–, la increíble oportunidad que tuvieron los asistentes de la II Jornada enredando por poder presenciar dicho evento que, según sus palabras: \”ha mostrado una serie de líneas de investigación que abren puertas inesperadas sobre la forma en que generamos información, cómo la enriquecemos, cómo la usamos e incluso con qué fines. En la superficie, daba la impresión de que los cambios que proponían estas investigaciones eran muy sutiles y discretos, sin embargo, bajo las aguas se adivinaban turbulencias muy complejas\”.

\”En el fondo\”, continuó el director de Enredando, \”estas nuevas formas de trabajar la información y el conocimiento en el entorno de las redes proponen diferentes visiones de la organización social que se teje a través del entramado de relaciones mediadas, directa o indirectamente, por las interacciones de millones de usuarios. La primera evidencia que surge es el poder potencial de las comunidades de conocimiento en red. Comunidades que no se definen por intereses corporativos, monetarios, de extracción social o de cualquier otro tipo, sino por la forma como logran agrupar lo que podríamos llamar \’conglomerados auto-organizados de conocimiento\’. Todo apunta a que estos conglomerados serán los ejes que estructurarán el futuro de la Red y está por ver su impacto sobre el mundo real\”.

(Nota: Todo el material de la I y II Jornada está disponible en Enredando y pronto lo estará también en una edición impresa)


Compartir en :


Noticias relacionadas

Recomendamos




Comentarios