Consecuencia de esta revolución ha sido la universalización del conocimiento y la información. Los opositores más reaccionarios a internet alegan precisamente que esta universalización ha llegado también a los comportamientos más execrables del ser humano, pero se ha de dejar claro que lo único que ha hecho ha sido sacarlos a flote. La red de redes sólo ha tejido una tupida malla por la que todo se hace accesible de manera instantánea, dando sustento a la aldea global; de lo que se vierte en ella, tanto bueno como malo, somos responsables todos nosotros.
Bajo esta premisa podemos admitir que tendemos a convertir a internet en la mayor fuente de información disponible para la humanidad. En escasamente diez años hemos acumulado de forma exponencial el conocimiento disponible en la red, y hoy en día es nuestro recurso más inmediato cuando necesitamos conocer algo de cualquier ámbito: desde buscar la cartelera de cine hasta el concepto filosófico más rebuscado. Pero es aquí donde realmente internet se muestra más débil. No es que vaya a morir de éxito, pero la cantidad de información que nos vuelca en cualquier consulta nos abruma: miles de resultados con poca precisión, resultados altamente sensibles al vocabulario, información no clasificada y resultados inconexos. Sólo es necesario analizar los resultados de una consulta tan cerrada en cuanto a su intención, pero tan abierta en cuanto a su léxico, para darnos cuenta de lo que decimos (Fig. 1: Resultados de Google en la cadena de búsqueda “información proyecto investigación EPOC”. EPOC: Enfermedad Pulmonar Obstructiva Crónica)
¿Por qué sucede esto? Un enfoque lingüístico puede ayudarnos a comprender (que no justificar) la frustración que muchas veces nos produce una búsqueda mal concluida en cualquier buscador. Los académicos nos dicen que la primera acepción del término sintaxis es “parte de la gramática que enseña a coordinar y unir las palabras para formar las oraciones y expresar conceptos”. De igual forma, semántico,ca hace referencia al “estudio del significado de los signos lingüísticos y de sus combinaciones”. Más directo: la sintaxis regula cómo construir frases y la semántica qué significado les damos a las mismas. La complejidad de los idiomas radican exactamente en su potencialidad: la combinación infinita de términos para expresar ideas, así como la polisemia (distintos significados para un mismo término) de las palabras. Esto es lo que permite no sólo la comunicación diaria, sino la creación de nuevas ideas, el humor o la belleza a través de la poesía.
Pero el ordenador, como toda máquina que se precie, es tonto. Y el procesamiento que realiza la web de cualquier consulta lo ejecuta desde un enfoque sintáctico, usando las palabras como elementos de entrada y aplicando algoritmos más o menos complejos para devolver resultados que en la mayoría de los casos requiere de un posterior cribado y una depuración reiterativa de la consulta efectuada. Si aún no lo han entendido, busquen “adoro el tenis” y “me gusta jugar al tenis”: semánticamente es lo mismo, pero el procesamiento sintáctico que realiza internet da al traste con nuestras ilusiones.
Está bien, el problema es evidente (y sufrido por todos). Para su resolución existen dos enfoques completamente distintos. El más conocido sería el desarrollo de la inteligencia artificial: hacer máquinas más inteligentes que permitan conectar nuestras necesidades con los recursos existentes. Pero déjenme que dude de que el robot con estilo manga que a duras penas sube la escalera, sea capaz de mostrarme los últimos avances en la investigación de la EPOC.
Y en segundo lugar tenemos el enfoque de la web semántica: hacer datos más inteligentes. Por definición la podríamos considerar una utopía: desarrollar la web bajo un entorno en el que sea el lenguaje de las computadoras el que entienda el humano y no al revés.
Desde un punto de vista más académico, la web semántica implica una infraestructura común, mediante la cual se pueda compartir, procesar y transferir información de forma sencilla (W3C). Esta infraestructura hace que las máquinas comprendan el significado de la información. Esto implica en un primer nivel una red de significados, una información clasificada, una jerarquía de datos, una infraestructura ordenada y la conversión de la red en una imponente base de datos.
Si después de leer el párrafo anterior ha seguido leyendo sólo puedo decirle dos cosas. Gracias abuela, o verdaderamente tiene interés en la web semántica. Asumiendo esta segunda opción como la válida, intentaremos ser más claros: la filosofía de la web semántica se dirige a crear unas normas comunes para la información disponible en la web, incidiendo especialmente en su categorización previamente acordada, que permita una interpretación semántica de dicha información por parte de los motores de búsqueda en internet. Simplemente imaginen un recurso en la web (documento, resultado de investigación, perfil público de un profesional, etc.) cuyo autor lo haya descrito mediante una serie de propiedades (por ejemplo: autor, revisión, temática, ontología…) y sus respectivos valores (Dr. Juan García, 1.2, EPOC, medicina humana….) siguiendo unas normas universales consensuadas previamente y aplicadas por todos los autores. Esto nos permitiría de forma más sencilla y eficaz ajustar nuestros criterios de búsqueda a la información disponible en ese momento.
Obviamente estamos hablando de metadatos (datos que describen a otros datos) y seamos sinceros, no hay nada nuevo en esto. La catalogación bibliográfica o cualquier otra taxonomía son claros ejemplos de que poco de nuevo hay en los últimos siglos. Igualmente estamos hablando de ontologías, aunque esto da materia para otro artículo, o incluso para una vida dedicada al estudio y a la vida contemplativa.
Nos encontramos por lo tanto ante un anhelo, a la que muchos llaman web 3.0. Esperar que toda la información en internet se catalogue de una forma ordenada y mediante reglas prefijadas es quizás una utopía… pero las utopías se cumplen en internet. Si hace veinte años alguien nos hubiera dicho que podríamos escribir cartas y que en cuestión de segundos serían recibidas por el destinatario en cualquier parte del mundo, lo hubiéramos tachado de loco seguidor de Hal 9000. Sin embargo, pensar hoy que internet está abocado a su versión 3.0 no es descabellado. Dense una vuelta por la Wikipedia si aún no les he convencido.
Rafael Palomino Rodríguez//José Antonio García Ureña
QUODEM CONSULTORES