Hand of Businessman touching hologram screen with world map background. NLP Natural Language Processing cognitive computing technology concept.
Aunque motores de búsqueda como el de Google representaron un salto exponencial en la forma en que se localiza información en la red, varias décadas después los resultados siguen apareciendo más como una lista de mercado que como una respuesta adecuada a las necesidades del usuario.
Tecnologías emergentes basadas en modelos de “Procesamiento de Lenguajes Naturales – PLN”, prometen revolucionar las búsquedas de información en la web, intentando que los resultados brinden un mayor contexto.
¿Será el “Lenguaje Natural” el futuro de las búsquedas en Internet?
Por: Gabriel Levy B.
www.galevy.com
El concepto de: “Procesamiento de Lenguaje Natural PLN” (NLP), pertenece a los campos académicos de: Las Ciencias de la Computación, de la Inteligencia Artificial y la Lingüística, que tiene por objeto estudiar las interacciones entre las computadoras y el lenguaje humano.
El PLN promueve mecanismos eficaces para la comunicación entre personas y máquinas, mediante bits de datos del lado de la maquina y una simulación eficiente del lenguaje natural del lado de las personas, es decir termina siendo en la práctica un sistema de traducción entre dos lenguajes, la primera en el campo de la ingeniería y la otra de las humanidades.
El propósito principal del PLN es diseñar mecanismos para que las comunicaciones sean eficaces en términos computacionales, comprensibles y funcionales en términos humanos.
Los modelos aplicados promovidos por los creados del PLN, se enfocan no solo a la comprensión del lenguaje, sino a aspectos neurológicos, como la organización adecuada de la memoria y la cognición humana.
Los avances de Google en la materia: el LaMDA
Recientemente durante un evento especializado, el CEO de Google: Sundar Pichai, realizó una demostración de su último avance en la comprensión del lenguaje natural, un chatbot autónomo diseñado por Google, el cual está en capacidad de conversar sobre cualquier tema, se trata de: LaMDA.
LaMDA es un “modelo de lenguaje para aplicaciones de diálogo” que ha sido entrenado por los ingenieros de Google para crear conversaciones realistas y brindar respuestas adecuadas en contextos humanos, buscando que tenga la capacidad de reconocer matices y adaptaciones idiomáticas.
Las habilidades conversacionales detrás de LaMDA llevaron años de investigación y desarrollo, algo que finalmente fue posible gracias a un tipo de Inteligencia Artificial llamada: Transformer, la cual es en esencia una arquitectura de red neuronal con capacidad para aprender de las conversaciones humanas.
“Esa arquitectura produce un modelo que se puede entrenar para leer muchas palabras (una oración o párrafo, por ejemplo), y para prestar atención a cómo esas palabras se relacionan entre sí, pudiendo predecir qué palabras cree que vendrán después.
Pero a diferencia de la mayoría de los otros modelos de lenguaje, LaMDA se entrenó en el diálogo. Durante su formación, recogió varios de los matices que distinguen la conversación abierta de otras formas de lenguaje. Uno de esos matices es la sensatez[1]“.
Durante la demostración realizada por el CEO de Google, LaMDA respondió una serie de preguntas sobre Plutón, todo en lenguaje natural, mostrando esa sencilla forma de obtener información como una alternativa al buscador.
La tecnología en vez de enumerar resultados después de escribir las preguntas en un cuadro de búsqueda, es decir aportar una lista de mercado, LaMDA desarrolló una conversación bastante funcional sobre este cuerpo celeste:
“PICHAI: Dime qué vería si me fuera ahí.
LAMDA: Verías un enorme cañón, unos icebergs congelados y algunos cráteres.
P: Parece bonito.
L: Te aseguro que vale la pena el viaje. Sin embargo, deberás llevar ropa de abrigo, porque hace mucho frío[2].”
En etapa de Desarrollo
El modelo lingüístico de inteligencia artificial (IA) sobre el cual está construido LaMDA, se encuentra aún en una etapa muy incipiente de desarrollo, razón por la cual frente a toda la expectativa generada, Google aseguró que de momento no tiene planes de usar esta tecnología en algunos sus productos, dado que los resultados en muchos aspectos serían muy impredecibles, sin embargo la compañía aseguró que en la actualidad el equipo de desarrolladores la está utilizando para explorar nuevas formas de interactuar con los ordenadores y de buscar información.
No es la primera experiencia
Si bien LaMDA ha descrestado a los científicos de todo el mundo por la calidad con la que aborda temas cotidianos y su desempeño para comunicarse de forma eficiente con los humanos, es importante resaltar que esta no es la primera experiencia y que incluso en el mercado es posible encontrar productos a la venta que cumplen esta tarea, como es el caso de ALEXA el asistente de Amazon, SIRI el de Apple o el mismo OYE GOOGLE.
La principalmente diferencia entre estos desarrollos previos y la nueva propuesta de LaMDA es la calidad y profundidad de las interacciones, algo nunca visto en el dialogo entre las máquinas y los humanos.
Falta mucho camino por recorrer y muchas dudas por aclarar
Si bien la expectativa por los sistemas LDA de Procesamiento de Lenguaje Natural crece alrededor del mundo, las críticas también crecen como espuma, especialmente en ciertos sectores académicos que han venido trabajando el tema del impacto negativo de las TIC en la vida de las personas.
“Hacer una pregunta a un ordenador y obtener una respuesta en lenguaje natural puede ocultar la complejidad detrás de una apariencia de autoridad que no se merece. Nos hemos centrado demasiado en lo que podemos hacer y no hemos analizado lo que deberíamos hacer”,
Chirag Shah, especializado en buscadores. Profesor de la Universidad de Washington (EE UU) [3]
Emily M. Bender, profesora de la Universidad de Washington especializada en lingüística computacional y cuestiones éticas relativas al procesamiento del lenguaje natural, publicó un artículo en el cual afirma que existe demasiada prisa por adoptar los chatbots para tareas para las que no están diseñados. En particular, teme que el uso de modelos basados en lenguaje natural para la búsqueda pueda generar desinformación y un debate polarizado.
“La fantasía de Star Trek, con ese ordenador que lo sabe todo, al que se pueden hacer preguntas y simplemente las responde, no es ni lo que podemos proporcionar ni lo que necesitamos”,
Emily Bender[4].
El Modelo Multitareas MUM propuesto por Google:
El año pasado, el investigador de Google Don Metzler propuso reinventar el motor de búsqueda que utiliza la compañía, convirtiéndolo en un aplicativo de conversación bidireccional entre el usuario y la máquina, con ordenadores respondiendo a las preguntas como lo haría un experto humano a través de un modelo unificado multitarea (MUM), construido sobre un modelo de lenguaje natural y diseñado para responder las consultas de los usuarios recopilando información de diferentes fuentes.
“Estamos profundamente comprometidos con el avance de la comprensión del lenguaje porque hace que los productos como la Búsqueda de Google sean más útiles para la gente”, asegura Jane Park, directora de comunicación del equipo de Buscadores de Google, quien añade, que, sin embargo, Google aún no tiene planes para convertir este nuevo ámbito de investigación en productos: “Sabemos que hay una serie de desafíos abiertos en la comprensión del lenguaje y por eso estamos adoptando un enfoque muy cauteloso” [5].
Imitaciones irracionales
Un análisis realizado por el MIT Technology Review, el medio especializado del Instituto Tecnológico de Massachusetts, encontró que los chatbots y la IA pueden imitar el lenguaje natural con un realismo impresionante, gracias a que son entrenados con cientos de libros y una enorme cantidad de páginas web, absorbiendo enormes cantidades de información, sin embargo concluyen que no pueden aún ser utilizados como moteres de búsqueda, pues en esencia todos los modelos actuales de procesamiento de lenguaje, son básicamente imitadores irracionales, es decir que si bien pueden llegar a ser sorprendentemente precisos al predecir las palabras o expresiones con más probabilidades de aparecer en una frase o conversación, finalmente no entienden o comprenden una sola palabra de que lo dicen, es decir les falta contexto o marcos de referencia[6].
Este es el dilema. Las respuestas directas pueden ser convenientes, pero también suelen ser incorrectas, irrelevantes u ofensivas. Pueden ocultar la complejidad del mundo real, advierte Benno Stein, profesor de la Universidad Bauhaus en Weimar (Alemania[7]).
En Conclusión, si bien la humanidad ha logrado impresionantes avances en el campo del procesamiento natural del lenguaje PLN, la realidad es que esta tecnología aún se encuentra en etapa de desarrollo y aunque en apariencia los sistemas son capaces de sostener conversaciones, la realidad es que las máquinas aún no comprenden el significado de lo que dicen, es decir carecen de contexto o marcos de referencia, razón por la cual y ante la complejidad de los temas que abordamos como especie, no es posible confiarle aún a esta tecnología nuestra búsquedas en línea.