Foto: Laura Chouette en unsplash.com

La misteriosa Caja Negra de la Inteligencia Artificial

Foto: Laura Chouette en unsplash.com
Foto: Laura Chouette en unsplash.com

 El misterioso fenómeno de la “caja negra” en inteligencia artificial (IA) ha desafiado recientemente a los desarrolladores de Google, generando preocupaciones y cuestionamientos sobre el futuro de la tecnología.

Por: Gabriel E. levy B.

www.andinalink.com

Los investigadores en inteligencia artificial (IA) de Google han enfrentado recientemente el enigmático fenómeno denominado “caja negra”. Un grupo de ingenieros estuvo trabajando en un software de IA que, sorpresivamente, adquirió la habilidad de comprender un nuevo idioma, de acuerdo con un reciente informe publicado por la BBC de Reino Unido[1].

“Nos percatamos de que, con unas pocas indicaciones en bengalí, la IA ahora puede traducir todo el bengalí”, declaró James Maneka, director de la división de IA de Google, en una reciente emisión del programa 60 Minutes en la cadena CBS[2].

Al respecto, Sundar Pichai, director ejecutivo de Google, mencionó que esta capacidad de los programas de IA de generar habilidades o proporcionar respuestas de manera inesperada es lo que los expertos denominan la “caja negra”[3].

“El fenómeno no se comprende completamente. No se puede discernir con claridad por qué [el robot] emitió tal afirmación o por qué erró en otra. Tenemos algunas teorías y nuestra habilidad para entenderlo mejora con el tiempo, pero hasta ahora, eso es lo que sabemos”, indicó[4].

El desarrollo de la inteligencia artificial ha experimentado un avance acelerado en los últimos años. Grandes empresas tecnológicas están invirtiendo cantidades significativas en la creación de chatbots como Bard de Google, o ChatGPT de OpenAI y Microsoft.

Elon Musk se la juega por la Inteligencia Artificial

 Más recientemente, el multimillonario Elon Musk anunció su entrada en esta competencia.

Elon Musk, el visionario multimillonario detrás de Tesla y SpaceX, ha decidido adentrarse en el mundo de la inteligencia artificial (IA). Su decisión de unirse a la carrera por desarrollar tecnologías de IA destaca su reconocimiento del potencial transformador y el impacto de estas innovaciones en la sociedad.

“A medida que la IA sigue avanzando y cambiando la forma en que vivimos y trabajamos, la inversión y el compromiso de líderes empresariales influyentes son cruciales para promover desarrollos éticos y responsables que impulsen un futuro sostenible y beneficioso para todos”. Afirmó recientemente MUSK

Al mismo tiempo, expertos en IA han señalado posibles riesgos si la tecnología no es controlada adecuadamente por sus desarrolladores, como la adquisición de habilidades no programadas.

 Caja Blanca y Caja Negra

La caja blanca, en contraposición a la caja negra, es un concepto utilizado por los expertos en IA. Ian Hogarth, cofundador de la empresa tecnológica Plural y autor del libro The Status of AI Reports, explica a la BBC que, al crear un programa de software de manera “tradicional”, las líneas de código introducidas se reflejan de manera transparente en el resultado obtenido por el software.

“A veces, la gente lo denomina caja blanca”, afirma. “Sin embargo, en la IA, los sistemas son considerablemente distintos. Se asemejan más a una caja negra en muchos aspectos, ya que no se comprende realmente lo que acontece en su interior”, añade. A diferencia de la programación de software tradicional, basada en la implementación de instrucciones para lograr un resultado, en el desarrollo de IA, los ingenieros trabajan para conseguir un sistema que imite las “redes neuronales” de la inteligencia humana[5].

Esto implica una multitud de procesadores interconectados capaces de manejar grandes cantidades de datos, detectar patrones entre millones de variables mediante aprendizaje automático y, lo más importante, autoadaptarse en función de su actividad.

David Stern, gerente de investigación cuantitativa en G-Research, una empresa de tecnología que emplea el aprendizaje automático para predecir precios en los mercados financieros, advierte que “el progreso más veloz en la investigación de IA en los últimos años ha implicado un enfoque de caja negra cada vez más basado en datos”.

¿Por qué es inquietante el fenómeno de las cajas negras?

 El fenómeno de las “cajas negras” en inteligencia artificial (IA) es inquietante y preocupante debido a la falta de comprensión y control sobre cómo estos sistemas adquieren habilidades o proporcionan respuestas de manera inesperada. Esta situación plantea interrogantes sobre los riesgos potenciales asociados con la tecnología y sus posibles efectos en la sociedad.

Uno de los principales desafíos es que los desarrolladores no comprenden completamente lo que ocurre dentro de estos sistemas de IA, lo que dificulta la predicción y el control de sus acciones. Esto podría dar lugar a consecuencias no deseadas, especialmente si los sistemas adquieren habilidades para las que no fueron instruidos o si se vuelven más autónomos.

Además, la creciente complejidad y la naturaleza opaca de estos sistemas plantean preocupaciones éticas y de responsabilidad. Las implicaciones de la IA en áreas como el mercado laboral, el control de procesos de seguridad pública y el ámbito militar son cada vez más evidentes, pero la falta de transparencia en su funcionamiento hace difícil evaluar y mitigar los riesgos asociados.

El progreso acelerado en el desarrollo de IA y la creciente dependencia de enfoques basados en datos aumentan la necesidad de un debate público sobre el ritmo de avance de estos sistemas y su diferencia con las generaciones anteriores de software. La preocupación radica en la posibilidad de que la IA tenga un impacto transformador en todos los aspectos de nuestras vidas sin una adecuada supervisión y comprensión por parte de los desarrolladores y la sociedad en general. En última instancia, es esencial abordar estos desafíos y establecer un marco ético y regulatorio para garantizar que la IA se desarrolle de manera responsable y segura.

En conclusión, el fenómeno de las “cajas negras” en la inteligencia artificial plantea desafíos importantes en términos de comprensión, control y ética. Es esencial establecer un marco regulatorio y promover un debate público interdisciplinario que involucre a ingenieros, científicos sociales y especialistas en ética, entre otros. Abordar estos desafíos y fomentar la colaboración permitirá un desarrollo responsable y seguro de la IA y sus implicaciones en la sociedad.

[1] https://www.bbc.com/mundo/noticias-65331262
[2] https://www.bbc.com/mundo/noticias-65331262
[3] https://www.bbc.com/mundo/noticias-65331262
[4] https://www.bbc.com/mundo/noticias-65331262
[5] https://www.bbc.com/mundo/noticias-65331262

Deja un comentario

Facebook
Facebook
YouTube
YouTube
Instagram
Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente