LA POLÉMICA CARTA SOBRE LA INTELIGENCIA ARTIFICIAL

Compartir

Un grupo de expertos en inteligencia artificial y líderes de la industria tecnológica han hecho un llamado para detener por seis meses el entrenamiento de los sistemas de IA más poderosos. En una carta abierta, se advierte sobre los riesgos potenciales para la humanidad y se destaca que los laboratorios que trabajan con esta tecnología están en una carrera sin control para desarrollar y desplegar mentes digitales cada vez más poderosas que pueden ser difíciles de entender, predecir o controlar de manera confiable.

¿Por qué la AI preocupa tanto a los expertos académicos?

Por Gabriel E. Levy B.

www.galevy.com

La carta abierta publicada recientemente que pide frenar la investigación en IA al menos por seis meses, fue suscrita por más de mil personas, incluidos el empresario Elon Musk; el cofundador de Apple, Steve Wozniak; el director ejecutivo de la firma Stability AI, Emad Mostaque, así como por investigadores de la empresa DeepMind.

Los suscriptores de la carta abierta exhortan a las entidades empresariales involucradas en la construcción de inteligencia artificial a que efectúen una pausa inmediata en el adiestramiento de los sistemas más innovadores en la materia, como lo es el GPT-4, por un periodo no menor a seis meses[1].

Las condiciones propuestas para la pausa

La pausa propuesta debería ser de carácter público y su validez comprobable, involucrando a todas las partes clave en la temática.

En caso de que su implementación no resulte factible de manera expedita, el documento sugiere que los gobiernos intervengan y decreten una suspensión. La misiva fue emitida por el Future of Life Institute, una organización sin fines de lucro que cuenta con la asesoría externa de Elon Musk y destaca la preocupación por los profundos riesgos que la IA plantea a la sociedad y la humanidad.

Tanto el GPT-4 como el ChatGPT son tipos de inteligencia artificial generativa, que se basan en el empleo de algoritmos y texto predictivo para generar nuevo contenido en línea con instrucciones previas.

Un informe del banco de inversión Goldman Sachs, publicado por el medio británico BBC, asegura que la inteligencia artificial podría reemplazar el equivalente a 300 millones de empleos de tiempo completo[2].

El informe destaca que esta tecnología podría reemplazar una cuarta parte de las tareas laborales en EE. UU. y Europa, pero también puede generar nuevos puestos de trabajo y aumentar la productividad. Los expertos consultados sobre este tema señalan que es difícil predecir el efecto que tendrá la inteligencia artificial en el mercado laboral[3].

La pregunta que inquieta a los expertos

La carta firmada por los expertos en inteligencia artificial y líderes de la industria tecnológica pregunta si deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, dejarnos obsoletos y reemplazarnos.

OpenAI, la empresa detrás de GPT-4, ha advertido sobre los potenciales riesgos de la tecnología y ha señalado que una superinteligencia desalineada podría causar un daño.

Algoritmos que amenazan nuestro modelo actual

La inteligencia artificial es una tecnología en constante evolución que ha generado preocupación sobre los posibles riesgos que podría representar para la humanidad.

Algunos expertos en el campo han alertado sobre el riesgo de que las máquinas superen a los humanos en inteligencia y autonomía, lo que podría resultar en una amenaza existencial para la humanidad.

Además, la automatización y la eliminación de empleos podría conducir a una creciente desigualdad económica y social, así como a problemas éticos relacionados con la privacidad y la toma de decisiones.

¿Son más los beneficios que los riesgos?

Si bien los riesgos asociados a la inteligencia artificial son evidentes, no puede desconocerse que la tecnología tiene el potencial de impulsar avances significativos en áreas como la atención médica, la seguridad y la protección ambiental.

De otro lado, los riesgos podrían ser mitigados a través de la regulación y la implementación de sistemas de control adecuados, tal y como ha ocurrido en el pasado con otras tecnologías.

La IA ha transformado la forma en que las empresas operan, los médicos diagnostican enfermedades y los científicos hacen descubrimientos. La IA tiene el potencial de mejorar la eficiencia y la precisión en diversas áreas, incluyendo la atención médica, la seguridad y la protección ambiental, y la automatización de tareas tediosas y repetitivas en el trabajo. Si bien es importante abordar y mitigar los riesgos de la IA, no se puede ignorar el potencial que tiene para transformar nuestras vidas de maneras significativas y positivas.

Tímidos avances regulatorios en el mundo

En la actualidad, la regulación de la tecnología de inteligencia artificial es un tema candente en todo el mundo, y la mayoría de países están evaluando la necesidad de regulaciones específicas para abordar los riesgos y los desafíos asociados con esta tecnología. En este sentido, en EE. UU., la Administración de Investigación y Desarrollo Avanzado en Defensa (DARPA, por sus siglas en inglés) ha anunciado un programa para invertir más de USD 2000 millones en investigación en IA en los próximos cinco años, el cual será observado de cerca por la FCC.

En la Unión Europea, la Comisión Europea ha presentado un marco regulatorio para la IA que incluye la creación de un Consejo Europeo de Inteligencia Artificial y un Instituto de Inteligencia Artificial.

Este marco propone un enfoque basado en la evaluación del riesgo y la clasificación de las aplicaciones de IA según su impacto en la sociedad.

El Reino Unido ha tomado una posición diferente en cuanto a la regulación de la IA; descartó la creación de un organismo regulador específico y optó, mejor, por un enfoque basado en la ética y la transparencia, con la creación del Centro de Ética e Innovación de Inteligencia Artificial en 2018.

Este centro tiene como objetivo proporcionar asesoramiento ético sobre el desarrollo y la implementación de tecnologías de IA.

Si bien la falta de un organismo regulador dedicado en el Reino Unido puede ser preocupante para algunos, otros argumentan que el enfoque en la ética y la transparencia es una forma efectiva de abordar los riesgos de la IA.

A medida que la IA continúa evolucionando y afectando a la sociedad de diversas maneras, es probable que sigan surgiendo nuevas propuestas y debates sobre la regulación adecuada de esta tecnología.

En conclusión, la inteligencia artificial es una tecnología en constante evolución que ha generado tanto preocupación como entusiasmo.

Si bien es cierto que existen riesgos potenciales asociados a la IA, como la automatización de empleos y la amenaza de una superinteligencia que supere la capacidad humana de comprensión y control, es importante destacar que los beneficios de esta tecnología son significativos.

La IA ha mejorado la eficiencia y la precisión en diversas áreas, incluyendo la atención médica, la seguridad y la protección ambiental.

A través de la regulación y la implementación de sistemas de control adecuados, es posible maximizar los beneficios de la IA mientras se minimizan los riesgos potenciales.

[1] Portafolio. (30 de marzo de 2023). Más de 1.000 expertos piden frenar la IA: ‘Es una amenaza’. https://www.portafolio.co/innovacion/inteligencia-artificial-las-razones-por-las-que-mas-de-1-000-expertos-piden-frenarla-580592

[2] BBC News. (29 de marzo de 2023). La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una “amenaza para la humanidad”. https://www.bbc.com/mundo/noticias-65117146

[3] Op. Cit. https://www.bbc.com/mundo/noticias-65117146

 

Deja un comentario

Facebook
Facebook
YouTube
YouTube
Instagram
Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente