Foto: This is engineering aeng en Unspash.com

El gran reto de la humanidad frente a la inteligencia artificial

Compartir
Foto: This is engineering aeng en Unspash.com
Foto: This is engineering aeng en Unspash.com

Los nuevos desarrollos alcanzados en los últimos años en materia de inteligencia artificial han desencadenado euforia en la industria tecnológica, que promete un futuro automatizado, cómodo y simple para la civilización humana. Sin embargo, algunos científicos y otros expertos en la materia no comparten el mismo entusiasmo y alertan sobre potenciales riesgos.

¿Cuáles son los mayores retos que subyacen al desarrollo de la inteligencia artificial?

Por Gabriel E. Levy B.
www.galevy.com

Para abordar este complejo tema, es importante aclarar que, en todos los casos conocidos, el concepto de inteligencia artificial está ligado al concepto de algoritmo.

En términos mucho más sencillos, un algoritmo o código de programación es una secuencia de instrucciones que se le da a un software, o sistema computarizado, para que ejecute una determinada tarea con la que simula un comportamiento autónomo. A solo unas décadas de haber comenzado el reinado de los algoritmos, estas rutinas son muy variadas, diversas y versátiles.

Los algoritmos, específicamente los vinculados a los sistemas de bases de datos e información personal, son responsables de la elaboración de muchos de los perfiles que evalúan aspectos transversales de la sociedad contemporánea, desde el rendimiento en nuestro trabajo hasta la situación económica, pasando por la publicidad que recibimos, los análisis de nuestra salud, el registro de los lugares que visitamos y la identificación de los contenidos que consumimos; es decir, datos que resumen nuestras vidas.

Como lo hemos abordado ampliamente en otros artículos, si bien bancos, aseguradoras, gobiernos y empresas, cuya operación se basa en el manejo de información personal, han venido implementando con los años el uso de los algoritmos, no son ellos los principales gestores de estas tecnologías. Son las grandes compañías de internet las que recaban masivamente nuestra información y la procesan a través de códigos computarizados, pudiéndose afirmar, casi con certeza, que nos conocen incluso mejor que nosotros mismos.

Compañías como Facebook, Alphabet Inc. (propietaria de Google), Apple, Amazon, Netflix, Ebay o Tripadvisor, entre muchísimas otras, tienen acceso a información sobre aspectos de nuestras vidas que incluso los amigos y parientes ignoran. Saben qué tipo de contenido consumimos, nuestra ideología política, quiénes son nuestros amigos y familia, qué lugares visitamos, qué comida nos gusta, cuáles películas vemos, qué tipo de fotos compartimos, con quién nos reunimos, qué opinión tenemos frente a temas sensibles, con qué frecuencia nos conectamos a internet, qué tipo de dispositivos poseemos y cómo los utilizamos.

Por supuesto, esa información termina influyendo en el tipo de publicidad que recibimos, la información a la que estamos expuestos y los contenidos que se nos ofrecen en nuestros dispositivos, entre otras variables.

Nuestra información actúa como moneda de cambio, pues la gratuidad de servicios como el correo electrónico o las redes sociales se compensa con el uso de nuestros datos para fines publicitarios.

Los algoritmos obtienen la información de múltiples fuentes, la mayoría de ellas relacionadas con nuestro comportamiento en internet. A partir de nuestros hábitos de consulta, visualización, consumo y compra en línea se determina un perfil sobre nosotros a partir del cual intentan manipular nuestro comportamiento y se nos segmenta para que recibamos ofertas y contenido publicitario.

La discriminación de los algoritmos

Un estudio publicado en 2020 por la Universidad de George Washington, en los Estados Unidos, descubrió que el algoritmo de Uber y otras aplicaciones de transporte aplican una tasa más alta de cobro cuando el viaje es a zonas deprimidas o donde habitan personas con bajos recursos económicos, especialmente si se trata de zonas habitadas por personas afrodescendientes o latinas[1].

Los investigadores analizaron datos de más de 100 millones de viajes que ocurrieron en la ciudad de Chicago, entre noviembre de 2018 y diciembre de 2019. Cada viaje contenía una gran variedad de información, como punto de inicio y fin del viaje, duración, costo o si fue un viaje compartido o individual, así como el origen étnico del cliente.

“Tras analizar datos del censo de transporte de la ciudad de Chicago, se llegó al hallazgo de que estas compañías cobran un mayor precio por milla por viajes cuyo destino es una zona con mayor proporción de residentes pertenecientes a una minoría étnica que a vecindarios mayoritariamente blancos. Básicamente, si vas a un vecindario con una gran población negra, pagarás un precio más alto por tu viaje”. Aylin Caliskan, coautora del estudio[2].

COMPAS es un software para el procesamiento judicial, es utilizado por el sistema de justicia en al menos diez estados de Norte América, donde los jueces lo emplean como ayuda para emitir sentencias. Este algoritmo se basa en estadísticas criminales y en varias ocasiones diversas organizaciones sociales y abogados litigantes han denunciado que, si el incriminado es de origen latino o de raza negra, el software tiende a calificar al sospechoso como “de alto riesgo de cometer nuevos crímenes”[3].

En este orden de ideas, un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación ProPublica, mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes[4].

Por otra parte, un estudio realizado por los investigadores norteamericanos Gideon Mann y Cathy O’Neil, publicado en Harvard Business Review, encontró que los programas o los algoritmos encargados de realizar la preselección de hojas de vida para empresas y corporaciones en los Estados Unidos, no están desprovistos de  prejuicios ni sesgos propios de los humanos, razón por la cual la selección no es objetiva y muchos perfiles pueden llegar a ser descartados simplemente por una idea preconcebida de quién programó el código[5].

La mirada crítica de Daniel Innerarity

En una entrevista publicada por el medio español El País, el filósofo Daniel Innerarity asegura que “estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advirtiendo que en unos años puede ser demasiado tarde y las consecuencias para la humanidad impredecibles; máxime que “la democracia no está a la altura de la complejidad del mundo[6]”.

Para Innerarity, la mayor dificultad en el abordaje de la inteligencia artificial parte del error mismo de compararla con la inteligencia humana, pues son muy distintas.

“Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos impuestos, también, si contamos chistes, también. Porque estamos hablando de dos inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución”[7].

Pero no solo Daniel Innerarity tiene esta mirada,  Kenneth Cukier, Viktor Mayer y Francis de Véricourt, autores del libro Framers, la virtud en la era digital, coinciden en que imaginar realidades alternativas nos permite convertir el razonamiento causal en algo procesable, permitiendo analizar las causas potenciales para determinar sus particulares efectos. Por esta razón, ambos elementos, es decir el “pensamiento contrafactual y el razonamiento casual”, se fortalecen entre ellos y es lo que nos convierte en seres cognitivamente superiores a otras especies y máquinas, lo que significa que las máquinas no poseen, ni es probable que vayan a poseer, la capacidad para desarrollar un pensamiento contrafactual.

“Sin la causalidad nos ahogaríamos en un mar de sucesos, despojados de significado. Sin la contrafactualidad seríamos prisioneros de lo que existe, despojados de opciones”[8].

Para Daniel Innerarity existen muchos ejemplos respecto de cómo hemos sobrevalorado la supuesta inteligencia artificial, al tiempo que tenemos serias dificultades para comprender las dimensiones que subyacen a dicha inteligencia. Le atribuye dicha sobrevaloración, en muchos casos, a la industria que quiere vendernos un futuro mejor. No obstante, en otros casos, también la subvaloramos por cuenta del escepticismo normal que suscita cualquier nuevo desarrollo tecnológico.

“Hemos pasado, en un año, de pensar que la inteligencia artificial va a salvar la política, después de lo de Cambridge Analytica, a pensar que se va a cargar la democracia. ¿Por qué en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo contrario, como con las primaveras árabes? Esa especie de ola de democratización que esperábamos de internet no se ha producido. Y ahora la palabra internet la asociamos al discurso del odio, la desinformación, etcétera. Cuando ante una tecnología tenemos actitudes tan dispares, eso significa que no la estamos entendiendo bien. Porque es verdad que internet horizontaliza el espacio público, acaba con la verticalidad que nos convertiría a los ciudadanos en meros espectadores o subordinados. Pero no es verdad que democratice por sí misma, sobre todo porque la tecnología no resuelve la parte política de los problemas políticos”[9].

 La difícil ruta de garantizar la Neutralidad de los Algoritmos

Históricamente cuando un desarrollo tecnológico tiene un potencial riesgo de concentración o de uso indebido, el mecanismo regulatorio de neutralizar dicha tecnología ha demostrado ser eficaz. De esta forma, internet, por ejemplo, a los pocos años de su consolidación, se declaró una red neutral. En el caso de muchas tecnologías en el sector de las telecomunicaciones se ha utilizado esta figura.

Existe la posibilidad de declarar los algoritmos como neutrales y, por consiguiente, la inteligencia artificial no es la excepción.

El tema de la neutralidad de los algoritmos ha sido ampliamente discutido por los académicos en la última década; sin embargo, existen pocos avances al respecto, muy probablemente porque sigue siendo un asunto que aún no migra del plano académico al escenario legislativo.

En el contexto mediático poco se conoce del tema; posiblemente el principal referente sea el escándalo de Facebook y la empresa británica Cambridge Analytica[10],  que prendió las alarmas en la opinión pública cuando quedó al descubierto que nuestra información podría estar siendo utilizada para privilegiar intereses privados, políticos y económicos sin nuestra expresa autorización, lo que rompe las políticas y los acuerdos de confidencialidad.

Este es un buen ejemplo de una situación en la cual los algoritmos dejan de ser neutrales; es decir, cuando pasan a beneficiar un interés, una persona o una organización en perjuicio de otras personas, intereses u organizaciones. Así quedó documentado en muchas campañas políticas alrededor del mundo, en donde el algoritmo de Cambridge Analytica buscó beneficiar a un candidato en perjuicio de otros, usando una mezcla de estrategias que incluyó el uso de información de los votantes, especialmente sus miedos y temores más profundos, para exponerlos a contenidos, en su gran mayoría falsos, que buscaban inducir el voto.

En otros casos, posiblemente lesivos, se ha demostrado que los algoritmos son utilizados para favorecer intereses comerciales. Tal es el caso de Amazon, que utiliza el código dentro de su propia tienda virtual para exhibir sus productos en los primeros lugares, por encima de todos sus competidores, o el caso de Google, que siempre exhibe en los primeros lugares búsquedas relacionadas con sus productos, es decir, si alguien escribe en el motor de búsqueda la palabra “correo electrónico”, le saldrá como primera opción “GMail”.

Por este tipo de prácticas Google recibió una millonaria sanción de 5.000 millones de dólares por parte de la Unión Europea, quien consideró en la sentencia que la empresa “bloquea la innovación abusando de su posición dominante”, entre otras cosas “a través de la configuración del algoritmo de su motor de búsqueda”[11].

Para Daniel Innerarity la discusión, incluso, debe involucrar no solo la neutralidad de los códigos, sino también la propiedad de los datos; es decir, regular o reglamentar la captura, el uso y la gestión de la información que las empresas y las organizaciones hacen de los datos de sus usuarios por internet.

“Hay que hacer una renovación de conceptos. Y es aquí donde los filósofos tenemos un papel que desempeñar. Por ejemplo, ahora se dice mucho: ¿de quién son los datos? A mí me parece que el concepto propiedad es un concepto muy inadecuado para referirse a los datos, que más que un bien público son un bien común, algo que no se puede apropiar, sobre todo porque el nivel de recogida que yo tolero condiciona enormemente el de los demás. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el concepto de soberanía, el concepto de poder… Hace falta una reflexión filosófica acerca de unos conceptos que se están utilizando de una manera inapropiada y que merecen una revisión. Y hay muchos centros en el mundo que lo están reflexionando desde el punto de vista ético y legal, y hay muy poca gente que lo está revisando desde el punto de vista político: ¿Cuál es la política de los algoritmos, qué impacto tiene esto en la democracia?“[12]

En conclusión, si bien la denominada inteligencia artificial, que no es más que la sofisticación de algoritmos, en muchos aspectos puede mejorar la calidad de vida humana, en paralelo representa un gran riesgo que diversos autores han referenciado.

El reto de que la inteligencia artificial juegue a favor de la humanidad y no en su contra, requiere de acciones regulatorias que garanticen la neutralidad de los algoritmos como un tema urgente y prioritario en las agendas gubernamentales, al tiempo que deben diseñarse políticas que definan reglas de juego claras para estos códigos de software.

 

 

[1] Pandey, A. y Caliskan, A. (2021). Disparate Impact of Artificial Intelligence Bias in Ridehailing Economy’s Price Discrimination Algorithms. George Washington University. Disponible en https://arxiv.org/pdf/2006.04599.pdf
[2] Ibíd.
[3] Duarte, F. (2018). 5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás no sabías. En BBC.com. Disponible en https://www.bbc.com/mundo/noticias-42916502
[4] Ibíd.
[5] Mann, G. y O’Neil, C. (2016). Hiring Algorithms are not Neutral. En Harvard Business Review. Disponible en https://hbr.org/2016/12/hiring-algorithms-are-not-neutral
[6] Salas, J. (4 de julio de 2022). Daniel Innerarity: “Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles”. En El País. Disponible en https://elpais.com/tecnologia/2022-07-05/daniel-innerarity-los-algoritmos-son-conservadores-y-nuestra-libertad-depende-de-que-nos-dejen-ser-imprevisibles.html
[7] Ibíd.
[8] Véricourt, F.; Mayer- Schönberger, V., y Cukier, K. (2021). Framers: La virtud humana en la era digital.
[9] Salas, J. (4 de julio de 2022). Daniel Innerarity: “Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles”. En El País. Disponible en https://elpais.com/tecnologia/2022-07-05/daniel-innerarity-los-algoritmos-son-conservadores-y-nuestra-libertad-depende-de-que-nos-dejen-ser-imprevisibles.html
[10] BBC Mundo. (20 de marzo de 2018). 5 Claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera USD$37.000 millones en un día. Disponible en https://www.bbc.com/mundo/noticias-43472797
[11] Ibíd.
[12] Salas, J. (4 de julio de 2022). Daniel Innerarity: “Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles”. En El País. Disponible en https://elpais.com/tecnologia/2022-07-05/daniel-innerarity-los-algoritmos-son-conservadores-y-nuestra-libertad-depende-de-que-nos-dejen-ser-imprevisibles.html

Deja un comentario

Facebook
Facebook
YouTube
YouTube
Instagram
Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente