Foto: Markus Spiske en unsplash.com

Estados Unidos quiere regular la Inteligencia Artificial

Compartir
Foto: Markus Spiske en unsplash.com
Foto: Markus Spiske en unsplash.com

En las últimas semanas la Casa Blanca puso de manifiesto la intención de poner en cintura los desarrollos de Inteligencia Artificial siguiendo los pasos de EUROPA, dejando claro que la nación y sus ciudadanos debe asumir la responsabilidad de todo lo que implica la inteligencia artificial (IA).

¿Cómo pretende Estados Unidos regular la Inteligencia Artificial?

Por: Gabriel E. Levy B.
www.andinalink.comwww.galevy.com

Estados Unidos alberga algunas de las empresas de tecnología de Inteligencia Artificial más grandes del mundo y, hasta ahora, ha sido uno de los pocos países occidentales sin una guía clara sobre cómo proteger a sus ciudadanos de las amenazas derivadas de esta tecnología, un campo en el que Europa lleva un largo recorrido con muchos avances en la materia.

Desde una perspectiva pragmática se podría afirmar que hasta ahora Estados Unidos se ha mostrado reacio a introducir nuevas regulaciones, incluyendo al gobierno Biden, que Hasta ahora se había limitado a pedir mayor protección de la privacidad y exigir de igual forma que las empresas tecnológicas dejen de recopilar datos privados de los ciudadanos[1].

Anteriormente durante el gobierno de TRUMP se había presentado un documento dirigido a todas las agencias estatales, compuesto por diez principios de referencia para la política pública y regulatoria sobre Inteligencia Artificial[2], sin mayores especificaciones y sin resolver los problemas de fondo.

 Un giro en la política

Recientemente el presidente Joe Biden sorprendió al mundo al presentar una nueva Declaración de derechos de la IA que destaca cinco barreras de defensa que los estadounidenses deben conocer. Lo relevante de esta declaración, es que por primera vez se aborda una posible regulación integral, que incluiría a las empresas tecnológicas y los ciudadanos para que trabajen mancomunadamente en la formulación y regulación de los procesos de la denominado IA.

El tema en contexto

La Inteligencia Artificial (IA), hace referencia al tipo de procesamiento basado en algoritmos informáticos que puede desarrollar una máquina computacional, mediante un tipo de imitación electrónica de las funciones cognitivas humanas como: percibir, razonar, aprender y resolver problemas[3].

Según Takeyas (2007) la IA:

“Es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos con base a dos de sus características primordiales: el razonamiento y la conducta[4]”.

En 1956, John McCarthy acuñó la expresión “Inteligencia Artificial”, y la definió como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes[5]”.

La Inteligencia Artificial hace parte de los algoritmos con los que se han diseñado las aplicaciones que usamos diariamente en nuestros móviles o computadores, siendo esencialmente programas que utilizamos en muchos aspectos de nuestra vida cotidiana. Por ejemplo, la detección de rasgos faciales para desbloquear los dispositivos móviles, o los asistentes virtuales de voz como Siri de Apple, o el mecanismo mediante el cual Netflix nos ofrece la oferta de contenidos en la pantalla de inicio o como Facebook ordena los contenidos publicados por nuestros amigos en el Feed que visualizamos cada vez que abrimos la aplicación.

La Inteligencia Artificial estará presente en prácticamente todos los aspectos de la vida humana y aunque en la mayoría de los casos se trata de soluciones para hacernos más fácil el mundo que habitamos, también existe un alto riesgo asociado a esta tecnología, no solo porque puede utilizarse para usos militares y geopolíticos, sino porque en un determinado momento dicha inteligencia puede llegar a ser tan autónoma que se vuelva en contra de la humanidad misma, al mejor estilo del argumento planteado por la trilogía de Matrix.

La nueva estrategia del gobierno Biden

Recientemente la administración de Biden anunció los principios básicos para la reforma tecnológica y la responsabilidad, incluida la reducción de las decisiones algorítmicas discriminatorias, la promoción de la competencia en tecnología y la protección federal de la privacidad.

La Declaración de Derechos de la IA, una idea presentada hace un año por la Oficina de Política Científica y Tecnológica (OSTP) del gobierno de los EE. UU., es un modelo de cómo lograr estos objetivos. Proporciona una guía práctica para las agencias gubernamentales y hace un llamado a las empresas tecnológicas, los investigadores y la sociedad civil para que tomen medidas para apoyar estas protecciones.

«Estas tecnologías están causando un daño real a la vida de los estadounidenses y van en contra de nuestros valores democráticos fundamentales, incluidos los derechos fundamentales a la privacidad, la no discriminación y nuestra dignidad» Declaraciones del gobierno Biden[6].

El gobierno norteamericano reconoce que la inteligencia artificial es una tecnología poderosa que está transformando nuestra sociedad. También tiene el potencial de causar daños graves, a menudo afectando de manera desproporcionada a los grupos minoritarios. Por ejemplo, la tecnología de reconocimiento facial utilizada para la vigilancia y los algoritmos para distribuir beneficios no son precisos para las minorías.

De acuerdo con lo expresado por el presidente, el nuevo plan tiene como objetivo restaurar ese equilibrio y dice que los estadounidenses deben estar protegidos de sistemas inseguros o ineficaces. Al mismo tiempo, establece que los algoritmos no pueden ser discriminatorios y deben usar el sistema tal como fue diseñado de manera justa. Además, argumenta que los ciudadanos deben tener el control de sus datos y que deben estar protegidos contra el uso abusivo de datos a través de defensas integrales. Los ciudadanos también deben saber cuándo usar sistemas automatizados con sus datos y comprender cómo esto afecta los resultados. Al final, las personas siempre deberían poder elegir alternativas que no utilicen sistemas de IA para apoyar a los humanos y obtener remedios cuando las cosas van mal.

«Queremos asegurarnos de proteger a las personas de los peligros más graves de esta tecnología, independientemente del proceso tecnológico específico que se utilice[7]«

La reacción de los expertos en la materia

La Declaración de Derechos de la OSTP es «impresionante», dijo Mark Rotenberg, director del Centro sin fines de lucro para Inteligencia Artificial y Política Digital, que se especializa en la regulación de IA.

«Este es un buen punto de partida. Sin embargo, no termina la discusión sobre cómo Estados Unidos puede implementar una IA confiable y centrada en el ser humano», dijo Rotenberg. Este es el primer paso para permitir que Estados Unidos cumpla sus promesas[8]. «

Willmary Escoto, analista de políticas de EE. UU. en el grupo de derechos digitales Access Now, señaló para MIT Tecnologhy Review que las nuevas pautas enfatizan sutilmente «la importancia de la minimización de datos», al tiempo que «nombran y abordan lo que las personas experimentan en otras tecnologías de IA, como el reconocimiento de emociones y diversas lesiones».

“La Declaración de Derechos de AI podría tener un gran impacto en las libertades civiles fundamentales de las personas negras y latinas en todo el país”, dijo Escoto[9].

La industria de la tecnología ha acogido con beneplácito el reconocimiento de la Casa Blanca de que la IA también se puede utilizar para la buena voluntad.

Matt Schruers, presidente del grupo tecnológico CCIA, cuyos miembros incluyen empresas como Google, Amazon y Uber, dijo que apreciaba la «tendencia» del gobierno de que las agencias gubernamentales deberían predicar con el ejemplo en el establecimiento de principios éticos relacionados con la IA, evitando la discriminación y sirviendo a los ciudadanos.

Shaundra Watson, directora de supervisión de IA en el cabildeo tecnológico de BSA, cuyos miembros incluyen a Microsoft e IBM, apoyó el enfoque del documento en las evaluaciones de riesgo e impacto.

«Es importante garantizar que la aplicación de estos principios aumente la protección y la confiabilidad en la práctica[10]«, dijo Watson.

Las nuevas salvaguardas replican las introducidas por la Unión Europea, pero el documento no es vinculante y no constituye una regulación del gobierno de los EE. UU., ya que la OSTP no puede hacer leyes. Los legisladores tendrán que presentar nuevos proyectos de ley.

Russell Wald, director del Human-Centered AI Policy Institute de la Universidad de Stanford, cree que el documento carece de detalles o mecanismos de cumplimiento.

«Es frustrante ver la falta de una política federal coherente y muy necesaria para abordar los desafíos que plantea la IA, como las acciones de monitoreo, auditoría y revisión coordinadas a nivel federal para mitigar los riesgos y peligros que plantean los modelos de IA[11]«. Wald dijo.

Rotenberg apoya la implementación de regulaciones en EE. UU., como la Regulación de IA de la UE, que tiene como objetivo incluir controles adicionales y equilibrar el uso de inteligencia artificial, que tiene el mayor potencial para causar daño a los humanos.

«Nos gustaría ver algunas prohibiciones explícitas sobre los usos más controvertidos de la IA, como el uso del reconocimiento facial para la vigilancia masiva»[12], dijo Rotenberg.

La Declaración de derechos de la IA podría sentar las bases para una legislación futura, como la aprobación de la Ley de responsabilidad de los algoritmos o la creación de una agencia para regular la IA, destaca Sneha Revanur, directora de Encode Justice, que se centra en la juventud y la inteligencia artificial.

«Si bien tiene una capacidad limitada para abordar los peligros del sector privado, si se aplica de manera significativa, la Declaración de derechos de la IA puede cumplir su promesa, y esperamos que la verdadera regulación haga lo mismo[13]«, concluyó Revanur.

En Conclusión, Estados Unidos es la potencia que mayor cantidad de compañías creadores de Inteligencia Artificial en el mundo alberga, sin embargo también es una de las naciones más tímidas en la reglamentación en esta materia, causando una deuda histórica significativa en regulación y protección de datos, una ecuación que el gobierno Biden quiere cambiar, a través de un ambicioso plan que buscaría replicar el modelo regulatorio europeo, saldando de esta forma una importante deuda histórica en la materia.

 

[1] https://www.technologyreview.com/2022/10/10/1061016/whos-going-to-save-us-from-bad-ai/
[2] Artículo de análisis de Lexology
[3] Libro: Artificial intelligence: a modern approach (en inglés) Upper Saddle River, N.J.: Prentice Hall. ISBN 0-13-604259-7.
[4] Artículo académico: Introducción a la Inteligencia Artificial
[5] Libro: Una nueva síntesis sobre Inteligencia Artificial
[6] https://www.computerworld.es/tecnologia/la-administracion-biden-despliega-un-plan-propio-sobre-inteligencia-artificial
[7] ibid 1
[8] ibid 1
[9] ibid 1
[10] ibid 1
[11] ibid 1
[12] ibid 1
[13] ibid 1

Sobre el autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Facebook
Facebook
YouTube
YouTube
Instagram
Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente