Inteligencia Artificial (IA): retos y oportunidades – 3X02

20230512 podcast conversaciones elcano inteligencia artificial ia

La Inteligencia Artificial (IA) está en el centro de la conversación global y son muchas las preguntas que inspira.  ¿Cómo garantizar la ética y transparencia en la IA? ¿Cómo evitar los sesgos en los sistemas de IA que puedan reflejar prejuicios o discriminaciones? ¿Qué impacto puede tener sobre la democracia? ¿Cómo regular la aplicación de la IA para garantizar los derechos y la seguridad pública? 

La mezcla de entusiasmo y temor que provoca el avance de la IA hace difícil valorar sus oportunidades y riesgos. Así que en este segundo episodio de la tercera temporada preguntamos qué puede salir mal con el despliegue de la IA y cómo podemos evitarlo.  

María Santillán (ayudante investigación en Cooperación Internacional y Desarrollo) y Álvaro Vicente (investigador) conversan con Raquel Jorge (investigadora y experta en IA) sobre los riesgos y oportunidades de la IA, así como las reacciones (“tecnoptimistas” y “tecnófobas”) que suscita. 

La Inteligencia Artificial (IA) generativa

El desarrollo de la IA está captando la atención mundial por su rápido progreso y el acceso cada vez más extendido que los usuarios tienen a esta innovación tecnológica. Muchas herramientas de IA ya forman parte de nuestras vidas y trabajos, pero su uso hasta ahora había estado más acotado a aplicaciones específicas (por ejemplo, búsqueda de patrones y/o errores), y sus limitaciones habían impedido un uso generalizado y adaptado a diferentes situaciones.  

Seguro que habéis escuchado hablar de ChatGPT, el modelo de lenguaje basado en IA capaz de crear (generar) contenido original a partir de datos existentes que se ha convertido en un fenómeno de masas. Incluso puede que seáis una de las 100 millones de personas que usan esta aplicación mensualmente. El lanzamiento de ChatGPT en noviembre de 2022 ha reactivado todo tipo de expectativas y también de preocupaciones al respecto. La cifra tan elevada de usuarios que ha alcanzado esta herramienta creada por la start-up OpenAI en tiempo récord no tiene precedentes.  

¿Qué explica este interés? Por un lado, los usuarios perciben por fin que tienen acceso y pueden beneficiarse de la IA. Además, esta tecnología está demostrando una capacidad impresionante para el aprendizaje porque puede aprovechar toda la información que le es dada para nutrirse y mejorar constantemente. Esto supone un muchísimas posibilidades en todos los ámbitos, pero también está generando una reacción crítica entre ciudadanos, gobiernos, empresas o incluso personas expertas en la IA, hasta el punto de que parecen haberse conformado dos bandos: el de los “tecno-optimistas” y el de los “tecnófobos”. 

Las voces que surgen del sector más optimista destacan que el uso de herramientas de IA en medicina puede contribuir a detectar, diagnosticar y tratar enfermedades. En el campo del derecho, puede ayudar a recabar y analizar información para simplificar los procesos judiciales e incluso facilitar dictámenes.  

Pero no todo son ventajas a ojos de algunos. Las primeras voces críticas ya advirtieron de los efectos negativos que la automatización de trabajos puede tener en los trabajadores y la economía en general. Sin embargo, las preocupaciones principales actualmente señalan también riesgos de control y manipulación de la información, con sus consecuencias para la convivencia democrática. También preocupan las repercusiones de estos avances para la privacidad, la seguridad y los sesgos discriminatorios. 

Retos y oportunidad en las relaciones internacionales

Si las oportunidades que ofrece en la medicina o el derecho parecen evidentes, la IA también puede tener un impacto transformador en muchas otras áreas clave para las relaciones internacionales. La militar es un claro ejemplo. Los avances de la IA permiten el desarrollo de armas autónomas, es decir, capaces de operar sin la presencia o el control de un ser humano. Esto supone un gran desafío ético, puesto que puede derivar en el despliegue de armas que tomen decisiones letales de forma autónoma sin necesidad de arriesgar la vida de soldados para ello.  

La IA también puede propiciar grandes cambios en las economías nacionales y, con ellas, en la economía mundial. Distintos análisis señalan que la automatización de las tareas implicará la destrucción de algunos empleos, pero también la creación de otros, como ya sucedió con el descubrimiento de la electricidad o el nacimiento de Internet. En conjunto, la IA puede contribuir a la productividad económica de los países, aunque estos beneficios podrían distribuirse de manera desigual. Aquí será clave la capacidad de las distintas economías nacionales para adaptarse a las nuevas demandas internacionales de trabajo y habilidades derivadas de esta automatización. El reto es evitar que la brecha tecnológica y educativa global deje a los países con menores ingresos excluidos de las cadenas de producción y suministro globales y, por tanto, de sus beneficios económicos. 

En este escenario, los grandes actores globales toman distintas posiciones. Mientras la Unión Europea adopta un enfoque más exigente desde el punto de vista normativo, el gobierno de China supervisa de cerca el desarrollo de su industria tecnológica nacional. Algunas fuentes sitúan a China a la cabeza de la IA en el mundo, mientras que otras aún creen que Estados Unidos se mantiene por ahora como líder mundial.

Todo ello tiene repercusiones geopolíticas, ya que añade una capa crucial más a la competición comercial y tecnológica entre Estados Unidos y China. Las tareas que la IA puede desempeñar, los datos que puede recabar y las soluciones que puede desarrollar facilitan la acumulación de poder –económico y normativo– en manos de quienes posean y controlen la tecnología.  

¿Y quién(es) está(n) detrás de esta tecnología? Fundamentalmente, empresas privadas, lo que complica más las cosas porque tanto los riesgos como las posibles aplicaciones de la IA a los problemas sociales, como su potencial para el desarrollo de medicamentos, o para ofrecer soluciones a la emergencia climática y a los desastres naturales, hacen esencial que los gobiernos adopten un rol proactivo en el desarrollo y regulación de estas tecnologías. 

Pausa o regulación 

Mientras la IA avanza en su desarrollo, no son pocas las voces que llaman a controlarla o incluso contenerla. Algunas voces en el ámbito político, empresarial y científico han pedido una pausa temporal del despliegue de la IA para estudiar y mitigar sus riesgos. El llamamiento ha sido, sin embargo, cuestionado por algunos expertos que creen que no se puede verificar si empresas y países han parado realmente su avance en este ámbito, como sí ocurre, por ejemplo, con el desarrollo de capacidades nucleares. Nadie querrá arriesgarse a perder ventaja competitiva frente a otros competidores que podrían estar continuando con sus investigaciones. 

La fórmula que está ganando terreno es la de regular el desarrollo de la IA por la vía legislativa. Solo en 2022 se aprobaron 37 normas a nivel global relacionadas con esta tecnología. Estados Unidos, seguido de Portugal y España, son los tres países que más han regulado la IA en los últimos años. Además, la UE lleva dos años trabajando en una regulación para asegurar el desarrollo ético de esta tecnología, lo que la convertirá en la segunda mayor jurisdicción del mundo, tras China, en adoptar una normativa específica sobre IA.  

Es probable que la Ley de Inteligencia Artificial de la UE prohíba usos controvertidos, como el reconocimiento facial y la identificación biométrica (el reconocimiento e identificación de las personas por rasgos físicos únicos como la huella dactilar o el iris de los ojos). También que someta a algunos sistemas de IA de alto riesgo, como los vehículos autónomos o los dispositivos médicos, a una estricta normativa que exija pruebas rigurosas, transparencia en la calidad de los datos y un marco de rendición de cuentas que detalle la supervisión humana. Además, es posible que la normativa europea obligue a las empresas a declarar si utilizan material protegido por derechos de autor para entrenar sus sistemas de IA.  

Sin embargo, el objetivo de la UE podría ser más ambicioso al intentar marcar la pauta mundial en materia de regulación del despliegue de la IA. La Comisaria Europea de Competencia, Margrethe Vestager, habló sobre este asunto en una reunión en el Parlamento Europeo en mayo de 2022

“La Unión Europea es pionera. Somos los primeros en asumir este empeño de crear un marco legislativo integral, para promover la confianza en una tecnología muy prometedora. Pero la cuestión es que promover una IA digna de confianza no es algo que pueda hacerse solo en Europa. Y por eso debemos complementar nuestra labor legislativa con una ambiciosa agenda exterior. Allá donde vayamos tenemos que influir en las normas mundiales para que reflejen los valores democráticos. Porque luchar por eso es también luchar por la democracia”.  

Democracia y derechos digitales

El impacto del desarrollo de la IA en las democracias es precisamente uno de los aspectos que más preocupan a personas expertas y decisores políticos. En poco más de un año se celebrarán elecciones presidenciales en EEUU, y ya hay voces que han señalado un riesgo preocupante: la IA podría ser utilizada para lanzar campañas automatizadas de desinformación. No cuesta imaginar las consecuencias que esto podría tener en un país ya polarizado y con un sistema electoral en el que no confía una parte importante de los votantes.  

Pero los riesgos son también otros. Por ejemplo, que los modelos de lenguaje generen de manera masiva y automática mensajes que promuevan determinadas políticas, desviando la atención sobre temas mucho más importantes y socavando la voz de los ciudadanos. Puesto que los grandes modelos de lenguaje son capaces de reproducir de manera creíble diferentes estilos de redacción, resulta difícil distinguir la autoría de los mensajes. El enfoque esperanzador es que la supervisión humana aún puede detectar que las respuestas autogeneradas y aparentemente solventes que ofrecen estos sistemas contienen errores factuales o son inventadas. Incluso los algoritmos que están detrás de sistemas como ChatGPT podrían ser entrenados para identificar textos creados por máquinas.  

Preocupa también el impacto de la IA sobre los derechos digitales. En marzo, Italia prohibió temporalmente el acceso a ChatGPT alegando que el sistema recopila ilegalmente datos de los usuarios, vulnerando su privacidad, y no impide que los menores accedan a material inapropiado. El país ya ha levantado el bloqueo al uso de ChatGPT después de que la compañía ofreciera garantías de que el chatbot cumple con las condiciones impuestas por la autoridad en protección de datos.

Otro riesgo que presenta la inteligencia artificial es el de perpetuar la discriminación de ciertos colectivos sociales y minorías, debido a que los algoritmos son entrenados con datos que pueden contener prejuicios y sesgos. En respuesta a este desafío, España ha lanzado una Carta de los Derechos Digitales que busca garantizar el derecho a la no discriminación en relación con las decisiones, uso de datos y procesos basados en inteligencia artificial. La Carta, que no tiene valor jurídico ni carácter normativo, podría en el futuro servir de base para regular derechos digitales en el país.  

Recursos
Hacia un régimen europeo de control de la Inteligencia Artificial, Andrés Ortega.
Derechos digitales: un marco necesario pero (todavía) insuficiente, Raquel Jorge.
Geopolítica de la ética en Inteligencia Artificial, Andrés Ortega.
Inteligencia artificial y poder, Jessica Cohen, José María Blanco.

Créditos del audio
Artificial intelligence in a digital age: closing statements by Margrethe Vestager. Fuente: Multimedia Centre European Parliament / © European Union, 2022. 


Imagen: Colorida pintura de M.C. Escher. Generada mediante la IA DALL-E 2 con prompt de Ben Barry (EEUU) (Wikimedia Commons / Dominio público).