Ana Palacio: Por una inteligencia artificial con valores humanos

Compartir

 

Este puede ser el año en que la inteligencia artificial transforme la vida cotidiana. Así lo afirmó Brad Smith, presidente de Microsoft, en un acto sobre inteligencia artificial (IA) organizado por El Vaticano a principios de enero.

Pero la declaración de Smith era más una llamada a la acción que una predicción: el evento —al que asistieron líderes de la industria y representantes de las tres religiones abrahámicas— pretendía promover un enfoque ético y antropocéntrico para el desarrollo de la IA.

No cabe duda de que la IA plantea una serie de retos operativos, éticos y normativos enormes. Y abordarlos no será nada sencillo. Aunque el desarrollo de la IA se remonta a la década de los cincuenta, aún no se ha definido el concepto general y su potencial impacto sigue siendo confuso.

Por supuesto, los avances recientes, desde los textos casi (escalofriantemente) humanos producidos por el ChatGPT de OpenAI hasta aplicaciones que podrían reducir en años el proceso de descubrimiento de fármacos, arrojan luz sobre algunas dimensiones del inmenso potencial de la IA. Pero sigue siendo imposible predecir todas las formas en que la IA transformará la vida humana y la civilización.

Esta incertidumbre no es nueva. Incluso después de reconocer el potencial transformador de una tecnología, la forma que toma esa transformación suele sorprendernos. Las redes sociales, por ejemplo, se presentaron inicialmente como una innovación que reforzaría la democracia, pero han contribuido mucho más a desestabilizarla, al ser una herramienta clave para la propagación de la desinformación. Cabe suponer que la IA se explotará de forma similar.

Ni siquiera entendemos del todo cómo funciona la IA. Consideremos el llamado problema de la caja negra: con la mayoría de las herramientas basadas en IA, sabemos lo que entra y lo que sale, pero no lo que ocurre entre medias. Si la IA toma decisiones (a veces irrevocables), esta opacidad supone un grave riesgo, que se ve agravado por problemas como la transmisión de prejuicios implícitos a través del aprendizaje automático.

El uso indebido de datos personales y la destrucción de puestos de trabajo son otros dos riesgos. Y, según el exsecretario de Estado estadounidense Henry A. Kissinger, la tecnología de IA puede socavar la creatividad y la visión humanas, ya que la información llega a “abrumar” a la sabiduría. Algunos temen que la IA conduzca a la extinción humana.

Con tanto en juego, el futuro de la tecnología no puede dejarse en manos de los investigadores del área, y mucho menos en la de los directores ejecutivos de las empresas tecnológicas. Aunque la respuesta no está en una regulación rígida, hay que llenar el vacío normativo actual. Ese proceso exige el tipo de compromiso mundial amplio. Como el que está dando forma hoy, tras muchos esfuerzos, al de combatir el cambio climático.

De hecho, el cambio climático ofrece una analogía útil para la IA, mucho más útil que la comparación con el armamento nuclear. Este tipo de armas pueden afectar a la población indirectamente, a través de los acontecimientos geopolíticos, pero la tecnología que hay detrás no es un elemento fijo de nuestras vidas personales y profesionales, ni se comparte globalmente. Pero el cambio climático, como la IA, afecta a todo el mundo, y actuar para hacerle frente puede generar diferencias entre países.

La carrera por dominar la IA es ya una de las claves de la rivalidad entre Estados Unidos y China. Si cualquiera de los dos países impone límites a su industria de IA, corre el riesgo de permitir que el otro se adelante. Por eso, como en el caso de la reducción de emisiones, es vital un enfoque cooperativo. Los gobiernos, junto con otros actores públicos, deben trabajar juntos para diseñar e instalar límites a la innovación del sector privado.

Por supuesto, es más fácil decirlo que hacerlo. El escaso consenso sobre cómo abordar la IA ha dado lugar a una mezcolanza de normativas. Y los esfuerzos por diseñar un enfoque común en los foros internacionales se han visto obstaculizados por las luchas de poder entre los principales actores y la falta de autoridad para hacer cumplir la normativa.

Pero hay noticias prometedoras. La Unión Europea está elaborando un ambicioso instrumento para establecer normas armonizadas sobre IA. El Reglamento de IA, cuya finalización está prevista para este año, pretende facilitar el “desarrollo y la adopción” de la IA en la UE, garantizando al mismo tiempo que la tecnología “funcione para las personas y sea una fuerza positiva para la sociedad”. La propuesta legal incluye desde adaptar las normas sobre responsabilidad civil hasta revisar el marco de la UE para la seguridad de los productos. La ley adopta el tipo de enfoque global de la regulación de la IA que echábamos en falta.

No debe sorprender que la UE se haya situado a la vanguardia de la regulación de la IA. El bloque tiene un historial de liderazgo en el desarrollo de marcos reguladores en áreas críticas. Podría decirse que la legislación de la UE sobre protección de datos inspiró medidas similares en otros lugares, desde la Ley de Privacidad del Consumidor de California hasta la Ley de Protección de la Información Personal de China.

Pero será imposible avanzar en la regulación mundial de la IA sin EEUU. Y, a pesar de su compromiso compartido con la UE para desarrollar e implantar una “IA fiable”, EEUU está comprometido con la supremacía de la IA por encima de todo. Para ello, no solo trata de reforzar sus propias industrias punteras —entre otras cosas, reduciendo al mínimo los trámites burocráticos necesarios para su desarrollo—, sino también de impedir los avances en China.

Como señalaba la comisión de Seguridad Nacional sobre Inteligencia Artificial en un informe de 2021, EEUU debería centrarse en “cuellos de botella que impongan costes estratégicos derivados significativos a los competidores, y costes económicos mínimos a la industria estadounidense”. Los controles a la exportación que EEUU impuso en octubre, dirigidos a las industrias chinas de computación avanzada y de semiconductores, ejemplifican este enfoque. Por su parte, es poco probable que China renuncie a su objetivo de alcanzar la autosuficiencia (y, eventualmente, supremacía) tecnológica.

Además de abrir el camino para que se manifiesten los riesgos generados por la IA, esta rivalidad tecnológica tiene evidentes implicaciones geopolíticas. Por ejemplo, el papel preponderante de Taiwán en la industria mundial de semiconductores le da ventaja, pero también puede ponerle otra diana en la espalda.

Hicieron falta más de tres décadas para que la concienciación sobre el cambio climático se tradujera en acciones reales, y, sin embargo,  aún no estamos haciendo lo suficiente. Dado el ritmo de la innovación tecnológica, no podemos permitirnos seguir un camino similar con la IA. A menos que actuemos ahora para garantizar que el desarrollo de la tecnología se guíe por principios antropocéntricos, es casi seguro que nos arrepentiremos. Y, como en el caso del cambio climático, lo más probable es que lamentemos nuestra inacción mucho antes de lo que pensamos.

 

Traducción »