Temen que modelos de IA más potentes que GPT-4 puedan crear efectos catastróficos para la sociedad.
Elon Musk y un equipo de expertos en inteligencia artificial, están pidiendo a los laboratorios encargados de desarrollar modelos de IA que pausen el entrenamiento de sistemas más potentes que GPT-4. El magnate y otras 1.100 personas han firmado una carta abierta en la que aseguran que estos modelos pueden tener “efectos potencialmente catastróficos para la sociedad”. Y donde aseguran, además, que únicamente se deberían crear “una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
En la carta firmada por el Musk, que fue uno de los fundadores de OpenAI, junto a ejecutivos de la industria, como Steve Wozniak, cofundador de Apple, O Emad Mostaque, CEO de Stability AI, entre otros, detallan que los modelos IA se están volviendo competitivos contra el ser humano. Se preguntan si realmente es necesario que estos sustituyan a las personas en diferentes tareas, incluso, tomar “el control de nuestra civilización”.
¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que puedan superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse a líderes tecnológicos no elegidos, se puede leer en un fragmento de la carta.
Acto seguido, Musk y el equipo de expertos y ejecutivos en la industria, solicitan, por este mismo motivo, detener durante al menos seis meses cualquier tipo de entrenamiento de sistemas de IA más potentes que GPT-4. “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, afirman.
Una pausa de seis meses para crear nuevos protocolos de seguridad para la IA
Esta pausa, en concreto, se utilizaría para desarrollar una serie de protocolos de seguridad compartidos que serían supervisados por “expertos externos independientes”. “Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable”. Musk y los ejecutivos, por otro lado, afirman que esta medida no significa que se detenga temporalmente el desarrollo de la IA en general. Es, en cambio “un paso atrás” en la carrera del desarrollo de modelos de gran tamaño.
La carta también detalla que los desarrolladores de modelos de IA deberían trabajar con responsables políticos con el objetivo de regular la inteligencia artificial con diferentes medidas. Entre ellas, la obligación de que imágenes o cualquier contenido generado por una IA, cuente con una marca de agua para que los usuarios puedan distinguir entre una foto real o algo sintético. También la creación de “instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”.
Curiosamente, entre los ejecutivos y expertos que han firmado la carta, no se encuentra Sam Altman, máximo responsable de OpenAI, ni ningún otro miembro de la compañía que ha desarrollado GPT-4. Sí hay empleados de Microsoft.
Hipertextual.com