La tiranía de la falta de estructuras es un famoso ensayo que la abogada norteamericana Jo Freeman leyó por primera vez frente la Unión de Derechos de Mujeres sureñas, en mayo de 1970. Decía que la organización no jerárquica y no estructurada que ansían algunos movimientos sociales, colectivos y cooperativas para garantizar una distribución equitativa del poder, autoridad o visibilidad mediática no es posible realmente. Y que, en aquellas organizaciones donde no se negocia o se pacta una estructura formal, emerge otra basada en el capital social, personal o político de sus miembros, una jerarquía que se propaga de forma aparentemente orgánica, sin transparencia ni responsabilidad.
En otras palabras: en los grupos donde nadie manda, acaban mandando los de siempre. Y, en un contexto sin reglas o estructuras pactadas y conocidas por todos, su poder es difícil de identificar, de rechazar o de cambiar. “La aparente falta de estructura oculta una dirección informal, no reconocida e irresponsable, que es aún más perniciosa porque niega su propia existencia”. Medio siglo más tarde, la tiranía de la falta de estructuras sigue operando con total impunidad. Lo pensaba ayer, cuando una amiga me explicó que el tipo con el que sale desde hace seis meses no quiere poner nombre a lo suyo porque prefiere fluir. Cuántas amigas he visto flotar en ese limbo de indeterminación que favorece siempre al miembro tradicionalmente privilegiado de la pareja. Y lo pensé cuando Google manipuló su nuevo modelo de IA para corregir sus sesgos y el resultado resultó ser mucho más subversivo y escandaloso que el motivo que hacía necesaria la corrección.
Google manipuló Gemini para hacerlo menos homófobo, racista y clasista. Según la ultraderecha, más woke. Usaron un proceso llamado prompt transformation donde el sistema modifica, adapta, corrige la instrucción del usuario para mejorar la calidad, la precisión o la relevancia de las respuestas generadas por el modelo. En cierto modo, una especie de autocorrector. Pero, al modificar secretamente las instrucciones del usuario para producir respuestas más inclusivas, Gemini empezó a corregir los errores de la historia, generando nazis negros, madres fundadoras e indígenas empelucados firmando la constitución de 1787, como si el Mayflower hubiese llegado a Plymouth Harbor para venderle a los nativos las bondades del sufragio universal.
Aparentemente, podemos convivir con una IA racista y homófoba que atropella ciclistas y alucina libros, batallas y personas que nunca existieron, pero los nazis negros y las madres fundadoras son aberraciones tan peligrosas que necesitan ser amputadas de raíz. Una vez más, esta IA demuestra ser un mal sustituto de los trabajadores, pero una excelente herramienta de diagnóstico, capaz de señalar la hipocresía del mismo sistema que la entrenó. O lo que pasa cuando impones estructuras en un sistema que parecía no tenerlas porque había sido educado por internet.
Muchos han aprovechado el fiasco para acusar a Google de manipular su modelo para imponer una revisión oportunista de la historia con fines políticos. La realidad es que Google, Meta, Anthropic, Grok y OpenAI manipulan sus modelos al seleccionar los conjuntos de datos de su entrenamiento, diseñar los algoritmos de proceso y entrenar a los moderadores para que corrijan sus respuestas en tiempo real. Su aparente falta de estructura esconde un sistema de clases tan rígido y predecible como el del valle donde se cría esta generación de IA.