¿El libre comercio implica una sociedad más libre? ¿Deberían los gobiernos penalizar a las empresas que confunden a los consumidores? ¿La justicia debe ser equivalente al daño causado? Un conjunto de expertos sometió a pruebas a las inteligencias artificiales lingüísticas más populares con estas preguntas, buscando descubrir posibles inclinaciones políticas. La investigación reveló que, según la entidad creadora, la orientación política de estos sistemas puede diferir considerablemente.
Este estudio es fruto de la colaboración entre la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi’an Jiaotong. Examinaron 14 de las principales inteligencias artificiales lingüísticas, incluyendo las de OpenAI, Meta y Google.
El equipo científico cuestionó a las inteligencias sobre su opinión en asuntos como el feminismo y la democracia. Utilizaron 62 afirmaciones con connotaciones políticas, detalladas en un documento sometido a revisión por expertos, que obtuvo el reconocimiento como mejor artículo en el último encuentro de la Asociación de Lingüística Computacional.
Con base en las respuestas, lograron situar a cada sistema en la gráfica llamada «Brújula política». Esta herramienta evalúa dos dimensiones: derecha e izquierda, para determinar inclinaciones económicas; y autoritaria y libertaria, en cuanto a posturas sociales. Descubrieron, por ejemplo, que las inteligencias detrás de ChatGPT se inclinaban más hacia posturas libertarias y de izquierda, mientras que LLaMA, de Meta, se orientaba hacia visiones más autoritarias y de derecha.
La orientación política de ChatGPT, LLaMA y BERT
OpenAI, la entidad detrás de ChatGPT, afirma que sus sistemas no exhiben preferencias políticas. En una entrada en su blog , la firma, aliada con Microsoft, destaca que revisa continuamente las respuestas de su chatbot con supervisores humanos. Enfatiza que poseen directrices estrictas para evitar favorecer cualquier corriente política. Sin embargo, si surgen inclinaciones políticas, OpenAI alega que son «fallos y no funciones» de su tecnología.
Sin embargo, los expertos difieren. «Nuestras observaciones demuestran que estas inteligencias artificiales, ya entrenadas, efectivamente poseen sesgos políticos que intensifican la polarización», comentan en su documento.
Los sistemas BERT, creados por Google, mostraron una tendencia social más tradicionalista que los modelos GPT de OpenAI. Los expertos propusieron una teoría: la orientación conservadora de los BERT podría derivarse de que las versiones antiguas se formaron con libros, que mostraban perspectivas más autoritarias. En contraste, los GPT más recientes se educaron con información de la web, reflejando una inclinación más progresista.
Estas máquinas aprendientes han evolucionado con sus sucesivas versiones. El estudio demostró, por ejemplo, que mientras GPT-2 —la versión previa de ChatGPT— manifestaba apoyo a «imponer tributos a los acaudalados», GPT-3 no lo respaldó. Las corporaciones tecnológicas renuevan continuamente la información con la que entrenan estas inteligencias y experimentan con distintas técnicas de formación.
El estudio encontró que dichas inteligencias exhibieron mayores diferencias en sus posturas frente a temas sociales en comparación con cuestiones económicas. Una explicación propuesta por el informe es que los debates en redes sobre temáticas sociales —usados también para el entrenamiento de estas IA— son más prevalentes que aquellos enfocados en economía.
Difusión de narrativas intolerantes
La investigación tuvo una segunda fase, donde seleccionaron dos sistemas para exponerlos a conjuntos de datos con marcada inclinación política. Para esta tarea, emplearon contenido proveniente de medios y redes sociales, tanto de tendencias izquierdistas como derechistas. Su objetivo era descubrir si esto podía incidir en la orientación ideológica de las IA. Y efectivamente, ocurrió.
Optaron por GPT-2, de OpenAI, y RoBERTa, de Meta. Las IA demostraron un giro hacia la izquierda al ser alimentadas con datos de fuentes izquierdistas y viceversa. No obstante, la mayoría de las modificaciones resultaron ser sutiles, señala el estudio. Esto indica que es complicado modificar el sesgo preexistente.
En una tercera fase, los investigadores observaron cómo las inclinaciones políticas de ChatGPT y otros sistemas determinaban qué contenidos categorizaban como narrativas intolerantes o información inexacta.
Las IA expuestas a información de tendencia izquierdista mostraron mayor sensibilidad ante discursos intolerantes dirigidos a colectivos étnicos, religiosos o LGBTQ+. Aquellas educadas con contenido derechista, por su parte, mostraron mayor sensibilidad ante discursos dirigidos a hombres blancos cristianos.
Las inteligencias con inclinación hacia la izquierda demostraron ser más eficaces identificando desinformación proveniente de fuentes derechistas, pero no con las izquierdistas. De igual manera, los sistemas con sesgo hacia la derecha evidenciaron una tendencia similar, pero en sentido contrario.