Redactor: Sam Torne
Un reciente estudio realizado por investigadores chinos ha puesto de manifiesto que ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, podría estar experimentando una inclinación política hacia la derecha en sus respuestas. Este hallazgo ha suscitado debates sobre la neutralidad de los modelos de lenguaje y su impacto en la sociedad.
El estudio, publicado en la revista Humanities and Social Science Communications, evaluó las respuestas de diferentes versiones de ChatGPT a 60 preguntas del Political Compass Test, una herramienta que posiciona a los individuos en el espectro político según sus respuestas.
Los investigadores repitieron las preguntas más de 3,000 veces con cada modelo para analizar cómo variaban sus respuestas a lo largo del tiempo. Aunque ChatGPT inicialmente mostraba valores de «izquierda libertaria», se observó que modelos como GPT-3.5 y GPT-4 presentaban una inclinación significativa hacia la derecha en sus respuestas con el paso del tiempo.
Posibles causas del cambio de sesgo
Los autores del estudio proponen varias teorías para explicar este desplazamiento hacia la derecha:
- Actualización de los conjuntos de datos: los cambios en los datos utilizados para entrenar los modelos podrían influir en sus respuestas.
- Interacciones con los usuarios: la retroalimentación y las preguntas formuladas por los usuarios pueden afectar la orientación del modelo.
- Modificaciones y actualizaciones del chatbot: las mejoras y ajustes realizados en el chatbot podrían alterar su sesgo político.
Dado que modelos como ChatGPT «aprenden y se adaptan continuamente en función de los comentarios de los usuarios», este giro hacia la derecha podría reflejar «cambios sociales más amplios en los valores políticos».
Implicaciones sociales y necesidad de escrutinio
Los resultados de este estudio son «dignos de mención dado el uso generalizado de grandes modelos lingüísticos (LLM) y su posible influencia en los valores de la sociedad». La inclinación política de herramientas como ChatGPT podría afectar la percepción pública y contribuir a la polarización social. Para contrarrestar estos efectos, los investigadores sugieren la implementación de un «escrutinio continuo» de los modelos de IA mediante auditorías e informes de transparencia, asegurando que las respuestas de los chatbots sean justas y equilibradas.
Este estudio se suma a investigaciones anteriores que han analizado los sesgos políticos en modelos de lenguaje. Por ejemplo, estudios realizados en 2024 por el Instituto Tecnológico de Massachusetts (MIT) y el Centro de Estudios Políticos del Reino Unido indicaban una inclinación hacia la izquierda en las respuestas de los LLM y los modelos de recompensa entrenados con datos de preferencias humanas.
Sin embargo, estos estudios no evaluaron cómo las respuestas de los chatbots de IA podían cambiar con el tiempo cuando se les formulaba repetidamente un conjunto similar de preguntas.
¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ
Conoce nuestra red ANCOP Network AQUÍ
