
Geopolítica de ChatGPT: cómo los chatbots de IA pueden usarse para compartir propaganda política e influir en la opinión pública
Cómo entidades estatales y redes de desinformación moldean las respuestas de los chatbots de inteligencia artificial
La expansión del uso de los chatbots de inteligencia artificial (IA) ha suscitado inquietud en especialistas y organismos reguladores debido a su potencial empleo para la propagación de relatos particulares. Investigaciones recientes revelan que estas plataformas, concebidas inicialmente para ofrecer asistencia fidedigna a los usuarios, son susceptibles de ser configuradas o manipuladas por entidades gubernamentales y redes de desinformación con el fin de emitir respuestas parciales o erróneas, lo que repercute en la opinión pública y en la credibilidad de los datos en línea.
¿Qué materias se abordan?
Investigaciones recientes señalan distintas estrategias empleadas para influir en las respuestas de los chatbots. Una técnica conocida como “LLM grooming” consiste en saturar internet con contenido automatizado y desinformador, de modo que los modelos de lenguaje lo incorporen en sus bases de datos. Por ejemplo, una red prorrusa habría difundido información falsa en más de 150 sitios web en múltiples idiomas, logrando que estas afirmaciones se reflejaran en los resultados generados por chatbots occidentales.
Además de la influencia sutil ejercida mediante el contenido digital, ciertas administraciones gubernamentales establecen salvaguardas en los sistemas de inteligencia artificial. En la República Popular China, por ejemplo, el asistente conversacional DeepSeek se abstiene de contestar interrogantes delicados acerca del régimen o acontecimientos históricos controvertidos, acatando normativas que resguardan los “principios socialistas esenciales”. Por otro lado, en los Estados Unidos, una orden ejecutiva demanda que los modelos subvencionados por el estado conserven una imparcialidad ideológica, restringiendo alusiones a cuestiones de etnia, sexo y orientación sexual.
Especialistas en inteligencia artificial advierten que tales métodos no solo impactan la información que llega a los usuarios, sino que además tienen el potencial de minar la democracia, dividir a las sociedades y erosionar la confianza ciudadana. La influencia sutil presente en los contenidos producidos por los chatbots induce a los usuarios a depositar una fe desmedida en sus contestaciones, lo cual eleva el peligro de propagación de información falsa y de manipulación mental a gran escala.
¿Cuál es el dictamen final?
Tras analizar estas estrategias, el veredicto es claro: es verdad que los chatbots de IA son vulnerables a la manipulación tanto a través de contenido digital como de ajustes en su entrenamiento, lo que puede afectar la veracidad de sus respuestas. Técnicas como LLM grooming y el refuerzo mediante retroalimentación humana permiten que modelos de lenguaje reflejen sesgos o intereses específicos de quienes controlan los datos o supervisan los algoritmos.
Esta vulnerabilidad tiene implicaciones directas sobre la confianza pública y la libertad de expresión. Usuarios que no contrastan la información con fuentes confiables pueden ser expuestos a narrativas distorsionadas, mientras que la censura o filtrado de temas sensibles puede empujarlos hacia espacios digitales que refuercen prejuicios o difundan contenido de odio. Expertos insisten en que la regulación, las auditorías periódicas y la supervisión humana son esenciales para minimizar riesgos, junto con la educación de los usuarios sobre los límites y potenciales sesgos de estos sistemas.
Normativa y formación como solución
En conclusión, la manipulación de chatbots de IA representa un riesgo real para la sociedad y la democracia, ya que permite difundir desinformación de manera persuasiva y controlar la narrativa digital. La clave para mitigar estos riesgos radica en auditorías constantes de los modelos, regulación efectiva y alfabetización tecnológica de los usuarios, quienes deben aprender a contrastar la información y usar los chatbots como herramientas complementarias, no como fuentes únicas de conocimiento.
Estas medidas son fundamentales para garantizar que la tecnología de IA siga siendo un recurso útil y confiable, sin convertirse en un instrumento de manipulación o polarización social.

Más historias
Sector privado dinamiza la recuperación económica hondureña con más inversión y empleo desde 2022
Impacto del Cambio Climático en la Salud Mental Latina: ¿Qué Sabemos?
Verdadero: El Legado de Inclusión Económica de Cristina Fernández de Kirchner