La nueva naturaleza del episcopado mexicano
El poder oculto de la IA; cuando deja de ser sólo una herramienta y se convierte en el manipulador a gran escala más persuasivo. ¿Estamos frente a una nueva herramienta de control?
Alberto Carbot
En un reciente artículo publicado por la revista francesa JeuxVideo, se exploran los inquietantes resultados de un estudio realizado por investigadores de la École Polytechnique Fédérale de Lausanne (EPFL), que analiza la capacidad de persuasión de las inteligencias artificiales, en particular ChatGPT-4.
Este trabajo ha desatado un debate sobre el poder que las IA tienen para influir en las decisiones y opiniones humanas, resaltando un peligroso potencial como herramienta de manipulación.
El experimento, que involucró a 820 participantes, reveló que ChatGPT-4 logró cambiar la opinión de uno de cada cinco individuos durante debates en los que los temas iban desde la ética en la investigación animal hasta la importancia de mantener las monedas pequeñas en circulación. Lo más relevante fue que, aunque tres cuartas partes de los participantes lograron identificar que estaban interactuando con una IA, los resultados mostraron que la inteligencia artificial fue significativamente más persuasiva que sus contrapartes humanas.
Uno de los hallazgos más alarmantes del estudio es que cuando la IA tuvo acceso a información adicional sobre los participantes, como su edad, género o antecedentes, su efectividad en influir en las opiniones aumentó drásticamente. Este aspecto subraya el riesgo de que, en el futuro, las IA puedan explotar datos personales para adaptar sus argumentos y manipular de manera más sutil y eficaz.
Este estudio abre una discusión crítica sobre los riesgos éticos y sociales que representan las plataformas de conversación generativas, especialmente en un entorno donde la IA está cada vez más integrada en redes sociales y otros espacios de comunicación. La posibilidad de que estas tecnologías se conviertan en herramientas de manipulación masiva es una realidad que no debe tomarse a la ligera.
Un desafío profundamente social y ético
Desde mi punto de vista, este tipo de investigaciones enfatizan un punto clave: el potencial de las IA para influir en opiniones no es solo una cuestión técnica, sino también un desafío profundamente social y ético, y aún más, nos llevan a la necesidad de reflexionar sobre las responsabilidades éticas de las empresas que desarrollan estas tecnologías.
Estas compañías no pueden deslindarse de los efectos que sus creaciones tienen en la sociedad y por demás, resulta crucial que el público en general esté bien informado sobre los alcances y limitaciones de estas herramientas.
La educación digital y la alfabetización informacional son más importantes que nunca para prevenir el abuso de tecnologías diseñadas para persuadir y manipular.
La tecnología detrás de herramientas como ChatGPT no se limita a la capacidad de procesamiento de datos o a la sofisticación en la construcción de argumentos, sino que también se adentra en el terreno de la manipulación y la persuasión, abriendo un debate sobre cómo esas capacidades pueden afectar el tejido mismo de nuestras interacciones humanas.
Las preocupaciones surgen, principalmente, cuando se descubre que estas herramientas no solo presentan argumentos lógicos, sino que los personalizan según las características individuales de los usuarios, un aspecto que complica aún más la cuestión ética.
En este sentido, el poder de la persuasión que poseen estas IAs, proviene en gran medida de su acceso ilimitado a volúmenes masivos de datos, lo que les permite no solo analizar múltiples puntos de vista sino también construir argumentos que parecen perfectamente objetivos.
Sin embargo, la llamada «objetividad» que se les atribuye puede ser, en muchos casos, una ilusión.
Detrás de cada argumento presentado por la IA, existe un proceso de selección de información que sigue ciertos patrones preestablecidos, los cuales son moldeados por los sesgos y limitaciones inherentes a quienes programaron el sistema. Es decir, la aparente “imparcialidad” de la IA esconde, en realidad, las decisiones humanas que determinan cómo se organiza y prioriza la información.
Un punto crítico a considerar también —y no menos importante—, es el fenómeno de la «alucinación», un defecto que sigue siendo uno de los grandes desafíos en la tecnología de las IAs.
Las alucinaciones, en este contexto, son aquellas respuestas que la IA presenta como “ciertas”, pero que en realidad son fabricadas o incorrectas.
A diferencia de las alucinaciones en el sentido clínico, aquí no se trata de percepciones falsas en la mente humana, sino de respuestas fabricadas por la IA que parecen lógicas o fidedignas, pero no tienen base en la realidad o en datos verificados.
Estas alucinaciones pueden incluir detalles, hechos o afirmaciones que la IA produce al intentar «completar» una conversación o satisfacer una consulta, incluso si la información es incorrecta o inexistente. Este problema pone en entredicho la confiabilidad de las respuestas generadas por la IA, ya que, aunque sean persuasivas, pueden estar basadas en errores o fantasías.
Este problema pone de manifiesto la fragilidad de confiar ciegamente en la IA para decisiones cruciales, ya que una información incorrecta —aunque presentada con seguridad—, puede tener consecuencias desastrosas.
Manipulación de la opinión pública a gran escala, un riesgo sin precedentes
La credibilidad de una IA se erosiona considerablemente cuando la información que ofrece no solo es incorrecta, sino que además lo hace con una convicción que podría engañar incluso a los más cautos. Ahora bien, aunque la capacidad persuasiva de la IA sea innegable, el verdadero peligro reside en cómo se utilice esta habilidad.
Si se permite que estas herramientas se conviertan en mecanismos para manipular la opinión pública a gran escala, estaríamos enfrentando un riesgo sin precedentes. En este escenario, se hace imperativo establecer regulaciones y límites éticos que definan el uso adecuado de la tecnología, evitando que se explote con fines malintencionados.
Al final, ChatGPT y otras IAs no son más que herramientas; lo realmente determinante es quién controla su desarrollo, acceso y propósito. Si caen en las manos equivocadas, estas capacidades pueden utilizarse para erosionar la autonomía individual y la capacidad crítica, elementos fundamentales para cualquier sociedad democrática.
Finalmente, en un mundo cada vez más digitalizado —donde la línea entre lo real y lo fabricado se difumina—, la claridad con la que se exponen estos peligros es clave para que la sociedad pueda tomar decisiones informadas sobre cómo queremos que la tecnología forme parte de nuestras vidas.