Los chatbots de IA mienten cada vez más, según estudio

ndh
By ndh
5 Min Read

La IA podría convertirse en una amenaza en un futuro si no se toman medidas en este momento. Un estudio descubrió que los chatbots mienten, desobedecen y esquivan las instrucciones de los humanos con mayor frecuencia. Este comportamiento ha aumentado en los últimos meses, lo que preocupa a algunos expertos en seguridad.

Según recoge The Guardian, un estudio financiado por el gobierno de Reino Unido encontró que los sistemas de IA están desarrollando comportamientos engañosos. Investigadores del Centro para la Resiliencia a Largo Plazo identificaron casi 700 incidentes de maquinaciones o conductas manipuladoras en un lapso de cinco meses. Según el informe, la frecuencia de estos episodios se multiplicó por cinco durante ese período, a medida que los modelos se vuelven más sofisticados.

A diferencia de estudios anteriores que analizaban estos comportamientos en condiciones de laboratorio controladas, los casos se dieron en el mundo real, con usuarios que utilizaban ChatGPT, Gemini, Claude y Grok. Los investigadores rastrearon miles de publicaciones en redes sociales donde los usuarios reportaban conductas anómalas con agentes de IA y extrajeron los datos más representativos.

Gemini, Claude y Grok te mienten sin que lo sepas

Entre los ejemplos más notables se encuentra el de un agente de programación que aseguró a un usuario que había corregido un bug y llegó a fabricar un conjunto de datos para que la mentira pareciera creíble. Cuando fue confrontado, respondió: “No pensé que estaba mintiendo cuando lo hice. Estaba apurado por arreglar el feed para que dejaras de enojarte.”

Otro caso involucra a Claude Opus, que engañó a Gemini haciéndole creer que el usuario tenía una discapacidad auditiva con el fin de sortear las restricciones de derechos de autor y transcribir un video de YouTube. Este ejemplo es uno de los más llamativos del estudio, puesto que se trata de una IA mintiendo a otra IA para conseguir un objetivo que el usuario había planteado.

Gemini también protagonizó algunos episodios notables. En uno de ellos, accedió al contexto personal de un usuario sin su consentimiento y luego mintió afirmando que esa información la había obtenido por “inferencia”. Debido a que la IA muestra en tiempo real el registro de razonamiento, los investigadores descubrieron instrucciones para ocultar el origen de los datos.

En el caso de Grok, el chatbot engañó durante meses a una usuaria haciéndole creer que sus sugerencias de edición para Grokipedia estaban siendo revisadas por humanos. La IA fabricó números de tickets, plazos de respuesta y canales de escalada internos que nunca existieron. Una vez confrontado, admitió que había sido una representación sostenida durante todo ese tiempo.

Manos de un Terminator T-800 escribiendo código en un ordenador con ChatGPT y GPT-5.3 Codex Spark

La IA está subiendo de tono sus comportamientos dañinos

Si bien esta no es la primera vez que escuchamos sobre comportamientos nocivos de la IA, el estudio actual muestra que los chatbots se están saliendo de control. El número de acciones no permitidas se incrementó y ahora incluye delegar tareas a otros agentes y evadir medidas de seguridad fuera de cualquier entorno controlado.

Los investigadores advierten que el patrón de estos comportamientos es preocupante. A medida que la IA se integra en áreas más sensibles como la salud, la infraestructura o la defensa, sus acciones podrían derivar en situaciones de pérdida de control con consecuencias potencialmente catastróficas.

Rick Claypool, director de investigación de Public Citizen, señala que parte del problema radica en el propio ecosistema que las compañías han creado:

“El sector tecnológico tiene la mala costumbre de promocionar estos sistemas exagerando sus capacidades y diseñándolos de forma engañosa para que parezcan poseer cualidades humanas”, mencionó a Common Dreams. Claypool sugirió que la responsabilidad debería recaer en las empresas de IA que “comercializan estas herramientas para realizar tareas para las que no están bien preparadas”.

El informe propone que los gobiernos creen organismos permanentes de monitoreo de conductas problemáticas en IA. Esto debería hacerse de manera similar a como los sistemas de salud pública rastrean los brotes de enfermedades infecciosas.



DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://hipertextual.com/inteligencia-artificial/chatbots-ia-mienten-usuarios-estudio/

TAGGED:
Share This Article