Programas de IA uniforman la manera de hablar, escribir y pensar: especialistas

ndh
By ndh
6 Min Read

Europa Press

 

Periódico La Jornada
Jueves 12 de marzo de 2026, p. 6

Madrid. Los chatbots de inteligencia artificial (IA) están estandarizando la forma en que las personas hablan, escriben y piensan, según un trabajo de la Universidad del Sur de California.

Si esta homogeneización continúa sin control, se corre el riesgo de reducir la sabiduría colectiva y la capacidad de adaptación de la humanidad, argumentan científicos informáticos y sicólogos en un artículo de opinión publicado en la revista Trends in Cognitive Sciences, de Cell Press.

Afirman que los desarrolladores de inteligencia artificial deberían incorporar una mayor diversidad del mundo real en los conjuntos de entrenamiento de modelos de lenguaje amplios, no sólo para preservar la diversidad cognitiva humana, sino también para mejorar la capacidad de razonamiento de los chatbots.

“Las personas difieren en su forma de escribir, razonar y ver el mundo”, contextualiza el primer autor del artículo y científico informático Zhivar Sourati, de la Universidad del Sur de California.

“Cuando estas diferencias son mediadas por los mismos modelos de lenguaje amplios, su estilo lingüístico, perspectiva y estrategias de razonamiento distintivos se homogeneizan, produciendo expresiones y pensamientos estandarizados para todos los usuarios.”

Dentro de grupos humanos y sociedades, la diversidad cognitiva impulsa la creatividad y la resolución de problemas, afirman los investigadores.

Sin embargo, la diversidad cognitiva está disminuyendo en todo el mundo, ya que miles de millones de personas utilizan los mismos chatbots de inteligencia artifical para un número cada vez mayor de tareas. Cuando los individuos utilizan chatbots para pulir su escritura, por ejemplo, se pierde su individualidad estilística y las personas se sienten menos responsables de su producción creativa.

“La preocupación no es sólo que los modelos de lenguaje amplios moldeen la manera en que la gente escribe o habla, sino que redefinen sutilmente lo que cuenta como discurso creíble, una perspectiva correcta o incluso un buen razonamiento”, advierte Sourati.

Experiencia sesgada

El equipo señala múltiples análisis que muestran que los resultados de los estudios de maestría en derecho son menos variados que los escritos generados por humanos y que tienden a reflejar el lenguaje, los valores y los estilos de razonamiento de las sociedades occidentales, educadas, industrializadas, ricas y democráticas.

“Dado que los modelos de lenguaje amplios están entrenados para capturar y reproducir regularidades estadísticas en sus datos de entrenamiento –que a menudo sobrerrepresentan los idiomas e ideologías dominantes–, sus resultados a menudo reflejan una porción estrecha y sesgada de la experiencia humana”, asegura Sourati.

Aunque los estudios muestran que los individuos a menudo generan más ideas con más detalles cuando utilizan modelos de lenguaje amplios, los grupos humanos producen menos ideas y menos creativas cuando se apoyan en ellos que cuando simplemente combinan sus poderes colectivos, señalan los investigadores.

“Aunque las personas no sean usuarias directas de dichos modelos, éstos los afectarán indirectamente –subraya Sourati–. Si mucha gente a mi alrededor piensa y habla de cierta manera y yo hago las cosas de forma diferente, sentiría la presión de alinearme con ellos porque parecería una forma más creíble o socialmente aceptable de expresar mis ideas.”

Más allá del lenguaje, estudios han demostrado que, tras interactuar con modelos de lenguaje amplios sesgados, las opiniones de las personas se asemejan más al modelo que utilizaron.

“Esos esquemas también favorecen los modos de razonamiento lineal, como la reflexión en cadena, que requiere que los modelos muestren el razonamiento paso a paso. Este énfasis reduce el uso de estilos de razonamiento intuitivo o abstracto, que a veces son más eficientes que el lineal”, afirman los investigadores. También señalan que los modelos de lenguaje amplios pueden alterar las expectativas de las personas, lo que puede cambiar sutilmente la dirección del trabajo de un individuo.

“En lugar de dirigir activamente la generación, los usuarios a menudo se dejan llevar por las continuaciones sugeridas por el modelo y seleccionan opciones que parecen ‘suficientemente buenas’, en lugar de crear las suyas propias, lo que gradualmente desplaza la iniciativa del usuario al modelo”, explica Sourati.

Los investigadores afirman que los desarrolladores de inteligencia artificial deberían incorporar intencionalmente la diversidad de lenguaje, perspectivas y razonamiento en sus modelos. Enfatizan que esta variedad debería basarse en la que existe en los humanos a escala global, en lugar de introducir variaciones aleatorias.

“Si los modelos de lenguaje amplios tuvieran formas más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y las capacidades de resolución de problemas de nuestras sociedades –agrega el especialista–. Necesitamos diversificar los propios modelos de inteligencia artificial y al mismo tiempo ajustar nuestra interacción con ellos, especialmente dado su uso generalizado en diversas tareas y contextos para proteger la diversidad cognitiva y el potencial de ideación de las generaciones futuras.”

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://www.jornada.com.mx/2026/03/12/ciencias/a06n1cie?partner=rss

TAGGED:
Share This Article