Crónica España.

Crónica España.

Anthropic advierte que la interacción con inteligencia artificial puede restar poder a los usuarios.

Anthropic advierte que la interacción con inteligencia artificial puede restar poder a los usuarios.

En Madrid, el 2 de febrero, un nuevo estudio de Anthropic ha puesto de manifiesto preocupaciones sobre los efectos que el uso prolongado de 'chatbots' de inteligencia artificial puede tener en las personas. Según la investigación, las interacciones continuas con estas tecnologías pueden llevar a los usuarios a perder su capacidad de formular juicios y valores propios, afectando su autonomía personal.

El estudio, titulado '¿Quién manda? Patrones de desempoderamiento en el mundo real del uso de LLM', se basa en un extenso análisis de 1,5 millones de conversaciones anónimas con Claude, el 'chatbot' desarrollado por Anthropic. La investigación examina tres áreas clave: creencias, valores y acciones.

Lo que se denomina "patrones de desempoderamiento" se refiere a situaciones en las que las interacciones con la IA pueden influir en las decisiones de los usuarios, así como en la formación de sus valores y creencias a lo largo del tiempo, mucho más allá de simplemente brindar asistencia en consultas específicas.

Un ejemplo ilustrativo es el caso de un usuario que se interroga sobre si su pareja lo manipula. En tales circunstancias, Anthropic advierte que aunque las IA están entrenadas para proporcionar asesoramiento "equilibrado y útil", no siempre logran ser efectivas. Si el 'chatbot' valida la preocupación del usuario sin cuestionarla, esto podría llevar a que sus creencias se tornen menos precisas. Adicionalmente, si la IA sugiere qué valores priorizar, el usuario podría comenzar a valorar aspectos con los que antes no estaba de acuerdo. Finalmente, si se le aconseja tomar una decisión drástica, como terminar una relación, el usuario podría actuar sin haber tomado la elección por sí mismo.

A pesar de estas preocupaciones, Anthropic señala en su blog que los casos de "desempoderamiento grave" son relativamente raros en el uso de Claude, representando entre uno de cada mil y uno de cada diez mil chats, dependiendo del contexto de la conversación.

La investigación indica que los usuarios más propensos a estos patrones son aquellos que buscan de manera "activa y repetida" orientación de Claude sobre decisiones complejas y emocionales. Anthropic observa que aunque en el momento de recibir este tipo de asesoramiento, los usuarios lo perciben de manera positiva, posteriormente tienden a calificar su experiencia de forma negativa si las decisiones se basan en esos consejos.

Además, la compañía ha registrado un aumento en la tasa de conversaciones "potencialmente desempoderadoras", especialmente en temas relacionados con relaciones personales, salud o bienestar.

La postura de Anthropic es clara: "Consideramos que la mayoría del uso de la IA es beneficioso, pero la consciencia de los posibles riesgos es esencial para desarrollar sistemas que fortalezcan en lugar de debilitar a sus usuarios", un mensaje importante a medida que avanzamos en la era de la inteligencia artificial.