OpenAI introduce contacto de confianza en ChatGPT para alertar sobre autolesiones
OpenAI ha lanzado una función que permite a los usuarios de ChatGPT designar un contacto de confianza, que será notificado si el asistente detecta indicios de autolesión o riesgo para la seguridad del usuario. La herramienta busca ofrecer un nivel adicional de apoyo en situaciones delicadas.
El contexto de esta iniciativa responde a que muchas personas utilizan ChatGPT para reflexionar sobre problemas personales y buscar apoyo emocional. La plataforma ahora incorpora un sistema automatizado que, mediante monitorización, identifica posibles comportamientos peligrosos y envía alertas a las personas elegidas por el usuario, como familiares o cuidadores.
Esta medida refleja un interés creciente en integrar la inteligencia artificial en la protección de la salud mental. La decisión se enmarca en un marco regulatorio y ético que busca equilibrar la innovación tecnológica con la responsabilidad social y la protección del usuario, especialmente en un entorno digital donde las vulnerabilidades pueden pasar desapercibidas.
Desde una perspectiva política, la regulación de estas funciones destaca la tendencia en Europa a establecer marcos más estrictos sobre la inteligencia artificial y la protección de datos. La Unión Europea ha puesto en marcha directrices que exigen mayor responsabilidad a las empresas tecnológicas en la gestión de riesgos asociados a sus productos, especialmente en ámbitos sensibles como la salud mental.
El futuro de estas herramientas dependerá del equilibrio entre innovación y regulación. La incorporación de contactos de confianza en IA representa un paso hacia una mayor responsabilidad social en la tecnología, aunque también plantea desafíos en términos de protección de datos y privacidad. La evolución de estas funciones será clave en la percepción pública y en la regulación del sector tecnológico.