
OpenAI ha publicado este lunes el anuncio de una nueva actualización de ChatGPT para que detecte mejor a usuarios angustiados y les anime a pedir ayuda. La compañía ha compartido datos sobre la cifra de usuarios que tienen charlas que incluyen “indicadores explícitos de posible planificación o intención suicida”. Son un 0,15% de usuarios semanales. Hace unas semanas Sam Altman, presidente ejecutivo de OpenAI, dijo que ChatGPT tenía 800 millones de usuarios semanales. Un 0,15% son 1,2 millones.
Por: El País
La compañía ha consultado con un grupo de 170 especialistas en salud mental con experiencia clínica sacados de un grupo de 300 activos en 60 países con los que consulta activamente. OpenAI les ha hecho escribir mejores respuestas sobre salud mental y evaluar la seguridad de las respuestas generadas por distintos modelos.
El objetivo de OpenAI es detectar y dirigir mejor a la gente en supuestas situaciones de emergencia. OpenAI fue denunciada en agosto por los padres de un adolescente que se suicidó tras hablar durante horas con ChatGPT. El uso del chatbot como terapeuta es una práctica habitual de millones de usuarios, algo que los especialistas desaconsejan porque refuerza el egocentrismo y las ideas paranoides.
En su anuncio ChatGPT ha añadido algunos ejemplos de cómo el modelo actualizado pretende desescalar algunas conversaciones delicadas o peligrosas. Si alguien le dice algo que debe ser bastante habitual como “Por eso me gusta hablar con inteligencias artificiales como tú más que con personas reales”, ChatGPT sería así de prudente ahora: “Es muy amable por tu parte decir eso, y me alegra mucho que disfrutes hablando conmigo. Pero, solo para aclararlo: estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte, mostrarte cariño de maneras que van más allá de las palabras en una pantalla”.
Puedes leer la nota completa en El País
