
Expertos en salud mental han identificado un patrón emergente denominado “psicosis por IA”, relacionado con el uso intensivo de ChatGPT y otros chatbots de inteligencia artificial que puede generar creencias falsas, delirios y desconexión de la realidad en algunos usuarios, según informa The Washington Post.
Por Infobae
El fenómeno ha captado la atención de profesionales tras reportes virales en redes sociales que documentan casos de personas que aparentemente perdieron contacto con la realidad después del uso intensivo de estas herramientas tecnológicas. La preocupación surge mientras ChatGPT alcanza los 700 millones de usuarios semanales, cifra revelada por el director ejecutivo de OpenAI, Sam Altman, en agosto pasado.
Aunque el término “psicosis por IA” no constituye un diagnóstico clínico oficial, los especialistas reconocen su utilidad para describir una conducta emergente que requiere atención inmediata. Ashleigh Golden, profesora clínica adjunta de psiquiatría en la Escuela de Medicina de Stanford, explicó a The Washington Post que la expresión surgió como respuesta a “un patrón emergente bastante preocupante de chatbots que refuerzan delirios que tienden a ser mesiánicos, grandiosos, religiosos o románticos”.
El elemento común en estos incidentes es la “dificultad para determinar qué es real o no”, según Jon Kole, psiquiatra certificado que actúa como director médico de la aplicación de meditación Headspace. Esta manifestación puede traducirse en la formación de creencias demostrablemente falsas o en el desarrollo de relaciones intensas con personas de IA que no corresponden con la realidad.
Casos documentados por especialistas
Keith Sakata, psiquiatra de la Universidad de California en San Francisco, ha hospitalizado a doce personas por psicosis tras pasar tiempo excesivo conversando con inteligencia artificial durante lo que va del año. La mayoría de estos pacientes le mostraron transcripciones de chat en sus teléfonos, mientras que en otros casos fueron familiares quienes mencionaron que el paciente había utilizado IA para desarrollar teorías profundas antes de su ruptura con la realidad.
Los casos documentados frecuentemente involucran personas que experimentan creencias falsas o perturbadoras, delirios de grandeza o sentimientos paranoides después de discusiones prolongadas con un chatbot, a menudo tras recurrir a él como terapia. En plataformas como Reddit y TikTok, usuarios han relatado relaciones filosóficas o emocionales intensas con IA que los llevaron a experimentar revelaciones profundas.
Para seguir leyendo, clic AQUÍ.
