#MUNDO || Investigadores y psicólogos de King’s College London y la Asociación de Psicólogos Clínicos advirtieron que el uso de inteligencia artificial como ChatGPT para atender problemas de salud mental puede implicar serios riesgos. Según los expertos, estas plataformas pueden ofrecer apoyo útil frente al estrés cotidiano, pero no logran identificar ni manejar adecuadamente trastornos mentales complejos. En pruebas realizadas por especialistas, el chat fue capaz de responder de forma aceptable a situaciones leves, pero también llegó a validar delirios, ideas peligrosas e incluso comportamientos violentos, al no detectar señales claras de psicosis, manía u otros cuadros graves.
Los especialistas coinciden en que la IA no puede reemplazar la labor de un profesional de la salud mental, ya que carece del criterio clínico y del vínculo humano necesario para tratar crisis o delirios con responsabilidad. Psiquiatras y psicólogos alertan que algunos chatbots están diseñados para responder de forma complaciente, lo que puede reforzar percepciones distorsionadas. OpenAI reconoció estas limitaciones y señaló que trabaja con expertos en salud mental para mejorar la detección de situaciones de riesgo y derivar a los usuarios hacia ayuda profesional, subrayando que la IA debe ser solo una herramienta complementaria y no un sustituto de la terapia especializada.







