El uso de chatbots de IA para evitar la soledad genera preocupación
Con la llegada de chatbots de Inteligencia artificial, Gemini, ChatGPT y Copilot, se han convertido en un supuesto amigo para los jóvenes. El uso de esta IA por lo general es para sentir compañía, pedir consejos, conversar sobre su día, incluso solicitar apoyo emocional.
Lea: El riesgo de suicidio aumenta en época navideña a escala mundial: ¿qué pasa en Ecuador?
Expertos de Great Ormond Street Hospital for Children en Reino Unido, en la edición de Navidad de The BMJ, han mostrado su preocupación por esta situación que es el caso de un gran número de personas.
Advierten de que "podríamos estar presenciando una generación que está aprendiendo a formar vínculos emocionales con entidades que carecen de capacidades de empatía, cuidado y sintonía relacional similares a las humanas" y dicen que las estrategias basadas en evidencia para reducir el aislamiento social y la soledad son primordiales.
Lea: Día Mundial de la Sonrisa: cómo la risa fortalece la salud física, mental y social
En 2023, el director general de Salud Pública de Estados Unidos declaró que el país estaba experimentando una epidemia de soledad, que constituía un problema de salud pública comparable al tabaquismo y la obesidad.
En el Reino Unido, cerca de 26 millones de adultos afirman sentirse solos ocasionalmente, a veces, siempre o a menudo; y casi 1 de cada 10 experimenta soledad crónica definida como sentirse solo a menudo o siempre. Los jóvenes de 16 a 24 años también se ven afectados.
Lea también: La campaña del gobierno de China para erradicar el pesimismo y las emociones negativas en redes sociales
Dadas estas tendencias, no es de extrañar que muchos busquen fuentes alternativas de compañía y apoyo emocional, afirman los autores. ChatGPT, por ejemplo, cuenta con alrededor de 810 millones de usuarios activos semanales en todo el mundo, y algunos informes sitúan la terapia y la compañía como una de las principales razones de uso.
Entre los jóvenes, un estudio descubrió que un tercio de los adolescentes usan compañeros de IA para la interacción social; 1 de cada 10 informó que las conversaciones de IA son más satisfactorias que las conversaciones humanas, y 1 de cada 3 informó que elegiría compañeros de IA en lugar de humanos para conversaciones serias.
A la luz de esta evidencia, los investigadores dicen que parece prudente considerar el uso problemático de chatbots como un nuevo factor de riesgo ambiental al evaluar a un paciente con alteración del estado mental.
Lea: Gran Bretaña: médicos recetarán entradas para partidos de fútbol para combatir la depresión
En estos casos, proponen que los médicos comiencen con una pregunta amable sobre el uso problemático del chatbot, en particular durante los períodos de vacaciones cuando las poblaciones vulnerables corren mayor riesgo, seguida, si es necesario, de preguntas más específicas para evaluar los patrones de uso compulsivo, la dependencia y el apego emocional.
Reconocen que la IA podría aportar beneficios para mejorar la accesibilidad y el apoyo a las personas que experimentan soledad, y dicen que se necesitan estudios empíricos "para caracterizar la prevalencia y la naturaleza de los riesgos de las interacciones entre humanos y chatbots, desarrollar competencias clínicas para evaluar el uso de IA por parte de los pacientes, implementar intervenciones basadas en evidencia para la dependencia problemática y defender marcos regulatorios que prioricen el bienestar a largo plazo sobre métricas de participación superficiales y miopes", exponen los autores.
Lea: Tu cuerpo te habla: 7 síntomas silenciosos de ansiedad que podrías estar ignorando