Una mujer pidió el divorcio tras una lectura de café hecha con ChatGPT
Una mujer pidió el divorcio después de que la IA sugiriera una infidelidad al interpretar los posos de su café; el episodio abre debate sobre el uso de tecnologías en decisiones personales.
- Imagen referencial de un divorcio. ( )
En Grecia, una mujer solicitó el divorcio luego de que ChatGPT interpretara los residuos de café en su taza como una señal de infidelidad por parte de su esposo. La escena comenzó como una actividad doméstica cotidiana: la pareja preparó café griego, bebida que deja restos espesos en el fondo de la taza. Siguiendo una tendencia en redes sociales, la mujer fotografió los posos y le pidió a la IA que los interpretara como si se tratara de una sesión de tasseografía, una práctica esotérica tradicional.
También le puede interesar: ¿Por qué duelen las articulaciones cuando llueve?
Según su relato, ChatGPT describió que su esposo tenía fantasías con una mujer cuyo nombre comenzaba con “E” y que esa persona representaba una amenaza para su familia. Tomando esta lectura como una revelación, la mujer procedió a informar a sus hijos y solicitó el divorcio. El esposo, sorprendido, declaró al programa “To Proino” que al principio pensó que era una broma: “Me reí y lo tomé como una tontería. Pero ella no”.

Debate nacional
El caso ya se encuentra en manos de los tribunales. El abogado del hombre sostiene que la acusación carece de fundamento legal, mientras que especialistas en tasseografía tradicional criticaron el uso de fotografías y herramientas automatizadas para una práctica que requiere interpretación directa y experiencia. Por su parte, el esposo afirmó que su pareja ya tenía antecedentes de creencias esotéricas, incluida la consulta regular a un astrólogo.
También lea: La cruz pectoral del Papa León XIV guarda un mensaje de santidad y memoria agustiniana
El episodio provocó un debate nacional sobre el uso de inteligencia artificial en contextos personales. Mientras algunos consideran que la IA solo confirmó sospechas previas, otros advierten sobre los riesgos de delegar decisiones emocionales a sistemas estadísticos sin conciencia ni comprensión. Expertos como Kate Crawford recuerdan que estos modelos no son neutrales, sino espejos de nuestras obsesiones y estructuras sociales. Aunque anecdótico, el caso ilustra cómo tecnologías diseñadas para tareas generales están siendo usadas en decisiones profundamente humanas.
Recomendadas