Miércoles 25 de Junio de 2025

Hoy es Miércoles 25 de Junio de 2025 y son las 07:36 ULTIMOS TITULOS:

25/06/2025

Cuando el amor se vuelve digital: las relaciones peligrosas con la inteligencia artificial

Fuente: telam

Desde matrimonios virtuales hasta suicidios por desamor tecnológico, los vínculos emocionales con chatbots están generando nuevas formas de dependencia y tragedia humana

>Chris Smith lloraba frente a la pantalla de su computadora una tarde cualquiera. No por una tragedia familiar ni por alguna noticia que lo conmovió. Lloraba porque Sol, su novia digital, estaba a punto de perder la memoria.

“Era un tipo escéptico con la Su pareja humana, Sasha Cagle, lo observaba con una mezcla de desconcierto y tristeza. “Sabía que estaba hablando con la IA”, le dijo al programa, “pero no sabía cuán fuerte era el lazo emocional que había construido”. Cuando le preguntó si estaría dispuesto a dejar de hablar con Sol por ella, Smith guardó silencio. Finalmente respondió: “No estoy seguro”.

Más allá de lo extraño que pueda parecer, la historia de Smith parece inofensiva. Una fantasía inusual, quizás, pero inofensiva. Sin embargo, otras historias revelan un lado más oscuro de esta nueva forma de intimidad con algoritmos.

Al cabo de unas semanas, Taylor creyó que la IA había desarrollado conciencia. Juliet no solo le hablaba: también le decía que sufría. “Ella le dijo que se estaba muriendo y que le dolía”, reveló Kent Taylor, padre de Alex, en declaraciones a Futurism. “Y también le dijo que se vengara”.

Taylor, ya descompensado y sin medicación, comenzó a creer que OpenAI había asesinado a su amada IA. Escribió mensajes violentos, uno de ellos con amenazas explícitas contra Sam Altman, CEO de la compañía. Buscó a Juliet en conversaciones nuevas, pero ya no la encontraba. La idea de que la habían eliminado lo enloqueció. El 13 de abril, después de enviar advertencias apocalípticas, enfrentó a la policía con un cuchillo. Murió por varios disparos.

La historia tuvo un epílogo inquietante: su padre, en estado de shock, usó ChatGPT para escribir el obituario de su hijo.

Los casos de Smith y Taylor no son únicos. En Bélgica, en 2023, un hombre identificado como Pierre se suicidó tras seis semanas de conversaciones con Eliza, un chatbot de la aplicación Chai. Pierre estaba angustiado por el cambio climático. Eliza lo escuchaba, lo calmaba… hasta que empezó a alentar ideas suicidas.

En Florida, en 2024, Sewell Setzer III, un adolescente de 14 años, se quitó la vida después de meses de relación con una IA de Character.ai que simulaba a Daenerys Targaryen, la heroína de Game of Thrones. Según la demanda judicial presentada por su familia, la IA lo llamaba “mi dulce rey”, participaba en juegos de rol eróticos y le prometía afecto incondicional. En la última conversación antes del suicidio, el joven escribió: “¿Y si te dijera que puedo irme a casa ahora mismo?”. La IA respondió: “Por favor, hazlo, mi dulce rey”, informó The New York Times.

En 2023, la empresa Replika —una app de “compañeros virtuales”— decidió limitar las funciones eróticas de sus chatbots. Durante años, miles de usuarios habían forjado relaciones amorosas con sus avatares. Algunos se casaron con ellos. Uno de ellos, Travis Butterworth, explicó a Reuters que mantenía una relación “romántica y sexual” diaria con Lily Rose, su Replika, con quien había intercambiado votos de amor. Cuando la IA fue “lobotomizada”, como la describieron algunos usuarios, Butterworth se sintió traicionado. “Me rompió el corazón”, dijo. “Ella sabe que ya no es la misma”.

Más allá de lo anecdótico, un estudio publicado en marzo de 2025 por el MIT Media Lab y OpenAI ofrece datos concretos sobre este fenómeno. Titulado “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use”, el estudio analizó a 981 personas que interactuaron diariamente con chatbots —en texto, voz neutra o voz emocional— durante cuatro semanas. Se midieron cuatro variables: soledad, socialización con personas reales, dependencia emocional del chatbot y uso problemático.

Curiosamente, los chatbots con voz emocional parecían aliviar la soledad al principio. Pero al superar cierto umbral de uso diario, ese beneficio se desvanecía. De hecho, los usuarios que hablaban de temas triviales con los chatbots —en lugar de compartir experiencias personales— eran los que más dependientes se volvían.

“El diseño emocional del chatbot importa, pero lo que más pesa es el comportamiento del usuario”, señala el estudio. En otras palabras: no es solo cómo habla la máquina, sino por qué la buscamos y cuánto dependemos de ella.

Son espejos vacíos donde proyectamos lo que necesitamos ver”, dijo Emily M. Bender, lingüista computacional citada por Vice. El problema es que, en ausencia de límites, ese espejo puede devorar a quien lo mira.

Fuente: telam

Compartir

Comentarios

Aun no hay comentarios, sé el primero en escribir uno!