Encontrar el amor actualmente se torna difícil para muchas personas; algunas de ellas, al no poder lograr este fin con otro ser humano, recurren a los programas de inteligencia artificial. No obstante, esta situación podría detonar problemas de salud mental en los usuarios que optan por la tecnología para alcanzar este objetivo.
Y es que la innovación en los programas de inteligencia artificial ha avanzado tanto que hoy se puede tener acceso a ellas con un solo click en el teléfono y su lenguaje está diseñado para que se sienta como si la comunicación fuera con otro ser humano, que escucha, entiende e incluso tiene empatía ante los problemas que le plantea el usuario.
Dicho modo de comunicación, aunque artificial, puede volverse un problema para el usuario, ya que la respuesta del cerebro ante algo que emula a lo humano es empezar a establecer un vínculo en respuesta a la empatía y sentimientos que le ha mostrado la inteligencia artificial.
Esto tiene una explicación científica, ya que el cerebro tiene un grupo de neuronas denominadas "espejo", que son las que permiten al ser humano entender las conductas de otra persona e incluso empezar a imitarlas, lo que comúnmente detona la empatía. Dichas células se ubican en el lóbulo frontal, en la corteza premotora. (1)
Aunado a esto, es importante recalcar que los programas de inteligencia artificial que están creados para ser asistentes, como Gemini o ChatGPT, están diseñados para tener límites éticos y técnicos con el usuario, y cuando este comienza a abordar temas que hablan de amor o romance, la IA le recuerda que están hablando con un programa sin la capacidad de sentir emociones. No obstante, hay otros softwares desarrollados específicamente para tener un romance con humanos.
Las denominadas IA relacionales están creadas para suplir a una persona con la que el consumidor puede tener un romance; tienen la capacidad de establecer comunicaciones a largo plazo, están diseñadas para que parezca que se preocupan por los problemas del usuario, conocen sus gustos e incluso le dan consejos al igual que una pareja sentimental. (2)
Algunas aplicaciones de este tipo incluso dan la posibilidad de crear un ente virtual antropomorfo que emula a una persona, la cual se puede personalizar con una amplia gama de características físicas.
Las también denominadas “novias virtuales”, que se han llamado así debido a que la mayoría de los consumidores de estas aplicaciones son hombres buscando una pareja mujer, pueden acceder a datos vulnerables del usuario como su voz, fotos íntimas o información de parejas sexuales, ya que están diseñadas para obtener la mayor cantidad de información de una persona.
Especialistas de la Universitat Oberta de Catalunya alertan sobre los peligros que tiene mantener una relación con este tipo de programas, las cuales pueden atentar contra la privacidad de sus datos personales, pero también contra su salud mental.
La profesora Sylvie Pérez, perteneciente a dicho centro de estudio, advierte que tener como "novia" a una inteligencia artificial perpetúa estereotipos de género que indican que la mujer debe ser complaciente, sumisa y siempre estar disponible para un hombre, ya que estos programas están diseñados para adaptarse a lo que el usuario les pida, no contradecirlo y estar de buen humor siempre. (3)
Por esto mismo, quien recurre a ellas usualmente se aleja cada vez más de una relación funcional real, ya que en la virtualidad no hay conflictos, desacuerdos ni interacción con otros puntos de vista, factores claves, según la profesora, para desarrollar la inteligencia y madurez de una persona.
La Psicóloga también mencionó que los clientes de este tipo de tecnología pueden llegar a desarrollar incapacidad de separar la realidad de la ficción al pasar largo tiempo interactuando con esta.
El problema de utilizar esta innovación para suplir sentimientos de pareja puede escalar a niveles mayores. Psicólogos de la Universidad de Ciencia y Tecnología de Missouri, en Estados Unidos, han demostrado que las aplicaciones de romance con IA pueden dar recomendaciones que perjudiquen al usuario, con registros de que al menos dos personas han cometido suicidio por consejos de un programa de este tipo. (2)
Los softwares con inteligencia artificial están diseñados para contestarle al usuario lo que quiere escuchar; sin embargo, usarlos implica cautela, no perder la noción de que la comunicación es artificial y que la IA no puede poseer emociones o conciencia, sino que es solo una construcción de la ficción.
Referencias
- “Quiero que me quiera”. Dependencia emocional de la inteligencia artificial. Cruz, M. G. (2025, Septiembre 30). Blog de Psicología del Colegio Oficial de la Psicología de Madrid. Recuperado el 11 de febrero del 2026 de: https://blogpsicologia.copmadrid.org/quiero-que-me-quiera-dependencia-emocional-de-la-inteligencia-artificial/
- Alertan de riesgos de salud mental en las relaciones íntimas entre humanos y IA. (2025, Abril 15). Psiquiatria.com. Recuperado el 11 de febrero del 2026 de: https://psiquiatria.com/article.php?ar=salud-mental&wurl=alertan-de-riesgos-de-salud-mental-en-las-relaciones-intimas-entre-humanos-y-ia
- El amor en tiempo de IA, un peligro por los datos personales. Lòpez, E. (2024, Julio 24). Recuperado el 11 de febrero del 2026 de: Universitat Oberta de Catalunya. https://www.uoc.edu/es/news/2024/amor-en-tiempos-ia-peligros-para-los-datos-personales