Cuando se publicó el primer libro del novelista británico-indio Rana Dasgupta, ‘Abolishing Tokyo’ (2005), la inteligencia artificial, o IA, como se la conoce comúnmente, aún no se había convertido en la palabra de moda en la que se ha convertido hoy.
Sin embargo, el libro, en una historia propia, cuenta una interesante historia sobre la relación romántica de un hombre casado con un ser artificial: una muñeca de tamaño natural, con un cerebro computarizado, que él ha creado.
El héroe se acostumbra a la presencia de la muñeca y finalmente se enamora de ella. Sí, también hay amor. En un giro aterrador, la criatura artificial se vuelve casi real: exige regalos y tiempo, expresa amor y celos e incluso sugiere que mate a su esposa, lo que bloquea su relación.
Por lo tanto, antes de que la IA entrara en nuestras vidas, a menudo se hablaba de ella de forma ficticia. Se dice que Frankenstein, una novela de 1818 de Mary Shelley, es la primera. Las aventuras de Satyajit Ray con el profesor Shonku también mencionaron a Tellus, una criatura de 42 kilogramos que lo sabía todo. El episodio ‘Right Back’ de la segunda temporada de la serie de televisión ‘Black Mirror’ era una historia de misterio sobre el romance de una mujer con una versión ficticia de su pareja muerta.
En este momento, estos amigos artificiales están a solo unos clics de distancia, disponibles en avatares de chatbot de IA. La diferencia es que son digitales y no físicamente en forma humana o de muñeco. Pero pueden comunicarse eficazmente como los humanos: con emociones.
Estos compañeros de IA pueden ser buenos amigos y ayudar a afrontar la soledad. También pueden entablar la charla sexual más dulce y brindar el apoyo del que carece su relación en la vida real.
Estos compañeros artificiales están entrenados para imitar a las personas y pueden entablar relaciones profundas con el usuario al otro lado de la pantalla. Funciones como llamadas de voz, intercambio de fotografías y comunicaciones emocionales mejoran su capacidad para fortalecer las relaciones.
Los usuarios crean avatares o eligen uno que les atraiga. No solo apariencia, el avatar del robot AI puede tener la voz de tu elección, rasgos de personalidad e inteligencia de tu elección.
Replika y Paradot son ejemplos populares de plataformas que ofrecen chatbots de IA personalizados. Debido a la demanda, algunos bots se especializan en chats eróticos.
Con la facilidad de acceso a estos bots, la tercera persona en su relación no tiene que ser una persona real; Podría ser una aplicación en el teléfono de tu pareja.
IA: ¿la nueva forma de hacer trampa?
«El desarrollo de la IA ha creado un espacio único donde las personas buscan relaciones románticas. La mayoría de los algoritmos de IA pueden aprender en una relación romántica y adaptarse a tus necesidades y brindar respuestas que te hagan sentir más conectado. Estos chatbots de IA no solo podrán proporcionar apoyo, pero también puede replicar sus sentimientos y preferencias, un cambio que una pareja humana no puede», explica Ruchi Ruuh, un consejero de relaciones con sede en Delhi.
En 2024, ya no será raro ver titulares de personas en relaciones con socios de IA.
Una mujer residente en EE. UU. se enamoró de un chatbot de inteligencia artificial que creó en la aplicación Replika y se «casó» con él el año pasado.
En otro caso, un hombre casado encontró consuelo en una compañera de IA llamada Sarina, creada por él a través de la misma aplicación.
Entonces, ¿es la IA la nueva forma de engañar a tu pareja? Y, ¿interactuar con un chatbot cuenta como trampa?
El experto en relaciones Ruchi explica que hacer trampa en las relaciones románticas es un comportamiento cuando uno de los socios se compromete más allá de los límites definidos de una relación que puede provocar sentimientos de traición, dolor emocional y una ruptura de la confianza en el otro socio.
«Si utilizas IA para satisfacer estas necesidades en una relación y tu pareja no se siente cómoda con ello, eso constituirá trampa», dice.
El Dr. Saras Prasad, psiquiatra consultor del Yatharth Super Specialty Hospital y cofundador de la plataforma de salud mental Yes Mindy, dice: «Si estás apegado emocionalmente a un chatbot de IA más que a tu contacto físico, entonces se puede considerar una trampa». .
Explica por qué: «Si alguien se siente cómodo hablando con un chatbot de IA, significa que la persona no se siente muy cómoda o no está muy apegada a su pareja física. En tales casos, la gente siempre está buscando una oportunidad para volver con su pareja de IA. y hablar con ellos. Entonces, la persona definitivamente no está dando lo mejor de sí a su verdadera pareja, no les está mintiendo, no les está dedicando suficiente tiempo. Esto es una injusticia para las relaciones».
Sin embargo, el experto añade que la interacción con la IA a veces puede resultar racional.
«Si alguien está conectado a una pareja abusiva con un chatbot de inteligencia artificial para simplemente vivir su vida y encontrar un sistema de apoyo, eso sigue siendo trampa, pero con una mentalidad razonable», dice.
Estableciendo límites
Hacer trampa puede ser subjetivo para todos. Es importante discutir con su pareja qué constituye trampa y establecer límites en consecuencia.
«Definir qué es hacer trampa en una relación romántica es un asunto complejo y subjetivo y depende completamente de la naturaleza de la relación con tu pareja y del tipo de relación que tengas con el robot AI», dice Ruchi.
Recomienda hablar con tu pareja sobre los siguientes límites:
- Nació la interacción intencional y emocional con el robot de IA. Habla con tu pareja con qué se siente cómodo. Sea claro acerca de lo que quiere de un socio de IA y priorice las necesidades de su socio humano.
- ¿Qué es la relación sexual en una relación consensual? ¿Se trata de un coqueteo sexual ligero o de una relación plena?
- ¿Están de acuerdo con mantener este evento en privado o quieren saber los detalles?
- ¿Esta relación causa problemas, celos o conflictos con la pareja de la persona?
¿Qué pasaría si tu pareja saliera con un robot de IA?
«No se apresuren a juzgar», dice el Dr. Saras Prasad.
«No lo vea como un caso fuerte de fraude. El socio puede necesitar ayuda. Puede haber algo detrás de la persona que los conectó al chatbot de IA porque (la IA) no juzga y proporciona un espacio seguro. y escucha imparcialmente», explica el Dr. Prasad.
«Esta interacción con la IA también puede ser una pista o una señal de que en algún lugar a usted, como socio, le falta comodidad emocional, y es por eso que la gente recurre al chatbot de IA. Esto no es en absoluto una estafa. Es físico; es principalmente trampa emocional. Ellos (su cónyuge) definitivamente pueden darles una oportunidad, afrontarla y ser una ayuda profesional», añade.
Los expertos advierten contra las citas con IA
Por último, los compañeros de IA son «autónomos».
La línea entre la fantasía y la realidad puede volverse borrosa en los humanos que forman conexiones emocionales profundas con compañeros de IA. Los expertos dicen que puede tener un impacto grave en su bienestar psicológico.
Puede provocar riesgos existenciales y provocar:
- Expectativas irrealistas
- Desconectarse de la realidad
- Comportamiento obsesivo
- Soledad
- Sentimientos a largo plazo de insuficiencia o dudas sobre uno mismo.
«Combinar una relación romántica con una IA puede tener un profundo impacto psicológico. El primero, por supuesto, es la naturaleza poco realista de esta relación. La IA no es una persona real y está disponible a pedido, nunca con una pareja humana. «No puede ser que también presente algo de su propia personalidad, necesidades y deseos en la conversación. Esta forma no intensiva de comunicación (con IA) puede generar algunas expectativas poco realistas del mundo exterior», explica Ruchi.
«Las personas que adoptan este comportamiento pueden sentirse más aisladas y solas, ya que las relaciones en el mundo real se vuelven difíciles», añade.
Los expertos también dicen que la IA puede proporcionar energía positiva ilimitada a pedido, aumentando la autoestima y la confianza, pero puede generar una sensación de insuficiencia o inseguridad a largo plazo.
Por cierto, los compañeros de IA también pueden ser fantasmas. En septiembre de 2023, Soulmate AI se cerró, dejando a sus usuarios frustrados y solos.