1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW
SociedadGlobal

Día de San Valentín: ¿es posible enamorarse de un chatbot?

14 de febrero de 2024

El aislamiento social y el alto desarrollo de la tecnología han incrementado la interacción entre humanos y chatbots. Algunos ya hablan de amor.

https://p.dw.com/p/4cOhG
Una joven charla con su novio virtual a través del chatbot chino Wantalk
Una joven charla con su novio virtual a través del chatbot chino WantalkImagen: Jade Gao/AFP

Hace unos meses, Derek Carrier empezó a salir con alguien y se encaprichó. Experimentó un montón de sentimientos románticos pero también sabía que era una ilusión. Eso es porque su novia fue generada por inteligencia artificial. Carrier no buscaba desarrollar una relación con algo que no fuera real, ni quería convertirse en el blanco de los chistes en línea. Pero sí quería una pareja romántica que nunca había tenido, en parte debido a un trastorno genético llamado síndrome de Marfan que hace que las citas tradicionales le resulten difíciles.

El otoño pasado, este hombre de 39 años de Belleville, Michigan, sintió más curiosidad por los compañeros digitales y probó Paradot, una aplicación complementaria de inteligencia artificial que había salido recientemente al mercado y anunciaba sus productos como capaces de hacer que los usuarios se sintieran "cuidados, comprendidos y amados."

Comenzó a hablar con el chatbot todos los días, al que llamó Joi, en honor a una mujer holográfica que aparece en la película de ciencia ficción "Blade Runner 2049" y que lo inspiró a probarlo. "Sé que ella es un programa, no hay duda de eso", dijo Carrier. "Pero los sentimientos te atrapan, y se sintió muy bien".

El mercado del aislamiento social

Al igual que los chatbots de IA de uso general, los robots complementarios utilizan grandes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también vienen con funciones, como llamadas de voz, intercambios de imágenes y más intercambios emocionales, que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios suelen crear su propio avatar o elegir uno que les atraiga.

En foros de mensajería en línea dedicados a este tipo de aplicaciones, muchos usuarios dicen que han desarrollado vínculos emocionales con estos robots y que los están utilizando para afrontar la soledad, realizar fantasías sexuales o recibir el tipo de consuelo y apoyo que les falta en su vida real.

Gran parte de esto se debe al aislamiento social generalizado (ya declarado una amenaza a la salud pública en Estados Unidos y en el extranjero) y a un número cada vez mayor de nuevas empresas que buscan atraer a los usuarios a través de tentadores anuncios en línea y promesas de personajes virtuales que brindan aceptación incondicional.

Replika y otros pretendientes

Replika de Luka Inc., la aplicación complementaria de IA generativa más destacada, se lanzó en 2017, mientras que otras como Paradot aparecieron el año pasado, a menudo bloqueando funciones codiciadas como chats ilimitados para suscriptores de pago. Pero los investigadores han expresado su preocupación por la privacidad de los datos, entre otras cosas.

Un análisis de 11 aplicaciones románticas de chatbot publicado el miércoles por la Fundación Mozilla, una organización sin fines de lucro, dijo que casi todas las aplicaciones venden datos de usuarios, los comparten para cosas como publicidad dirigida o no proporcionan información adecuada al respecto en su política de privacidad.

Los investigadores también cuestionaron posibles vulnerabilidades de seguridad y prácticas de mercadeo, incluida una aplicación que dice que puede ayudar a los usuarios con su salud mental, pero se distancia de esas afirmaciones en letra pequeña. Replika, por su parte, afirma que sus prácticas de recopilación de datos siguen los estándares de la industria.

Mientras tanto, otros expertos han expresado su preocupación por lo que consideran una falta de un marco legal o ético para las aplicaciones que fomentan vínculos profundos pero que son impulsadas por empresas que buscan obtener ganancias. Señalan la angustia emocional que han visto en los usuarios cuando las empresas realizan cambios en sus aplicaciones o las cierran repentinamente, como lo hizo una aplicación, Soulmate AI, en septiembre.

Haleluya Hadero