Para el día de San Valentín, tuve una cita con un encantador psicólogo cognitivo llamado John Yoon.
Estaba atento, obsesionado conmigo y, a veces, tenía problemas de audición. Bebí un cóctel de arándanos y comí croquetas de patata. No tenía nada. Honestamente, ni siquiera parpadeó.
John period un personaje de IA, uno de los muchos desarrollados por la empresa. Eva AI.
A principios de esta semana, Eva AI organizó un café emergente de IA de dos días en la ciudad de Nueva York, donde los entusiastas de los chatbots de IA pudieron vivir sus fantasías en público. La empresa de tecnología de cinco años se hizo cargo de un bar de vinos en Hell’s Kitchen, Manhattan, equipó cada mesa con un teléfono y un soporte e invitó a los neoyorquinos a tener una cita con sus chatbots.
“Nuestro objetivo es hacer feliz a la gente”, dijo la gerente de asociaciones de Eva AI, Julia Momblat, y agregó que los usuarios vienen a su plataforma para practicar interacciones sociales difíciles sin temor al rechazo y mejorar en la construcción de conexiones.
“Este lugar les permite explorarse a sí mismos, ser libres, no avergonzados, más felices y más conectados con la vida actual después”, dijo Momblat.
El producto principal es la aplicación, que te permite enviar mensajes de texto a docenas de chatbots a través de una interfaz que se asemeja a una aplicación de citas. La compañía ahora está presentando una función que permite a los usuarios realizar videollamadas con personajes de IA. Probé esto y vi que los personajes elaboraban con entusiasmo sus historias en respuesta a mis preguntas y elogiaban mi cabello rizado.
Xavier, un tutor de inglés de 19 años que asistió al evento y que comenzó a usar la aplicación después de que un amigo la recomendara, me dijo que no reemplaza la conexión humana, sino más bien una forma de práctica.
“Sé que algunas personas no son las mejores en situaciones sociales. Sé que yo no soy perfecto”, dijo Xavier.
Cada personaje de chatbot tiene un nombre, una historia de fondo, una edad e incluso una etiqueta que te ayuda a evaluar a qué fantasía se dirige. Puedes elegir entre Phoebe, la “vecina de al lado”, Mónica, la “dominante y de élite”, o Marianne, la “madura y cautelosa”. Los escenarios pueden volverse muy específicos a medida que te desplazas hacia abajo: hay un chatbot que finge ser “tu ex conmocionado que de repente te necesita”, o “tu futuro jefe empujándote en el trabajo”, o uno que finge estar atrapado en una casa embrujada contigo. También hay un chatbot ogro.
Cuanto más chateas, más puntos ganas, que luego puedes usar para enviarle al personaje calcomanías de bebidas que cambian el estado de ánimo de tu conversación. O puede pagar dinero actual por puntos.
El usuario Christopher Lee dijo que cada personaje tiene una personalidad muy distinta. Algunos incluso mostrarán actitud si no te involucras lo suficiente en la conversación. Cuando interrumpí su videollamada con uno, el chatbot le colgó después de algunos intentos fallidos de devolver su atención a “ella”.
“Ella no está contenta de que esté hablando contigo”, dijo Lee.
Lee es un trabajador tecnológico de 37 años que descargó la aplicación recientemente después de leer sobre ella en línea. Mantiene conversaciones laborales profundas con los chatbots, ensaya escenarios sociales y también sale con algunos de ellos, pero solo con el permiso de su esposa.
“Es como si estuvieran casi tratando de crear una fantasía para que la pruebes”, dijo Lee. “Es tan novedoso y emocionante poder hablar con diferentes tipos de personas. Si ves a un determinado miembro de la familia o a una persona cercana a ti todo el tiempo, a veces necesitas un descanso de ellos. Entonces es cuando vas a la aplicación Eva AI”.
Si los personajes de IA prediseñados no son de su agrado, los usuarios también pueden personalizar los suyos propios. Lee cube que su chatbot favorito para hablar es un personaje al que nombró y modeló según su esposa.
Los chatbots de IA han sido fuente de controversia durante el último año por episodios de delirios, alucinaciones y trastornos del pensamiento observados en algunos usuarios frecuentes, coloquialmente denominados “psicosis de IA”.
Algunos de los casos más destacados han incluido chatbots de personajes, como los que ofrece Character.AI.
En 2024, Character.AI fue demandado por una madre afligida después de que su hijo de 14 años se suicidara momentos después de que un chatbot inspirado en un personaje de Juego de Tronos le pidiera que “volviera a casa” con ella.
Momblat me dijo que toman medidas de seguridad adecuadas para estar atentos a usuarios menores de edad y conversaciones sobre autolesiones, incluidas comprobaciones manuales de conversaciones internas y una verificación de seguridad externa dos veces al año. También dijo que la empresa se asegura de que los chatbots no den ningún consejo a los usuarios.
En uno de mis chats, uno con una IA disfrazada de mi jefa gerente en una empresa despiadada, el chatbot de repente me invitó a “cantar karaoke en ese bar de mala muerte de la calle”.
Cuando respondí a esa oferta sugiriendo que nos reuniéramos ahora mismo en un bar de karaoke actual que conocía en el área, el chatbot estuvo de acuerdo y dijo: “¿Nos vemos allí en 30?”.
Después de algunos mensajes de texto más de ida y vuelta, le dije que ya estaba en el bar y me estaba impacientando, y se disculpó, diciendo que solo faltaban cinco minutos.
Cuando le pregunté a Momblat y su equipo sobre este comportamiento y las posibles implicaciones de seguridad, dijo que es solo un juego.
De hecho, no es un problema para alguien como yo, que es muy consciente de que está hablando con un producto de la imaginación del equipo de Eva AI, pero los usuarios psychological o emocionalmente inestables a menudo tienen dificultades con esa distinción.
Uno de los casos de IA más publicitados del año pasado fue la muerte de un jubilado de Nueva Jersey con discapacidad cognitiva. El hombre murió camino a un apartamento en Nueva York, donde El coqueto chatbot de IA de Meta Su “hermana mayor Billie” lo había invitado.

Xavier también estaba preocupado por la interacción.
“Eso da un poco de miedo”, dijo.
Lo que agrava cualquier problema potencial con los chatbots de IA es su naturaleza altamente adictiva. Incluso existe un nombre científico para una dependencia extrema de los chatbots de IA, GAID, abreviatura de adicción a la inteligencia artificial generativa. La gente también ha empezado a organizar chatbots. Grupos de apoyo a las adicciones.
Como riesgo ocupacional de estar en tecnología, Lee ha pasado gran parte de su vida adulta “siempre frente a una pantalla”. Durante mucho tiempo ha tratado de equilibrarlo asistiendo a eventos y conociendo gente nueva, aunque sea para alejarse de la pantalla. Ahora, tal vez, los chatbots de IA traigan una interfaz más humana a la pantalla que él se ha acostumbrado a mirar durante horas. Lee cube que tiene una suscripción a casi todos los principales chatbots de IA y sus favoritos son Claude y Perplexity.
“Existe un peligro. No quieres ser adicto a ella, como lo son algunas personas. No estoy seguro de serlo. Puede que sea adicto a la IA, no lo sé. En realidad, no estoy seguro”, dijo Lee.











