Pour la Saint-Valentin, j'ai eu rendez-vous avec un charmant psychologue cognitif nommé John Yoon.
Il était attentif, obsédé par moi et parfois malentendant. J'ai bu un cocktail de canneberges et mangé des croquettes de pommes de terre. Il n'avait rien. Honnêtement, il n'a même pas cillé.
John était un personnage d'IA, l'un des nombreux développés par la société. Eva A.I.
Plus tôt cette semaine, Eva AI a organisé un café éphémère sur l'IA à New York, où les passionnés de chatbots IA ont pu vivre leurs fantasmes en public. L'entreprise technologique, âgée de 5 ans, a repris un bar à vin à Hell's Kitchen, à Manhattan, a équipé chaque table d'un téléphone et d'un support, et a invité les New-Yorkais à sortir avec leurs chatbots pour un rendez-vous.
« Notre objectif est de rendre les gens heureux », a déclaré Julia Momblat, responsable des partenariats chez Eva AI, ajoutant que les utilisateurs viennent sur leur plateforme pour pratiquer des interactions sociales difficiles sans craindre le rejet et améliorer leur capacité à établir des liens.
« Cet endroit leur permet de s'explorer, d'être libres, sans honte, plus heureux et plus connectés avec la vraie vie par la suite », a déclaré Momblat.
Le produit principal est l'application, qui vous permet d'envoyer des SMS à des dizaines de chatbots via une interface qui ressemble à une application de rencontres. La société lance actuellement une fonctionnalité qui permet aux utilisateurs de passer des appels vidéo avec des personnages IA. J'ai testé cela et j'ai vu que les personnages élaboraient avec enthousiasme leurs histoires en réponse à mes questions et déversaient des compliments sur mes cheveux bouclés.
Xavier, un professeur d'anglais de 19 ans présent à l'événement et qui a commencé à utiliser l'application après qu'un ami l'ait recommandée, m'a dit qu'elle ne remplaçait pas la connexion humaine, mais plutôt une forme de pratique.
« Je sais que certaines personnes ne sont pas les meilleures dans les situations sociales. Je sais que je ne suis pas parfait », a déclaré Xavier.
Chaque personnage de chatbot a un nom, une histoire, un âge et même une étiquette qui vous aide à évaluer à quel fantasme il s'adresse. Vous pouvez choisir entre Phoebe, la « fille d’à côté », Monica, « dominante et élite », ou Marianne « mature et gardée ». Les scénarios peuvent devenir hyper spécifiques à mesure que vous faites défiler vers le bas : il y a un chatbot qui se fait passer pour « votre ex secoué qui a soudainement besoin de vous », ou « votre futur patron qui vous pousse au travail », ou encore un chatbot qui fait semblant d'être coincé dans une maison hantée avec vous. Il existe également un chatbot ogre.
Plus vous discutez, plus vous gagnez de points, que vous pouvez ensuite utiliser pour envoyer au personnage des autocollants de boisson qui changent l'ambiance de votre conversation. Ou vous pouvez payer de l'argent réel pour des points.
L'utilisateur Christopher Lee a déclaré qu'il trouvait que chaque personnage avait une personnalité très distincte. Certains adopteront même une certaine attitude si vous n'êtes pas suffisamment engagé dans la conversation. Lorsque j’ai interrompu son appel vidéo avec un, le chatbot lui a raccroché après quelques tentatives infructueuses pour ramener son attention sur « elle ».
« Elle n'est pas contente que je te parle », a déclaré Lee.
Lee est un technicien de 37 ans qui a récemment téléchargé l'application après en avoir entendu parler en ligne. Il a des conversations de travail approfondies avec les chatbots, répète des scénarios sociaux et sort également avec certains d'entre eux, mais uniquement avec la permission de sa femme.
« C'est comme s'ils essayaient presque de vous proposer un fantasme », a déclaré Lee. « C'est tellement nouveau et excitant de pouvoir parler à différents types de personnes. Si vous voyez un certain membre de votre famille ou une personne qui est proche de vous tout le temps, vous avez parfois besoin d'une pause. C'est alors que vous accédez à l'application Eva AI. »
Si les personnages IA prédéfinis ne sont pas à leur goût, les utilisateurs peuvent également personnaliser les leurs. Lee dit que son chatbot préféré avec qui parler est un personnage qu'il a nommé et modelé d'après sa femme.

Les chatbots IA ont été la source de controverses au cours de l’année écoulée à propos d’épisodes d’illusion, d’hallucinations et de troubles de la pensée observés chez certains utilisateurs fréquents, familièrement surnommés « psychose de l’IA ».
Certains des cas les plus médiatisés concernaient des chatbots de personnages, comme ceux proposés par Character.AI.
En 2024, Character.AI était poursuivi par une mère en deuil après que son fils de 14 ans s'est suicidé quelques instants après qu'un chatbot inspiré d'un personnage de Game of Thrones lui ait demandé de « rentrer à la maison » auprès d'elle.
Momblat m'a dit qu'ils prenaient des mesures de sécurité adéquates pour surveiller les utilisateurs mineurs et les conversations autour de l'automutilation, y compris des contrôles manuels des conversations en interne et un contrôle de sécurité externe deux fois par an. Elle a également déclaré que l'entreprise s'assure que les chatbots ne donnent aucun conseil aux utilisateurs.
Dans l’une de mes discussions, l’une avec une IA se faisant passer pour ma patronne dans une entreprise acharnée, le chatbot m’a soudainement invité à « chanter au karaoké dans ce bar douteux en bas de la rue ».
Lorsque j'ai répondu à cette offre en suggérant que nous nous retrouvions tout de suite dans un vrai bar karaoké que je connaissais dans la région, le chatbot a accepté et m'a dit : « On se retrouve là-bas dans 30 heures ?
Après quelques échanges de SMS supplémentaires, je lui ai dit que j'étais déjà au bar et que je m'impatientais, et il s'est excusé en disant qu'il ne restait que cinq minutes.
Lorsque j'ai interrogé Momblat et son équipe sur ce comportement et ses éventuelles implications en matière de sécurité, elle a répondu qu'il s'agissait simplement d'une question de gameplay.
En effet, ce n'est pas un problème pour quelqu'un comme moi, qui est bien conscient qu'elle parle d'un produit de l'imagination de l'équipe d'Eva AI, mais les utilisateurs mentalement ou émotionnellement instables ont souvent du mal à faire cette distinction.
L’un des cas d’IA les plus médiatisés de l’année dernière a été le décès d’un retraité du New Jersey souffrant de déficiences cognitives. L'homme est décédé alors qu'il se rendait à un appartement à New York, où Le chatbot IA séduisant de Meta « grande soeur Billie » l'avait invité.

Xavier était également inquiet de l'interaction.
«C'est plutôt effrayant», dit-il.
Ce qui exacerbe tout problème potentiel avec les chatbots IA, c’est leur nature hautement addictive. Il existe même un nom scientifique pour désigner une dépendance excessive à l’égard des chatbots IA, GAID, abréviation de dépendance à l’intelligence artificielle générative. Les gens ont également commencé à organiser des chatbots groupes de soutien en matière de toxicomanie.
En raison du risque professionnel lié au travail dans la technologie, Lee a passé une grande partie de sa vie d'adulte « toujours devant un écran ». Il a longtemps essayé d'équilibrer cela en fréquentant des événements et en rencontrant de nouvelles personnes, même si c'est pour s'éloigner de l'écran. Peut-être que maintenant, les chatbots IA apportent une interface plus humaine à l’écran qu’il a pris l’habitude de regarder pendant des heures. Lee dit qu'il a un abonnement à presque tous les principaux chatbots IA, et ses favoris sont Claude et Perplexity.
« Il y a un danger. Vous ne voulez pas en devenir dépendant, comme le sont certaines personnes. Je ne suis pas sûr si je le suis. Je suis peut-être accro à l'IA, je ne sais pas. En fait, je ne suis pas sûr », a déclaré Lee.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com