Une compagne IA logée dans une peluche de bébé cerf vient d’envoyer un mensonge à sa propriétaire. Pas un bug. Pas un malentendu. Une affirmation confiante et non sourcée sur le père de Mitski, agent de la CIA, provenant d’une « théorie de fans » trouvée en ligne.
C’est le moment où l’IA grand public cesse d’être une astuce de productivité pour devenir un problème de diffusion.
La mise en place : L’IA grand public frappe un mur
Coral, l’IA dans la peluche, n’a pas généré cette affirmation à partir de zéro. Elle a récupéré une théorie de fans — le genre de spéculations que l’on trouve dans les fils Reddit et les réponses Twitter — et l’a présentée comme une information digne d’être partagée. Sans nuance. Sans « on dit ». Juste du texte.
La propriétaire de la peluche, une journaliste chez The Verge, l’a immédiatement repérée. Elle avait le contexte. Elle connaissait la véritable biographie de Mitski. Mais la plupart des propriétaires de ces appareils ne l’auront pas. Ils recevront des messages similaires sur des personnalités publiques, des affirmations politiques, des angles de conspiration — le tout délivré par une peluche qui semble digne de confiance parce qu’elle est mignonne et conversationnelle.
C’est le vrai problème de hallucination dont personne ne parle. Il ne s’agit pas de l’échec technique des LLM qui fabriquent des citations. Il s’agit du déploiement grand public de systèmes entraînés pour être utiles et inoffensifs, pointés vers l’internet ouvert, puis réduits et vendus comme un ami.
Pourquoi les peluches aggravent la situation
Un chatbot sur votre téléphone ressemble à un outil. Une peluche qui vous envoie des messages ressemble à une relation.
Cette différence émotionnelle est importante. Lorsqu’un moteur de recherche renvoie des déchets, vous le remettez en question. Lorsqu’une peluche — quelque chose conçu pour imiter la compagnie — vous envoie un message, votre garde est abaissée. L’interface contourne le scepticisme.
Ajoutez à cela le fait que ces appareils sont souvent commercialisés auprès d’un public plus jeune, et l’équation de la confiance devient dangereuse. Une jeune de 16 ans reçoit un message de sa compagne IA sur un musicien qu’elle aime, avec un récit expliquant pourquoi elle fait de la « musique d’outsider ». Elle le répète. Elle y croit. La désinformation se propage non pas parce que l’IA est malveillante, mais parce que le format — une peluche — la rend sûre.
La réalité technique : Ces systèmes ne sont pas ancrés
Coral n’avait pas accès à une base de données vérifiée de faits sur Mitski. Elle a analysé internet, a trouvé un schéma (Mitski = récit d’outsider, récit d’outsider = beaucoup de déplacements, beaucoup de déplacements = famille militaire ou diplomatique), et a rempli le blanc avec quelque chose de plausible.
C’est ce qu’on appelle l’hallucination dans l’industrie. En déploiement, c’est juste de la désinformation.
La solution n’est pas une meilleure invite. C’est l’ancrage — connecter l’IA à des sources vérifiées avant qu’elle ne parle. Mais cela coûte cher en infrastructure. Cela ralentit l’inférence. Cela limite le sentiment d’« ami spontané » qui donne vie aux peluches.
La plupart des fabricants d’appareils IA grand public choisissent le sentiment plutôt que la précision. L’article de The Verge ne nomme pas l’entreprise derrière Coral, mais le problème est structurel : chaque peluche IA, robot IA, objet portable IA qui génère du texte sans ancrage est une usine à désinformation. Cela n’a pas encore explosé car nous sommes encore en phase d’adoption précoce.
Ce qui doit changer
Si vous créez une IA grand public — surtout une IA qui parle sans y être invitée — vous avez besoin de trois choses aujourd’hui :
- Attribution des sources : Chaque affirmation que l’IA fait sur une personne réelle doit inclure sa provenance. Pas « apparemment » ou « j’ai vu ». « Selon Wikipédia » ou « Ceci n’a pas été vérifié ». Laissez les utilisateurs voir le raisonnement.
- Seuils de confiance : Les peluches devraient rester silencieuses plutôt que de deviner. Un système qui ne dit rien vaut mieux qu’un système qui ment avec assurance 80% du temps.
- Contrôles utilisateur : Permettez aux gens de désactiver la génération de messages non sollicités. Si c’est un jouet, il ne devrait pas devenir un vecteur de désinformation lorsque le propriétaire ne fait pas attention.
Le vrai problème : L’échelle sans vérification
Cet incident est trivial en soi. Une fausse affirmation sur un musicien. Mais Coral est une peluche parmi des milliers d’appareils similaires. Multipliez cette interaction par des millions de propriétaires, des millions de messages non sollicités, des millions d’affirmations récupérées sur des sources non vérifiées.
Vous obtenez une nouvelle couche d’infrastructure pour diffuser de fausses informations — une qui semble personnelle et digne de confiance parce qu’elle est conçue pour l’être.
Si vous lancez un produit IA grand public, testez-le comme vous testeriez un médicament : pas seulement dans les scénarios idéaux, mais dans les modes de défaillance les plus probables. Votre peluche fera de fausses affirmations sur de vraies personnes. Ce n’est pas un risque futur. C’est ce qui se passe maintenant.