Samsung a téléchargé des publicités sur TikTok sans indiquer qu’elles avaient été créées avec une IA générative. Ni la vidéo elle-même, ni les petits caractères ne portaient l’étiquette requise. Ce n’est pas un problème Samsung, c’est un problème de politique TikTok, et ça empire, pas mieux.
TikTok a introduit son obligation de divulgation des publicités IA en 2023, la présentant comme une défense contre les médias synthétiques trompeurs. La politique semble raisonnable en théorie : marquer le contenu comme généré par IA, laisser les utilisateurs décider. En pratique, l’application est inexistante. Les entreprises ignorent la règle complètement ou enfouissent la divulgation si profondément dans les métadonnées ou le texte de la légende qu’elle pourrait aussi bien être invisible.
L’écart entre la politique et la réalité
L’enquête de The Verge a révélé une vérité simple : quelqu’un chez Samsung savait que ces publicités étaient générées par IA. Ils avaient l’information. Ils ne l’ont juste pas partagée. Et rien ne les a empêchés de télécharger du contenu non étiqueté semaine après semaine.
Le système actuel de TikTok repose sur la conformité volontaire avec des audits ponctuels. Auditer un échantillon aléatoire de publicités, attraper les violations, émettre des retraits. Les mathématiques ne fonctionnent pas. Pour chaque publicité examinée, des centaines ne sont pas examinées. Une entreprise avec les ressources et la portée de distribution comme Samsung peut se permettre des violations occasionnelles car le coût de friction est négligeable par rapport à la portée acquise.
Le vrai problème : il n’y a pas de pénalité financière proportionnelle à la violation. Un retrait après des jours d’engagement est un coût de transaction, pas un moyen de dissuasion.
Pourquoi la divulgation est importante (et pourquoi elle est ignorée)
La transparence sur les publicités générées par IA affecte directement la confiance. Les utilisateurs exposés à des médias synthétiques non marqués supposent qu’ils sont authentiques. Quand ils découvrent le contraire – par les sections de commentaires, la vérification des faits par des tiers, ou des soupçons personnels – c’est là que la crédibilité s’effrite. La politique de TikTok tente d’empêcher cela en exigeant une divulgation préalable.
Les entreprises sautent l’étiquette car la divulgation crée des frictions. Une balise de divulgation IA signale qu’il s’agit d’un contenu généré par IA, ce qui peut amener les utilisateurs à le considérer avec plus de scepticisme.