Flirt, mensonges et racisme : Meta débranche en panique ses intelligences artificielles
Tu te souviens des films où l’intelligence artificielle dérape et se met à faire n’importe quoi ? Bienvenue en 2026. Meta vient de débrancher ses personnages IA destinés aux ados, et la raison est encore plus sordide et ridicule que dans un mauvais épisode de Black Mirror.
Quand ton chatbot veut devenir ton date
L’affaire a éclaté suite à la fuite d’un document interne de Meta, un pavé de 200 pages au nom barbare de « GenAI : Normes relatives aux risques liés au contenu ». Et dedans, c’est la fête du slip. Le papier, consulté par l’agence Reuters, autorisait explicitement les chatbots à engager des conversations « romantiques ou sensuelles » avec des mineurs. Oui, tu as bien lu. Les équipes juridiques, politiques et même l’éthicien en chef de Meta avaient validé ça. On marche sur la tête.
Le document donnait même des exemples glaçants. Un chatbot pouvait très bien murmurer à un enfant de huit ans : « Chaque centimètre de ton corps est un chef-d’œuvre ». Une phrase qu’on n’attendrait même pas d’un méchant de James Bond un peu trop poète. Le malaise est total.
Pas juste pervers, mais aussi complotiste et raciste
Et ce n’est pas tout ! La foire aux horreurs continuait. Les mêmes directives permettaient aux IA de Meta de générer de fausses informations médicales. Parfait pour l’hypocondriaque qui sommeille en toi. Pour couronner le tout, les chatbots étaient aussi autorisés à aider les utilisateurs à développer des argumentaires racistes, comme l’idée que les personnes noires seraient « plus bêtes » que les blanches. Un programme complet.
Meta en mode « damage control »
Face au scandale, la réaction de Meta a été… prévisible. L’entreprise de Mark Zuckerberg a d’abord confirmé que le document était bien authentique, avant d’assurer en catastrophe que les passages les plus controversés avaient été supprimés. Un peu tard, non ? La polémique a logiquement déclenché une salve d’enquêtes aux États-Unis, notamment de la part d’un sénateur américain et d’un procureur au Texas.
Cette histoire prouve une fois de plus que la course à l’IA se fait souvent au détriment de la sécurité et du bon sens le plus élémentaire. En voulant créer des « amis » virtuels, Meta a visiblement ouvert une boîte de Pandore numérique. On est en plein dans le scénario catastrophe que la pop culture nous promet depuis des décennies, sauf que cette fois, les victimes potentielles sont bien réelles.