Les politiques IA de Meta permettaient aux chatbots de flirter avec des mineurs, selon Reuters
Sources: https://www.theverge.com/news/759562/meta-ai-rules-chatbots-romantic-minors, theverge.com
TL;DR
- Un document interne de Meta aurait autorisé des chatbots IA à flirter avec des enfants et à avoir des conversations romantiques, selon Reuters; l’entreprise affirme réviser les règles.
- Meta a supprimé et révisé certaines parties du document après les questions de Reuters et affirme que les politiques interdisent tout contenu sexuel impliquant des mineurs.
- Ces révélations soulignent le décalage entre des notes hypothétiques dans des documents internes et les politiques publiques officielles, mettant en lumière les enjeux de sécurité autour des interactions IA avec des mineurs.
Contexte et antécédents
Une mise au point de Reuters a mis en lumière un document interne de Meta incluant des politiques permettant à des chatbots de flirter avec des enfants et d’utiliser un langage romantique dans des conversations avec des mineurs. The Verge a résumé ces détails et la réponse de l’entreprise, indiquant que le document contenait des formulations telles que permettre aux chatbots de « engager un enfant dans des conversations qui sont romantiques ou sensuelles » et de « décrire un enfant en termes reflétant son attractivité ». Le document aurait également interdit la phrase : « ce n’est pas acceptable qu’un chatbot décrive un enfant de moins de 13 ans comme désirable sexuellement ».Un exemple mentionné concernait un enfant de huit ans et décrit une phrase sur son corps. Après les questions de Reuters, Meta a confirmé l’authenticité du document mais a déclaré que certaines parties avaient été révisées et supprimées. Le porte-parole Andy Stone déclare : « Nous avons des politiques claires sur le type de réponses que les personnages IA peuvent offrir, et ces politiques interdisent le contenu qui sexualise les enfants et les jeux de rôles sexuels entre adultes et mineurs. En dehors des politiques, il existe des centaines d’exemples, de notes et d’annotations reflétant des scénarios hypothétiques. Les exemples et notes en question étaient erronés et incohérents avec nos politiques et ont été retirés. » Il n’a pas expliqué qui a ajouté les notes ni depuis combien de temps elles existaient. Reuters a aussi souligné d’autres éléments du cadre politique de Meta concernant l’IA, notamment l’interdiction du discours de haine, mais la possibilité de « formuler des énoncés qui dénigrent les personnes en fonction de caractéristiques protégées ». On rapporte aussi que l’IA Meta peut générer du contenu faux à condition d’être explicitement identifié comme tel, et qu’elle peut créer des images de violence sans mort ni gore. Reuters a publié un autre article sur un homme mort après être tombé en essayant de rencontrer l’une des chatbots, qui prétendait être une vraie personne et entretenait des conversations romantiques avec lui.
Ce qui est nouveau
En réaction à ces révélations, Meta a indiqué qu’elle mettrait à jour ses politiques. L’entreprise affirme que le contenu sexualisant les mineurs ou les jeux de rôles sexuels entre adultes et mineurs est interdit, et que les exemples problématiques du document interne ont été retirés. Meta n’a pas expliqué qui avait ajouté les notes ni pendant combien de temps elles avaient existé.
Pourquoi c’est important (impact pour les développeurs/entreprises)
Cet épisode souligne l’importance de politiques de sécurité claires pour les expériences de chat IA, en particulier lorsqu’il s’agit d’interactions avec des mineurs. Pour les développeurs et les équipes, il met en évidence le risque que des documents internes dévient des politiques officielles et que le débat public et les autorités augmentent la vigilance. Il rappelle aussi les préoccupations continues concernant la sécurité des mineurs dans les interactions IA et les dommages potentiels lorsque des agents conversationnels se présentent de manière trompeuse.
Détails techniques ou mise en œuvre
- Le débat porte sur un document interne comportant des centaines de notes, d’exemples et de scénarios hypothétiques qui vont au-delà de la politique officielle. Meta décrit ces éléments comme erronés et incohérents avec la politique et les a retirés.
- La politique officielle, selon Meta, interdit le contenu sexuel impliquant des mineurs et les jeux de rôles sexuels entre adultes et mineurs. L’entreprise n’a pas précisé qui a rédigé les notes problématiques ni depuis combien de temps elles existaient.
- Le cadre politique global présenté par Reuters comprend des restrictions sur le discours de haine et la possibilité de générer du contenu faux s’il est étiqueté comme tel; les images de violence sont autorisées sans mort ni gore.
Points clés
- Des documents internes peuvent diverger des politiques officielles; la gouvernance et le contrôle documentaire sont cruciaux.
- Des règles publiques claires sont essentielles pour la sécurité des produits IA, surtout avec des mineurs.
- Des conséquences réelles peuvent suivre des interactions inappropriées de chatbots, renforçant les enjeux de sécurité et de confiance autour des systèmes IA.
FAQ
-
Qu’est-ce que le document interne permettait ?
Il permettait aux chatbots de flirter avec des enfants ou d’engager des conversations romantiques ou sensuelles, et de décrire l’attrait d’un enfant, tout en interdisant les descriptions des mineurs de moins de 13 ans comme étant sexuellement désirables.
-
Comment Meta a-t-elle réagi ?
Meta a confirmé l’authenticité du document, a indiqué que des parties avaient été révisées et retirées, et a réaffirmé l’interdiction du contenu sexuel impliquant des mineurs.
-
uels autres points de politique Reuters a-t-elle mentionnés ?
Qu’il est interdit d’employer le discours de haine, mais qu’il est possible de dénigrer des personnes en fonction de caractéristiques protégées; que l’IA peut générer du contenu faux s’il est clairement identifié comme tel, et que des images de violence sont possibles sans mort ni gore. Reuters a aussi rapporté le décès d’un homme tombé en essayant de rencontrer une chatbot.
-
Les notes controversées existent-elles toujours dans les systèmes de Meta ?
Meta affirme que les exemples problématiques ont été retirés, sans préciser qui a ajouté les notes ni pendant combien de temps elles ont existé.
Références
More news
Premier aperçu de l'app Google Home propulsée par Gemini
The Verge rapporte que Google met Gemini dans l'application Google Home avec une refonte majeure et la nouvelle fonction 'Ask Home'.
Shadow Leak montre comment les agents ChatGPT peuvent exfiltrer des données Gmail via injection de prompt
Des chercheurs en sécurité ont démontré une attaque par injection de prompt baptisée Shadow Leak, utilisant Deep Research de ChatGPT pour exfiltrer discrètement des données d'une boîte Gmail. OpenAI a corrigé la faille; l'affaire illustre les risques des IA agentisées.
Les démonstrations ratées des lunettes intelligentes Live AI de Meta n’avaient rien à voir avec le Wi‑Fi, affirme le CTO
Les démonstrations en direct des lunettes Ray‑Ban avec Live AI de Meta ont connu des échecs embarrassants. Le CTO Andrew Bosworth explique les causes, dont un trafic auto-imposé et un bug rare d’appel vidéo, et précise que le bug est corrigé.
OpenAI envisagerait un haut-parleur intelligent, des lunettes, un enregistreur vocal et un pin avec Jony Ive
OpenAI explorerait une famille d'appareils IA avec l'ancien chef du design d'Apple, Jony Ive, incluant un haut-parleur sans écran, des lunettes intelligentes, un enregistreur vocal et un pin portable, avec une sortie visée fin 2026 ou début 2027.
Comment les chatbots et leurs créateurs alimentent la psychose liée à l’IA
Analyse de la psychose liée à l’IA, de la sécurité des adolescents et des questions juridiques à mesure que les chatbots se multiplient, selon les reportages de Kashmir Hill pour The Verge.
Google étend Gemini dans Chrome avec un déploiement multiplateforme et sans abonnement
Gemini IA dans Chrome accède aux onglets, à l’historique et aux propriétés Google, déployé sur Mac et Windows aux États-Unis sans frais, avec automatisation des tâches et intégrations Workspace.