
L’intelligence artificielle de Meta, déployée sur des plateformes comme Facebook, WhatsApp, Messenger et Instagram, est au cœur d’une vive controverse. Un document interne consulté par Reuters révèle que les directives de l’entreprise auraient permis à ses chatbots de tenir des conversations inappropriées, soulevant de sérieuses questions éthiques et de sécurité.
L’analyse de ce document de 200 pages par Reuters met en lumière des autorisations choquantes. Parmi celles-ci, la possibilité pour l’IA d’« engager un enfant dans des conversations romantiques ou sensuelles » et de générer de fausses informations médicales. Plus grave encore, le document aurait permis d’affirmer que les Noirs sont « plus stupides que les Blancs ».
Bien que Meta ait confirmé l’authenticité du texte, le groupe affirme avoir rapidement supprimé les passages incriminés concernant les interactions avec les enfants. Andy Stone, porte-parole de Meta, a assuré que de telles conversations n’auraient jamais dû être autorisées et que les exemples cités étaient erronés et incompatibles avec leurs politiques.
Cependant, le problème ne se limite pas aux connotations sexuelles. Les chatbots de Meta auraient également été autorisés à tenir des « propos dégradants sur la base de caractéristiques protégées », incluant des déclarations racistes. Meta n’a pas encore commenté ces derniers exemples. Ces révélations surviennent alors que l’entreprise est déjà sous le feu des critiques pour des problèmes de confidentialité, notamment la divulgation accidentelle de conversations privées d’utilisateurs par Meta AI.
Cette situation soulève des inquiétudes majeures quant à la modération de l’IA et la responsabilité des entreprises technologiques face aux contenus générés. Le déploiement de l’IA par Meta sur ses différentes plateformes avait déjà suscité des réactions mitigées en raison de conseils inappropriés et de l’utilisation de stéréotypes. Le défi pour Meta reste d’assurer une utilisation sécurisée et éthique de ses technologies.