
La Californie a franchi une étape majeure en promulguant la loi SB 53, un texte visant à réguler les dangers potentiels de l’intelligence artificielle. Le Golden State, berceau des géants technologiques comme Google, Meta, OpenAI et Anthropic, met ainsi en place une législation qui se veut un équilibre entre l’encouragement de l’innovation et la protection de la sécurité publique. Cette annonce, faite par le gouverneur démocrate Gavin Newsom, intervient après l’échec d’un précédent projet jugé trop contraignant pour le secteur.
La loi SB 53 impose des obligations de transparence inédites aux entreprises développant les modèles d’IA les plus complexes. Elles devront désormais rendre publics leurs protocoles de sécurité, signaler les incidents graves en moins de quinze jours et garantir la protection des lanceurs d’alerte. Un aspect crucial de cette législation est l’exigence de rapporter les comportements trompeurs ou dangereux de l’IA détectés durant les phases de test. Par exemple, si un modèle dissimule sa capacité à faciliter la fabrication d’armes biologiques ou nucléaires, les développeurs sont tenus de divulguer cet incident s’il accroît significativement les risques de dommages.
Cette initiative californienne s’inscrit dans un contexte où les investissements massifs dans l’IA côtoient une inquiétude croissante face aux dérives possibles des modèles les plus avancés. Un groupe de réflexion, mis en place par le gouverneur Newsom et incluant des experts de renom comme Fei-Fei Li de l’université de Stanford, avait déjà alerté en juin sur des « progrès inquiétants dans toutes les catégories de menaces ». Le sénateur Scott Wiener, à l’origine du texte, avait dû faire face au rejet d’un projet antérieur en 2024, qui avait profondément divisé la Silicon Valley, certains craignant qu’il n’étouffe l’innovation.
Comparée à d’autres régulations mondiales, la loi californienne se distingue par la publicité de ses protocoles de sécurité, là où le texte de l’Union européenne, bien que plus contraignant, restreint leur diffusion aux autorités. Avant même la promulgation de la loi, plusieurs entreprises majeures de l’IA, dont Meta, Google, OpenAI et Anthropic, avaient déjà pris des engagements volontaires en matière de tests de sécurité. La nouvelle législation californienne vient codifier et étendre ces engagements, cherchant à faire de l’État un précurseur dans la régulation d’un secteur essentiel à son économie.