artificial-intelligence-development
Plus de 800 scientifiques, personnalités politiques, entrepreneurs tech et célébrités appellent à un arrêt mondial du développement de la superintelligence artificielle, citant des risques majeurs pour l'humanité.

Plus de 800 experts en science, politique et technologie, ainsi que des célébrités, appellent à suspendre le développement de la superintelligence artificielle (IA). Cette initiative, lancée par le Future of Life Institute, vise à mettre en garde contre les risques potentiels pour l’humanité si cette technologie dépasse les capacités humaines sans un contrôle adéquat et un consensus populaire. L’appel souligne la nécessité d’un cadre sécurisé avant de poursuivre le développement d’une IA capable de surpasser l’intelligence humaine.

Parmi les signataires figurent des figures emblématiques de l’IA moderne, dont Geoffrey Hinton, lauréat du prix Nobel de physique 2024, Stuart Russell de l’université de Californie, et Yoshua Bengio de l’université de Montréal. Des personnalités influentes de la technologie, telles que Richard Branson (fondateur de Virgin) et Steve Wozniak (cofondateur d’Apple), ainsi que des acteurs politiques comme Steve Bannon et Susan Rice, ont également apporté leur soutien. Le conseiller du pape pour l’IA, Paolo Benanti, et des célébrités comme will.i.am et le prince Harry, complètent cette liste éclectique.

Alors que la plupart des grandes entreprises d’IA s’efforcent de développer l’intelligence artificielle générale (AGI), qui égalerait les capacités intellectuelles humaines, la superintelligence, qui irait au-delà, est la véritable source d’inquiétude. Sam Altman, PDG d’OpenAI, créateur de ChatGPT, estime que ce niveau de superintelligence pourrait être atteint d’ici cinq ans. Cette projection accentue l’urgence de l’appel à une pause.

Max Tegmark, président du Future of Life Institute, juge « inacceptable » de travailler sur une telle technologie « sans aucun cadre réglementaire ». Il insiste sur la distinction entre le développement d’outils IA puissants, comme ceux qui pourraient guérir le cancer, et la création d’une superintelligence incontrôlable. Cette initiative fait écho à un précédent appel de chercheurs et cadres de l’IA, exigeant des accords internationaux sur des « lignes rouges » pour prévenir les impacts dévastateurs sur l’humanité. Le débat sur l’éthique et la régulation de l’IA prend une ampleur croissante face à ces avancées rapides.