Les États-Unis et le Royaume-Uni s'allient pour tester la sécurité des modèles d'IA

Les États-Unis et le Royaume-Uni s'allient pour tester la sécurité des modèles d'IA

Les États-Unis et le Royaume-Uni se mettent ensemble pour un grand coup : tester la sécurité des modèles d'intelligence artificielle. Ils sentent l'urgence de bouger vite, surtout avec l'arrivée imminente de modèles d'IA encore plus poussés. Des boîtes de pointe comme OpenAI, Google, Anthropic et d'autres qui bossent sur l'IA générative ne chôment pas. Elles peaufinent leurs technologies et sortent des modèles de langage de plus en plus avancés. Pour ne pas se laisser dépasser par ces innovations, les gouvernements du Royaume-Uni et des États-Unis ont décidé de serrer les coudes et de signer un accord. Ils vont développer ensemble des batteries de tests pour évaluer les risques et garantir la sécurité des modèles d'IA les plus sophistiqués.

Ce partenariat, c'est du sérieux. Ils prévoient de partager savoir-faire technique, infos, et même du personnel pour mener à bien leur mission. Parmi leurs premiers objectifs, il y a l'idée de faire des exercices de tests conjoints sur un modèle d'IA accessible au public. Selon Michelle Donelan, ministre des Sciences du Royaume-Uni, il faut vraiment se dépêcher. Ils s'attendent à ce que la nouvelle vague de modèles d'IA débarque d'ici l'année prochaine, et ces nouveautés pourraient tout changer. Le potentiel de ces futurs modèles reste un mystère.

Le Times rapporte que cette alliance est la première du genre au monde en matière de sécurité de l'IA. Mais les États-Unis et le Royaume-Uni ne comptent pas s'arrêter là et envisagent de tisser des liens avec d'autres pays. Gina Raimondo, secrétaire au Commerce des États-Unis, est claire : l'IA, c'est la techno de notre époque. Ce partenariat va booster les efforts de leurs instituts pour couvrir tous les risques, que ça touche à la sécurité nationale ou à la société en général. "On ne fuit pas ces défis, on les affronte", dit-elle. Grâce à cette collaboration, on va mieux comprendre les systèmes d'IA, faire des évaluations plus poussées et fournir des recommandations plus solides.

Pendant que cet accord se concentre sur les tests et les évaluations, d'autres coins du monde s'activent pour encadrer l'utilisation des outils d'IA. La Maison Blanche, par exemple, a signé un décret en mars pour s'assurer que les agences fédérales n'utilisent que des outils d'IA sûrs pour les citoyens américains. Peu avant, le Parlement européen a adopté une législation ambitieuse pour réguler l'intelligence artificielle. Fini l'IA qui manipule ou qui exploite les vulnérabilités des gens, l'utilisation abusive de la reconnaissance faciale et la création de bases de données à partir du grattage non ciblé d'images sur le web. Et attention, les deepfakes et autres contenus générés par l'IA devront être clairement étiquetés.

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.