Google publie un rapport sur l’IA responsable tout en supprimant son engagement anti-armes
La réflexion annuelle de l'entreprise sur le développement sûr de l'IA s'inscrit dans un contexte de changement des directives concernant l'IA militaire.
La partie la plus notable du dernier rapport de Google sur l'IA responsable pourrait être ce qu'il ne mentionne pas. (Spoiler : pas de mot sur les armes et la surveillance.)
Mardi, Google a publié son sixième rapport annuel sur les progrès de l'IA responsable, qui détaille « les méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l'IA », en plus des « mises à jour sur la façon dont nous mettons en œuvre l'innovation responsable en matière d'IA dans l'ensemble de Google ».
Dans le rapport, Google souligne les nombreux articles de recherche sur la sécurité qu’il a publiés en 2024 (plus de 300), les dépenses d’éducation et de formation en IA (120 millions de dollars) et divers points de référence en matière de gouvernance, y compris son IA cloud qui a reçu une note de préparation « mature » du cadre de gestion des risques du National Institute of Standards and Technology (NIST ).
Le rapport se concentre principalement sur la red-teaming axée sur la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold et Gemma, et sur la manière dont l’entreprise protège les modèles contre la génération ou la mise en évidence de contenus nuisibles. Il vante également des outils de provenance comme SynthID - un outil de filigrane de contenu conçu pour mieux suivre la désinformation générée par l’IA que Google a mis en open source - dans le cadre de ce récit de responsabilité.
Google a également mis à jour son cadre de sécurité aux frontières, en ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus et un « risque d’alignement trompeur », qui traite du « risque qu’un système autonome sape délibérément le contrôle humain ». La simulation d’alignement, ou le processus d’un système d’IA trompant ses créateurs pour maintenir leur autonomie, a récemment été observée dans des modèles comme OpenAI o1 et Claude 3 Opus.
Dans l’ensemble, le rapport s’en tient à la sécurité de l’utilisateur final, à la confidentialité des données et à la sécurité, tout en restant dans ce jardin quelque peu clos de l’IA grand public. Bien que le rapport contienne des mentions éparses de la protection contre les abus, les cyberattaques et le poids de la construction d’une intelligence artificielle générale (AGI), ceux-ci restent également largement dans cet écosystème.
C'est remarquable étant donné que, dans le même temps, la société a retiré de son site Web son engagement à ne pas utiliser l'IA pour construire des armes ou surveiller des citoyens, comme l'a rapporté Bloomberg. La section intitulée « applications que nous ne poursuivrons pas », qui, selon Bloomberg, était visible la semaine dernière, semble avoir été supprimée.
Ce décalage -- entre l'accent mis par le rapport sur le consommateur et la suppression de l'engagement en matière d'armes et de surveillance -- met en évidence l'éternelle question : qu'est-ce que l'IA responsable ?
Une section maintenant supprimée des principes d'IA de Google, qui précisait que ses produits ne seraient pas utilisés pour créer des armes ou « causer des dommages globaux ».
Dans le cadre de l’annonce du rapport, Google a déclaré qu’il avait renouvelé ses principes d’IA autour de « trois principes fondamentaux » : l’innovation audacieuse, le progrès collaboratif et le développement et le déploiement responsables. Les principes actualisés de l’IA font référence au déploiement responsable comme s’alignant sur « les objectifs de l’utilisateur, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme » - ce qui semble suffisamment vague pour permettre de réévaluer les cas d’utilisation des armes sans sembler contredire ses propres directives.
« Nous continuerons à nous concentrer sur la recherche et les applications de l’IA qui s’alignent sur notre mission, notre orientation scientifique et nos domaines d’expertise », note le blog, « en évaluant toujours des travaux spécifiques en évaluant soigneusement si les avantages l’emportent considérablement sur les risques potentiels. »
Ce changement ajoute une tuile à la mosaïque de géants de la technologie qui changent lentement d’attitude envers les applications militaires de l’IA. La semaine dernière, OpenAI est allé plus loin dans l’infrastructure de sécurité nationale grâce à un partenariat avec US National Laboratories, après s’être associé à l’entrepreneur de défense Anduril à la fin de l’année dernière. En avril 2024, Microsoft a présenté DALL-E au ministère de la Défense, mais OpenAI a maintenu une position de non-développement d’armes à l’époque.