Joyeux anniversaire, ChatGPT ! Célébration d'un an avec les 10 principales étapes de la gouvernance de l'IA
Bilan de l'année pour le ChatGPT (chatbot generative pre-trained transformer) - et regard sur la réponse mondiale à l'IA et sur les "garde-fous" de la gouvernance qui sont nécessaires.
Le 30 novembre 2023, le monde fêtera le premier anniversaire de la sortie publique de ChatGPT. Pour célébrer ce 12e mois et "l'arrivée à maturité" de l'innovation et de l'adoption des technologies de l'IA, nous passons en revue 10 étapes majeures du marché et de la réglementation qui ont entouré son lancement (sans ordre particulier).
Un appel mondial en faveur de la gouvernance de l'IA - un travail de longue haleine
Bien avant les débuts de ChatGPT, des mesures étaient déjà prises pour adopter une législation sur la gouvernance de l'IA. En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l'UE pour l'IA(#1). Depuis, elle l'a réexaminé et a pris des mesures importantes pour adopter ce qui pourrait être les premiers textes législatifs au monde sur la gouvernance de l'IA, qui vise à établir une norme mondiale pour la gouvernance sociale, éthique et économique de la technologie basée sur l'IA.
Mais nous y reviendrons. Tout d'abord, jetons un rapide coup d'œil sur l'activité réglementaire mondiale qui a précédé la publication du ChatGPT.
#2 - Jan 2019 - Le cadre modèle de Singapour pour l'IA et la boîte à outils de test de la gouvernance de l'IA
La première édition du cadre modèle de gouvernance de l'IA de Singapour a été publiée pour la première fois le 23 janvier 2019, lors de la réunion annuelle du Forum économique mondial 2019 à Davos, en Suisse.
Depuis lors, Singapour est resté un participant de premier plan dans l'activité de gouvernance de l'IA : Le 25 mai 2022, le pays a lancé le premier cadre de test et boîte à outils de gouvernance de l'IA au monde ["AI Verify"] (#3), qui est destiné aux entreprises souhaitant démontrer une utilisation responsable de l'IA d'une manière objective et vérifiable.
#4 - mai 2019 - Principes de l'OCDE et classification des systèmes d'IA
Le premier ensemble de normes de l'OCDE pour la classification des systèmes d'IA, qui vise à aider les décideurs à caractériser les systèmes d'IA par rapport à ces principes préétablis, a été lancé en mai 2019. Le cadre définit un ensemble clair d'objectifs et cherche à établir une compréhension commune des systèmes d'IA, à éclairer les inventaires de données, à soutenir les cadres sectoriels et à aider à la gestion et à l'évaluation des risques.
#5 - Juin 2022 - Projet de loi canadienne sur l'IA
En juin 2022, le gouvernement canadien a déposé la Loi sur l'intelligence artificielle et les données (AIDA) dans le cadre de la Loi de mise en œuvre de la Charte numérique, 2022 (projet de loi C-27). Le Canada continue de collaborer étroitement avec des partenaires internationaux tels que l'Union européenne et les États-Unis dans l'élaboration et l'adoption de nouvelles normes de gouvernance de l'IA.
2022 : L'année où le ChatGPT entrera dans le paysage évolutif de l'IA
Nov 2022 - Lancement de ChatGPT
OpenAI a lancé le 30 novembre 2022 le chatbot ChatGPT, basé sur un grand modèle de langage, qui a rapidement pris son envol. En cinq jours, la plateforme a attiré plus d'un million d'utilisateurs. (il a fallu deux ans à Twitter pour atteindre ce chiffre).
Déc 2022 - ChatGPT atteint les 100 millions d'utilisateurs
ChatGPT est devenue la plateforme d'application Internet grand public à la croissance la plus rapide de l'histoire en atteignant environ 100 millions d'utilisateurs quelques mois après son lancement.
De grandes entreprises comme Microsoft ont sauté sur l'occasion d'incorporer l'IA dans leurs applications (bien que tout le monde n'ait pas conclu des accords pluriannuels de plusieurs milliards de dollars avec l'OpenAI comme l'a fait Microsoft). Plus récemment, Google a investi 300 millions de dollars pour une participation de 10 % dans la startup d'IA générative Anthropic, basée à San Francisco, une société fondée en 2021 par des chercheurs de l'OpenAI avec un chatbot intelligent du nom de Claude, selon le Financial Times.
#6 - Jan 2023 - Le NIST publie le cadre de gestion des risques liés à l'IA
Le National Institute of Standards and Technology (NIST) a publié le NIST AI Risk Management Framework (AI RMF 1.0) le jeudi 26 janvier 2023. Conçu pour une utilisation volontaire, ce cadre contribue à améliorer la transparence et la confiance entourant la conception, le développement, l'utilisation et l'évaluation des produits, services et systèmes d'IA.
#7 - février 2023 - ISO 23894
L'Organisation internationale de normalisation (ISO) a été publiée le 6 février 2023 pour fournir des orientations sur la gestion des risques liés à l'intelligence artificielle (IA) à toutes les organisations qui développent, déploient ou utilisent des systèmes d'IA pour gérer les risques.
#8 - 22 mars 2023 - Une lettre d'inquiétude sur l'IA
Plus de 33 000 leaders de la technologie se sont unis pour signer une lettre ouverte mettant en garde contre les risques sociétaux de la genAI. Bien que cette lettre n'ait eu que très peu d'impact tangible, on pense qu'elle a inspiré une partie de l'activité réglementaire récente que nous observons au niveau mondial (comme la loi sur l'IA de l'UE).
#9 - Oct 2023 - Décret sur l'intelligence artificielle sûre, sécurisée et digne de confiance
Le président Joe Biden a signé un décret sur l'IA, le premier du genre, qui établit de nouvelles normes de sécurité, des précautions de sécurité et des lignes directrices futures pour l'utilisation de l'intelligence artificielle le 30 octobre 2023.
Considéré comme "l'ensemble de mesures le plus solide jamais pris par un gouvernement dans le monde en matière de sûreté, de sécurité et de confiance dans l'IA" dans un discours officiel de la Maison Blanche, le décret sur l'IA a déjà permis à 15 grandes entreprises technologiques américaines d ' accepter de mettre en œuvre des exigences volontaires en matière de sécurité de l'IA. "Il s'agit de la prochaine étape d'une stratégie agressive visant à tout mettre en œuvre sur tous les fronts pour exploiter les avantages de l'IA et en atténuer les risques", a déclaré le chef de cabinet adjoint de la Maison-Blanche, Bruce Reed.
#10 - Nov 2023 - Sommet de l'IA au Royaume-Uni
La Grande-Bretagne a accueilli en novembre le sommet sur la sécurité de l'IA, qui a réuni des gouvernements internationaux, des entreprises leaders dans le domaine de l'IA, des groupes de la société civile et des experts en recherche. Le Premier ministre britannique Rishi Sunak et son gouvernement ont présenté la "Déclaration de Bletchley". Signée par les représentants des 28 pays participant au sommet (dont les États-Unis), cette déclaration reconnaît les dangers et les responsabilités liés à la gestion des systèmes d'IA. Le prochain sommet sur la sécurité de l'IA devrait se tenir dans six mois en Corée du Sud, puis en France six mois plus tard.
(Bonus) Nov 2023 - ChatGPT fête ses 1 ans
Cela nous amène à aujourd'hui, en novembre 2023. ChatGPT a maintenant un an, et l'activité réglementaire autour de la gouvernance de l'IA est toujours en hausse.
Nous ne voyons que des façons de plus en plus innovantes pour les gens de repousser les limites de l'IA - et avec cela, le potentiel d'ouvrir leurs entreprises à de nouveaux risques. Nous prévoyons davantage de commentaires réglementaires en 2024 pour les entreprises, ce qui donnera aux entreprises internationales le mal de tête habituel de répondre à de multiples agendas réglementaires. Cela dit, nous constatons que les entreprises reconnaissent la nécessité d'anticiper les risques de l'IA et de mettre en place des garde-fous appropriés. Par exemple, nous voyons des entreprises qui prennent les devants pour maîtriser l'utilisation de l'IA au sein de leurs activités, créer des inventaires de leurs applications d'IA et commencer à élaborer leurs cadres de gouvernance de l'IA.
Un regard plus approfondi sur une gouvernance réussie de l'IA
Que signifie la mise en place d'une politique de gouvernance de l'IA qui soit efficace, mesurable et défendable ?
Recherchez une technologie qui offre
- Un inventaire unique et centralisé des technologies d'IA et de ML au sein de votre entreprise.
- Évaluation personnalisable et cohérente du risque de l'IA par rapport à l'appétit pour le risque des entreprises
- Visibilité totale de la validation et des tests de l'IA
- Capacité à définir le niveau de gouvernance approprié
- Contrôle complet des versions et des modifications avec transparence de l'évaluation par les pairs - en particulier lorsque l'on n'est pas sous le contrôle de l'informatique.
- Capacités de balayage technique pour garantir l'exhaustivité de l'inventaire de l'IA
- Documenter et gérer les risques ou les violations de la réglementation qui en résultent.
Vous souhaitez en savoir plus sur les solutions GRC automatisées pour la gouvernance de l'IA ? Prenez contact avec notre équipe dès aujourd'hui, ou explorez nos ressources ci-dessous.
Découvrez la gamme complète de plates-formes GRC de Mitratech
Des solutions évolutives de premier ordre pour vous aider à améliorer votre gestion des risques, votre réactivité, votre résilience et votre réputation.
D'autres ressources pourraient vous intéresser :
- Découvrez le premier décret du gouvernement américain sur l'IA : 8 piliers d'action
- La cyberattaque contre MGM Resorts : ce qu'il faut savoir (et ce que cela implique pour votre stratégie de gestion des risques)
- 4 types de risques liés à l'informatique pour l'utilisateur final (EUC) à surveiller de près