Urban Journalism Institute

Réguler
l’inattendu
Un an avec l’Ia

©Google DeepMind

Cette image représente comment la responsabilité doit être au cœur des systèmes d’IA. Elle a été créée par Champ Panupong Techawongthawonas dans le cadre du projet Visualising AI lancé par Google DeepMind.

Dans le monde effréné de l’intelligence artificielle (IA), un acteur exceptionnel a pris la vedette au cours de la dernière année – ChatGPT, mis en lumière comme une tendance cruciale dans le Municipal Forecast 2023.

Lancé le 30 novembre 2022, ce modèle Transformer Pré-Entraîné Génératif a connu une popularité fulgurante, revendiquant pas moins de 180 millions d’utilisateurs et un étonnant 1,6 milliard de visites en décembre 2023. En seulement cinq jours après son lancement, ChatGPT a atteint un million d’utilisateurs, dépassant les taux de croissance de géants de la technologie tels que Spotify (qui a mis cinq mois pour atteindre son premier million d’utilisateurs en 2008) et Twitter (qui a mis deux ans pour atteindre le même jalon en 2006). Seul Threads, le service de médias sociaux de Meta Platforms lancé en juillet 2023, a battu ce record en attirant son premier million d’utilisateurs en une heure seulement.

Selon Similarweb, environ 15 % de la base d’utilisateurs de ChatGPT proviennent des États-Unis, suivis de près par l’Inde avec près de 8 %, puis par les Philippines, le Japon et le Canada chacun contribuant à environ 3 %. En termes de composition démographique, la base d’utilisateurs est constituée de 55,88 % d’hommes et 44,12 % de femmes, avec le groupe d’âge le plus important étant celui de 25 à 34 ans (33,43 %), suivi de près par la tranche d’âge de 18 à 24 ans (28,07 %). Les principaux sujets d’intérêt pour les visiteurs de ChatGPT incluent la programmation et les logiciels de développement, l’électronique et la technologie informatique, ainsi que les consoles de jeux vidéo.

À mesure que l’influence de l’IA imprègne notre vie quotidienne, un appel mondial retentissant en faveur d’une réglementation accrue a émergé. Le Rapport Annuel 2023 de l’Indice de l’IA de l’Université de Stanford a mentionné une analyse des dossiers législatifs traitant de «l’intelligence artificielle» dans 127 pays, révélant une augmentation notable, passant d’un seul effort législatif en 2016 à 37 en 2022. Les États-Unis, le Portugal, l’Espagne, l’Italie, la Russie, la Belgique, le Royaume-Uni, l’Autriche, la République de Corée et les Philippines figurent parmi les dix premiers pays en termes d’efforts réglementaires entre 2016 et 2022.

Le 9 décembre 2023, une étape historique a été franchie lorsque le Parlement européen a provisoirement convenu avec le Conseil européen sur l’Acte de l’UE sur l’IA – la première loi complète sur l’IA au monde. La Commission européenne a proposé le projet de loi en avril 2021, et le Parlement européen l’a approuvé en juin 2023. Il deviendra une loi de l’UE avant les élections au Parlement européen en juin 2024. L’application de la réglementation est prévue en 2026, après une période transitoire de 18 mois. L’objectif principal est de garantir que les systèmes d’IA au sein de l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. L’Acte de l’UE sur l’IA classe les systèmes d’IA en fonction des risques, imposant des obligations aux fournisseurs et aux utilisateurs, interdisant spécifiquement ceux considérés comme des «systèmes d’IA à risque inacceptable» et évaluant rigoureusement ceux classés comme «systèmes à haut risque».

Les systèmes d’IA présentant des risques inacceptables sont considérés comme une menace pour les individus, notamment la manipulation cognitive et comportementale des individus ou de groupes vulnérables spécifiques, l’identification biométrique et la catégorisation des personnes, ou le scoring social, c’est-à-dire la classification des personnes en fonction de leur comportement, de leur statut socio-économique ou de leurs caractéristiques personnelles.

Les systèmes à haut risque ayant un impact négatif sur la sécurité ou les droits fondamentaux feront l’objet d’une évaluation avant leur mise sur le marché et tout au long de leur cycle de vieles exemples vont des systèmes d’IA dans les jouets, l’aviation, les voitures, les dispositifs médicaux et les ascenseurs.

L’IA générale et générative, telle que ChatGPT, doit se conformer aux exigences de transparence en divulguant le contenu généré par l’IA. Ces mesures donnent aux utilisateurs les moyens de prendre des décisions éclairées et englobent les systèmes d’IA qui génèrent ou manipulent des contenus image, audio ou vidéo, tels que les deepfakes.

Parallèlement, plusieurs pays européens ont impulsé leurs efforts nationaux. L’Espagne a annoncé la création de l’ Agence espagnole de supervision de l’intelligence artificielle (AESIA), en faisant la première instance régulatrice de l’IA dans l’UE. Par le biais de son ministère fédéral de l’Éducation et de la Recherche, l’Allemagne a dévoilé un vaste Plan d’action sur l’IA, avec un investissement dépassant 1,6 milliard d’euros dans la recherche et la formation en IA.

La Chine a promulgué les Mesures Intérimaires pour la Gestion des Services d’IA Générative en août 2023. Ces mesures exhortent les autorités administratives et les tribunaux à tous les niveaux à adopter une position réglementaire prudente et tolérante à l’égard de l’IA, cherchant un équilibre entre l’innovation et l’atténuation des risques liés à l’IA. Il mentionne explicitement l’atteinte à la vie privée, la violation des droits de propriété intellectuelle et la circulation d’informations fausses. Les services d’IA ont l’interdiction de générer du contenu «prônant le terrorisme ou l’extrémisme, promouvant la haine ethnique et la discrimination ethnique, la violence et l’obscénité, ainsi que de fausses informations préjudiciables».

Lors de leur sommet à Johannesburg en août 2023, les BRICS ont convenu de lancer le Groupe d’Étude sur l’IA de l’Institut BRICS des Réseaux Futurs afin de développer des cadres et des normes en matière d’IA avec un consensus général pour rendre les technologies d’IA «plus sécurisées, fiables, contrôlables et équitables».

En octobre 2023, les États-Unis ont été témoins de l’ordonnance exécutive de l’administration Biden concernant le développement et l’utilisation sûrs, sécurisés et fiables de l’intelligence artificielle, mettant l’accent sur la transparence et l’établissement de nouvelles normes, ainsi que la création de l’Institut de sécurité de l’intelligence artificielle des États-Unis.

À la fin du même mois, le 30 octobre 2023, les membres du G7 ont adhéré au «Processus d’IA d’Hiroshima», délimitant des principes directeurs et un Code de conduite volontaire pour les développeurs d’intelligence artificielle. La déclaration des leaders du G7 a souligné «la nécessité de gérer les risques et de protéger les individus, la société et nos principes partagés, y compris la primauté du droit et les valeurs démocratiques, en plaçant l’humanité au centre».

La Déclaration des dirigeants du G20 de New Delhi a réaffirmé leur engagement envers les principes en matière d’IA du groupe de 2019 pour tirer parti de l’IA pour le bien public en résolvant les défis de manière responsable, inclusive et centrée sur l’humain tout en protégeant les droits et la sécurité des personnes. Bien qu’aucun engagement supplémentaire n’ait été adopté, les membres du G20 ont convenu de poursuivre «une approche réglementaire/gouvernementale favorable à l’innovation» pour maximiser les avantages de l’IA et prendre en compte les risques associés.

Le Sommet sur la sécurité de l’IA au Royaume-Uni, auquel ont participé près de 30 pays en novembre 2023, s’est conclu par la Déclaration de Bletchley, appelant à des efforts internationaux et nationaux pour «élaborer une compréhension scientifique et fondée sur des preuves des risques liés à l’IA», ainsi que pour promouvoir des «politiques respectives basées sur les risques à travers les pays pour assurer la sécurité».

Le sommet de l’Union africaine à la fin de novembre 2023 a présenté le Cadre conceptuel provisoire de la Stratégie continentale sur l’intelligence artificielle, visant à élaborer une stratégie éthique et économiquement fructueuse en matière d’IA pour le continent. Des initiatives notables comprennent l’approbation par le Rwanda d’une Politique nationale sur l’intelligence artificielle et la directive du gouvernement nigérian en août 2023, intégrant l’intelligence artificielle dans le programme d’éducation primaire du pays et élaborant sa stratégie nationale en matière d’IA.

Au niveau mondial, le Groupe consultatif de l’ONU sur l’IA a lancé son Rapport Intérimaire sur la Gouvernance de l’IA pour l’Humanité le 21 décembre 2023. Le rapport appelle au renforcement de la gouvernance internationale de l’IA, «non seulement pour relever les défis et les risques, mais aussi pour nous assurer que nous exploitons son potentiel de manière à ne laisser personne de côté». Certaines fonctions de la gouvernance mondiale de l’IA devraient régulièrement évaluer l’état de l’IA, harmoniser les normes, les cadres de sécurité et de gestion des risques, surveiller les risques et coordonner les interventions d’urgence, entre autres.

Carme Artigas, co-présidente du Groupe consultatif sur l’IA, a déclaré : «Comme l’IA est intrinsèquement une question internationale, il est nécessaire d’adopter une approche mondiale d’un cadre de gouvernance respectueux des droits humains et qui écoute la voix de tous, y compris du Sud mondial». Le rapport final est attendu à l’été 2024, avant le Sommet de l’avenir, et les parties prenantes sont encouragées à fournir leurs commentaires en ligne d’ici le 31 mars 2024.


©Google DeepMind 

Réduire la fracture numérique : IA inclusive
Alors que nous nous engageons dans l’année 2024, le paysage réglementaire de l’IA est sur le point de connaître une transformation, visant à stimuler son progrès tout en assurant l’inclusivité et le respect des droits humains. Cet engagement est crucial pour les communautés marginalisées, notamment dans le Sud mondial. Malgré les avancées technologiques, une préoccupation pressante persiste sous la forme de la fracture numérique. Étonnamment, selon l’Union internationale des télécommunications (UIT), un nombre ahurissant de 2,6 milliards d’individus restent sans accès à Internet en 2023.

Cette inégalité numérique est plus prononcée chez les femmes des pays à faible revenu, constituant la majeure partie de la population non connectée. Notamment en Afrique, seulement 32,1 % des femmes ont accès à Internet, en contraste marqué avec les 89,5 % de leurs homologues européennes. Exacerbant davantage la division, les disparités entre les sexes en Afrique sont évidentes, avec 42,2 % des hommes ayant accès à Internet, comparé à un taux inférieur de 32,1 % pour les femmes. Remédier à ces disparités est une impérative technologique et une étape fondamentale vers la création d’un avenir numérique équitable pour tous.

L’Intelligence Artificielle dans les Gouvernements Locaux

Les gouvernements locaux naviguent activement à travers les défis posés par l’essor de l’intelligence artificielle, avec des initiatives locales réglementaires qui façonnent le paysage. En octobre 2023, le maire de New York, Eric Adams, a publié le «Plan d’action pour l’intelligence artificielle de la ville de New York» — le premier du genre pour une grande ville américaine. S’adressant aux agences municipales et aux employés gouvernementaux, le plan vise à développer les connaissances et compétences en intelligence artificielle pour évaluer soigneusement les outils et les risques associés, soutenant l’intégration transparente de ces technologies dans les services municipaux.

Un mois plus tôt, en septembre 2023, le gouverneur de Pennsylvanie, Josh Shapiro, et le gouverneur de Californie, Gavin Newsom, ont signé des décrets sur l’utilisation de l’intelligence artificielle générative (GenAI). Le décret californien encourage les agences de l’État à promouvoir un écosystème d’innovation sûr et responsable, exploitant les systèmes et outils d’IA pour les meilleurs usages des Californiens. Cela comprend l’émission de directives pour l’approvisionnement du secteur public, les protocoles d’utilisation et la formation requise pour l’utilisation de GenAI. Le décret reconnaît que la Californie est le domicile de 35 des 50 meilleures entreprises d’IA du monde, avec San Francisco et San José en tête, contribuant significativement avec un quart de tous les brevets, articles de conférence et entreprises d’IA mondiaux. Notamment, les deux villes ont publié leurs propres directives sur l’IA générative (les Directives sur l’IA générative de San Jose et les Directives sur l’IA générative de San Francisco). Cependant, le décret de Newsom souligne la nécessité d’un déploiement et d’une réglementation attentifs de GenAI pour atténuer et se prémunir contre une nouvelle génération de risques.

Au-delà des actions législatives et des décrets exécutifs, les gouvernements locaux sont de plus en plus préoccupés par l’utilisation de l’IA par les travailleurs gouvernementaux, partageant potentiellement des informations sensibles et introduisant des risques en matière de cybersécurité. En réponse à l’utilisation croissante d’outils d’IA pour la création de contenu axée sur les citoyens, la ville de Boston a publié des directives intérimaires pour l’utilisation de l’IA générative en mai 2023 en tant que ressource pour ses employés. Adoptant une approche plus rigoureuse, l’ État du Maine a émis une directive en juin 2023 par le biais de la Technologie de l’Information du Maine, établissant un moratoire d’au moins six mois sur GenAI. Cette directive interdit l’utilisation de technologies telles que ChatGPT sur tout appareil connecté au réseau de l’État du Maine.

En 2021, Buenos Aires a élaboré un Plan d’IA comme stratégie globale pour générer un impact positif grâce à l’utilisation et au développement de l’intelligence artificielle. Un guide pratique sur le développement éthique des systèmes d’IA a été publié dans le cadre de ce plan.

De l’autre côté de l’Atlantique, le Conseil municipal de Barcelone a adopté une position proactive en établissant le Conseil consultatif sur l’intelligence artificielle, l’éthique et les droits numériques en avril 2023. Composé de 15 experts, son rôle est de conseiller et d’assister le Conseil municipal dans l’utilisation de l’intelligence artificielle pour le bien commun et d’évaluer le développement de la stratégie municipale pour les algorithmes et les données pour la promotion éthique de l’intelligence artificielle, entre autres responsabilités.

Barcelone a été un pionnier, approuvant une déclaration institutionnelle en juin 2020 en faveur d’un modèle technologique fiable et éthique. Quelques mois plus tard, en avril 2021, une mesure de gouvernance municipale pour l’avancement éthique de l’intelligence artificielle, axée sur les algorithmes et les données, a été approuvée. Barcelone est également l’une des villes fondatrices de la Coalition des villes pour les droits numériques, une coalition dirigée par les villes pour promouvoir et protéger les droits numériques, travaillant également sur la question de l’IA.

La Communauté de Pratique de CGLU sur les villes numériques, présidée par la Ville de Bilbao, produit l’étude «Villes Intelligentes». Son édition 2023 met l’accent sur les villes en tant qu’écosystèmes axés sur l’innovation, des espaces de collaboration, de créativité et d’innovation qui impulsent la R&D&I d’une perspective public-privé et contribuent à la réalisation de l’Agenda 2030 des Nations Unies.

Au début de l’année 2023, un effort collaboratif entre Barcelone, Rotterdam, Eindhoven, Mannheim, Bologne, Bruxelles et Sofia a abouti au lancement d’un registre municipal transparent et éthique pour les algorithmes, améliorant les services publics. Cette initiative permet aux citoyens d’accéder à des données diverses et fournit des informations transparentes sur les outils algorithmiques et leurs objectifs prévus.

Ces initiatives réglementaires, autrefois sur le papier, sont maintenant prêtes à façonner les actions concrètes qui définiront l’utilisation responsable et éthique de l’IA. Restez à l’écoute alors que nous continuons de suivre ce travail en cours.

Cofounded by the European Union This publication was produced with the financial support of the European Union. Its contents are the sole responsibility of UCLG and do not necessarily reflect the views of the European Union.