Intelligence Artificielle : entre enthousiasme et peur,
L’humanité atteint actuellement un moment historique où le pouvoir de la technologie dépasse la réglementation existante, et où toutes les possibilités technologiques ne sont pas prévues par les législateurs. Entre enthousiasme et peur, l’intelligence artificielle (IA) a été un sujet brûlant ces dernières semaines, notamment avec les déclarations d’Elon Musk lors de VivaTech et la montée des efforts de régulation partout dans le monde.
Les inquiétudes d’Elon Musk à Paris
Lors de VivaTech, une conférence annuelle sur la technologie et l’innovation qui s’est tenue du 14 au 17 juin à Paris, Elon Musk a partagé ses réflexions sur l’avenir de l’IA. Les PDG de SpaceX, Tesla, Neuralink, Twitter et X Corp s’inquiètent des conséquences néfastes de cette technologie pour l’humanité si elle est appliquée sans critères. Sans réglementation appropriée, l’IA pourrait présenter des risques importants et être utilisée de manière préjudiciable à la société.
Même si la richesse de Tech Magnate repose sur l’IA – par exemple, les voitures Tesla utilisent des fonctionnalités d’IA dans leur système de pilotage automatique – il a souligné l’importance de contrôler son développement pour garantir son intégration sûre et responsable dans la société. Selon lui, développer cette technologie sans comprendre pleinement son impact sur la communauté conduirait à un désastre. Ainsi, malgré les aspects positifs que l’IA apporte au progrès technique, le sommet de cette conférence a porté sur la nécessité d’une approche proactive en matière de réglementation pour éviter le pire.
L’UE tente de réglementer l’IA
L’Union européenne (UE) a franchi une étape importante vers la réglementation de l’intelligence artificielle (IA) avec l’introduction de la loi sur l’IA. La loi établit un cadre complet pour les systèmes d’IA et leurs applications au sein de la communauté européenne. Cette décision est une réponse aux progrès rapides de la technologie de l’IA – telle que ChatGPT – et à son impact sociétal potentiel. Les dispositions de la loi comprennent des mesures visant à garantir la transparence, la responsabilité et l’utilisation éthique de l’IA, ainsi qu’à répondre aux risques potentiels et à garantir la protection des droits fondamentaux.
Dans cette loi, l’UE définit un ensemble de règles et de réglementations qui s’appliqueront à la fois aux développeurs et aux utilisateurs de systèmes d’IA. Le texte vise non seulement à définir ce qu’est, en fait, l’IA elle-même, mais construit également quelques définitions, comme par exemple en les classant en quatre catégories en fonction de leur niveau de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les risques inacceptables, tels que ceux utilisés à des fins de notation sociale ou de manipulation du comportement humain, seront totalement interdits. Les systèmes à haut risque, tels que ceux utilisés dans les infrastructures critiques, les soins de santé ou les forces de l’ordre, nécessiteront des évaluations de conformité strictes avant leur déploiement. Il est important de souligner que ces commandes sont déjà prévues par le Règlement Général sur la Protection des Données (RGPD).
Inutile d’affirmer que la récente réglementation affectera le paysage technologique en Europe. Les entreprises développant des systèmes d’IA doivent se conformer à des obligations spécifiques, notamment en fournissant une documentation détaillée sur les fonctionnalités du système, les données utilisées et les mesures d’atténuation des risques.
Il est également obligatoire de réaffirmer la transparence, car les systèmes d’IA doivent informer les utilisateurs lorsqu’ils interagissent avec une IA plutôt qu’avec un humain. En outre, il comprend des dispositions visant à créer une base de données à l’échelle de l’UE pour suivre les systèmes d’IA à haut risque et effectuer des audits.
L’introduction de la loi sur l’IA vise à démontrer l’engagement de l’UE à lutter contre les risques potentiels associés à l’IA et à garantir que son déploiement soit conforme aux normes éthiques et aux droits fondamentaux. En réglementant cette technologie, l’UE entend favoriser la confiance, protéger les citoyens et faire de l’Europe un leader en matière d’IA digne de confiance. Ce faisant, les pays de l’UE cherchent à équilibrer l’innovation et la protection contre les utilisations nuisibles ou contraires à l’éthique de la technologie de l’IA.
Cependant, son impact s’étendra au-delà des frontières européennes, puisque les entreprises opérant en dehors de l’UE doivent se conformer à la réglementation lorsqu’elles fournissent des services d’IA aux utilisateurs européens, tout comme c’est déjà le cas avec le RGPD. Par conséquent, l’introduction par l’UE de la loi sur l’IA constitue une étape importante pour le développement de réglementations dans le monde entier.
Les États-Unis arrivent juste après
Après l’UE, les États-Unis mobilisent désormais leurs efforts pour réglementer ces technologies d’IA à mesure qu’elles continuent de progresser et de s’intégrer dans divers secteurs de la société. Au niveau fédéral, des discussions sont en cours sur la création d’une nouvelle agence dédiée à la surveillance de l’IA, à l’instar de la création du Bureau de protection financière des consommateurs en réponse à la crise financière de 2008. Cette agence proposée viserait à garantir une utilisation responsable et équitable de l’IA, en abordant des questions telles que la confidentialité des données, la transparence algorithmique et la discrimination potentielle.
En outre, certains États ont commencé à prendre leurs propres initiatives. La Californie, par exemple, a présenté des projets de loi axés sur la responsabilité, la transparence et la réglementation de l’IA. Ces mesures au niveau de l’État visent à relever les défis uniques présentés par l’IA et à fournir un cadre pour le développement et le déploiement responsable de l’IA dans l’État où est basée la Silicon Valley, qui rassemble les entreprises technologiques les plus essentielles au monde.
Tesla’s Use of AI: A Revolutionary Approach to Car Technology
Source: LinkedIn
Author: Alexander S.
Date : 19/04/2023
U.S. efforts to regulate A.I. gather steam
Source: Fortune
Author: Jeremy Kahn
Date: 27/06/2023
TechScape: Can the EU bring law and order to AI?
Source: The Guardian
Author: Dan Milmo
Date: 27/06/2023
The EU still needs to get its AI Act together
Source: The Verge
Author: Jess Weatherbed
Date: 29/06/2023
About the AI Act and how it aims to define what the risks are. On how Europe is working on the definitions and how the technology will be restricted.