AI Act : la course européenne par la norme face au leadership américain en matière d'intelligence artificielle

Avec l’avènement de la société de l’information et du numérique à la fin du XXème siècle, l’intelligence artificielle (IA) s’est progressivement transformée en un véritable théâtre de rapports de force, au sein duquel pléthore d’acteurs s’affrontent dans une course mondiale à l’IA.

Si certains acteurs luttent pour maintenir leur leadership en la matière, d’autres tentent de se faire une place afin de prendre part à la course. C’est précisément le cas des États-Unis, de la Chine et de l’Europe. Tandis que les premiers sont rapidement parvenus à se démarquer et à prendre les deux premières places du podium dans la course à l’IA, l’Europe peine à rattraper son retard. Or, les enjeux qui sous-tendent cette course ne sont pas des moindres. Révolution numérique et bouleversement technologique, l’IA représente certes un défi technologique majeur, mais constitue également un véritable enjeu stratégique pour les acteurs du monde politique et géopolitique.

D’un point de vue économique, les entreprises et les États ont pris conscience de la nécessité d’investir dans le secteur de l’IA, en raison notamment des revenus considérables générés par les logiciels, matériels et services liés à l’IA. En 2023, le marché mondial de l’IA a été évalué à 207,9 milliards de dollars et pourrait encore s’accroître d’environ 36,6% d’ici 2030[i]. Concernant le marché de l’IA générative, c’est-à-dire des logiciels comme ChatGPT, celui-ci est actuellement évalué à 13,7 milliards de dollars et devrait dépasser les 50 milliards de dollars en 2029. De plus, l’IA permet d’optimiser la rentabilité d’un acteur en jouant sur plusieurs facteurs classiques (dépenses, recettes, flux), ce qui constitue une opportunité de développement d’activité indéniable pour les entreprises. La révolution de l’IA représente en outre une opportunité pour les entreprises d’augmenter leur productivité de manière significative puisque les systèmes hautement automatisés peuvent accompagner les décisions humaines dans les environnements les plus complexes.

Pour finir, l’IA présente un véritable enjeu d’influence pour les États et les différentes visions du monde. Sur le plan national et diplomatique, les États qui auront développé une stratégie tournée vers l’IA posséderont un écosystème à même de dominer la scène internationale [ii]. Ainsi, devenir leader et détenir le monopole sur l’IA revient à devenir « le maître du monde »[iii]. « Puissance » et « suprématie » sont en effet les deux objectifs qui alimentent cette course à l’IA. Cette compétition amène en outre des opportunités colossales mais présente aussi de réelles menaces, aujourd’hui imprévisibles. Dès lors, l’État qui parviendrait à asseoir son autorité dans ce domaine lui permettait d’utiliser l’IA comme un instrument de développement de sa propre puissance, lui permettant in fine d’affirmer sa suprématie sur ses rivaux.

Un monopole américain

Aujourd’hui, seuls les États-Unis détiennent le monopole sur l’IA et sont parvenus à s’élever au rang de leader dans la course à l’IA, malgré une montée en puissance significative de la Chine en la matière. Dotée de fortes ambitions de leadership dans le secteur de l’IA, la Chine constitue en effet le principal rival des États-Unis. Avec l’arrivé de X. Jinping à la tête de l’État chinois, l’IA est devenue une technologie au service du parti-État [iv] en permettant notamment d’affermir le contrôle et la surveillance de l’ensemble de la population chinoise. Au-delà de ce contrôle social, l’IA sert également de levier de montée en puissance chinoise. Précisément, la Chine développe une stratégie de développement de l’IA pour renouveler son régime de croissance. Avec une économie dirigée par les innovations scientifiques et techniques, stimulant ainsi la croissance de la productivité globale, elle a pour ambition de devenir une puissance industrielle mondiale et un pays innovant de premier plan d’ici 2035. Pour mener à bien ses ambitions, elle s’appuie notamment sur ses BHATX chinois (Baidu, Huawei, Alibaba, Tencent et Xiaomi). Les GAFAM américains n'ayant pas réussi à s’implanter en Chine, les BHATX bénéficient de l’essentiel du marché chinois [v]. Le rapport de force qui oppose ces deux puissances se traduit surtout dans le domaine militaire. La voie choisie pour moderniser l’Armée populaire de libération (APL), et faire de la force chinoise l’une des premières du monde, passe par la recherche en IA. La stratégie chinoise se traduit concrètement par la mise en œuvre de systèmes d’armes létales autonomes, moins coûteux en hommes et plus efficaces. C’est précisément ce domaine de compétence qui permettrait, à terme, à la puissance chinoise de dépasser l’adversaire américain. Les deux puissances se livrent ainsi à une course au développement des drones, sous-marins, chars ou encore avions de chasse autonomes [vi].

Au-delà de la rivalité sino-américaine, l’Europe quant à elle ne parvient toujours pas à rivaliser avec le leadership américain. Or, prendre une place dans la course à l’IA représenterait un gain de souveraineté crucial pour le Vieux continent [vii]. Mais force est de constater que la France et l’Europe sont, aujourd’hui encore, inexistantes dans la course mondiale à l’IA.

Face à un tel constat, deux questions s’imposent : comment l’Europe peut-elle rattraper son retard considérable dans la course ? Comment peut-elle asseoir sa souveraineté en matière d’IA en vue d’accroître sa puissance ?

La réaction européenne

Dans un tel contexte, l’Union européenne a récemment adopté une stratégie et un plan d’action en vue de remédier à son impuissance en matière d’IA. Placée au cœur de la compétition mondiale depuis plusieurs années, il était devenu nécessaire d’appréhender l’IA comme un outil de compétitivité, d’où l’importance pour l’Europe de développer une vision souveraine en la matière.

La normalisation est alors apparue comme un élément clé des débats pour permettre à l’Europe d’imposer sa vision et sa stratégie tournée vers l’IA. Concrètement, cette stratégie fondée sur la norme s’est traduite par une proposition de règlement par Commission européenne en 2021. Toujours en discussion, l’AI Act [viii] a précisément pour objectif d’établir des règles harmonisées concernant l’IA et devrait, en principe, entrer en vigueur en 2026.

Outil d’influence majeur, la norme a ainsi été envisagée comme une stratégie afin de conquérir de nouveaux marchés, et plus largement le monde immatériel. Élaborer la norme permet en effet de contribuer à façonner les règles du marché. Autrement dit, elle peut être une véritable arme stratégique et concurrentielle dès lors que tenir la norme c’est tenir le marché. La normalisation constitue en outre un axe stratégique clé, tant pour les États que pour les entreprises, puisqu’elle se situe au cœur d’une démarche de souveraineté économique [ix].

Ainsi, l’Europe prit conscience du fait qu’établir la norme signifiait être à même de dominer la scène internationale, ou du moins que cela lui offrait une chance de conquérir une partie du monde immatériel en gagnant une place dans la course à l’IA. En d’autres termes, l’Europe prit enfin conscience que la norme constituait un vecteur d’hégémonie.

Toutefois, si l’approche de l’Europe a pour objectif d’affirmer sa puissance et son rayonnement avec l’AI Act, elle n’exclut pas pour autant la question de la protection des droits fondamentaux. La normalisation européenne de l’IA tend effectivement à garantir la sécurité et les droits fondamentaux des citoyens et consommateurs européens. Cette logique va de pair avec la montée en puissance des craintes de l’opinion publique occidentale qui présente « une forme de défiance vis-à-vis de l’IA, avec notamment un débat éthique profond portant à la fois sur l’IA elle-même, son utilité, son contrôle et ses usages finaux » [x].

Or, le risque majeur serait de tomber dans une normalisation excessive, également appelée « hyper-régulation ». Dans une telle hypothèse, la norme pourrait alors produire l’effet inverse et freiner l’Europe dans la poursuite de son objectif initial : faire en sorte que les nations européennes prennent une place dans la course à l’IA et rivalisent avec le leadership américain au moyen de la norme.

Ainsi, cette analyse a pour principal objectif de comprendre le rapport de force qui oppose les États-Unis et l’Europe en matière d’IA, et ce à travers le prisme de la norme. Concrètement, l’objectif est de dresser une grille de lecture qui permettra de comprendre comment les États-Unis tentent de conserver leur leadership sur l’IA et de dominer l’Europe (et les autres acteurs) au moyen de la norme. Enfin, cet article a vocation à déterminer si l’AI Act permettra à l’Europe de conquérir une part du monde immatériel et de s’imposer comme un acteur clé dans la course à l’IA.

Le leadership américain : l’(in)utilisation de la norme en faveur du développement de l’IA

En 2019, un rapport fut publié par le Center for Data Innovation et avait pour objectif de déterminer le vainqueur de la course à l’IA [xi]. Pour se faire, les rédacteurs de ce rapport suivirent une approche comparative entre la Chine, l’Union européenne et les États-Unis afin d’établir leur position dans cette course. Six catégories de mesures furent étudiées : le talent, la recherche, le développement, l’adoption de l’IA, les données et le matériel informatique. À l’issue de l’analyse, les États-Unis ressortaient largement en tête dans quatre des six catégories de paramètres examinés par ce rapport (talent, recherche, développement et matériel informatique).

Aujourd’hui, le paysage technologique est toujours incontestablement dominé par les États-Unis, leader en matière d’IA.

IA2

 

Plusieurs raisons expliquent ce leadership américain. D’abord, la Silicon Valley compte le plus grand nombre de start-up spécialisées en IA (entre 12 000 et 15 000 en 2019) [xii].

 

IA3

 

De plus, cette dynamique américaine est largement stimulée par la croissance sans précédent des GAFAM (Google, Apple, Facebook / Meta, Amazon et Microsoft) qui incarnent un véritable vivier d’innovations [xiii]. Au fil du temps, les États-Unis sont devenus le foyer de ces entreprises technologiques les plus prospères au monde. Ces géants de la tech ont rapidement compris le fait qu’un avantage mondial en matière d’innovation dans le domaine de l’IA pouvait être obtenu. Ainsi, la puissance économique des GAFAM contribua en grande majorité au monopole américain sur l’IA et à l’avance technologique considérable des États-Unis.

Face à l’exposition de l’Internet et du numérique, ces géants américains ont été les premiers à réaliser un véritable saut technologique, ayant pour ambition de devenir les premiers fournisseurs d’IA. Cela leur a notamment permis d’acquérir des positions de force et de dominer le monde immatériel. Ils se sont alors imposés dans l’ensemble de la chaîne de valeur du numérique grâce à de nombreuses « stratégies offensives » [xiv].

Concrètement, diverses politiques furent engagées dans le but d’assurer la mainmise américaine sur la recherche en matière d’IA. Grâce à d’importants moyens financiers, liés à leur forte capitalisation boursière et à leurs investissements dans l’innovation, les GAFAM ont notamment pu engager une politique d’accumulation massive de données, de matériels de pointe, et de capacités de recherche et de développement [xv].

Ces grands groupes se sont en outre imposés à l’échelle mondiale dans une logique de conquête de nouveaux espaces. Aujourd’hui encore, ils continuent à assurer leur présence en dehors de leurs frontières en exerçant une stratégie de projection vers la sphère internationale. D’une part, ils rachètent de manière quasi systématique toutes les entreprises innovantes en matière d’IA pour renforcer leurs propres capacités et étouffer la concurrence. D’autre part, ils exercent leur influence (soft power) au profit de leurs intérêts dans les enceintes internationales de normalisation et de régulation [xvi]. Par ailleurs, l’autre tactique de ces géants de la tech consiste à imposer une véritable standardisation fondée sur les technologies et les logiciels qu’ils fournissent eux-mêmes, et à orienter les réflexions mondiales sur l’éthique de l’IA[xvii].

La collaboration entre public/privé aux Etats-Unis dans le domaine de l’IA

La stratégie américaine se caractérise en outre par une étroite collaboration entre le domaine du public et du privé, permettant ainsi de mieux superviser les avancées techniques de chaque secteur. Le rôle des pouvoirs publics américains contribue en effet en grande partie au maintien du leadership du pays, en témoigne l’importance des agences fédérales et des centres de recherche, très innovants en matière d’IA (tels que le National Science and Technology Council, la Defense Advanced Research Projects Agency, l'Advanced Research Projects Agency-Energy ou encore le Massachusetts Institute of Technology). En 2020, une enveloppe de 625 millions de dollars sur cinq ans a été débloquée par le gouvernement américain afin d’assurer le financement de R&D des centres américains de recherche en IA et informatique quantique [xviii].

L’innovation étant devenue un vecteur de croissance économique et un enjeu de puissance crucial, les États-Unis ont donc mis en œuvre de nombreuses politiques publiques spécifiquement conçues pour encourager l’innovation. Leur stratégie étant de proposer un « terreau fertile à l’innovation » [xix] en vue d’accroître leur puissance, ils ont ainsi érigé l’IA au rang de priorité.

Par ailleurs, la stratégie américaine se traduit par une logique de projection à l’échelle internationale. Les États-Unis disposent à cet égard d’un avantage compétitif face aux autres acteurs dans cette course technologique : leur influence dans les institutions internationales et l’importance de leurs investissements dans la recherche. À titre d’exemple, l’État américain fournit de nombreuses recommandations au sein de l’observatoire des politiques de l’IA au sein de l’Organisation de coopération et de développement économique (OCDE). Les États-Unis ont également été un acteur majeur dans la création du Global Partnership on Artificial Intelligence lancé lors du sommet du G7 en 2018.

Dans cette logique de projection et d’influence au-delà de leurs frontières, ils se sont notamment implantés dans le secteur militaire. À titre d’exemple, les États-Unis cherchent à composer avec le droit international humanitaire pour encadrer le développement d’outils de défense liés à l’IA. De même, ils se montrent particulièrement actifs dans le groupe d’experts gouvernementaux sur les technologies émergentes dans le domaine des systèmes d’armes létales autonomes [xx]. Néanmoins, si cette stratégie, tournée vers l’extérieur, comprend des collaborations mises en place avec d’autres pays, elle n’entrave pas pour autant la compétitivité américaine.

Enfin, parmi les autres points forts qui permettent de comprendre et d’expliquer le leadership américain en matière d’IA, figure l’absence de normalisation de l’IA. Par une régulation minimale, les États-Unis ont effectivement pu favoriser la compétitivité et développer l’IA en étant exemptés de toute contrainte normative.

En réalité, ce développement de l’IA « hors les textes » correspond à une véritable stratégie de puissance. En adoptant une vision libérale de la normalisation dans le secteur de l’IA, les États-Unis ont pu optimiser les investissements de recherche et développement, ce qui leur vaut aujourd’hui la première place dans la course mondiale à l’IA. La plupart des initiatives pour réguler l’IA sont issues du secteur privé (American National Standards Institute). Au cours de ces dernières années en effet, ce sont essentiellement des entreprises et des instituts de recherche privés qui ont publié des principes et des lignes directrices pour parvenir à une « IA éthique ». Ces acteurs sont ainsi parvenus à une convergence mondiale émergeant autour de cinq principes éthiques : la transparence, la justice et l’équité, la non-malfaisance, la responsabilité et la vie privée [xxi]. Or, ces principes n’ont en réalité aucune force contraignante.

La norme a toujours été utilisée en vue de favoriser le monopole des États-Unis sur l’IA et jamais dans une logique de contrainte. Encadrer par des règles strictes l’IA aurait de facto réduit les opportunités pour les États-Unis d’accroître leur puissance par ce levier que constitue l’IA. A titre d’exemple, en 2019, l’administration Trump s’était emparée de l’IA pour maintenir l’avance de son pays en publiant un décret. L’American A.I. Initiative reposait sur plusieurs piliers dont la coopération internationale, l’investissement et le développement de l’IA, mais aussi la définition d’un cadre éthique[xxii]. De nombreux détails du décret étaient laissés en suspens, et pour cause, l’utilisation de la norme ne devait pas contraindre les États-Unis dans le développement de l’IA. Or, ériger l’établissement d’un cadre éthique comme un pilier de ce décret semble assez paradoxal. Comment établir un cadre éthique sans avoir encadré l’IA elle-même ? In fine quelle valeur octroyer à ce cadre éthique ?

Il s’agit ici d’une véritable tactique d’influence de la part des États-Unis : apparaître comme ayant la volonté de poser un cadre éthique pour limiter les dérives liées à l’utilisation de l’IA, sans pour autant imposer des règles trop strictes afin de conserver une marge de manœuvre pour conserver leur monopole sur le secteur. 

Récemment, ce paradoxe (en réalité issu de la stratégie américaine) s’est transformé en un véritable changement de paradigme en ce que, désormais, les États-Unis manifestent leur volonté d’encadrer l’IA par la norme afin de limiter les risques de dérive dus à son utilisation. En réalité, par ce tournant, les États-Unis renouvellent leur posture stratégique en prenant en compte l’évolution du contexte et l’apparition d’une nouvelle forme d’affrontement. Depuis peu, la normalisation de l’IA est en effet devenue un enjeu crucial pour les puissances.

C’est précisément dans cette logique que le président des États-Unis a publié un décret le 30 octobre 2023. J. Biden déclarait à cet égard que « pour réguler les promesses de l’IA et éviter les risques » ils devaient « gouverner cette technologie » en l’encadrant [xxiii]. Concrètement, l’Executive order « établit des règles claires ainsi que des mesures de contrôle afin de garantir que l’IA reste maîtrisée, tout en lui ouvrant des voies de développement » [xxiv]. Il s’agit ici d’un véritable changement de paradigme en ce que la norme est ici utilisée pour permettre le développement de l’IA, mais surtout pour établir des garde-fous en vue, notamment, de garantir l’équité et de protéger la vie privée et les droits civils des Américains.

On peut donc apriori croire à un véritable basculement. Mais, à nouveau, une stratégie sous-tend cet usage de la norme. La régulation de l’IA faisant l’objet d’une « féroce compétition internationale »[xxv], les États-Unis veulent être les premiers à « montrer la voie » dans la régulation de l’IA, craignant à terme que les standards chinois ne les dépassent dans la course.

En réalité, plusieurs contradictions peuvent être identifiées dans la stratégie américaine au regard du contenu de l’Executive order. En particulier, parmi les dispositions de ce décret, un chapitre traite de l’utilisation de l’IA dans le système judiciaire. Il est notamment question de de « détermination » des peines, de « surveillance » et de « police prédictive ». Le décret stipule expressément que le gouvernement a pris conscience des biais des algorithmes et des IA d’où la nécessité de « garantir l’équité dans l’ensemble du système de justice pénale en élaborant de bonnes pratiques sur l’utilisation de l’IA » [xxvi]. Pour autant, le texte continue d’autoriser l’utilisation de ces « outils intelligents » ce qui est relativement paradoxal.

Ainsi, de nombreuses interrogations subsistent et constituent, de facto, une source d’insécurité juridique. Comment prétendre « garantir l’équité » et « lutter contre la discrimination algorithmique » tout en maintenant l’utilisation de l’IA dans les systèmes judiciaire et carcéral ? Ces systèmes sont déjà fortement biaisés contre les personnes racisées. À cet égard, une étude de l’Organisation des Nations Unies (ONU), publiée en septembre 2023, concluait ainsi que « le racisme systémique à l’encontre des personnes d’ascendance africaine est omniprésent dans les forces de police et le système de justice pénale des États-Unis » [xxvii]. Il en va de même pour la police préventive dont les algorithmes renforcent les biais racistes. Or, l’IA est loin d’être un instrument permettant d’assurer des décisions neutres. De nombreuses études ont en effet prouvé que les algorithmes reflétaient et renforçaient les biais humains.

Derrière ce paradoxe se cache une véritable tactique américaine :

. En apparence, utiliser la norme pour montrer la prise de conscience du gouvernement du fait que l’utilisation de l’IA puisse entraîner et aggraver la discrimination et d’autres abus dans les domaines de la justice, d’où la nécessité d’encadrer strictement l’IA .

. En réalité, utiliser la norme en tant qu’outil d’influence mais ne rien détailler de sorte à ne pas tomber dans un encadrement trop strict pour permettre aux États-Unis de conserver leur mainmise et leur liberté d’action sur l’IA.

Concrètement, cette stratégie américaine reflète une véritable une logique de conquête et d’affrontement dans un monde (géo)politique où la régulation de l’IA est devenue, depuis peu, un réel défi. Bon nombre d’États en ont fait leur priorité, en témoignent l’adoption d’un code de bonne conduite par les pays du G7 le 30 octobre dernier [xxviii], ou encore la tenue du premier sommet international sur les risques en matière d’IA au Royaume-Uni les 1er et 2 novembre derniers [xxix].

C’est précisément dans cette logique de conquête que la Commission européenne est intervenue en avril 2021 avec sa proposition de règlement en vue d’établir des règles harmonisées en matière d’IA. L’Europe se devait de réagir en développant une politique européenne propre dans le domaine de l’IA, d’autant que, depuis 2018, son retard considérable en la matière est régulièrement dénoncé [xxx]. Il est donc devenu urgent et indispensable pour l’Europe de se placer à son tour dans la course à l’IA, enjeu de souveraineté et de puissance crucial.

Au regard du contexte actuel où la régulation de l’IA s’est transformée en un défi majeur, l’adoption de l’AI Act constitue ainsi un véritable espoir pour l’Europe en ce qu’il vise d’une part à consolider l’ensemble des stratégies nationales européennes et, d’autre part, à réduire l’influence des normes étrangères dans l’Union européenne ce qui lui permettrait, à terme, d’accroître sa puissance.

L’urgence d’une ambition européenne : dominer et influencer la course à l’IA par la norme 

« Si nous ne réagissons pas, nous allons finir comme une colonie technologique dans les mains des géants du numérique sino-américains ». [xxxi]

Afin de rattraper son retard et de se détacher de son statut de « colonie du monde numérique », l’Europe s’est lancée dans une course à la réglementation de l’IA. La stratégie européenne en la matière vise ainsi à faire de l’UE une plaque tournante de classe mondiale pour l’IA et à faire en sorte que celle-ci soit centrée sur l’humain et digne de confiance [xxxii]. L’enjeu central de la stratégie européenne en la matière pourrait être résumé ainsi : « développer l’intelligence artificielle, ainsi que ses potentialités sociales et économiques, tout en encadrant les risques qu’elle fait peser sur les droits fondamentaux des êtres humains » [xxxiii].

Si la prise de conscience et la réaction européennes ont été laborieuses, l’Europe a néanmoins compris que l’IA possédait un fort potentiel pour apporter des avantages sociétaux, la croissance économique et renforcer l’innovation et la compétitivité mondiale de l’Union européenne [xxxiv].

« Une Europe qui parviendrait à développer son propre écosystème d’IA serait une bonne nouvelle pour l’encadrement de ces technologies au niveau international ». [xxxv]

Pour se faire, l’Europe s’est lancée dans une réponse globale en utilisant la norme comme principal instrument pour tenter de rivaliser avec le leadership américain et ses autres concurrents. L’influence sur les normes est en effet une condition essentielle de la compétitivité des entreprises, de leur développement, et surtout de la souveraineté des États. Dès lors, l’approche européenne se veut centrée sur l’excellence et la confiance à travers la mise en place de règles et d’actions concrètes qui auraient une réelle force contraignante.

La bataille mondiale des normes est effectivement une réalité que l’Europe a su prendre en compte par son ambition d’adopter un règlement établissant des règles harmonisées en matière d’IA. C’est bien de domination et d’influence dont il est question lorsque l’on parle de norme puisque celui qui fait la norme domine de facto le marché.

L’adoption de l’AI Act reflète en réalité la logique souveraine dans laquelle se trouve l’Europe et sa stratégie mise en place : établir la règle du jeu vaut mieux que de faire partie du groupe qui doit l’appliquer sans avoir contribué à la définir. Avec l’AI Act, l’Europe a pour ambition de dominer et d’influencer la normalisation internationale en matière d’IA en adoptant une tactique digne d’un état stratège.

Si le projet de règlement est toujours en discussion, il permettra à terme de poser un cadre juridique sur l’IA dont les règles, une fois adoptées, seront directement applicables à tous les États membres. Ces règles harmonisées et proportionnées permettront ainsi de faire face aux risques générés par les utilisations de l’IA et donneront à l’Europe un rôle de premier plan dans la définition de cette technologie. En outre, le contrôle de l’application des règles sera assuré au moyen d’un système de gouvernance au niveau des États membres, ainsi que d’un mécanisme de coopération au niveau de l’Union accompagnant la création d’un Comité européen de l’intelligence artificielle [xxxvi].

« Le cadre réglementaire vise à (…) assurer le bon fonctionnement du marché unique en créant les conditions pour le développement et l’utilisation d’IA dignes de confiance dans l’Union » [xxxvii].

Au-delà du renforcement de la gouvernance européenne, le règlement a aussi pour objectif d’assurer des conditions de concurrence équitables et de protéger les citoyens européens, tout en renforçant la compétitivité de l’Europe et la base industrielle de l’IA. En intervenant et en soutenant l’innovation dans le domaine de l’IA, l’Union européenne manifeste en réalité sa volonté de stimuler le marché intérieur pour des applications d’IA légales, sûres et dignes de confiance. L’Europe se doit en effet de mettre en œuvre des politique publiques conçues pour encourager l’innovation, à l’image des autres pays membre de l’OCDE.

Ainsi, si la position dominante américaine constitue une réelle contrainte que les stratégies nationales des autres pays prennent toutes en compte, l’Union européenne intervient de façon stratégique en utilisant la norme pour tenter de dompter l’IA[xxxviii]. À titre d’exemple, la position du Parlement européen illustre bien cette tentative d’influencer, par la norme, les géants américains : elle introduit notamment des mesures concernant les applications d’IA génératives, telles que ChatGPT ou MidJourney, qui se verraient obligées de labelliser leurs contenus pour indiquer aux utilisateurs qu’ils sont en présence d’un texte ou d’une image créée par une IA [xxxix]

Cependant, si de nombreux espoirs reposent sur l’adoption de l’AI Act, ce règlement, et plus généralement la stratégie européenne, présentent certaines faiblesses. Dès 2021, le Center for data innovation estimait que la proposition de règlement risquerait de réduire de 20% les investissements dans l’IA en Europe notamment en raison du mauvais équilibre entre, d’une part, la régulation des pratiques risquées, et, d’autre part, l’encouragement à l’innovation et à l’investissement.

Les risques de déséquilibre

Plus récemment, E. Macron manifestait ses craintes au sujet d’un éventuel déséquilibre dans la mise en œuvre de la stratégie européenne. Lors du salon Viva Tech de Paris, tenu en juin dernier, il déclarait ainsi que « le pire scénario serait que l’Europe investisse beaucoup moins que les Américains et les Chinois, mais commence par créer de la régulation »[xl]. Or, aujourd’hui, ce scénario semble se concrétiser, non seulement au niveau de la France, mais plus largement au niveau européen.

IA4

 

Au niveau de la France d’abord, le salon de l’innovation technologique a été l’occasion pour le président de la République d’annoncer sa volonté de débloquer une enveloppe de 500 millions d’euros qui serait dédiée à l’IA, et de lancer un plan permettant de financier des start-up et d’aider les PME [xli].

Au niveau européen ensuite, l’approche de l’Europe tend à la maximisation des ressources et à la coordination les investissements, éléments essentiels de l’excellence en IA. Dans le cadre des programmes Horizon Europe et Europe numérique, la Commission européenne prévoit à cet égard d’investir 1 milliard d’euros par an dans l’IA, en mobilisant notamment des investissements supplémentaires du secteur privé et des États membres. Elle a également pour ambition de mettre 134 milliards d’euros à disposition pour le numérique. Cela permettait « à l’Europe d’amplifier ses ambitions et de devenir leader mondial dans le développement d’une IA de pointe et digne de confiance » [xlii].

Toutefois, malgré cette impulsion européenne et l’initiative de certains États membres d’investir plusieurs centaines de millions d’euros dans l’IA, ces montants restent largement insuffisants lorsque l’on sait que 12 milliards de dollars ont été investis dans l’IA par les États-Unis rien qu’entre janvier et mai 2023 [xliii].

« L’Europe est en avance sur la régulation de l’IA, mais n’est pas encore pionnière dans sa création ».[xliv]

Au lieu de s’appuyer sur ses avantages concurrentiels et d’identifier concrètement les secteurs dans lesquels elle pourrait se démarquer, l’Europe s’est jusque-là principalement attelée à ce qu’elle sait faire, à savoir réguler. Or, la régulation est un processus lent qui prend nécessairement du temps, contrairement à l’innovation qui n’attend pas. En particulier, les 27 États membres doivent se mettre d’accord, tout comme les parlementaires européens. Il faut en outre que le règlement soit proportionné et nécessaire pour atteindre les objectifs fixés. Cela implique par conséquents de longues négociations, d’autant que les idéologiques et les stratégies divergent d’un État membre à un autre, en témoigne les débats à propos de l’interdiction de la reconnaissance faciale (en temps réel) et de la police prédictive.

À titre d’exemple, les négociations en cours portent sur une version de l’AI Act datant de 2021. En deux ans, les prouesses technologiques ont notamment permis le développement des IA génératives. Or, il n’est pas certain que la version de l’AI Act qui sera adoptée prochainement appréhendera la question des IA génératives. Une fois entré en vigueur en 2026, le règlement sera donc probablement déjà obsolète et il faudra par conséquent édicter de nouvelles dispositions. Une telle situation ne serait pas opportune dans un contexte d’inflation législative déjà vivement critiqué et créera un véritable frein à l’innovation européenne.

Par ailleurs, le risque avec l’AI Act serait de tomber dans une normalisation excessive et donc dans le travers de « l’hyper-régulation ». Si l’élaboration de ce règlement est pour le moins lente et laborieuse, les 27 États membres se sont mis d’accord en décembre 2022 [xlv] sur la nécessité de protéger strictement les droits fondamentaux. Il en va de même du Parlement européen qui a récemment adopté sa position de négociation le 14 juin dernier [xlvi]. En particulier, les eurodéputés ont manifesté leur souhait d’interdire de manière générale l’utilisation des systèmes de données biométriques de reconnaissance faciale ou de notation sociale, notamment utilisés par la Chine pour la surveillance de masse.

« La présente proposition vise à garantir un niveau élevé de protection de ces droits fondamentaux et à lutter contre diverses sources de risques grâce à une approche fondée sur les risques clairement définie. Prévoyant un ensemble d’exigences pour une IA digne de confiance et des obligations proportionnées pour tous les participants à la chaîne de valeur » [xlvii].

Concrètement, l’idée serait d’avoir des systèmes d’IA qui garantissent la sécurité, la transparence, la non-discrimination ainsi que la vie privée.  Ce règlement a été conçu comme un véritable garde-fou afin de protéger les citoyens et les consommateurs européens des dérives de l’IA. Le cadre juridique prévu par le règlement a effectivement vocation à protéger les droits fondamentaux, en particulier le droit au respect de la vie privée (figure prééminente des droits de la personnalité) [xlviii], à la non-discrimination [xlix] et la protection des données à caractère personnel [l]. Pour se faire, des règles strictes seront établies selon une approche fondée sur quatre niveaux de risques différents : risque inacceptable, risque élevé, risque limité et risque minimal. L’utilisation à mauvais escient est la principale crainte du législateur européen. Cette technologie risque en effet de « fournir des outils nouveaux et puissants à l’appui de pratiques de manipulation, d’exploitation et de contrôle social » [li].

Cependant, produire une réglementation trop stricte créerait l’effet inverse et constituerait un véritable frein pour l’Europe dans sa logique de conquête de l’IA. C’est précisément pour éviter un tel effet que le décret américain, récemment publié (v. supra), se garde d’être trop détaillé et trop exhaustif « tout en affichant une volonté de coopérer avec l’Europe sur des sujets (…) tel que la promotion des droits de l’Homme » [lii].

Pour finir, l’autre faiblesse de l’Europe tient à la domination par les géants américains du paysage technologique. Cette domination constitue l’un des freins principaux à la constitution d’une industrie européenne de l’IA.

Certes, les start-ups et l’industrie ont pu toucher aux investissements publics français et européens. À cet égard, 502 start-up françaises spécialisées en IA ont été recensées en 2021. Il est vrai également que les États membres favorisent de plus en plus le recours à l’IA. De son côté, la France fait tout pour expérimenter l’usage de technologies de vidéosurveillance algorithmique dans le cadre du maintien de l’ordre. À cet égard, une loi du 19 mai 2023 [liii] permet de déployer ce type de technologies intelligentes dans le cadre des Jeux Olympiques de 2024. Par ailleurs, au moins 11 pays européens utilisent des technologies de reconnaissance faciale dans leurs opérations de police.

Mais malgré cette impulsion, aujourd’hui les services d’IA utilisés par le grand public européen sont tous américains : Bard (Google), ChatGPT (OpenAI), Bing (Microsoft)… De même, l’immense majorité des modèles de langage qui font tourner les services d’IA sont aussi américains. Les codes et les robots sont également contrôlés depuis la Silicon Valley. Par conséquent, cela signifie que « le gouvernement américain (…) aura un impact sur l’orientation des IA que les européens utilisent de plus en plus » [liv]. Ainsi, dans l’hypothèse où un « ChatGPT bleu blanc rouge » verrait le jour, celui-ci sera probablement influencé par les géants de la tech. De même, dans le cas où une entreprise européenne parviendrait à s’imposer, elle serait certainement rachetée par les géants américains.

Les contradictions françaises

On peut notamment mentionner l’exemple de la start-up française Mistral AI qui a récemment dévoilé son premier modèle d’IA : Mistral 7B. L’outil a été conçu pour rivaliser avec certains concurrents américains. On peut néanmoins s’interroger : comment la start-up peut-elle prétendre rivaliser avec les États-Unis alors même que Mistral 7B est un outil qui parle essentiellement anglais et qui ne possède que 7 milliards de paramètres tandis que GPT-3 en comptait 175 milliards ? [lv] Si elle souhaite s’imposer dans la course à l’IA, l’Europe devra donc essayer de rompre sa relation de dépendance technologique vis-à-vis des États-Unis, ce qui n’est pas gagné.

En définitive, en dressant un bilan de cette analyse, on peut en conclure que l’Europe est bien loin de parvenir à détrôner le leader dans la course mondiale à l’IA. Les États-Unis conservent en en effet leur statut de vainqueur dans cette féroce compétition internationale. Aujourd’hui, seule la Chine a la capacité de rivaliser avec les géants américains.

Dès lors, pour espérer se faire une place dans la course à l’IA en ayant recours à la norme comme levier de puissance, l’Europe devrait opter pour la stratégie de ses rivaux américains. Elle devrait en effet adopter une réglementation qui puisse s’adapter en fonction diverses évolutions, et ne pas céder à la tentation d’une approche détaillée et exhaustive qui limiterait nécessairement ses chances de rattraper son retard.

Outre l’utilisation de la norme comme une arme stratégique de guerre économique, l’Europe, comme les États membres, devraient s’ancrer dans une véritable logique de projection en pensant de manière collective et non plus de manière individualiste. Ce n’est qu’en consolidant l’ensemble des stratégies nationales européennes que l’Europe parviendra à vaincre cet affrontement et à accroître sa puissance.

L’Europe « doit incarner une vision politique forte, dans laquelle viendront s’articuler les ambitions nationales de chacun des États membres. Et définir une stratégie industrielle courageuse pour soutenir et amplifier l’innovation avec des priorités bien définies ». [lvi]

Certes, le recours à la norme correspond à une stratégie de souveraineté indéniable puisque, comme le soulignait J. BODIN, « est souverain qui fait la loi » [lvii]. Pour autant, l’Europe de ne devrait pas s’en tenir à ce qu’elle a toujours su faire : réguler et tomber dans « l’hyper-régulation ». Il faut au contraire qu’elle repense ses stratégies de puissance en vue de conquérir l’IA, territoire majeur du monde immatériel. À ce titre, l’Europe devrait notamment se concentrer sur quatre leviers pragmatiques et ambitieux [lviii] :

Assurer un financement de l’IA et des autres technologies en faisant en sorte que l’argent public investi attire des financements privés ;

Renforcer les partenariats public-privé pour stimuler la recherche et accompagner des projets sur le marché en les transformant en produits et services à forte valeur ajoutée ;

Faire preuve de pédagogie en sensibilisant pour démystifier l’IA et appréhender ses enjeux. Il est crucial que les États mènent des actions de communication auprès de leurs citoyens pour faire basculer leur défiance vis-à-vis de l’IA ;

Jouer la carte de l’open source pour créer un effet de volumes en vue de rivaliser avec les moyens colossaux investis aux États-Unis et en Chine.

Margaux Beuque
étudiante de la 27ème promotion Stratégie et Intelligence Economique - SIE

 

Notes

[ii] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[iii] « Vladimir Poutine : « le leader en intelligence artificielle dominera le monde », La Revue du Digital, publié le 2 septembre 2017, https://www.larevuedudigital.com/vladimir-poutine-le-leader-en-intelligence-artificielle-dominera-le-monde/

[iv] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[v] X. SEURRE, « L’intelligence artificielle, un enjeu stratégique pour la puissance chinoise », in IRIS, Asia Focus, n°132, publié en février 2020, https://www.iris-france.org/wp-content/uploads/2020/02/Asia-Focus-132.pdf

[vi] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[vii] S. AUBIN, « Intelligence artificielle : les Européens peuvent-ils rivaliser avec les États-Unis ? », France 24, publié le 15 août 2023, https://www.france24.com/fr/éco-tech/20230815-intelligence-artificielle-les-européens-peuvent-ils-rivaliser-avec-les-états-unis

[viii] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106 (COD), 21 avril 2021

[ix] M.-M. HAUSER, « La guerre des normes, cœur nucléaire de la course à l’intelligence artificielle », portail-ie.fr, publié le 15 novembre 2022, https://www.portail-ie.fr/univers/influence-lobbying-et-guerre-de-linformation/2022/rapport-la-guerre-des-normes-coeur-nucleaire-de-la-course-a-lintelligence-artificielle/

[x] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[xi] D. CASTRO, M. McLAUGHLIN et E. CHIVOT, « Who is Winning the AI Race : China, the EU or the United States?», Center For Data Innovation, publié le 19 août 2019, https://datainnovation.org/2019/08/who-is-winning-the-ai-race-china-the-eu-or-the-united-states/

[xii] « Proposition de résolution au nom de la commission des affaires européennes, en application de l’article 73 quater du Règlement, sur les investissements dans l’intelligence artificielle en Europe : Intelligence artificielle : l’urgence d’une ambition européenne », Rapport d’information n°279 (2018-2019), déposé le 31 janvier 2019, https://www.senat.fr/rap/r18-279/r18-2794.html

[xiii] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[xiv] B. MIÈGE, La numérisation en cours de la société – Points de repères et enjeux, PUG, 2020

[xv] M. LE PRIOL, « Intelligence artificielle, la mainmise des « géants de la tech » sur la recherche », La Croix, publié le 11 septembre 2023, https://www.la-croix.com/Sciences-et-ethique/Intelligence-artificielle-mainmise-geants-tech-recherche-2023-09-11-1201282221

[xvi] « Les stratégies des GAFAM », Dossiers Cairn, 2023, https://www.cairn.info/dossiers-2023-32-page-1.htm

[xvii] « Proposition de résolution au nom de la commission des affaires européennes, en application de l’article 73 quater du Règlement, sur les investissements dans l’intelligence artificielle en Europe : Intelligence artificielle : l’urgence d’une ambition européenne », Rapport d’information n°279 (2018-2019), déposé le 31 janvier 2019, https://www.senat.fr/rap/r18-279/r18-2794.html

[xviii] P. MONTAGNON et E. BRAUNE, « Intelligence Artificielle : comment la Chine et les États-Unis entendent asseoir leur leadership et leur souveraineté », Forbes, publié le 17 juillet 2022, https://www.forbes.fr/technologie/intelligence-artificielle-comment-la-chine-et-les-etats-unis-entendent-asseoir-leur-leadership-et-leur-souverainete/ ; L. COROT, « Les États-Unis investissent 1 milliard de dollars dans la recherche en IA et information antique », L’Usine digitale, publié le 27 août 2020, https://www.usine-digitale.fr/article/les-etats-unis-investissent-1-milliard-de-dollars-dans-des-centres-specialises-dans-l-ia-et-l-informatique-quantique.N997429

[xix] C. HARBULOT, « L’intelligence de l’innovation », Cahiers de la guerre économique, 3ème numéro, 2021

[xx] Rapport du club Influence de l’École de Guerre Économique, « L’intelligence artificielle : les normes comme outil d’influence », 2021/2022, https://drive.google.com/file/d/1JxoC_X8-pumJywg-a9vZOObd3gLVsPG_/view

[xxi] JOBIN A., LENCA M. et VAYENA E., The global landscape of AI ethics guidelines, Nature machine intelligence, vol. 1, 2019, http://ecocritique.free.fr/jobin2019.pdf ; BELLO I., “Artificial Intelligence & Human Rights”, 2019

[xxii] S. AMSILI, « Intelligence artificielle : les États-Unis dévoilent leur plan pour garder leur avance », Les Échos, publié le 11 février 2019, https://www.lesechos.fr/tech-medias/hightech/intelligence-artificielle-les-etats-unis-devoilent-leur-plan-pour-garder-leur-avance-963498

[xxiii] « Joe Biden veut que les États-Unis « montrent la voie » dans la régulation de l’intelligence artificielle », Le Parisien, publié le 30 octobre 2023, https://www.leparisien.fr/high-tech/joe-biden-veut-que-les-etats-unis-montrent-la-voie-dans-la-regulation-de-lintelligence-artificielle-30-10-2023-WT7BM54PCVH4LEOLX5QUDJYM54.php

[xxiv] L. MEARIAN, « L’administration Biden publie un décret de grande envergure sur l’IA », Le Monde informatique, publié le 31 octobre 2023, https://www.lemondeinformatique.fr/actualites/lire-apple-redouble-d-efforts-pour-infuser-l-ia-generative-dans-ses-produits-91946.html

[xxv] « Intelligence artificielle : l’Europe et les États-Unis veulent un « code de conduite », Le Parisien, publié le 31 mai 2023, https://www.leparisien.fr/high-tech/intelligence-artificielle-leurope-et-les-etats-unis-veulent-un-code-de-conduite-31-05-2023-OXXCULLPFZAP5JXCCMH2DUN23U.php

[xxvi] A. GAYTE, « Les États-Unis promettent d’encadrer l’usage de l’IA dans l’attribution des peines judiciaires – mais ne détaillent rien », Numerama, publié le 30 octobre 2023, https://www.numerama.com/tech/1545830-les-etats-unis-promettent-dencadrer-lusage-de-lia-dans-lattribution-des-peines-judiciaires-mais-ne-detaillent-rien.html

[xxvii] Étude réalisée par l’ONU, « Systemic racism pervades US police and justice systems, UN Mechanism on Racial Justice in Law Enforcement says in new report urging reform », publiée le 28 septembre 2023, https://www.ohchr.org/en/press-releases/2023/09/systemic-racism-pervades-us-police-and-justice-systems-un-mechanism-racial

[xxviii] R. BALENIERI, « IA : les pays du G7 adoptent un code de bonne conduite », Les Échos, publié le 30 octobre 2023, https://www.lesechos.fr/tech-medias/intelligence-artificielle/ia-les-pays-du-g7-adoptent-un-code-de-bonne-conduite-2025928

[xxix] C. DUCOURTIEUX, « Le Royaume-Uni organise le premier sommet mondial sur les risques associés à l’intelligence artificielle », Le Monde, publié le 30 octobre 2023, https://www.lemonde.fr/international/article/2023/10/30/le-royaume-uni-organise-le-premier-sommet-mondial-sur-les-risques-associes-a-l-intelligence-artificielle_6197300_3210.html ; L. ANAKI et P. BENAZET, « Sommet mondial sur l’IA : les gouvernements lancent leurs réglementations », Franceinfo, publié le 1er novembre 2023, https://www.francetvinfo.fr/replay-radio/le-club-des-correspondants/sommet-mondial-sur-l-ia-les-gouvernements-lancent-leurs-reglementations_6128193.html

[xxx] U. PASCOLO, « Intelligence artificielle : Si rien n’est fait, nous allons devenir un nain géopolitique », Europe 1, publié le 29 mars 2018, https://www.europe1.fr/technologies/intelligence-artificielle-si-rien-nest-fait-nous-allons-devenir-un-nain-geopolitique-3612203

[xxxi] U. PASCOLO, « Intelligence artificielle : Si rien n’est fait, nous allons devenir un nain géopolitique », Europe 1, publié le 29 mars 2018, https://www.europe1.fr/technologies/intelligence-artificielle-si-rien-nest-fait-nous-allons-devenir-un-nain-geopolitique-3612203

[xxxii] « Une approche européenne de l’intelligence artificielle », site officiel de l’Union européenne, https://digital-strategy.ec.europa.eu/fr/policies/european-approach-artificial-intelligence

[xxxiii] A. OLIVIER, « Intelligence artificielle : que fait l’Union européenne ? », publié le 14 juin 2023, https://www.touteleurope.eu/economie-et-social/intelligence-artificielle-que-fait-l-union-europeenne/

[xxxiv] Résumé du rapport d’évaluation d’impact de la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées sur l’intelligence artificielle (loi sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, publié le 21 avril 2021.

[xxxv] S. AUBIN, « Intelligence artificielle : les Européens peuvent-ils rivaliser avec les États-Unis ? », France 24, publié le 15 août 2023, https://www.france24.com/fr/éco-tech/20230815-intelligence-artificielle-les-européens-peuvent-ils-rivaliser-avec-les-états-unis

[xxxvi] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106 (COD), 21 avril 2021

[xxxvii] Résumé du rapport d’évaluation d’impact de la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées sur l’intelligence artificielle (loi sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, publié le 21 avril 2021

[xxxviii] « Comparaison de 10 stratégies nationales sur l’intelligence artificielle », La Cour des comptes, avril 2023, https://www.ccomptes.fr/system/files/2023-04/20230403-comparaison-strategies-nationales-strategie-nationale-recherche-intelligence-artificielle.pdf

[xxxix] A. OLIVIER, « Intelligence artificielle : que fait l’Union européenne ? », publié le 14 juin 2023, https://www.touteleurope.eu/economie-et-social/intelligence-artificielle-que-fait-l-union-europeenne/

[xli] I. KABOUYA, « IA : l’Europe en passe de rattraper son retard ? », publié le 22 août 2023, https://www.wavestone.com/fr/insight/ia-leurope-en-passe-de-rattraper-son-retard/

[xlii]  « Une approche européenne de l’intelligence artificielle », site officiel de l’Union européenne, https://digital-strategy.ec.europa.eu/fr/policies/european-approach-artificial-intelligence

[xliii] S. AUBIN, « Intelligence artificielle : les Européens peuvent-ils rivaliser avec les États-Unis ? », France 24, publié le 15 août 2023, https://www.france24.com/fr/éco-tech/20230815-intelligence-artificielle-les-européens-peuvent-ils-rivaliser-avec-les-états-unis

[xliv] S. AUBIN, « Intelligence artificielle : les Européens peuvent-ils rivaliser avec les États-Unis ? », France 24, publié le 15 août 2023, https://www.france24.com/fr/éco-tech/20230815-intelligence-artificielle-les-européens-peuvent-ils-rivaliser-avec-les-états-unis

[xlv] L. ANAKI et P. BENAZET, « Sommet mondial sur l’IA : les gouvernements lancent leurs réglementations », Franceinfo, publié le 1er novembre 2023, https://www.francetvinfo.fr/replay-radio/le-club-des-correspondants/sommet-mondial-sur-l-ia-les-gouvernements-lancent-leurs-reglementations_6128193.html

[xlvi] Amendements du Parlement européen, adoptés le 14 juin 2023, à la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_FR.html

[xlvii] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106 (COD), 21 avril 2021

[xlviii] Article 8 de la Convention de sauvegarde des droits de l’homme et des libertés fondamentales ; article 7 de la Charte des droits fondamentaux de l’Union européenne

[xlix] Article 14 de la Convention de sauvegarde des droits de l’homme et des libertés fondamentales ; article 21 de la Charte des droits fondamentaux de l’Union européenne

[l] Article 8 de la Charte des droits fondamentaux de l’Union européenne

[li] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106 (COD), 21 avril 2021

[lii] L. ANAKI et P. BENAZET, « Sommet mondial sur l’IA : les gouvernements lancent leurs réglementations », Franceinfo, publié le 1er novembre 2023, https://www.francetvinfo.fr/replay-radio/le-club-des-correspondants/sommet-mondial-sur-l-ia-les-gouvernements-lancent-leurs-reglementations_6128193.html

[liii] Loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions

[liv] S. AUBIN, « Intelligence artificielle : les Européens peuvent-ils rivaliser avec les États-Unis ? », France 24, publié le 15 août 2023, https://www.france24.com/fr/éco-tech/20230815-intelligence-artificielle-les-européens-peuvent-ils-rivaliser-avec-les-états-unis

[lv] L. MBEMBE, « La start-up française Mistral AI dévoile son premier modèle d’intelligence artificielle », BFMTV.COM, publié le 27 septembre 2023, https://www.bfmtv.com/tech/intelligence-artificielle/la-start-up-francaise-mistral-ai-devoile-son-premier-modele-d-intelligence-artificielle_AV-202309270828.html

[lvi] I. KABOUYA, « IA : l’Europe en passe de rattraper son retard ? », publié le 22 août 2023, https://www.wavestone.com/fr/insight/ia-leurope-en-passe-de-rattraper-son-retard/

[lvii] J. BODIN, Les Six Livres de la République, 1576

[lviii] I. KABOUYA, « IA : l’Europe en passe de rattraper son retard ? », publié le 22 août 2023, https://www.wavestone.com/fr/insight/ia-leurope-en-passe-de-rattraper-son-retard/

 

Sources

* Textes normatifs :

Américains :

Européens :

  • Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106 (COD), 21 avril 2021
  • Amendements du Parlement européen, adoptés le 14 juin 2023, à la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD).
  • Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).
  • Article 8 de la Convention de sauvegarde des droits de l’homme et des libertés fondamentales. 
  • Article 7 de la Charte des droits fondamentaux de l’Union européenne.
  • Article 14 de la Convention de sauvegarde des droits de l’homme et des libertés fondamentales. 
  • Article 21 de la Charte des droits fondamentaux de l’Union européenne.
  • Article 8 de la Charte des droits fondamentaux de l’Union européenne.

Français :

  • Loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.

Ressources documentaires :

Ouvrages généraux :

  • C. HARBULOT, Manuel de l’Intelligence Économique, PUF, 2019.

Ouvrages collectifs, actes de colloques, dictionnaires et lexiques :

  • C. HARBULOT, « L’intelligence de l’innovation », Cahiers de la guerre économique, 3ème numéro, 2021.
  • G. CORNU, Vocabulaire juridique, PUF, 14ème édition, 2022.
  • Dictionnaire Larousse, édition 2022.
  • Dictionnaire Le Robert, édition 2022.
  • Colloque, « Intelligence artificielle et innovation sociale », Bordeaux, 17-18 et 19 juin 2021.

Ouvrages spéciaux, thèses, monographies :

  • B. MIÈGE, La numérisation en cours de la société – Points de repères et enjeux, PUG, 2020.
  • J.-G. GANASCIA, Intelligence artificielle – Vers une domination programmée ? Le Cavalier Bleu, 2017.
  • D. ANDLER, Intelligence artificielle, intelligence humaine : la double énigme, Gallimard, 2023.

Articles de doctrine :

 

Rapports et études officiels :

Autres sources :