Un an après son adoption officielle, l’IA Act européen entre dans une phase décisive : celle de sa mise en œuvre concrète. Mais alors que les premiers codes de bonnes pratiques doivent entrer en vigueur d’ici l’été 2025, les tensions transatlantiques s’intensifient.
Washington multiplie les pressions diplomatiques pour en limiter la portée, redoutant un encadrement trop strict pour ses géants technologiques.
Ce bras de fer ne porte plus sur le principe même d’une régulation de l’IA, mais sur la forme qu’elle doit prendre : entre normes volontaires contraignantes côté européen, et autorégulation pragmatique côté américain, deux visions s’affrontent désormais frontalement.
L’Europe met en œuvre l’IA Act : les codes de bonnes pratiques sous les projecteurs
Adopté en mars 2024, l’IA Act a fait de l’Europe la première puissance à se doter d’un cadre juridique spécifique pour encadrer l’intelligence artificielle.
Le texte repose sur une approche graduée, proportionnée au risque que présente chaque type de système : surveillance biométrique, IA dans le recrutement, ou dans la justice font partie des cas les plus sensibles.
Mais pour les modèles fondationnels, tels que GPT-4, Claude, Gemini, ou leurs successeurs, l’Europe a opté pour un mécanisme intermédiaire : les codes de bonnes pratiques.
Ces textes, en cours de finalisation depuis début 2025, doivent proposer aux concepteurs de grands modèles :
- de documenter précisément leurs caractéristiques techniques,
- de mesurer leur impact environnemental et sociétal,
- et de garantir la transparence, la gestion des biais et la sécurité des usages.
S’ils ne sont pas obligatoires dans un premier temps, les codes seront adossés à une présomption de conformité, ce qui en fait de facto une quasi-norme dans les relations entre entreprises et régulateurs européens.
Pour Bruxelles, cette approche équilibrée permet d’encadrer les usages sans bloquer l’innovation, et d’instaurer une culture de responsabilité dans le secteur à des interdictions brutales, en créant un environnement de confiance pour les entreprises et les citoyens.
La riposte américaine : crainte d’un précédent réglementaire global
Mais côté américain, la mise en œuvre de ces codes suscite une vive inquiétude.
Depuis février 2025, plusieurs représentants de la nouvelle administration Trump, résolument pro-business et opposée à toute contrainte excessive sur les géants technologiques américains, ont exprimé leur ferme opposition à ce qu’ils considèrent comme une régulation extraterritoriale déguisée.
Leurs arguments :
- Les codes imposeraient une charge réglementaire excessive aux acteurs non européens, notamment américains.
- Ils créeraient un déséquilibre commercial, freinant l’accès des entreprises US au marché européen.
- Ils risqueraient de poser un précédent normatif mondial, compromettant la liberté d’innovation chère à Washington.
Sous Trump, la doctrine américaine s’est durcie, privilégiant une approche plus souverainiste et concurrentielle. L’Europe est vue non plus comme un partenaire régulateur, mais comme un rival stratégique dans la course mondiale à l’IA.
La Maison Blanche aurait ainsi saisi plusieurs canaux diplomatiques — y compris le Trade and Technology Council — pour demander des assouplissements dans la version finale des codes, voire leur requalification en simples recommandations non prescriptives.
Bruxelles, de son côté, campe sur ses positions. Pour la Commission, il ne s’agit pas d’entraver le marché, mais de fixer des garde-fous minimaux dans un secteur encore peu encadré.
La mise en œuvre de l’IA Act, un an après son adoption, montre que la régulation de l’intelligence artificielle est devenue un enjeu stratégique mondial.
Loin de simples divergences techniques, le débat sur les codes de bonnes pratiques révèle une lutte d’influence entre deux visions du numérique : celle d’une IA encadrée dès sa conception, et celle d’une IA libre de croître avant d’être régulée.
Les entreprises européennes — mais aussi les filiales d’acteurs internationaux — doivent désormais anticiper la conformité aux obligations à venir. Documentation, transparence, traçabilité : autant d’exigences qui deviennent des standards implicites pour opérer sur le marché européen.
Cette confrontation réglementaire pourrait bien préfigurer une future gouvernance mondiale de l’IA, à l’image de ce qu’a été le RGPD pour les données personnelles. Reste à savoir si l’Europe saura tenir le cap face aux pressions, et si son modèle saura s’imposer comme une référence… ou s’il sera contourné dans un contexte global de compétition exacerbée.