Sam Altman, le PDG d’OpenAI, la société qui a créé ChatGPT, a exprimé ses inquiétudes concernant la loi sur l’IA prévue par l’Union européenne et a averti que son entreprise pourrait cesser ses activités dans l’UE si la conformité devenait impossible. Cela signale une fracture transatlantique croissante dans les approches de régulation de l’intelligence artificielle. La déclaration d’Altman intervient au milieu de l’anticipation d’un affrontement prolongé entre les entreprises technologiques américaines et les régulateurs européens sur le contrôle de la technologie de l’IA. Sundar Pichai, PDG de Google, s’est également engagé auprès des décideurs politiques des capitales européennes pour influencer le développement de « garde-fous » réglementaires pour l’IA.
L’élargissement de la réglementation de l’UE invite l’industrie à réévaluer
La réponse du Parlement européen :
La loi initiale sur l’IA de l’UE a été conçue pour traiter les applications d’IA à haut risque dans les secteurs réglementés. Cependant, le lancement de ChatGPT par OpenAI a provoqué une réévaluation, conduisant le Parlement européen à proposer des réglementations supplémentaires englobant des systèmes d’IA largement utilisés avec des applications générales. Ces règles font encore l’objet de négociations avec les États membres et la Commission européenne avant de devenir loi d’ici 2025.
Exigences d’identification et de réduction des risques :
Selon la dernière proposition, les développeurs de « modèles de base » derrière des services tels que ChatGPT seraient tenus d’identifier et d’atténuer les risques associés à leur technologie dans divers contextes. Cela rendrait des entreprises comme OpenAI et Google en partie responsables de l’utilisation de leurs systèmes d’IA, même si elles manquent de contrôle sur des applications spécifiques.
Publication de données protégées :
La nouvelle réglementation obligerait les entreprises technologiques à publier des résumés des données protégées par le droit d’auteur utilisées pour former leurs modèles d’IA. Cette disposition ouvre la possibilité aux artistes et aux créateurs de contenu de demander une compensation pour l’utilisation de leur matériel.
Les entreprises technologiques américaines appellent à la prudence et à la collaboration
L’industrie appelle à la prudence :
Les entreprises technologiques américaines ont exhorté les régulateurs européens à aborder la réglementation de l’IA avec prudence, soulignant la nécessité d’une étude approfondie et d’une évaluation équilibrée des opportunités et des risques. Ils soutiennent que se précipiter pour réglementer la dernière technologie d’IA pourrait étouffer l’innovation.
Le PDG de Google s’entretient avec des responsables européens :
Sundar Pichai a rencontré des responsables européens, dont les députés européens Brando Benifei et Dragoş Tudorache, pour discuter de la politique en matière d’IA et plaider en faveur d’une réglementation appropriée qui favorise l’innovation sans entraver le progrès. Pichai a également évoqué la possibilité d’un « pacte sur l’IA » pour établir des lignes directrices à suivre par les entreprises d’IA avant que les réglementations formelles n’entrent en vigueur.
Préoccupations des critiques et impact potentiel :
Les détracteurs de la loi européenne sur l’IA affirment qu’elle impose de larges responsabilités sans préciser les normes que les entreprises doivent respecter. Ce manque de clarté pourrait amener certaines entreprises technologiques américaines à reconsidérer leur implication en Europe. Peter Schwartz de Salesforce suggère que les régulateurs européens pourraient agir sans fonder leurs décisions sur la réalité, ce qui pourrait entraver la croissance de l’industrie.
Équilibrer réglementation et flexibilité
Recherche de solutions réalisables :
Les experts suggèrent que les propositions européennes pourraient être couronnées de succès si elles intègrent des exigences continues pour que les entreprises se tiennent au courant de la recherche sur la sécurité de l’IA et identifient et atténuent continuellement les risques. Plus de clarté et de détails pourraient être fournis par la Commission européenne et les organismes de normalisation à l’avenir.
Implications potentielles pour les modèles open source :
Bien que les réglementations semblent cibler de grands systèmes tels que ChatGPT et le chatbot Bard de Google, on craint qu’elles n’aient également un impact sur les modèles open source et l’utilisation à but non lucratif de la technologie de l’IA.
En résumé
Alors que la loi sur l’IA de l’UE est peaufinée et négociée avec les États membres, les tensions entre les entreprises technologiques américaines et les régulateurs européens continuent d’augmenter. Le plaidoyer de l’industrie pour une réglementation prudente et collaborative persiste, soulignant l’importance de trouver un équilibre entre le contrôle des risques et la promotion de l’innovation dans le paysage de l’IA en évolution rapide.
