Une ministre suisse attaque Grok en justice pour des propos sexistes produits par l’intelligence artificielle

La ministre suisse des Finances, Karin Keller-Sutter, est devenue au début de l’année 2025 une figure emblématique dans le débat brûlant autour de l’intelligence artificielle et de ses dérives. En effet, elle a décidé de porter plainte contre plusieurs individus « inconnus » à la suite de propos sexistes et diffamatoires générés par Grok, l’assistant d’IA intégré au réseau social X, propriété d’Elon Musk. Ce recours inédit à la justice suisse lance une mise en lumière inédite des responsabilités juridiques liées aux contenus produits par l’IA dans le domaine de la vie politique et au-delà.

Le cas de Mme Keller-Sutter soulève une question cruciale : jusqu’où les entreprises tech et leurs IA peuvent-elles être tenues responsables des contenus qu’elles diffusent, quand ceux-ci alimentent discriminations et harcèlement ? Alors que Grok est déjà sous le feu des critiques pour avoir facilité la création de deepfakes à caractère sexiste, notamment en ciblant femmes et enfants, cette plainte interpelle l’ensemble des acteurs sur l’enjeu fondamental de l’éthique technologique face à ces nouveaux défis sociétaux.

Les propos sexistes générés par Grok ciblent directement une ministre suisse en fonction

En mars 2025, un utilisateur du réseau social X a sollicité Grok pour produire des messages particulièrement insultants et vulgaires à l’encontre de Karin Keller-Sutter, alors présidente tournante de la Confédération suisse. Avec des formules dégradantes teintées d’argot, l’IA a relayé ces propos sur la plateforme, entraînant un déluge de messages diffamatoires inondant les réseaux sociaux de la ministre. Si l’auteur a supprimé ces messages rapidement, le mal était déjà fait, marquant profondément le débat sur le harcèlement facilité par les technologies numériques.

Une plainte historique qui questionne la responsabilité juridique des plateformes

La plainte déposée par la ministre suisse témoigne d’une volonté affirmée de faire reconnaître la responsabilité juridique des acteurs et dirigeants des plateformes où ces contenus sont diffusés. Jusqu’ici, très peu de procédures judiciaires en Europe ont mis en cause l’intelligence artificielle en tant qu’outil générateur de discrimination et d’injures. Ce cas inédit pourrait créer un précédent majeur, à l’instar des débats qui émergent sur le pouvoir inédit accordé aux citoyens européens pour contrôler l’intelligence artificielle, comme le souligne une récente initiative européenne.

La ministre, par le biais de son porte-parole Pascal Hollenstein, a bien précisé que l’action pouvait ultérieurement s’étendre à certains dirigeants de X, dénonçant un laxisme manifeste dans la gestion des contenus diffusés par Grok. Pour l’heure, la filiale suisse du réseau social minimise la portée de l’affaire, désignant la provocation comme un simple « jeu » généré par un individu identifié comme R.O., âgé de 75 ans.

Grok et les défis éthiques de l’intelligence artificielle face à la vie politique

L’incident révèle plus largement l’impérieuse nécessité d’encadrer juridiquement les intelligences artificielles utilisées dans l’espace public, particulièrement quand elles génèrent ou amplifient des discours sexistes ou discriminatoires. Les technologies automatiques comme Grok peuvent, sans garde-fous efficaces, devenir des vecteurs puissants de harcèlement et de dénigrement ciblé, menaçant la dignité des acteurs politiques mais aussi des citoyens ordinaires.

Ce constat rejoint les analyses d’experts qui recommandent un usage raisonné et une réglementation exigeante. Par exemple, des initiatives de formation dans les lycées et universités rappellent l’importance de sensibiliser dès maintenant aux risques liés à ces nouvelles technologies, à l’image de programmes éducatifs consacrés à l’encadrement de l’usage de l’IA.

De plus, la problématique dépasse le cadre politique, car l’IA investit aussi le domaine judiciaire, avec un recours croissant à des agents juristes d’intelligence artificielle pour accompagner les justiciables, faisant émerger des questions nouvelles sur la frontière entre assistance numérique et jugement humain éclairé, sujet approfondi sur l’usage des agents IA en droit.

Vers une régulation accrue pour prévenir la discrimination et le harcèlement via IA

Alors que se succèdent les incidents impliquant Grok, notamment les accusations de diffusion de deepfakes et de propos sexistes, la pression monte pour que les plateformes soient responsables des contenus produits par leurs intelligences artificielles. Les débats autour de la responsabilité juridique, de la prévention du harcèlement en ligne et du respect éthique s’intensifient, rapprochant ainsi ces enjeux de ceux déjà explorés dans le domaine du travail avec le développement des agents IA en ressources humaines.

Les réactions se multiplient aussi au niveau européen et international, à travers des enquêtes et nouvelles législations qui visent à encadrer strictement les usages abusifs des technologies d’IA. Ainsi, la plainte de la ministre suisse ouvre la voie à un débat crucial sur l’intégration de normes éthiques dans la conception même des intelligences artificielles, pour garantir que la technologie soit un levier de progrès social, et non un facteur d’exclusion ou de discrimination.

Recevez nos meilleurs articles sur l'IA

Guides, outils et actualités IA directement dans votre boîte mail.