Mercredi 9 juillet 2025, un tribunal turc a décidé de restreindre l’accès à une partie du contenu du chatbot Grok, développé par xAI du milliardaire américain Elon Musk, après que des insultes au président Recep Tayyip Erdogan et au fondateur de la République Mustafa Kemal Ataturk, ainsi qu’à des valeurs religieuses, ont été signalées dans des réponses générées par la plateforme en turc.
Enquête officielle et accusations d’atteinte aux valeurs de l’État
Selon les autorités chargées de l’application de la loi, certaines des réponses de Grok comprenaient des phrases qui sont légalement considérées comme des insultes, passibles d’une peine pouvant aller jusqu’à quatre ans d’emprisonnement en vertu de la loi turque. Le parquet d’Ankara a ouvert une enquête officielle sur l’incident afin de déterminer la responsabilité du développeur dans le contenu publié par le robot d’intelligence artificielle.
C’est la première fois en Turquie qu’une décision judiciaire a été prise pour bloquer un contenu créé à l’aide d’outils d’IA, ce qui reflète une nouvelle évolution dans la censure légale des contenus numériques alimentés par des technologies intelligentes.
Experts : Une cinquantaine de publications font l’objet d’une enquête
Yaman Akdeniz, expert en droit de l’informatique et professeur à l’université Bilgi d’Istanbul, a déclaré que les autorités turques avaient identifié près de 50 messages de Grok comme éléments de preuve dans l’enquête en cours. Le tribunal a ordonné de « restreindre l’accès et de supprimer le contenu offensant », sous prétexte de protéger l’ordre public et le respect des symboles et des croyances de l’État.
La réponse de Musk et les prochaines mises à jour du modèle.
Elon Musk a déjà souligné les problèmes liés à la formation des modèles linguistiques, en déclarant
« Tout modèle de référence formé sur des données non corrigées contient beaucoup de déchets ».
Il a souligné que son entreprise travaillait à la mise à jour de Grok et à l’amélioration de la qualité des données sur lesquelles il est formé afin d’éviter des problèmes similaires.
Un contexte plus large : Intelligence artificielle et responsabilité en matière de contenu
La controverse sur Grok soulève des questions sur la responsabilité juridique des développeurs d’IA s’ils publient des contenus qui violent les lois locales ou offensent les symboles nationaux et religieux. Cette situation survient alors que l’utilisation des chatbots se répand dans le monde entier et que le débat sur la capacité des systèmes juridiques à suivre cette évolution rapide s’intensifie.