Table of Contents
Sam Altman, PDG d’OpenAI, a révélé un point très important concernant la vie privée des utilisateurs lors de l’utilisation de ChatGPT, en soulignant que les conversations avec l’IA ne bénéficient d’aucune protection juridique particulièreet peuvent être utilisées comme preuve devant les tribunaux si nécessaire.
Lors d’un récent entretien avec Theo Vaughnsur le podcast This Past Weekend, M. Altman a expliqué que le secteur de l’IA ne disposait toujours pas de cadres juridiques clairs pour protéger la confidentialité des données personnelles que les utilisateurs partagent avec les programmes d’IA.
Pas de protection juridique comme un médecin ou un avocat
M. Altman a noté que de nombreux utilisateurs, en particulier des jeunes,utilisent ChatGPT comme outil de conseil personnel ou de soutien psychologique, révélant des détails intimes sur leur vie privée, mais ces conversations ne sont pas soumises au secret professionnel d ‘un médecin ou d’un avocat, ce qui les rend susceptibles d’être examinées en cas d’ordonnance du tribunal.
Il a ajouté que l’entreprise pourrait être légalement contrainte de fournir les conversations pertinentes en cas de procès ou de demande légale formelle.
La politique des données diffère de celle des autres applications
Bien qu’OpenAI supprime automatiquement les conversations de la version gratuite dans les 30 jours, l’entreprise peut en conserver certaines pour des raisons de sécurité ou juridiques. Cette pratique diffère de celle d’applications telles que WhatsApp, qui reposent sur un chiffrement de bout en bout, empêchant tout tiers, y compris l’entreprise elle-même, d’accéder au contenu des messages.
L’intelligence artificielle n’est pas un conseiller secret
M. Altman a fait allusion à la nécessité d’éduquer les utilisateurs pour qu’ils ne considèrent pas l’IA comme un endroit sûr pour partager des informations personnelles sensibles, affirmant qu’il n’est pas encore temps de considérer ces systèmes comme des « espaces juridiquement protégés ».