Table of Contents
كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن نقطة بالغة الأهمية تتعلق بخصوصية المستخدمين أثناء استخدامهم لـChatGPT، مؤكدًا أن المحادثات مع الذكاء الاصطناعي لا تتمتع بأي حماية قانونية خاصة، وقد تُستخدم كأدلة في المحاكم إذا تطلب الأمر.
وفي مقابلة حديثة ضمن بودكاست This Past Weekend مع ثيو فون، أوضح ألتمان أن صناعة الذكاء الاصطناعي لا تزال تفتقر إلى أطر قانونية واضحة تحمي خصوصية البيانات الشخصية التي يشاركها المستخدمون مع برامج الذكاء الاصطناعي.
لا حماية قانونية مثل الطبيب أو المحامي
أشار ألتمان إلى أن العديد من المستخدمين، وخاصة الشباب، يستخدمون ChatGPT كأداة للحصول على نصائح شخصية أو دعم نفسي، ما يجعلهم يكشفون تفاصيل دقيقة عن حياتهم الخاصة، إلا أن هذه المحادثات لا تخضع لمبدأ السرية المهنية المعمول به في العلاقة مع الطبيب أو المحامي، ما يجعلها عرضة للمراجعة في حال صدور أمر قضائي.
وأضاف أن الشركة قد تُجبر قانونيًا على تقديم المحادثات ذات الصلة في حال وجود دعوى قضائية أو طلب قانوني رسمي.
سياسة البيانات تختلف عن تطبيقات أخرى
رغم أن OpenAI تحذف تلقائيًا محادثات الإصدار المجاني خلال 30 يومًا، إلا أن الشركة قد تحتفظ ببعض منها لأسباب أمنية أو قانونية. وهذا يختلف عن تطبيقات مثل WhatsApp التي تعتمد على التشفير من طرف إلى طرف، مما يمنع أي جهة خارجية، بما في ذلك الشركة نفسها، من الوصول إلى محتوى الرسائل.
الذكاء الاصطناعي ليس مستشارًا سريًا
ألمح ألتمان إلى ضرورة توعية المستخدمين بعدم اعتبار الذكاء الاصطناعي جهة آمنة لتبادل المعلومات الشخصية الحساسة، قائلًا إن الوقت لم يحن بعد لاعتبار هذه الأنظمة “مساحات محمية قانونيًا”.