روبوتات الدردشة “تسمع وتتذكر”.. دراسة لجامعة ستانفورد تحذر من تحول المحادثات الشخصية إلى بيانات تدريب مشاعة

أطلقت دراسة حديثة صادرة عن جامعة “ستانفورد” الأمريكية، صافرة إنذار بشأن الخصوصية الرقمية، كاشفة عن “فخ” قانوني وتقني يقع فيه مستخدمو تطبيقات الذكاء الاصطناعي، وعلى رأسها ChatGPT.
وأكدت الدراسة أن نحو 33% من المستخدمين يفرطون في مشاركة تفاصيل شخصية وبيانات حساسة مع الروبوتات، معتقدين خطأً أنها مساحة آمنة، بينما تتحول هذه المحادثات في الواقع إلى “مادة خام” لتدريب الأجيال القادمة من هذه النماذج.
وكشفت نتائج الدراسة أن ست شركات تقنية كبرى في الولايات المتحدة تعيد تدوير بيانات المستخدمين واستخدامها في تطوير خوارزمياتها المستقبلية.
هذا النهج يثير مخاوف جدية من إمكانية تسريب بيانات خاصة في ردود عامة يقدمها الذكاء الاصطناعي لمستخدمين آخرين بحسب رؤية الاخبارية، خاصة مع تزايد الاعتماد على هذه التطبيقات كبديل لـ “الدعم النفسي”، مما يدفع الأفراد لمشاركة أدق تفاصيل حياتهم الشخصية والمهنية دون إدراك لتبعات “الشروط القياسية” التي يوافقون عليها.
وتشير الدراسة إلى أن خطر “الهجرة البياناتية” يتضاعف مع الميزات الجديدة التي تتيح تحميل المستندات والملفات داخل هذه التطبيقات؛ حيث يتم تحليل محتواها ودمجه في قواعد البيانات التدريبية.
ورغم وجود خيارات تقنية لتعطيل استخدام البيانات، إلا أن الخبراء يصفون عملية الحذف الفعلي للبيانات بأنها “شديدة التعقيد”، مما يفتح ثغرة أمنية تستغلها شركات “وساطة البيانات” لإعادة بيع المعلومات أو استخدامها في عمليات احتيال متطورة وانتحال للهوية.
وفي ظل هذا الواقع الرقمي المعقد، يرى المحللون أن المستخدمين باتوا مطالبين بممارسة “الحذر الرقمي”، والتعامل مع الذكاء الاصطناعي كمنصة عامة وليس كصندوق أسرار.
وتضع هذه النتائج المشرعين أمام مسؤولية جديدة لفرض قوانين تضمن حماية خصوصية “المحادثات العميقة”، ومنع تحول التجارب الإنسانية الخاصة إلى مجرد “أرقام” في خوارزميات الشركات العابرة للقارات.



