فتحت لجنة التجارة الفيدرالية "FTC" تحقيقًا موسعًا في OpenAI، للتأكّد مما إذا كان مؤسّس روبوت ChatGPT الشهير قد ينتهك قوانين حماية المستهلك من خلال تعريض السمعة الشخصية والبيانات للخطر.
ووفقاً للصحيفة "واشنطن بوست"، طلب المسؤولون وثائق توضح كيفية تعامل الشركة مع المخاطر الناشئة عن نماذج الذكاء الاصطناعي اللغوية الكبيرة، حيث تتخوّف لجنة التجارة الفيدرالية (FTC) من أن الشركة قد تنتهك قوانين حماية المستهلك من خلال ممارسات "غير عادلة أو خادعة" قد تضرُّ بخصوصية الجمهور أو أمنه أو سمعته.
واستندت اللجنة في اتهامها، بشكل خاص، إلى المعلومات المرتبطة في الخلل الذي تسبّب في تسريب بيانات حساسة لمستخدمي ChatGPT التي كان من ضمنها البيانات البنكية للمستخدم، الأمر قالت عنه شركة OpenAI إن عدد المستخدمين المتأثرين كان صغيرًا جدًا، فإن لجنة التجارة الفيدرالية قلقة من أن هذا ينبع من الممارسات الأمنية السيئة للشركة.
وترغب الوكالة في الحصول على تفاصيل عن أي شكاوى تزعم أن منظمة العفو الدولية قدمت بيانات كاذبة أو خبيثة عن الأفراد، ومعلومات توضح مدى فهم المستخدمين لدقة المنتجات التي يستخدمونها.
وكان رئيس شركةOpenAI "سام ألتمان" قد أدلى بشهادته أمام مجلس الشيوخ، حيث دافع عن شركته من خلال تحديد تدابير الخصوصية والسلامة أثناء الترويج لفوائد الذكاء الاصطناعي المزعومة، وقال إن إجراءات الحماية مطبقة، لكن شركةOpenAI ستكون "حذرة بشكل متزايد" وستواصل تحديث إجراءاتها الوقائية.
يُشار إلى أن لجنة التجارة الفيدرالية حذّرت سابقًا من أن الذكاء الاصطناعي التوليدي قد يتعارض مع القانون من خلال إلحاق ضررٍ أكبر بالمستهلكين أكثر من نفعه، حيث يمكن استخدامه لارتكاب عمليات احتيال أو تشغيل حملات تسويقية مضللة أو تؤدي إلى إعلانات تمييزية، على سبيل المثال.
وفي حال وجدت الهيئة الحكومية أن شركة ما في حالة انتهاك، فيمكنها فرض غرامات أو إصدار قرارات موافقة تفرض ممارسات معينة.