هل تحد شركات الذكاء الاصطناعي من المواد الإباحية المزيفة

منذ 2 شهور
هل تحد شركات الذكاء الاصطناعي من المواد الإباحية المزيفة

أصدر البيت الأبيض اليوم بيانًا يوضح التزامات العديد من شركات الذكاء الاصطناعي للحد من إنشاء وانتشار الاعتداءات الجنسية القائمة على الصور. حددت الشركات المشاركة الخطوات التي تتخذها لمنع استخدام منصاتها لإنشاء صور حميمة غير توافقية (NCII) للبالغين ومواد الاعتداء الجنسي على الأطفال (CSAM).

على وجه التحديد، قالت Adobe وAnthropic وCohere وCommon Crawl وMicrosoft وOpenAI إنها ستقوم بما يلي:

“تعامل مع مجموعات البيانات الخاصة بك بمسؤولية واحميها من الاعتداءات الجنسية القائمة على الصور.”

جميع ما سبق، باستثناء الزحف المشترك، قد اتفقوا أيضًا على ما يلي:

“قم بدمج حلقات ردود الفعل واستراتيجيات اختبار الإجهاد التكراري في عمليات التطوير الخاصة بك للحماية من نماذج الذكاء الاصطناعي التي تسبب اعتداءات جنسية قائمة على الصور.”

و”إزالة الصور العارية من مجموعات بيانات تدريب الذكاء الاصطناعي” إذا لزم الأمر.

وهذا التزام طوعي، لذا فإن إعلان اليوم لا يخلق أي خطوات جديدة قابلة للتنفيذ أو عواقب لعدم الوفاء بهذه الوعود. ومع ذلك، يجدر الإشادة بالجهود الطيبة لحل هذه المشكلة الخطيرة. ومن بين الغائبين الملحوظين عن بيان البيت الأبيض اليوم شركات Apple وAmazon وGoogle وMeta. اتخذت العديد من شركات التكنولوجيا والذكاء الاصطناعي خطوات لتسهيل الأمر على ضحايا NCII لوقف انتشار الصور ومقاطع الفيديو المزيفة، بشكل منفصل عن هذه المبادرة الفيدرالية. أبرمت StopNCII شراكات مع العديد من الشركات لاتخاذ نهج شامل لتصفية هذا المحتوى، بينما تطلق شركات أخرى أدوات مخصصة للإبلاغ عن الاعتداءات الجنسية قائمة على الصور ومنشأة بواسطة الذكاء الاصطناعي على منصاتها.


شارك