مجلس السلامة الجديد في OpenAI من دون سام ألتمان
أعلنت شركة OpenAI عن تغييرات مهمة في ممارساتها الأمنية، بما في ذلك إنشاء لجنة إشراف مستقلة جديدة لمجلس الإدارة.
وتأتي هذه الخطوة مع تغيير ملحوظ: لن يكون الرئيس التنفيذي سام ألتمان بعد الآن جزءًا من لجنة السلامة، مما يمثل خروجًا عن الهيكل السابق.
وسيترأس لجنة السلامة والأمن (SSC) المشكلة حديثًا زيكو كولتر، مدير قسم التعلم الآلي في جامعة كارنيجي ميلون.
ومن بين الأعضاء الرئيسيين الآخرين آدم دانجيلو، الرئيس التنفيذي لشركة Quora، والجنرال المتقاعد بالجيش الأمريكي بول ناكاسوني، ونيكول سيليجمان، نائب الرئيس التنفيذي السابق والمستشار العام لشركة سوني.
وتحل هذه اللجنة الجديدة محل اللجنة الأمنية السابقة التي تم تشكيلها في يونيو 2024 والتي كان ألتمان عضوا فيها.
تم تكليف اللجنة الأصلية بتقديم توصيات بشأن القرارات الأمنية الحاسمة لمشاريع وعمليات OpenAI.
وتمتد مسؤوليات لجنة السلامة الآن إلى ما هو أبعد من التوصيات. سيكون للجنة سلطة مراقبة تقييمات السلامة لإصدارات النماذج الرئيسية وممارسة الرقابة على إصدارات النماذج.
والأهم من ذلك، أن اللجنة تتمتع بسلطة تأخير الإفراج حتى تتم معالجة المخاوف المتعلقة بالسلامة بشكل مناسب.
تأتي إعادة الهيكلة هذه بعد فترة من مراجعة التزام OpenAI بأمن الذكاء الاصطناعي.
واجهت الشركة انتقادات في الماضي لحل فريقها الفائق وترك الموظفين الرئيسيين الذين يركزون على السلامة.
يبدو أن إقالة ألتمان من لجنة السلامة هي محاولة لمعالجة المخاوف بشأن تضارب المصالح المحتمل في مراقبة السلامة بالشركة.
تتضمن أحدث مبادرة أمنية لـ OpenAI أيضًا خططًا لتحسين الإجراءات الأمنية، وزيادة شفافية عملها، والتعاون مع المنظمات الخارجية.
لقد توصلت الشركة بالفعل إلى اتفاقيات مع معاهد أمان الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة للتعاون في البحث حول المخاطر والمعايير الأمنية الجديدة للذكاء الاصطناعي من أجل الذكاء الاصطناعي الجدير بالثقة.