في الآونة الأخيرة، استمرت OpenAI في مواجهة موجة من الاستقالات التنفيذية، والتي جذبت اهتمامًا واسع النطاق في الصناعة. بعد رحيل رئيس فريق Super Alignment، أعلن مستشار السياسة الأمنية وقائد فريق الاستعداد AGI Mil Brundage أيضًا عن رحيله من OpenAI وكشف أنه سيتم حل الفريق الذي يقوده. لا تؤثر هذه السلسلة من التغييرات في الموظفين على البنية الداخلية لـ OpenAI فحسب، بل تثير أيضًا العديد من الأسئلة حول اتجاه التطوير المستقبلي والآليات الثقافية الداخلية. سيقدم محرر Downcodes شرحًا متعمقًا لهذا الأمر ويحلل تأثيره المحتمل.
في الآونة الأخيرة، أعلنت شركة OpenAI عن استقالة أخرى، حيث أعلن مايلز بروندج، مستشار السياسة الأمنية وقائد فريق إعداد AGI، أنه سيترك الشركة وكشف أن الفريق الذي يقوده سيتم حله أيضًا وسيتم إعادة تعيين الأعضاء إلى أقسام أخرى.

وأوضح بروندج قراره بالتفصيل في منشور على منصة التواصل الاجتماعي X. وقال إن السبب الرئيسي لترك OpenAI هو الحصول على مزيد من الاستقلالية وحرية نشر الأبحاث.
ومن الجدير بالذكر أن بروندج ليس الباحث الأمني الوحيد الذي ترك الشركة على مستوى عالٍ. في وقت مبكر من شهر مايو من هذا العام، قامت شركة OpenAI بحل فريق Super Alignment الخاص بها، والذي كان مسؤولاً بشكل أساسي عن تقييم مخاطر الذكاء الاصطناعي الفائق. ومنذ ذلك الحين، غادر أيضًا قائدا الفريق، جان لايكي وإيليا سوتسفير.
بالإضافة إلى ذلك، فقد غادر مؤخرًا كل من ميرا موراتي، كبير مسؤولي التكنولوجيا في الشركة، وكبير مسؤولي الأبحاث بوب ماكجرو، ونائب رئيس الأبحاث باريت زوف وغيرهم من كبار المسؤولين التنفيذيين.
على مدى السنوات الست الماضية، كان بروندج يقدم المشورة للإدارة ومجلس الإدارة في OpenAI لمساعدة الشركة على الاستعداد للتقدم السريع في الذكاء الاصطناعي. ولا يمكن الاستهانة بمساهماته في البحوث الأمنية، بما في ذلك إدخال آلية الفريق الأحمر الخارجية، والتي تسمح للخبراء الخارجيين بالمشاركة في اكتشاف المشاكل المحتملة في منتجات OpenAI.
ذكر بروندج أنه وOpenAI اختلفا حول القيود المفروضة على إصدار البحث، وشعرا أن قبول هذه القيود أصبح من الصعب بشكل متزايد. وهو يعتقد أن عمله في OpenAI قد أثر على موضوعيته البحثية، مما يجعل من الصعب عليه أن يظل محايدًا بشأن مستقبل سياسة الذكاء الاصطناعي. وذكر أيضًا على وسائل التواصل الاجتماعي أن هناك وجهة نظر مشتركة داخل OpenAI مفادها أن "ثمن التحدث علنًا باهظ، ولا يستطيع القيام بذلك سوى بعض الأشخاص".
إن رحيل هذه السلسلة من كبار المسؤولين التنفيذيين لم يجذب المزيد من الاهتمام إلى اتجاه OpenAI المستقبلي فحسب، بل أثار أيضًا المزيد من الأسئلة حول ثقافتها الداخلية وآلية صنع القرار.
تسليط الضوء على:
أعلن بروندج رحيله عن OpenAI، كما سيتم حل فريق إعداد AGI.
فهو يريد المزيد من الحرية لنشر الأبحاث، مما يعكس الخلافات مع الشركات حول القيود البحثية.
في الآونة الأخيرة، استقال العديد من كبار المسؤولين التنفيذيين، واهتم العالم الخارجي بالتطور المستقبلي لـ OpenAI وثقافتها الداخلية.
أثارت مغادرة OpenAI المستمرة لكبار المسؤولين التنفيذيين مخاوف عميقة بشأن مستقبل الشركة، وثقافتها الداخلية، واتجاه أبحاث سلامة الذكاء الاصطناعي. هل يبشر هذا ببداية جولة جديدة من التعديل في صناعة الذكاء الاصطناعي؟ التطورات اللاحقة تستحق الاهتمام المستمر.