Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

لا تزال الانقسامات الداخلية قائمة في OpenAI بعد محاولة الانقلاب في نوفمبر


وتكافح شركة OpenAI لاحتواء الخلافات الداخلية حول قيادتها وسلامتها مع عودة الانقسامات التي أدت إلى محاولة الانقلاب العام الماضي ضد الرئيس التنفيذي سام ألتمان إلى المجال العام.

بعد ستة أشهر من إقالة ألتمان، تشير سلسلة من الاستقالات رفيعة المستوى إلى استمرار الخلافات داخل شركة OpenAI بين أولئك الذين يريدون تطوير الذكاء الاصطناعي بسرعة وأولئك الذين يفضلون نهجًا أكثر حذرًا، وفقًا للموظفين الحاليين والسابقين.

تحدثت هيلين تونر، أحد أعضاء مجلس إدارة OpenAI السابقين الذين حاولوا إقالة ألتمان في تشرين الثاني (نوفمبر)، علنًا للمرة الأولى هذا الأسبوع، قائلة إنه ضلل مجلس الإدارة “في مناسبات متعددة” بشأن عمليات السلامة الخاصة به.

“لسنوات عديدة، جعل سام من الصعب جدًا على مجلس الإدارة القيام بذلك بالفعل [its] قالت في برنامج TED AI Show podcast: “الوظيفة هي حجب المعلومات، وتحريف الأشياء التي كانت تحدث في الشركة، وفي بعض الحالات الكذب الصريح على مجلس الإدارة”.

كان أبرز المغادرين في الأسابيع القليلة الماضية هو إيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI. ووصفه أحد الأشخاص المطلعين على استقالته بأنه كان عالقاً في “وعود ألتمان المتضاربة” قبل انقلاب القيادة في العام الماضي.

في تشرين الثاني (نوفمبر)، قام مديرو شركة OpenAI – الذين كان من بينهم في ذلك الوقت تونر وسوتسكفير – بطرد ألتمان من منصب الرئيس التنفيذي في خطوة مفاجئة صدمت المستثمرين والموظفين. عاد بعد أيام تحت قيادة مجلس إدارة جديد، باستثناء تونر وسوتسكفير.

وقال تونر لصحيفة فايننشال تايمز: “نحن نأخذ دورنا على محمل الجد بوصفنا مجلس إدارة لمؤسسة غير ربحية”. وأضافت أن قرار إقالة ألتمان “استغرق قدرا هائلا من الوقت والتفكير”.

قال سوتسكيفر وقت مغادرته إنه “واثق” من أن شركة OpenAI ستبني ذكاءً اصطناعيًا عامًا – ذكاءً اصطناعيًا ذكيًا مثل البشر – “وهذا آمن ومفيد” في ظل قيادتها الحالية، بما في ذلك ألتمان.

ومع ذلك، لا يبدو أن قضية نوفمبر قد حلت التوترات الكامنة داخل OpenAI والتي ساهمت في طرد ألتمان.

أعلن جان لايكي، الذي قاد جهود OpenAI لتوجيه أدوات الذكاء الاصطناعي فائقة القوة والتحكم فيها وعمل بشكل وثيق مع Sutskever، عن استقالته هذا الشهر. وقال إن خلافاته مع قيادة الشركة “وصلت إلى نقطة الانهيار” حيث “تراجعت ثقافة السلامة والعمليات إلى المنتجات اللامعة”. لقد انضم الآن إلى منافس OpenAI Anthropic.

يأتي الاضطراب في OpenAI – الذي عاد إلى السطح على الرغم من مطالبة الغالبية العظمى من الموظفين بإعادة ألتمان إلى منصبه كرئيس تنفيذي في نوفمبر – في الوقت الذي تستعد فيه الشركة لإطلاق جيل جديد من برامج الذكاء الاصطناعي الخاصة بها. وقالت مصادر مطلعة على المحادثات إنها تناقش أيضًا جمع رأس المال لتمويل توسعاتها.

أدى توجيه Altman لـ OpenAI نحو شحن المنتجات بدلاً من نشر الأبحاث إلى ظهور برنامج الدردشة الآلي ChatGPT، وإطلاق موجة من الاستثمار في الذكاء الاصطناعي عبر وادي السيليكون. وبعد الحصول على دعم يزيد عن 13 مليار دولار من مايكروسوفت، فإن إيرادات OpenAI تسير على الطريق الصحيح لتتجاوز 2 مليار دولار هذا العام.

ومع ذلك، فإن هذا التركيز على التسويق التجاري دخل في صراع مع أولئك داخل الشركة الذين يفضلون إعطاء الأولوية للسلامة، خوفا من أن تندفع شركة OpenAI إلى إنشاء “ذكاء فائق” لا يمكنها السيطرة عليه بشكل صحيح.

وقد أدرجت جريتشن كروجر، الباحثة في سياسات الذكاء الاصطناعي والتي استقالت أيضًا من الشركة هذا الشهر، العديد من المخاوف بشأن كيفية تعامل OpenAI مع التكنولوجيا التي يمكن أن يكون لها تداعيات بعيدة المدى على الشركات والجمهور.

“نحن [at OpenAI] قالت في منشور على موقع X: “نحن بحاجة إلى بذل المزيد من الجهد لتحسين الأشياء الأساسية، مثل عمليات صنع القرار؛ مسئولية؛ الشفافية؛ توثيق؛ إنفاذ السياسات؛ العناية التي نستخدم بها التكنولوجيا الخاصة بنا؛ والتخفيف من التأثيرات على عدم المساواة والحقوق والبيئة.

قال ألتمان، ردًا على رحيل لايكي، إن موظفه السابق كان “على حق، لدينا الكثير لنفعله؛ لدينا الكثير لنفعله”. نحن ملتزمون بالقيام بذلك”. أعلنت شركة OpenAI هذا الأسبوع عن لجنة جديدة للسلامة والأمن للإشراف على أنظمة الذكاء الاصطناعي الخاصة بها. وسيجلس ألتمان في اللجنة إلى جانب أعضاء مجلس الإدارة الآخرين.

“[Even] وكتب تونر جنبًا إلى جنب مع تاشا ماكولي، الذي كان أيضًا عضوًا في مجلس إدارة OpenAI حتى نوفمبر 2023، في رأي: “مع حسن النوايا، دون إشراف خارجي، سينتهي الأمر بهذا النوع من التنظيم الذاتي غير قابل للتنفيذ، خاصة تحت ضغط حوافز الربح الهائلة”. مقال لمجلة The Economist، نُشر قبل أيام من إعلان OpenAI عن لجنتها الجديدة.

ردًا على تعليقات تونر، قال بريت تايلور، رئيس OpenAI، إن مجلس الإدارة عمل مع شركة محاماة خارجية لمراجعة أحداث نوفمبر الماضي، وخلص إلى أن “قرار مجلس الإدارة السابق لم يكن مبنيًا على مخاوف تتعلق بسلامة المنتج أو أمنه، ووتيرة التطوير، الشؤون المالية لشركة OpenAI، أو بياناتها للمستثمرين أو العملاء أو شركاء الأعمال”.

وقال: “يظل تركيزنا منصبًا على المضي قدمًا ومتابعة مهمة OpenAI لضمان فائدة الذكاء الاصطناعي العام للبشرية جمعاء”.

قال أحد الأشخاص المطلعين على الشركة إنه منذ الاضطرابات التي حدثت في نوفمبر، مارست Microsoft، أكبر داعم لـ OpenAI، مزيدًا من الضغط عليها لإعطاء الأولوية للمنتجات التجارية. وقد أدى ذلك إلى تفاقم التوترات مع أولئك الذين يفضلون التركيز على البحث العلمي.

وقال هذا الشخص إن الكثيرين داخل الشركة ما زالوا يرغبون في التركيز على هدفها طويل المدى المتمثل في الذكاء الاصطناعي العام (AGI)، لكن الانقسامات الداخلية والاستراتيجية غير الواضحة من قيادة OpenAI أدت إلى تثبيط عزيمة الموظفين.

وقال OpenAI: “نحن فخورون ببناء وإصدار النماذج التي تقود الصناعة من حيث القدرات والسلامة”. “نحن نعمل بجد للحفاظ على هذا التوازن ونعتقد أنه من المهم إجراء نقاش قوي مع تقدم التكنولوجيا.”

على الرغم من التدقيق الذي دعت إليه الاضطرابات الداخلية الأخيرة، تواصل OpenAI بناء أنظمة أكثر تقدمًا. وأعلنت هذا الأسبوع أنها بدأت مؤخرًا تدريب خليفة GPT-4، وهو نموذج الذكاء الاصطناعي الكبير الذي يشغل ChatGPT.

قالت آنا ماكانجو، نائبة رئيس OpenAI للشؤون العالمية، إن صناع السياسات تواصلوا مع فريقها بشأن عمليات التخارج الأخيرة لمعرفة ما إذا كانت الشركة “جادة” بشأن السلامة.

وقالت إن السلامة هي “شيء يقع على عاتق العديد من الفرق عبر OpenAI”.

“من المحتمل جدًا ذلك [AI] وقالت: “ستكون أكثر تحولاً في المستقبل”. “بالتأكيد، سيكون هناك الكثير من الخلافات حول النهج الصحيح لإعداد المجتمع [and] وكيفية تنظيمها.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى