تجارب المال والأعمال

وادي السيليكون في ضجة حول مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا


يحتج أصحاب الوزن الثقيل في مجال الذكاء الاصطناعي في ولاية كاليفورنيا على مشروع قانون حكومي من شأنه أن يجبر شركات التكنولوجيا على الالتزام بإطار عمل صارم للسلامة، بما في ذلك إنشاء “مفتاح إيقاف” لإيقاف نماذج الذكاء الاصطناعي القوية الخاصة بها، في معركة متنامية حول السيطرة التنظيمية على التكنولوجيا المتطورة. تكنولوجيا.

تدرس الهيئة التشريعية في ولاية كاليفورنيا مقترحات من شأنها فرض قيود جديدة على شركات التكنولوجيا العاملة في الولاية، بما في ذلك أكبر ثلاث شركات ناشئة في مجال الذكاء الاصطناعي OpenAI وAnthropic وCohere، بالإضافة إلى نماذج اللغات الكبيرة التي تديرها شركات التكنولوجيا الكبرى مثل Meta.

ويتطلب مشروع القانون، الذي أقره مجلس شيوخ الولاية الشهر الماضي ومن المقرر أن تصوت عليه جمعيته العامة في أغسطس، من مجموعات الذكاء الاصطناعي في كاليفورنيا أن تضمن لهيئة حكومية تم إنشاؤها حديثًا أنها لن تطور نماذج ذات “قدرة خطرة”، مثل مثل صنع أسلحة بيولوجية أو نووية أو المساعدة في هجمات الأمن السيبراني.

سيُطلب من المطورين الإبلاغ عن اختبارات السلامة الخاصة بهم وإدخال ما يسمى بمفتاح القتل لإيقاف نماذجهم، وفقًا لقانون الابتكار الآمن والآمن لأنظمة الذكاء الاصطناعي الحدودي المقترح.

لكن القانون أصبح محور رد فعل عنيف من الكثيرين في وادي السيليكون بسبب الادعاءات بأنه سيجبر شركات الذكاء الاصطناعي الناشئة على مغادرة الولاية ويمنع منصات مثل ميتا من تشغيل نماذج مفتوحة المصدر.

قال أندرو نج، عالم الكمبيوتر الشهير الذي قاد مشاريع الذكاء الاصطناعي في شركة ألفابت التابعة لشركة جوجل وشركة بايدو الصينية، وهو عضو في مجلس إدارة شركة أمازون: “إذا أراد شخص ما وضع لوائح تنظيمية لخنق الابتكار، فلن يتمكن من القيام بعمل أفضل”. “إنه يخلق مسؤوليات هائلة أمام مخاطر الخيال العلمي، وبالتالي يثير الخوف في أي شخص يجرؤ على الابتكار”.

أثار النمو السريع والإمكانات الهائلة للذكاء الاصطناعي مخاوف بشأن سلامة التكنولوجيا، حيث وصف الملياردير إيلون ماسك، أحد المستثمرين الأوائل في شركة OpenAI التي تصنع ChatGPT، أنها “تهديد وجودي” للبشرية في العام الماضي. هذا الأسبوع، نشرت مجموعة من الموظفين الحاليين والسابقين في شركة OpenAI رسالة مفتوحة تحذر من أن “شركات الذكاء الاصطناعي الحدودية” لا تتمتع بإشراف كافٍ من الحكومات وتشكل “مخاطر جسيمة” على البشرية.

شارك في رعاية مشروع قانون كاليفورنيا مركز سلامة الذكاء الاصطناعي (CAIS)، وهو منظمة غير ربحية مقرها سان فرانسيسكو يديرها عالم الكمبيوتر دان هندريكس، وهو مستشار السلامة لشركة موسك الناشئة للذكاء الاصطناعي، xAI. تتمتع CAIS بعلاقات وثيقة مع حركة الإيثار الفعالة، والتي اشتهرت على يد المدير التنفيذي للعملات المشفرة المسجون سام بانكمان فرايد.

وقال السيناتور الديمقراطي عن الولاية سكوت وينر، الذي قدم التشريع: “في الأساس، أريد أن ينجح الذكاء الاصطناعي وأن يستمر الابتكار، ولكن دعونا نحاول أن نتجنب أي مخاطر تتعلق بالسلامة”.

وأضاف أنها كانت “فاتورة خفيفة اللمس. . . وهذا يتطلب ببساطة من المطورين تدريب نماذج ضخمة لإجراء تقييمات السلامة الأساسية لتحديد المخاطر الكبيرة واتخاذ خطوات معقولة للتخفيف من تلك المخاطر.

لكن النقاد اتهموا وينر بالإفراط في التقييد ووضع عبئ امتثال مكلف على المطورين، وخاصة في شركات الذكاء الاصطناعي الصغيرة. يزعم المعارضون أيضًا أن مشروع القانون يركز على المخاطر الافتراضية التي تضيف مخاطر مسؤولية “شديدة” على المؤسسين.

من بين أشد الانتقادات أن مشروع القانون سيضر بنماذج الذكاء الاصطناعي مفتوحة المصدر – حيث يجعل المطورون كود المصدر متاحًا مجانًا للجمهور، مما يسمح للمطورين بالبناء فوقها – مثل برنامج LLM الرائد لشركة Meta. من شأن مشروع القانون أن يجعل مطوري النماذج المفتوحة مسؤولين عن الجهات الفاعلة السيئة التي تتلاعب بنماذجها لإحداث الضرر.

قال آرون راو، مدير المنتج الرئيسي للذكاء الاصطناعي التوليدي في Meta، في منشور على X الأسبوع الماضي إن مشروع القانون “غير قابل للتنفيذ” وسيؤدي إلى “إنهاء المصدر المفتوح في [California]”.

وأضاف: “إن التأثير الضريبي الصافي من خلال تدمير صناعة الذكاء الاصطناعي وطرد الشركات يمكن أن يصل إلى المليارات، مع مغادرة الشركات والعمال ذوي الأجور المرتفعة”.

قال وينر عن الانتقادات: “هذا هو قطاع التكنولوجيا، فهو لا يحب أن يكون لديه أي تنظيم، لذلك ليس من المستغرب بالنسبة لي على الإطلاق أنه سيكون هناك تراجع”.

وقال إن بعض الردود “لم تكن دقيقة تماما”، مضيفا أنه يعتزم إدخال تعديلات على مشروع القانون من شأنها توضيح نطاقه.

تنص التعديلات المقترحة على أن مطوري البرامج مفتوحة المصدر لن يكونوا مسؤولين عن النماذج “التي تخضع للكثير من الضبط الدقيق”، مما يعني أنه إذا تم تخصيص نموذج مفتوح المصدر بشكل كافٍ من قبل طرف ثالث، فلن تعد مسؤولية المجموعة التي صنع النموذج الأصلي. وقال إنهم يذكرون أيضًا أن شرط “مفتاح الإيقاف” لن ينطبق على النماذج مفتوحة المصدر.

وينص تعديل آخر على أن مشروع القانون سينطبق فقط على النماذج الكبيرة “التي تكلف تدريبها 100 مليون دولار على الأقل”، وبالتالي لن يؤثر على معظم الشركات الناشئة الصغيرة.

قال هندريكس من CAIS: “هناك هذه الضغوط التنافسية التي تؤثر على منظمات الذكاء الاصطناعي هذه والتي تحفزها بشكل أساسي على تقليص الجوانب المتعلقة بالسلامة”، مضيفًا أن مشروع القانون كان “واقعيًا ومعقولًا” حيث يريد معظم الناس “بعض الإشراف الأساسي”.

ومع ذلك، قال أحد كبار أصحاب رأس المال الاستثماري في وادي السيليكون إنهم كانوا يتلقون بالفعل استفسارات من المؤسسين يسألونهم عما إذا كانوا سيحتاجون إلى مغادرة الولاية نتيجة للتشريع المحتمل.

وقال ذلك الشخص: “نصيحتي لكل من يسأل هو أن نبقى ونقاتل”. “لكن هذا سيضع حدًا للمصادر المفتوحة والنظام البيئي للشركات الناشئة. أعتقد أن بعض المؤسسين سيختارون المغادرة”.

اتخذت الحكومات في جميع أنحاء العالم خطوات لتنظيم الذكاء الاصطناعي خلال العام الماضي مع ازدهار شعبية التكنولوجيا.

قدم الرئيس الأمريكي جو بايدن أمرا تنفيذيا في أكتوبر يهدف إلى وضع معايير جديدة لسلامة الذكاء الاصطناعي والأمن القومي، وحماية المواطنين من مخاطر خصوصية الذكاء الاصطناعي، ومكافحة التمييز الخوارزمي. حددت حكومة المملكة المتحدة في إبريل/نيسان خططاً لصياغة تشريع جديد لتنظيم الذكاء الاصطناعي.

يشعر المنتقدون بالحيرة بشأن الوتيرة التي ظهر بها مشروع قانون الذكاء الاصطناعي في كاليفورنيا وتم تمريره عبر مجلس الشيوخ، برعاية CAIS.

تأتي غالبية التمويل لـ CAIS من Open Philanthropy، وهي مؤسسة خيرية مقرها سان فرانسيسكو ولها جذور في حركة الإيثار الفعالة. وقدمت منحًا تبلغ قيمتها حوالي 9 ملايين دولار إلى CAIS بين عامي 2022 و2023، بما يتماشى مع “مجال التركيز على المخاطر المحتملة من الذكاء الاصطناعي المتقدم”. سجل صندوق عمل CAIS، وهو قسم من المنظمة غير الربحية التي تم تأسيسها العام الماضي، أول جماعات ضغط له في واشنطن العاصمة في عام 2023 وأنفق ما يقرب من 30 ألف دولار على ممارسة الضغط هذا العام.

تلقى وينر تمويلًا من صاحب رأس المال الاستثماري الثري رون كونواي، الشريك الإداري لشركة SV Angel والمستثمرين في شركات الذكاء الاصطناعي الناشئة، على مدار عدد من الدورات الانتخابية.

وقال رايد غني، أستاذ الذكاء الاصطناعي في كلية هاينز بجامعة كارنيجي ميلون، إن هناك “بعض رد الفعل المبالغ فيه” تجاه مشروع القانون، مضيفًا أن أي تشريع يجب أن يركز بشكل خاص على حالات استخدام التكنولوجيا بدلاً من تنظيم تطوير النماذج.


اكتشاف المزيد من موقع تجاربنا

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع تجاربنا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading