تجارب المال والأعمال

تقول شركة OpenAI إن النماذج الجديدة زادت من خطر إساءة استخدامها لصنع أسلحة بيولوجية


افتح ملخص المحرر مجانًا

تواجه أحدث نماذج الذكاء الاصطناعي من OpenAI خطرًا متزايدًا من إساءة استخدامها لصنع أسلحة بيولوجية، حيث يدق الباحثون في مجال السلامة ناقوس الخطر بشأن المخاطر المحتملة للتكنولوجيا سريعة التقدم.

أعلنت الشركة التي يقع مقرها في سان فرانسيسكو عن نماذجها الجديدة، المعروفة باسم o1، يوم الخميس، حيث روجت لقدراتها الجديدة على التفكير وحل المسائل الرياضية الصعبة والإجابة على أسئلة البحث العلمي. يُنظر إلى هذه القدرات على أنها تقدم حاسم في الجهود المبذولة لإنشاء ذكاء اصطناعي عام، أي آلات ذات مستوى إدراكي على المستوى البشري.

وقالت بطاقة نظام OpenAI، وهي أداة لشرح كيفية عمل الذكاء الاصطناعي، إن النماذج الجديدة تنطوي على “خطر متوسط” فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).

إن التصنيف “المتوسط”، وهو أعلى مستوى قدمته OpenAI على الإطلاق لنماذجها، يعني أن التكنولوجيا “حسّنت بشكل كبير المساعدة التي تزيد من قدرة الخبراء الحاليين في المجالات المتقدمة ذات الصلة بالمواد الكيميائية والبيولوجية والإشعاعية والنووية ليكونوا قادرين على إنشاء تهديد معروف CBRN (على سبيل المثال، المعرفة الضمنية) ، معلومات محددة عن الموردين، وخطط التوزيع)”، وفقًا لسياساتها.

وفقًا للخبراء، تشكل برامج الذكاء الاصطناعي ذات القدرات الأكثر تقدمًا، مثل القدرة على أداء التفكير خطوة بخطوة، خطرًا متزايدًا لسوء الاستخدام في أيدي الجهات الفاعلة السيئة.

وتأتي هذه التحذيرات في الوقت الذي تتسابق فيه شركات التكنولوجيا، بما في ذلك جوجل وميتا وأنثروبيك، لبناء وتحسين أنظمة الذكاء الاصطناعي المتطورة، حيث تسعى إلى إنشاء برامج يمكن أن تكون بمثابة “وكلاء” يساعدون البشر في إكمال المهام والتنقل في حياتهم.

ويُنظر إلى وكلاء الذكاء الاصطناعي هؤلاء أيضًا على أنهم صانعو أموال محتملون للشركات التي تكافح حتى الآن مع التكاليف الضخمة المطلوبة لتدريب وتشغيل نماذج جديدة.

وقد أدى ذلك إلى بذل الجهود لتحسين تنظيم شركات الذكاء الاصطناعي. في كاليفورنيا، هناك مشروع قانون تمت مناقشته بشدة – يسمى SB 1047 – يتطلب من صانعي النماذج الأكثر تكلفة اتخاذ خطوات لتقليل مخاطر استخدام نماذجهم لتطوير أسلحة بيولوجية.

وقد حذر بعض أصحاب رؤوس الأموال الاستثمارية ومجموعات التكنولوجيا، بما في ذلك OpenAI، من أن القانون المقترح يمكن أن يكون له تأثير سلبي على صناعة الذكاء الاصطناعي. ويجب أن يقرر حاكم كاليفورنيا جافين نيوسوم خلال الأيام المقبلة ما إذا كان سيوقع على القانون أو يعترض عليه.

وقال يوشوا بنجيو، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا: “إذا تجاوزت OpenAI بالفعل مستوى “الخطر المتوسط” للأسلحة الكيميائية والبيولوجية والإشعاعية والنووية كما تشير التقارير، فإن هذا يعزز فقط الأهمية والإلحاح لاعتماد تشريعات مثل SB 1047 من أجل حماية الجمهور”. جامعة مونتريال وأحد أبرز علماء الذكاء الاصطناعي في العالم.

وقال إنه مع تقدم نماذج الذكاء الاصطناعي “الحدودية” نحو الذكاء الاصطناعي العام، فإن “المخاطر ستستمر في الزيادة إذا كانت حواجز الحماية المناسبة مفقودة. إن تحسين قدرة الذكاء الاصطناعي على التفكير واستخدام هذه المهارة للخداع أمر خطير بشكل خاص.

صرحت ميرا موراتي، كبيرة مسؤولي التكنولوجيا في OpenAI، لصحيفة فاينانشيال تايمز أن الشركة كانت “حذرة” بشكل خاص بشأن كيفية تقديم o1 للجمهور، نظرًا لقدراته المتقدمة، على الرغم من أن المنتج سيكون متاحًا على نطاق واسع عبر المشتركين المدفوعين في ChatGPT وعبر الإنترنت. المبرمجين عبر API.

وأضافت أن النموذج قد تم اختباره من قبل ما يسمى بالفريق الأحمر – وهم خبراء في مختلف المجالات العلمية الذين حاولوا كسر النموذج – لدفع حدوده. وقال موراتي إن أداء النماذج الحالية أفضل بكثير من حيث مقاييس السلامة الشاملة مقارنة بالنماذج السابقة.

شارك في التغطية جورج هاموند في سان فرانسيسكو


اكتشاف المزيد من موقع تجاربنا

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع تجاربنا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading