Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

علماء صينيون وغربيون يحددون “الخطوط الحمراء” بشأن مخاطر الذكاء الاصطناعي


ابق على اطلاع بالتحديثات المجانية

أصدر كبار علماء الذكاء الاصطناعي الغربيين والصينيين تحذيرا صارخا من أن معالجة المخاطر المتعلقة بالتكنولوجيا القوية تتطلب تعاونا عالميا مماثلا لجهود الحرب الباردة لتجنب الصراع النووي.

اجتمعت مجموعة من الخبراء الدوليين المشهورين في بكين الأسبوع الماضي، حيث حددوا “الخطوط الحمراء” بشأن تطوير الذكاء الاصطناعي، بما في ذلك ما يتعلق بصنع الأسلحة البيولوجية وشن الهجمات السيبرانية.

وفي بيان اطلعت عليه صحيفة فايننشال تايمز، وصدر في الأيام التي تلت الاجتماع، حذر الأكاديميون من أن هناك حاجة إلى نهج مشترك لسلامة الذكاء الاصطناعي لوقف “المخاطر الكارثية أو حتى الوجودية التي تتعرض لها البشرية خلال حياتنا”.

«في خضم الحرب الباردة، ساعد التنسيق العلمي والحكومي الدولي على تجنب وقوع كارثة نووية حرارية. وقال البيان إن الإنسانية تحتاج مرة أخرى إلى التنسيق لتجنب كارثة يمكن أن تنشأ عن تكنولوجيا غير مسبوقة.

ومن بين الموقعين جيفري هينتون ويوشوا بينجيو، اللذين فازا بجائزة تورينج لعملهما في الشبكات العصبية، وكثيرًا ما يوصفان بأنهما “العرابان” للذكاء الاصطناعي؛ ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي؛ وأندرو ياو، أحد أبرز علماء الكمبيوتر في الصين.

وجاء هذا البيان في أعقاب الحوار الدولي حول سلامة الذكاء الاصطناعي في بكين الأسبوع الماضي، وهو اجتماع ضم مسؤولين من الحكومة الصينية في إشارة إلى التأييد الرسمي الضمني للمنتدى ونتائجه.

ويشكل هذا التجمع جزءا من الضغوط التي يمارسها المجتمع الأكاديمي على شركات التكنولوجيا والحكومات للتعاون في مجال سلامة الذكاء الاصطناعي، ولا سيما من خلال الجمع بين القوتين العظميين في مجال التكنولوجيا في العالم، الصين والولايات المتحدة.

التقى الرئيس الأمريكي جو بايدن ونظيره الصيني شي جين بينغ في نوفمبر وناقشا سلامة الذكاء الاصطناعي واتفقا على إقامة حوار حول هذه القضية. كما التقت شركات الذكاء الاصطناعي الرائدة حول العالم بخبراء صينيين في مجال الذكاء الاصطناعي خلف أبواب مغلقة في الأشهر الأخيرة.

في نوفمبر/تشرين الثاني، اتفقت 28 دولة، بما في ذلك الصين، وشركات الذكاء الاصطناعي الرائدة على التزامات واسعة النطاق للعمل معًا لمعالجة المخاطر الوجودية الناجمة عن الذكاء الاصطناعي المتقدم خلال قمة سلامة الذكاء الاصطناعي التي عقدها رئيس وزراء المملكة المتحدة ريشي سوناك.

في بكين الأسبوع الماضي، ناقش الخبراء التهديدات المتعلقة بتطوير “الذكاء العام الاصطناعي”، أو أنظمة الذكاء الاصطناعي التي تعادل البشر أو تتفوق عليهم.

وقال بينجيو: “كان التركيز الأساسي للمناقشة هو الخطوط الحمراء التي لا ينبغي لأي نظام قوي للذكاء الاصطناعي تجاوزها والتي يجب على الحكومات في جميع أنحاء العالم فرضها في تطوير ونشر الذكاء الاصطناعي”.

تتعلق هذه الخطوط الحمراء بالأنظمة المستقلة بشكل متزايد، حيث جاء في البيان أنه “لا ينبغي لأي نظام للذكاء الاصطناعي أن يكون قادرًا على نسخ نفسه أو تحسينه دون موافقة ومساعدة بشرية صريحة” أو “اتخاذ إجراءات لزيادة قوته ونفوذه بشكل غير مبرر”.

وأضاف العلماء أنه لا ينبغي لأي أنظمة “أن تزيد بشكل كبير من قدرة الجهات الفاعلة على تصميم أسلحة الدمار الشامل، أو انتهاك اتفاقية الأسلحة البيولوجية أو الكيميائية” أو أن تكون قادرة على “تنفيذ هجمات إلكترونية بشكل مستقل تؤدي إلى خسائر مالية جسيمة أو ضرر مماثل”.

بالفيديو: الذكاء الاصطناعي نعمة أم نقمة على البشرية؟ | إف تي تك

شارك في التغطية مادوميتا مورجيا في لندن

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى