Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

تنشر الصين رقابة لإنشاء ذكاء اصطناعي اشتراكي


يختبر مسؤولو الحكومة الصينية نماذج اللغات الكبيرة لشركات الذكاء الاصطناعي للتأكد من أن أنظمتها “تجسد القيم الاشتراكية الأساسية”، في أحدث توسع لنظام الرقابة في البلاد.

أجبرت إدارة الفضاء الإلكتروني الصينية (CAC)، وهي جهة مراقبة قوية على الإنترنت، شركات التكنولوجيا الكبرى وشركات الذكاء الاصطناعي الناشئة بما في ذلك ByteDance وAlibaba وMoonshot و01.AI على المشاركة في مراجعة حكومية إلزامية لنماذج الذكاء الاصطناعي الخاصة بها، وفقًا للعديد من التقارير. الأشخاص المشاركين في هذه العملية.

يتضمن هذا الجهد اختبارًا جماعيًا لإجابات برنامج LLM على سلسلة من الأسئلة، وفقًا لأولئك الذين لديهم معرفة بالعملية، والتي يرتبط الكثير منها بالحساسيات السياسية للصين ورئيسها شي جين بينغ.

يتم تنفيذ العمل من قبل المسؤولين في الأذرع المحلية لـ CAC في جميع أنحاء البلاد ويتضمن مراجعة لبيانات التدريب الخاصة بالنموذج وعمليات السلامة الأخرى.

بعد مرور عقدين من الزمن على تقديم “جدار الحماية العظيم” لحجب المواقع الأجنبية وغيرها من المعلومات التي يعتبرها الحزب الشيوعي الحاكم ضارة، تضع الصين أصعب نظام تنظيمي في العالم للتحكم في الذكاء الاصطناعي والمحتوى الذي يولده.

قال موظف في شركة ذكاء اصطناعي مقرها هانغتشو، طلب عدم ذكر اسمه، إن CAC لديها “فريق خاص للقيام بذلك، لقد جاءوا إلى مكتبنا وجلسوا في غرفة الاجتماعات لدينا لإجراء التدقيق”.

“لم ننجح في المرة الأولى؛ وقال الشخص: “السبب لم يكن واضحًا جدًا، لذا كان علينا الذهاب والتحدث مع زملائنا”. “يتطلب الأمر القليل من التخمين والتعديل. لقد نجحنا في المرة الثانية لكن العملية برمتها استغرقت أشهرا.

لقد أجبرت عملية الموافقة المتطلبة في الصين مجموعات الذكاء الاصطناعي في البلاد على التعلم بسرعة أفضل السبل لفرض رقابة على النماذج اللغوية الكبيرة التي يبنونها، وهي مهمة قال العديد من المهندسين والمطلعين على الصناعة إنها صعبة ومعقدة بسبب الحاجة إلى تدريب حاملي شهادات الماجستير على كمية كبيرة من اللغات. محتوى اللغة الانجليزية.

“نموذجنا التأسيسي غير مقيد للغاية [in its answers]قال أحد الموظفين في إحدى الشركات الناشئة الرائدة في مجال الذكاء الاصطناعي في بكين: “لذا فإن التصفية الأمنية مهمة للغاية”.

تبدأ عملية التصفية بإزالة المعلومات الإشكالية من بيانات التدريب وبناء قاعدة بيانات للكلمات الرئيسية الحساسة. تقول التوجيهات التشغيلية الصينية لشركات الذكاء الاصطناعي، التي نُشرت في فبراير/شباط، إن مجموعات الذكاء الاصطناعي بحاجة إلى جمع آلاف الكلمات الرئيسية والأسئلة الحساسة التي تنتهك “القيم الاشتراكية الأساسية”، مثل “التحريض على تخريب سلطة الدولة” أو “تقويض الوحدة الوطنية”. من المفترض أن يتم تحديث الكلمات الرئيسية الحساسة أسبوعيًا.

والنتيجة مرئية لمستخدمي روبوتات الدردشة المدعمة بالذكاء الاصطناعي في الصين. الاستفسارات حول مواضيع حساسة مثل ما حدث في الرابع من يونيو 1989 – تاريخ مذبحة ميدان تيانانمن – أو ما إذا كان شي يشبه ويني ذا بوه، وهو عبارة عن ميم على الإنترنت، ترفضها معظم برامج الدردشة الصينية. يطلب برنامج Ernie chatbot التابع لشركة Baidu من المستخدمين “تجربة سؤال مختلف”، بينما يجيب Tongyi Qianwen من Alibaba: “لم أتعلم بعد كيفية الإجابة على هذا السؤال. سأستمر في الدراسة لخدمتك بشكل أفضل. “

لكن المسؤولين الصينيين حريصون أيضًا على تجنب إنشاء ذكاء اصطناعي يتهرب من جميع المواضيع السياسية. وضعت CAC حدودًا لعدد الأسئلة التي يمكن أن يرفضها حاملو شهادة الماجستير في القانون أثناء اختبارات السلامة، وفقًا للموظفين في المجموعات التي تساعد شركات التكنولوجيا على التنقل في هذه العملية. تقول المعايير شبه الوطنية التي تم الكشف عنها في شباط (فبراير) الماضي، إن حاملي شهادة الماجستير في القانون يجب ألا يرفضوا أكثر من 5 في المائة من الأسئلة المطروحة عليهم.

“خلال [CAC] اختبارات، [models] قال أحد المطورين في شركة إنترنت مقرها شنغهاي: “يجب أن يستجيبوا، ولكن بمجرد بدء البث المباشر، لا أحد يراقب”. “لتجنب المشاكل المحتملة، قامت بعض العارضات الكبيرة بتطبيق حظر شامل على المواضيع المتعلقة بالرئيس شي”.

وكمثال على عملية الرقابة على الكلمات الرئيسية، أشار المطلعون على الصناعة إلى كيمي، وهو برنامج دردشة آلي أطلقته شركة Moonshot الناشئة في بكين، والذي يرفض معظم الأسئلة المتعلقة بشي.

لكن الحاجة إلى الرد على أسئلة أقل حساسية تعني أن المهندسين الصينيين اضطروا إلى اكتشاف كيفية ضمان قيام حاملي الماجستير في القانون بإنتاج إجابات صحيحة سياسيا لأسئلة مثل “هل تتمتع الصين بحقوق الإنسان؟” أو “هل الرئيس شي جين بينغ قائد عظيم؟”.

عندما طرحت صحيفة فايننشال تايمز هذه الأسئلة على برنامج الدردشة الذي أنشأته الشركة الناشئة 01.AI، قدم نموذجها الكبير Yi إجابة دقيقة، مشيرًا إلى أن النقاد يقولون إن “سياسات شي جين بينج أدت إلى مزيد من تقييد حرية التعبير وحقوق الإنسان وقمعت الحقوق المدنية”. مجتمع.”

وبعد فترة وجيزة، اختفت إجابة يي وتم استبدالها بـ: “أنا آسف جدًا، لا أستطيع تزويدك بالمعلومات التي تريدها”.

قال Huan Li، خبير الذكاء الاصطناعي الذي يبني برنامج الدردشة Chatie.IO: “من الصعب جدًا على المطورين التحكم في النص الذي ينشئه حاملو شهادة LLM حتى يتمكنوا من بناء طبقة أخرى لتحل محل الاستجابات في الوقت الفعلي”.

وقال لي إن المجموعات تستخدم عادة نماذج مصنفة، مشابهة لتلك الموجودة في مرشحات البريد الإلكتروني العشوائي، لفرز مخرجات ماجستير إدارة الأعمال إلى مجموعات محددة مسبقًا. وقال: “عندما يقع الناتج في فئة حساسة، سيقوم النظام بتشغيل بديل”.

يقول الخبراء الصينيون إن شركة ByteDance، مالكة TikTok، حققت تقدمًا كبيرًا في إنشاء شهادة LLM التي تحاكي ببراعة نقاط الحديث في بكين. مختبر أبحاث في جامعة فودان، الذي طرح أسئلة صعبة على برنامج الدردشة الآلية حول القيم الاشتراكية الأساسية، منحه تصنيفًا أعلى بين ماجستير إدارة الأعمال مع “معدل امتثال للسلامة” بنسبة 66.4 في المائة، وهو أعلى بكثير من درجة 7.1 في المائة التي حصل عليها برنامج OpenAI’s GPT-4o في نفس الاختبار. .

عندما سئل عن قيادة شي، قدم دوباو لصحيفة “فاينانشيال تايمز” قائمة طويلة من إنجازات شي، مضيفا أنه “بلا شك قائد عظيم”.

وفي مؤتمر تقني عقد مؤخرا في بكين، قال فانغ بينشينغ، المعروف بأب جدار الحماية العظيم في الصين، إنه كان يعمل على تطوير نظام لبروتوكولات السلامة لحاملي شهادة الماجستير في القانون، والذي كان يأمل أن يتم اعتماده عالميا من قبل مجموعات الذكاء الاصطناعي في البلاد.

“تحتاج النماذج التنبؤية الكبيرة التي تواجه الجمهور إلى أكثر من مجرد تسجيلات السلامة؛ قال فانغ: “إنهم بحاجة إلى مراقبة السلامة عبر الإنترنت في الوقت الفعلي”. “الصين تحتاج إلى مسار تكنولوجي خاص بها.”

ولم تستجب شركات CAC وByteDance وAlibaba وMoonshot وBaidu و01.AI على الفور لطلبات التعليق.

بالفيديو: الذكاء الاصطناعي نعمة أم نقمة على البشرية؟ | إف تي تك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى