Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

تستخدم الشبكات المرتبطة بروسيا والصين أدوات OpenAI لنشر المعلومات المضللة


افتح ملخص المحرر مجانًا

كشفت شركة OpenAI أن العمليات المرتبطة بروسيا والصين وإيران وإسرائيل تستخدم أدوات الذكاء الاصطناعي الخاصة بها لإنشاء معلومات مضللة ونشرها، حيث أصبحت التكنولوجيا سلاحًا قويًا في حرب المعلومات في عام مزدحم بالانتخابات.

قالت الشركة المصنعة لبرنامج ChatGPT ومقرها سان فرانسيسكو في تقرير يوم الخميس إن خمس عمليات تأثير سرية استخدمت نماذج الذكاء الاصطناعي الخاصة بها لإنشاء نصوص وصور بكميات كبيرة، مع أخطاء لغوية أقل من السابق، بالإضافة إلى إنشاء تعليقات أو الردود على مشاركاتهم الخاصة. تحظر سياسات OpenAI استخدام نماذجها لخداع الآخرين أو تضليلهم.

وقالت OpenAI في التقرير إن المحتوى ركز على قضايا “بما في ذلك الغزو الروسي لأوكرانيا، والصراع في غزة، والانتخابات الهندية، والسياسة في أوروبا والولايات المتحدة، وانتقادات المنشقين الصينيين والحكومات الأجنبية للحكومة الصينية”.

وأضافت أن الشبكات استخدمت أيضًا الذكاء الاصطناعي لتعزيز إنتاجيتها، وتطبيقه على مهام مثل تصحيح الأخطاء البرمجية أو إجراء بحث في نشاط وسائل التواصل الاجتماعي العامة.

وسعت منصات وسائل التواصل الاجتماعي، بما في ذلك ميتا ويوتيوب التابعة لشركة جوجل، إلى تضييق الخناق على انتشار حملات التضليل في أعقاب فوز دونالد ترامب عام 2016 في الانتخابات الرئاسية الأمريكية عندما وجد المحققون الأمريكيون أدلة على أن مزرعة متصيدين روسية سعت إلى التلاعب في التصويت.

تتزايد الضغوط على شركات الذكاء الاصطناعي سريعة النمو مثل OpenAI، حيث أن التقدم السريع في التكنولوجيا الخاصة بها يعني أنه أصبح من الأرخص والأسهل من أي وقت مضى لمرتكبي التضليل إنشاء صور مزيفة واقعية والتلاعب بالوسائط ثم نشر هذا المحتوى بطريقة آلية.

مع توجه ما يقدر بنحو ملياري شخص إلى صناديق الاقتراع هذا العام، حث صناع السياسات الشركات على تقديم وتنفيذ حواجز حماية مناسبة.

قال بن نيمو، المحقق الرئيسي للاستخبارات والتحقيقات في OpenAI، في مكالمة مع المراسلين إن الحملات لا يبدو أنها عززت مشاركتها أو وصولها “بشكل هادف” نتيجة لاستخدام نماذج OpenAI.

لكنه أضاف: “هذا ليس الوقت المناسب للرضا عن النفس. يُظهر التاريخ أن عمليات التأثير التي قضت سنوات من الفشل في الوصول إلى أي مكان يمكن أن تندلع فجأة إذا لم يبحث عنها أحد.

وقالت شركة OpenAI المدعومة من مايكروسوفت إنها ملتزمة بالكشف عن حملات التضليل هذه وتقوم ببناء أدواتها الخاصة التي تعمل بالذكاء الاصطناعي لجعل الكشف والتحليل “أكثر فعالية”. وأضافت أن أنظمة السلامة لديها جعلت من الصعب بالفعل على الجناة العمل، حيث رفضت نماذجها في عدة حالات إنشاء النص أو الصور المطلوبة.

في التقرير، كشفت OpenAI أن العديد من الجهات الفاعلة المعروفة في مجال التضليل التابعة للدولة كانت تستخدم أدواتها. وشملت هذه العملية الروسية، Doppelganger، التي تم اكتشافها لأول مرة في عام 2022 وتحاول عادة تقويض الدعم لأوكرانيا، وشبكة صينية تعرف باسم Spamouflage، والتي تدفع مصالح بكين في الخارج. استخدمت كلتا الحملتين نماذجها لإنشاء نص أو تعليق بلغات متعددة قبل النشر على منصات مثل Elon Musk’s X.

وقد أشارت إلى عملية روسية لم يتم الإبلاغ عنها سابقًا، أطلق عليها اسم Bad Grammar، قائلة إنها استخدمت نماذج OpenAI لتصحيح أخطاء التعليمات البرمجية لتشغيل روبوت Telegram وإنشاء تعليقات سياسية قصيرة باللغتين الروسية والإنجليزية تم نشرها بعد ذلك على منصة المراسلة Telegram.

تم الاتصال بـ Telegram و X للتعليق.

وقالت أيضًا إنها أحبطت جهودًا مؤيدة لإسرائيل للتضليل مقابل أجر، يُزعم أنها تديرها شركة لإدارة الحملات السياسية مقرها تل أبيب تسمى STOIC، والتي استخدمت نماذجها لإنشاء مقالات وتعليقات عبر Instagram وFacebook وX.

أصدرت Meta يوم الأربعاء تقريرًا يفيد بأنها أزالت محتوى STOIC. تم إنهاء الحسابات المرتبطة بهذه العمليات بواسطة OpenAI.

تقارير إضافية من كريستينا كريدل


اكتشاف المزيد من موقع تجاربنا

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع تجاربنا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading