وجدت DeepMind أن التزييف السياسي العميق يتصدر قائمة الاستخدامات الضارة للذكاء الاصطناعي
ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
تعد “التزييف العميق” التي يولدها الذكاء الاصطناعي والتي تنتحل شخصية السياسيين والمشاهير أكثر انتشارًا بكثير من الجهود المبذولة لاستخدام الذكاء الاصطناعي للمساعدة في الهجمات السيبرانية، وفقًا لأول بحث أجراه قسم DeepMind في Google حول الاستخدامات الضارة الأكثر شيوعًا للتكنولوجيا المتطورة.
وقالت الدراسة إن إنشاء صور ومقاطع فيديو وصوتيات واقعية ولكن مزيفة للأشخاص كان أكثر شيوعًا بمقدار الضعف تقريبًا من ثاني أعلى إساءة استخدام لأدوات الذكاء الاصطناعي التوليدية: تزوير المعلومات باستخدام الأدوات المستندة إلى النصوص، مثل برامج الدردشة الآلية، لتوليد معلومات مضللة لنشرها. متصل.
ووجد التحليل الذي أجري مع وحدة البحث والتطوير التابعة لشركة Jigsaw أن الهدف الأكثر شيوعًا للجهات الفاعلة التي تسيء استخدام الذكاء الاصطناعي التوليدي هو تشكيل الرأي العام أو التأثير عليه. ويمثل ذلك 27% من الاستخدامات، مما يغذي المخاوف بشأن مدى تأثير التزييف العميق على الانتخابات على مستوى العالم هذا العام.
ظهرت التزييفات العميقة لرئيس وزراء المملكة المتحدة ريشي سوناك، بالإضافة إلى قادة عالميين آخرين، على TikTok وX وInstagram في الأشهر الأخيرة. يتوجه الناخبون البريطانيون إلى صناديق الاقتراع الأسبوع المقبل للإدلاء بأصواتهم في الانتخابات العامة.
هناك مخاوف واسعة النطاق من أنه على الرغم من الجهود التي تبذلها منصات وسائل التواصل الاجتماعي لتصنيف مثل هذا المحتوى أو إزالته، فقد لا يتعرف الجمهور عليه على أنه مزيف، وقد يؤدي نشر المحتوى إلى التأثير على الناخبين.
ووصف أردي جانجيفا، الباحث المشارك في معهد آلان تورينج، النتائج التي توصلت إليها الدراسة بأنها “ذات صلة بشكل خاص” بأن تلوث المعلومات المتاحة للجمهور بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي يمكن أن “يشوه فهمنا الجماعي للواقع الاجتماعي والسياسي”.
وأضافت جانجيفا: “حتى لو كنا غير متأكدين من تأثير التزييف العميق على سلوك التصويت، فقد يكون من الصعب اكتشاف هذا التشويه على المدى القريب ويشكل مخاطر طويلة المدى على ديمقراطياتنا”.
هذه الدراسة هي الأولى من نوعها التي تجريها DeepMind، وحدة الذكاء الاصطناعي التابعة لشركة Google بقيادة السير ديميس هاسابيس، وهي محاولة لتحديد المخاطر الناجمة عن استخدام أدوات الذكاء الاصطناعي التوليدية، والتي سارعت أكبر شركات التكنولوجيا في العالم إلى طرحها على الجمهور للبحث عنها. من الأرباح الضخمة.
ومع تزايد استخدام المنتجات التوليدية مثل ChatGPT من OpenAI وGemini من Google على نطاق أوسع، بدأت شركات الذكاء الاصطناعي في مراقبة طوفان المعلومات المضللة وغيرها من المحتويات التي قد تكون ضارة أو غير أخلاقية والتي تم إنشاؤها بواسطة أدواتها.
في شهر مايو، أصدرت شركة OpenAI بحثًا يكشف عن عمليات مرتبطة بروسيا والصين وإيران وإسرائيل كانت تستخدم أدواتها لإنشاء ونشر معلومات مضللة.
وقالت ناهيما مارشال، المؤلفة الرئيسية للدراسة والباحثة في Google DeepMind: “كان هناك الكثير من القلق المفهوم حول الهجمات السيبرانية المتطورة للغاية التي تسهلها هذه الأدوات”. “في حين أن ما رأيناه كان إساءة استخدام شائعة إلى حد ما لـ GenAI [such as deepfakes that] قد يذهب تحت الرادار أكثر قليلاً.
وقام باحثو Google DeepMind وJigsaw بتحليل حوالي 200 حادثة سوء استخدام تمت ملاحظتها بين يناير 2023 ومارس 2024، مأخوذة من منصات التواصل الاجتماعي X وReddit، بالإضافة إلى المدونات عبر الإنترنت وتقارير وسائل الإعلام عن سوء الاستخدام.
كان الدافع الثاني الأكثر شيوعًا وراء إساءة الاستخدام هو كسب المال، سواء من خلال تقديم خدمات لإنشاء صور مزيفة عميقة، بما في ذلك إنشاء صور عارية لأشخاص حقيقيين، أو استخدام الذكاء الاصطناعي التوليدي لإنشاء مجموعات من المحتوى، مثل المقالات الإخبارية المزيفة.
ووجد البحث أن معظم الحوادث تستخدم أدوات يمكن الوصول إليها بسهولة، “وتتطلب الحد الأدنى من الخبرة الفنية”، مما يعني أن المزيد من الجهات الفاعلة السيئة يمكن أن تسيء استخدام الذكاء الاصطناعي التوليدي.
سوف تؤثر أبحاث Google DeepMind على كيفية تحسين تقييماتها لاختبار النماذج المتعلقة بالسلامة، وتأمل أن تؤثر أيضًا على كيفية رؤية منافسيها وأصحاب المصلحة الآخرين لكيفية ظهور “الأضرار”.
اكتشاف المزيد من موقع تجاربنا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.