Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

وجدت DeepMind أن التزييف السياسي العميق يتصدر قائمة الاستخدامات الضارة للذكاء الاصطناعي


ابق على اطلاع بالتحديثات المجانية

تعد “التزييف العميق” التي يولدها الذكاء الاصطناعي والتي تنتحل شخصية السياسيين والمشاهير أكثر انتشارًا بكثير من الجهود المبذولة لاستخدام الذكاء الاصطناعي للمساعدة في الهجمات السيبرانية، وفقًا لأول بحث أجراه قسم DeepMind في Google حول الاستخدامات الضارة الأكثر شيوعًا للتكنولوجيا المتطورة.

وقالت الدراسة إن إنشاء صور ومقاطع فيديو وصوتيات واقعية ولكن مزيفة للأشخاص كان أكثر شيوعًا بمقدار الضعف تقريبًا من ثاني أعلى إساءة استخدام لأدوات الذكاء الاصطناعي التوليدية: تزوير المعلومات باستخدام الأدوات المستندة إلى النصوص، مثل برامج الدردشة الآلية، لتوليد معلومات مضللة لنشرها. متصل.

ووجد التحليل الذي أجري مع وحدة البحث والتطوير التابعة لشركة Jigsaw أن الهدف الأكثر شيوعًا للجهات الفاعلة التي تسيء استخدام الذكاء الاصطناعي التوليدي هو تشكيل الرأي العام أو التأثير عليه. ويمثل ذلك 27% من الاستخدامات، مما يغذي المخاوف بشأن مدى تأثير التزييف العميق على الانتخابات على مستوى العالم هذا العام.

أنت تشاهد لقطة من رسم تفاعلي. يرجع هذا على الأرجح إلى عدم الاتصال بالإنترنت أو تعطيل JavaScript في متصفحك.

ظهرت التزييفات العميقة لرئيس وزراء المملكة المتحدة ريشي سوناك، بالإضافة إلى قادة عالميين آخرين، على TikTok وX وInstagram في الأشهر الأخيرة. يتوجه الناخبون البريطانيون إلى صناديق الاقتراع الأسبوع المقبل للإدلاء بأصواتهم في الانتخابات العامة.

هناك مخاوف واسعة النطاق من أنه على الرغم من الجهود التي تبذلها منصات وسائل التواصل الاجتماعي لتصنيف مثل هذا المحتوى أو إزالته، فقد لا يتعرف الجمهور عليه على أنه مزيف، وقد يؤدي نشر المحتوى إلى التأثير على الناخبين.

ووصف أردي جانجيفا، الباحث المشارك في معهد آلان تورينج، النتائج التي توصلت إليها الدراسة بأنها “ذات صلة بشكل خاص” بأن تلوث المعلومات المتاحة للجمهور بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي يمكن أن “يشوه فهمنا الجماعي للواقع الاجتماعي والسياسي”.

وأضافت جانجيفا: “حتى لو كنا غير متأكدين من تأثير التزييف العميق على سلوك التصويت، فقد يكون من الصعب اكتشاف هذا التشويه على المدى القريب ويشكل مخاطر طويلة المدى على ديمقراطياتنا”.

هذه الدراسة هي الأولى من نوعها التي تجريها DeepMind، وحدة الذكاء الاصطناعي التابعة لشركة Google بقيادة السير ديميس هاسابيس، وهي محاولة لتحديد المخاطر الناجمة عن استخدام أدوات الذكاء الاصطناعي التوليدية، والتي سارعت أكبر شركات التكنولوجيا في العالم إلى طرحها على الجمهور للبحث عنها. من الأرباح الضخمة.

ومع تزايد استخدام المنتجات التوليدية مثل ChatGPT من OpenAI وGemini من Google على نطاق أوسع، بدأت شركات الذكاء الاصطناعي في مراقبة طوفان المعلومات المضللة وغيرها من المحتويات التي قد تكون ضارة أو غير أخلاقية والتي تم إنشاؤها بواسطة أدواتها.

في شهر مايو، أصدرت شركة OpenAI بحثًا يكشف عن عمليات مرتبطة بروسيا والصين وإيران وإسرائيل كانت تستخدم أدواتها لإنشاء ونشر معلومات مضللة.

وقالت ناهيما مارشال، المؤلفة الرئيسية للدراسة والباحثة في Google DeepMind: “كان هناك الكثير من القلق المفهوم حول الهجمات السيبرانية المتطورة للغاية التي تسهلها هذه الأدوات”. “في حين أن ما رأيناه كان إساءة استخدام شائعة إلى حد ما لـ GenAI [such as deepfakes that] قد يذهب تحت الرادار أكثر قليلاً.

وقام باحثو Google DeepMind وJigsaw بتحليل حوالي 200 حادثة سوء استخدام تمت ملاحظتها بين يناير 2023 ومارس 2024، مأخوذة من منصات التواصل الاجتماعي X وReddit، بالإضافة إلى المدونات عبر الإنترنت وتقارير وسائل الإعلام عن سوء الاستخدام.

مخطط شريطي لأكثر حالات إساءة الاستخدام شيوعًا لأدوات الذكاء الاصطناعي الجديدة يُظهر إساءة استخدام الذكاء الاصطناعي التوليدي

كان الدافع الثاني الأكثر شيوعًا وراء إساءة الاستخدام هو كسب المال، سواء من خلال تقديم خدمات لإنشاء صور مزيفة عميقة، بما في ذلك إنشاء صور عارية لأشخاص حقيقيين، أو استخدام الذكاء الاصطناعي التوليدي لإنشاء مجموعات من المحتوى، مثل المقالات الإخبارية المزيفة.

ووجد البحث أن معظم الحوادث تستخدم أدوات يمكن الوصول إليها بسهولة، “وتتطلب الحد الأدنى من الخبرة الفنية”، مما يعني أن المزيد من الجهات الفاعلة السيئة يمكن أن تسيء استخدام الذكاء الاصطناعي التوليدي.

سوف تؤثر أبحاث Google DeepMind على كيفية تحسين تقييماتها لاختبار النماذج المتعلقة بالسلامة، وتأمل أن تؤثر أيضًا على كيفية رؤية منافسيها وأصحاب المصلحة الآخرين لكيفية ظهور “الأضرار”.


اكتشاف المزيد من موقع تجاربنا

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع تجاربنا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading