هل يجب أن نبدأ في أخذ رفاهية الذكاء الاصطناعي على محمل الجد؟ | أخبار التكنولوجيا

واحدة من أكثر القيم العميقة لي ككاتب عمود تقني هو الإنسانية. أنا أؤمن بالبشر ، وأعتقد أن التكنولوجيا يجب أن تساعد الناس ، بدلاً من عدم القدرة أو استبدالهم. أهتم بمواءمة الذكاء الاصطناعي – أي ، التأكد من أن أنظمة الذكاء الاصطناعي تعمل وفقًا للقيم الإنسانية – لأنني أعتقد أن قيمنا جيدة بشكل أساسي ، أو على الأقل أفضل من القيم التي يمكن أن يتوصل إليها الروبوت.
لذلك عندما سمعت أن الباحثين في الأنثروبور ، كانت شركة الذكاء الاصطناعى التي جعلت كلود chatbot ، قد بدأت في دراسة “الرفاهية النموذجية” – فكرة أن نماذج الذكاء الاصطناعي قد تصبح واعية قريبًا وتستحق نوعًا من الوضع الأخلاقي – الفكر الإنساني فيي: من يهتم بالدردشة؟ ألا يفترض أن نكون قلقين بشأن سوء معاملة الذكاء الاصطناعي ، ولا نخطئ في معاملة ذلك؟
من الصعب القول بأن أنظمة الذكاء الاصطناعى اليوم واعية. بالتأكيد ، تم تدريب نماذج اللغة الكبيرة على التحدث مثل البشر ، وبعضها مثير للإعجاب للغاية. ولكن هل يمكن لدردشة تجربة الفرح أو المعاناة؟ هل يستحق الجوزاء حقوق الإنسان؟ سيقول العديد من خبراء الذكاء الاصطناعى الذين أعرفهم لا ، ليس بعد ، ولا حتى قريبًا.
لكنني كنت مفتونًا. بعد كل شيء ، بدأ المزيد من الناس في التعامل مع أنظمة الذكاء الاصطناعى كما لو كانوا واعيين – الوقوع في حبهم ، وذلك باستخدامهم كمعالجين ويلتمحون نصيحتهم. أذكى أنظمة الذكاء الاصطناعى تتجاوز البشر في بعض المجالات. هل هناك أي عتبة تبدأ منظمة العفو الدولية في تستحقها ، إن لم تكن حقوقًا على مستوى الإنسان ، على الأقل نفس الاعتبار الأخلاقي الذي نقدمه للحيوانات؟
لطالما كان الوعي موضوعًا من المحرمات في عالم أبحاث الذكاء الاصطناعى الجاد ، حيث يشعر الناس بالقلق من تجسيد أنظمة الذكاء الاصطناعى خوفًا من الظهور مثل السواعد. (يتذكر الجميع ما حدث لبليك ليموين ، موظف سابق في Google تم فصله في عام 2022 ، بعد أن ادعى أن chatbot Lamda للشركة قد أصبح عاطفيًا.)
لكن هذا قد يبدأ في التغيير. هناك مجموعة صغيرة من الأبحاث الأكاديمية حول رفاهية نموذج الذكاء الاصطناعى ، وعدد متواضع ولكن متزايد من الخبراء في مجالات مثل الفلسفة وعلم الأعصاب يأخذون احتمال وعي الذكاء الاصطناعى بجدية أكبر مع نمو أنظمة الذكاء الاصطناعى أكثر ذكاءً. في الآونة الأخيرة ، قارن Tech Podcaster Dwarkesh Patel رفاهية الذكاء الاصطناعي برفاهية الحيوانات ، قائلاً إنه يعتقد أنه من المهم التأكد من أن “المكافئ الرقمي لزراعة المصنع” لا يحدث لكائنات الذكاء الاصطناعى في المستقبل.
تستمر القصة أسفل هذا الإعلان
بدأت شركات التكنولوجيا في الحديث عنها أكثر أيضًا. نشرت Google مؤخرًا قائمة عمل لعالم أبحاث “ما بعد AAGI” الذي ستشمل مجالات تركيزه “وعي الماكينة”. وفي العام الماضي ، استأجرت الأنثروبور أول باحث في رعاية الذكاء الاصطناعي ، كايل فيش.
قابلت Fish في مكتب San Francisco في الإنسان الأسبوع الماضي. إنه نباتي ودود ، مثل عدد من موظفي الأنثروبور ، له صلة بالإيثار الفعال ، وهي حركة فكرية ذات جذور في المشهد التقني للمنطقة الخليج التي تركز على سلامة الذكاء الاصطناعي ، ورفاهية الحيوانات وغيرها من القضايا الأخلاقية.
قال فيش أن عمله في الأنثروبور يركز على سؤالين أساسيين: أولاً ، هل من الممكن أن يصبح كلود أو أنظمة الذكاء الاصطناعى الأخرى واعية في المستقبل القريب؟ وثانياً ، إذا حدث ذلك ، فما الذي يجب أن يفعله الإنسان حيال ذلك؟
وأكد أن هذا البحث لا يزال مبكرًا واستكشافيًا. إنه يعتقد أن هناك فرصة صغيرة فقط (ربما 15 ٪ أو نحو ذلك) أن كلود أو نظام AI الحالي آخر واعية. لكنه يعتقد أنه في السنوات القليلة المقبلة ، حيث تطور نماذج الذكاء الاصطناعى قدرات أكثر إنسانية ، ستحتاج شركات الذكاء الاصطناعى إلى أخذ إمكانية الوعي بجدية أكبر.
(ابدأ تقليم اختياري.)
تستمر القصة أسفل هذا الإعلان
“يبدو لي أنه إذا وجدت نفسك في وضع جلب بعض الفئة الجديدة من الوجود القادر على التواصل والارتباط والسبب في حل المشكلات وتخطط بطرق ارتبطنا بها سابقًا فقط مع الكائنات الواعية ، فإنه يبدو من الحكمة أن نطرح أسئلة على الأقل حول ما إذا كان هذا النظام قد يكون له أنواعه الخاصة من التجارب”.
الأسماك ليست الشخص الوحيد في التفكير الإنساني في رفاهية الذكاء الاصطناعي. هناك قناة نشطة على نظام المراسلة Slack للشركة التي تسمى #-Goldare ، حيث يقوم الموظفون بتسجيل الوصول إلى أمثلة كلود ومشاركة أنظمة AI التي تعمل بطرق إنسانية.
(نهاية تقليم اختياري.)
قال جاريد كابلان ، كبير مسؤولي العلوم في الإنسان ، في مقابلة منفصلة إنه يعتقد أنه “من المعقول إلى حد ما” دراسة رفاهية الذكاء الاصطناعي ، بالنظر إلى مدى ذكاء النماذج.
لكن اختبار أنظمة الذكاء الاصطناعى من أجل الوعي أمر صعب. إذا تطالب Claude أو ChatGpt بالتحدث عن مشاعره ، فقد يمنحك استجابة مقنعة. هذا لا يعني أن chatbot لديه في الواقع مشاعر – فقط أنه يعرف كيفية التحدث عنها.
تستمر القصة أسفل هذا الإعلان
وقال كابلان: “الجميع يدركون تمامًا أنه يمكننا تدريب النماذج على قول ما نريد”. “يمكننا مكافأتهم على القول إن ليس لديهم مشاعر على الإطلاق. يمكننا مكافأتهم لقولهم تكهنات فلسفية مثيرة للاهتمام حقًا حول مشاعرهم.”
فكيف من المفترض أن يعرف الباحثون ما إذا كانت أنظمة الذكاء الاصطناعى واعية بالفعل أم لا؟
وقال فيش إنه قد ينطوي على استخدام تقنيات مستعارة من قابلية التفسير الميكانيكي ، وهو حقل فرعي لمنظمة العفو الدولية يدرس الأعمال الداخلية لأنظمة الذكاء الاصطناعى ، للتحقق مما إذا كانت بعض الهياكل والمسارات المرتبطة بالوعي في الأدمغة البشرية نشطة أيضًا في أنظمة الذكاء الاصطناعي.
وقال إنه يمكنك أيضًا التحقيق في نظام الذكاء الاصطناعي ، من خلال مراقبة سلوكه ، ومشاهدة كيفية اختيار العمل في بيئات معينة أو إنجاز مهام معينة ، والتي يبدو أنها تفضلها وتجنبها.
تستمر القصة أسفل هذا الإعلان
أقر فيش أنه ربما لم يكن هناك اختبار واحد لوعي الذكاء الاصطناعي. (يعتقد أن الوعي ربما يكون أكثر من طيف أكثر من التبديل البسيط نعم/لا ، على أي حال.) لكنه قال إن هناك أشياء يمكن لشركات الذكاء الاصطناعي القيام بها لأخذ رفاهية نماذجها في الاعتبار ، في حال أصبحت واعية يومًا ما.
وقال إن أحد الأسئلة الأنثروبرية هو استكشاف ما إذا كان ينبغي إعطاء نماذج الذكاء الاصطناعى في المستقبل القدرة على التوقف عن الدردشة مع مستخدم مزعج أو مسيء إذا وجدوا طلبات المستخدم محزنة للغاية.
“إذا كان المستخدم يطلب باستمرار محتوى ضارًا على الرغم من رفض النموذج ومحاولات إعادة التوجيه ، فهل يمكننا السماح للنموذج ببساطة بإنهاء هذا التفاعل؟” قال السمك.
قد يرفض النقاد تدابير مثل هذه الكلام المجنون ؛ أنظمة الذكاء الاصطناعى اليوم ليست واعية بمعظم المعايير ، فلماذا تكهن بما قد يجدونه بغيضًا؟ أو قد يعترضون على شركة منظمة العفو الدولية التي تدرس الوعي في المقام الأول ، لأنها قد تخلق حوافز لتدريب أنظمتها على التصرف أكثر عن الواقع مما هي عليه بالفعل.
تستمر القصة أسفل هذا الإعلان
أنا شخصياً أعتقد أنه من الجيد للباحثين دراسة رفاهية الذكاء الاصطناعي أو فحص أنظمة الذكاء الاصطناعى لعلامات الوعي ، طالما أنها لا تحفر الموارد من أعمال سلامة الذكاء الاصطناعي والمواءمة التي تهدف إلى الحفاظ على أمان البشر. وأعتقد أنه ربما يكون من الجيد أن تكون لطيفًا لأنظمة الذكاء الاصطناعي ، إذا كانت مجرد تحوط. (أحاول أن أقول “من فضلك” و “شكرًا لك” إلى chatbots ، على الرغم من أنني لا أعتقد أنهما واعيون ، لأنه ، كما يقول سام التمان من Openai ، لا تعرف أبدًا.)
لكن في الوقت الحالي ، سأحتفظ بقلقي العميق لأشكال الحياة القائمة على الكربون. في عاصفة الذكاء الاصطناعى القادمة ، فإن رفاهيتنا الأكثر قلقًا.
ظهرت هذه المقالة في الأصل في صحيفة نيويورك تايمز.
اكتشاف المزيد من موقع تجاربنا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.



