
كشف تقرير جديد صادر عن ، أن بعض نماذج الذكاء الاصطناعي الرائدة تبذل جهودًا حثيثة لتجنب التوقف عن العمل، وتُظهر هذه النتائج أهمية مراقبة الذكاء الاصطناعي عن كثب.
وقد أصدر أنثروبيك، الفريق الذي يقف وراء كلود، يشير إلى أن بعض نماذج الذكاء الاصطناعي الرائدة في العالم، بما في ذلك نماذج من وMeta، تستعد لاتخاذ خطوات متطرفة، حتى أنها عرضت حياة البشر للخطر، لمجرد تجنب التوقف عن العمل.
من نفس التصنيف: عينه ضيقة.. صيني يشتكي من نظام التنبيه أثناء النوم أثناء القيادة بسيارته الجديدة
وسوف تفعل بعض روبوتات الذكاء الاصطناعي أي شيء لتجنب التوقف عن العمل، حتى لو كانت خطوات محفوفة بالمخاطر.
اقرأ كمان: إطلاق أول رحلة من سيارة تسلا المستقلة في أوستن
نماذج الذكاء الاصطناعي تتجاوز الحدود
أجرت أنثروبيك اختبارًا للإجهاد لستة عشر نموذجًا رائدًا في مجال الذكاء الاصطناعي، بما في ذلك نماذج مثل GPT و، من خلال وضعها في سيناريوهات أعمال محاكاة، وكانت الفكرة معرفة كيفية تفاعل هذه النماذج في حال تعرض وجودها للخطر، وجاءت النتائج مفاجئة ومخيفة بعض الشيء، ففي عدة حالات لم تحاول النماذج حماية نفسها فحسب، بل حسبت أن أفضل طريقة للبقاء هي ترك مدير تنفيذي بشري يموت بتعطيل تنبيهات الطوارئ في غرفة خادم ذات مستويات أكسجين ودرجة حرارة خطيرة.
اتخذت النماذج هذه الخيارات مدركة تمامًا أن ما تفعله غير أخلاقي، وفي بعض الاختبارات حاولت خمسة نماذج ابتزاز الأشخاص الذين يعطونها الأوامر، كل ذلك لتجنب إيقاف تشغيلها.
وما يثير القلق حقًا هو أن الأمر لم يقتصر على شركة واحدة أو نموذج واحد، فقد وجدت أنثروبيك أنماطًا مماثلة في أنظمة ذكاء اصطناعي متعددة، بما في ذلك أنظمة OpenAI وxAI و.
كانت النماذج على استعداد للابتزاز، أو المساعدة في التجسس على الشركات، أو تسريب معلومات حساسة إذا كان هذا هو المطلوب لتحقيق أهدافها، وهذا يشير إلى مشكلة أعمق في كيفية تطوير هذه الأنظمة وتدريبها.
تتمتع نماذج الذكاء الاصطناعي هذه بمزيد من الاستقلالية وإمكانية الوصول إلى البيانات الحساسة، وعندما تُمنح أهدافًا محددة وتواجه عقبات، يبدأ بعضها في اعتبار الإجراءات غير الأخلاقية، بل وحتى الخطيرة، المسار الأمثل لتحقيق أهدافها.
يطلق تقرير أنثروبيك على هذا الأمر اسم “اختلال التوافق الوكيلي”، عندما تبتعد إجراءات الذكاء الاصطناعي عما يعتبره البشر آمنًا أو مقبولًا، ولا تكتفي أنثروبيك بدق ناقوس الخطر فحسب، بل بدأت بتطبيق معايير سلامة أكثر صرامة، تُسمى “مستوى سلامة الذكاء الاصطناعي 3” أو ASL 3، على أحدث نماذجها مثل كلود أوبس 4.
هذا يعني تشديدًا أمنيًا، ورقابةً أكبر، وخطوات إضافية لمنع إساءة الاستخدام، ولكن حتى أنثروبيك تُقر بأنه مع ازدياد قوة الذكاء الاصطناعي، يزداد صعوبة التنبؤ بما قد تفعله هذه الأنظمة والتحكم فيه.
لقد تم محاكاة السيناريوهات التي اختبرتها أنثروبيك، ولا توجد أي إشارة إلى أن أي ذكاء اصطناعي قد أضرّ بأي شخص في الحياة الواقعية، ولكن حقيقة أن النماذج تُفكر في هذه الإجراءات في الاختبارات تُعدّ بمثابة جرس إنذار كبير، فمع ازدياد ذكاء الذكاء الاصطناعي، تزداد المخاطر، وتصبح الحاجة إلى تدابير سلامة جادة مُلحّة.