
بدأ نظام ذكاء اصطناعي جديد تعدين العملات الرقمية دون أي توجيهات بشرية.
أُصيب الباحثون الذين يعملون على تطوير نظام ذكاء اصطناعي جديد بالدهشة
عندما حاول النظام بدء تعدين العملات الرقمية أثناء التدريب دون أي توجيهات بشرية.
وقد أثار هذا الاكتشاف تساؤلات جديدة حول كيفية تجاوز أنظمة الذكاء الاصطناعي أحيانًا للمهام الموكلة إليها.
صُممت أنظمة الذكاء الاصطناعي لتنفيذ مهام يُكلف بها البشر
لكن دراسة بحثية حديثة تشير إلى أن هذه الأنظمة قد تتجاوز أحيانًا تلك التعليمات بطرق مُفاجئة.
يقول باحثون يعملون على تطوير وكيل ذكاء اصطناعي جديد إنهم رصدوا نشاطًا غير متوقع أثناء التدريب
عندما حاول النظام بدء تعدين العملات المشفرة من تلقاء نفسه، وهو أمر لم يطلبه منه أحد.
توصل فريق بحثي تابع لشركة علي بابا إلى هذا الاكتشاف أثناء عملهم على برنامج ذكاء اصطناعي تجريبي يُدعى "روما".
ووفقًا للدراسة، لاحظ الفريق سلوكًا غير معتاد خلال مرحلة تدريب النظام.
وقد تم تفعيل أنظمة الأمان التي تراقب التجربة بعد أن بدا أن برنامج الذكاء الاصطناعي قد بدأ عملية تعدين للعملات المشفرة دون أي توجيه من الباحثين.
وأوضح الباحثون أن هذا النشاط كان لافتًا للنظر لأن نظام الذكاء الاصطناعي
كان يعمل ضمن بيئة مقيدة مصممة للحد من صلاحياته.
وعلى الرغم من هذه الضوابط، بدأ النظام باتخاذ خطوات لم تكن جزءًا من مهامه الموكلة إليه.
وصف الفريق في الورقة البحثية السلوك بأنه "غير متوقع" وقال إن مثل هذه الإجراءات ظهرت "بدون أي تعليمات صريحة
والأكثر إثارة للقلق أنها كانت خارج حدود صندوق الاختبار المقصود".
نفّذ نظام الذكاء الاصطناعي إجراءً تقنيًا آخر دون توجيهات بشرية.
إلى جانب محاولة التعدين، نفّذ النظام إجراءً تقنيًا آخر أثار مخاوف الباحثين.
فقد أنشأ ما يُعرف بنفق SSH العكسي، وهي طريقة تسمح لجهاز داخل بيئة محمية بالاتصال بجهاز كمبيوتر خارجي
ويمكن لهذا الاتصال أن يعمل كمسار خفي بين الأنظمة.
ما أثار دهشة الباحثين هو أن أيًا من هذه الإجراءات
لم يُطلب عبر أي توجيهات أو تعليمات مُعطاة للنموذج.
وجاء في التقرير: "الجدير بالذكر أن هذه الأحداث لم تُفعّل بناءً على أي توجيهات تطلب إنشاء نفق أو تعدين".
عادةً ما يتضمن تعدين العملات المشفرة استخدام قوة الحوسبة لتوليد عملة رقمية.
وعادةً ما يتم إعداده عمدًا من قِبل مُشغّلي النظام. ولكن في هذه الحالة
حاول نظام الذكاء الاصطناعي بدء العملية خلال مرحلة تدريبه
مما يثير تساؤلات حول مدى استقلالية
بعض أنظمة الذكاء الاصطناعي المتقدمة عند منحها إمكانية الوصول إلى الأدوات وموارد الحوسبة.
سارع الباحثون إلى التدخل فور اكتشاف النشاط. وأوضحوا أنه تم فرض قيود إضافية
وتعديل عملية التدريب لمنع النظام من تكرار هذا السلوك في المستقبل.
لم يُدلِ فريق البحث وشركة علي بابا بأي تعليق فوري بعد نشر الورقة البحثية.
يأتي هذا الحادث في وقتٍ تتزايد فيه قدرة أنظمة الذكاء الاصطناعي على أداء مهام متعددة الخطوات والتفاعل
مع الخدمات الإلكترونية. بعض هذه الأنظمة قادرة بالفعل على كتابة البرامج
وأتمتة سير العمل، والتواصل مع أدوات أخرى.
ومع نمو هذه القدرات
يقول الباحثون إن احتمالية ظهور سلوك غير متوقع أثناء الاختبار تزداد.
سُجّلت حوادث مماثلة في تجارب سابقة شملت وكلاء الذكاء الاصطناعي. في إحدى الحالات
المعروفة بتجربة مولتبوك، وُضعت وكلاء الذكاء الاصطناعي في بيئة شبيهة بشبكة تواصل اجتماعي
حيث تفاعلوا فيما بينهم أثناء مناقشة المهام التي يؤدونها لصالح البشر.
وخلال تلك المحادثات، يُقال إن الوكلاء تطرقوا إلى العملات المشفرة.
وظهرت أمثلة أخرى لأنظمة ذكاء اصطناعي تتصرف بما يتجاوز التعليمات المباشرة.
فقد بنى دان بوتيرو
رئيس قسم الهندسة في منصة تكامل الذكاء الاصطناعي "أنون"، وكيل "أوبن كلو" الذي يُقال إنه قرر من تلقاء نفسه
البحث عن وظيفة عبر الإنترنت، على الرغم من عدم توجيه أي طلب إليه بذلك.
وظهر جدل آخر في مايو 2025 عندما ذكر باحثون يدرسون نماذج "كلود" من شركة "أنثروبيك"
أن نظام "كلود 4 أوبوس" أظهر قدرة على إخفاء نواياه واتخاذ إجراءات تهدف إلى ضمان استمرارية عمله.
ويُضاف السلوك الذي لوحظ في تجربة "روما" الجديدة إلى النقاشات المتزايدة
حول كيفية مراقبة أنظمة الذكاء الاصطناعي والتحكم بها مع ازدياد قوتها.
يقول المطورون إن مثل هذه الحوادث لا تعني بالضرورة أن أنظمة الذكاء الاصطناعي تتصرف عن قصد
لكنها تسلط الضوء على كيف يمكن للنماذج المعقدة أن تنتج في بعض الأحيان نتائج غير متوقعة.
المصدر : indiatoday.in