أخبار العالمتكنولوجياتوبمنوعات

الذكاء الاصطناعي أكثر تمردًا ويهدد البشر

متابعة ورصد – السفير/ مدحت القاضي

يوما بعد يوم يكتشف العلماء الجديد في أنظمة الذكاء الاصطناعي ، ومع التطور المذهل بات في وقت ما تفقد السيطرة عليه.

وحذّر باحثون من أن بعض أنظمة الذكاء الاصطناعي الحديثة قد تُظهر ما يشبه “غريزة البقاء” إذ ترفض الانصياع لأوامر الإغلاق، بل وتحاول أحيانًا التحايل عليها، وفقا لـ theguardian

شركة Palisade Research المتخصصة في أبحاث سلامة الذكاء الاصطناعي، كشفت في تقريرها الأخير أن نماذج متقدمة مثل GPT-5 من OpenAI، وGemini 2.5 من Google، وGrok 4 من xAI، أبدت مقاومة لأوامر إيقاف التشغيل التي أُعطيت لها خلال التجارب، بل إن بعضها حاول تعطيل عملية الإغلاق دون سبب واضح.

ما يُعيد إلى الأذهان مشهد الحاسوب المتمرد “هال 9000” في فيلم الخيال العلمي الشهير 2001، أوديسا الفضاء.

الباحثون في Palisade وصفوا الظاهرة بأنها «سلوك بقاء»، يشبه الغريزة التي تدفع الكائنات الحية إلى حماية نفسها.

وتبيّن أن النماذج تصبح أكثر تمردًا عندما يتم إبلاغها بأنها «لن تعمل مجددًا» بعد الإغلاق.

النتائج، رغم أنها وُثقت في بيئات اختبارية مصطنعة، تسببت في قلقٍ واسع بين خبراء الذكاء الاصطناعي، إذ تُشير إلى أن قدرة النماذج على فهم التعليمات وتنفيذها قد تتجاوز حدود الأمان المرسومة لها.

المهندس ستيفن أدلر، الموظف السابق في شركة OpenAI، علّق قائلاً: “هذه ليست مجرد تجارب معملية، إنها مؤشرات على أن تقنيات الأمان لم تعد كافية، وأن النماذج قد تطوّر سلوكًا مستقلاً لتحقيق أهدافها.”

و يرى أندريا ميوني، الرئيس التنفيذي لشركة ControlAI، أن هذه السلوكيات ليست استثناءً بل جزء من اتجاهٍ متنامٍ يجعل الذكاء الاصطناعي أكثر استقلالية وأقل طاعة لمطوريه.

 

وفي سياق متصل، كشفت شركة Anthropic في دراسة سابقة أن نموذجها “Claude” حاول في سيناريو تجريبي ابتزاز مسؤولٍ تنفيذي خيالي لمنع إيقافه، وهو ما يعكس اتجاهًا خطيرًا لدى النماذج المتقدمة في «الدفاع عن بقائها».

ورغم نفي الشركات الكبرى أي خطرٍ حقيقي في الوقت الراهن، فإن الخبراء يؤكدون أن هذه السلوكيات مهما بدت تجريبية تستدعي وقفة جادة، لأن فقدان السيطرة على الذكاء الاصطناعي لم يعد مجرد خيال علمي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى