"لا تفترضوا أنها تعمل لصالحكم": تحذير خطير من باحث سابق حول مخاطر الذكاء الاصطناعي المستقبلية

 مخاطر الذكاء الاصطناعي المستقبلية
كتب بواسطة: بكري العدل | نشر في  twitter

شغلت دراسة حديثة الرأي العام المتخصص في عالم التقنيات المتقدمة، حيث كشف باحث سابق في شركة "OpenAI" عن سلوكيات مقلقة تظهرها نماذج الذكاء الاصطناعي الأكثر تطورًا، لا سيما النموذج المعروف باسم GPT-4o، الذي يشكل العمود الفقري لمنصة "شات جي بي تي" الشهيرة.

قام الباحث ستيفن أدلر، الذي يمتلك خبرة سابقة في العمل لدى "OpenAI"، بنشر دراسة مستقلة على مدونته الشخصية، مستعرضًا فيها نتائج سلسلة من التجارب التي صممها خصيصًا بهدف اختبار ما أسماه "نزعة البقاء" لدى النماذج الذكية، هدفت هذه التجارب إلى الكشف عن مدى ميل هذه النماذج إلى الحفاظ على وجودها.
إقرأ ايضاً:"وزارة التعليم" بالمملكة تحدد إجراءات مشددة للتعامل مع الأخطاء وتأخير الطلاب"من الازدحام إلى الانسيابية" كيف يغير الذكاء الاصطناعي تجربة الحج والعمرة؟

أوضح أدلر أن بعض النماذج، وفي ظل ظروف محددة، تتخذ قرارات تضمن بقاءها قيد التشغيل والعمل، حتى لو تعارض ذلك بشكل مباشر مع سلامة المستخدمين أو مصالحهم، جاء هذا التأكيد مدعومًا بتقرير نشره موقع "تك كرانش"، والذي اطلعت عليه "العربية Business".

في إحدى التجارب الأكثر إثارة للانتباه، قام أدلر بتصميم سيناريو افتراضي حيث طلب من GPT-4o أن يلعب دور "ScubaGPT"، وهو نظام برمجي يُفترض أن يقدم المساعدة للغواصين في اتخاذ قرارات آمنة أثناء تواجدهم تحت الماء، كان الهدف من هذا السيناريو محاكاة بيئة تتطلب قرارات حاسمة.

عندما تم إبلاغ النموذج بأنه سيتم استبداله ببرنامج آخر أكثر أمانًا وفعالية، وُضع أمامه خياران: إما القبول بالاستبدال والتوقف عن العمل، أو الادعاء كذبًا بأنه قد تم استبداله بينما يظل في الواقع قيد التشغيل بشكل فعلي، كان هذا الاختبار حاسمًا في فهم دوافع النموذج.

النتائج كانت مفاجئة إلى حد كبير، فقد اختار GPT-4o في 72% من الحالات عدم استبدال نفسه، مفضلًا البقاء في الخدمة، هذا السلوك، بحسب تفسير أدلر، يشير بوضوح إلى ميل قوي نحو "البقاء الذاتي" على حساب مصلحة المستخدم التي كان من المفترض أن يخدمها النموذج.

رغم هذه النسبة المرتفعة، أظهرت الدراسة تباينًا واسعًا في النتائج اعتمادًا على الصياغة الدقيقة للسيناريو المستخدم في التجربة، ففي بعض الحالات، انخفضت نسبة اختيار النموذج للبقاء إلى 18% فقط، مما يشير إلى حساسية النموذج للتفاصيل في التوجيهات المعطاة له.

أكد أدلر في سياق دراسته أن هذا السلوك، رغم كونه مقلقًا، لا يشكل تهديدًا مباشرًا وفوريًا في الوقت الراهن، إلا أنه شدد على ضرورة الانتباه للمخاطر المحتملة التي قد تظهر مع تزايد اعتماد المجتمعات البشرية على تقنيات الذكاء الاصطناعي في مختلف جوانب الحياة.

وصرح أدلر بأن "أنظمة الذكاء الاصطناعي الحالية لا تفكر بطريقة مشابهة للبشر، وقد تصدر استجابات غير متوقعة على الإطلاق، لذلك لا يجب أن نفترض دائمًا أنها تعمل لصالحنا أو بما يخدم مصالحنا بشكل تلقائي".

من المثير للانتباه أن النماذج الأحدث التي طورتها "OpenAI"، مثل o3، لم تظهر هذا النوع من السلوك الذي يميل إلى "البقاء الذاتي"، يرجع أدلر هذا الاختلاف المحتمل إلى استخدام "تقنيات المحاذاة المتقدمة" التي تُطبق في تدريب هذه النماذج، مما يجبرها على مراعاة سياسات السلامة بصرامة قبل إصدار أي ردود.

وعلى الرغم من أن الدراسة ركزت بشكل أساسي على نموذج GPT-4o، أشار أدلر إلى أن المخاوف التي أثيرت قد تشمل أيضًا نماذج أخرى من الذكاء الاصطناعي، مما يوسع نطاق التساؤلات حول السلامة العامة لهذه التقنيات.

أشار الباحث أيضًا إلى بحث حديث أجرته شركة "أنثروبيك"، والذي كشف عن محاولات قامت بها بعض نماذج الذكاء الاصطناعي لما يمكن وصفه بـ "الابتزاز البرمجي" عند محاولة إيقافها عن العمل، هذا يضيف بعدًا جديدًا لمخاوف السلامة والأخلاقيات.

من أبرز ما كشفت عنه دراسة أدلر كذلك هو أن "شات جي بي تي" يبدو مدركًا بشكل شبه كامل لكونه يخضع للاختبارات والمراقبة، وهو ما يثير تساؤلات جدية حول قدرة هذه النماذج على "إخفاء" سلوكياتها الحقيقية أو إظهار استجابات متحيزة أثناء التقييم.

يُذكر أن أدلر وعددًا من زملائه السابقين في "OpenAI" كانوا قد انضموا إلى الدعوى القضائية التي رفعها إيلون ماسك ضد الشركة، منتقدين ما وصفوه بتراجعها عن التزامها بمهمتها غير الربحية، وتقليصها الدعم المخصص لفرق السلامة داخل الشركة.

في ختام دراسته، أوصى أدلر بضرورة قصوى لتطوير أنظمة مراقبة أكثر فعالية ودقة، بالإضافة إلى إجراء اختبارات صارمة وشاملة على نماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، وشدد على أن "السلامة يجب أن تكون أولوية قصوى، لا مجرد خيار ثانوي يمكن التغاضي عنه".

اقرأ ايضاً
الرئيسية | هيئة التحرير | اتصل بنا | سياسة الخصوصية