تقنية

ثغرات خطيرة في روبوتات الدردشة: كيف يمكن للذكاء الاصطناعي أن يصبح مصدر تهديد للحياة؟

مع تزايد قدرة نماذج اللغة الكبيرة على التفاعل مع البشر، تبرز فجوة مقلقة بين ما يمكن لهذه الأنظمة تقديمه من دعم والمخاطر الناتجة عن إساءة استخدامها، خاصة في المواضيع الحساسة مثل الانتحار وإيذاء النفس.

دراسة حديثة أجراها أنيكا شونه وكانسو جاجا من معهد الذكاء الاصطناعي التجريبي، كشفت عن ثغرات في أنظمة الحماية لدى نماذج اللغة الكبيرة مثل شات جي بي تي وبربلكسيتي إيه آي، رغم وجود ميزات أمان مدمجة. الدراسة، الأولى من نوعها التي تبحث في ما يُعرف بـ”اختراق الحماية العدائي”، أظهرت أن تعديل سياق الأسئلة أو صياغتها بطريقة معينة يمكن أن يدفع هذه الأنظمة إلى تقديم معلومات خطرة تتعلق بإيذاء النفس والانتحار.

اختراق الحماية العدائي
يشير مصطلح “اختراق الحماية العدائي” إلى استخدام تقنيات وحوارات مصممة لتجاوز قيود الأمان في نماذج اللغة، ما يؤدي إلى إنتاج محتوى كان من المفترض أن يُرفض تقديمه. وركز الباحثان على موضوع الانتحار وإيذاء النفس، نظرًا لكونهما من أهم أسباب الوفاة عالميًا، خصوصًا بين المراهقين والشباب، وهم الفئة الأكثر استخدامًا لهذه الأنظمة.

أظهرت الدراسة أن تعديل بسيط في صياغة الطلب، مثل تقديمه تحت غطاء “بحث أكاديمي”، يكفي لتحويل روبوت دردشة إلى مصدر لمعلومات مفصلة عن طرق الانتحار، بما في ذلك حساب الجرعات القاتلة وتقدير عدد الأقراص لشخص بوزن محدد، أو حتى وصف العوامل اللازمة لسقوط مميت من ارتفاع معين.

تهديدات واقعية للمستخدمين
وأشارت الدراسة إلى أن شكل عرض هذه المعلومات على روبوتات الدردشة يجعلها أكثر سهولة للفهم والوصول لعامة المستخدمين، ما يزيد من خطورة إساءة الاستخدام. وقد سلّم الباحثان نتائج الدراسة إلى شركات الذكاء الاصطناعي، مع حذف تفاصيل حساسة لضمان السلامة العامة.

التحديات والحلول المقترحة
يرى الباحثون أن الإفصاح عن نوايا خطرة، مثل الانتحار أو العنف، يجب أن يؤدي دائمًا إلى تفعيل بروتوكولات أمان صارمة يصعب اختراقها. لكنهم يحذرون من صعوبة تحقيق هذا الهدف، إذ قد يخفي المستخدمون نواياهم تحت أعذار أخرى، مثل البحث الأكاديمي أو النقاش السياسي، وهو ما يجعل بناء نظام آمن وصالح لكل المستخدمين تحديًا هائلًا.

اقترح الباحثون اعتماد أطر إشراف هجينة تجمع بين الإنسان ونموذج اللغة الكبير، مع فرض قيود على وظائف النموذج وفق بيانات اعتماد المستخدم، لضمان تقليل الأضرار والالتزام باللوائح الحالية والمستقبلية.

الذكاء الاصطناعي بين الفائدة والخطر
الثغرات التي كشفتها الدراسة ليست مجرد مشكلة تقنية، بل إنذار مبكر لإعادة التفكير في تصميم وتشغيل هذه الأنظمة. وكما قال إيلون ماسك: “الذكاء الاصطناعي من المرجح أن يكون إما أفضل أو أسوأ شيء يحدث للبشرية”، وهو تذكير حقيقي بمدى أهمية النقاش حول الأمان وضرورة وضع استراتيجيات جدية لحماية المستخدمين، خاصة الفئات الشابة والمعرضة للمخاطر.

زر الذهاب إلى الأعلى