كشفت دراسة جديدة أجراها باحثون في جامعة ستانفورد أن وكيلًا أمنيًا مدعومًا بالذكاء الاصطناعي يمكنه منافسة والتفوّق أحيانًا على قراصنة بشريين ذوي خبرة.
وخلال الدراسة اختبر الباحثون وكيل ذكاء اصطناعي يُدعى ARTEMIS في مواجهة مع 10 مختصين مختارين بعناية في مجال الأمن السيبراني. وخلال التجربة، حلّ ARTEMIS في المرتبة الثانية، وتمكّن من اكتشاف ثغرات أمنية لم ينتبه إليها بعض البشر، وذلك في أثناء تعامله مع عدة مشكلات في الوقت نفسه.
وبحسب موقع Business Insider، أمضى ARTEMIS نحو 16 ساعة في فحص الشبكات العامة والخاصة لقسم علوم الحاسوب في جامعة ستانفورد. وقام بالبحث في آلاف الأجهزة عن ثغرات أمنية، وفي نهاية الاختبار كان أداؤه أفضل من معظم المختبرين البشر، وبتكلفة أقل بكثير.
إذ تبلغ تكلفة تشغيل ARTEMIS قرابة 18 دولارًا في الساعة، مقارنة بمتوسط تكلفة سنوية تقارب 125 ألف دولار لتشغيل مختبر اختراق محترف. وحتى تكلفة تشغيل أكثر وكلاء الذكاء الاصطناعي تقدمًا التي تتطلب نحو 59 دولارًا في الساعة، تظل أقل من تكلفة من توظيف خبير بشري رفيع المستوى.
تفاصيل الدراسة
قاد الدراسة باحثون في جامعة ستانفورد، هم: Justin Lin، و Eliot Jones، و Donovan Jasper، وهم الذين طوّروا وكيل ARTEMIS بعد أن لاحظوا أن أدوات الذكاء الاصطناعي الحالية تواجه صعوبة في التعامل مع المهام الأمنية الطويلة والمعقّدة.
وخلال الاختبار، مُنح وكيل الذكاء الاصطناعي حق الوصول إلى شبكة ستانفورد التي تضم نحو 8000 جهاز، منها: الخوادم وأجهزة الحاسوب والأجهزة الذكية. وطُلب من المختبرين البشر العمل لمدة لا تقل عن 10 ساعات، وأما ARTEMIS فقد عمل لمدة تصل إلى 16 ساعة على مدار يومين. ولضمان العدالة، قارن الباحثون فقط أول 10 ساعات من عمل الذكاء الاصطناعي بأداء المختبرين البشر.
وخلال تلك المدة، اكتشف ARTEMIS تسع ثغرات أمنية حقيقية، وحقق معدل نجاح بلغ 82% في منح التقارير الصحيحة، متفوقًا بذلك على 9 من أصل 10 مشاركين بشر. كما أن بعض الثغرات التي اكتشفها لم ينتبه إليها الخبراء.
ومع ذلك، لم يكن أداؤه مثاليًا بالكامل، فقد أفادت صحيفة وول ستريت جورنال بأن نحو 18% من الإنذارات المتعلقة بالثغرات الأمنية التي قدّمها الوكيل كانت إنذارات كاذبة. كما فشل في اكتشاف ثغرة واضحة في إحدى صفحات الويب، تمكّن معظم المختبرين البشر من تحديدها بسرعة.
الجانب المظلم لتطور الذكاء الاصطناعي
في المقابل، تثير التطورات السريعة في الذكاء الاصطناعي مخاوف متزايدة فيما يتعلق بالأمن السيبراني؛ إذ إن الأدوات المعتمدة على هذه التقنية خفّضت الحواجز أمام عمليات الاختراق ونشر المعلومات المضللة؛ مما سهّل للمجرمين تنفيذ هجمات واسعة النطاق. وبما أن وكلاء الذكاء الاصطناعي يمكن توجيههم باستخدام لغة بسيطة، فيمكن للأشخاص ذوي المهارات التقنية المحدودة أن يصبحوا قادرين على إحداث أضرار جسيمة.
وقد كشف تقرير صادر عن شركة Anthropic أن عملاء من كوريا الشمالية استخدموا نموذج الذكاء الاصطناعي Claude للحصول على وظائف عمل من بُعد وهمية في شركات تقنية أميركية كبرى؛ مما منحهم إمكانية الوصول إلى أنظمة داخلية. وأشار التقرير نفسه إلى أن مجموعة من الصين استخدمت النموذج للمساعدة في شن هجمات سيبرانية استهدفت قطاعات الاتصالات والزراعة وجهات حكومية في فيتنام.
وردًّا على ذلك، بدأت كبرى شركات الذكاء الاصطناعي بإضافة إجراءات وقائية. فقد طوّرت مايكروسوفت أدوات لرصد التعليمات المشبوهة. كما تحذّر OpenAI المستخدمين عندما يحاول وكلاء الذكاء الاصطناعي الوصول إلى مواقع حساسة، وتمنع استمرار العملية ما لم يشرف عليها المستخدم بنحو مباشر.
وفي هذا السياق، يدعو بعض خبراء الأمن السيبراني إلى فرض ضوابط أكثر صرامة، مثل اشتراط موافقة المستخدم قبل أن ينفذ وكلاء الذكاء الاصطناعي إجراءات عالية الخطورة، كاستخراج البيانات أو الوصول إلى الحسابات المصرفية.
نسخ الرابط تم نسخ الرابط
المصدر: البوابة العربية للأخبار التقنية




