نظرة عامة
يستهدف شكل جديد وخطير بشكل خاص من هجمات سلسلة التوريد حالياً مستودعات البرامج واسعة الاستخدام، بما في ذلك GitHub و NPM و Open VSX. اكتشف باحثون في Aikido Security هذا التهديد الذي يستغل ‚التعليمات البرمجية غير المرئية‘ لتجاوز الإجراءات الأمنية التقليدية، مما يتحدى أسس سلامة البرمجيات. تتضمن هجمات سلسلة التوريد التقليدية عادةً تحميل حزم خبيثة تحاكي مكتبات التعليمات البرمجية الشائعة، على أمل أن يدمجها المطورون عن طريق الخطأ في مشاريعهم. وبينما كانت هذه الهجمات تمثل تحدياً مستمراً لما يقرب من عقد من الزمان، فإن التقنية الجديدة تقدم طبقة من التخفي لم يسبق لها مثيل.
بين 3 و 9 مارس وحدهما، حددت Aikido 151 حزمة خبيثة من هذا النوع. يكمن الابتكار في الاستخدام الانتقائي لأحرف يونيكود التي تظهر غير مرئية في معظم محررات التعليمات البرمجية الطرفية وواجهات المراجعة القياسية. بينما يبدو الجزء الأكبر من التعليمات البرمجية طبيعياً وقابلاً للقراءة، فإن الوظائف الخبيثة والحمولات الفعلية – العلامات الدالة على الاختراق – مخفية بذكاء داخل هذه الأحرف غير المرئية. وهذا يجعل مراجعات التعليمات البرمجية اليدوية والعديد من الدفاعات الآلية عديمة الفائدة تقريباً، حيث إنها ‚لا ترى شيئاً‘ حيث تقيم التعليمات البرمجية الخطيرة القابلة للتنفيذ بصمت. يتطلب هذا التطور في تعقيد الهجوم اهتماماً فورياً وإعادة تقييم لنماذج الأمن الحالية.
التأثير على مشهد الذكاء الاصطناعي
تمتد تداعيات هجوم ‚التعليمات البرمجية غير المرئية‘ هذا بعمق إلى مشهد الذكاء الاصطناعي، مما يشكل مخاطر كبيرة على تطوير ونشر أنظمة الذكاء الاصطناعي. تعتمد مشاريع الذكاء الاصطناعي والتعلم الآلي بشكل كبير على أنظمة بيئية واسعة من المكتبات والأطر والأدوات مفتوحة المصدر المستضافة على منصات مثل GitHub و NPM. من المكتبات الأساسية مثل TensorFlow و PyTorch إلى الحزم المتخصصة لمعالجة اللغة الطبيعية أو الرؤية الحاسوبية، يقوم مطورو الذكاء الاصطناعي بسحب التبعيات الخارجية بشكل متكرر إلى مشاريعهم.
إذا تسللت هذه الحزم المخترقة ذات التعليمات البرمجية غير المرئية إلى مشروع ذكاء اصطناعي، فقد تكون العواقب وخيمة. يمكن حقن وظائف خبيثة في مسارات معالجة البيانات المسبقة، مما يؤدي إلى تسريب البيانات أو حتى تسميم النموذج بشكل خفي، حيث يتم تدريب نموذج الذكاء الاصكناعي على بيانات معالجة لإنتاج مخرجات متحيزة أو غير صحيحة. يمكن إنشاء أبواب خلفية داخل تطبيقات الذكاء الاصطناعي، مما يسمح للمهاجمين بالحصول على وصول أو تحكم غير مصرح به. نظراً للطبيعة الحرجة لأنظمة الذكاء الاصطناعي في مختلف الصناعات، من المركبات ذاتية القيادة إلى الخوارزميات المالية، فإن الطبيعة المتخفية لهذا الهجوم تجعل الكشف عنه صعباً للغاية على مهندسي الذكاء الاصطناعي/التعلم الآلي الذين يديرون بالفعل أشجار تبعية معقدة. تتطلب حماية سلامة الذكاء الاصطناعي الآن يقظة غير مسبوقة ضد هذه التهديدات غير المرئية.
التطبيق العملي
تتطلب مكافحة هذا الجيل الجديد من هجمات التعليمات البرمجية غير المرئية اتباع نهج متعدد الجوانب يتجاوز الممارسات الأمنية التقليدية. بالنسبة للمطورين والمؤسسات، تتمثل الخطوة الأولى في زيادة الوعي بناقل التهديد المحدد هذا. لم يعد الاعتماد فقط على مراجعات التعليمات البرمجية المرئية أو أدوات التدقيق الأساسية كافياً. بدلاً من ذلك، يجب أن تتضمن استراتيجية قوية أدوات تحليل ثابت متقدمة قادرة على فحص التعليمات البرمجية بعمق بحثاً عن أحرف غير قياسية أو مخفية، وقد يتطلب الأمر حتى تحليلاً دلالياً يفهم قصد التعليمات البرمجية بدلاً من مجرد تركيبها.
يعد تطبيق قائمة مكونات البرامج (SBOM) الشاملة لجميع المشاريع أكثر أهمية من أي وقت مضى، مما يسمح للمؤسسات بتتبع كل تبعية ومصدرها بدقة. أصبحت أدوات فحص التبعيات المحسنة التي تبحث تحديداً عن تقنيات التعتيم القائمة على يونيكود ضرورية. علاوة على ذلك، يُنصح بتبني نهج ‚عدم الثقة مطلقاً‘ تجاه حزم الطرف الثالث، حتى تلك من مصادر موثوقة. ويشمل ذلك بيئات بناء معزولة والتحقق الصارم من سلامة الحزم من خلال التوقيعات التشفيرية حيثما توفرت. سيكون تثقيف فرق التطوير حول وجود وآليات هجمات التعليمات البرمجية غير المرئية أمراً بالغ الأهمية لتعزيز ثقافة الأمن الاستباقي وحماية سلامة سلاسل توريد البرمجيات لدينا.
Original source: View original article