أهم الموضوعاتأخبارالمدن الذكية

نصوص مضللة يمكنها اختراق السيارات والروبوتات المعتمدة على الذكاء الاصطناعي

من لافتة إلى كارثة محتملة.. نصوص خادعة تعرّض الأنظمة الذاتية للاختراق

كشفت دراسة جديدة في مجال الأمن السيبراني أن النصوص المكتوبة في العالم المادي، مثل اللافتات والملصقات، يمكن أن تُستخدم لاختراق الأنظمة المعتمدة على الذكاء الاصطناعي، بما في ذلك السيارات ذاتية القيادة والروبوتات، والتلاعب بقراراتها وسلوكها.

فعندما تسير سيارة ذاتية القيادة في أحد الشوارع، تعتمد على الكاميرات وأجهزة الاستشعار لرصد البيئة المحيطة، مثل المشاة وإشارات المرور ولافتات الطرق. ثم يقوم الذكاء الاصطناعي بتحليل هذه المدخلات البصرية لاتخاذ قرارات آمنة أثناء القيادة. غير أن هذه القدرة نفسها على قراءة النصوص قد تتحول إلى نقطة ضعف خطيرة.

وأوضحت الدراسة أن نصوصًا موضوعة بعناية على لافتات أو جدران أو أجسام في البيئة يمكن أن تُفسَّر من قبل أنظمة الإدراك في الذكاء الاصطناعي على أنها أوامر مباشرة، ما يتيح لمهاجمين محتملين التأثير في سلوك الأنظمة الذاتية من خلال العالم الحقيقي، دون الحاجة إلى اختراق رقمي مباشر.

الدراسة، التي قادها البروفيسور ألفارو كارديناس، أستاذ علوم وهندسة الحاسوب بجامعة كاليفورنيا في سانتا كروز، بالتعاون مع الأستاذ المساعد تشيهانغ شيه، تُعد أول بحث أكاديمي يتناول هذا النوع من التهديدات، والذي أطلق عليه الباحثون اسم «هجمات الحقن غير المباشر عبر البيئة» ضد أنظمة الذكاء الاصطناعي المجسّد.

وبيّن الباحثون أن هذه الهجمات قادرة على اختطاف عملية اتخاذ القرار لدى الأنظمة الذاتية، مثل السيارات والطائرات المسيّرة، كما عرضوا مسارات أولية لتطوير وسائل دفاعية للحد من هذه المخاطر الناشئة.

ومن المقرر عرض نتائج البحث في مؤتمر IEEE الدولي للتعلم الآلي الآمن والموثوق لعام 2026، فيما نُشرت الدراسة حاليًا على منصة arXiv للأبحاث العلمية.

وقال كارديناس: «كل تقنية جديدة تأتي معها نقاط ضعف جديدة. دورنا كباحثين هو استباق هذه المخاطر وتصميم وسائل حماية قبل أن يتم استغلالها».

ويشير مفهوم «الذكاء الاصطناعي المجسّد» إلى الأنظمة التي تعمل في العالم الفيزيائي، مثل السيارات ذاتية القيادة، والروبوتات، والطائرات المسيّرة، وهي أنظمة بدأت بالفعل في الانتشار على نطاق واسع. وتعتمد هذه الأنظمة بشكل متزايد على نماذج لغوية-بصرية ضخمة، قادرة على معالجة الصور والنصوص معًا، ما يساعدها على التعامل مع المواقف غير المتوقعة في البيئات الحقيقية.

وانطلقت فكرة البحث من اقتراح قدّمه طالب دراسات عليا خلال مقرر أكاديمي في أمن الأنظمة، حيث بدأ الفريق في دراسة كيفية انتقال هجمات «حقن الأوامر»، المعروفة في نماذج الذكاء الاصطناعي النصية مثل روبوتات الدردشة، إلى العالم الفيزيائي.

وطوّر الباحثون إطارًا للهجوم أطلقوا عليه اسم CHAI، وهو اختصار لـ «اختطاف الأوامر ضد الذكاء الاصطناعي المجسّد». ويتكوّن هذا الإطار من مرحلتين: الأولى تحسين صياغة النصوص باستخدام الذكاء الاصطناعي لزيادة احتمالية تنفيذ النظام للأوامر، والثانية تحسين طريقة عرض النص في البيئة من حيث الموقع والحجم واللون.

واختبر الفريق هذه الهجمات على سيناريوهات متعددة، شملت سيارات ذاتية القيادة وطائرات مسيّرة تنفذ مهام بحث أو هبوط اضطراري، ونجحوا في تضليل الأنظمة ودفعها لاتخاذ قرارات غير آمنة، مثل الاصطدام أو الهبوط في أماكن غير مناسبة.

كما أثبتت التجارب أن هذه الهجمات يمكن تنفيذها فعليًا في العالم الحقيقي، وليس فقط داخل المحاكيات، ما يبرز حجم التهديد المحتمل.

ويعمل الباحثون حاليًا على تطوير وسائل دفاعية، من بينها التحقق من صحة التعليمات النصية التي تلتقطها الأنظمة الذكية، وضمان توافقها مع مهام الروبوت ومتطلبات السلامة.

مقالات ذات صلة

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.

زر الذهاب إلى الأعلى

اكتشاف المزيد من المستقبل الاخضر

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading