“نص خبر” – متابعة
بالنسبة إلى كثيرين، أظهرت حرب غزة أن استعمال الجيش الإسرائيلي للذكاء الاصطناعي لم ينجح كثيراً في تفادي سقوط ضحايا مدنيين، على نطاق واسع.
وفي العام 2021، دار صراع مسلح استمر 11 يوماً في غزة ووُصِف بأنه أول “حرب ذكاء اصطناعي”، أشارت “منظمة العفو الدولية” إلى إخضاع الفلسطينيين لعمليات مسح للتعرف على الوجوه، تضمن آلية ألوان مُرَمَّزة تساعد الجنود عند حواجز التفتيش على اتخاذ قرارهم بشأن الأفراد الراغبين في العبور.
تعتبر القدرة العسكرية مؤشراً على “قوة السلطة” في الدول. وتُعرِّف بأنها القدرة على تحقيق الفوز في حرب أو معركة، أو تدمير مجموعة أهداف.
ومن المتوقع أن تؤدي أنظمة الذكاء الاصطناعي دوراً حاسماً في المواجهات العسكرية بين الدول في المسقبل القريب. وغالباً ما تكون الأنظمة العسكرية عرضة لهجمات سيبرانية تستهدف الوصول إلى معلومات سرية أو إلحاق الضرر بمعدات عسكرية. ومع ذلك، تسهم أنظمة الذكاء الاصطناعي في حماية الشبكات وأجهزة الكمبيوتر والبرامج والبيانات، من استهدافات متنوعة.
وكذلك تشمل تطبيقات للذكاء الاصطناعي التعرف على الكلام، والمصادقة البيومترية، وخرائط الهاتف المحمول، وأنظمة المواصلات والنقل والتحكم في حركة المرور، والإدارة، والتصنيع، وإدارة سلسلة التوريد، وجمع البيانات وغيرها.
واستناداً إلى تلك القدرات، ليس مفاجئاً أن يتمدد الذكاء الاصطناعي وتطبيقاته المتنوعة في القطاع العسكري أيضاً.
وتحصل الأنظمة الذكية على بيانات تأتيها من مجموعة واسعة من الموارد، وتتمتع أيضاً بإمكانية تنفيذ مهام معقدة ومتنوعة جمع المعلومات الاستخبارية، وتركيب نماذج افتراضية للتدريب على القتال، إضافة إلى الإسهام في اتخاذ القرارات العسكرية.
ولا يخفى عن الدول والجيوش المخاطر المحتملة المرتبطة باستخدام الذكاء الاصطناعي في المجال العسكري كالتعرض للخلل والقرصنة والهجمات الإلكترونية وغيرها.
وتعتبر النماذج الذكية المصممة للتدريب على القتال مجالاً متعدد التخصصات يجمع بين هندسة النظم وهندسة البرمجيات وعلوم الكمبيوتر. ويشار إلى أن الولايات المتحدة الأميركية تستثمر بشكل متزايد في مجال تطبيقات المحاكاة الافتراضية المصممة للتدريب.
وثمة ميل عالمي واسع لدمج الذكاء الاصطناعي في منظومات متنوعة من الأسلحة التي تستخدمها القوات البرية والبحرية والجوية والفضائية. وبالتدريج، يتقلص التدخل البشري في تلك المنظومات، ويثير ذلك أسئلة شائكة.
وربما يفيد التذكير أيضاً بوجود مروحة واسعة من تطبيقات الذكاء الاصطناعي تشمل روبوتات الدردشة، والطائرات الآلية بدون طيار، والمساعدين الافتراضيين، والأتمتة المعرفية، والتنصت على المكالمات والاتصالات، والتعرف على أصحاب المحادثات (عبر بصمة الصوت للأشخاص الموضوعين تحت الرصد) إضافةً إلى التطبيقات التنبؤية. ومثلاً، يمكن للمسيَّرات الجوية الذكية إنجاز مهمات استطلاعية وجمع معلومات محددة عن التهديدات ورصد أنماط التحركات المختلفة، مع نقل تلك المعلومات إلى الجهات المعنية بها.
وبالاستناد إلى تلك المعطيات، يتبيّن أن الاستخدام العسكري للذكاء الاصطناعي يحمل أبعاداً متنوعة، من بينها البعد الأخلاقي.
وتتضمن المخاوف الأخلاقية إمكانية قيام منظومات الأسلحة المستقلة باتخاذ قرارات بالقتل، من دون إشراف بشري.
وكذلك تشكل الموثوقية تحدياً رئيسياً في المنظومات العسكرية للذكاء الاصطناعي لأن حُسنْ عملها يعتمد بشكل كبير على جودة وكمية البيانات التي استُخدِمَتْ في تدريب تلك المنظومات بالأصل. وهناك دائماً خطر حدوث أخطاء وتحيز في تلك البيانات، وبالتالي، قد تنتقل إلى مخرجات وأعمال منظومات الذكاء الاصطناعي. وإذا حدث ذلك مثلاً في العمليات العسكرية، فإنها قد تحدث أخطاء يستحيل الرجوع عنها كالقتل والتدمير.
في مسار آخر، غالباً ما تعمل المنظومات العسكرية للذكاء الاصطناعي بالترابط مع بعضها البعض، وكذلك مع تطبيقات غير عسكرية، ما يجعلها عرضة للهجمات السيبرانية أيضاً. وهناك نوع من الهجمات تسمّى بالعدائية، إذ تعمل عبر ضخ بيانات معينة إلى أنظمة الذكاء الاصطناعي كي تستخلص منها نتائج غير صحيحة، على غرار الخطأ في تحديد الأهداف أو تقديم معلومات مضللة وخاطئة والتجسس.
ومع القدرات الضخمة للذكاء الاصطناعي وتغلغله في المشهد التكنولوجي العسكري ومنظوماته واستراتيجياته وآلياته اللوجستية وغيرها، تتزايد أهمية إنشاء أطر تشريعية عنه. وقد بات البعد القانوني والتشريعي من المسؤوليات التي لم يعد ممكناً للدول والحكومات التهرب من مسؤولياتها فيها.