أغلبية أممية تؤيد فرض قيود على استخدام الروبوتات عسكريا.. وأمريكا وروسيا في المعارضة

السبت 18 ديسمبر 2021 11:31 ص

أيدت غالبية الدول الـ 125 الموقعة على اتفاقية الأسلحة التقليدية المعينة فرض قيود على استخدام الروبوتات عسكريا، بينما واجهت معارضة من قبل الأعضاء الذين يعملون على تطوير هذه الأسلحة، خاصة الولايات المتحدة وروسيا.

جاء ذلك في اجتماع لخبراء الذكاء الاصطناعي والاستراتيجيات العسكرية ونزع السلاح، عقدته الأمم المتحدة في جنيف، أمس الجمعة، بهدف تنظيم أو حظر الأسلحة ذاتية التشغيل، التي تشهد تطورا تكنولوجيا كبيرا.

واتفاقية الأسلحة التقليدية المبرمة عام 1980، تحظر أو تقيد الأسلحة التي تسبب إصابات مفرطة أو معاناة لا مبررة، بالإضافة إلى الأسلحة عشوائية الأثر مثل المتفجرات الحارثة وأشعة الليزر المسبب للعمى.

ولا تحتوي هذه الاتفاقية على أي أحكام متعلقة بما يسمى بـ"الروبوتات القاتلة"، وفقا لما أوردته صحيفة "نيويورك تايمز".

واعتبر خبراء نزع السلاح الاجتماع الأممي أفضل فرصة لابتكار طرق لتنظيم أو حظر استخدام الروبوتات القاتلة بموجب اتفاقية مكافحة الإرهاب، لكن الخبراء لم يتمكنوا حتى من التوصل إلى اتفاق بشأن المسائل الأساسية التي تساهم في تحديد التحديات والأساليب الممكنة للحد من تهديدات الروبوتات القاتلة.

تختلف الآراء حول التعريف الدقيق للروبوتات القاتلة، لكن التعريف الأبرز يتمثل في أنها أسلحة تتخذ القرارات دون مشاركة بشرية أو مشاركة بشرية ضئيلة معتمدة على الذكاء الاصطناعي.

ولا تعتبر الطائرات بدون طيار، التي استخدمتها الولايات المتحدة على نطاق واسع في أفغانستان والعراق وأماكن أخرى روبوتات؛ لأنها تدار عن بعد من قبل أشخاص يختارون الأهداف ويقررون إطلاق النار.

وبالنسبة لمخططي الحرب، تقدم الأسلحة ذاتية التشغيل وعدا بإبقاء الجنود بعيدا عن الأذى، واتخاذ قرارات أسرع من الإنسان، من خلال إعطاء المزيد من المسؤوليات في ساحة المعركة للأنظمة المستقلة مثل الطائرات بدون طيار والدبابات ذاتية القيادة التي تقرر بشكل مستقل أين ومتى تضرب.

ويجادل المنتقدون بأنه من البغيض أخلاقيا إسناد اتخاذ القرارات المميتة للآلات، بغض النظر عن التطور التكنولوجي، ويتساءلون: "كيف تفرق الآلة بين بالغ وطفل، أو بين مدني وعسكري، أو بين جندي جريح أو مستسلم؟".

وفي السياق، قال رئيس اللجنة الدولية للصليب الأحمر "بيتر مورير"، وهو معارض صريح للروبوتات القاتلة: "بشكل أساسي، تثير أنظمة الأسلحة ذاتية التشغيل مخاوف أخلاقية للمجتمع بشأن استبدال القرارات البشرية المتعلقة بالحياة والموت بأجهزة الاستشعار والبرمجيات والعمليات الآلية".

وقبل مؤتمر جنيف، دعت منظمة "هيومن رايتس ووتش" والعيادة الدولية لحقوق الإنسان التابعة لكلية هارفارد للقانون إلى اتخاذ خطوات نحو اتفاقية ملزمة قانونا تتطلب السيطرة البشرية على الأسلحة في جميع الأوقات.

وجادلت هذه المجموعات بـ"افتقار الروبوتات إلى التعاطف والرحمة والحكم الضروري لمعاملة البشر بطريقة إنسانية".

وفي المقابل، تصر دول مثل روسيا، على أن أي قرار يجب أن يكون بالإجماع، فيما تجادل الولايات المتحدة بأن القوانين الدولية الحالية كافية، وأن حظر تكنولوجيا الأسلحة ذاتية التشغيل سيكون سابقا لأوانه.

واقترح مندوب الولايات المتحدة الرئيسي في المؤتمر "جوشوا دوروسين" عمل "مدونة سلوك" غير ملزمة لاستخدام الروبوتات القاتلة، وهي فكرة رفضها دعاة نزع السلاح باعتبارها تكتيكا للمماطلة.

واستثمر الجيش الأمريكي بكثافة في الذكاء الاصطناعي، حيث عمل مع أكبر شركات الأسلحة، بما في ذلك لوكهيد مارتن، وبوينج، ورايثيون، ونورثروب جرومان.

وشمل العمل مشاريع لتطوير صواريخ بعيدة المدى تكشف عن الأهداف المتحركة بناءً على ترددات الراديو، وطائرات بدون طيار يمكنها تحديد هدف ومهاجمته، وأنظمة دفاع صاروخي آلية، وفقا لبحث أجراه معارضو أنظمة الأسلحة.

المصدر | الخليج الجديد + متابعات

  كلمات مفتاحية

الروبوتات القاتلة الأمم المتحدة الذكاء الاصطناعي