نظرا للتطورات المتلاحقة في مجال الصناعات الحربية والتي أضحت تعتمد بشكل رئيسي على استخدام التكنولوجيا الحديثة في صناعة الأسلحة بمختلف أنواعها وانعكس ذلك التطور التقني المتسارع إلي إنتاج أجيال من الأسلحة والمعدات الحربية تعمل بتقنية الذكاء الإصطناعي في مختلف الأنشطة والمجالات الحربية كجمع المعلومات الإستخباراتية وعمليات الإستطلاع عن طريق الردارات الذكية وعمليات نقل المعدات الحربية، وأعمال البحث عن الألغام ورصد وإصابة الأهداف العسكرية من خلال الطائرات المسيرة التي تعمل بدون طيار وغيرها.
إن خاصية التشغيل الذاتي الكامل لهذه الأنظمة تثير تحديات على الصعيدين الأخلاقي والقانوني بسبب الاّثار المترتبة علي دخولها العمليات العسكرية حيث تكون هذه الأسلحة قادرة على اتخاذ قرارا باستعمال قوة فتاكة, فهل يعتبر مقبولا من الناحية الأخلاقية أن تتولى آلة مجردة من الإحساس اتخاذ قرار بإصابة فرد بالعجز أو إزهاق روحه أو قتل طفل أو إمرأة أو مسن ليس لدية ثمة قدرة علي حمل سلاح أو قتل حيوان خلقه الله لأجل نفع البشر أو تدمير بيئة سكنية تحوي مزروعات ومنازل ومحطات مياة وكهرباء ومدارس وغيرها وما موقف القانون الدولي والمنظمات الدولية من ذلك؟
ومن هذا المنطلق أحاول من خلال هذه الدراسة إلقاء الضوء على: بيان مفهوم الأسلحة الذكية، أثر استخدامها على الإنسان (قائد – مجند – مبرمج – مدني) البعد القانوني والأخلاقي لاستعمال هذه الأسلحة الذكية، موقف القانون الدولي والمنظمات الدولية والقانون الدولي الإنساني والقانون الدولي لحقوق الإنسان من استخدام هذه الأسلحة في النزاعات المسلحة.
Abstract:
The rapid advancements in the field of military industries, heavily reliant on modern technology, have led to the development of advanced weaponry and equipment incorporating artificial intelligence (AI) across various military activities. These include intelligence gathering, reconnaissance through smart radar systems, transportation of military equipment, mine detection, and targeting through unmanned aerial vehicles (UAVs) and other autonomous systems.
The autonomous operation of these systems raises profound ethical and legal challenges due to the consequences of their deployment in military operations. These systems can make lethal decisions autonomously. This raises the question: Is it ethically acceptable for a machine devoid of human empathy to decide to incapacitate or kill a person, or to destroy civilian infrastructure such as homes, water stations, power plants, schools, and farms, or even kill animals created for the benefit of humanity? Furthermore, what is the stance of international law and global organizations regarding such scenarios?
This study aims to shed light on the following: the concept of smart weapons, their impact on humans (commanders, soldiers, programmers, and civilians), the legal and ethical dimensions of their use, and the position of international law, international humanitarian law, and international human rights law on the deployment of these weapons during armed conflicts.