تحول جنگ در قرن بیستویکم، تنها در سطح ابزارها رخ نداده است؛ بلکه در عمق ماهیت تصمیمگیری در مخاصمات تغییر ایجاد کرده است. اگر در گذشته، تصمیم به حمله یا عدم حمله در نهایت به اراده انسانی گره میخورد، امروز این اراده در لایههایی از داده، تحلیل و پردازش الگوریتمی بازتعریف شده است. این تغییر، پرسشهای بنیادینی را در حقوق بینالملل بشردوستانه ایجاد کرده است؛ بهویژه زمانی که پای آسیبپذیرترین گروه انسانی یعنی کودکان در میان باشد.
کودکان در نظام حقوق بینالملل، نه صرفاً غیرنظامی، بلکه گروهی با «حمایت ویژه مضاعف» محسوب میشوند. این حمایت ویژه بر این پیشفرض استوار است که کودک فاقد توان دفاع، تحلیل و مشارکت در منازعه است. اما زمانی که فرآیندهای نظامی بهسمت اتوماسیون و تصمیمسازی الگوریتمی حرکت میکنند، ماهیت تهدید نیز تغییر میکند؛ تهدید دیگر صرفاً از «انسانِ تصمیمگیر» ناشی نمیشود، بلکه از ترکیب پیچیدهای از داده، کد و تفسیر ماشینی شکل میگیرد. در چنین ساختاری، یکی از چالشهای جدی، مسئله «تشخیص هدف» است. نظامهای مبتنی بر هوش مصنوعی، با تحلیل حجم عظیمی از دادههای میدانی، رفتاری و تصویری، تلاش میکنند الگوهایی برای شناسایی اهداف نظامی تولید کنند. اما این فرآیند، ذاتاً مبتنی بر احتمالات و مدلهای آماری است، نه ادراک انسانی از زمینه، فرهنگ و بافت اجتماعی. در نتیجه، خطر خطا نه یک استثنا، بلکه بخشی از ماهیت این سیستمهاست.
در چنین شرایطی، اگر یک مکان غیرنظامی از جمله مدرسه یا فضای آموزشی کودکان بهاشتباه در طبقهبندی نظامی قرار گیرد، پیامد آن صرفاً یک «خطای فنی» نیست، بلکه یک مسئله عمیق حقوقی و اخلاقی است. زیرا آنچه در معرض آسیب قرار میگیرد، صرفاً یک زیرساخت نیست، بلکه آینده یک نسل است. از منظر حقوق بینالملل بشردوستانه، اصولی مانند تفکیک، تناسب و احتیاط، برای کنترل خشونت در جنگ طراحی شدهاند. اما این اصول، بر فرض وجود «تصمیمگیر انسانی قابل شناسایی» استوارند. در حالی که در جنگهای مبتنی بر هوش مصنوعی، زنجیره تصمیمگیری بهگونهای توزیع شده است که مرز میان «تصمیم» و «محاسبه» بهتدریج محو میشود. این وضعیت، چالش مستقیمی برای قابلیت اجرای این اصول ایجاد میکند.
در این میان، مسئله کودکان اهمیت مضاعف پیدا میکند. زیرا آثار خطا در چنین نظامهایی، صرفاً به لحظه وقوع حمله محدود نمیشود. تخریب فضاهای آموزشی، از بین رفتن احساس امنیت روانی، و گسست در فرآیند اجتماعی شدن کودک، پیامدهایی هستند که سالها پس از پایان درگیری نیز ادامه مییابند. به بیان دیگر، کودک تنها در لحظه هدف قرار نمیگیرد، بلکه در زمان آینده نیز تحت تأثیر آن تصمیم باقی میماند. از منظر حقوقی، یکی از پیچیدهترین مسائل، مسئله مسئولیت است. در نظام سنتی حقوق جنگ، مسئولیت قابل انتساب به فرمانده، دولت یا نیروی انسانی مشخص بود. اما در ساختارهای مبتنی بر هوش مصنوعی، این زنجیره مسئولیت چندلایه و پراکنده میشود: از طراح الگوریتم گرفته تا اپراتور نظامی و نهاد تصمیمگیر. این پراکندگی، خطر نوعی «بیمسئولیتی ساختاری» را ایجاد میکند؛ وضعیتی که در آن، همه در فرآیند نقش دارند، اما هیچکس بهطور کامل پاسخگو نیست.
در کنار این مسئله، یک تحول مهم دیگر نیز رخ داده است: فاصله گرفتن تصمیم جنگی از تجربه انسانی. هرچه نقش ماشین در تصمیمگیری پررنگتر میشود، فاصله میان تصمیمگیر و پیامد انسانی آن افزایش مییابد. این فاصله، بهطور مستقیم بر حساسیت اخلاقی تصمیمگیری اثر میگذارد و خطر عادیسازی خشونت را بالا میبرد. در چنین وضعیتی، رنج کودک ممکن است در لایهای از داده و تحلیل پنهان شود و به یک «خروجی آماری» تقلیل یابد. از منظر حقوق کودک، این تحول یک چالش جدی ایجاد میکند: چگونه میتوان از حق بر زندگی، آموزش و امنیت کودک در ساختاری محافظت کرد که تصمیمگیری در آن از منطق انسانی فاصله گرفته است؟ پاسخ به این پرسش، صرفاً در اصلاح تکنیکی سیستمها نیست، بلکه در بازتعریف رابطه میان فناوری، مسئولیت و کرامت انسانی نهفته است.
در نهایت، آنچه امروز در برابر حقوق بینالملل قرار دارد، صرفاً مسئله «استفاده از فناوری در جنگ» نیست، بلکه مسئله «قابلیت پاسخگویی در عصر تصمیمهای غیرانسانی» است. اگر حقوق بینالملل نتواند برای این وضعیت پاسخ روشنی ارائه دهد، خطر آن وجود دارد که کودکان، بهعنوان آسیبپذیرترین گروه، در نقطه تلاقی فناوری و مخاصمه، بیش از پیش از دایره حمایت واقعی خارج شوند. پرسش بنیادین همچنان پابرجاست: وقتی تصمیم به مرگ یا بقا از مسیر یک الگوریتم عبور میکند، جایگاه کودک در نظام حقوقی کجاست در مرکز حمایت، یا در حاشیه محاسبه؟
* حقوقدان، مدرس دانشگاه و پژوهشگر حقوق بینالملل کودکان




نظر شما