در سال های اخیر و در میادین جنگ، هوش مصنوعی نه‌تنها در شناسایی اهداف، بلکه در طراحی نقشه‌های عملیاتی پیچیده و مدیریت هم‌زمان هزاران پهپاد انتحاری نقش کلیدی ایفا می‌کند.

غزال زیاری- در سال‌های اخیر و بعد از ظهور هوش مصنوعی، تدریجاً شاهد نفوذ آن در عرصه نظامی هم بوده‌ایم. تا جایی که استفاده از هوش مصنوعی را می‌توان یک تغییر اساسی در ماهیت و منطق درگیری‌های مسلحانه قرن بیست و یکم دانست.

حالا دیگر اوضاع به نحوی است که می‌توان آن را انقلاب در امور نظامی نامید که میدان نبرد فیزیکی را به یک اکوسیستم داده‌محور تبدیل می‌کند که در آن برتری نه با حجم آتش، بلکه با سرعت پردازش اطلاعات و دقت الگوریتم‌ها تعریف می‌شود. در شرایط فعلی، ادغام هوش مصنوعی در سطوح مختلف جنگ، از تجهیزات انفرادی سربازها گرفته تا سیستم‌های فرماندهی استراتژیک، به واقعیت گریزناپذیری تبدیل شده است. در این مقاله قصد داریم تا به بررسی این موضوع بپردازیم که هوش مصنوعی در جنگ‌های آینده چه نقشی خواهد داشت و درعین‌حال تجربیات عملیاتی به کارگیری هوش مصنوعی در جنگ‌های اخیر به چه ترتیب بوده است.

جنگ‌افزارهای هوشمند: از کمیت به‌سوی «جرم دقیق»

در دکترین‌های نظامی سنتی، همیشه شاهد تقابل کمیت (یعنی تعداد زیاد نیرو و تجهیزات) و کیفیت (تسلیحات گران و دقیق) بوده‌ایم. ولی حالا و با ورود هوش مصنوعی، این موازنه با معرفی مفهوم «جرم دقیق» تغییر کرده.

رویکرد جدید بر استفاده گسترده از سیستم‌های خودمختار و ارزانی مثل پهپادهای انتحاری تمرکز دارد که می‌توانند به‌صورت دسته‌جمعی و با هزینه ناچیزی، پیچیده‌ترین پدافندهای گران دشمن را منهدم کنند.  

فشرده‌سازی زمان تصمیم‌گیری

یکی از مهم‌ترین نتایج ورود هوش مصنوعی به میدان جنگ، فشرده‌سازی زمان تصمیم‌گیری است. به این معنا که فرآیند زنجیره کشتار (شامل مراحل شناسایی، تثبیت، رهگیری و هدف قرار دادن دشمن) که در گذشته ساعت‌ها یا حتی روزها طول می‌کشید، امروز به لطف استفاده از سیستم‌های مبتنی بر هوش مصنوعی، با تحلیل همزمان داده‌های ماهواره‌ای، راداری، سیگنال‌های مخابراتی و فعالیت‌های شبکه‌های اجتماعی، اهداف بالقوه در عرض چند ثانیه شناسایی و اولویت‌بندی می‌شوند.

ویژگی نظامی

مدل سنتی

مدل نوین مبتنی بر هوش مصنوعی

سرعت تصمیم‌گیری

ساعت‌ها تا روزها (تحلیل انسانی)

میلی‌ثانیه تا دقیقه (تحلیل ماشینی)

تولید هدف

محدود و نیازمند تیم‌های بزرگ اطلاعاتی

تولید انبوه (هزاران هدف در روز)

پنهان‌کاری

استفاده از استتار فیزیکی و سکوت رادیویی

شناسایی از طریق الگوهای رفتاری و تحلیل داده‌های کلان

ساختار فرماندهی

سلسله‌مراتبی و متمرکز

شبکه‌ای، توزیع‌شده و خودمختار

سرباز آینده: رویای جنگجوی نامیرا

یکی از سؤال‌های کلیدی در مورد آینده جنگ، نقش سربازان پیاده در مواجهه با ماشین‌هاست.

درحالی‌که افکار عمومی، هوش مصنوعی را جایگزین انسان می‌بیند، اما در دکترین‌ فعلی، متخصصان به دنبال ایجاد اپراتورهای ابر-انسان هستند و این روزها توانمندی‌های فیزیکی و شناختی آن‌ها به‌شدت افزایش‌یافته است.  

پروژه «جنگجوی نیروی آینده» در آمریکا، نمونه‌ای از تلاش برای تبدیل سرباز به یک مهره نامیرا در شبکه دیجیتال جنگ است. این سیستم شامل اسکلت‌های خارجی است که با استفاده از موتورهای نانومشین، قدرت بدنی سرباز را ۲۵ تا ۳۵ درصد افزایش داده و برای او این امکان را فراهم می‌کنند تا بارهای سنگین را بدون احساس خستگی حمل کند.

درعین‌حال، استفاده از زره‌های مایع مبتنی بر سیالات حساس به مغناطیس، باعث می شود تا در صورت ورود هرگونه ضربه به بدن سرباز ، لباسش در کسری از ثانیه از حالت منعطف به حالت کاملاً سخت تبدیل شود.  

هوش مصنوعی در این لباس‌ها وظیفه نظارت لحظه‌ای بر علائم حیاتی سرباز، شامل ضربان قلب، فشارخون، دمای بدن و حتی سطح استرس و هیدراتاسیون را بر عهده دارد. در لایه‌های پیشرفته‌تر، تحقیقات دارپا بر روی «خون هوشمند» (SRBC) متمرکز است؛ منظور از خون هوشمند، گلبول‌های قرمز مهندسی‌شده‌ای است که با بهره‌گیری از مدارهای بیولوژیک، می‌توانند در پاسخ به تهدیدات شیمیایی یا جراحات، به‌صورت خودکار دارو یا پادزهر را در بدن سرباز آزاد کنند. البته باید این را هم در نظر داشت که این مداخلات بیوتکنولوژیک، با چالش‌های اخلاقی متعددی روبروست.

آزمایشگاه غزه: هوش مصنوعی در خدمت ترورهای هدفمند

تجربه جنگ غزه در سال‌های ۲۰۲۳ تا ۲۰۲۵، اولین نمونه‌های عملیاتی به‌کارگیری سیستم‌های تصمیم‌یار هوش مصنوعی (AI-DSS) برای شناسایی و حذف اهداف انسانی بود.

با استفاده از این سیستم، فرآیند شناسایی رقبا، از یک کار کیفی و انسانی، به یک فرآیند آماری و ماشینی تبدیل شده است. سیستم لاوندر یکی از این سیستم‌هاست:

  • لاوندر؛ کارخانه تولید هدف

لاوندر سیستمی است که با تحلیل داده‌های به‌دست‌آمده از نظارت توده‌ای بر ساکنان غزه، براساس شباهت رفتاری افراد به نیروهای حماس، امتیازی بین ۱ تا ۱۰۰ می‌داد. گزارش‌ها حاکی از آن است که در ابتدای جنگ، این سیستم لیستی شامل ۳۷ هزار فلسطینی را به‌عنوان هدف ترور مشخص کرده بود. 

  • سیستم "بابا کجاست؟" و ردیابی صوتی-موقعیتی

یکی از جنبه‌های ترسناک این تکنولوژی، سیستمی به نام «بابا کجاست؟» است که با استفاده از الگوریتم‌های تحلیل صدا و ردیابی موقعیت مکانی موبایل، وقتی فرد مورد نظر وارد خانه‌ می‌شود، به مرکز فرماندهی هشدار می‌دهد تا حمله صورت پذیرد. درعین‌حال استفاده از مدل‌های زبانی بزرگ که بر روی لهجه‌های مختلف عربی آموزش‌دیده‌اند، این امکان را برای اسرائیل فراهم کرد که با شنود میلیون‌ها تماس و تحلیل پیام‌های شبکه‌های اجتماعی، نه‌تنها موقعیت فیزیکی، بلکه وضعیت روانی و تمایلات سیاسی افراد را هم نقشه‌برداری کند.  

سیستم میون و نقش مدل زبانی «کلود»

درگیری‌های نظامی سال‌های اخیر در عمل، نقطه عطفی در تاریخ «جنگ‌های الگوریتمی» به شمار می‌رود. بدین معنا که هوش مصنوعی نه‌تنها در شناسایی اهداف، بلکه در طراحی نقشه‌های عملیاتی پیچیده و مدیریت هم‌زمان هزاران پهپاد انتحاری نقش کلیدی ایفا می‌کند.

مثلاً ارتش آمریکا از نسخه پیشرفته سیستم «میون» که با مدل زبانی «کلود» محصول شرکت آنتروپیک ادغام شده بود، بهره می‌برد. ازجمله وظایف این سیستم می‌توان به این موارد اشاره کرد:

  • تعیین اهداف: شناسایی بیش از هزاران هدف با تحلیل داده‌های ماهواره‌ای و سیگنالی
  • تطبیق مهمات: پیشنهاد بهترین سلاح (مثلاً موشک تاماهاک یا پهپاد لوکاس) برای هر هدف با توجه به مختصات جغرافیایی و پدافند محلی.
  • ارزیابی خسارت: تحلیل آنی تصاویر پس از حمله برای تعیین میزان موفقیت عملیات.  

چالش‌های اخلاقی و حقوق بین‌الملل

حالا و با افزایش استفاده از هوش مصنوعی در جنگ، زنگ خطر برای نهادهای حقوق بشری به صدا درآمده و بحث اصلی بر سر این است که آیا قوانین فعلی جنگ برای مهار ماشین‌های خودکار قاتل کافی هستند یا خیر.  

در این شرایط حقوقدانان نظامی بر مفهوم «نظارت معنادار انسانی» تأکید دارند؛ یعنی انسان نباید تنها به تأییدکننده تصمیمات ماشین تبدیل شود؛ بلکه باید درک کاملی از چرایی و چگونگی انتخاب یک هدف داشته باشد.

فراخوان جهانی برای تعیین خطوط قرمز

در سال ۲۰۲۶، جنبشی بین‌المللی برای تعیین خطوط قرمز در هوش مصنوعی نظامی شکل گرفت که افراد سرشناس زیادی از آن حمایت کرده‌اند.

این فراخوان به دنبال ممنوعیت‌های زیر تا پایان سال ۲۰۲۶ است:

۱. ممنوعیت سلاح‌هایی که بدون دخالت مستقیم انسان، اقدام به کشتن افراد می‌کنند.

۲. ممنوعیت واگذاری کنترل تسلیحات هسته‌ای به هوش مصنوعی.

۳. ممنوعیت استفاده از هوش مصنوعی برای امتیازدهی اجتماعی و نظارت توده‌ای در مناطق جنگی.  

درنهایت، هوش مصنوعی جنگ را «انسانی‌تر» نمی‌کند؛ بلکه میدان جنگ را مؤثرتر و سریع‌تر خواهد کرد و به همین خاطر، در نبود چارچوب‌های اخلاقی محکم و معاهدات بین‌المللی ، طلوع عصر جنگ‌های الگوریتمی می‌تواند به معنای غروب انسانیت در میدان نبرد باشد.  

منابع: rand، belfercenter، aljazeera، time، researchgate

۲۲۷۲۲۷

منبع: خبرآنلاین