در دنیای امروز، ارتشها برای برتری در نبرد دیگر تنها به نیروی انسانی و تجهیزات سنتی تکیه نمیکنند، بلکه رقابت اصلی بر سر تحلیل سریع دادهها، تصمیمگیری دقیق و هماهنگی بین سامانههاست. هوش مصنوعی با توانایی یادگیری، تحلیل کلانداده و خودمختاری عملیاتی، نهتنها روشهای سنتی جنگ بلکه منطق راهبردی و توازن قدرت جهانی را نیز دگرگون کرده است
. در این مقاله به بررسی تأثیر هوش مصنوعی در جنگ، نمونههای واقعی در نبردهای اخیر، چالشها و فرصتهای راهبردی و آینده نیروهای نظامی میپردازیم.
چرا هوش مصنوعی آینده جنگ را تغییر میدهد؟

در موضوع هوش مصنوعی در جنگ، به سه علت کلیدی میتوان گفت که AI آینده جنگ را به شکلی بنیادین متحول میکند. نخست، شتابدهی به چرخه تصمیمگیری است؛ جایی که الگوریتمهای یادگیری ماشین قادرند OODA loop (چرخه مشاهده، جهتگیری، تصمیم و اقدام) را از بازه روزها و ساعتها به چند ثانیه کاهش دهند.
این سرعت نه تنها امکان غافلگیری دشمن را افزایش میدهد، بلکه ابتکار عمل را به دست ارتشی میدهد که زودتر واکنش نشان دهد. بهعنوان مثال، در پروژههای مشترک ارتش آمریکا، گزارش شده است که تحلیل و واکنش عملیاتی، با بهرهگیری از AI و تحلیل آنی دادههای چندحوزهای، به زیر ۳۰ ثانیه رسیده است.
دومین عامل در شکلدهی به آیندهی نبردها با استفاده از هوش مصنوعی در جنگ، شبکهمحوری و یکپارچگی چندسویه است. برنامههایی چون CJADC2 در آمریکا و نمونههای مشابه در سایر قدرتها، با استفاده از AI، حسگرهای مستقر در فضا، هوا، زمین، دریا و فضای سایبری را به یک ابرشبکه اطلاعاتی پیوند میزنند؛ در نتیجه فرماندهان، تصویری جامع، بهروزرسانیشده و پیشبینیپذیر از میدان نبرد خواهند داشت. این یکپارچگی، سرعت و دقت هماهنگی بین نیروها و تسلیحات را به میزان بیسابقهای بالا برده است.
سومین تحولی که هوش مصنوعی در جنگ های آینده ایجاد میکند، امکان استفاده از پلتفرمهای بیسرنشین و کمهزینه اما مؤثر است. مثلا پروژه Replicator و سیستمهای مشابه، هزاران پهپاد و مهمات سرگردان را با هزینه پایین اما قابلیت مرگباری بالا به میدان میفرستند؛ این تاکتیک میتواند برتری پلتفرمهای سنگین و گرانقیمت را بشکند و توازن هزینه-اثربخشی را به نفع ارتشهای هوشمند تغییر دهد.
اما همزمان با موارد بالا، اهمیت کلانداده و انرژی بهعنوان منابع راهبردی تازه، باعث رقابت تنگاتنگ قدرتها برای دسترسی به الگوریتمهای پیشرفته و منابع پردازشی شده است؛ به طوریکه در نشست بیلدربرگ ۲۰۲۵، رهبران نظامی و صنعتی نسبت به تأثیر تعیینکننده AI بر معماری قدرت جهانی هشدار دادند.
نمونههایی از کاربرد AI در جنگهای اخیر
شاید هیچ عرصهای مثل میدان واقعی نبرد، تواناییهای هوش مصنوعی در جنگ را به آزمون نکشیده باشد. در سالهای اخیر، نمونههای برجستهای از بهرهگیری هوش مصنوعی در صنایع نظامی و عملیاتهای مختلف ثبت شده است:
در جنگ اوکراین (۲۰۲۴–۲۵)، پهپادهای «مادر» مجهز به نرمافزار SmartPilot بدون نیاز به ارتباط ماهوارهای یا اپراتور انسانی، اهداف دشمن را شناسایی کرده و بهصورت خودکار کوادکوپترهای انتحاری را به سوی سامانههای پدافندی روسیه هدایت کردند. این قابلیت، در فاصله ۳۰۰ کیلومتری و با موفقیت بالا اجرا شد. در همین بین، روسها هم عملیاتهای تاکتیک های جنگی هوشمند زیادی را به اجزا گذاشتهاند که به دلیل کمبود اطلاعات، جزئیات زیادی از آنها نمیدانیم.
در جنگ اسرائیل-غزه (۲۰۲۳–۲۴)، سامانههای Gospel و Lavender دهها هزار هدف را از دادههای اطلاعاتی استخراج و به اپراتور انسانی برای تأیید نهایی پیشنهاد دادند. این سیستمها انتقاداتی را در خصوص افزایش ریسک تلفات غیرنظامی برانگیختند، اما کارایی اطلاعاتی ارتش اسرائیل را چند برابر کردند.
در آمریکا، پروژه پرواز ACE با مشارکت DARPA، برای نخستین بار یک سیستم AI را در مقابل خلبان انسانی F-16 آزمایش کرد. نتایج حاکی از آن بود که هوش مصنوعی میتواند در برخی شرایط بر خلبان انسانی پیروز شود و مسیر ورود جنگندههای بدون سرنشین همراه (CCA) را هموار کند.
نیروی دریایی آمریکا در پروژه Ghost Fleet Overlord توانست کشتیهای بدون سرنشین را با خودمختاری بیش از ۹۸ درصد به مأموریت اقیانوس آرام اعزام کند. این ناوگان ثابت کرد شبکهسازی کشتیهای روباتیک و ناوهای بزرگ، آینده عملیات دریایی را شکل خواهد داد.
برای مرور سریع این مصادیق از استفادهی هوش مصنوعی در جنگ، جدول زیر را ببینید:
صحنه نبرد | کاربرد AI | واقعیت میدانی و دستاورد |
اوکراین (۲۰۲۴–۲۵) | پهپادهای مستقل با هدایت هدف خودکار | شناسایی و انهدام پدافند روسیه در ۳۰۰ کیلومتری عمق خاک این کشور |
اسرائیل–غزه (۲۰۲۳–۲۴) | استخراج و پیشنهاد هدف توسط Gospel/Lavender | دهها هزار هدف شناسایی شد؛ بحث اخلاقی درباره تلفات غیرنظامی بالا رفت |
آمریکا (ACE، ۲۰۲۴) | نبرد هوایی واقعی F-16 و AI در X-62 VISTA | پیروزی نسبی AI، اثبات قابلیت همراهی جنگنده خودران |
آمریکا (نیروی دریایی، ۲۰۲۴) | ناوگان Ghost Fleet Overlord | موفقیت ۹۸ درصد خودگردانی در عملیات اقیانوس آرام |
تاثیر هوش مصنوعی بر تصمیمگیری و فرماندهی عملیات جنگی
یکی از اثرگذارترین حوزههای هوش مصنوعی در جنگ، تحلیل اطلاعات و تسریع فرآیند تصمیمگیری فرماندهان است. برای درک بهتر این موضوع، به موارد زیر توجه کنید:
- پروژه Maven پس از قرارداد بزرگ با Palantir در ۲۰۲۴، فرآیند پردازش و تحلیل ویدئوهای پهپادی را برای صدها یگان عملیاتی آمریکا خودکار کرد؛ این یعنی در مدت کوتاه، هزاران ساعت ویدئو بررسی و تهدیدات بالقوه شناسایی میشود.
- در معماری جدید فرماندهی و کنترل (C2)، برنامه JADC2 امکان گردآوری دادههای چندحوزهای (فضا، سایبر، الکترونیک و زمین) را به کمک AI و ابرشبکهای مشترک فراهم میکند. فرماندهان میتوانند ظرف کمتر از ۳۰ ثانیه، گزینه برتر را از میان دهها سناریوی عملیاتی انتخاب کنند؛ امکانی که در سیستمهای سنتی گاهی ساعتها به طول میانجامید.
- طرح «جنگ موزائیکی» دارپا رویکردی جدید در معماری فرماندهی است: بهجای یک سیستم مجتمع و بزرگ، دهها کاشی عملیاتی (پهپاد، موشک، حسگر و ربات) با AI کنار هم چیده شده و در صورت از دست رفتن یک بخش، شبکه همچنان مقاوم و فعال میماند. چنین رویکردی، هم قابلیت بقای شبکه را بالا میبرد و هم انعطاف واکنش را بیشتر میکند.
همچنین، اعتماد عملیاتی به هوش مصنوعی در جنگ، مستلزم لایههای ایمنی و اخلاقی زیادی است. مثلا تجربه پرواز ACE نشان داد که افزودن طبقات ایمنی و قواعد اخلاقی به الگوریتمهای خودمختار، انتقال تدریجی کنترل از انسان به ماشین را ممکن و قابل اعتماد میکند. به طور سادهتر، در این پروژه، طراحان برای اینکه کنترل کامل را به هوش مصنوعی ندهند و جلوی اشتباهات خطرناک را بگیرند، یک سری «قواعد ایمنی و اخلاقی» به برنامه اضافه کردند. یعنی هوش مصنوعی اجازه نداشت از یکسری حد و مرزها عبور کند یا خارج از چارچوب قوانین بینالمللی عمل کند.
نتیجه این آزمایش نشان داد که میتوان هوش مصنوعی را طوری طراحی کرد که هم مستقل عمل کند و هم همیشه تحت نظر و کنترل نهایی انسان باقی بماند. این یعنی میتوانیم در آینده به تدریج بخشی از کنترل عملیات را به ماشینها بسپاریم، بدون اینکه نگرانی درباره اخلاق یا ایمنی داشته باشیم.
ابزار جستجوی وب هوشمند هوشا یک موتور جستجو مبتنی بر هوش مصنوعی است که با تحلیل مفهومی سوالات کاربران، نتایج دقیقتر و متناسبتری نسبت به موتورهای سنتی ارائه میدهد. این سامانه با بهرهگیری از پردازش زبان طبیعی و یادگیری ماشین، تجربه جستجویی سریع، هدفمند و شخصیسازیشده را ممکن میسازد. در ویدیوی زیر این ابزار هوش مصنوعی را معرفی کردهایم:
رباتها، پهپادها و تسلیحات هوشمند؛ آینده نیروهای نظامی
در خط مقدم آینده نیروهای نظامی، رباتها و پهپادهای هوشمند با توان هماهنگی گلهای قرار دارند. مثلا پروژه Replicator وزارت دفاع آمریکا در دو سال اول خود سفارش بیش از ۲۵۰۰ پهپاد انتحاری و شناسایی را ثبت کرده است تا دفاع دشمن را اشباع کند. این پهپادها قابلیت هماهنگی و تصمیمگیری جمعی با حداقل مداخله انسانی دارند.
در حوزه هوایی هوش مصنوعی در جنگ هم، مفهوم «لویال وینگمن» با نمونه MQ-28 Ghost Bat استرالیا به اجرا درآمده است؛ این پرندههای بدون سرنشین با هوش مصنوعی در کنار جنگندههای سرنشیندار پرواز میکنند و ضمن افزایش ظرفیت رزمی، ریسک خلبانان انسانی را به شدت کاهش میدهند. تا پایان ۲۰۲۵، شلیک اولین موشک هوا-به-هوا توسط این سیستم برنامهریزی شده است.
رقابت فناورانه، به شرق آسیا نیز رسیده است؛ ارتش چین در رزمایش مارس ۲۰۲۵ با بهرهگیری از یک سامانه کاملاً خودمختار، پهپادها را بهطور خودکار اعزام و هدفگذاری کرد. این فناوری، به طور چشمگیری «شکاف قیمتی» را به نفع کشورهایی که منابع کمتری دارند کاهش میدهد.
رباتهای ثابت نیز سهم خود را دارند؛ سامانه مرزی سامسونگ SGR-A1 در منطقه غیرنظامی کره، با دوربین حرارتی، میکروفون و تیربار، بهطور کاملاً خودکار مرزها را کنترل میکند و نخستین سلاح کشنده خودمختار ثابت جهان بهشمار میرود
در دریا و زیرسطح نیز پروژه Ghost Fleet Overlord و Sea Hunter در تاثیر هوش مصنوعی در جنگ نشان دادند که کشتیهای بدون سرنشین میتوانند عملیات شناسایی، جاسوسی و حتی حمله موشکی را با حداقل خدمه انسانی انجام دهند.
آینده راهبردهای نظامی با ظهور فناوریهای هوش مصنوعی
ورود AI به راهبردهای نظامی، ساختار قدرت، تصمیمسازی و قوانین بازی را بازتعریف میکند. اکنون مزیت رقابتی نه فقط در قدرت آتش، بلکه در سرعت و دقت تصمیم و هماهنگی دادههاست.
در این مورد، نخستین محور، برتری تصمیم در کسری از ثانیه است. ارتشهایی که بتوانند چرخه OODA را به زیر ۳۰ ثانیه برسانند، میتوانند دشمن را غافلگیر کرده و نتیجه جنگ را تعیین کنند. این امر اما ریسک تشدید ناخواسته تنشها و تصمیمات اشتباه را نیز بههمراه دارد.
دومین محور، انهدام اشباعی با گلههای پهپادهای کمهزینه است؛ ارتشها بهجای چند پلتفرم گران، صدها پهپاد هوشمند را به میدان میفرستند. این راهبرد ضمن تغییر موازنه هزینه، اما زمینه رقابت تسلیحاتی و دسترسی بازیگران غیردولتی به فناوریهای ارزان و کشنده را نیز فراهم میکند.
محور سوم، همکاری انسان و ماشین است. تیمسازی انسان-ماشین باعث افزایش بقا، توان و برد عملیاتی میشود؛ اما اتکای بیش از حد به مدلهای «جعبهسیاه» و ریسک حملات سایبری (data poisoning، spoofing) تهدیدی جدی است.
در سطح حکمرانی و حقوق بینالملل، مذاکرات CCW همچنان بر اصل «کنترل انسانی معنادار» بر روی هوش مصنوعی در جنگ تأکید دارد. دبیرکل سازمان ملل سامانههای مرگبار خودمختار را «از نظر سیاسی غیرقابل قبول و اخلاقاً زننده» دانسته و تا سال ۲۰۲۶ بر داشتن یک توافقنامه الزامآور جهانی بر روی این موضوع تأکید کرده است.
در نهایت، آینده موفق تنها از مسیر تلفیق نوآوری فناورانه با حاکمیت و چارچوب مسئولانه میگذرد؛ زیرا اگر زنجیره تصمیمگیری بیش از حد به ماشینها سپرده شود، امکان تشدید خودبهخودی بحرانها و خروج کنترل از دست انسان وجود دارد.
جمعبندی
هوش مصنوعی در جنگ، اکنون به ستون فقرات قدرت نظامی تبدیل شده است. از تحلیل آنی تصاویر ویدیویی و شناسایی اهداف در میدان تا شبکهسازی ناوگانهای هوشمند، هر بخش از عملیات نظامی با AI ارتقا یافته است. برنده آینده میدان نبرد، ارتشی است که زودتر منحنی یادگیری این فناوری را طی کند و قادر باشد داده را بهسرعت به دانش و عمل تبدیل کند.
با این حال، همین ویژگیها (سرعت، خودمختاری و مقیاس) اگر بدون قیدوبند اخلاقی و امنیتی توسعه یابند، میتوانند به تهدیدی علیه ثبات جهانی بدل شوند. آینده راهبردهای نظامی وابسته به ترکیب هوشمندانه نوآوری فناورانه و چارچوبهای حاکمیتی قوی است؛ تا جنگ هوشمند نه به بلای بیثباتی، بلکه به عامل بازدارندگی و امنیت تبدیل شود.
آیا میتوان به هوش مصنوعی آموزش داد که در شرایط مبهم یا متضاد، تصمیمات اخلاقی بگیرد؟
در حال حاضر، آموزش سیستمهای AI برای درک کامل مفاهیم اخلاقی انسانی، بهویژه در شرایط پیچیده جنگی، چالشبرانگیز است. هوش مصنوعی میتواند بر اساس قواعد از پیشتعریفشده یا الگوهای یادگیری نظارتشده تصمیم بگیرد، اما قضاوتهای اخلاقی وابسته به بافت، نیت، و ارزشهای انسانی هستند.
آیا احتمال هک یا دستکاری هوش مصنوعی در جنگ وجود دارد؟
بله، یکی از تهدیدات جدی در کاربردهای نظامی AI، آسیبپذیری در برابر حملات سایبری از جمله data poisoning (مسمومسازی داده)، model inversion (وارونسازی مدل) و spoofing (فریب سیستم با دادههای جعلی) است. اگر دشمن بتواند دادههای ورودی یا حتی ساختار مدل هوش مصنوعی را دستکاری کند، میتواند تصمیمگیریها را منحرف یا مختل کند.
آیا کشورهای کوچک هم میتوانند با بهرهگیری از هوش مصنوعی به قدرت نظامی بالایی برسند؟
بهطور بالقوه، بله. یکی از ویژگیهای AI در جنگ، دموکراتیزهکردن قدرت نظامی است. بهجای تکیه بر تسلیحات گرانقیمت و پیچیده، کشورها (و حتی بازیگران غیردولتی) میتوانند با سرمایهگذاری در پهپادهای ارزان، الگوریتمهای متنباز و زیرساختهای دیجیتال، تواناییهایی مؤثر و گاه مرگبار ایجاد کنند. این موضوع میتواند موازنه قدرت را در سطح منطقهای یا حتی جهانی تغییر دهد، اما همزمان خطر گسترش فناوریهای مرگبار به دست گروههای غیرمسئول را نیز افزایش میدهد.