بازار؛ گروه بین الملل: سایت تحلیلی فارن افرز اخیرا مقاله ای با قلم «پل شار» با عنوان «عصر خطرناک جنگ با هوش مصنوعی؛ چگونه تهدید سلاح های خودکار را محدود کنیم؟» منتشر نموده است. ترجمه متن مقاله در ادامه می آید.
سال گذشته، شرکت هواپیماهای بدون سرنشین اوکراینی ساکر ادعا کرد که یک سلاح کاملاً خودمختار به نام Saker Scout را به میدان آورده است که از هوش مصنوعی برای تصمیمگیری در مورد اینکه چه کسی را در میدان جنگ بکشد، استفاده میکند. مقامات ساکر اعلام کردند که این پهپاد حملات خودکار را در مقیاس کوچک انجام داده است. اگرچه این گزارش به طور مستقل تأیید نشده اما فناوری لازم برای ساخت چنین سلاحی قطعا وجود دارد. این یک گام فنی کوچک اما یک اقدام برای تولید سلاحهای کاملاً خودمختار که قادر به جستجو و انتخاب اهداف به تنهایی باشند.
استقرار پهپاد ساکر نشان می دهد که بحث در مورد قوانین محدود کننده استفاده از این نوع سلاح ها بی نتیجه است. کشورها به مدت یک دهه در مورد نحوه استفاده از تسلیحات خودکار بحث کرده اند، اما هنوز نتوانستهاند بر روی مقرراتی برای محدود کردن آسیبهای این نوع سلاحها به توافق برسند. با این حال نیاز فوری به توافق بین المللی وجود دارد. توسعه بدون محدودیت تسلیحات خودکار می تواند منجر به جنگ هایی شود که فراتر از کنترل انسان گسترش می یابد و از حمایت های کمتری هم برای جنگجویان و هم برای غیرنظامیان برخوردار است. حتی اگر ممنوعیت عمده فروشی واقع بینانه نباشد، مقررات عملی زیادی وجود دارد که دولت ها می توانند برای کاهش بدترین خطرات سلاح های خودمختار اتخاذ کنند. بدون محدودیت، بشریت که به سوی آینده ای از جنگ خطرناک و ماشین محور حرکت می کند در خطر است.
جنگ در اوکراین به نوآوری در تسلیحات خودکار سرعت بخشید، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک
از دهه ۱۹۸۰ کشورها از تسلیحات نیمه خودکار در شرایط محدود و دفاعی استفاده کرده اند. امروزه حداقل ۳۰ کشور از سیستم های دفاع هوایی و موشکی یا سیستم های حفاظت ضد موشکی برای وسایل نقلیه زمینی استفاده می کنند که حالت های خودگردان دارند. پس از فعال شدن، این سامانههای دفاعی میتوانند بهطور خودکار موشکها، خمپارهها و هواپیماهای وارده را حس کرده و آنها را رهگیری کنند. اما انسان ها بر عملکرد آنها نظارت دارند و اگر مشکلی پیش آمد می توانند مداخله کنند.
جنگ در اوکراین به نوآوری در هر دو طرف سرعت بخشید، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک. مسکو و کیف به طور گسترده از پهپادها برای شناسایی و حملات به نیروهای زمینی استفاده کرده اند. این استقرار پهپادها به نوبه خود منجر به توسعه اقدامات متقابل جدید از جمله سیستمهای جنگ الکترونیکی شده است که لینکهای ارتباطی پهپادها را مختل میکند یا مکان اپراتورها را بر روی زمین مشخص میکند و سپس میتوان به آنها حمله کرد. شکل خاصی که سلاح های خودمختار به خود می گیرند به نیازهای یک درگیری بستگی دارد.
چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده آمریکا در حال حاضر روی پهپادهای جنگی رادارگریز کار می کنند. در جنگ های آینده این پهپادها به طور مستقل دفاع هوایی یا پرتابگرهای موشک متحرک را هدف قرار می دهند. روباتهای زمینی از همتایان هوایی و دریایی خود عقب ماندهاند، اما در جنگهای آینده میتوان شاهد استفاده از سلاحهای خودمختار بر روی رباتها یا محل اسلحههای ثابت بود.
تغییرات احتمالاً به همین جا ختم نمی شود. ازدحام پهپادها می توانند به طور مستقل رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی های انسانی واکنش نشان دهند. واکنشهای خودمختار میتواند سرعت عملیات و سرعت نبرد را تسریع کند. این به نوبه خود می تواند فشار بیشتری را برای حذف انسان از چرخه تصمیم ایجاد کند. پیامدهای این تغییر به دوران جدیدی از جنگ ماشینمحور عمیق خواهد بود.
یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است
دانشمندان برجسته هوش مصنوعی از جمله استاد دانشگاه کالیفرنیا، «استوارت راسل» و برنده جایزه تورینگ،«یانگ لکون» در مورد خطرات سلاح های خودران هشدار داده اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی از جمله سازمان عفو بینالملل، دیدهبان حقوق بشر و ابتکار زنان نوبل کمپین توقف رباتهای قاتل را تشکیل دادهاند و خواستار یک معاهده پیشگیرانه و الزامآور برای ممنوعیت سلاحهای خودمختار هستند. انگیزه این هشدارها و کمپینها نگرانی از این است که سلاحهای خودمختار میتوانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح های خودمختار می توانند تلفات غیرنظامیان را با هدف قرار دادن دقیق جنگجویان کاهش دهند اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی دهد - یا می خواهند جمعیت غیرنظامی را مجازات کنند - می توانند برای ارتکاب جنایات ویرانگر استفاده شوند.
یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است. در سال ۲۰۲۲، ایالات متحده مدعی شد که برای تصمیمگیری در مورد استفاده از سلاحهای هستهای همیشه سیاست «انسان در حلقه» را حفظ خواهد کرد! بریتانیا سیاست مشابهی را در سال ۲۰۲۲ اتخاذ کرد. به نظر می رسد کنترل انسان بر سلاح های هسته ای نقطه شروع آسانی برای توافق بین المللی باشد.
استقرار گسترده سلاحهای خودمختار که با سایر جنبههای هوش مصنوعی نظامی ادغام شدهاند، میتوانند به عصر جدیدی از جنگ ماشینمحور منجر شوند
استقرار گسترده سلاحهای خودمختار که با سایر جنبههای هوش مصنوعی نظامی ادغام شدهاند، میتوانند به عصر جدیدی از جنگ ماشینمحور منجر شوند. برنامه های کاربردی هوش مصنوعی نظامی می توانند پردازش اطلاعات و تصمیم گیری را تسریع کنند. چرخه های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشورها برای کاهش زمان یافتن، شناسایی و حمله به اهداف دشمن کوتاه می شود. در تئوری این مهم می تواند زمان بیشتری را برای تصمیم گیری های متفکرانه و عمدی در اختیار انسان بگذارد. در عمل رقبا مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود استفاده کنند. نتیجه یک مارپیچ در حال افزایش از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود.
وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان اجرا می شود. «چن هانگهویی»، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادیبخش خلق، در مورد تکینگی در میدان نبرد فرضیه ای را مطرح کرده است، نقطه ای که در آن سرعت جنگ ماشین محور به طور مشابه از سرعت تصمیم گیری انسانی پیشی می گیرد. این نقطه عطف، انسان ها را مجبور می کند که هم برای تصمیم گیری های تاکتیکی و هم برای استراتژی های جنگی در سطح عملیاتی، کنترل را به ماشین ها واگذار کنند. ماشینها نه تنها اهداف فردی را انتخاب میکنند، بلکه کل کمپینها را نیز برنامهریزی و اجرا میکنند. نقش انسانها به روشن کردن ماشینها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگها کاهش مییابد.
بدون محدودیتهای مؤثر، سلاحهای خودمختار کنترل انسان بر جنگ را کاهش میدهند، خطر بیشتری را برای غیرنظامیان و رزمندگان ایجاد میکنند و ثبات بینالمللی را تضعیف میکنند
مقررات بینالمللی اگر با دقت طراحی و اجرا شوند، میتوانند به کاهش برخی از بدترین آسیبهای سلاحهای خودران کمک کنند. حدود ۳۰ کشور و کنسرسیومی از سازمان های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور قانونی برای ممنوعیت سلاح های خودمختار قبل از استقرار آنها شده اند. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافتهاند، آسیبهای احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین دولت ها به دلیل ادعاهای نامشخص در مورد آسیب های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.
سلاح های خودمختار می آیند. تلاش برای ممنوعیت کامل آنها، هرچند به معنای خوب، احتمالاً بیهوده است زیرا ارزش نظامی آنها خیلی زیاد است. با این حال کشورها در مورد نحوه استفاده از تسلیحات خودمختار حق انتخاب دارند. بدون محدودیتهای مؤثر، سلاحهای خودمختار کنترل انسان بر جنگ را کاهش میدهند، خطر بیشتری را برای غیرنظامیان و نظامیان ایجاد میکنند و ثبات بینالمللی را تضعیف میکنند. برای مقابله با بدترین خطرات این تسلیحات باید فوراً اقداماتی انجام شود. انجام این کار مستلزم حرکت فراتر از انتخاب ساده و گمراهکننده کنونی بین ممنوعیت همه سلاحهای خودمختار و بدون محدودیت است.
سلاح های خودمختار آزمایش اولیه توانایی بشر برای مقابله با هوش مصنوعی تسلیحاتی است که اشکال خطرناک تری از آن در راه است. سیستم های پیشرفته هوش مصنوعی توانایی کمک به توسعه سلاح های سایبری و سلاح های شیمیایی و بیولوژیکی را نشان داده اند. همکاری جهانی برای کنترل بهبود آنها، محدود کردن گسترش آنها و محافظت در برابر استفاده بالقوه آنها ضروری است. دستیابی به توافق بینالمللی در مورد سلاحهای خودمختار برای رسیدگی به آسیبهای آنها و ایجاد پایهای برای همکاری در مورد خطرات هوش مصنوعی در آینده، حیاتی است.
نظر شما