بازار؛ گروه بین الملل: سایت تحلیلی نشنال اینترست اخیرا مقاله ای در مورد تاثیر هوش مصنوعی بر بازدارندگی منتشر نموده است. ترجمه متن مقاله در ادامه می آید.
سرمایه گذاری های قابل توجه در حوزه هوش مصنوعی توسط دولت ها، صنایع خصوصی و دانشگاه ها بر نقش محوری آن تاکید می کند. با این حال، بسیاری از بحثها در مورد این موضوع است که رباتها چگونه آرمانشهر را به تصویر میکشند. چنین اکتشافات با محدودیت شدید، سؤالاتی را در مورد تأثیر بالقوه هوش مصنوعی بر مسائل کلیدی استراتژیک بی پاسخ می گذارد. بنابراین بحث در مورد روش هایی که هوش مصنوعی معادله بازدارندگی و اجبار را تغییر میدهد و راههای مقابله با چالشهای استراتژیک که این امر ایجاد میکند ضروری است.
در اصل، بازدارندگی عبارت است از تأثیرگذاری بر رفتار دشمن از طریق تهدید به مجازات یا تلافی. هدف بازدارندگی متقاعد کردن حریف به چشم پوشی از یک اقدام خاص با القای ترس از عواقب و در نتیجه دستکاری محاسبات هزینه و فایده آنهاست. در حالی که هدف بازدارندگی جلوگیری از انجام یک اقدام خاص در آینده توسط حریف است، اجبار به دنبال ایجاد تغییر در رفتار فعلی حریف است.
هر دو مفهوم تحت مفهوم گسترده تر اجبار قرار می گیرند. بازیگران درگیر در این پویایی باید به دقت در نظر بگیرند که چگونه تهدیدات را به دشمنان خود منتقل کنند تا آنها را وادار کنند در اراده خود برای انجام اقدامات خاص تجدید نظر کنند. هر حرکت و حرکت متقابل در محاسبات اجباری، خطرات افزایشی قابل توجهی را به همراه دارد که می تواند عواقب ناخواسته ای را به همراه داشته باشد. از این رو، تصمیم گیرندگان باید هر گام را عاقلانه در نظر بگیرند و از تاریخ و روانشناسی استفاده کنند تا تهدیدات معتبری را برای منصرف کردن دشمنان از عبور از خطوط قرمز مخابره کنند.
فقدان ذاتی توضیحپذیری هوش مصنوعی حتی در کاربردهای سطحی، چالش مهمی را به وجود میآورد زیرا به طور فزایندهای در قابلیتهای نظامی ادغام میشود که قدرت ایجاد آسیبهای فراوان را دارند
عناصر ضروری اجبار عبارت است از: قدرت، ادراک، و متقاعدسازی. قدرت چند بعد دارد. تواناییهای نظامی، ثروت اقتصادی، پیشرفتهای فنی، روابط دیپلماتیک، منابع طبیعی و نفوذ فرهنگی یک بازیگر.علاوه بر قدرت واقعی، توانایی در اختیار داشتن آن بسیار مهم است. همچنین ادراک ما از دیگران از جمله درک ترسها، ایدئولوژیها، انگیزههای آنها برای نحوه عملکردشان و همچنین ابزارهایی که بازیگران برای متقاعد کردن دیگران برای رسیدن به آنچه در روابطشان میخواهند استفاده میکنند، نیز بسیار مهم است.
با این حال این تعامل پویا از قدرت که همکاری، رقابت و درگیری را پیش میبرد، احتمالاً به دلیل هوش مصنوعی و ابهامی که هنگام تفسیر جاهطلبیهای تدافعی یا تهاجمی بازیگر به ذهن تصمیمگیران تزریق میکند، بیثبات میشود. به عنوان مثال استفاده از هوش مصنوعی احتمالاً این تعصب را تقویت می کند که وضعیت نظامی رقیب به طور فزاینده ای منعکس کننده یک جهت تهاجمی به جای دفاعی است. تقویت تعصبات می تواند به این معنی باشد که نقش دیپلماسی در تنش زدایی چالش برانگیزتر خواهد شد.
فقدان ذاتی توضیحپذیری هوش مصنوعی حتی در کاربردهای سطحی، چالش مهمی را به وجود میآورد زیرا به طور فزایندهای در قابلیتهای نظامی ادغام میشود که قدرت ایجاد آسیبهای فراوان را دارند. تصمیم گیرندگان باید با تفسیر معادله تهاجمی-تدافعی همتایان خود در میان این ابهام دست و پنجه نرم کنند.
به عنوان مثال، تصور کنید مجموعه هوش مصنوعی، نظارت و شناسایی (IRS) که تمرینات نظامی چین در دریای چین جنوبی را ردیابی می کند، تمرینات را به عنوان مقدمه ای برای حمله به تایوان تجزیه و تحلیل کند و به ایالات متحده توصیه کند که گروه های حامل را برای بازدارندگی با چین مستقر کند. تصمیم گیرندگان ایالات متحده به این توصیه اعتماد دارند زیرا مجموعه هوش مصنوعی، نظارت و شناسایی دادههای بسیار بیشتری از آنچه انسانها میتوانستند پردازش کرده و توصیهها را انجام میدهد. با این حال، پکن نمی تواند مطمئن باشد که آیا این اقدام ایالات متحده در پاسخ به تمرینات نظامی این کشور است یا برای اهداف دیگری در نظر گرفته شده است. رهبری چین همچنین مطمئن نیست که ایالات متحده چگونه به این تصمیم رسیده است و اهداف آن چیست؛ که این امر به تفسیر آن از انگیزه های استراتژیک آمریکا و میزان آگاهی دادن به این انگیزه ها توسط توصیه های هوش مصنوعی در مقابل شناخت انسانی، مه بیشتری می افزاید. چنین پویایی ادراک نادرست را تقویت می کند و جلوگیری از یک مارپیچ خطرناک را که می تواند منجر به درگیری جنبشی شود، ذاتاً دشوارتر می کند.
در حوزه نظامی، سوگیری الگوریتمی ناشی از جمعآوری، آموزش و کاربرد دادهها میتواند پیامدهای مرگباری داشته باشد انسان ها ممکن است هوش مصنوعی را شکل دهند، اما فناوری جدید ممکن است به نوبه خود تصمیم گیری آینده آنها را شکل دهد
در حوزه نظامی، سوگیری الگوریتمی ناشی از جمعآوری، آموزش و کاربرد دادهها میتواند پیامدهای مرگباری داشته باشد. انسان ها ممکن است هوش مصنوعی را شکل دهند، اما فناوری جدید ممکن است به نوبه خود تصمیم گیری آینده آنها را شکل دهد. تداوم عدم قطعیت در سیستم دولتی بین المللی به این معنی است که تصورات پیش داوری باقی خواهند ماند. هیچ اصلاح فنی از جمله هوش مصنوعی نمی تواند بر این ناامنی های عمیق انسانی غلبه کند. تصاویر شناختی، به معنای درک بازیگر از همتای خود، نمیتوانند به دادهها تقلیل یابند، صرفنظر از اینکه مجموعه دادههای چند برداری که قابلیت هوش مصنوعی را تغذیه میکنند چقدر پیچیده هستند، تا حدی به این دلیل که دادهها نمیتوانند احساس منحصر به فرد هر موقعیت خاصی را به تصویر بکشند.
بنابراین، علیرغم پتانسیل هوش مصنوعی برای افزایش قابلیتهای نظامی از طریق بهبود آگاهی موقعیت، هدفگیری دقیق و تصمیمگیری سریع، نمیتواند معضل امنیتی را که ریشه در عدم اطمینان بینالمللی سیستمی دارد، ریشه کن کند. در بهترین حالت، پذیرش فزاینده هوش مصنوعی در ساختارهای سیاسی، دفاعی و نظامی توسط بازیگران در سطح جهان می تواند تقریباً به همین تصورات منجر شود.
با این حال، ما همچنین باید برای نوسانات بیشتر آماده باشیم زیرا دولت ها برای پیشی گرفتن از رقبای خود رقابت می کنند و متقاعد شده اند که هوش مصنوعی می تواند جایگاه آنها را در سیستم بین المللی تسریع بخشد و معضل امنیتی را تشدید کند. در نتیجه، دولتها اغلب برای بدترین شرایط آماده میشوند، زیرا هرگز نمیتوانند مقاصد رقیب خود را به درستی بدانند.
یک چالش اصلی در برقراری ارتباط موثر قابلیت های مبتنی بر الگوریتم نهفته است. هیچ معادلی برای اندازهگیری قابلیت هوش مصنوعی برای سکوهای تسلیحات فیزیکی مانند تانکها، موشکها یا زیردریاییها وجود ندارد، که تنها عدم قطعیت را در زمینه بازدارندگی افزایش میدهد.
هنر متقاعدسازی نیز احتمالاً با پذیرش هوش مصنوعی پیچیدهتر میشود. پیشرفتهای هوش مصنوعی قبلاً قدرت سیستمهای هوش مصنوعی را نشان داده است که میتوانند انسانها را متقاعد به خرید محصولات، تماشای ویدیوها و فرو رفتن بیشتر در اتاقک پژواک خود کنند. از آنجایی که سیستمهای هوش مصنوعی شخصیتر، فراگیرتر و در دسترستر میشوند، از جمله در محیطهای بسیار طبقهبندیشده و حساس، این خطر وجود دارد که تعصبات تصمیمگیرندگان بر نحوه شکلگیری واقعیتها تأثیر بگذارد.
فقدان توضیحپذیری هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیمگیران دشوار میکند و خطر درک نادرست و تشدید را افزایش میدهد
رهبران غیرنظامی و نظامی دوست دارند باور کنند که کنترل محیط های اطلاعاتی خود را در دست دارند. با این حال، هوش مصنوعی میتواند تجربیات آنها را از نظر کیفی تغییر دهد، زیرا آنها نیز در معرض درجات مختلفی از اطلاعات نادرست و کمپینهای اطلاعات نادرست قدرتمند مخالفان خود خواهند بود. از این رو، تعامل ما با هوش مصنوعی و ابزارهای متقاعدسازی مبتنی بر هوش مصنوعی احتمالاً بر محیط اطلاعاتی ما تأثیر می گذارد و بر نحوه تمرین و واکنش ما به پویایی اجبار تأثیر می گذارد.
پذیرش روزافزون هوش مصنوعی در حوزه نظامی چالش های مهمی را برای شیوه های بازدارندگی ایجاد می کند. فقدان توضیحپذیری هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیمگیران دشوار میکند و خطر درک نادرست و تشدید را افزایش میدهد. اتخاذ زودهنگام تصمیمات مبتنی بر هوش مصنوعی ممکن است تصاویر و سوگیری های دشمن را تقویت کند، بی اعتمادی را تقویت کند و به طور بالقوه جرقه درگیری ایجاد کند. در حالی که هوش مصنوعی طیف گستردهای از قابلیتهای نظامی را افزایش میدهد، نمیتواند ناامنی اساسی را که به معضلات امنیتی در روابط بیندولتی دامن میزند، از بین ببرد. از آنجایی که دولت ها برای مزیت های استراتژیک مبتنی بر هوش مصنوعی رقابت می کنند، نوسانات و خطر تشدید افزایش می یابد. در نهایت، تراژدی عدم اطمینان و ترس بر نیاز به سیاست گذاری محتاطانه تأکید می کند زیرا هوش مصنوعی در ماشین های جنگی ما رواج بیشتری می یابد.
نظر شما