۱۵ خرداد ۱۴۰۳ - ۱۲:۳۴
پیامدهای مرگبار با سوگیری الگوریتمی هوش مصنوعی
بررسی تاثیر هوش مصنوعی بر بازدارندگی

پیامدهای مرگبار با سوگیری الگوریتمی هوش مصنوعی

علیرغم پتانسیل هوش مصنوعی جهت افزایش قابلیت‌های نظامی با بهبود آگاهی موقعیتی و هدف‌گیری دقیق این فناوری نمی‌تواند معضل امنیتی را که ریشه در عدم قطعیت بین‌المللی سیستمی دارد از بین ببرد.

بازار؛ گروه بین الملل: سایت تحلیلی نشنال اینترست اخیرا مقاله ای در مورد تاثیر هوش مصنوعی بر بازدارندگی منتشر نموده است. ترجمه متن مقاله در ادامه می آید.

سرمایه گذاری های قابل توجه در حوزه هوش مصنوعی توسط دولت ها، صنایع خصوصی و دانشگاه ها بر نقش محوری آن تاکید می کند. با این حال، بسیاری از بحث‌ها در مورد این موضوع است که ربات‌ها چگونه آرمان‌شهر را به تصویر می‌کشند. چنین اکتشافات با محدودیت شدید، سؤالاتی را در مورد تأثیر بالقوه هوش مصنوعی بر مسائل کلیدی استراتژیک بی پاسخ می گذارد. بنابراین بحث در مورد روش هایی که هوش مصنوعی معادله بازدارندگی و اجبار را تغییر می‌دهد و راه‌های مقابله با چالش‌های استراتژیک که این امر ایجاد می‌کند ضروری است.

در اصل، بازدارندگی عبارت است از تأثیرگذاری بر رفتار دشمن از طریق تهدید به مجازات یا تلافی. هدف بازدارندگی متقاعد کردن حریف به چشم پوشی از یک اقدام خاص با القای ترس از عواقب و در نتیجه دستکاری محاسبات هزینه و فایده آنهاست. در حالی که هدف بازدارندگی جلوگیری از انجام یک اقدام خاص در آینده توسط حریف است، اجبار به دنبال ایجاد تغییر در رفتار فعلی حریف است.

هر دو مفهوم تحت مفهوم گسترده تر اجبار قرار می گیرند. بازیگران درگیر در این پویایی باید به دقت در نظر بگیرند که چگونه تهدیدات را به دشمنان خود منتقل کنند تا آنها را وادار کنند در اراده خود برای انجام اقدامات خاص تجدید نظر کنند. هر حرکت و حرکت متقابل در محاسبات اجباری، خطرات افزایشی قابل توجهی را به همراه دارد که می تواند عواقب ناخواسته ای را به همراه داشته باشد. از این رو، تصمیم گیرندگان باید هر گام را عاقلانه در نظر بگیرند و از تاریخ و روانشناسی استفاده کنند تا تهدیدات معتبری را برای منصرف کردن دشمنان از عبور از خطوط قرمز مخابره کنند.

فقدان ذاتی توضیح‌پذیری هوش مصنوعی حتی در کاربردهای سطحی، چالش مهمی را به وجود می‌آورد زیرا به طور فزاینده‌ای در قابلیت‌های نظامی ادغام می‌شود که قدرت ایجاد آسیب‌های فراوان را دارند

عناصر ضروری اجبار عبارت است از: قدرت، ادراک، و متقاعدسازی. قدرت چند بعد دارد. توانایی‌های نظامی، ثروت اقتصادی، پیشرفت‌های فنی، روابط دیپلماتیک، منابع طبیعی و نفوذ فرهنگی یک بازیگر.علاوه بر قدرت واقعی، توانایی در اختیار داشتن آن بسیار مهم است. همچنین ادراک ما از دیگران از جمله درک ترس‌ها، ایدئولوژی‌ها، انگیزه‌های آن‌ها برای نحوه عملکردشان و همچنین ابزارهایی که بازیگران برای متقاعد کردن دیگران برای رسیدن به آنچه در روابطشان می‌خواهند استفاده می‌کنند، نیز بسیار مهم است.

با این حال این تعامل پویا از قدرت که همکاری، رقابت و درگیری را پیش می‌برد، احتمالاً به دلیل هوش مصنوعی و ابهامی که هنگام تفسیر جاه‌طلبی‌های تدافعی یا تهاجمی بازیگر به ذهن تصمیم‌گیران تزریق می‌کند، بی‌ثبات می‌شود. به عنوان مثال استفاده از هوش مصنوعی احتمالاً این تعصب را تقویت می کند که وضعیت نظامی رقیب به طور فزاینده ای منعکس کننده یک جهت تهاجمی به جای دفاعی است. تقویت تعصبات می تواند به این معنی باشد که نقش دیپلماسی در تنش زدایی چالش برانگیزتر خواهد شد.

فقدان ذاتی توضیح‌پذیری هوش مصنوعی حتی در کاربردهای سطحی، چالش مهمی را به وجود می‌آورد زیرا به طور فزاینده‌ای در قابلیت‌های نظامی ادغام می‌شود که قدرت ایجاد آسیب‌های فراوان را دارند. تصمیم گیرندگان باید با تفسیر معادله تهاجمی-تدافعی همتایان خود در میان این ابهام دست و پنجه نرم کنند.

به عنوان مثال، تصور کنید مجموعه هوش مصنوعی، نظارت و شناسایی (IRS) که تمرینات نظامی چین در دریای چین جنوبی را ردیابی می کند، تمرینات را به عنوان مقدمه ای برای حمله به تایوان تجزیه و تحلیل کند و به ایالات متحده توصیه کند که گروه های حامل را برای بازدارندگی با چین مستقر کند. تصمیم گیرندگان ایالات متحده به این توصیه اعتماد دارند زیرا مجموعه هوش مصنوعی، نظارت و شناسایی داده‌های بسیار بیشتری از آنچه انسان‌ها می‌توانستند پردازش کرده و توصیه‌ها را انجام می‌دهد. با این حال، پکن نمی تواند مطمئن باشد که آیا این اقدام ایالات متحده در پاسخ به تمرینات نظامی این کشور است یا برای اهداف دیگری در نظر گرفته شده است. رهبری چین همچنین مطمئن نیست که ایالات متحده چگونه به این تصمیم رسیده است و اهداف آن چیست؛ که این امر به تفسیر آن از انگیزه های استراتژیک آمریکا و میزان آگاهی دادن به این انگیزه ها توسط توصیه های هوش مصنوعی در مقابل شناخت انسانی، مه بیشتری می افزاید. چنین پویایی ادراک نادرست را تقویت می کند و جلوگیری از یک مارپیچ خطرناک را که می تواند منجر به درگیری جنبشی شود، ذاتاً دشوارتر می کند.

در حوزه نظامی، سوگیری الگوریتمی ناشی از جمع‌آوری، آموزش و کاربرد داده‌ها می‌تواند پیامدهای مرگباری داشته باشد انسان ها ممکن است هوش مصنوعی را شکل دهند، اما فناوری جدید ممکن است به نوبه خود تصمیم گیری آینده آنها را شکل دهد

در حوزه نظامی، سوگیری الگوریتمی ناشی از جمع‌آوری، آموزش و کاربرد داده‌ها می‌تواند پیامدهای مرگباری داشته باشد. انسان ها ممکن است هوش مصنوعی را شکل دهند، اما فناوری جدید ممکن است به نوبه خود تصمیم گیری آینده آنها را شکل دهد. تداوم عدم قطعیت در سیستم دولتی بین المللی به این معنی است که تصورات پیش داوری باقی خواهند ماند. هیچ اصلاح فنی از جمله هوش مصنوعی نمی تواند بر این ناامنی های عمیق انسانی غلبه کند. تصاویر شناختی، به معنای درک بازیگر از همتای خود، نمی‌توانند به داده‌ها تقلیل یابند، صرفنظر از اینکه مجموعه داده‌های چند برداری که قابلیت هوش مصنوعی را تغذیه می‌کنند چقدر پیچیده هستند، تا حدی به این دلیل که داده‌ها نمی‌توانند احساس منحصر به فرد هر موقعیت خاصی را به تصویر بکشند.

بنابراین، علی‌رغم پتانسیل هوش مصنوعی برای افزایش قابلیت‌های نظامی از طریق بهبود آگاهی موقعیت، هدف‌گیری دقیق و تصمیم‌گیری سریع، نمی‌تواند معضل امنیتی را که ریشه در عدم اطمینان بین‌المللی سیستمی دارد، ریشه کن کند. در بهترین حالت، پذیرش فزاینده هوش مصنوعی در ساختارهای سیاسی، دفاعی و نظامی توسط بازیگران در سطح جهان می تواند تقریباً به همین تصورات منجر شود.

با این حال، ما همچنین باید برای نوسانات بیشتر آماده باشیم زیرا دولت ها برای پیشی گرفتن از رقبای خود رقابت می کنند و متقاعد شده اند که هوش مصنوعی می تواند جایگاه آنها را در سیستم بین المللی تسریع بخشد و معضل امنیتی را تشدید کند. در نتیجه، دولت‌ها اغلب برای بدترین شرایط آماده می‌شوند، زیرا هرگز نمی‌توانند مقاصد رقیب خود را به درستی بدانند.

یک چالش اصلی در برقراری ارتباط موثر قابلیت های مبتنی بر الگوریتم نهفته است. هیچ معادلی برای اندازه‌گیری قابلیت هوش مصنوعی برای سکوهای تسلیحات فیزیکی مانند تانک‌ها، موشک‌ها یا زیردریایی‌ها وجود ندارد، که تنها عدم قطعیت را در زمینه بازدارندگی افزایش می‌دهد.

هنر متقاعدسازی نیز احتمالاً با پذیرش هوش مصنوعی پیچیده‌تر می‌شود. پیشرفت‌های هوش مصنوعی قبلاً قدرت سیستم‌های هوش مصنوعی را نشان داده است که می‌توانند انسان‌ها را متقاعد به خرید محصولات، تماشای ویدیوها و فرو رفتن بیشتر در اتاقک پژواک خود کنند. از آنجایی که سیستم‌های هوش مصنوعی شخصی‌تر، فراگیرتر و در دسترس‌تر می‌شوند، از جمله در محیط‌های بسیار طبقه‌بندی‌شده و حساس، این خطر وجود دارد که تعصبات تصمیم‌گیرندگان بر نحوه شکل‌گیری واقعیت‌ها تأثیر بگذارد.

فقدان توضیح‌پذیری هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم‌گیران دشوار می‌کند و خطر درک نادرست و تشدید را افزایش می‌دهد

رهبران غیرنظامی و نظامی دوست دارند باور کنند که کنترل محیط های اطلاعاتی خود را در دست دارند. با این حال، هوش مصنوعی می‌تواند تجربیات آنها را از نظر کیفی تغییر دهد، زیرا آنها نیز در معرض درجات مختلفی از اطلاعات نادرست و کمپین‌های اطلاعات نادرست قدرتمند مخالفان خود خواهند بود. از این رو، تعامل ما با هوش مصنوعی و ابزارهای متقاعدسازی مبتنی بر هوش مصنوعی احتمالاً بر محیط اطلاعاتی ما تأثیر می گذارد و بر نحوه تمرین و واکنش ما به پویایی اجبار تأثیر می گذارد.

پذیرش روزافزون هوش مصنوعی در حوزه نظامی چالش های مهمی را برای شیوه های بازدارندگی ایجاد می کند. فقدان توضیح‌پذیری هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم‌گیران دشوار می‌کند و خطر درک نادرست و تشدید را افزایش می‌دهد. اتخاذ زودهنگام تصمیمات مبتنی بر هوش مصنوعی ممکن است تصاویر و سوگیری های دشمن را تقویت کند، بی اعتمادی را تقویت کند و به طور بالقوه جرقه درگیری ایجاد کند. در حالی که هوش مصنوعی طیف گسترده‌ای از قابلیت‌های نظامی را افزایش می‌دهد، نمی‌تواند ناامنی اساسی را که به معضلات امنیتی در روابط بین‌دولتی دامن می‌زند، از بین ببرد. از آنجایی که دولت ها برای مزیت های استراتژیک مبتنی بر هوش مصنوعی رقابت می کنند، نوسانات و خطر تشدید افزایش می یابد. در نهایت، تراژدی عدم اطمینان و ترس بر نیاز به سیاست گذاری محتاطانه تأکید می کند زیرا هوش مصنوعی در ماشین های جنگی ما رواج بیشتری می یابد.

کد خبر: ۲۸۹٬۶۸۱

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha