به گزارش بازار، جمعی از کارشناسان حوزه فناوری در مقاله ای وضعیت فعلی هوش مصنوعی را مورد بررسی قرار داده اند.
این کارشناسان مقاله خود را در پایگاه معتبر فارین افرز منتشر کرده اند و می گویند: در سال ۱۹۸۳، بخش پژوهش و توسعه ارتش آمریکا، برنامه ای یک میلیارد دلاری را در زمینه هوش ماشینی کلید زد که هدف از آن، حفظ پیشتازی فن آورانه آمریکا در برابر رقبایش بود. از همان آغاز، دانشمندان رایانه، این پروژه را غیر واقع بینانه می دانستند، چرا که انتظارات زیادی بوجود می آورد. این برنامه سرانجام به شکست انجامید و از چشم پنتاگون افتاد. همین ناکامی موجب شد که هوش مصنوعی به «زمستانی» وارد شود که سرمایه گذاران و از جمله ارتش آمریکا از سرمایه گذاری های بزرگ در این زمینه پژوهشی امیدبخش رویگردان شده و آن را رها کنند.
امروزه، دوباره هوش مصنوعی به دلبستگی افراطی سرویس های امنیت ملی تبدیل شده و دوباره به دلیل همان چرخه مخرب «بزرگنمایی»، در معرض خطر قرار دارد چرا که انتظارات افراطی، پسرفت های اجباری با خود می آورد و موفقیت درازمدت یک فن آوری تازه و دگرش دهنده را کمرنگ می کند.
نیروهای نظامی اطراف جهان، سرمایه سنگینی روی هوش مصنوعی می گذارند تا به ابزارک (اَپ) های رزمی و امنیتی دست یابند که آنها را از دست برتر در برابر دشمنانشان برخوردار می سازد. در آمریکا هم نوعی احساس فوریت در زمینه هوش مصنوعی وجود دارد که درست هم هست. همانگونه که مارک اسپر، وزیر دفاع پیشین آمریکا، در این زمینه گفت: کسانی که برای نخستین بار در یک نسل از فن آوری ها، سرمایه گذاری می کنند، برای سالهای پس از آن، اغلب از دست برتری در صحنه نبرد برخوردارند. با این همه، انتظارات افراطی این خطر را با خود دارد که تمایلی به تحمل ناکامی نداشته باشیم و در نتیجه با دلسرد شدن از توانمندی های هوش مصنوعی، از رقبا عقب بمانیم.
مسیر بکارگیری موثر هوش مصنوعی نظامی، لاجرم یک گذر سنگلاخ است که اگر انتظارات واقع بینانه ای نداشته باشیم، حوادث و اشتباهات، تاثیری منفی و بیش از اندازه مخرب خواهند داشت. برای نمونه، هیجان بیش از اندازه درباره خودروهای کاملا خودکار آینده، به واقعیت خودروهایی می رسد که تنها قادر به پارک موازی هستند. همچنین عدم سازگاری میان انتظارات با واقعیت، میتواند به معنی پایان فن آوری های تازه باشد و بویژه وقتی دولت ها به دنبال موفقیت های سریع هستند، خطر قربانی شدن توانمندی های درازمدت، بیشتر می شود.
برنامه ریزی موفق در زمینه هوش مصنوعی، نیازمند بردباری و ارتباط محتاطانه است به شکلی که منفی بافان فرصت طلب نتوانند از حوادثی که در مسیر کار رخ می دهد، این نتیجه را بگیرند که سرنوشتی جز ناکامی و شکست وجود ندارد. این نوع پسرفت، بویژه برای هوش مصنوعی زیانبار است. تاریخچه نسبتا کوتاه هوش مصنوعی، شاهد دو پسرفت از این دست بوده که منجر به دلسردی و پرهیز از سرمایه گذاری در این رشته شده است.
مشکل دیگر، فهم و تعریف درست هوش مصنوعی است و الگوریتم های پایه آن هم، وقتی فراتر از بافت توسعه اولیه شان به کار گرفته شوند، در معرض ناکامی قرار می گیرند.
گذشته از آن، گنجاندن هوش مصنوعی در زمینه های نظامی، نیازمند دگرش هایی جهشی در همه زمینه هاست، از ساختار نیرو گرفته تا الگوهای ترغیبی تا دکترین نظامی و پاسخگویی. این شروط، لاجرم مقاومت ایجاد می کند و از آنجا که مقام های دفاعی معمولا از تخصص لازم برای دسترسی به پیشرفت های کنونی هوش مصنوعی در بخش خصوصی برخوردار نیستند، مخالفان این فن آوری تازه، به آسانی کار را به عقب می رانند. با اینهمه، نباید اجازه داد که منفی بافان، موفق شوند.
سه پیچ خطر برای فن آوری هایی همچون هوش مصنوعی وجود دارد که می تواند به پسرفت بیانجامد: نخست «دره مرگ» یعنی شکاف میان توسعه یک فن آوری در بخش خصوصی و بکارگیری آن توسط دولت ها یا ارتش هاست که اغلب مستلزم اطمینان و قطعیت بیشتری هستند. این، گورستانی است که بسیاری از ایده های بزرگ را در خود دفن می کند.
فرایند کُند و خسته کننده تست و ارزیابی هم پیچ خطر بعدی است. وزارت دفاع آمریکا، بویژه نیازمند سرمایه گذاری در زمینه فرایند کارآمدتری از تست، ارزیابی، تایید و صدور مجوز برای اپ های هوش مصنوعی است. فرایندهای کنونی، برای سامانه های یادگیری ماشینی و الگوریتم هایی که پیوسته در حال تحول هستند، طراحی نشده اند و این می تواند موجب شود که سامانه های نامعتبر به کار گرفته شوند که به نوبه خود به بی اعتمادی و مقاومت در پذیرش هوش مصنوعی منجر می شود.
مشکل آخر هم مربوط به بکارگیری اَپ ها در جهان واقعی است. هراس از نادانسته هایی همچون تاثیری که یک اَپ بر سربازان دارد، مثلا این تصور که هوش مصنوعی، نقش انسان را در جنگ کاهش می دهد، می تواند به مقاومت در بکارگیری گسترده هوش مصنوعی در بستر زمان بیانجامد.
چین و روسیه، در حال سرمایه گذاری سنگین بر روی هوش مصنوعی هستند تا حدودی به این امید که برتری متعارف نظامی آمریکا را به چالش بکشند. این یک اشتباه زیانبار است که واشنگتن اجازه دهد این فن آوری بطور بالقوه از دسترس اش دور شود. بنابراین باید میان اشتیاق به حرکت سریع رو به جلو، یعنی فشار بر فن آوری پیش از آنکه آماده باشد، و دلسردی سریع از آن به دلیل بروز حوادث غیرقابل اجتناب توازنی برقرار سازد.
به این منظور باید انتظاراتی واقع بینانه تر درباره آنچه هوش مصنوعی می تواند برای ارتش انجام دهد، تعریف شود. باید با تمرکز عوامانه بر سامانه های جنگی خودکار یا هوش مصنوعی عمومی با توانایی های فانتزی مرگبار ایستادگی کرد که بیشتر به داستان های علمی تخیلی شباهت دارند تا به واقعیت. به جای آن باید تصویری سنجیده، متکی بر آگاهی و اطلاعات و واقع بینانه از آنچه هوش مصنوعی عملا می تواند انجام دهد، بدست آوریم. همزمان باید تاکید کرد که هوش مصنوعی، جایگزین نیروی انسانی نمی شود بلکه توانایی هایش را تقویت می کند. اگر الگوریتم ها را بیشتر بعنوان توانش های رایانه ای منظور کنیم و نه جایگزین های جادویی برای بشر، به نتایج بهتری می رسیم.
پذیرش عمومی هوش مصنوعی، باید با ظرفیت فنی در دولت همخوانی داشته باشد که این به معنی مدرن سازی زیرساخت سخت افزاری و نرم افزاری وزارت دفاع است. برای مثال، سامانه های رایانه ای کهنه تری که هنوز مورد استفاده قرار دارند، فاقد زبان های رایج برنامه نویسی هستند که در بخش خصوصی رواج دارند و به روز رسانی آنها هم دشوار است و در نتیجه برای سازگاری باهوش مصنوعی، مناسب نیستند. تست های بهینه شده و شفاف در کنار فرایندهای ارزیابی، کمک می کنند تا دریابیم که آیا حوادث مرتبط با هوش مصنوعی، معلول نقص فن آوری است که رفع آن نیاز به زمان بیشتری دارد یا معلول ادراک و فهم بنیادا نادرستی است که باید کنار گذاشته شود.
افراد هم باید به روز رسانی شوند. فقدان چشمگیر فهم فنی و آگاهی از سیر گذشته هوش مصنوعی در میان سیاستمداران و مقام های دولتی باید به فوریت چاره شود. ناکامی در پرداختن به امکانات هوش مصنوعی، می تواند امنیت ملی آمریکا را به خطر اندازد و به دشمنان این امکان را بدهد تا از پیشتازی در توانمندی های نظامی برخوردار شوند. اگر تصمیم سازان نتوانند تمایز درستی میان حوادث غیرقابل پرهیز با مشکلات ذاتی هوش مصنوعی برقرار سازند، کشور از دستاوردهای این رشته محروم می شود.
نظر شما