بازار؛ گروه بین الملل: سایت تحلیلی شورای آتلانتیک اخیرا مقاله ای با عنوان «مدل های زبان بزرگ کوچک ذهن هستند» با قلم «جان آرکیلا پیتر دنینگ» از اساتید برجسته دانشکده تحصیلات تکمیلی نیروی دریایی ایالات متحده آمریکا در مورد ترس های غیر منطقی از هوش مصنوعی و لزوم رفع آنها جهت توجه به تأثیرات اقتصادی و اجتماعی آخرین پیشرفتها در هوش مصنوعی منتشر کرده است. ترجمه متن مقاله در ادامه می آید.
اکنون پس از احساس سرخوشی اولیه در مورد مدلهای زبان بزرگ یا LLM که هوش مصنوعی مولد آن بود، فضا به هم ریخته است و کانون توجه به سناریوهای روز قیامت است که در آن LLM ها خودآگاه می شوند، از کنترل خارج می شوند و بشریت را خاموش می کنند.
ترس از رباتهای هوشیار چیز جدیدی نیست اما این ترس محبوبیت خود را در کتاب ها، نمایشنامه ها و فیلم ها حفظ کرده است. برخی از رباتهای بد بهعنوان سیستمهای ماشینی ظاهر شدند، مانند HAL قاتل در فیلم کلاسیک استنلی کوبریک در سال ۲۰۰۱: یک ادیسه فضایی. و فراتر از رباتهای قاتل، گاهی اوقات شبکههای بزرگی از سیستمهای رباتیک مانند ماتریکس وجود دارد که هدف آن به بردگی کشیدن بشریت است.
بدترین ترس ها مربوط به این پتانسیل است که ماشین ها هوشیار شوند و ما را تحت سلطه قرار داده یا نابود کنند
بدترین ترس ها مربوط به این پتانسیل است که ماشین ها هوشیار شوند و ما را تحت سلطه قرار داده یا نابود کنند. گروهی متشکل از صداهای پیشرو از دنیای فناوری پیشرفته و سیاست، که به بهترین نحو توسط «هنری کیسینجر» خلاصه شده است، نشان می دهد که پیشرفتهای فعلی در هوش مصنوعی، جهان را در یک مسابقه دیوانهوار برای فاجعه قرار داده است.
هسته ChatGPT یک شبکه عصبی مصنوعی عظیم از ۹۶ لایه و ۱۷۵ میلیارد پارامتر است که بر روی صدها گیگابایت متن از اینترنت آموزش داده شده است. هنگامی که این برنامه با یک پرس و جو مواجه می شود، با لیستی از محتمل ترین کلمات بعدی پاسخ می دهد.
پردازشگر یکی از کلمات را با توجه به احتمالات فهرست شده انتخاب می کند. آن کلمه به فرمان اضافه می شود و چرخه تکرار می شود. آنچه ظاهر می شود رشته ای روان از کلمات است که از نظر آماری با اعلان مرتبط هستند. این رشتههای کلمات از چندین سند متنی در مجموعه آموزشی انتخاب میشوند، اما رشتهها در هیچ سند واحدی ظاهر نمیشوند. ChatGPT قادر به تأیید صحت پاسخ نیست و پاسخهایی که بیمعنی باشند، «توهم» نامیده میشوند.
با وجود غیرقابل اعتماد بودن، LLM ها می توانند برای سرگرمی و برای پیش نویس های اولیه اسناد، سخنرانی ها، پروژه های تحقیقاتی و دریافت کد مفید باشند. اما در مورد ترس از احساسات چطور؟ آیا LLM ها در نهایت می توانند آنقدر متن را جذب کنند که تمام دانش بشری را داشته باشند و از هر یک از ما باهوش تر باشند؟ آیا آنها پایان تاریخ هستند؟ پاسخ به طور واضح نه است.
مهارتهای اجرایی مانند ورزش، موسیقی، نجاری یا نوشتن نمونههای بارز دانشی هستند که نمیتوان آنها را دقیقاً توصیف و ثبت کرد
این ادعا که تمام دانش بشر در نهایت می تواند در ماشین ها تسخیر شود، منطقی نیست. ما فقط میتوانیم دانشی را در ماشینها قرار دهیم که بتوان آن را با رشتههایی از بیتها نشان داد. مهارتهای اجرایی مانند ورزش، موسیقی، نجاری یا نوشتن نمونههای بارز دانشی هستند که نمیتوان آنها را دقیقاً توصیف و ثبت کرد.
توصیف مهارت توانایی انجام کار را ارائه نمی دهد. حجم انبوه اطلاعات ثبت شده، ثبت نشده و غیرقابل ثبت بسیار فراتر از آن چیزی است که ممکن است در یک پایگاه داده ماشین ذخیره شود. هر کارکردی که می تواند توسط LLM ها انجام شود در مقایسه با توانایی های انسانی بسیار کوچک است.
علاوه بر این، استنباط آماری مطمئناً تمام داستان همکاری، خلاقیت، هماهنگی و رقابت انسانی نیست. آیا ما آنقدر مسحور مدل های زبان بزرگ شده ایم که بقیه کارهایی که انجام می دهیم را نمی بینیم؟ ما روابط ایجاد می کنیم. ما از هم مراقبت می کنیم. ما خلق و خوی خود را می شناسیم و هدایت می کنیم. ما قدرت را می سازیم و اعمال می کنیم. ما تعهداتی را می پذیریم و به آنها عمل می کنیم. ما سازمان ها و جوامع را می سازیم. ما سنت ها و تاریخ ها را خلق می کنیم. ما مسئولیت اقدامات را بر عهده می گیریم. ما اعتماد ایجاد می کنیم. ما عقل را پرورش می دهیم. ما دوست داریم. ما چیزی را تصور می کنیم که قبلاً هرگز تصور نمی شد. گل ها را بو می کنیم و با عزیزانمان جشن می گیریم. هیچ کدام از اینها آماری نیست. شکاف بزرگی بین تواناییهای LLM و تواناییهای انسان وجود دارد.
بنابراین بیایید نگرش هوشیارانه ای نسبت به LLM داشته باشیم و با مهار صحبت های پر شور شروع کنیم. اگر از عبارت «مدل آماری زبان» به جای «مدل زبان بزرگ» استفاده کنیم اوضاع چگونه خواهد بود؟ در این صورت می بینید که پیشگویی انقراض چقدر کمتر تهدیدآمیز و حتی احمقانه به نظر می رسد: بشریت به دلیل ناتوانی اش در کنترل مدل های آماری زبان منقرض می شود.
از بین بردن ترسهای غیرمنطقی به ما این امکان را میدهد تا به مسائل جدی تأثیرات اقتصادی و اجتماعی آخرین پیشرفتها در هوش مصنوعی و تمایل LLM به عدم دقت و عدم اطمینان توجه کنیم. اگر به تنشهای ژئوپلیتیکی بین ایالات متحده، چین و روسیه بپردازیم، مسابقه تسلیحاتی لجام گسیخته در هوش مصنوعی می تواند تشدید شود که ممکن است شروع به جنگ را قابل تاملتر به نظر برساند - و در واقع خطر تشدید تنش هستهای را افزایش میدهد.
از این نظر ما با کیسینجر موافقیم که هوش مصنوعی پیشرفته می تواند یک فاجعه انسانی را تسریع کند. مانند دورههای قبلی که پیشرفتهای تکنولوژیکی بزرگ را نشان میدادند، چالش اکنون ترسیم مسیری عاقلانه با از بین بردن ترس و توهم غیر ضرور است.
نظر شما