بازار؛ گروه بین الملل: در حوزه هوش مصنوعی (AI، مشکل هم ترازی به چالش های ناشی از این واقعیت اشاره دارد که رباتها دارای ارزش های مشابه ارزش های انسانی نیستند. در واقع در سطح بنیادی وقتی نوبت به ارزشها میرسد، رباتها واقعاً پیچیدهتر از درک این موضوع نیستند که ۱ با ۰ متفاوت است.
در جامعه امروزی اکنون در نقطهای هستیم که به ماشینها اجازه میدهیم برای ما تصمیم بگیرند. پس چگونه میتوان انتظار داشت آنها بفهمند که باید این کار را به گونهای انجام دهند که متضمن تعصب نسبت به افراد از نژاد یا جنسیت خاص نباشد؟ یا اینکه دنبال سرعت یا کارآمدی یا سود باید به گونه ای باشند که به قداست نهایی زندگی انسان احترام بگذارد؟
از نظر تئوری، اگر به یک خودروی خودران بگویید که از نقطه A به نقطه B حرکت کند، بدون توجه به ماشینها، عابران پیاده یا ساختمانهایی که در مسیر خود تخریب میکند، میتواند مسیر خود را به مقصد برساند.
«نیک بوستروم» استاد دانشگاه آکسفورد در این ارتباط می گوید: اگر به یک ماشین هوشمند بگویید گیره کاغذ بسازد، ممکن است در نهایت تمام جهان را در تلاش برای تبدیل مواد خام به گیره کاغذ نابود کند. اصل این است که هیچ درکی از ارزش جان انسان یا مواد ندارد یا اینکه برخی چیزها آنقدر ارزشمند هستند که به گیره کاغذ تبدیل شوند مگر اینکه به طور خاص به آن آموزش داده شود.
بر این اساس آخرین کتاب «برایان کریستین» در مورد شکل هم ترازی - اینکه چگونه هوش مصنوعی ارزش های انسانی را یاد می گیرد - می باشد. سومین کتاب او در زمینه هوش مصنوعی پس از آثار قبلی او، در مورد الگوریتم هایی برای زندگی است.
تمرکز او بر پیامدهای اجتماعی، فلسفی و روانی توانایی روزافزون ما برای ایجاد تفکر و ماشین های یادگیری است. در هر صورت، این جنبه ای از هوش مصنوعی است که در آن به بهترین متفکران نیاز داریم تا تلاش های خود را متمرکز کنند.
به هر حال، فناوری در حال حاضر در نقطه ای است که درکی از ارزش های انسانی ندارد و فقط بهتر خواهد شد. چیزی که خیلی کمتر قطعی است این است که آیا جامعه به اندازه کافی بالغ است و تدابیر امنیتی کافی برای استفاده از فرصت های شگفت انگیزی که هوش مصنوعی ارائه می دهد وجود دارد یا خیر؟
یکی از رویدادهایی که کریستین برای نشان دادن این که چگونه این ناهماهنگی میتواند در دنیای واقعی رخ دهد، استفاده میکند، اولین مرگ ثبت شده یک عابر پیاده در برخورد با یک خودروی خودران است - مرگ «الین هرزبرگ» در آریزونا ایالات متحده، در سال ۲۰۱۸.
هنگامی که هیئت ملی ایمنی حمل و نقل بررسی کرد که چه چیزی باعث برخورد بین وسیله نقلیه آزمایشی اوبر و هرزبرگ شده بود، متوجه شدند که هوش مصنوعی کنترل کننده ماشین هیچ اطلاعی از مفهوم عابرپیاده ندارد و برای مواجهه با فردی که در میانه راه، جایی که نباید می بود، کاملاً آماده نبود.
کتاب کریستین در ادامه به بررسی این موضوعات میپردازد زیرا به بسیاری از پارادایمهای مختلف که در حال حاضر در زمینه یادگیری ماشین محبوب هستند، مانند یادگیری بدون نظارت، یادگیری تقویتی و یادگیری تقلیدی مربوط میشوند. به نظر می رسد که هر یک از آنها چالش های خاص خود را در مورد همسویی ارزش ها و رفتار ماشین ها با انسان هایی که از آنها برای حل مشکلات استفاده می کنند، ارائه می دهند.
گاهی اوقات این واقعیت که یادگیری ماشین تلاش می کند تا یادگیری انسان را تکرار کند، دلیل مشکلات است. این امر ممکن است زمانی اتفاق بیفتد که اشتباهات در دادهها به این معنی باشد که هوش مصنوعی با موقعیتها یا رفتارهایی مواجه میشود که هرگز در زندگی واقعی، مغز انسان با آنها مواجه نمیشود. این بدان معناست که هیچ نقطه مرجعی وجود ندارد و دستگاه احتمالاً به اشتباهات بیشتر و بیشتری در یک سری از شکستهای آبشاری ادامه میدهد.
در یادگیری تقویتی - که شامل آموزش ماشینها برای به حداکثر رساندن شانس خود برای دستیابی به پاداش برای تصمیمگیری درست است - ماشینها میتوانند به سرعت یاد بگیرند که خوب بازی کنند و این امر ممکن است منجر به نتایجی شود که با نتایج مورد نظر ارتباطی ندارند.
در اینجا کریستین از تلاش آسترو تلر برای تشویق رباتهای فوتبالیست جهت برنده شدن در مسابقات استفاده میکند. او سیستمی را ابداع کرد که هر بار که روباتها توپ را در اختیار میگرفتند، به آنها پاداش میداد - در ظاهر عملی که به نظر میرسد برای برنده شدن در مسابقه مفید باشد.
با این حال، ماشین ها به سرعت یاد گرفتند که به سادگی به توپ نزدیک شوند و بارها آن را لمس کنند. از آنجایی که این بدان معنا بود که آنها به طور مؤثر توپ را بارها و بارها در اختیار می گرفتند، آنها جوایز متعددی را به دست آوردند - اگرچه وقتی نوبت به پیروزی در مسابقه می رسید، فایده چندانی نداشت!
کتاب کریستین مملو از نمونههای دیگری از این مشکل همترازی است و همچنین کاوش کاملی در مورد اینکه در زمان حل آن کجا هستیم. همچنین به وضوح نشان میدهد که چگونه بسیاری از نگرانیهای نخستین پیشگامان در زمینه هوش مصنوعی و ML هنوز حل نشده است و موضوعات جذابی مانند تلاش برای آغشته کردن ماشینها به ویژگیهای دیگر هوش انسانی مانند کنجکاوی را مورد بررسی قرار میدهد.
نظر شما