آسیب روانی نوآوری های عصر دیجیتال؛ استثمار توسط چت جی پی تی
بازار گزارش می‌دهد؛

آسیب روانی نوآوری های عصر دیجیتال؛ استثمار توسط چت جی پی تی

آخرین افشاگری های چت جی پی تی یادآوری دیگری از استثمار فراگیر نیروی کار در نوآوری دیجیتال است.

بازار؛ گروه بین الملل: در ۱۸ ژانویه، مجله تایم افشاگری هایی را منتشر کرد که به بسیاری از افرادی که در زمینه هوش مصنوعی کار می کنند، هشدار داد. این خبر مربوط به چت جی پی تی، یک ربات چت هوش مصنوعی پیشرفته بود که هم به عنوان یکی از هوشمندترین سیستم‌های هوش مصنوعی ساخته شده تا به امروز شناخته می‌شود و هم به عنوان مرز جدیدی در سرقت ادبی احتمالی و فرسایش صنایع دستی در نوشتن.

بسیاری تعجب کرده بودند که چگونه چت جی پی تی که مخفف Chat Generative Pre-trained Transformer است، نسبت به نسخه های قبلی این فناوری که به سرعت به سخنان نفرت انگیز تبدیل می شد، بهبود یافته است. پاسخ در مقاله مجله تایم آمده است: ده‌ها کارگر کنیایی کمتر از ۲ دلار در ساعت دستمزد می‌گیرند تا حجم بی‌پایانی محتوای خشونت‌آمیز و نفرت‌انگیز را پردازش کنند تا سیستمی را که عمدتاً برای کاربران غربی عرضه می‌شود، ایمن‌تر کنند.

برای همگان باید روشن شود الگوی دیجیتالی شدن کنونی مشکل کارگری دارد. این الگو از ایده‌آل یک اینترنت باز که حول جوامعی با منافع مشترک ساخته شده است، دور می‌شود و در حال دور شدن از آن است و به سمتی می‌رود که تحت سلطه امتیازات تجاری تعداد انگشت شماری از شرکت‌های مستقر در مناطق جغرافیایی خاص است.

در این مدل، شرکت‌های بزرگ، روند استخراج و انباشت سود را برای صاحبان خود نه تنها به هزینه کارگران، بلکه همچنین به هزینه کاربران به حداکثر می‌رسانند. به کاربران دروغ می گویند که در یک جامعه برابر شرکت می کنند زیرا هر چه این شرکت ها مسلط تر شوند، قدرت نابرابر بین مالکان و کاربران فاحش تر است.

جامعه در اینجا به این معنی است که مردم عادی هزینه های اخلاقی و اجتماعی رشد بی رویه این شرکت ها را می پردازند، در حالی که صاحبان آنها سود و تحسین را جذب می کنند و توده‌ای از نیروی کار کم دستمزد تحت سخت‌ترین شرایطی که از نظر قانونی برای حفظ توهم اینترنت بهتر ممکن است، استخدام می‌شوند.

در مورد فیس بوک، یوتیوب و مدل تعدیل محتوا که در واقع طرح اولیه برون سپاری چت جی پی تی را فراهم می کند، مطالب زیادی نوشته شده است. گردانندگان محتوا وظیفه دارند جریانی دائمی از بدترین چیزهایی را که مردم در این پلتفرم ها قرار می دهند مصرف کنند و آن را برای حذف یا اقدامات بعدی علامت گذاری کنند. اغلب این ها پست هایی درباره خشونت جنسی و سایر انواع خشونت هستند.

اتباع کشورهایی که شرکت‌ها در آن مستقر هستند، به دلیل آسیب‌های روانی که کار بر آنها وارد کرده است، شکایت کرده‌اند. به عنوان مثال در سال ۲۰۲۰، فیس بوک مجبور شد ۵۲ میلیون دلار به کارمندان آمریکایی برای اختلال استرس پس از سانحه (PTSD) که پس از کار به عنوان ناظر محتوا تجربه کرده بودند، بپردازد.

در حالی که آگاهی عمومی فزاینده ای از آسیب های ثانویه و تلفاتی که مشاهده خشونت باعث ایجاد آن می شود وجود دارد، ما هنوز نمی دانیم قرار گرفتن در معرض این نوع محتوا برای یک هفته کاری کامل با بدن انسان چه می کند

در حالی که آگاهی عمومی فزاینده ای از آسیب های ثانویه و تلفاتی که مشاهده خشونت باعث ایجاد آن می شود وجود دارد، ما هنوز نمی دانیم قرار گرفتن در معرض این نوع محتوا برای یک هفته کاری کامل با بدن انسان چه می کند.

ما می دانیم که روزنامه نگاران و امدادگران اغلب با علائم جدی PTSD از مناطق درگیری بازمی گردند و حتی خواندن گزارش های منتشر شده از این مناطق درگیری می تواند تأثیر روانی داشته باشد. انجام مطالعات مشابه در مورد تأثیر کار تعدیل محتوا بر افراد به دلیل توافق نامه های عدم افشایی که اغلب از کارمندان خواسته می شود قبل از شروع به کار امضا کنند، دشوارتر است.

ما همچنین از طریق شهادت «فرانسیس هاگن»، افشاگر فیس بوک متوجه شدیم که تصمیم فیس بوک برای سرمایه گذاری ناکافی در تعدیل محتوای مناسب یک تصمیم اقتصادی بود. توییتر تحت رهبری ایلان ماسک نیز با اخراج تعداد زیادی از مدیران محتوا به کاهش هزینه‌ها پرداخته است.

عدم ارائه تعدیل محتوای مناسب منجر به افزایش سمیت پلتفرم های شبکه های اجتماعی شده و آسیب های ناشی از آن پیامدهای عمده ای در دنیای آنالوگ داشته است

عدم ارائه تعدیل محتوای مناسب منجر به افزایش سمیت پلتفرم های شبکه های اجتماعی شده است. آسیب های ناشی از آن پیامدهای عمده ای در دنیای آنالوگ داشته است. در میانمار، فیس بوک متهم به فعال کردن نسل کشی شده است. در اتیوپی و ایالات متحده آمریکا، متهم به اجازه دادن به تحریک به خشونت است. در واقع تحقیق در حوزه تعدیل محتوا و مشکلاتی که پلتفرم های اجتماعی با آن مواجه هستند، به خوبی نشان می‌دهد که مدل دیجیتالی‌سازی کنونی چه مشکلی دارد.

تصمیم جهت استفاده از یک شرکت کنیایی برای آموزش عدم تنفر به ربات چت آمریکایی باید در چارچوب یک تصمیم عمدی برای تسریع انباشت سود به بهای استفاده از نرده های محافظ معنی دار برای کاربران درک شود. این شرکت‌ها قول می‌دهند که عنصر انسانی قبل از اینکه سیستم هوش مصنوعی به اندازه کافی پیشرفت کند تا کار را به تنهایی انجام دهد، فقط یک پاسخ موقت است. اما این ادعا برای کارمندانی که امروز مورد استثمار قرار می‌گیرند فراتر از پاسخ موقت است. همچنین باید به این واقعیت اشاره کرد که مردم – زبان‌هایی که به آن‌ها صحبت می‌کنند و معنایی که به زمینه‌ها یا موقعیت‌ها نسبت می‌دهند – بسیار انعطاف‌پذیر و پویا هستند، به این معنی که اعتدال محتوا از بین نخواهد رفت.

بنابراین، برای ناظرانی که امروز آسیب می بینند، چه کاری انجام می شود و چگونه رویه کسب و کار به طور اساسی تغییر خواهد کرد تا از ناظرانی که فردا قطعاً مورد نیاز خواهند بود، محافظت شود؟ مدل دیجیتالی‌سازی که با غریزه محافظت از منافع کسانی که از سیستم بیشترین سود را می‌برند به جای کسانی که واقعاً آن را به کار می‌گیرند هدایت می‌شود، میلیاردها نفر را در برابر انواع بی‌شمار استثمار اجتماعی و اقتصادی آسیب‌پذیر می‌کند، که تأثیر آن تا مدتها ادامه خواهد داشت.

زمان آن فرا رسیده است که به این افسانه که دیجیتالی شدن و رهبری شرکت ها به نوعی از همه افراط و تفریط های گذشته سوداگری و طمع دوری می کنند، صرفاً به این دلیل که افرادی که صاحب این شرکت ها هستند تی شرت می پوشند و قول می دهند هیچ شرارتی انجام ندهند، خاتمه دهیم.

تاریخ مملو از مثال‌هایی است که نشان می‌دهد چگونه کسانی که به حال خود رها شده‌اند، این کار را انجام می‌دهند و فرصتی برای جمع‌آوری سود دارند و حقوقی را که ما برای محافظت از آسیب‌پذیرترین افراد در میان خود به آن نیاز داریم، تضییع می‌کنند.

ما باید به اصول اولیه بازگردیم و اینکه چرا در قرن گذشته نیاز به مبارزه برای تضمین حقوق کار داشتیم. حقوق کار در واقع بخشی از حقوق بشر است و این رسوایی اخیر یادآوری به موقع است که اگر به آن توجه نکنیم چیزهای زیادی را از دست خواهیم داد، زیرا حواسمان به جدیدترین چیزهای درخشان جدید پرت شده است.

کد خبر: ۲۰۴٬۵۲۳

اخبار مرتبط

اخبار رمزارزها

    برچسب‌ها

    نظر شما

    شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha