اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی
تسخیر رسانه‌های اجتماعی با شبح دیجیتالی

اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی

با پیشرفت فناوری و هوش مصنوعی، بسیاری از پلتفرم‌ها شاهد ظهور حساب‌های کاربری جعلی هستند که نقش مهمی در گسترش اطلاعات نادرست و دستکاری افکار عمومی ایفا می‌کنند.

بازار، گروه اقتصاد دیجیتال: فناوری همچنان به طور فزاینده ای کنترل خود را بر دنیای ما تحمیل می کند و ردپای خود را در تمام جزئیات زندگی روزمره ما به جا می گذارد و ظهور هوش مصنوعی این وضعیت را تشدید کرده است تا به "شبحی" تبدیل شود که انسان ها را حتی در دنیای مجازی و پلتفرم های رسانه های اجتماعی تحت تاثیر قرار می دهد.

ظهور حساب‌های مدیریت شده توسط هوش مصنوعی در رسانه‌های اجتماعی - که اغلب به عنوان "ربات‌ها" شناخته می‌شوند - بحث‌های گسترده‌ای را برانگیخته است، زیرا پیامدهای عمده‌ای بر افراد، موسسات و به طور کلی جامعه دارد.

هوش مصنوعی به عنوان یک شمشیر دولبه در دنیای رسانه های اجتماعی ثابت شده است، زیرا با ارائه محتوای شخصی سازی شده، تجربه کاربر را بهبود می بخشد، محتوای بالقوه مضر را نظارت و حذف می کند و امکان دسترسی به محتوای مورد نظر کاربران را فراهم می کند.

اما جنبه تاریک انتشار اطلاعات نادرست، دستکاری افکار عمومی، و فروپاشی اعتماد به دلیل محتوای تولید شده توسط هوش مصنوعی، حساب های کاربری جعلی و فناوری های فریبنده مانند دیپ فیک نیز وجود دارد.

برای مقابله با طرف تاریک، متا، شرکت مادر فیس بوک، اینستاگرام و واتس اپ، اخیراً موضعی قاطع در برابر گسترش این حساب ها اتخاذ کرده و هزاران حساب مظنون به مدیریت هوش مصنوعی را از پلتفرم های خود حذف کرده است که واکنش برخی کشورها را نیز در بر داشته است.

این در زمانی اتفاق می‌افتد که این شرکت بسیاری از ویژگی‌های هوش مصنوعی را برای پشتیبانی از تجربه افراد هنگام استفاده از حساب‌های رسانه‌های اجتماعی خود اضافه کرده و این سوال را ایجاد کرده است که آیا ما با آینده‌ای روبرو هستیم که توسط ماشین‌ها در دنیای دیجیتال خود کنترل می‌شود؟

اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی

داستان حذف اکانت های هوش مصنوعی

حساب‌های مبتنی بر هوش مصنوعی به طور فزاینده‌ای می‌توانند از نزدیک رفتار انسان را تقلید کنند، در بحث‌ها، پست‌گذاری و واکنش به رویدادهای جاری شرکت کنند و مرزهای بین فعالیت‌های واقعی انسان و فعالیت‌های خودکار را محو کنند.

در اواخر سال ۲۰۲۴، متا اعلام کرد که بیش از ۳۰۰۰۰ حساب کاربری در پلتفرم‌های فیس‌بوک و اینستاگرام حذف شده است، زیرا متوجه شد که آنها حساب‌هایی هستند که توسط هوش مصنوعی مدیریت می‌شوند و در فعالیت‌های غیرقابل اعتماد شرکت دارند.

این فعالیت‌ها شامل انتشار اطلاعات نادرست در مورد مسائل سیاسی، دستکاری موضوعات پرطرفدار با افزایش انتشار هشتگ‌های خاص، و ایجاد تعاملات غیر معتبر برای محبوب‌تر کردن برخی پست‌ها از آنچه هستند، می‌شد.

متا نشان داد که این حساب‌ها با نرم‌افزار هوش مصنوعی پیشرفته مرتبط هستند که کشف و برخورد با آنها را پیچیده می‌کند.

جی روزن، مدیر امنیت اطلاعات در متا گفت: «حذف این حساب‌ها نشان‌دهنده تعهد ما به مبارزه با دستکاری و اطمینان از صحت محتوای پلتفرم‌هایمان است.»

حذف متا این حساب‌ها به موازات حذف حساب‌های شخصیت‌های جعلی ایجاد شده توسط توسط هوش مصنوعی خود شرکت در سال ۲۰۲۳ انجام شد.

با افزایش استفاده از هوش مصنوعی در رسانه‌های اجتماعی، پرسش‌های اخلاقی و اجتماعی بسیاری درباره تأثیرات آن بر حریم خصوصی و اعتماد عمومی مطرح شده است

اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی

از اواخر سال ۲۰۲۳، حدود ده ها حساب برای شخصیت های الهام گرفته از هوش مصنوعی در پلتفرم های فیس بوک و اینستاگرام راه اندازی شده است.

حساب‌های این شخصیت‌ها، پست‌ها و عکس‌هایی را منتشر کردند که با استفاده از تکنیک‌های هوش مصنوعی ایجاد شده و برای چت کردن از طریق پیام‌های مستقیم در دسترس بودند.

اگرچه توجه زیادی را به خود جلب نکرد، اما جنجال های گسترده ای را برانگیخت که متا را مجبور کرد آن حساب ها را برداشته و نتایج جستجو را برای آنها محدود کند.

این اقدام متا پس از آن صورت گرفت که کاربران دوباره برخی از شخصیت‌های هوش مصنوعی را برای سال ۲۰۲۳ به نمایش گذاشتند و انتقادات گسترده‌ای را به دنبال داشت و آنها را "ترسناک و غیر ضروری" توصیف کردند.

در پلتفرم Thread، بسیاری از کاربران با انتشار پست‌هایی خواستار گزارش این شخصیت‌ها، مسدود کردن آن‌ها و اجتناب از تعامل با آن‌ها شدند، با این هدف که متا از جمع‌آوری داده‌های آموزشی بیشتر برای مدل‌های هوش مصنوعی خود جلوگیری کند.

متا در نهایت این شخصیت‌ها را تایید کرد و گفت: «اکانت‌هایی که به آن‌ها اشاره شد مربوط به آزمایشی است که ما در سال ۲۰۲۳ راه‌اندازی کردیم، توسط انسان مدیریت شد و بخشی از آزمایش اولیه‌ای بود که ما با شخصیت‌های هوش مصنوعی انجام دادیم.»

هنگامی که اکنون سعی می کنید پس از حذف اکانت این شخصیت ها در اینستاگرام آنها را جستجو کنید، یک پیغام خطایی با این مضمون ظاهر می شود که "نمی توان نتایج جستجو را بارگذاری کرد" و تایید می کند هیچ نتیجه ای مرتبط با این شخصیت ها در دسترس نیست.

اثرات منفی محاسبات هوش مصنوعی

در ۲۷ دسامبر گذشته، فایننشال تایمز داستانی در مورد برنامه های متا برای افزایش یکپارچگی بین حساب های انسانی و پروفایل های مبتنی بر هوش مصنوعی منتشر کرد، پروفایل هایی که کاربران می توانند ایجاد و سفارشی کنند.

متا در سال ۲۰۲۴ بیش از ۳۰,۰۰۰ حساب کاربری مشکوک را حذف کرد. این حساب‌ها عمدتاً توسط هوش مصنوعی مدیریت می‌شدند و در دستکاری روندهای سیاسی و انتشار اطلاعات نادرست نقش داشتند

اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی

این گزارش نشان می‌دهد که پس از اینکه متا شخصیت‌های هوش مصنوعی خود را با الهام از افراد مشهور لغو کرد، به جای آن پلتفرم «استودیو AI» را راه‌اندازی کرد تا کاربران بتوانند شخصیت‌های مبتنی بر هوش مصنوعی خود را بسازند که دیگران بتوانند با آن‌ها در سراسر پلتفرم‌های اجتماعی تعامل داشته باشند.

برنامه‌های متا در این زمینه علامت‌های سوال بسیاری را ایجاد کرده است، به‌ویژه پس از حذف هزاران حساب کاربری که توسط هوش مصنوعی مدیریت می‌شوند، که اغلب برای انتشار اطلاعات نادرست، از تأثیرگذاری بر نتایج انتخابات تا تقویت شکاف‌های اجتماعی استفاده می‌شوند.

ادامه وجود این حساب ها اثرات منفی بسیاری دارد که مهمترین آنها تضعیف اعتماد به سیستم دیجیتال است.

کاربران به طور فزاینده‌ای اعتبار پست‌ها، لایک‌ها و حتی خود حساب‌ها را زیر سوال می‌برند، و این سؤالاتی را در مورد واقعی بودن تعاملات آنلاین ایجاد می‌کند.

ربات‌ها همچنین می‌توانند حجم عظیمی از داده‌ها را بدون اطلاع کاربران جمع‌آوری کنند، که نقض آشکار حریم خصوصی است و نگرانی‌های امنیتی جدی ایجاد می‌کند.

تضعیف اعتماد متوقف نمی شود، بلکه باعث ضرر اقتصادی برای شرکت ها و مشتریان می شود، به ویژه زمانی که داده های تعامل (مانند لایک ها و نظرات) دستکاری می شوند.

این دستکاری می تواند منجر به تصمیمات بازاریابی ضعیف، هدر رفتن منابع و گاهی فریب و فریب مصرف کنندگان شود.

وطنز ماجرا جایی است که برای شناسایی و حذف حساب‌های جعلی به همان هوش مصنوعی روی آورده است.

این شرکت از الگوریتم‌های یادگیری ماشینی برای شناسایی الگوهای رفتار غیرقابل اعتماد، مانند ارسال سریع غیرعادی یا تکرار بیش از حد محتوا، استفاده می‌کند.

این شرکت میلیاردها دلار در تحقیقات هوش مصنوعی سرمایه گذاری کرده است تا توانایی های خود را برای مقابله با تهدیدات آنلاین افزایش دهد.

با این حال، منتقدان استدلال می‌کنند که راه‌حل‌های مبتنی بر هوش مصنوعی به شدت به کیفیت داده‌هایی که روی آن‌ها آموزش داده می‌شوند، متکی هستند و سیستم‌هایی که توسط هوش مصنوعی مخرب اجرا می‌شوند، اغلب از موانع تعیین‌شده توسط پلتفرم‌ها پیشی می‌گیرند و منجر به درگیری دائمی می‌شوند.

اعتماد سازی دروغین در انتخابات و بازاریابی با هوش مصنوعی!| اغفال با لایک های غیر واقعی

درگیری اخلاقی

مبارزه با حساب‌های مبتنی بر هوش مصنوعی سؤالات اخلاقی و مقرراتی بسیاری را ایجاد می‌کند، که ممکن است در نهایت دولت‌ها و سیاست‌گذاران را مجبور به وضع قوانین شفاف برای تنظیم استفاده از هوش مصنوعی در رسانه‌های اجتماعی کند.

با این حال، تدوین قوانین در این چارچوب با چالش‌های زیادی مواجه خواهد شد که مهمترین آنها تعادل بین آزادی بیان و نیاز به محدود کردن رفتارهای مضر و تضمین شفافیت در فرآیندهای نظارتی با استفاده از هوش مصنوعی است.

این قوانین همچنین باید شامل مقرراتی باشد که از داده های کاربر در برابر بهره برداری توسط سیستم های هوش مصنوعی محافظت می کند.

قانون هوش مصنوعی اروپا نمونه‌ای از تلاش‌ها برای تحمیل مقررات سختگیرانه در مورد استفاده از هوش مصنوعی است و پلتفرم‌هایی مانند متا را برای مسئولیت‌پذیری بیشتر نگه می‌دارد.

علاوه بر چالش‌های فنی و سیاسی، افزایش حساب‌های مبتنی بر هوش مصنوعی از نظر روانی بر کاربران تأثیر می‌گذارد و باعث ایجاد احساس اضطراب و عدم اطمینان نسبت به تعاملات آنلاین می‌شود و پیچیدگی بیشتری را به دنیای چالش‌برانگیز رسانه‌های اجتماعی اضافه می‌کند.

گام‌های سریع در دنیای فناوری نشان می‌دهد که شبح هوش مصنوعی در رسانه‌های اجتماعی به این زودی‌ها از بین نخواهد رفت، برعکس، چالش‌های مرتبط با استفاده نادرست از آن افزایش خواهد یافت.

بنابراین شرکت هایی مانند متا باید هوشیار باشند و از منابع تکنولوژیکی خود برای محافظت از یکپارچگی پلتفرم ها استفاده کنند.

در عین حال، جامعه باید بر افزایش آگاهی در مورد خطرات هوش مصنوعی در رسانه های اجتماعی و تشویق تفکر انتقادی و سواد دیجیتال تمرکز کند.

ترکیبی از نوآوری های تکنولوژیکی و نظارت نظارتی ممکن است در مدیریت روابط پیچیده بین هوش مصنوعی و رسانه های اجتماعی به شیوه ای مسئولانه در آینده موفق شود، اما جوامع هنوز نقش مهمی در نظارت بر این رسانه ها دارند تا اثرات منفی ناشی از آن را محدود کنند.

کد خبر: ۳۲۰٬۲۴۸

اخبار مرتبط

اخبار رمزارزها

    برچسب‌ها

    نظر شما

    شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha