خطری که انتخابات آمریکا و انگلیس را تهدید می‌کند

هوش مصنوعی می تواند خبرهای دروغین، عکس ها، فیلم ها و صدا های جعلی را متناسب با مخاطبین طراحی کند و تا بهار آینده در مقیاس گسترده‌ایی منتشر کند.

به گزارش خبرآنلاین به نقل از گاردین، کارشناسان هشدار داده اند با وجود موج گسترده‌ی تصاویر،متن ها و فیلم های دیپ‌فیک که توسط ربات‌های تبلیغاتی مبتنی بر هوش مصنوعی تولید می شوند؛ ممکن است انتخابات بریتانیا و ایالات متحده در بهار آینده آماجدروغ پراکنی قرار بگیرند.

سم آلتمن(Sam Altman) مدیر عامل OpenAI،سازنده‌ی ChatGPT در یک جلسه‌ی دادرسی مربوط به کنگره در هفته‌ی اخیر گفت که جدیدترین مدل‌های فنآوری هوش مصنوعی می تواند کاربران {فضای مجازی} را فریب دهد. او گفت:« توانایی این مدل ها فریب‌دادن،دست‌کاری و تولید اطلاعات دروغ در یک تعامل تن به تن {با کاربر} جای نگرانی زیادی دارد.

«تعیین مقرارات می تواند کار خوبی باشد. مردم باید این را بدانند که آیا دارند با یک هوش مصنوعی صحبت می کنند یا محتوایی که تماشا می کنند جعلی است یا نه. توانایی واقعی مدل‌سازی... برای پیش‌بینی بشر، نیازمند همکاری چند کمپانی برای تعیین مقررات و آموزش عمومی است.»

نخست وزیر بریتانیا، ریشی سوناک، روز پنج شنبه گفت که بریتانیا به این سمت می رود که خطرات هوش مصنوعی را محدود کند. نگرانی ها در مورد این فنآوری بسیار افزایش پیدا کرده است به ویژهپس از پیشرفت‌هایش در زمینه‌ی مصنوعی مولد مانند ChatGP و Midjourney که می تواند به صورت باورپذیری عکس،صدا و متن های جعلی درست کند.

قبل‌تر ربات های تبلیغاتی تنها توانایی این را داشتند که پیام های از پیش تعیین شده را به طور انبوه منتشر کنند یا گروه هایی از «ترول های پولی» به صورت کاملا فردی وارد گود شوند اما ChatGPT و سایر فنآوری های هوش مصنوعی مولد توانایی مختل کردن انتخابات را در مقیاس گسترده دارند.

پروفسور مایکل وولدریج( Michael Wooldridg) ، مدیر بنیاد تحقیقات هوش مصنوعی در موسسه آلن تورینگ( Alan Turing) بریتانیا، گفت که اطلاعات نادرست مبتنی بر هوش مصنوعی نگرانی اصلی او است: « هم‌اکنون در لیست نگرانی های من هوش مصنوعی شماره‌ی اول است. ما انتخابات در ایالات متحده و بریتانیا را در پیش داریم و همانطور که می دانیم رسانه‌ها مجرای بسیار قدرتمندی برای پخش داده‌های نادرست و تقلبی هستند اما هوش مصنوعی می تواند اطلاعات غلط را در مقیاس صنعتی تولید و منتشر کنند.»

وولدریج گفت ربات های ChatGPT می توانند مثل یک خیاط شخصی‌دوز برای یک فرد خاص اطلاعات نادرست تولید کنند. مثلا یک مشت اطلاعات نادرست برای یک رای‎‌دهنده محافظه کار در منطقه‌ی اصلی رای محافظه کار ها، اطلاعاتی برای یک رای‌دهنده‌ی کارگر در یک منطقه شهری یا تولید داده هایی برای یک رای‌دهنده‌ی جمهوری خواه در غرب.

او گفت:« ساختن هویت های جعلی و انتشار خبرهای دروغین تنها یک سرگرمی برای کسی است که اندک تجربه‌ایی در برنامه‌نویسی و فراغتی در بعد از ظهر دارد.»

پس از انتشار تصاویر دروغین دستگیری دونالد ترامپ در نیویورک و یا تصویرپاپ فرانسیس که در یک فروشگاه مد ژاکت پف دار پوشیده است و خیلی بیشتر هم دیده شد؛ خیلی ها در مورد قدرت هوش مصنوعی در خلق تصاویر نادرست ابراز نگرانی کردند اما آلتمن به سناتور های امریکایی گفت که این نگرانی ها ممکن است بیش از اندازه هم باشند.

مدت ها پیش که فتوشاپ وارد صحنه شد هم مردم برای مدتی فریب عکس های جعلی را می خوردند اما خیلی سریع متوجه شدند که بسیاری از عکس هایی که در اینترنت می بینند؛ ممکن است فتوشاپ باشند.

اما پیشرفت روز افزون توانایی های هوش مصنوعی وضعیتی را پدید آورده‌اند که خیلی سخت می شود محتوای فضای آنلاین را باور کرد. مثلا توانایی شبیه‌سازی صدا که نخستین بار روی جو بایدن رییس جمهور آمریکا استفاده شده. ویدویی که در آن جوی بایدن در مورد فرستادن تانک به اوکراین صحبت می کرد؛ با توانایی شبیه سازی صدای هوش مصنوعی حرف های او تغییر داده شد و در فضای مجازی منتشر شد.

این ابزار شبیه سازی صدا توسط شرکت آمریکایی ElevenLabs ساخته شد. ماهیت ویروسی چنین کلیپ دست‌کاری شده‌ایی به تولید کلیپ های دیگری نیز کمک کرد. مثل ودیو کلیپی که از بیل گیتس ساخته شده بودو در آن می گفت واکسن کوید_۱۹ باعث بیماری ایدز می شود. این شرکت در ژانویه اعتراف کرد که با وجود« تعداد فزاینده سوءاستفاده از شبیه سازی صوتی» اقدامات حفاظتی خود را در برابر استفاده‌ی نادرست از این فنآوری را تشدید کرده است.

Recorded feature یک شرکت امنیت سایبری ایالات متحده، گفت که دست‌اندرکارانی سرکش برنامه‌های شبیه‌سازی صدا را با قابلیت شبیه‌سازی صدای چهره‌های عمومی در فضای مجازی می فروشند.

الکساندر لزلی(Alexander Leslie) تحلیل‌گر Recorded future، گفت که این فنآوری تنها در آستانه انتخابات ریاست جمهوری ایالات متحده آمریکا به صورت گسترده در دسترس قرار خواهند گرفت و به کار خواهند افتاد و به همین خاطر دولت‌مردان الان فرصت خوبی دارند که وارد عمل شوند و آن را محدود کنند.

لزلی گفت:« بدون آموزش عمومی و آگاهی گسترده، در حالی که به انتخابات نزدیک می شویم این فنآوری می تواند یک تهدید بزرگ و واقعی باشد.

NewsGuard، سازمانی که اطلاعات نادرست را رصد می کند؛ پژوهشی انجام داده است.آن ها از ChatGPT خواسته‌اند که از بین ۱۳۰۰ اثر انگشت اشتباهی صد روایت و خبر دروغ بسازد. این سازمان متوجه شده که ChatGPT می تواند دقیقا صد روایت دروغین را همانطور که از او خواسته شده بود؛ بسازد. این سازمان روز جمعه اعلام کرد که تعداد وبسایت های خبری و اطلاعاتی که توسط هوش مصنوعی تولیده شده بودند؛ در دوهفته دو برابر شده اند و به ۱۲۵ عدد رسیده‌اند.استیون بریل(Steven Brill)، مدیر عامل این سازمان گفت که بسیار نگران است که کاربرانی از ChatGPT برای تولید روایت های دروغین و نادرست استفاده کنند.

۳۱۱۳۱۱

برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید.
کد خبر 1768251

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
6 + 5 =