آینده اخبار جعلی/ هر چه را که می‌بینید، می‌شنوید یا می‌خوانید باور نکنید

مدت‌هاست که می‌شنویم هر چه را می‌خوانید باور نکنید، اما به زودی باید به هر چه که می‌بینیم و یا می‌شنویم نیز با دیده شک بنگریم.

به گزارش خبرگزاری خبرآنلاین، در عصر فتوشاپ، فیلترها و شبکه‌های اجتماعی دیگر دیدن تصاویر دستکاری شده، عادی است. اما به زودی نسل تازه‌ای از ابزارهای دستکاری و تغییر ویدئو و صدا نیز راهی بازار خواهند شد. ابزارهایی که با پیشرفت در هوش مصنوعی و گرافیک کامپیوتری اجازه خلق ویدئوهای جعلی از هر چهره‌ای را فراهم می‌کنند.

احتمالا در آینده بعید نیست ویدئوهایی از چهره‌های مشهور ببنیم که سخنانی دور از انتظار می‌گویند. این آینده اخبار جعلی است.

اکنون گروه‌های پژوهشی بسیاری در سراسر جهان روی ضبط و تولید مصنوعی عناصر تصویری و صوتی رفتار انسانی کار می‌کنند.

در دانشگاه استنفورد نرم‌افزاری توسعه داده شده که قادر است با دستکاری چهره‌ها در ویدئو، حالات چهره فرد دیگری را به آن منتقل کند. در این روش فردی با وبکم صحبت می‌کند و نرم‌افزار مستقیما حالات چهره او را به تصاویر چهره فرد دیگری در ویدئوی اصلی منتقل می‌کند. گروه پژوهشی دانشگاه استنفورد با استفاده از این نرم‌افزار ویدئوهایی از جرج دبلیو بوش، ولادیمیر پوتین و دونالد ترامپ را دستکاری و همانند عروسک خیمه‌ شب‌بازی همان چیزی که مد نظرشان بود بر چهره آن‌ها پدیدار کردند.

نرم‌افزارهای این چنین در وهله اول ابزار سرگرمی مناسبی هستند که با افزودن صداهای مصنوعی، خروجی بسیار باورپذیری تولید می‌کنند. با استفاده از صدای مصنوعی دیگر تنها تصاویر دستکاری شده پوتین یا ترامپ را نمی‌بینیم بلکه صدایشان جعلی آن‌ها را نیز می‌شنویم.  

پژوهشگران دانشگاه آلاباما روی تولید صدا پژوهش می‌کنند. با استفاده از ۳ تا ۵ دقیقه صدای فرد هدف که زنده ضبط شده یا از یوتیوب و رادیو به دست آمده، می‌توان صدایی جعلی تولید کرد که انسان و سیستم‌های ایمنی بیومتریک را فریب می‌دهد. در این روش مهاجم با میکروفن صحبت می‌کند و نرم‌افزار صدای او را به صدای فرد هدف تبدیل می‌کند.

استارت‌آپ کانادایی «لیربرد» نیز قابلیت‌های مشابهی دارد و برای تبدیل متن به کتاب‌های صوتی با صدای شخصیت‌های مشهور بازی‌های ویدئویی استفاده می‌شود.

در نگاه نخست شاید نیت تمام این پژوهش‌ها خیرخواهانه باشد اما ترکیب آن‌ها می‌تواند به تولید اخبار جعلی از چهره‌های مشهور ختم شود.

تکنولوژی‌های این چنین فراتر از اخبار جعلی کاربردهای بسیاری دارند. نیش ساکسینا استاد و پژوهشگر دانشگاه آلاباما در بیرمنگام در این باره گفت: «با این تکنولوژی‌ها می‌توانید با صدای مادر فردی برای او پیام بگذارید یا فردی را با انتشار یک فایل صوتی بدنام کنید.»

چنین تکنولوژی‌هایی هنوز به تکامل نرسیده‌اند. هنوز صداها اندکی روباتی هستند و حالات صورتی تا حدودی غیرطبیعی جلوه می‌کنند. اما با گذر زمان قادر خواهند بود که تصویر و صدای فرد را کاملا طبیعی بازسازی کنند تا جایی که تشخیص جعلی بودنش برای انسان بسیار دشوار شود.

در حال حاضر اعتماد عمومی به رسانه‌ها با گسترش شایعات و اخبار جعلی در شبکه‌های اجتماعی دچار فرسایش شده است و با ورود این دست تکنولوژی‌ها اهمیت موشکافی در هر محتوایی که به نظر واقعی می‌رسد دو چندان می‌شود. با در نظر گرفتن سخت‌گیری رسانه‌های معتبر شاید این دست محتواها از زیر دست آن‌ها بیرون نرود اما در این میان تکلیف مطالبی که در شبکه‌های اجتماعی منتشر می‌شوند چه می‌شود، مطالبی که شاید فاجعه‌ای سیاسی یا دیپلماتیک به وجود آورد.

ساکسینا در این باره گفت: «اگر کسی با چهره ترامپ و صدای ترامپ در ویدئو چیزی بگوید مردم باور می‌کنند ترامپ است. هر چند که برای گول زدن مردم احتیاجی به این دست چیزها هم نیست اما با ورودشان وضعیت را بسیار بدتر می‌کنند.»

ترجمه:‌ فرزاد مظفری٬ منبع: گاردین/ ۲۶ جولای 

58241

برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید.
کد خبر 690752

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
9 + 4 =

نظرات

  • نظرات منتشر شده: 2
  • نظرات در صف انتشار: 0
  • نظرات غیرقابل انتشار: 0
  • بی نام IR ۰۷:۴۵ - ۱۳۹۶/۰۵/۰۴
    3 0
    مطلبتون خیلی باحال بود اما ما همین الانشم نمیدونیم چیو باور کنیم چیو نکنیم.
  • بی نام IR ۰۸:۴۵ - ۱۳۹۶/۰۵/۰۴
    0 0
    مجازي بودن همه چيز از مشخصات زندگي در فضاهاي مجازي است.