تینا مزدکی_بر اساس پژوهشی که در نشریه علمی Royal Society Open Science منتشر شده، تصاویر چهرهای که با هوش مصنوعی تولید میشوند آنقدر واقعیاند که حتی افراد دارای مهارتهای استثنایی در پردازش چهره نیز اغلب فریب میخورند. افراد با توانایی تشخیص معمولی، حتی عملکرد ضعیفتری دارند و در بیشتر موارد، چهرههای تولیدشده با هوش مصنوعی را واقعی تلقی میکنند.
با این حال، پژوهش نشان میدهد تنها پنج دقیقه آموزش درباره خطاهای رایج در رندر چهرههای مصنوعی میتواند توانایی افراد را در تشخیص تصاویر جعلی بهطور محسوسی افزایش دهد. به گفته کتی گری، نویسنده اصلی این مطالعه و دانشیار روانشناسی دانشگاه ریدینگ بریتانیا، نکته دلگرمکننده این است که همین آموزش بسیار کوتاه، عملکرد هر دو گروه را به شکل قابلتوجهی بهبود داد.
در این پژوهش میزان بهبود عملکرد در میان اَبَرتشخیصدهندهها و افراد عادی تقریباً یکسان بود. از آنجا که اَبَرتشخیصدهندهها در حالت پایه عملکرد بهتری دارند، این نتیجه نشان میدهد آنها احتمالاً از سرنخهایی متفاوت از خطاهای رندرینگ برای شناسایی چهرههای جعلی استفاده میکنند.
او امیدوار است که در آینده بتوان از تواناییهای تشخیصی اَبَرتشخیصدهندهها برای مقابله مؤثرتر با تصاویر تولیدشده توسط هوش مصنوعی بهره گرفت. نویسندگان پژوهش نیز پیشنهاد میکنند که بهترین راه تشخیص چهرههای مصنوعی، ترکیب الگوریتمهای تشخیص هوش مصنوعی با رویکرد «انسان در حلقه» است؛ یعنی انسانی که آموزش دیده و از نوع اَبَرتشخیصدهندهها باشد.
تشخیص دیپفیکها
در سالهای اخیر، اینترنت با سیلی از تصاویر تولیدشده توسط هوش مصنوعی روبهرو شده است. چهرههای دیپفیک معمولاً با استفاده از الگوریتمهای دو مرحلهای موسوم به شبکههای مولد تخاصمی (GAN) ساخته میشوند. در این فرآیند، ابتدا یک تصویر جعلی بر اساس تصاویر واقعی تولید میشود و سپس یک «تمایزدهنده» بررسی میکند که آیا تصویر واقعی است یا جعلی. با تکرار این چرخه، تصاویر جعلی بهتدریج آنقدر واقعی میشوند که میتوانند سیستم تشخیص را فریب دهند.
این الگوریتمها اکنون به حدی پیشرفت کردهاند که افراد اغلب چهرههای جعلی را واقعیتر از چهرههای واقعی میدانند؛ از این پدیده با عنوان «فراواقعگرایی» یاد میشود. در واکنش به این وضعیت، پژوهشگران به دنبال طراحی برنامههای آموزشی هستند که توانایی افراد را در تشخیص چهرههای مصنوعی افزایش دهد. این آموزشها به خطاهای رایج در تصاویر تولیدشده با هوش مصنوعی اشاره میکنند؛ از جمله دندان میانی غیرطبیعی، خط رویش عجیب مو، بافت غیرواقعی پوست، یا تناسب بیشازحد اجزای صورت، چراکه چهرههای جعلی اغلب متقارنتر از چهرههای واقعیاند.

اَبَرتشخیصدهندهها زیر ذرهبین
اَبَرتشخیصدهندهها در تئوری، باید در تشخیص چهرههای جعلی بهتر از افراد عادی باشند. این افراد در آزمونهای ادراک و شناسایی چهره عملکردی بسیار بالاتر از میانگین دارند؛ برای مثال، میتوانند با دقت بالا تشخیص دهند که آیا دو تصویر از یک فرد ناآشنا متعلق به یک شخص هستند یا نه. با این حال، تاکنون مطالعات اندکی توانایی آنها در تشخیص چهرههای جعلی را بررسی کرده بودند.
برای پر کردن این خلأ، محققان مجموعهای از آزمایشهای آنلاین طراحی کردند و عملکرد اَبَرتشخیصدهندهها را با افراد عادی مقایسه کردند. اَبَرتشخیصدهندهها از پایگاه داده داوطلبان آزمایشگاه تشخیص چهره و صدا در گرینویچ انتخاب شدند؛ افرادی که در میان ۲ درصد برتر آزمونهای تشخیص چهره قرار داشتند.
در نخستین آزمایش، تصویری از یک چهره واقعی یا تولیدشده توسط رایانه به شرکتکنندگان نمایش داده شد و آنها ۱۰ ثانیه فرصت داشتند واقعی یا جعلی بودن آن را تشخیص دهند. نتیجه شگفتآور بود: ابرشناساگرها تنها ۴۱ درصد از چهرههای جعلی را درست شناسایی کردند؛ عملکردی که تفاوتی با حدس تصادفی نداشت. افراد عادی حتی ضعیفتر عمل کردند و فقط حدود ۳۰ درصد از تصاویر جعلی را تشخیص دادند.
همچنین، هر دو گروه در بخشی از موارد، چهرههای واقعی را جعلی تشخیص دادند؛ این خطا در ۳۹ درصد موارد برای ابرشناساگرها و حدود ۴۶ درصد برای افراد عادی رخ داد.
آموزش کوتاه، تأثیر بزرگ
در آزمایش دوم، گروه جدیدی از شرکتکنندگان ابتدا یک جلسه آموزش پنجدقیقهای دریافت کردند که در آن نمونههایی از خطاهای رایج در چهرههای تولیدشده با هوش مصنوعی به آنها نشان داده شد. سپس آنها با دریافت بازخورد لحظهای، ۱۰ تصویر را ارزیابی کردند و در پایان، نکات کلیدی آموزش مرور شد. پس از این مرحله، شرکتکنندگان دوباره آزمون اصلی را انجام دادند.
نتایج نشان داد آموزش تأثیر چشمگیری دارد؛ اَبَرتشخیصدهندهها توانستند ۶۴ درصد از چهرههای جعلی را شناسایی کنند و این رقم برای افراد عادی به ۵۱ درصد رسید. نرخ اشتباه در تشخیص چهرههای واقعی تقریباً مشابه آزمایش اول باقی ماند؛ بهطوری که اَبَرتشخیصدهندهها در ۳۷ درصد موارد و افراد عادی در ۴۹ درصد موارد، چهرههای واقعی را جعلی دانستند.
شرکتکنندگان آموزشدیده همچنین زمان بیشتری را صرف بررسی تصاویر کردند؛ افراد عادی بهطور میانگین ۱.۹ ثانیه و ابرشناساگرها ۱.۲ ثانیه کندتر عمل کردند. به گفته گری، این نکته پیام مهمی دارد: برای تشخیص واقعی یا جعلی بودن یک چهره، باید مکث کرد و با دقت به جزئیات نگاه کرد.
البته پژوهشگران تأکید میکنند که این آزمایش بلافاصله پس از آموزش انجام شده و مشخص نیست اثر این آموزش تا چه مدت باقی میماند. مایکه رامون، استاد علم داده کاربردی و متخصص پردازش چهره در دانشگاه علوم کاربردی برن سوئیس، در ارزیابی این پژوهش نوشته است که بدون آزمون مجدد شرکتکنندگان در بازههای زمانی بعدی، نمیتوان این آموزش را یک مداخله پایدار و بلندمدت دانست. او همچنین اشاره میکند که برای سنجش دقیق میزان بهبود مهارتها، لازم است همان افراد قبل و بعد از آموزش مورد آزمایش قرار گیرند.
منبع: livescience
۵۸۳۲۳





نظر شما