چطور چهره‌های ساخته شده با هوش مصنوعی را تشخیص دهیم؟

هوش مصنوعی روزبه‌روز در تولید چهره‌های انسانی واقع‌گراتر می‌شود؛ تا جایی که حتی «اَبَرتشخیص‌دهنده‌ها»، یعنی همان افرادی که توانایی فوق‌العاده در تشخیص چهره دارند نیز در شناسایی تصاویر جعلی عملکردی چشمگیر نداشتند. با این حال، یک پژوهش تازه نشان می‌دهد که آموزش کوتاه‌مدت می‌تواند این ضعف را تا حد قابل‌توجهی جبران کند.

تینا مزدکی_بر اساس پژوهشی که در نشریه علمی Royal Society Open Science منتشر شده، تصاویر چهره‌ای که با هوش مصنوعی تولید می‌شوند آن‌قدر واقعی‌اند که حتی افراد دارای مهارت‌های استثنایی در پردازش چهره نیز اغلب فریب می‌خورند. افراد با توانایی تشخیص معمولی، حتی عملکرد ضعیف‌تری دارند و در بیشتر موارد، چهره‌های تولیدشده با هوش مصنوعی را واقعی تلقی می‌کنند.

با این حال، پژوهش نشان می‌دهد تنها پنج دقیقه آموزش درباره خطاهای رایج در رندر چهره‌های مصنوعی می‌تواند توانایی افراد را در تشخیص تصاویر جعلی به‌طور محسوسی افزایش دهد. به گفته کتی گری، نویسنده اصلی این مطالعه و دانشیار روان‌شناسی دانشگاه ریدینگ بریتانیا، نکته دلگرم‌کننده این است که همین آموزش بسیار کوتاه، عملکرد هر دو گروه را به شکل قابل‌توجهی بهبود داد.

در این پژوهش میزان بهبود عملکرد در میان اَبَرتشخیص‌دهنده‌ها و افراد عادی تقریباً یکسان بود. از آن‌جا که اَبَرتشخیص‌دهنده‌ها در حالت پایه عملکرد بهتری دارند، این نتیجه نشان می‌دهد آن‌ها احتمالاً از سرنخ‌هایی متفاوت از خطاهای رندرینگ برای شناسایی چهره‌های جعلی استفاده می‌کنند.

او امیدوار است که در آینده بتوان از توانایی‌های تشخیصی اَبَرتشخیص‌دهنده‌ها برای مقابله مؤثرتر با تصاویر تولیدشده توسط هوش مصنوعی بهره گرفت. نویسندگان پژوهش نیز پیشنهاد می‌کنند که بهترین راه تشخیص چهره‌های مصنوعی، ترکیب الگوریتم‌های تشخیص هوش مصنوعی با رویکرد «انسان در حلقه» است؛ یعنی انسانی که آموزش دیده و از نوع اَبَرتشخیص‌دهنده‌ها باشد.

تشخیص دیپ‌فیک‌ها

در سال‌های اخیر، اینترنت با سیلی از تصاویر تولیدشده توسط هوش مصنوعی روبه‌رو شده است. چهره‌های دیپ‌فیک معمولاً با استفاده از الگوریتم‌های دو مرحله‌ای موسوم به شبکه‌های مولد تخاصمی (GAN) ساخته می‌شوند. در این فرآیند، ابتدا یک تصویر جعلی بر اساس تصاویر واقعی تولید می‌شود و سپس یک «تمایزدهنده» بررسی می‌کند که آیا تصویر واقعی است یا جعلی. با تکرار این چرخه، تصاویر جعلی به‌تدریج آن‌قدر واقعی می‌شوند که می‌توانند سیستم تشخیص را فریب دهند.

این الگوریتم‌ها اکنون به حدی پیشرفت کرده‌اند که افراد اغلب چهره‌های جعلی را واقعی‌تر از چهره‌های واقعی می‌دانند؛ از این پدیده‌ با عنوان «فراواقع‌گرایی» یاد می‌شود. در واکنش به این وضعیت، پژوهشگران به دنبال طراحی برنامه‌های آموزشی هستند که توانایی افراد را در تشخیص چهره‌های مصنوعی افزایش دهد. این آموزش‌ها به خطاهای رایج در تصاویر تولیدشده با هوش مصنوعی اشاره می‌کنند؛ از جمله دندان میانی غیرطبیعی، خط رویش عجیب مو، بافت غیرواقعی پوست، یا تناسب بیش‌ازحد اجزای صورت، چراکه چهره‌های جعلی اغلب متقارن‌تر از چهره‌های واقعی‌اند.

چطور چهره‌های ساخته شده با هوش مصنوعی را تشخیص دهیم؟

اَبَرتشخیص‌دهنده‌ها زیر ذره‌بین

اَبَرتشخیص‌دهنده‌ها در تئوری، باید در تشخیص چهره‌های جعلی بهتر از افراد عادی باشند. این افراد در آزمون‌های ادراک و شناسایی چهره عملکردی بسیار بالاتر از میانگین دارند؛ برای مثال، می‌توانند با دقت بالا تشخیص دهند که آیا دو تصویر از یک فرد ناآشنا متعلق به یک شخص هستند یا نه. با این حال، تاکنون مطالعات اندکی توانایی آن‌ها در تشخیص چهره‌های جعلی را بررسی کرده بودند.

برای پر کردن این خلأ، محققان مجموعه‌ای از آزمایش‌های آنلاین طراحی کردند و عملکرد اَبَرتشخیص‌دهنده‌ها را با افراد عادی مقایسه کردند. اَبَرتشخیص‌دهنده‌ها از پایگاه داده داوطلبان آزمایشگاه تشخیص چهره و صدا در گرینویچ انتخاب شدند؛ افرادی که در میان ۲ درصد برتر آزمون‌های تشخیص چهره قرار داشتند.

در نخستین آزمایش، تصویری از یک چهره واقعی یا تولیدشده توسط رایانه به شرکت‌کنندگان نمایش داده شد و آن‌ها ۱۰ ثانیه فرصت داشتند واقعی یا جعلی بودن آن را تشخیص دهند. نتیجه شگفت‌آور بود: ابرشناساگرها تنها ۴۱ درصد از چهره‌های جعلی را درست شناسایی کردند؛ عملکردی که تفاوتی با حدس تصادفی نداشت. افراد عادی حتی ضعیف‌تر عمل کردند و فقط حدود ۳۰ درصد از تصاویر جعلی را تشخیص دادند.

همچنین، هر دو گروه در بخشی از موارد، چهره‌های واقعی را جعلی تشخیص دادند؛ این خطا در ۳۹ درصد موارد برای ابرشناساگرها و حدود ۴۶ درصد برای افراد عادی رخ داد.

آموزش کوتاه، تأثیر بزرگ

در آزمایش دوم، گروه جدیدی از شرکت‌کنندگان ابتدا یک جلسه آموزش پنج‌دقیقه‌ای دریافت کردند که در آن نمونه‌هایی از خطاهای رایج در چهره‌های تولیدشده با هوش مصنوعی به آن‌ها نشان داده شد. سپس آن‌ها با دریافت بازخورد لحظه‌ای، ۱۰ تصویر را ارزیابی کردند و در پایان، نکات کلیدی آموزش مرور شد. پس از این مرحله، شرکت‌کنندگان دوباره آزمون اصلی را انجام دادند.

نتایج نشان داد آموزش تأثیر چشمگیری دارد؛ اَبَرتشخیص‌دهنده‌ها توانستند ۶۴ درصد از چهره‌های جعلی را شناسایی کنند و این رقم برای افراد عادی به ۵۱ درصد رسید. نرخ اشتباه در تشخیص چهره‌های واقعی تقریباً مشابه آزمایش اول باقی ماند؛ به‌طوری که اَبَرتشخیص‌دهنده‌ها در ۳۷ درصد موارد و افراد عادی در ۴۹ درصد موارد، چهره‌های واقعی را جعلی دانستند.

شرکت‌کنندگان آموزش‌دیده همچنین زمان بیشتری را صرف بررسی تصاویر کردند؛ افراد عادی به‌طور میانگین ۱.۹ ثانیه و ابرشناساگرها ۱.۲ ثانیه کندتر عمل کردند. به گفته گری، این نکته پیام مهمی دارد: برای تشخیص واقعی یا جعلی بودن یک چهره، باید مکث کرد و با دقت به جزئیات نگاه کرد.

البته پژوهشگران تأکید می‌کنند که این آزمایش بلافاصله پس از آموزش انجام شده و مشخص نیست اثر این آموزش تا چه مدت باقی می‌ماند. مایکه رامون، استاد علم داده کاربردی و متخصص پردازش چهره در دانشگاه علوم کاربردی برن سوئیس، در ارزیابی این پژوهش نوشته است که بدون آزمون مجدد شرکت‌کنندگان در بازه‌های زمانی بعدی، نمی‌توان این آموزش را یک مداخله پایدار و بلندمدت دانست. او همچنین اشاره می‌کند که برای سنجش دقیق میزان بهبود مهارت‌ها، لازم است همان افراد قبل و بعد از آموزش مورد آزمایش قرار گیرند.

منبع: livescience

۵۸۳۲۳

کد مطلب 2165549

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
7 + 6 =

آخرین اخبار