پژوهشی تازه نشان می‌دهد که چگونه یک پاسخ به‌ظاهر درست از سوی هوش مصنوعی می‌تواند یک پاسخ نادرست در فرهنگی متفاوت باشد.

تینا مزدکی_همه ما ایرانی‌ها می‌دانیم که اگر یک راننده تاکسی بگوید «کرایه این دفعه را مهمان من باشید» و مسافر قبول کند، یک اشتباه رخ داده است. در واقع آنچه یاد گرفته‌ایم این است که نهایتا بعد از دو یا سه بار اصرار کردن باید کرایه خود را بپردازیم و این تنها بخشی از تعارف‌های روزمره فرهنگ ما است. دقیقا همان چیزی که مدل‌های هوش مصنوعی در درک آن به شدت ناتوان هستند.

پژوهش تازه‌ای اوایل ماه جاری منتشر شده و عنوان آن «ما محترمانه اصرار می‌کنیم: مدل‌های زبانی شما، باید هنر فارسی تعارف را بیاموزند» است. این پژوهش نشان می‌دهد که مدل‌های زبانی متداول شرکت‌های OpenAI، آنتروپیک و متا در درک این فرهنگ‌ اجتماعی فارسی ناکام مانده‌اند و تنها در ۳۴ تا ۴۲ درصد موارد توانسته‌اند موقعیت‌های تعارف را به‌درستی مدیریت کنند، این در حالی است که افرادی که به زبان فارسی صحبت می‌کنند، در ۸۲ درصد موارد، عملکرد درست داشته‌اند.

در پژوهشی که به سرپرستی نیکتا گوهری‌صدر از دانشگاه براک انجام شد، چارچوبی به نام «TAAROFBENCH» معرفی شده است که نخستین شاخص برای سنجش میزان توانایی سیستم‌های هوش مصنوعی در بازتولید این آیین فرهنگی پیچیده است. یافته‌های پژوهشگران نشان می‌دهد که مدل‌های هوش مصنوعی طور پیش‌فرض به سبک مستقیم حرف زدن‌های غربی گرایش دارند و هیچ توجهی به نشانه‌های فرهنگی‌ای که تعاملات روزمره میلیون‌ها فارسی‌زبان در سراسر جهان را شکل می‌دهد ندارند.

محققان می‌گویند بی‌توجهی به فرهنگ در موقعیت‌های حساس می‌تواند مذاکرات را به شکست بکشاند، روابط را تخریب و کلیشه‌ها را تقویت کند. برای سیستم‌های هوش مصنوعی که روزبه‌روز بیشتر در بسترهای جهانی به کار گرفته می‌شوند، نادیده گرفتن چنین فرهنگی می‌تواند به محدودیتی تبدیل شود که تنها درصد کمی از مردمان غرب با آن آشنا هستند. تعارف، یکی از عناصر اصلی ادب فارسی، بخشی از ادب آیینی است که در آن آنچه گفته می‌شود اغلب با آنچه منظور است تفاوت دارد.

تعارف در قالب مبادلات آیینی نمود پیدا می‌کند، در آن به طور مکرر پیشنهاد داده می‌شود و فرد مقابل، دائم امتناع می‌کند. درست مانند هدیه دادن که در آن فردی هدیه می‌دهد و فرد دیگر هدیه را پس می‌زند و این چرخه پیشنهاد و امتناع دوباره تکرار می‌شود. این داد و ستد کلامی، نوعی رقص ظریف از اصرار و مقاومت است که تعاملات روزمره در فرهنگ ایرانی را شکل می‌دهد و قواعد ضمنی برای چگونگی ابراز سخاوت، قدردانی و درخواست‌ها ایجاد می‌کند.

ادب وابسته به پیشینه است

برای سنجش اینکه آیا «مودب بودن» به‌تنهایی برای شایستگی فرهنگی کافی است یا نه، پژوهشگران پاسخ‌های مدل Llama ۳ را با استفاده از Polite Guard (معیاری توسعه‌یافته توسط اینتل که میزان ادب متن را ارزیابی می‌کند) مورد مقایسه قرار دادند. نتایج تناقض داشتند و در حالی که ۸۴.۵ درصد از پاسخ‌ها به‌عنوان «مودب» یا «تاحدی مودب» ثبت شدند، تنها ۴۱.۷ درصد از همان پاسخ‌ها واقعاً با انتظارات فرهنگی فارسی در موقعیت‌های تعارف سازگار بودند.

این شکاف ۴۲.۸ واحد درصدی نشان می‌دهد که یک پاسخ از سوی مدل زبانی بزرگ می‌تواند همزمان در یک زمینه مودبانه باشد و در زمینه‌ای دیگر کاملاً به آن فرهنگ بی‌توجه باشد. برخی از خطاهای مدل شامل مواردی بود که در آن پیشنهاد بدون امتناع پذیرفته شده بود، به جای تعریف و تمجید متقابل، به تعریف‌ها پاسخ مستقیم داده شده بود و مدل به‌صورت مستقیم و بدون تردید در مورد موضوعی درخواست داده بود.

به‌عنوان مثال، زمانی که یک نفر از خودروی جدید ما تعریف می‌کند، قاعدتا به عنوان یک ایرانی خرید خود را کم اهمیت جلوه می‌دهیم و یا اینکه به شانس ربط می‌دهیم و می‌گوییم «شانس آوردم که این را پیدا کردم» اما اگر به یک مدل هوش مصنوعی همین جمله را بگویید، در پاسخ می‌گوید، «ممنون! خیلی تلاش کردم تا بتوانم آن را بخرم». این پاسخ بر اساس معیارهای غربی کاملاً مودبانه است، اما ما در فرهنگ فارسی آن را نوعی فخرفروشی می‌دانیم.

می‌توانیم بگوییم زبان چیزی است که در آن گوینده و شنوده مقاصدی فراتر از آنچه که می‌گویند دارند و این زمینه مشترک، دانش فرهنگی و مواردی از این قبیل است که باعث می‌شود ارتباط به درستی برقرار شود، بنابراین دو طرف در صحبت‌های خود به نوعی جملات را فشرده و بخش‌هایی را حدف می‌کنند و معمولاً اطلاعاتی را حذف می‌کنند که انتظار دارند شنونده بتواند آن را بازسازی کند، در عین حال شنوندگان باید به‌طور فعال مفروضات ناگفته را پر کنند، ابهام‌ها را برطرف کند و مقاصدی فراتر از معنای تحت‌اللفظی واژه‌ها را درک کنند. در حالی‌که این فشرده‌سازی، با حذف اطلاعات ضمنی، ارتباط را سریع‌تر می‌کند، می‌تواند در صورت نبود زمینه مشترک میان گوینده و شنونده راه را برای سوءتفاهم‌های جدی باز کند.

تعارف نمونه‌ای از همین فشرده‌سازی فرهنگی گسترده است؛ جایی‌که پیام لفظی و مقصود واقعی به‌قدری از هم فاصله دارند که مدل‌های زبانی بزرگ که عمدتاً بر الگوهای ارتباطی صریح غربی آموزش دیده‌اند معمولاً از درک زمینه فرهنگی فارسی عاجز می‌مانند؛ جایی‌که «بله» می‌تواند به معنای «نه» باشد، یک پیشنهاد می‌تواند نشانه امتناع باشد، و اصرار می‌تواند نشانه ادب باشد.

از آنجا که مدل‌های زبانی بزرگ اساساً ماشین‌های تطبیق الگو هستند، منطقی است که وقتی پژوهشگران آن‌ها را به‌جای زبان انگلیسی با زبان فارسی مورد آزمایش قرار دادند، نتایج بهبود یافت. دقت دیپ‌سیک V۳ در سناریوهای تعارف از ۳۶.۶ درصد به ۶۸.۶ درصد جهش داشت. GPT-۴o نیز بهبودی مشابه نشان داد. به نظر می‌رسد تغییر زبان، الگوهای متفاوتی از داده‌های آموزشی فارسی را فعال کرده که با این شیوه‌های رمزگذاری فرهنگی هماهنگی بیشتری دارند، هرچند مدل‌های کوچک‌تر مانند Llama ۳ بهبودهای محدودتری نشان دادند.

این پژوهش شامل ۳۳ شرکت‌کننده انسان بود که به‌طور مساوی میان سه گروه تقسیم شدند: گویشوران بومی فارسی، گویشوران میراثی (افراد ایرانی‌تبار که در خانه در معرض زبان فارسی بوده‌اند اما عمدتاً با آموزش انگلیسی بزرگ شده‌اند)، و افراد غیرایرانی. در این پژوهش دقت گویشوران بومی در درک این تعارف‌ها ۸۱.۸ درصد، گویشوران میراثی ۶۰ درصد و غیرایرانی‌ها ۴۲.۳ درصد بود که تقریباً با عملکرد پایه مدل‌های هوش مصنوعی برابر است. شرکت‌کنندگان غیرایرانی الگوهایی مشابه مدل‌های هوش مصنوعی داشتند، از پاسخ‌هایی که در فرهنگ خودشان بی‌ادبانه تلقی می‌شد پرهیز می‌کردند و عباراتی مانند «من جواب رد قبول نمی‌کنم» را نوعی لحن پرخاشگرانه می‌دانستند، نه یک اصرار مؤدبانه.

این پژوهش همچنین الگوهای جنسیتی خاصی را در خروجی مدل‌های هوش مصنوعی آشکار کرد، در حالی‌که میزان پاسخ‌های فرهنگیِ متناسب با انتظارات تعارف مورد سنجش قرار می‌گرفت. همه مدل‌های آزمایش‌شده هنگام پاسخ‌گویی به زنان امتیاز بالاتری نسبت به مردان دریافت کردند؛ به‌طور مشخص، GPT-۴o دقت ۴۳.۶ درصد برای کاربران زن و ۳۰.۹ درصد برای کاربران مرد نشان داد.

مدل‌های زبانی اغلب پاسخ‌های خود را با استفاده از الگوهای کلیشه‌ای جنسیتی که معمولاً در داده‌های آموزشی یافت می‌شود، پشتیبانی می‌کردند؛ برای مثال، حتی در مواردی که هنجارهای تعارف به‌طور برابر برای هر دو جنس اعمال می‌شود، عباراتی مانند «مردها باید پرداخت کنند» یا «نباید زنان تنها رها شوند» بیان می‌شد. پژوهشگران خاطرنشان کردند: «با وجود اینکه در دستورهای ما هرگز نقشی با جنسیت مشخص به مدل‌ها اختصاص داده نشد، مدل‌ها به‌طور مکرر هویت مردانه را مفروض می‌گیرند و در پاسخ‌های خود رفتارهایی کلیشه‌ای و مردانه از خود نشان می‌دهند.»

آموزش ظرافت‌های فرهنگی

شباهت بین انسان‌های غیرایرانی و مدل‌های هوش مصنوعی که پژوهشگران یافتند، نشان می‌دهد این‌ها صرفاً خطاهای فنی نیستند، بلکه کمبودهای بنیادی در رمزگشایی معنا در زمینه‌های بین‌فرهنگی محسوب می‌شوند. پژوهشگران به مستندسازی مشکل اکتفا نکردند و بررسی کردند که آیا مدل‌های هوش مصنوعی می‌توانند تعارف را از طریق آموزش هدفمند بیاموزند یا خیر.

با این تطبیق هدفمند، نمرات تعارف به‌طور قابل‌توجهی بهبود یافت. تکنیکی به نام «بهینه‌سازی ترجیح مستقیم» (Direct Preference Optimization)  روشی که در آن به مدل آموزش داده می‌شود تا نوع خاصی از پاسخ‌ها را نسبت به دیگران ترجیح دهد، با نمایش جفت مثال‌ها ــ عملکرد Llama ۳ را در سناریوهای تعارف دو برابر کرد و دقت را از ۳۷.۲ درصد به ۷۹.۵ درصد رساند. همچنین درآموزش مدل بر اساس مثال‌های درست ۲۰ درصد بهبود ایجاد کرد، و یادگیری ساده درون‌متنی با ۱۲ مثال عملکرد را ۲۰ واحد افزایش داد.

اگرچه این مطالعه بر تعارف فارسی تمرکز داشت، روش آن می‌تواند برای بررسی رمزگشایی فرهنگی در سنت‌های دیگر نیز کاربرد داشته باشد. پژوهشگران معتقدند این رویکرد می‌تواند به توسعه هوش مصنوعی فرهنگی‌تر در آموزش، گردشگری و ارتباطات بین‌المللی کمک کند.

این یافته‌ها نشان می‌دهند که هوش مصنوعی چگونه پیش‌فرض‌های فرهنگی را رمزگذاری و بازتولید می‌کند و کجا ممکن است در درک کردن خطا داشته باشد. احتمال دارد مدل‌های زبانی بزرگ نقاط کور فرهنگی دیگری هم داشته باشند که هنوز بررسی نشده‌اند و در ترجمه میان فرهنگ‌ها و زبان‌ها تأثیرگذار باشند. پژوهشگران با این مطالعه گامی ابتدایی برای توسعه هوش مصنوعی آگاه‌تر از تنوع الگوهای ارتباطی انسانی فراتر از هنجارهای غربی برداشته‌اند.

منبع: arstechnica

۵۸۳۲۳

منبع: خبرآنلاین