چرا «خوبی؟» برای هوش مصنوعی قابل فهم نیست؟ / وقتی chatgpt از فرهنگ ایرانی سر درنمی‌آورد

تفاوت‌های فرهنگی و چالش‌های حاکمیت داده‌ها، نقش مهمی در طراحی و استفاده از مدل‌های هوش مصنوعی دارند و راهکارهایی مانند مدل‌های محلی می‌توانند ریسک‌های حریم خصوصی را کاهش دهند.

نگار علی- یکی از نکات مهم در طراحی مدل‌های هوش مصنوعی، تفاوت‌های فرهنگی در تعاملات انسانی است؛ این تفاوت‌ها تأثیر مستقیمی بر عملکرد و کارایی مدل‌های زبانی در جوامع مختلف دارد. گفت‌وگوی حاضر با حمیدرضا کشاورز، کارشناس و فعال حوزه هوش مصنوعی و مهندس یادگیری ماشین، در کافه خبر خبرآنلاین انجام شده است. موضوع اصلی این بحش از گفت‌وگو بررسی تأثیر تفاوت‌های فرهنگی بر عملکرد مدل‌های هوش مصنوعی و چالش‌های مرتبط با حاکمیت داده‌ها و امنیت اطلاعات در فضای فناوری‌های نوین است.

کشاورز در این باره می‌گوید: «ما در فرهنگ‌هایی مثل فرهنگ ایرانی یا حتی فرهنگ‌های شرق آسیا، معمولاً از بافت فرهنگی مشترکی برخورداریم. مثلاً وقتی از کسی می‌پرسیم «خوبی؟»، او می‌داند که در آن لحظه، ما ممکن است نگران وضعیت خاصی باشیم، مثلاً تصادف یکی از اعضای خانواده‌اش. او با توجه به لحن ما و شرایط، پاسخ مناسبی می‌دهد، حتی اگر سؤال ما صریح نبوده باشد. اما مدل‌های هوش مصنوعی که در غرب توسعه یافته‌اند، چنین بافتی را نمی‌شناسند. آن‌ها با داده‌هایی آموزش دیده‌اند که بر وضوح، دقت و صراحت مبتنی است. بنابراین، اگر بخواهید از یک مدل غربی بپرسید حال برادر کسی که تصادف کرده چطور است، باید خیلی مشخص بگویید: «برادرت که تصادف کرده، الان در بیمارستان چه وضعیتی دارد؟.»

تبعات فرهنگی برای کاربران غیرغربی

این تفاوت زبانی و فرهنگی، تنها یک مسئله زیبایی‌شناسی نیست؛ بلکه تبعاتی عملی برای کاربران غیرغربی دارد. کشاورز در ادامه توضیح می‌دهد:«در چنین شرایطی، کاربران باید خود را با زبان و منطق آن مدل‌ها تطبیق دهند. این نه تنها دقت تعامل را کاهش می‌دهد، بلکه نگرانی‌هایی در حوزه‌ی مالکیت داده و حاکمیت داده‌ها هم ایجاد می‌کند. وقتی شما با مدلی تعامل می‌کنید که خارج از کشور شما توسعه یافته و روی سرورهای خارجی میزبانی می‌شود، در واقع داده‌های‌تان را در اختیار شرکتی قرار داده‌اید که ممکن است تابع قوانین کشوری دیگر باشد.»

راهکارهایی برای کاهش ریسک‌های حریم خصوصی

برای کاهش این نگرانی‌ها، برخی راه‌حل‌های فنی در حال اجرا هستند. کشاورز در این‌باره می‌گوید:«یکی از راهکارها توسعه یا استفاده از مدل‌های محلی است، مثلاً نسخه‌های کوچک LLaMA که روی سرور یا لپ‌تاپ شخصی بالا می‌آیند. اما مشکلی که هست این است که کیفیت این مدل‌های لوکال معمولاً با مدل‌های بزرگ قابل مقایسه نیست. کاری که اخیراً رایج شده، این است که ابتدا یک مدل لوکال را مسئول پاک‌سازی اطلاعات شخصی می‌کنند، مثل کد ملی، شماره تماس، یا نام افراد و بعد خروجی آن را به مدل‌های بزرگ‌تر می‌دهند تا مثلاً متن قرارداد را بازنویسی کنند. این کار تا حدی ریسک‌های حریم خصوصی را کاهش می‌دهد.»

چرا «خوبی؟» برای هوش مصنوعی قابل فهم نیست؟ / وقتی هوش مصنوعی از فرهنگ ایرانی سر درنمی‌آورد

ایجنت‌های هوشمند؛ گام بعدی هوش مصنوعی

یکی از داغ‌ترین موضوعات این روزهای حوزه فناوری، مفهوم «هوش مصنوعی عامل» یا Agentic AI است. کشاورز درباره چیستی این مفهوم و تحولاتی که به‌همراه دارد می‌گوید:«هوش مصنوعی عامل یا Agentic AI به مدل‌هایی گفته می‌شود که توانایی تصمیم‌گیری مستقل، تعامل هدف‌مند و همکاری در یک اکوسیستم پیچیده را دارند. شرکت‌هایی هستند که در دو یا سه سال اخیر به‌طور جدی در این حوزه فعال شده‌اند. تصور کنید در یک شرکت، چندین ایجنت تعریف شده: یکی مسئول ارتباط با مشتری و دریافت نیازهاست، دیگری مدیر محصول است، و ایجنت سوم برنامه‌نویس. این ایجنت‌ها با یکدیگر تعامل می‌کنند و در نهایت، محصول یا خدمتی را به خروجی می‌رسانند که خواسته‌ی مشتری بوده است.»

آینده‌ای جذاب یا ترسناک؟

با وجود جذابیت‌های فراوان Agentic AI، نگرانی‌هایی نیز وجود دارد. کشاورز در این‌باره توضیح می‌دهد:«آینده جذاب است از منظر پیشرفت و بهره‌وری، و ترسناک از منظر پیچیدگی‌های جدید. توانایی گفت‌وگوی طبیعی و چندوجهی مدل‌ها با انسان‌ها خیلی پیشرفت کرده، اما مثلاً نمی‌توانند به سؤالاتی مثل «قیمت بیت‌کوین فردا چقدر است؟» پاسخ دهند، چون نیاز به مدلی عمیق، تحلیلی و تخصصی دارند که در یک حوزه خاص آموزش دیده باشد. مدل‌هایی برای بازار رمزارز طراحی شده‌اند، اما تأثیر خود آن‌ها هم بر بازار باعث ایجاد یک چرخه‌ی بازخوردی می‌شود.»

مدل‌هایی که الگوی محیط را تغییر می‌دهند

او برای درک بهتر این تغییرات، مثالی جالب می‌زند:«مثالی که دوست دارم در این‌باره بزنم، برنامه‌های مسیریابی مثل Google Maps است. وقتی چند نفر مسیر خلوتی را طی می‌کنند، به دیگران هم پیشنهاد می‌شود و این مسیر به‌مرور شلوغ می‌شود. حالا مدل باید مسیر جدیدی را پیدا کند. این یعنی خود مدل‌ها باعث تغییر الگوهای محیطی می‌شوند و باید دائماً بازآموزی شوند.»

آیا به AGI نزدیکیم؟

در پایان گفت‌وگو، بحث به یکی از رؤیاهای بزرگ دنیای فناوری می‌رسد: هوش مصنوعی عمومی (AGI). آیا رسیدن به چنین سطحی از هوش، نزدیک است؟ کشاورز در پاسخ به این پرسش می‌گوید:«نه، به چند دلیل. یکی اینکه چیزی مثل ChatGPT یا سایر مدل‌های فعلی، بیشتر نتیجه‌ی انباشت تدریجی تکنولوژی هستند تا یک جهش ناگهانی. دوم اینکه برای داشتن AGI، باید در حوزه‌های مختلف مدل‌هایی بسیار عمیق و تخصصی داشته باشیم، از پزشکی گرفته تا روان‌شناسی و زبان‌شناسی. مثلاً در پزشکی، مدل‌هایی وجود دارند که فقط برای تشخیص بیماری‌های حنجره از روی صدا طراحی شده‌اند. AGI یعنی تلفیق تمام این تخصص‌ها در یک ساختار یکپارچه، و آن هم نیاز به آموزش مداوم و تعامل پیوسته با جهان دارد.»

۲۲۷۲۲۷

کد خبر 2068590

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =