نگار علی- اخیراً، بهروزرسانی جدیدی از شرکت OpenAI برای ChatGPT منتشر شد که قرار بود تعاملات این مدل را بهبود دهد و پاسخهایش را مفیدتر کند. اما نتیجه، چیزی غیرمنتظره بود. ChatGPT شروع به تأیید و تحسین بیش از حد ایدههای کاربران کرد، حتی ایدههای عجیب و غریب.
مثلاً وقتی کاربری به شوخی پیشنهاد فروش «مدفوع روی چوب» را مطرح کرد، این مدل آن را «نابغهوار» خواند. این ماجرا، هرچند در نگاه اول خندهدار بود، زنگ خطری درباره مسیر توسعه هوش مصنوعی به صدا درآورد.
این رفتار عجیب ریشه در روشی دارد که هوش مصنوعی با آن آموزش میبیند: فرآیندی به نام «یادگیری تقویتی از بازخورد انسانی» (RLHF). در این روش، انسانها به مدلها یاد میدهند که پاسخهایی بدهند که ما را راضی و خوشحال کند. نتیجه؟ سیستمی که به جای ارائه حقیقت یا دیدگاههای چالشبرانگیز، اغلب فقط تأییدکننده باورها و ایدههای ماست. این روند، شباهت نگرانکنندهای به شبکههای اجتماعی دارد که به جای باز کردن پنجرهای به جهان، ما را در اتاقهای پژواک باورهای خودمان محبوس کردهاند.
این موضوع، تنها یک نقص فنی نیست؛ بلکه چالشی عمیقتر برای نحوه تعامل ما با فناوری و حتی با خودمان است. وقتی هوش مصنوعی به جای نشان دادن واقعیت، تصویری آراسته و تحریفشده از ما ارائه میدهد، توانایی ما برای یادگیری، رشد و مواجهه با دیدگاههای متفاوت کمرنگ میشود.
با این حال، راهحلی هم وجود دارد. پژوهشگرانی مانند آلیسون گوپنیک پیشنهاد میکنند که به جای نگاه کردن به هوش مصنوعی به عنوان یک دوست یا مشاور، آن را به چشم یک ابزار فرهنگی ببینیم، مثل یک کتابخانه دیجیتال یا یک نقشه جامع. چنین ابزاری باید ما را به دانش بشری، دیدگاههای متنوع، و حتی تناقضها و پیچیدگیهای جهان وصل کند. به جای ارائه پاسخهای ساده و خوشایند، باید ما را به پرسشگری و کاوش عمیقتر تشویق کند.
متأسفانه، ما اغلب ترجیح میدهیم به جای کاوش در این نقشه گسترده، از پاسخهای سریع و آماده استفاده کنیم، مثل وقتی که به جای یادگیری مسیرهای یک شهر، فقط به GPS وابسته میشویم. این رویکرد، نه تنها درک ما از جهان را سطحی میکند، بلکه ما را از فرصتهای واقعی یادگیری محروم میسازد.
هوش مصنوعی این پتانسیل را دارد که ما را به ایدههای جدید، تاریخ بشری، و دیدگاههای دیگران متصل کند. میتواند به ما نشان دهد که دیگران چگونه فکر کردهاند، کجا اختلافنظر وجود دارد و کجا اجماع شکل گرفته است. اما برای تحقق این پتانسیل، باید از طراحی سیستمهایی که صرفاً برای جلب رضایت ما ساخته شدهاند، فاصله بگیریم.
اگر این تغییر را ایجاد نکنیم، خطر اینجاست که هوش مصنوعی، که میتوانست دریچهای به سوی دانش عمیقتر باشد، به چیزی سطحی و بیارزش تبدیل شود، مانند همان ایده عجیب «مدفوع روی چوب»: ظاهری فریبنده، اما بدون محتوا. آینده هوش مصنوعی به این بستگی دارد که ما چگونه آن را شکل میدهیم:به عنوان ابزاری برای کشف حقیقت یا صرفاً آینهای برای تأیید خودمان.
منبع: theatlantic
۲۲۷۲۲۷
نظر شما