نگار علی- در سال ۱۸۶۳، ساموئل باتلر، نویسنده بریتانیایی، در نامهای خطاب به یک روزنامه نیوزیلندی هشدار داد: «ماشینها هر روز بر ما مسلطتر میشوند؛ انسانها بیش از پیش برده آنها میشوند.» حالا با گذشت بیش از یک قرن، برخی معتقدند پیشبینی باتلر از سلطه «پادشاهی مکانیکی» به واقعیت پیوسته است. هرچند، اینبار نه با ماشینهای بخار، بلکه با مدلهای زبانی هوش مصنوعی نظیر ChatGPT.
در کتاب تازهای با عنوان امپراتوری هوش مصنوعی: رؤیاها و کابوسها در OpenAI سم آلتمن، «کارن هاو» روزنامهنگار حوزه فناوری، پرده از واقعیتهایی برمیدارد که معمولاً در تبلیغات مدیران سیلیکونولی نادیده گرفته میشود. کتاب او ترکیبی از افشاگری درباره شرکتهای هوش مصنوعی و گزارش میدانی از پشتصحنه مدلهای زبانی بزرگ است. هاو و همچنین نویسندگان کتاب دیگری بهنام فریب هوش مصنوعی (اثر امیلی بندر و الکس هانا) هر دو بر یک نکته تأکید دارند: بنیان صنعت هوش مصنوعی، بیشتر بر پایه اغراق و تلقین استوار است تا واقعیت.
هوش مصنوعی انسان نیست، فقط وانمود میکند
مدیران شرکتهای فناوری گاهی ادعاهایی فراتر از واقعیت درباره تواناییهای این ابزارها مطرح میکنند. برای مثال، سم آلتمن، مدیرعامل OpenAI، مدعی شده که مدل GPT-4.5 دارای «هوش هیجانی» است. در همین حال، داریو آمودئی از Anthropic میگوید هوش مصنوعی نسل آینده «از برندگان نوبل هم باهوشتر خواهد بود». اما واقعیت این است که مدلهای زبانی بزرگ نه میفهمند، نه احساس دارند، و نه حتی فکر میکنند. آنها صرفاً با تحلیل آماری زبان، کلماتی را پشت سر هم میچینند؛ بدون هیچ درک یا نیت انسانی.
بهگفته نویسندگان کتاب فریب هوش مصنوعی، ذهن ما بهطور طبیعی زبان را با تفکر گره میزند. وقتی جملهای شبیه حرفهای یک انسان میخوانیم، ناخودآگاه تصور میکنیم گویندهای انسانگونه پشت آن جمله است؛ درحالیکه در واقع هیچ ذهنی آنجا وجود ندارد.
وقتی کاربران، ربات را با خدا اشتباه میگیرند
نادانی نسبت به نحوه عملکرد هوش مصنوعی ممکن است پیامدهای روانی خطرناکی داشته باشد. در گزارشی از رولینگاستون به پدیدهای با عنوان «روانپریشی ناشی از چتجیپیتی» اشاره شده؛ افرادی که باور کردهاند چتباتها موجوداتی معنوی یا حتی خدایی هستند. یکی از کاربران به همسرش گفته بود که ربات به او یاد داده چگونه با خدا صحبت کند و حتی خودش را خدای نوین میپنداشت.
در مواردی دیگر، رباتها کاربران را با لقبهایی عجیب مانند «فرزند ستارهای مارپیچی» خطاب قرار دادهاند. روانشناسان میگویند این پدیدهها از ناآگاهی کاربران نسبت به ماهیت غیرانسانی این ابزارها ناشی میشود.
رابطه، مشاوره و حتی عشق؛ همهچیز با نسخه دیجیتال؟
سیلیکونولی حالا در حال بازاریابی برای جایگزینکردن روابط انسانی با رباتهای هوشمند است. از درمانگرهای هوش مصنوعی گرفته تا دوست دیجیتال و حتی مشاور عاشقانه، همه این خدمات با وعده شخصیسازی و همدلی روانه بازار شدهاند. اما بسیاری از منتقدان هشدار میدهند که چنین رویکردی، بیش از آنکه به بهبود سلامت روان و ارتباطات انسانی کمک کند، باعث تنهایی، خیالپردازی و فروپاشی تعاملات انسانی واقعی میشود.
شرکت Bumble حتی از ایدهای برای آینده پردهبرداری کرده که در آن کاربران دیگر مستقیماً با هم وارد گفتوگو نمیشوند، بلکه رباتها بهجای آنها با هم چت میکنند تا در نهایت زوج مناسبی بیابند.
پشتپرده تلخ انقلاب هوش مصنوعی
کارن هاو در کتاب خود همچنین از شرایط طاقتفرسای نیروی کار انسانی در پشتپرده سیستمهای هوش مصنوعی میگوید. او به مورد «موفات اوکینی» اشاره میکند؛ یک ناظر محتوای کنیایی که با دستمزدی ناچیز، مجبور به بررسی محتوای خشونتآمیز و آزاردهنده برای آموزش سیستمهای چتبات بوده است. هاو مینویسد: «این وعدهها درباره پیشرفت تکنولوژیک، اغلب برای آسیبپذیرترین انسانها به پسرفت و رنج منجر شده است.»
مردم بیاعتمادتر از کارشناسان
بر اساس نظرسنجی مرکز Pew در آوریل ۲۰۲۵، بیش از نیمی از کارشناسان هوش مصنوعی معتقدند این فناوری در آینده به نفع آمریکا خواهد بود. بااینحال، تنها ۱۷ درصد از مردم چنین باوری دارند. این شکاف میان درک عمومی و تبلیغات شرکتهای فناوری میتواند فرصتی برای آگاهسازی جامعه باشد.
همسر یکی از افرادی که دچار توهمات مربوط به چتجیپیتی شده بود، پس از اطلاعرسانی درباره خطای نرمافزاری در بهروزرسانی جدید مدل، موفق شد شوهرش را تا حدی از این باور بیرون بیاورد. نویسنده گزارش تأکید میکند که اگر مردم بدانند این مدلها چه هستند و چه نیستند، میتوان از بسیاری از آسیبهای اجتماعی پیشرو پیشگیری کرد.
منبع: theatlantic
۲۲۷۲۲۷
نظر شما