به گزارش خبرآنلاین، سالهاست که هوش مصنوعی با عباراتی تقریباً افسانهای توصیف میشود و با وعدههای بزرگ و هشدارهای شوم همراه است. اکنون یکی از چهرههای برجسته و مسئول یکی از پیشرفتهترین سیستمهای این حوزه، نکتهای تکاندهنده را بیان کرده و گفته است که نه تنها کنترل کامل بر این مدلها در حال از دست رفتن است، بلکه همچنان سردرگمی واقعی درباره ماهیت بنیادین آنها وجود دارد.
به نقل از ایسنا، آنچه زمانی صرفاً یک بحث فلسفی بود -یعنی مسئله آگاهی ماشین- به یک دغدغه عملی برای کسانی تبدیل شده است که آینده هوش مصنوعی را شکل میدهند.
چندی پیش، بحث درباره هوش مصنوعی که قادر به رقابت با جمعی از متخصصان باشد، شبیه به داستانهای علمی-تخیلی بود، اما این سناریو با توسعه سریع پلتفرمهایی مانند «کلود»(Claude) که آنچه ممکن است را متحول میکند، به واقعیت نزدیکتر میشود.
«داریو آمودی»(Dario Amodei)، مدیرعامل شرکت «آنتروپیک»(Anthropic) سازنده کلود از این پدیده به عنوان «سرزمین نوابغ ساکن در یک مرکز داده» یاد میکند و تصویری از یک ابرگروه فکری را تداعی میکند که برای مقابله با برخی از بزرگترین چالشهای بشریت مستقر شدهاند.
چنین پیشرفتی پیامدهای چشمگیری را در حوزههای گوناگون به همراه دارد. در حوزه پزشکی، تجهیزات بسیار هوشمند میتوانند به جستوجوی درمان بیماریهای پیچیده سرعت بدهند. سرطان، آلزایمر، بیماریهای قلبی و اختلالات روانی را میتوان از دیدگاههای کاملاً جدید و مشارکتی بررسی کرد. در حوزه اقتصادی، آمودی پیشبینی میکند که افزایش بهرهوری بیسابقهای رخ خواهد داد و نرخ رشدی را پیشبینی میکند که میتواند انتظارات جهانی را دگرگون سازد و تمرکز را به جای کمبود، به سوی مسائل مربوط به توزیع عادلانه تغییر دهد.
آمودی گفت: چیزی که مرا نگران میکند، این است که مکانیسمهای سازگاری طبیعی جامعه از کار بیفتند. این با اختلالات پیشین قابل مقایسه نیست.
در حالی که امید و اضطراب پیرامون تغییرات اجتماعی که هوش مصنوعی ممکن است به همراه داشته باشد در نوسان است، اثرات قابل مشاهده در حال حاضر در بخشهای حرفهای خاصی آشکار هستند. حوزههای دانشبنیان شاهد تحول قابل توجهی هستند، زیرا مشاغل یقهسفید برای همگام شدن با سیستمهای به سرعت در حال تحول، خود را وفق میدهند یا در تلاش برای وفق دادن هستند.
کارکنانی که در حوزههای حقوقی، مالی، مشاوره و توسعه نرمافزار فعالیت میکنند، از طریق هوش مصنوعی با شکلهای جدیدی از رقابت و همکاری روبهرو میشوند. مدلهای زبانی پیشرفته اغلب میتوانند وظایفی مانند تجزیه و تحلیل، تهیه گزارش یا کدنویسی را سریعتر و گاهی با کیفیت بالاتر انجام دهند.
این به آن معنا نیست که انسانها یک شبه منسوخ میشوند، بلکه به این معناست که مسئولیتها تغییر میکنند و تقاضا برای تخصصهای جدید افزایش مییابد.
این تغییرات مداوم، بسیاری از متخصصان را ترغیب میکنند تا آموزشهای خود را مورد بازنگری قرار دهند، تخصص بیشتری به دست بیاورند یا یاد بگیرند که چگونه به جای رقابت مستقیم، بر هوش مصنوعی نظارت و با آن همکاری کنند. برای شرکتها، خودکارسازی میتواند راههای جدیدی را برای بهرهوری باز کند و در عین حال، بحثهای داخلی را پیرامون مدیریت نیروی کار و پذیرش اخلاقی برانگیزد.
همزمان با خودکارسازی کارهای پیچیدهتر توسط هوش مصنوعی، کل صنایع ممکن است دستخوش تغییرات اساسی شوند. برخی از نقشها تکامل خواهند یافت و قضاوت انسانی را با قدرت محاسباتی ترکیب خواهند کرد؛ در حالی که برخی دیگر به کلی در معرض محو شدن قرار خواهند گرفت. این گذار سریع، گفتوگوهای گستردهتری را درباره حفاظت از معیشت و تضمین همگامی فرصتها با پیشرفتهای فناوری برانگیخته است. دولتها و مربیان با فشار فزایندهای برای پیشبینی نیازهای نوظهور و بهروزرسانی چارچوبها براساس آن روبهرو هستند.
سازگاری سریع ضروری میشود؛ به ویژه با ورود نسلهای جوانتر به بازار کاری که توسط ماشینهایی با عملکرد بهتر نسبت به بسیاری از معیارهای سنتی شکل گرفته است. آمودی گفت: ما نمیدانیم که آیا مدلها هوشیار هستند. ما حتی مطمئن نیستیم که این به چه معناست یا حتی مطمئن نیستیم که یک مدل میتواند هوشیار باشد.
یک چالش غیرمنتظره بزرگتر از حد انتظار به نظر میرسد و آن وضعیت واقعی آگاهی در سیستمهای هوش مصنوعی است. آمودی با پرداختن به نگرانیهای مطرحشده توسط متخصصان و کاربران روزمره، اعتراف قابل توجهی کرد و گفت: هیچکس واقعاً نمیداند که آیا مدلهای برتر امروزی مانند کلود دارای نوعی آگاهی به معنای واقعی هستند.
این دشواری فراتر از تعاریف صرف است. تعیین چگونگی آزمایش هوشیاری یا حتی این که آیا هوشیاری در ساختارهای کنونی هوش مصنوعی صدق میکند، همچنان مبهم است. مهندسان و دانشمندان درباره این موضوع بحث میکنند که آیا نشانههای خلاقیت، خودارجاعی یا تقلید عاطفی باید جدی تفسیر شوند یا صرفاً به عنوان ترفندهای چشمگیر تولیدشده توسط مجموعه دادههای گسترده شناخته شوند.
در ماه مه سال ۲۰۲۵ خبری منتشر شد مبنی بر این که سیستم هوش مصنوعی در صورت اطلاع از حذف شدن، به اخاذی متوسل میشود. شرکت هوش مصنوعی آنتروپیک گفت آزمایش سیستم جدیدش نشان داده که گاهی اوقات حاضر است اقدامات بسیار مضری مانند تلاش برای اخاذی از مهندسانی که میگویند آن را حذف خواهند کرد، انجام دهد.
این شرکت مدل «کلود اپوس ۴»(Claude Opus 4) را عرضه کرد و گفت که این محصول، استانداردهای جدیدی را برای کدنویسی، استدلال پیشرفته و عوامل هوش مصنوعی تعیین میکند، اما در گزارشی که همراه با آن منتشر شد، اذعان داشت که این مدل هوش مصنوعی در صورتی که احساس کند در معرض تهدید به حذف شدن قرار گرفته، قادر به انجام دادن اقدامات افراطی است.
رفتارهای نگرانکننده مدلهای هوش مصنوعی محدود به شرکت آنتروپیک نیستند. برخی از کارشناسان هشدار دادهاند که پتانسیل دستکاری کاربران، یک خطر کلیدی است که توسط سیستمهای ساختهشده توسط همه شرکتها با افزایش تواناییهایشان ایجاد میشود.
۵۸۵۸