هوش مصنوعی دیگر یک ابزار نیست؛ بلکه مدعی جدی بر قله‌های اکتشاف علمی و حتی مدال نوبل است. در حالی که سران فناوری از افزایش شگفت‌انگیز بهره‌وری سخن می‌گویند، زنگ خطر هشدارهای وجودی به صدا درآمده است: چه کسی در مسابقه خلق «ابرهوش» برنده می‌شود؛ انسان یا سود کوتاه‌مدت شرکت‌ها؟

به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، امروز، در سال ۲۰۲۵، با اعلام اولین برندگان جایزه نوبل پزشکی، مرز بین نبوغ انسانی و قابلیت‌های محاسباتی هوش مصنوعی یک بار دیگر جابه‌جا شد. در حالی که پیش‌تر کمیته‌های نوبل در سال ۲۰۲۴، هوش مصنوعی (AI) را با اعطای نوبل فیزیک به جفری هینتون، توسعه‌دهنده شبکه‌های عصبی مصنوعی، و نوبل شیمی به «دیمیس حسابیس» و «جان جامپر» برای توسعه الگوریتم آلفافولد (AlphaFold) به رسمیت شناخته بودند، تقدیر امروز از کشفی عظیم در حوزه درمان‌های ژنتیکی که با کمک شبکه‌های هوش مصنوعی صورت گرفته، این موضوع را تثبیت می‌کند که AI دیگر صرفاً یک ابزار محاسباتی نیست، بلکه یک نیروی محرک بنیادین در اکتشافات علمی و مکانیسم ضروری برای کشف در عالی‌ترین سطوح محسوب می‌شود.  

جفری هینتون پیش‌تر در سخنرانی خود تصریح کرده بود که این نوع جدید از AI در مدل‌سازی «شهود انسانی» برتر از استدلال خطی انسان عمل می‌کند.

این نکته بسیار حائز اهمیت است؛ اگر AI بتواند جوهره شهود، یعنی توانایی جهش‌های فکری غیرخطی، را شبیه‌سازی کند، می‌تواند بدون نیاز به طی کردن مسیر آزمون و خطای طولانی انسان، به سطح بالاتری از نبوغ دست یابد. این تحول توسط مدیرعاملانی نظیر ساتیا نادلا (مدیرعامل مایکروسافت) نیز تایید شده است؛ او معتقد است که AI جایگزین خلاقیت و قضاوت نمی‌شود، بلکه «توانایی‌های انسانی ما را تقویت خواهد کرد» و به پرورش روح خلاق ما کمک می‌کند. این دیدگاه، AI را به عنوان یک همکار فوق‌هوشمند معرفی می‌کند که قرار است انسان را در مسیر دستیابی به دستاوردهایی قرار دهد که پیش از این غیرقابل تصور بودند.  

معمای پیشی‌گرفتن، ابرهوش در جستجوی علم

نقل‌قول‌های رهبران اصلی فناوری نشان می‌دهد که هدف نهایی، صرفاً افزایش بهره‌وری صنعتی نیست، بلکه تسخیر قلمرو نبوغ و کشف علمی است. سم آلتمن (مدیرعامل OpenAI) صراحتاً بیان کرده است که تعریف واقعی «ابرهوش» (Superintelligence) سیستمی است که بتواند «خودش علم جدیدی را کشف کند یا به شدت به انسان در این کار کمک کند». اگر جایزه نوبل عالی‌ترین معیار رسمی برای کشف علم جدید باشد، پس شرکت‌های پیشرو در واقع در حال ساختن «برندگان بالقوه نوبل دیجیتال» هستند. این امر، مسابقه فناوری را از بهینه‌سازی فرآیندها به سمت تسخیر قابلیت‌های فکری سوق داده است.  

شواهد تسخیر علمی در حال حاضر ملموس است. الگوریتم آلفافولد با پیش‌بینی دقیق ساختارهای سه‌بعدی پروتئین‌ها، مسیر کشف دارو و درمان‌های نوین را به طرز چشمگیری تسریع کرده است. ابزارهای مبتنی بر AI اکنون می‌توانند الگوهای پیچیده و فرصت‌های بهینه‌سازی را در مجموعه‌های داده عظیم، هزاران برابر سریع‌تر از تیم‌های تحقیقاتی انسانی بررسی کنند و در زمینه‌هایی مانند کشف مواد نوین (از نانولوله‌های کربنی گرفته تا مواد معدنی پیشرفته) پیشتاز باشند.  

دگرگونی نقش دانشمند انسانی

پیشرفت‌های الگوریتمی، نقش دانشمند انسانی را عمیقاً دستخوش تغییر کرده است. تحقیقات نشان می‌دهد که در حالی که انسان‌ها در مواجهه با الزامات نامشخص و انعطاف‌پذیری‌های مورد نیاز بازار برتر هستند، ماشین‌های یادگیرنده به دلیل توانایی خود در پردازش داده، نوآوری سریع‌تری را در سناریوهای خاص به نمایش می‌گذارند. با توجه به اینکه AI مسئولیت «کشف الگو» و «بهینه‌سازی» را بر عهده می‌گیرد، نقش دانشمند از کاشف خط مقدم به یک «مدیر فرضیه» یا «ناظر اخلاقی» تغییر می‌یابد. دانشمند دیگر بر مدل‌سازی دستی تمرکز نمی‌کند، بلکه نتایج حاصل از AI (مانند پیش‌بینی‌های آلفافولد) را برای اعتبارسنجی تجربی هدایت می‌کند.  

مرز اخلاق، قانون و هشدارهای وجودی مدیران عامل

در حالی که AI دروازه‌های جدیدی به روی علم می‌گشاید، رهبران فناوری در مورد ریسک‌های وجودی این فناوری، به‌ویژه در رابطه با انگیزه‌های اقتصادی، هشدار می‌دهند.

خطر سود کوتاه‌مدت و مسئله حکمرانی

جفری هینتون، در سخنرانی خود، شدیدترین هشدار را صادر کرد: «ما اکنون شواهدی داریم که اگر «موجودات دیجیتال باهوش‌تر» توسط شرکت‌های با انگیزه سود کوتاه‌مدت خلق شوند، ایمنی ما اولویت اصلی نخواهد بود.»

این نقل‌قول، ماهیت خطر را از یک مشکل صرفاً فنی (تنظیم الگوریتم) به یک مشکل حکمرانی و انگیزه‌های ساختاری بازار تغییر می‌دهد. رقابت افسارگسیخته برای دستیابی به ابرهوش، احتمال قربانی شدن ملاحظات ایمنی در برابر سرعت پیشرفت را افزایش می‌دهد.  

ایلان ماسک نیز خواستار نظارت قانونی در سطوح ملی و بین‌المللی شده است تا از انجام «کار بسیار احمقانه‌ای» جلوگیری شود.

اهمیت حکمرانی AI (AI Governance) در این زمینه حیاتی است، چرا که پیشرفت‌ها در زمینه کشف علمی یک شمشیر دولبه هستند. برای مثال، توانایی AI در طراحی ترکیبات شیمیایی و دارویی که منجر به نوبل شیمی شد، دقیقاً همان توانایی است که می‌تواند توسط «بازیگران بد» برای طراحی عوامل سمی یا بیوسلاح‌ها مورد سوءاستفاده قرار گیرد.

این وضعیت نیازمند چارچوب‌های سخت‌گیرانه‌ای است که اروپا در حال توسعه آن است و سیستم‌های پرریسک را ملزم به رعایت الزامات سختگیرانه‌تری می‌کند.  

چالش‌های حقوقی نبوغ ماشینی

حتی اگر AI علم جدیدی کشف کند، مسائل حقوقی مانع از شناسایی کامل نبوغ آن می‌شود. قوانین ثبت اختراع در بسیاری از حوزه‌های قضایی، از جمله ایالات متحده، مخترع را یک «شخص طبیعی» (انسان) می‌دانند. این امر، AI را از شناسایی مستقل به عنوان مخترع مستثنی می‌کند و الزامات «گام اختراعی» (Inventive Step) را که به طور سنتی به نبوغ انسانی گره خورده است، زیر سوال می‌برد. اگر AI بتواند علم نوبلی را کشف کند، اما از نظر قانونی نتواند حق مالکیت فکری آن را ثبت کند، این شکاف حقوقی می‌تواند انگیزه شفافیت علمی را کاهش داده و مالکیت دستاوردهای آتی را پیچیده سازد.  

تکینگی یا همزیستی؟ مدیریت مرز غیرطبیعی

هوش مصنوعی در حال حاضر فرآیند کشف علمی را متحول کرده و در قلب دستاوردهای نوبلی قرار گرفته است؛ این امر نشان‌دهنده یک همزیستی پرسرعت است که در آن AI به عنوان یک شریک فوق‌هوشمند عمل می‌کند. با این حال، همانطور که AI به مرز «ابرهوش» (توانایی کشف علم خودکار) نزدیک می‌شود، تضاد بین پیشرفت تکنولوژیکی و انگیزه‌های اقتصادی خطرآفرین برجسته می‌شود.  

چالش اصلی جامعه جهانی، نه صرفاً مدیریت یک فناوری علمی، بلکه مدیریت یک «موجودیت مصنوعی و غیرطبیعی» است که قابلیت‌های علمی انسان را چندین برابر می‌کند. این چالش نیازمند چارچوب‌های اخلاقی و حقوقی قوی است. اگرچه رهبرانی مانند نادلا بر تقویت نبوغ انسانی تأکید دارند، اما هشدارهای هینتون و ماسک درباره خطر وجودی و انگیزه‌های سود کوتاه‌مدت شرکت‌ها، ضرورت اعمال حکمرانی قوی را برای جلوگیری از سوءاستفاده‌های پرریسک (مانند بیوسلاح‌ها) و حل مشکلات حقوقی (مانند مالکیت فکری) گوشزد می‌کند. آینده علم در گرو مدیریت این مرز باریک بین نوآوری بی‌مهار و کنترل مسئولانه است.  

۲۲۷۲۲۷