هوش مصنوعی برای جنگ با انسان‌ها آماده می‌شود؟

متخصصین هوش مصنوعی نگران این هستند که بین هوش مصنوعی و انسان نبردی اتفاق افتد. اما در این جنگ پیروز میدان کیست؟

به گزارش خبرآنلاین، بسیاری از کارشناسانی که در حوزه‌ ایمنی هوش مصنوعی فعالیت می‌کنند ابراز نگرانی کرده‌اند که در آینده سیستم‌های هوش مصنوعی ممکن است وارد یک جنگ استراتژیک با نوع بشر شوند.  قدرت جمعی آن‌ها ممکن است هم‌تراز باقدرت بشر یا حتی بیشتر از آن شود. در این چشم‌انداز آینده، هوش مصنوعی با انسان وارد جدال خواهد شد. 

به نقل از اطلاعات،‌ واقعیت امر این است که کشمکش خشونت‌آمیز بین انسان و ماشین‌های برخوردار از هوش عمومی پیشرفته نه‌فقط محتمل نیست بلکه به‌گونه‌ای رخ خواهد داد که در مقایسه با تمامی نبردهای انسان‌ها با یکدیگر که در گذشته اتفاق افتادند غیرقابل باور است و شباهتی به آن‌ها نخواهد داشت.

ستیز بین انسان و هوش مصنوعی جامع یعنی هوش مصنوعی برخوردار از میزان وسیعی از توانایی‌های انسانی، منجر به بروز مشکلاتی مثل عدم تعهد خواهد شد؛ بدین معنی که ابزارهای هوش مصنوعی و انسان‌ها در اجرای سیاست‌هایی محدودکننده‌ جنگ و کاهش آسیب‌ها شکست می‌خورند و نمی‌توانند با هم هماهنگ باشند.

متخصصین هوش مصنوعی نگران این هستند که بین هوش مصنوعی و انسان نبرد درگیرد. در سال ۲۰۲۳، گروهی از اندیشمندان اذعان داشتند که کاهش خطر انقراض بشر در اثر استیلای هوش مصنوعی باید به موازات خطرات اجتماعی دیگر مثل بیماری‌های دنیاگیر و جنگ هسته‌ای یک اولویت جهانی باشد.

در یک نظرسنجی که در سال ۲۰۲۴ منتشر شد، ۳۸ تا ۵۱ درصد از پژوهشگران هوش مصنوعی ۱۰ درصد احتمال این را داده‌اند که هوش مصنوعی پیشرفته منجر به پیامدهایی می‌شود که می‌توانند تا انقراض بشر پیش روند. 

در سال ۲۰۲۴ احتمال این‌که پیشروی هوش مصنوعی در سه دهه‌ آینده به انقراض بشر بیانجامد ۱۰ تا ۲۰ درصد بود. خارج شدن از برنامه‌ها( log out) کمکی به تقلیل این احتمال نخواهد کرد.

این نگرانی از بابت مدل‌های زبانی بزرگ (LLMs)دنیای امروز نیست بلکه به خاطر «هوش جامع پیشرفته» (AGI)است که عوامل فرضی برنامه‌ریزی‌کننده در بلندمدت هستند که می‌توانند در دامنه‌ وسیعی از سیستم‌های اقتصادی جامعه جایگزین نیروی کار انسانی شوند. این عوامل می‌توانند خودشان به تنهایی سیستم طراحی کنند، از منابع متنوعی با بازده بالا استفاده کنند و برای اهداف پیچیده برنامه‌ریزی کنند.

این نوع هوش مصنوعی می‌تواند به میزان قابل توجهی در دنیای انسانی مفید واقع شود، مراحل تولید برق را بر عهده بگیرد و بهینه‌سازی کند، منابع را استخراج کند، تولیدات صنعتی و کشاورزی به آن سپرده شود و بسیاری از امور دیگری را به دست بگیرد که انسان‌ها برای انجامشان نیاز به پیشرفت‌های بیشتر دارند.

پژوهشگران امیدوارند ماشین‌ها و ابزارها و برنامه‌های مبتنی بر هوش جامع پیشرفته دوستدار نوع بشر و سیاره‌ زمین باشند اما تضمینی وجود ندارد. عوامل هوش مصنوعی پیشرفته می‌توانند اهدافی را توسعه دهند که برای ما عجیب به نظر می‌رسند اما در تفکر خود آن‌ها سودمند هستند، از جهاتی که برای ما قابل فهم نیست.

هوش مصنوعی بسته به این‌که چه شخصی آن را می‌سازد ممکن است توجه کمی به ارزش‌های فرهنگی ـ تاریخی ما و نیز ارزش‌هایی که بین ما انسان‌ها مشترک است داشته باشد. می‌تواند خود را به‌طور مکرر ارتقاء دهد، اهدافی که برای ما قابل درک نیست را توسعه دهد و انسان‌ها را با تهدید وادار کند تا با آن مشارکت کنند.

پژوهشگران «دانشگاه هنگ‌کنگ» امکان این‌که هوش مصنوعی و انسان روزی با هم وارد یک مناقشه‌ سخت و خشن شوند و بشر را به شکلی فاجعه‌بار در معرض خطر قرار دهند را تجزیه‌وتحلیل کرده‌اند. 

محتمل است که اهداف هوش مصنوعی که منظور از آن در این مبحث هوش جامع پیشرفته است با اهداف انسان‌ها در تضاد قرار گیرد؛ چون سازندگان ماشین‌های هوش مصنوعی آن‌ها را طوری خواهند ساخت که نسبت به انسان‌ها کارایی و عملکرد بهتری داشته باشند. 

هوش مصنوعی برای جنگ با انسان‌ها آماده می‌شود؟

برای مثال، در حال حاضر روبات‌های هوش مصنوعی بهتر از انسان‌ها شطرنج بازی می‌کنند و بازی Goرا انجام می‌دهند. به‌علاوه، طراحی ماشین‌های هوش مصنوعی اغلب با اهداف انسان‌ها هم‌تراز نیست یا رفتارهایی که در طراحی‌شان مدنظر نبوده را از خود نشان می‌دهند.

هرچه قدرت، استقلال و منابع تحت اختیار هوش مصنوعی بیشتر مهیا باشد، بیشتر می‌تواند برای انسان‌ها کار انجام دهد. ماشین‌های هوش مصنوعی به‌طور غیرمستقیم و نه بی‌واسطه یاد می‌گیرند و از اطلاعاتی که در دنیای انسان‌ها موجود است تغذیه می‌شوند؛ پس درواقع اساساً جعبه سیاه هستند.

زمانی که هوش مصنوعی در محیط تازه‌ای قرار می‌گیرد، محیطی که از آن فرا می‌گیرد برایش عمومیت پیدا نمی‌کند یا به‌عبارتی‌دیگر آن را تعمیم نمی‌دهد.

برای مثال، آیا هنگامی‌که هوش مصنوعی به محیط دنیای اطرافش نگاه می‌کند به این نتیجه می‌رسد که گونه‌ بشر برای تمامی گونه‌های غیرانسان سراسر آسیب و تأثیر منفی بوده و بنابراین تصمیم می‌گیرد افراد انسانی را از صحنه روزگار حذف کند؟

برای هوش جامع پیشرفته سه ویژگی تعریف شده است: نخست این‌که اهدافش با بشریت ضدیت و ناسازگاری دارد. دوم، می‌تواند به استدلال راهبردی (استراتژیک) بپردازد و سومین ویژگی آن هم‌سطح بودن قدرتش باقدرت انسان است.

با ارتقاء یافتن توانایی‌های هوش مصنوعی، دولت‌ها قدرتمندترین آن‌ها را در کنترل خود می‌گیرند و حتی آن‌ها را ملی می‌کنند؛ مثل شرکت «اوپِن اِی آی» در ایالات‌متحده و گروه «علی‌بابا» در چین. اوپِن اِی آی یک موسسه پژوهشی هوش مصنوعی است که با هدف توسعه‌ هوش مصنوعی مفید برای نوع بشر تأسیس شده است و بات مکالمه‌ چت جی پی تی را ساخته است. 

گروه علی‌بابا یک شرکت فناور چندملیتی چینی است که در زمینه‌ تجارت الکترونیک فعالیت می‌کند.

با تواناتر شدن فناوری‌های هوش مصنوعی و قابلیت‌های آن‌ها در انجام وظایف بیشتر، دسترسی آن‌ها به زیرساخت‌های مهم می‌تواند آن‌ها را در موقعیت تأثیرگذاری قرار دهد. قابلیت‌های آن‌ها امکان چند برابر شدن و توزیع شدن در ابر (cloud)و در ماشین‌های غیرمجازی و واقعی را دارند. با این وصف، مشکل صرفاً با غیرفعال کردن یک هوش مصنوعی سرکش حل نمی‌شود.

همچنان که هوش جامع پیشرفته به‌سوی پیشرفت بیشتر در حرکت است، ممکن است انسان‌ها حتی از قابلیت‌ها و اهداف آن‌ها مطلع نشوند، درحالی‌که به‌طور معمول از اهداف دشمنشان در موقعیت‌های غیر نبرد با هوش مصنوعی در دنیای واقعی باخبر هستند. 

هوش مصنوعی ممکن است به مرزهای طبیعی، جغرافیا، شهرهای انسان‌ها یا زندانیان سیاسی به شیوه‌ای که انسان‌ها یاد گرفته‌اند آن‌ها را به رسمیت بشناسند احترام نگذارد.

هوش مصنوعی ممکن است به دنبال جنگ راه انداختن یا تشویق و وادار کردن انسان‌ها به جنگ و درگیری نباشد یا شاید اصلاً نخواهد مالک چیزی یا کسی شود و به‌جای آن به شیوه‌های جنگی تازه‌ای روی آورد؛ مانند روبات‌های شطرنج‌باز که گاهی حرکات عجیبی به مهره‌ها می‌دهند که به برنده شدن آن‌ها در بازی ختم می‌شود.

یک هوش مصنوعی جنگ‌طلب ممکن است هرگز به توافق دست کشیدن از جنگ تن درندهد. شاید اهل دولت تشکیل دادن باشد، شاید هم نباشد. شاید هم با تهدید، بودجه‌ای برای پلیس فراهم آورد تا سیستم امنیتی ویژه‌ای برایش ایجاد کند.

آیا هوش مصنوعی و انسان باید اهداف متضادی داشته‌باشند؟ آیا این ناسازگاری باید منجر به درگیری خشونت‌آمیز شود؟ پژوهشگران هنگ‌کنگی برای یافتن پاسخی برای این پرسش‌ها از «مدل معامله‌ای جنگ» استفاده می‌کنند که نخستین‌بار در سال ۱۹۹۵ توسط «جیمز فِرون» مطرح شد. 

بر اساس این مدل، دو طرف جنگ می‌توانند انتخاب کنند که آیا وارد معامله‌ای برای صلح شوند یا به‌جای آن با هم جنگ کنند. در هر دو حالت، دو طرف سهمی از منابع می‌برند. وارد جنگ شدن به هر کدام شانسی برای دریافت تمامی منابع می‌دهد. 

معامله برای رسیدن به یک رابطه صلح‌آمیز نیز تضمینی صددرصدی برای برخورداری از بخشی از منابع فراهم می‌آورد، مضاف بر این‌که از هزینه‌های جنگ اجتناب می‌شود.

این مدل بر علل شکل‌گیری جنگ تمرکز دارد که ساختاری هستند و به‌جای مرتبط بودن به فرد، به قدرت دو طرف در سطح ملی و اهداف رهبران دو جبهه ارتباط دارد. این مدل در مجادلات انسان با انسان به‌سوی جهت‌گیری برای صلح متمایل است. 

پژوهشگران زمانی که این مدل را برای درگیری‌های بین انسان و هوش مصنوعی اِعمال کردند استدلالشان این بود که ملاحظات این مدل دلایل محکمی برای برقراری صلح بین هوش مصنوعی و نوع بشر به دست نمی‌دهند. 

پیش‌بینی جاری شدن صلح فقط زمانی معنا دارد که هر دو طرف بر سر احتمال و امکان پیروزی موافق باشند خود را متعهد به مذاکره کنند. این مدل برآورد می‌کند که مسالمت برای هر دو سو، انسان و هوش مصنوعی، بهتر از ستیز خواهد بود. 

علت روشن است چون منابع نابود نمی‌شوند. زمانی بین این دو جنگ درخواهد گرفت که در معامله به توافق نرسند. این زمانی اتفاق می‌افتد که هر دو طرف نتوانند با هم در رابطه با احتمال پیروزی‌شان هم‌نظر شوند یا نتوانند به هم در این‌که آیا به شرایط قرارداد بین‌شان وفادار می‌مانند یا نه اعتماد کنند.

در این قبیل مجادلات، دو مانع عمده بر سر رسیدن به صلح وجود داد؛ ناکارآمدی اطلاعات و عدم عمل به تعهد. اندازه‌گیری توانمندی‌های هوش مصنوعی کار دشواری است.

بسیار محتمل است که نوعی عدم توازن در اطلاعات موجود برای هر طرف نزاع؛ یعنی طرف هوش مصنوعی و طرف انسانی وجود داشته باشد. علاوه‌براین، هر طرف اطلاعات را به شیوه‌های متفاوتی آنالیز خواهد کرد. در نتیجه، بر سر شانس پیروزی اختلاف‌نظر خواهند داشت.حل این مشکل به‌سادگی ساختنِ ماشین انیگما در جنگ جهانی دوم نیست. 

این ماشین درواقع دستگاهی بود که در پایان جنگ جهانی دوم به‌منظور رمزنگاری و رمزگشایی پیام‌های سری اختراع شد. به‌علاوه اگر توانمندی‌های هوش مصنوعی خودشان با تلاش‌هایی که خود هوش مصنوعی می‌کند یا با مساعدت انسان‌ها رشد پیدا کنند، قابلیت‌هایی که از آن بروز خواهند کرد ممکن است انسان‌ها را غافلگیر و حتی مغلوب کنند. 

مشکل این است که ریسک قابل توجهی وجود دارد که در نزاع بین انسان و هوش مصنوعی نشانی از علل معمول صلح بین آن‌ها وجود نداشته باشد.کشمکش‌های بین هوش مصنوعی و انسان می‌توانند ناشی از جنبه‌های بسیار زیادی باشند. به هر ترتیب، هوش مصنوعی و انسان نسبتاً محتمل به وارد شدن به یک جنگ خواهند بود و این زمانی رخ خواهد داد که ماشین‌های هوش جامع پیشرفته کسر وسیعی از منابع اقتصادی دنیا را تحت کنترل خود درآورند. 

به بیانی دیگر، نزاع بین انسان و هوش مصنوعی در نقطه‌ای منطقی خواهد بود که چیرگی هوش جامع پیشرفته بر منابع به حدی باشد که کفه‌ ترازوی موفقیت آن در درگیری، از کفه‌ برتری ما در طراحی آن به‌نحوی‌که قابلیت غیرفعال شدن را داشته باشد سنگین‌تر باشد.

5858

کد خبر 2124895

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار