به گزارش خبرآنلاین، بسیاری از کارشناسانی که در حوزه ایمنی هوش مصنوعی فعالیت میکنند ابراز نگرانی کردهاند که در آینده سیستمهای هوش مصنوعی ممکن است وارد یک جنگ استراتژیک با نوع بشر شوند. قدرت جمعی آنها ممکن است همتراز باقدرت بشر یا حتی بیشتر از آن شود. در این چشمانداز آینده، هوش مصنوعی با انسان وارد جدال خواهد شد.
به نقل از اطلاعات، واقعیت امر این است که کشمکش خشونتآمیز بین انسان و ماشینهای برخوردار از هوش عمومی پیشرفته نهفقط محتمل نیست بلکه بهگونهای رخ خواهد داد که در مقایسه با تمامی نبردهای انسانها با یکدیگر که در گذشته اتفاق افتادند غیرقابل باور است و شباهتی به آنها نخواهد داشت.
ستیز بین انسان و هوش مصنوعی جامع یعنی هوش مصنوعی برخوردار از میزان وسیعی از تواناییهای انسانی، منجر به بروز مشکلاتی مثل عدم تعهد خواهد شد؛ بدین معنی که ابزارهای هوش مصنوعی و انسانها در اجرای سیاستهایی محدودکننده جنگ و کاهش آسیبها شکست میخورند و نمیتوانند با هم هماهنگ باشند.
متخصصین هوش مصنوعی نگران این هستند که بین هوش مصنوعی و انسان نبرد درگیرد. در سال ۲۰۲۳، گروهی از اندیشمندان اذعان داشتند که کاهش خطر انقراض بشر در اثر استیلای هوش مصنوعی باید به موازات خطرات اجتماعی دیگر مثل بیماریهای دنیاگیر و جنگ هستهای یک اولویت جهانی باشد.
در یک نظرسنجی که در سال ۲۰۲۴ منتشر شد، ۳۸ تا ۵۱ درصد از پژوهشگران هوش مصنوعی ۱۰ درصد احتمال این را دادهاند که هوش مصنوعی پیشرفته منجر به پیامدهایی میشود که میتوانند تا انقراض بشر پیش روند.
در سال ۲۰۲۴ احتمال اینکه پیشروی هوش مصنوعی در سه دهه آینده به انقراض بشر بیانجامد ۱۰ تا ۲۰ درصد بود. خارج شدن از برنامهها( log out) کمکی به تقلیل این احتمال نخواهد کرد.
این نگرانی از بابت مدلهای زبانی بزرگ (LLMs)دنیای امروز نیست بلکه به خاطر «هوش جامع پیشرفته» (AGI)است که عوامل فرضی برنامهریزیکننده در بلندمدت هستند که میتوانند در دامنه وسیعی از سیستمهای اقتصادی جامعه جایگزین نیروی کار انسانی شوند. این عوامل میتوانند خودشان به تنهایی سیستم طراحی کنند، از منابع متنوعی با بازده بالا استفاده کنند و برای اهداف پیچیده برنامهریزی کنند.
این نوع هوش مصنوعی میتواند به میزان قابل توجهی در دنیای انسانی مفید واقع شود، مراحل تولید برق را بر عهده بگیرد و بهینهسازی کند، منابع را استخراج کند، تولیدات صنعتی و کشاورزی به آن سپرده شود و بسیاری از امور دیگری را به دست بگیرد که انسانها برای انجامشان نیاز به پیشرفتهای بیشتر دارند.
پژوهشگران امیدوارند ماشینها و ابزارها و برنامههای مبتنی بر هوش جامع پیشرفته دوستدار نوع بشر و سیاره زمین باشند اما تضمینی وجود ندارد. عوامل هوش مصنوعی پیشرفته میتوانند اهدافی را توسعه دهند که برای ما عجیب به نظر میرسند اما در تفکر خود آنها سودمند هستند، از جهاتی که برای ما قابل فهم نیست.
هوش مصنوعی بسته به اینکه چه شخصی آن را میسازد ممکن است توجه کمی به ارزشهای فرهنگی ـ تاریخی ما و نیز ارزشهایی که بین ما انسانها مشترک است داشته باشد. میتواند خود را بهطور مکرر ارتقاء دهد، اهدافی که برای ما قابل درک نیست را توسعه دهد و انسانها را با تهدید وادار کند تا با آن مشارکت کنند.
پژوهشگران «دانشگاه هنگکنگ» امکان اینکه هوش مصنوعی و انسان روزی با هم وارد یک مناقشه سخت و خشن شوند و بشر را به شکلی فاجعهبار در معرض خطر قرار دهند را تجزیهوتحلیل کردهاند.
محتمل است که اهداف هوش مصنوعی که منظور از آن در این مبحث هوش جامع پیشرفته است با اهداف انسانها در تضاد قرار گیرد؛ چون سازندگان ماشینهای هوش مصنوعی آنها را طوری خواهند ساخت که نسبت به انسانها کارایی و عملکرد بهتری داشته باشند.
برای مثال، در حال حاضر روباتهای هوش مصنوعی بهتر از انسانها شطرنج بازی میکنند و بازی Goرا انجام میدهند. بهعلاوه، طراحی ماشینهای هوش مصنوعی اغلب با اهداف انسانها همتراز نیست یا رفتارهایی که در طراحیشان مدنظر نبوده را از خود نشان میدهند.
هرچه قدرت، استقلال و منابع تحت اختیار هوش مصنوعی بیشتر مهیا باشد، بیشتر میتواند برای انسانها کار انجام دهد. ماشینهای هوش مصنوعی بهطور غیرمستقیم و نه بیواسطه یاد میگیرند و از اطلاعاتی که در دنیای انسانها موجود است تغذیه میشوند؛ پس درواقع اساساً جعبه سیاه هستند.
زمانی که هوش مصنوعی در محیط تازهای قرار میگیرد، محیطی که از آن فرا میگیرد برایش عمومیت پیدا نمیکند یا بهعبارتیدیگر آن را تعمیم نمیدهد.
برای مثال، آیا هنگامیکه هوش مصنوعی به محیط دنیای اطرافش نگاه میکند به این نتیجه میرسد که گونه بشر برای تمامی گونههای غیرانسان سراسر آسیب و تأثیر منفی بوده و بنابراین تصمیم میگیرد افراد انسانی را از صحنه روزگار حذف کند؟
برای هوش جامع پیشرفته سه ویژگی تعریف شده است: نخست اینکه اهدافش با بشریت ضدیت و ناسازگاری دارد. دوم، میتواند به استدلال راهبردی (استراتژیک) بپردازد و سومین ویژگی آن همسطح بودن قدرتش باقدرت انسان است.
با ارتقاء یافتن تواناییهای هوش مصنوعی، دولتها قدرتمندترین آنها را در کنترل خود میگیرند و حتی آنها را ملی میکنند؛ مثل شرکت «اوپِن اِی آی» در ایالاتمتحده و گروه «علیبابا» در چین. اوپِن اِی آی یک موسسه پژوهشی هوش مصنوعی است که با هدف توسعه هوش مصنوعی مفید برای نوع بشر تأسیس شده است و بات مکالمه چت جی پی تی را ساخته است.
گروه علیبابا یک شرکت فناور چندملیتی چینی است که در زمینه تجارت الکترونیک فعالیت میکند.
با تواناتر شدن فناوریهای هوش مصنوعی و قابلیتهای آنها در انجام وظایف بیشتر، دسترسی آنها به زیرساختهای مهم میتواند آنها را در موقعیت تأثیرگذاری قرار دهد. قابلیتهای آنها امکان چند برابر شدن و توزیع شدن در ابر (cloud)و در ماشینهای غیرمجازی و واقعی را دارند. با این وصف، مشکل صرفاً با غیرفعال کردن یک هوش مصنوعی سرکش حل نمیشود.
همچنان که هوش جامع پیشرفته بهسوی پیشرفت بیشتر در حرکت است، ممکن است انسانها حتی از قابلیتها و اهداف آنها مطلع نشوند، درحالیکه بهطور معمول از اهداف دشمنشان در موقعیتهای غیر نبرد با هوش مصنوعی در دنیای واقعی باخبر هستند.
هوش مصنوعی ممکن است به مرزهای طبیعی، جغرافیا، شهرهای انسانها یا زندانیان سیاسی به شیوهای که انسانها یاد گرفتهاند آنها را به رسمیت بشناسند احترام نگذارد.
هوش مصنوعی ممکن است به دنبال جنگ راه انداختن یا تشویق و وادار کردن انسانها به جنگ و درگیری نباشد یا شاید اصلاً نخواهد مالک چیزی یا کسی شود و بهجای آن به شیوههای جنگی تازهای روی آورد؛ مانند روباتهای شطرنجباز که گاهی حرکات عجیبی به مهرهها میدهند که به برنده شدن آنها در بازی ختم میشود.
یک هوش مصنوعی جنگطلب ممکن است هرگز به توافق دست کشیدن از جنگ تن درندهد. شاید اهل دولت تشکیل دادن باشد، شاید هم نباشد. شاید هم با تهدید، بودجهای برای پلیس فراهم آورد تا سیستم امنیتی ویژهای برایش ایجاد کند.
آیا هوش مصنوعی و انسان باید اهداف متضادی داشتهباشند؟ آیا این ناسازگاری باید منجر به درگیری خشونتآمیز شود؟ پژوهشگران هنگکنگی برای یافتن پاسخی برای این پرسشها از «مدل معاملهای جنگ» استفاده میکنند که نخستینبار در سال ۱۹۹۵ توسط «جیمز فِرون» مطرح شد.
بر اساس این مدل، دو طرف جنگ میتوانند انتخاب کنند که آیا وارد معاملهای برای صلح شوند یا بهجای آن با هم جنگ کنند. در هر دو حالت، دو طرف سهمی از منابع میبرند. وارد جنگ شدن به هر کدام شانسی برای دریافت تمامی منابع میدهد.
معامله برای رسیدن به یک رابطه صلحآمیز نیز تضمینی صددرصدی برای برخورداری از بخشی از منابع فراهم میآورد، مضاف بر اینکه از هزینههای جنگ اجتناب میشود.
این مدل بر علل شکلگیری جنگ تمرکز دارد که ساختاری هستند و بهجای مرتبط بودن به فرد، به قدرت دو طرف در سطح ملی و اهداف رهبران دو جبهه ارتباط دارد. این مدل در مجادلات انسان با انسان بهسوی جهتگیری برای صلح متمایل است.
پژوهشگران زمانی که این مدل را برای درگیریهای بین انسان و هوش مصنوعی اِعمال کردند استدلالشان این بود که ملاحظات این مدل دلایل محکمی برای برقراری صلح بین هوش مصنوعی و نوع بشر به دست نمیدهند.
پیشبینی جاری شدن صلح فقط زمانی معنا دارد که هر دو طرف بر سر احتمال و امکان پیروزی موافق باشند خود را متعهد به مذاکره کنند. این مدل برآورد میکند که مسالمت برای هر دو سو، انسان و هوش مصنوعی، بهتر از ستیز خواهد بود.
علت روشن است چون منابع نابود نمیشوند. زمانی بین این دو جنگ درخواهد گرفت که در معامله به توافق نرسند. این زمانی اتفاق میافتد که هر دو طرف نتوانند با هم در رابطه با احتمال پیروزیشان همنظر شوند یا نتوانند به هم در اینکه آیا به شرایط قرارداد بینشان وفادار میمانند یا نه اعتماد کنند.
در این قبیل مجادلات، دو مانع عمده بر سر رسیدن به صلح وجود داد؛ ناکارآمدی اطلاعات و عدم عمل به تعهد. اندازهگیری توانمندیهای هوش مصنوعی کار دشواری است.
بسیار محتمل است که نوعی عدم توازن در اطلاعات موجود برای هر طرف نزاع؛ یعنی طرف هوش مصنوعی و طرف انسانی وجود داشته باشد. علاوهبراین، هر طرف اطلاعات را به شیوههای متفاوتی آنالیز خواهد کرد. در نتیجه، بر سر شانس پیروزی اختلافنظر خواهند داشت.حل این مشکل بهسادگی ساختنِ ماشین انیگما در جنگ جهانی دوم نیست.
این ماشین درواقع دستگاهی بود که در پایان جنگ جهانی دوم بهمنظور رمزنگاری و رمزگشایی پیامهای سری اختراع شد. بهعلاوه اگر توانمندیهای هوش مصنوعی خودشان با تلاشهایی که خود هوش مصنوعی میکند یا با مساعدت انسانها رشد پیدا کنند، قابلیتهایی که از آن بروز خواهند کرد ممکن است انسانها را غافلگیر و حتی مغلوب کنند.
مشکل این است که ریسک قابل توجهی وجود دارد که در نزاع بین انسان و هوش مصنوعی نشانی از علل معمول صلح بین آنها وجود نداشته باشد.کشمکشهای بین هوش مصنوعی و انسان میتوانند ناشی از جنبههای بسیار زیادی باشند. به هر ترتیب، هوش مصنوعی و انسان نسبتاً محتمل به وارد شدن به یک جنگ خواهند بود و این زمانی رخ خواهد داد که ماشینهای هوش جامع پیشرفته کسر وسیعی از منابع اقتصادی دنیا را تحت کنترل خود درآورند.
به بیانی دیگر، نزاع بین انسان و هوش مصنوعی در نقطهای منطقی خواهد بود که چیرگی هوش جامع پیشرفته بر منابع به حدی باشد که کفه ترازوی موفقیت آن در درگیری، از کفه برتری ما در طراحی آن بهنحویکه قابلیت غیرفعال شدن را داشته باشد سنگینتر باشد.
5858