گروه اندیشه: مسعود تقی آبادی با نوشتن یادداشتی در صفحه اندیشه روزنامه اعتماد، یادآوری می کند که هوش مصنوعی اگر چه می تواند اهرم تسلیحاتی و ابزار ویرانی باشد، اما ظرفیت ذاتی آن برای «صلح آفرینی»، دست نخورده باقی مانده است. این یادداشت را می خوانید:
****
در عصری که هوش مصنوعی با سرعتی سرسامآور بر تمام لایههای حیات بشری سایه افکنده، روایت غالب درباره این فناوری، روایتی تاریک و سیاه است؛ روایتی که هوش مصنوعی را به عنوان تسلیحات خودمختار، ابزارهای نظارت انبوه و ماشینهایی برای گسترش نفرت و اطلاعات جعلی معرفی میکند. در این میان، جنگ اوکراین، درگیریهای اسراییل و فلسطین و خشکسالیهای ویرانگر در خاورمیانه، بر این ترسها دامن زده و تصویر هوش مصنوعی را به عنوان «سربازان خاموش» جنگهای آینده ترسیم کردهاند.
اما آیا این سرنوشت نهایی فناوری است؟ یا این که میتوان مسیر دیگری را ترسیم کرد؟ کتاب «هوش مصنوعی و صلح»، تألیف برانکا پانیک و پیج آرتور که با ترجمه دقیق پریا عبدزاده و انتشارات کرگدن در سال ۱۴۰۴ منتشر شده است، پاسخی صریح و امیدبخش به این پرسش بنیادین است. این اثر که در ۱۵۲ صفحه و با نگاهی میانرشتهای تدوین شده، تلاشی است برای بازنویسی قرارداد میان «تکنولوژی» و «انسانیت». نویسندگان استدلال میکنند که هوش مصنوعی، اگرچه میتواند اهرم تسلیحاتی و ابزار ویرانی باشد، اما ظرفیت ذاتی آن برای «صلحآفرینی» دستنخورده باقی مانده است.
افقهای نوین در پیشبینی و مقابله با خشونت
هسته مرکزی این کتاب در فصل اول، با عنوان «هوش مصنوعی و پیشبینی تعارضات؛ دسترسی ما فراتر از تواناییهایمان است» به بررسی محدودیتها و ظرفیتهای مدلهای پیشبینی میپردازد. برانکا پانیک و پیج آرتور با استفاده شگفتانگیز از «پیشبینی شکلگیری ابرها» توسط یک ریاضیدان، به خواننده میآموزند که پیشبینی تعارضات، دقیقا مانند پیشبینی هوا، یک سیستم پیچیده با «بازخورد مثبت» است. در چنین سیستمهایی، هر اقدام کوچک میتواند به پیامدهایی بیسابقه منجر شود.
نویسندگان تأکید میکنند که مهندسان و سیاستمداران اغلب سعی میکنند این آشوب را نادیده بگیرند، اما رویکرد هوش مصنوعی برای صلح، پذیرش این پیچیدگی و تلاش برای مدیریت آن در مرحله اولیه است. این فصل نشان میدهد که چگونه الگوریتمهای یادگیری ماشین، با تحلیل دادههای کلان (Big Data) تاریخی و لحظهای، میتوانند الگوهای پنهان خشونت را پیش از تبدیل شدن به جنگ تمامعیار شناسایی کنند. این فناوری، ابزاری برای «هشدار زودهنگام» است که به جامعه جهانی فرصت میدهد تا قبل از فروپاشی، تدابیر پیشگیرانه اتخاذ کند.
حقوق بشر در عصر الگوریتم
فصل سوم کتاب، «هوش مصنوعی، حقوق بشر و صلح؛ ماشین در مقام توانمندساز اقدامات حقوق بشری»، به یکی از حیاتیترین جنبههای این فناوری میپردازد. در دنیایی که نقض حقوق بشر در جنگهای داخلی (مانند سوریه) و درگیریهای منطقهای به سرعت اتفاق میافتد، هوش مصنوعی میتواند به عنوان «چشم بیدار» و «قلب تپنده عدالت» عمل کند.
در فصل پایانی «هوش مصنوعی، صلح و اخلاق؛ از اصول به عمل» نویسندگان به جمعبندی و ارائه یک چارچوب اخلاقی جامع میپردازند. آنها تأکید میکنند که بدون «اصول اخلاقی» هوش مصنوعی نه تنها صلح نمیآورد، بلکه میتواند به ابزاری برای تسهیل جنایات و نظارتهای استبدادی تبدیل شود.
نویسندگان چهارچوبی را پیشنهاد میکنند که در آن «عدالت، فراگیری، شفافیت، امنیت، حریم خصوصی و پاسخگویی» به عنوان اصول بنیادین در طراحی و پیادهسازی سیستمها لحاظ شوند. این چارچوب، نیازمند آن است که سازمانهای بشردوستانه و صلحآفرین، رویکرد «اخلاق در بحران» را اتخاذ کنند؛ یعنی توانایی استقرار سریع و مسوولانه هوش مصنوعی در محیطهای شکننده.
نهایت کلام کتاب «هوش مصنوعی و صلح» عبور از دام «جبر تکنولوژیک» است. این اثر با شفافیتی نگرانکننده نشان میدهد که هوش مصنوعی، بهتنهایی نه به صلح میانجامد و نه به جنگ؛ بلکه بسترِ «تسریع» گرایشهای موجود است. اگر سیستمهای انسانی بر پایه نابرابری، بیعدالتی و منافع نخبگان بنا شده باشند، هوش مصنوعی با سرعتی وحشتناک همین ساختارها را تکرار و گسترش میدهد. اما اگر این فناوری در بستر «عدالت»، «شفافیت» و «پاسخگویی» هدایت شود، قدرتمندترین ابزارِ پیشگیری از فاجعههای انسانی خواهد شد.
پانیک و آرتور بهروشنی میگویند که «صلح الگوریتمی» توهمی خطرناک است؛ صلح حقیقی، تنها از دل «حکمرانی انسانی» آگاهانه بر تکنولوژی متولد میشود. هوش مصنوعی نمیتواند جایگزین دیپلماسی فداکارانه یا عدالتِ اجتماعی شود، بلکه تنها میتواند «چشمِ» آنها را باز کند و «دستِ» آنها را قویتر.
در این میان، سوال اصلی این نیست که هوش مصنوعی چه میتواند انجام بدهد، بلکه این است که ما چه میخواهیم و با چه اخلاقیاتی از آن استفاده میکنیم. آینده صلح، نه در کدها، بلکه در «تصمیمگیریهای اخلاقی» ما نهفته است؛ تصمیماتی که امروز و در همین لحظه، بین «توسعه بدون قیدوشرط» و «نظارت هوشمندانه» را انتخاب میکنیم. اگر این انتخاب درست نباشد، هوش مصنوعی به ابزاری برای تثبیت خشونتهای تاریخی تبدیل میشود؛ و اگر درست باشد، پتانسیلهایی را آشکار میکند که قرنها در توان بشری پنهان مانده بود.
۲۱۶۲۱۶