مذاكرات اسلام آباد

هوش مصنوعی ابزار تثبیت جنگ یا صلح / عبور از دامِ «جبر تکنولوژیک»

در این میان، سوال اصلی این نیست که هوش مصنوعی چه می‌تواند انجام بدهد، بلکه این است که ما چه می‌خواهیم و با چه اخلاقیاتی از آن استفاده می‌کنیم. آینده صلح، نه در کدها، بلکه در «تصمیم‌گیری‌های اخلاقی» ما نهفته است؛ تصمیماتی که امروز و در همین لحظه، بین «توسعه بدون قیدوشرط» و «نظارت هوشمندانه» را انتخاب می‌کنیم. اگر این انتخاب درست نباشد، هوش مصنوعی به ابزاری برای تثبیت خشونت‌های تاریخی تبدیل می‌شود؛ و اگر درست باشد، پتانسیل‌هایی را آشکار می‌کند که قرن‌ها در توان بشری پنهان مانده بود.

گروه اندیشه: مسعود تقی آبادی با نوشتن یادداشتی در صفحه اندیشه روزنامه اعتماد، یادآوری می کند که هوش مصنوعی اگر چه می تواند اهرم تسلیحاتی و ابزار ویرانی باشد، اما ظرفیت ذاتی آن برای «صلح آفرینی»، دست نخورده باقی مانده است. این یادداشت را می خوانید: 

****

در عصری که هوش مصنوعی با سرعتی سرسام‌آور بر تمام لایه‌های حیات بشری سایه افکنده، روایت غالب درباره این فناوری، روایتی تاریک و سیاه است؛ روایتی که هوش مصنوعی را به عنوان تسلیحات خودمختار، ابزارهای نظارت انبوه و ماشین‌هایی برای گسترش نفرت و اطلاعات جعلی معرفی می‌کند. در این میان، جنگ اوکراین، درگیری‌های اسراییل و فلسطین و خشکسالی‌های ویرانگر در خاورمیانه، بر این ترس‌ها دامن زده و تصویر هوش مصنوعی را به عنوان «سربازان خاموش» جنگ‌های آینده ترسیم کرده‌اند.

اما آیا این سرنوشت نهایی فناوری است؟ یا این که می‌توان مسیر دیگری را ترسیم کرد؟ کتاب «هوش مصنوعی و صلح»، تألیف برانکا پانیک و پیج آرتور که با ترجمه دقیق پریا عبدزاده و انتشارات کرگدن در سال ۱۴۰۴ منتشر شده است، پاسخی صریح و امیدبخش به این پرسش بنیادین است. این اثر که در ۱۵۲ صفحه و با نگاهی میان‌رشته‌ای تدوین شده، تلاشی است برای بازنویسی قرارداد میان «تکنولوژی» و «انسانیت». نویسندگان استدلال می‌کنند که هوش مصنوعی، اگرچه می‌تواند اهرم تسلیحاتی و ابزار ویرانی باشد، اما ظرفیت ذاتی آن برای «صلح‌آفرینی» دست‌نخورده باقی مانده است.

افق‌های نوین در پیش‌بینی و مقابله با خشونت

هسته مرکزی این کتاب در فصل اول، با عنوان «هوش مصنوعی و پیش‌بینی تعارضات؛ دسترسی ما فراتر از توانایی‌های‌مان است» به بررسی محدودیت‌ها و ظرفیت‌های مدل‌های پیش‌بینی می‌پردازد. برانکا پانیک و پیج آرتور با استفاده شگفت‌انگیز از «پیش‌بینی شکل‌گیری ابرها» توسط یک ریاضیدان، به خواننده می‌آموزند که پیش‌بینی تعارضات، دقیقا مانند پیش‌بینی هوا، یک سیستم پیچیده با «بازخورد مثبت» است. در چنین سیستم‌هایی، هر اقدام کوچک می‌تواند به پیامدهایی بی‌سابقه منجر شود.

نویسندگان تأکید می‌کنند که مهندسان و سیاستمداران اغلب سعی می‌کنند این آشوب را نادیده بگیرند، اما رویکرد هوش مصنوعی برای صلح، پذیرش این پیچیدگی و تلاش برای مدیریت آن در مرحله اولیه است. این فصل نشان می‌دهد که چگونه الگوریتم‌های یادگیری ماشین، با تحلیل داده‌های کلان (Big Data) تاریخی و لحظه‌ای، می‌توانند الگوهای پنهان خشونت را پیش از تبدیل شدن به جنگ تمام‌عیار شناسایی کنند. این فناوری، ابزاری برای «هشدار زودهنگام» است که به جامعه جهانی فرصت می‌دهد تا قبل از فروپاشی، تدابیر پیشگیرانه اتخاذ کند.

حقوق بشر در عصر الگوریتم

فصل سوم کتاب، «هوش مصنوعی، حقوق بشر و صلح؛ ماشین در مقام توانمندساز اقدامات حقوق بشری»، به یکی از حیاتی‌ترین جنبه‌های این فناوری می‌پردازد. در دنیایی که نقض حقوق بشر در جنگ‌های داخلی (مانند سوریه) و درگیری‌های منطقه‌ای به سرعت اتفاق می‌افتد، هوش مصنوعی می‌تواند به عنوان «چشم بیدار» و «قلب تپنده عدالت» عمل کند. 

در فصل پایانی «هوش مصنوعی، صلح و اخلاق؛ از اصول به عمل» نویسندگان به جمع‌بندی و ارائه یک چارچوب اخلاقی جامع می‌پردازند. آنها تأکید می‌کنند که بدون «اصول اخلاقی» هوش مصنوعی نه تنها صلح نمی‌آورد، بلکه می‌تواند به ابزاری برای تسهیل جنایات و نظارت‌های استبدادی تبدیل شود.

نویسندگان چهارچوبی را پیشنهاد می‌کنند که در آن «عدالت، فراگیری، شفافیت، امنیت، حریم خصوصی و پاسخگویی» به عنوان اصول بنیادین در طراحی و پیاده‌سازی سیستم‌ها لحاظ شوند. این چارچوب، نیازمند آن است که سازمان‌های بشردوستانه و صلح‌آفرین، رویکرد «اخلاق در بحران» را اتخاذ کنند؛ یعنی توانایی استقرار سریع و مسوولانه هوش مصنوعی در محیط‌های  شکننده.

نهایت کلام کتاب «هوش مصنوعی و صلح» عبور از دام «جبر تکنولوژیک» است. این اثر با شفافیتی نگران‌کننده نشان می‌دهد که هوش مصنوعی، به‌تنهایی نه به صلح می‌انجامد و نه به جنگ؛ بلکه بسترِ «تسریع» گرایش‌های موجود است. اگر سیستم‌های انسانی بر پایه نابرابری، بی‌عدالتی و منافع نخبگان بنا شده باشند، هوش مصنوعی با سرعتی وحشتناک همین ساختارها را تکرار و گسترش می‌دهد. اما اگر این فناوری در بستر «عدالت»، «شفافیت» و «پاسخگویی» هدایت شود، قدرتمندترین ابزارِ پیشگیری از فاجعه‌های  انسانی خواهد  شد.

پانیک و آرتور به‌روشنی می‌گویند که «صلح الگوریتمی» توهمی خطرناک است؛ صلح حقیقی، تنها از دل «حکمرانی انسانی» آگاهانه بر تکنولوژی متولد می‌شود. هوش مصنوعی نمی‌تواند جایگزین دیپلماسی فداکارانه یا عدالتِ اجتماعی شود، بلکه تنها می‌تواند «چشمِ» آنها را باز کند و «دستِ» آنها را قوی‌تر.

در این میان، سوال اصلی این نیست که هوش مصنوعی چه می‌تواند انجام بدهد، بلکه این است که ما چه می‌خواهیم و با چه اخلاقیاتی از آن استفاده می‌کنیم. آینده صلح، نه در کدها، بلکه در «تصمیم‌گیری‌های اخلاقی» ما نهفته است؛ تصمیماتی که امروز و در همین لحظه، بین «توسعه بدون قیدوشرط» و «نظارت هوشمندانه» را انتخاب می‌کنیم. اگر این انتخاب درست نباشد، هوش مصنوعی به ابزاری برای تثبیت خشونت‌های تاریخی تبدیل می‌شود؛ و اگر درست باشد، پتانسیل‌هایی را آشکار می‌کند که قرن‌ها در توان بشری پنهان مانده بود.

۲۱۶۲۱۶

کد مطلب 2196111

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
3 + 7 =

آخرین اخبار