یکی از مهم‌ترین محورهای تحلیلی کتاب تبیین تمایز بین عاملیت اخلاقی و موضوعیت اخلاقی در زمینه‌ی هوش مصنوعی است. کوکلبرگ نشان می‌دهد که پرسش از امکان اخلاقی بودن ماشین‌ها مستلزم بازبینی در بسیاری از پیش‌فرض‌های انسان‌محورانه درباره‌ی عقلانیت، احساس، قصد و تصمیم است.

به گزارش خبرگزاری خبرآنلاین به نقل از گروه دین و اندیشه ایبنا امیرحسین خداپرست عضو هیئت علمی مؤسسه‌ی پژوهشی حکمت و فلسفه‌ی ایران در سال‌های اخیر پیشرفت‌های چشمگیر در حوزه‌ی هوش مصنوعی، به‌ویژه در زمینه‌ی یادگیری ماشینی، کلان‌داده‌ها و پردازش زبان طبیعی، در بسیاری از ابعاد زندگی فردی، اجتماعی، اقتصادی و سیاسی انسان‌ها تحولاتی بنیادین پدید آورده است. در این میان، یکی از مهم‌ترین و، در عین حال، پیچیده‌ترین پرسش‌هایی که هم‌زمان با توسعه‌ی این فناوری مطرح شده پرسش اخلاقی است: چگونه باید فناوری‌ای را ارزیابی و مدیریت کرد که هم قابلیت حل برخی از مهم‌ترین مشکلات بشر را دارد هم می‌تواند تهدیدی برای بنیان‌های آزادی فردی و عدالت اجتماعی باشد؟

امیر حسین خداپرست

کتاب اخلاق هوش مصنوعی نوشته‌ی مارک کوکلبرگ، فیلسوف شناخته‌شده‌ی فناوری، که اینک نشر ققنوس ترجمه‌ی فارسی آن را به قلم احسان عارفی‌فر در اختیار ما نهاده است، پاسخی تحلیلی به این پرسش اساسی ارائه می‌کند. این کتاب، که در اصل در قالب مجموعه‌ی علمی و پرخواننده‌ی «دانش ضروری» از سوی انتشارات دانشگاه ام‌آی‌تی منتشر شده، کوششی سنجیده برای معرفی و تحلیل نقادانه‌ی مهم‌ترین مباحث مربوط به اخلاق هوش مصنوعی در سطوح نظری، عملی و نیز سیاست‌گذاری است. کوکلبرگ، که خود هم‌زمان از تخصص فلسفی و تجربه‌ی مشاوره در نهادهای سیاست‌گذار اروپایی بهره‌مند است، در این اثر به جای بسنده کردن به کلیشه‌ها و روایت‌های هراس‌افکن یا خوش‌بینانه و ساده‌انگارانه، می‌کوشد فهمی ژرف‌تر و زمینه‌مندتر از نسبت بین فناوری هوش مصنوعی و ملاحظات اخلاقی به‌دست دهد.

کتاب در قالب دوازده فصل تنظیم شده است که هر یک به یکی از جنبه‌های اصلی و چالش‌برانگیز در اخلاق هوش مصنوعی می‌پردازد. نویسنده، با نگاهی میان‌رشته‌ای، مباحث را از چشم‌اندازهایی متفاوت چون فلسفه‌ی فناوری، نظریه‌های اخلاق، سیاست‌گذاری عمومی و تحلیل فرهنگی بررسی می‌کند. از همان نخستین فصل، کتاب با ارجاع به رخدادهایی نمادین چون شکست لی سدول، قهرمان بازی گو، در مقابل برنامه‌ی AlphaGo و یادآوریِ شکست پیشین کاسپارف در مقابل Deep Blue، ما را به قلب یکی از پرسش‌های اصلی می‌برد: اگر ماشین‌ها می‌توانند در پیچیده‌ترین فعالیت‌های فکری انسان بر او غلبه کنند، جایگاه ما در مقام فاعلان اخلاقی و معماران تمدن انسانی کجا است؟ کوکلبرگ با نقد روایت‌های رایج درباره‌ی ابرهوش‌ها، تکینگی فناورانه و تراانسانیت، از نقش روایت‌های فرهنگی و اسطوره‌ای در شکل‌گیری انتظارات و ترس‌ها از هوش مصنوعی سخن می‌گوید و با تحلیل مثال‌هایی از فیلم‌ها، اسطوره‌ها و ادبیات، نشان می‌دهد که چگونه گفتمان معاصر درباره‌ی هوش مصنوعی از الگوهای کهنِ رقابت انسان و ماشین یا خالق و مخلوق بهره می‌برد. او در این تحلیل‌ها به‌ویژه بر اهمیت بازاندیشی در مفاهیمی چون عاملیت اخلاقی، سوژگی، خودآگاهی، و مسئولیت‌پذیری تأکید می‌کند.

یکی از مهم‌ترین محورهای تحلیلی کتاب تبیین تمایز بین عاملیت اخلاقی و موضوعیت اخلاقی در زمینه‌ی هوش مصنوعی است. کوکلبرگ با بررسی دیدگاه‌های متنوع فلسفی، از فیلسوفان پدیدارشناسی چون هیوبرت دریفوس تا متفکران سنت تحلیلی چون جان سرل، نشان می‌دهد که پرسش از امکان اخلاقی بودن ماشین‌ها مستلزم بازبینی در بسیاری از پیش‌فرض‌های انسان‌محورانه درباره‌ی عقلانیت، احساس، قصد و تصمیم است. او، در عین حال، با اشاره به مثال‌هایی عملی مانند اتومبیل‌های خودران، سامانه‌های تشخیص چهره و ابزارهای پیش‌بینی جرم، نشان می‌دهد که حتی اگر هوش مصنوعی واجد عاملیت اخلاقی به معنای کلاسیک آن نباشد، تصمیم‌هایی که از طریق الگوریتم‌ها اتخاذ می‌شود آثار اخلاقی مستقیم و عمیقی بر زندگی افراد دارند. بنابراین، طراحی و نظارت اخلاقی بر این سامانه‌ها نه‌تنها ضروری است بلکه از نظر اخلاقی برای جوامع مدرن فوری و فوتی است.

یکی دیگر از مسائل مهمی که کتاب به‌تفصیل بدان می‌پردازد مسئله‌ی جانبداری در الگوریتم‌ها و تأثیر آن بر بازتولید نابرابری‌های نژادی، جنسیتی و طبقاتی است. کوکلبرگ با ارجاع به مطالعات موردی، مانند سیستم‌های امتیازدهی مجرمان، الگوریتم‌های استخدام و اعطای وام و ابزارهای پلیس برای پیش‌بینی جرم، نشان می‌دهد که الگوریتم‌ها نه‌تنها بی‌طرف نیستند بلکه اغلب سوگیری‌های پیشین را تشدید و نابرابری‌ها را تثبیت می‌کنند. از این منظر، اخلاق هوش مصنوعی را نمی‌توان از زمینه‌ی اجتماعی و سیاسی جدا ساخت چراکه فناوری در بستری قدرتمند عمل می‌کند و از سوی بازیگرانی خاص (شرکت‌ها، دولت‌ها، ارتش‌ها) هدایت می‌شود.

در مواضعی دیگر، کوکلبرگ با واکاوی جریان‌هایی فکری چون انسان‌گرایی، تراانسانیت و پساانسان‌گرایی، خواننده را به بازاندیشی در خود مفهوم انسان فرا می‌خواند. آیا هدف از توسعه‌ی هوش مصنوعی بازتولید انسان است یا عبور از او؟ آیا باید از حقوق بشر برای الگوریتم‌ها سخن گفت یا از کرامت انسانی در مقابل ماشین‌ها دفاع کرد؟ در این بحث‌ها دیدگاه‌هایی متنوع، از جمله انسان‌گرایی کلاسیک، پساانسان‌گرایی انتقادی، و پساپدیدارشناسی (مثلاً با تأکید بر دون آیدی) بررسی و تحلیل می‌شوند. کوکلبرگ در این بخش‌ها به‌ویژه بر ضرورت گفت‌وگو بین فناوری و علوم انسانی تأکید می‌کند و نسبت میان انسان، ماشین و محیط را رابطه‌ای پویا و تاریخی، نه ایستا و ذات‌گرایانه، می‌داند.

کتاب، در فصل‌های پایانی خود، مسائل مربوط به سیاست‌گذاری، استانداردسازی و آینده‌ی قانون‌گذاری در حوزه‌ی هوش مصنوعی را بررسی می‌کند. نویسنده، که خود عضو گروه مشاوران سطح‌بالای کمیسیون اروپایی در زمینه‌ی هوش مصنوعی بوده است، تجربه‌ی زیسته‌ی خود را در گفت‌وگو با سیاست‌گذاران و متخصصان این حوزه به کار می‌گیرد تا نشان دهد که چگونه مباحث نظری باید به چارچوب‌های عملی سیاست‌گذاری تبدیل شوند. او، همچنین، در فصل پایانی با نگاهی نقادانه درباره‌ی شیدایی نسبت به هوش مصنوعی و غفلت از بحران‌هایی چون تغییرات اقلیمی هشدار می‌دهد و می‌نویسد «احمق! مسئله‌ی اصلی آب‌وهواست!». هشدار این فصل دعوتی است برای بازنگری در اولویت‌های اخلاقی جهان معاصر و پرهیز از گرفتارشدن در بازی‌های قدرت فناوری‌محور.

برای ما که این روزها از جهات گوناگون، در زندگی فردی و اجتماعی و سیاسیمان، با هوش مصنوعی درگیر شده‌ایم اخلاق هوش مصنوعی مارک کوکلبرگ نمونه‌ای قابل توجه از تلفیق تحلیل فلسفی، حساسیت اجتماعی و تعهد اخلاقی در مواجهه با یک فناوری بسیار مهم و دوران‌ساز است. این کتاب مرجعی مفید برای دانشجویان، پژوهشگران و متخصصان فناوری است اما، علاوه بر آن، برای عموم شهروندانی هم که دغدغه‌ی آینده‌ی اخلاقی جامعه‌ی درگیر با هوش‌مصنوعی را دارند راهنمایی نقادانه محسوب می‌شود. کوکلبرگ با زبانی روشن، منسجم و پرمثال مخاطب خود را درگیر پرسش‌هایی می‌کند که نه‌تنها درباره‌ی آینده‌ی فناوری بلکه، به یک معنا، درباره‌ی معنای انسان بودن در عصر هوش مصنوعی‌اند. از این حیث، این کتاب صرفاً اثری درباره‌ی اخلاق فناوری نیست بلکه دعوتی به بازاندیشی در حال و آینده به‌شدت نامطمئن انسانی است.

۲۱۶۲۱۶

منبع: ایبنا