۰ نفر
۳۰ بهمن ۱۳۸۷ - ۱۱:۱۶

آیا می‌توان روبات‌ها را طوری ساخت که بر اساس وجدان و اخلاقیات، وظیفه خود را تشخیص و آن‌را به درستی انجام دهند؟

کارگران مصنوعی بااحساس هم‌اکنون وجود ندارند، ولی به راحتی می‌توان آنها را تصور کرد: قطارهای بدون راننده‌ای که به طور خودکار از ریلی که روی آن 5 نفر مهندس مشغول کار هستند، تغییر مسیر می‌دهند؛ یا هواپیماهای نظامی تهاجمی بدون سرنشین که می‌توانند اهداف مجاز نظامی را از اماکن غیر نظامی که نباید به آنها آسیبی برسد، تشخیص دهند. در کتاب «ماشین‌های بااخلاق»، وندل والاچ اخلاق‌شناس و کالین آلن فیلسوف، سه سوال را مطرح می‌کنند: «آیا دنیا به کارگران مصنوعی بااحساس نیاز دارد؟ آیا مردم می‌خواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند؟ و این‌که مهندسان و فیلسوفان برای طراحی و ساخت چنین کارگرانی چگونه باید اقدام کنند؟»

کتاب «ماشین‌های بااخلاق» برخلاف داستان‌های تخیلی هالیوود در مورد ماشین‌های هوشمند ولی بدطینت و رویای پژوهشگران در مورد برتری ماشین‌ها و تمدن با محوریت ماشین، دقیق، متعادل و آموزنده است. نویسندگان این کتاب بی هیچ اشاره‌ای به مسائل مرتبط با فناوری، پاره‌ای از موضوعات پایه‌ای اخلاقی و فلسفی را در ارتباط با ماشین‌ها جمع‌آوری کرده‌اند. آنها برای بررسی این‌که آیا ماشین‌های غیرهوشمند می‌توانند کارگران با احساس واقعی باشند، روی «اخلاقیات کاربردی» تمرکز کرده‌اند.

«کارگران بااحساس، رفتارشان را با توجه موارد زیر بررسی و تنظیم می‌کنند: آسیب‌هایی که ممکن است در نتیجه کارهایشان وارد شود و یا وظایفی که ممکن است نادیده گرفته شوند».

کتاب، گستره وسیعی از دیدگاه‌ها را پوشش می‌دهد؛ پژوهش‌های در حال انجام کنونی را از بالا به پایین و بر مبنای انطباق با نظریه‌های معمول و متعارف اخلاقی دسته‌بندی می‌کند؛ و از پایین به بالا، استراتژی‌های تکاملی یا آموزشی این دستگاه‌ها را طبقه‌بندی می‌کند و کارهای انجام شده روی پیاده‌سازی احساسات در کامپیوترها را ذکر می‌کند.

از آنجاکه در زمان کنونی هیچ روباتی به درک اخلاقیات کاربردی نزدیک نشده، ممکن است بحث‌های کتاب پیش از موعد به نظر برسند. نویسندگان کتاب این را صرفا شروع بحث می‌دانند، ولی این خطر وجود دارد که بیان زودهنگام چنین مباحثی، تمام کارها را در آینده تحت‌الشعاع قرار دهد. تاثیر قوانین سه گانه آیزاک آسیموف روی روباتیک، مثالی واضح از اخلاقیات سلسله مراتبی بر پایه اصول برای روبات‌ها است. هدف بیان‌شده نویسندگان این کتاب، بیان مباحث به طریقی است که مهندسان را در فرایند طراحی کارگران مصنوعی بااحساس راهنمایی کند. ولی سه مشکل اساسی در ارتباط با نحوه بیان مساله این دو نفر وجود دارد.

اول، نویسندگان مورد خاص خود را هم بر حسب نیاز به تکامل اخلاقی و هم بر حسب سیستم‌هایی که مورد تحلیل قرار می‌دهند، بسط داده‌اند. در پاسخ به این سوال که آیا دنیا نیاز به چنین کارگران مصنوعی بااحساسی دارد یا نه، آنها به مثال قطعی گسترده برق در ایالات شمالی آمریکا در سال 2003 اشاره می‌کنند که در آن، «نرم‌افزارها و سیستم‌های کنترل نیروگاه‌ها فرایند خاموشی را فعال کردند، و تقریبا هیچ زمانی را برای مداخله انسانی باقی نگذاشتند». در پی آن، آنها چنین استدلال کردند که «لازم است که سیستم‌های خودکار بتوانند محاسبه‌ای از مخاطرات در مقابل نتایج داشته باشند».

مثال آنها تعجب‌برانگیز است: زیرساخت‌های شبکه بسیار بزرگ برق خیلی با جارو برقی‌های روباتی و پرستارانی که ممکن است نیاز به احساس داشته باشند، متفاوت است. به‌رغم این‌که کتاب عمدتا روی روبات‌های واقعی و شبیه‌سازی‌های کامپیوتری مورد نیاز برای طراحی آنها متمرکز شده، نویسندگان کتاب تعمدا گستره مبحث را وسعت می‌دهند تا بتواند نرم‌افزارهای کنترل سیستم‌ها و روبات‌های نرم‌افزاری را نیز شامل شود. ولی آنها به مباحث اخلاقی مرتبط با آنها نمی‌پردازند که شامل مواردی مانند حریم خصوصی می‌شود که توسط نرم‌افزارهایی مانند «روبات‌های نرم‌افزاری جستجوی اطلاعات که در شبکه پرسه می‌زنند» تهدید می‌شود. این که از مردم بپرسید آیا می‌خواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند، احتمالا به پاسخ متفاوتی منجر می‌شود تا این که از آنها همین سوال را در مورد روبات‌های فیزیکی بپرسید، که در آنها مسائل کنترل و مسئولیت‌پذیری راحت‌تر هستند و علت آن هم محلی بودن این روبات‌هاست.

مورد دوم این است که تمرکز روی خودکار بودن در تعریف نویسندگان از روبات با تاکید بر «استقلال از نظارت مستقیم انسانی»، روبات‌های بسیار مهمی را که با نظارت مستقیم انسانی و با کنترل از راه دور کار می‌کنند، از حوزه بحث خارج می‌کند. نمونه‌ای از این روبات‌ها جراحی از راه دور است، چیزی که فواید بسیار زیادتری دارد، ولی درگیر مباحث اخلاقی و فلسفی کمتری نسبت به دیگر ابزارها است.

نمونه دیگر، هواپیماهای نظامی تهاجمی بدون سرنشین هستند که هیچ مبحث جدید اخلاقی را در بر نمی‌گیرند. در این موارد می‌شد پافشاری کرد و فناوری‌های بهتری برای نظارت و کنترل از راه دور طراحی کرد. برای مثال، در پی حادثه قطار لوس‌آنجلس در کالیفرنیا که سپتامبر 2008 اتفاق افتاد، منتقدان گفتند که نصب دوربین‌های مراقبت در کابین قطارها (به‌جای آموزش‌های اخلاقی بیشتر به رانندگان) می‌توانست از حوادثی که ناشی از این عملکردها است، بکاهد. در این مورد نیز گزارش شده که راننده از خواندن پیغام‌های متعدد سیستم گیج شده بود. بدین‌ترتیب، نباید در تعریف فناوری‌های هدف روی عملکرد خودکار تاکید کرد: «آیا یک دستگاه خودکار باید در صورتی‌که نمی‌تواند بدون آسیب‌زدن به انسان‌ها کاری را انجام دهد، به ناظر انسانی هشدار دهد؟ (و اگر چنین باشد، آیا به اندازه کافی خودکار است؟)»

سوم، این‌که کتاب از پیاده‌سازی اخلاقیات انسانی حمایت می‌کند؛ چراکه این تنها چیزی است که ما در مورد آن می‌دانیم. این انتخاب خیلی قطعی نیست. چون برای آینده قابل پیش‌بینی، روبات‌ها از نظر ظرفیت تصمیم‌گیری اخلاقی، در مقایسه با انسان‌ها در جایگاه پایین‌تری قرار خواهند داشت. در نتیجه اخلاقیات سلسه مراتبی آسیموف، در مقایسه با اخلاقیات انسانی که بر برابری و تساوی تمام عوامل اخلاقی تاکید دارد، نیاز به بازنگری خواهد داشت.

اخلاقیات سگ‌ها می‌تواند جایگزین مناسبی باشد. روبات‌ها همانند سگ‌ها، توانایی متفاوتی برای اتخاذ تصمیمات اخلاقی مناسب دارند. بعضی خانواده‌ها، سگ‌های تربیت‌شده خوبی دارند که می‌توان آنها را بدون قلاده نگاه داشت، اما سگ‌های دیگری هم هستند که تنها زمانی می‌شد به آنها اعتماد کرد که عوامل تحریک‌کننده‌ای مانند گربه‌ها و سنجاب‌ها حضور نداشته باشند؛ و البته سگ‌های دیگری نیز یافت می‌شوند که برای آرام نگاه داشتن آنها نه تنها به قلاده، که به پوزه‌بند نیز نیاز است. توجه داشته باشید که همه آنها حیوانات اهلی هستند و بر یک راهنما متمرکزند.

یک هدف با ارزش برای اخلاقیات روبات‌ها در آینده نزدیک، می‌تواند ماشین‌هایی باشد که ما می‌توانیم به این ترتیب طبقه‌بندی کنیم، در نتیجه می‌توانیم هر یک از آنها را بر اساس میزان قابلیت اعتماد و کنترل طبقه‌بندی کنیم که به آنها اجازه می‌دهد که به بهترین وجه خدمت کنند.

«ماشین‌های بااخلاق» در مورد اخلاقیات روبات‌های آینده بحث می‌کند، ولی قضاوت در مورد این کتاب هنگامی امکان‌پذیر خواهد شد که ببینیم آیا خواهد توانست قواعد خود را تحمیل کند و یا این‌که بیش از حد زود منتشر شده است.

نیچر، شماره 457؛ ژانویه 2009 - ترجمه: مجید جویا

برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید.
کد خبر 4042

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
7 + 11 =