۰ نفر
۲۳ فروردین ۱۳۸۸ - ۱۱:۲۸

وندل والاچ

کامپیوترها با تمام جنبه‌های زندگی مدرن در تماسند، از سیستم‌های دسک تاپ گرفته که ارتباطات، سرگرمی و جست‌وجو را تسهیل می‌بخشند، تا سیستم‌های مالی که روزانه میلیون‌ها تراکنش را در مراکز تجاری جهان رقم می‌زنند. و اینکه روبات‌ها نیز در حال آمدنند. آنها (اگر چه شاید به رسمیت شناخته نشده باشند) اما تقریباً به عنوان وسایل تمیز‌کننده خانه، سیستمهای صنعتی، راهنماهای موزه، سیستمهای تحویل بیمارستان‌ها، اسباب بازی‌ها، و حتی به عنوان سلاح‌های مهلک و مرگ‌آور در عراق و افغانستان شناخته شده هستند. به زودی روبات‌هایی خواهیم داشت که از افراد مسن و سالخورده نگهداری خواهند کرد. مهندسان همواره در ارتباط با امنیت سیستم‌هایی که می‌سازند نگران بوده‌اند. اما به هر حال طراحان سیستم‌های کاپیوتری شده همیشه نمی‌توانند این امر را پیش‌بینی کنند که آنها در شرایط جدید با نهاده‌ها و عوامل جدید، چه رفتاری از خود سر می‌زنند، بنابراین امنیت و ایمنی مستلزم این است که همانطور که تکنولوژی پیچیده‌تر می‌شود، کامپیوترها و روبات‌ها نیز استدلال کننده‌تر شوند. در نتیجه فیلسوفان و مهندسان شروع به همکاری با یکدیگر کرده‌اند که سیستم‌های کامپیوتری و روبات‌هایی بسازند که قادر به اخذ تصمیم‌های اخلاقی باشند.

 

گسترش و توسعه کامپیوترهای خودکار و روباتهای تصمیم‌گیری که بتوانند به نحو افزایش یابنده‌ای از انسانها برای فهم خوب و بد متأثر شده باشند، برآمده از رشته تحقیقی جدیدی است، که به اشکال مختلف به عنوان اخلاقیات ماشین (machine morality)، علم اخلاق ماشین، هوش مصنوعی مهربان، اخلاقیات مصنوعی و بدلی، و اصول اخلاقی روبات شناخته شده هستند. این مسئله بر این دورنما متمرکز است که کامپیوترها و روبات‌هایی بسازند که قادر به اخذ تصمیم‌های اخلاقی باشند. طراحی کامپیوترها و روبات‌هایی که به انسان‌ها آسیب نمی‌رسانند، هم چالشی عملی و هم چالشی فلسفی است. " اخلاقیات ماشین " تعدادی سؤال را نمایان می‌کند:

آیا ماشین‌ها از آن نوع موجودات هستند که بتوانند اصولاً تصمیم‌های اخلاقی بگیرند؟ اگر آری، چرا؟ واگر خیر، چرا؟

آیا تصمیم‌گیری اخلاقی چیزی است که بتواند کامپیوتری شود؟ اگر آری، چگونه؟

آیا بشریت ماشین‌هایی که بتوانند تصمیم‌های اخلاقی بگیرد را می‌خواهد؟ چه موقع؟ در چه شرایطی؟

کدام یا چه اخلاقیاتی می‌بایست اجرا شود؟

به علاوه امکانات محاسباتی، موضوعات فلسفی که از اندیشیدن به این پرسش‌ها برمی‌آید بسیار زیاد است.

رفتار اخلاقی ماشین‌ها بوسیله ارزش‌های طراحی شده در سیستم‌های آنها معین می‌شود. در ابتدا، ماشین‌های پیچیده در حوزه‌ها و زمینه‌های محدود شده عمل خواهند کرد، و به وسعتی که طراحان می‌توانند تمام وضعیت‌هایی را که یک ماشین با آنها مواجه خواهد شد را پیش‌بینی کنند. به هر حال، در جایی که سیستم‌ها از آستانه‌ای عبور کنند که، مهندسان و طراحان پیش‌بینی نمی‌کنند و نمی‌دانند که در آن حوزه ماشین‌ها با توجه به داده‌های جدید، چه رفتاری از خود سر می‌زنند، بی شک ماشین‌ها به اخلاقیاتی عملی نیاز خواهند داشت. به عبارتی آنها نیاز خواهند داشت که نظم بررسی‌های اخلاقی را در ارتباط با گزینش یک راهکار پردازش کنند.

اینکه آیا ماشین‌ها سرانجام عامل‌های اخلاقی ساختگی و مصنوعی با هوش شبه انسانی و خودآگاهی خواهند بود یا خیر، موضوعی است که متخصصین علوم نظری با آن توافق ندارند. اما، این مبحث تاحدودی بوسیله تأملات جدی فلاسفه، نظریه‌پردازان و آینده شناسان برانگیخته شده است. بحث بر سر اینکه چه موقع عامل‌های مصنوعی ممکن است که برای اعمالشان مسئول دانسته شوند، و اینکه آیا ممکن است که آنها شایستگی استحقاق مالکیت و حقوق شهروندی را داشته باشند یا خیر، به فهم عامل اخلاقی و مسئولیت مجاز و مشروع کمک خواهد کرد.

در حالی که آینده شناسان سرشار از پژوهش‌های فریبنده و درخشان، و در وضع نسبتاً اولیه در تحقیق‌های هوش مصنوعی هستند، این مباحث معمولاً با امکانات نظری سطح بالا مخالفت نمی‌کنند. برای آینده قابل پیش‌بینی، اخلاقیات ماشین اساساً درباره متقاعد کردن این امر خواهد بود که سیستم‌های خودکار امن هستند و اینکه کنش‌های آنها بازتاب ارزش‌های انسانی باشد.

 

منبع: نشریه فیلوسوفی ناو
ترجمه: مهدی وفایی

کد خبر 6363

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار