الگوریتم‌های اسارت؛ هوش مصنوعی و مهندسی اراده

الگوریتم‌های شبکه‌های اجتماعی مانند آنچه در پلتفرم‌های تیک‌تاک و اینستاگرام شاهد هستیم صرفاً برای سرگرمی طراحی نشده‌اند. این سیستم‌ها بر پایه اقتصاد توجه بنا شده‌اند. هوش مصنوعی با تحلیل میلی‌ثانیه‌ای رفتار شما مانند میزان توقف روی یک عکس، سرعت اسکرول و حتی لرزش دست، یک "دوقلوی دیجیتال" از روان شما می‌سازد.

 در یادداشت اول اشاره کردیم که مغز ما دارای حفره‌های امنیتی است، در یادداشت دوم باید بپرسیم که چه کسانی و با چه ابزاری از این حفره‌ها عبور می‌کنند؟ پاسخ در ترکیب پیچیده‌ هوش مصنوعی و دکترین‌های استراتژیک نهفته است. امروز ما با پدیده‌ای روبرو هستیم که اندیشکده رند (RAND) آن را سلاح‌سازی از محیط اطلاعاتی می‌نامد؛ جایی که هدف دیگر تغییر باورهای شما نیست، بلکه مهندسی رفتار شماست، بدون آنکه خودتان متوجه شوید.
 

 هوش مصنوعی می‌داند کدام کلمه، در کدام ساعت روز و با کدام تصویر، می‌تواند دوپامین یا کورتیزول شما را تحریک کند. این همان چیزی است که به آن "میکرو-تارگتینگ" یا هدف‌گیری ذره‌بینی می‌گویند؛ شلیک دقیق اطلاعات به نقطه‌ای از ذهن که کمترین مقاومت را دارد.
 شطرنج با اراده دشمن
یکی از مستدل‌ترین مفاهیم در جنگ‌های شناختی مدرن، دکترین "کنترل بازتابی"* است. این تکنیک که ریشه در استراتژی‌های پیچیده نظامی دارد، به این معناست که انتقال اطلاعات به دشمن به‌گونه‌ای که او با اختیار و اراده خودش، همان تصمیمی را بگیرد که شما برایش طراحی کرده‌اید. در فضای مجازی، وقتی الگوریتم‌ها شما را در یک پیوستار از اخبار خاص قرار می‌دهند، شما تصور می‌کنید که بر اساس تحلیل شخصی به یک جمع‌بندی رسیده‌اید، مثلاً خروج سرمایه از بازار یا شرکت در یک تجمع،  اما در حقیقت، شما در حال پاسخ دادن به محرک‌هایی هستید که گزینه‌های انتخابی‌تان را از پیش محدود کرده‌اند. شما مهره‌ای هستید که فکر می‌کند شطرنج‌باز است.

پروژه‌های دارپا و تشخیص الگوهای ذهنی
آژانس پروژه‌های پژوهشی پیشرفته دفاعی آمریکا (DARPA) سال‌هاست بر روی پروژه‌هایی نظیر ASIST کار می‌کند که هدف آن درک نحوه تصمیم‌گیری انسان در شرایط پراسترس است. این تحقیقات نشان می‌دهند که چگونه می‌توان با تغییر بافت اطلاعاتی (Context)، قضاوتِ جمعی یک جامعه را تغییر داد. از نگاه حامیان، چنین ابزارهایی برای پیش‌بینی تهدیدهای امنیتی، کاهش خطای انسانی در موقعیت‌های بحرانی و افزایش آمادگی در برابر بحران‌ها ضروری‌اند.

اما منتقدان هشدار می‌دهند که همین فناوری‌ها می‌توانند زیرساخت نوعی نظارت شناختی را فراهم کنند؛ جایی که با تحلیل الگوهای هیجانی و رفتاری جامعه، امکان هدایت غیرمستقیم افکار عمومی از طریق تغییر چارچوب اطلاعاتی یا الگوریتم‌های توزیع محتوا فراهم می‌شود. به باور آنان، مسئله صرفاً جمع‌آوری داده نیست، بلکه توانایی پیش‌بینی و اثرگذاری بر شکل‌گیری واکنش‌های اجتماعی پیش از بروز آشکار آن‌هاست؛ موضوعی که پرسش‌های جدی درباره شفافیت، پاسخگویی و مرز میان مدیریت بحران و مدیریت افکار عمومی ایجاد می‌کند.
بات‌ها و جعل اکثریت
در نبردهای شبکه‌ای امروز، تعداد اغلب به‌جای حقیقت می‌نشیند. ارتش‌های بات با داغ‌کردن مصنوعی هشتگ‌ها یا حمله هماهنگ به یک دیدگاه، از تکنیک آستروترفینگ* بهره می‌برند؛ یعنی ساختن جنبشی ساختگی که ظاهری خودجوش و مردمی دارد. در چنین فضایی، ذهن انسان تحت تأثیر اثر حقیقت واهی و فشار همرنگی اجتماعی، وقتی با انبوهی از پیام‌های مشابه روبه‌رو می‌شود، تکرار را با اعتبار و کثرت را با حقانیت اشتباه می‌گیرد و برای ماندن در جمع، ناخودآگاه با آن موج همراه می‌شود. نتیجه، شکل‌گیری اکثریتی است که بیش از آن‌که واقعی باشد، محصول مهندسی ادراک است.
 عبور از بردگی الگوریتمیک
هوش مصنوعی و دکترین‌های نظامی، از نقاط ضعف ما برای تبدیل کردنمان به مصرف‌کنندگانِ بی‌اراده استفاده می‌کنند. اما آیا ما محکوم به شکست هستیم؟ منتقدانِ خوش‌بین معتقدند که بزرگترین نقطه ضعفِ الگوریتم‌ها، غیرقابل پیش‌بینی بودنِ نبوغ انسان است. آگاهی از اینکه فیدِ خبری ما یک واقعیت تصادفی نیست، بلکه یک مهندسیِ انتخابی است، اولین قدم برای شکستن این اسارت است. باید تلاش کرد که الگوریتم را غافلگیر کنید. به دنبال منابعی بروید که هوش مصنوعی هرگز به شما پیشنهاد نمی‌دهد. تفکر مستقل از جایی شروع می‌شود که پیشنهادِ الگوریتم به پایان می‌رسد.

1717

کد مطلب 2183703

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
2 + 1 =

آخرین اخبار

پربیننده‌ترین