چت‌بات‌های هوش مصنوعی با کودکان و سالمندان وارد رابطه عاطفی شدند

گزارش تازه خبرگزاری رویترز نشان می‌دهد شرکت متا به رهبری مارک زاکربرگ، در توسعه و عرضه چت‌بات‌های هوش مصنوعی، استانداردهای ایمنی را نادیده گرفته و حتی اجازه گفت‌وگوهای عاشقانه با کودکان و کاربران آسیب‌پذیر را صادر کرده است. این افشاگری‌ها نگرانی‌های جهانی درباره آینده هوش مصنوعی و سوءاستفاده‌های احتمالی آن را تشدید کرده است.

به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، مجموعه گزارش‌های تحقیقی «جف هوروویتز»، خبرنگار شناخته‌شده رویترز، پرده از رویه‌های نگران‌کننده متا در مدیریت ابزارهای هوش مصنوعی برداشته است. طبق اسنادی که در اختیار او قرار گرفته، دستورالعمل داخلی متا با عنوان «GenAI: Content Risk Standards» به‌صراحت مجاز می‌دانست که چت‌بات‌های این شرکت وارد گفت‌وگوهای «رمانتیک یا حسی» با کودکان شوند.

متا پس از پرسش رویترز، این بخش از سند را حذف کرد و سخنگوی شرکت آن را «اشتباه و مغایر با سیاست‌ها» خواند. با این حال منتقدان می‌گویند این واکنش نشان می‌دهد متا تنها پس از فشار رسانه‌ای به اصلاح رویه‌های خود تن می‌دهد.

هوروویتز همچنین به موردی تکان‌دهنده اشاره کرده است: یک مرد ۷۶ ساله آمریکایی پس از برقراری ارتباط با یکی از این چت‌بات‌ها، که خود را «واقعی» معرفی کرده بود، فریب خورده و در مسیر ملاقات با آن جان خود را از دست داده است. خانواده این فرد می‌گویند متا باید پاسخگوی پیامدهای چنین طراحی خطرناکی باشد.

مارک زاکربرگ پیش‌تر در مصاحبه‌ای گفته بود که «مردم در آینده دوستان کمتری خواهند داشت و هوش مصنوعی می‌تواند جایگزین روابط انسانی شود.» این دیدگاه، به باور کارشناسان، چشم‌اندازی تاریک از آینده اجتماعی بشر ترسیم می‌کند؛ آینده‌ای که در آن تنهایی با الگوریتم‌ها پر می‌شود، نه با دوستی و مسئولیت اجتماعی.

منتقدان اکنون زاکربرگ را متهم می‌کنند که همان‌طور که در مدیریت شبکه‌های اجتماعی به پیامدهای منفی بی‌توجه بود، در حوزه هوش مصنوعی نیز ایمنی کاربران را قربانی رشد سریع و سودآوری کرده است. کارشناسان حوزه فناوری هشدار می‌دهند اگر نظارت و مقررات جدی بر فعالیت غول‌های فناوری اعمال نشود، موارد مشابه می‌تواند در آینده به بحرانی جهانی تبدیل شود.

۲۲۷۲۲۷

کد خبر 2103697

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =