به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، یک گزارش تازه نشان میدهد هوش مصنوعی گوگل، از جمله چتبات Gemini، بدون تلاش هزاران کارگر قراردادی عملاً قابل اعتماد نبود. این افراد که بیشترشان معلمان، نویسندگان یا متخصصان با مدرکهای دانشگاهی هستند، از طریق شرکت پیمانکار GlobalLogic به کار گرفته میشوند. وظیفه آنها بررسی پاسخهای تولیدشده توسط هوش مصنوعی، اصلاح خطاها و حذف محتوای خشونتآمیز یا غیراخلاقی است.
اما شرایط کاری آنها بسیار سخت است. ضربالاجلهای سنگین، دستمزد پایین (از ۱۶ دلار در ساعت) و نبود پشتیبانی روانی باعث شده بسیاری از این کارگران دچار اضطراب و حملات عصبی شوند. یکی از کارکنان به گاردین گفته: «هیچکس به ما هشدار نداده بود که باید با این حجم از محتوای آزاردهنده سروکار داشته باشیم.»
این کارگران که «AI raters» نامیده میشوند، در واقع بخش میانی زنجیره هوش مصنوعی هستند: بالاتر از نیروهای برچسبگذار داده، اما بسیار پایینتر از مهندسانی که در سیلیکونولی مدلها را طراحی میکنند. بسیاری از آنها معتقدند کارشان دیده نمیشود و گوگل تنها زمانی به کیفیت اهمیت میدهد که با واکنش عمومی یا رسوایی روبهرو شود.
بر اساس شهادت کارکنان، در سال ۲۰۲۴ حتی سیاستهای گوگل درباره محتوای حساس هم تغییر کرده و برخی محدودیتها در تکرار سخنان نفرتپراکنانه یا محتوای جنسی برداشته شده است. یکی از محققان میگوید: «سرعت بر اخلاق غلبه میکند. وعده امنیت هوش مصنوعی دقیقاً در لحظهای فرو میریزد که سود به خطر بیفتد.»
با وجود نقش کلیدی در ایمنسازی چتباتها، این نیروها امنیت شغلی ندارند و از ابتدای ۲۰۲۵ با موج اخراجهای پیاپی روبهرو شدهاند. بسیاری از آنها حتی به خانوادههایشان توصیه میکنند از ابزارهای هوش مصنوعی استفاده نکنند. همانطور که یکی از کارگران گفته: «هوش مصنوعی جادو نیست؛ روی دوش انسانهای خسته و کمدستمزد ساخته شده است.»
۲۲۷۲۲۷
نظر شما