«مرینانک شارما»، مدیر تیم تحقیقات امنیتی در شرکت Anthropic (رقیب اصلی سازنده ChatGPT)، با انتشار نامه‌ای سرگشاده از سمت خود کناره‌گیری کرد. شارما که وظیفه‌اش ایجاد «محافظ» برای جلوگیری از خطرات هوش مصنوعی بود، با لحنی هشدارآمیز نوشت: «دنیا در وضعیت مخاطره‌آمیزی قرار دارد؛ از بحران‌های زیستی گرفته تا چاپلوسی و فریبکاری هوش مصنوعی.»

به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، او اعلام کرد که می‌خواهد وقت خود را صرف «شعر» و «بیان شجاعانه حقایق» کند؛ پیامی که بسیاری آن را نشانه‌ای از بن‌بست اخلاقی در شرکت‌های بزرگ فناوری می‌دانند.

همزمان با این استعفا، «زوئی هیتزیگ»، محقق شرکت OpenAI نیز با انتقادی تند از این شرکت جدا شد. او معتقد است ورود تبلیغات به محیط گفتگو با هوش مصنوعی، فاجعه‌بار خواهد بود.

نگرانی آن‌ها از این موضوع است که کاربران خصوصی‌ترین مسائل خود، از ترس‌های پزشکی گرفته تا باورهای مذهبی را با چت‌بات‌ها در میان می‌گذارند و خطر اصلی این کار، استفاده از این داده‌ها برای «تبلیغات هدفمند» است که پتانسیل بالایی برای دست‌کاری ذهن انسان و سوءاستفاده‌های ناشناخته دارد.

در پی این تنش‌ها، شرکت Anthropic در یک آگهی پرهزینه، رقیب خود یعنی OpenAI را به فریبکاری متهم کرد. «سم آلتمن»، مدیرعامل OpenAI نیز ساکت ننشست و با کنایه به آگهی‌های رقیب، آن‌ها را «غیرصادقانه» خواند و تأکید کرد که تبلیغات، تنها راه رایگان نگه داشتن هوش مصنوعی برای همه مردم است.

استعفای همزمان نخبگانی مانند شارما و هیتزیگ نشان می‌دهد که در لایه‌های زیرین این شرکت‌ها، شکاف عمیقی بین «تیم‌های امنیت» و «تیم‌های فروش» ایجاد شده است. محققان می‌گویند وقتی شرکت‌ها برای جلب رضایت سهامداران به سمت مدل‌های تجاری و تبلیغاتی حرکت می‌کنند، اصول ایمنی که برای محافظت از بشریت وضع شده بود، اولین قربانی این مسیر خواهد بود.

۲۲۷۲۲۷