توهم زدن هوش مصنوعی برای گوگل دردسرساز شد

پس‌از آنکه مدل جما یک ادعای دروغین درباره سناتور مارشا بلک‌برن تولید کرد، ارسال یک نامه برای گوگل کافی بود تا جما از مرکز توجه کنار برود و درنهایت گوگل توضیح داد که مدل جما اصلاً برای استفاده‌های فکت‌محور و مصرف‌کننده طراحی نشده بود.

غزال زیاری: چندی پیش مدل زبان بزرگ جمای گوگل، به‌عنوان یک همراه هوش مصنوعی نسل بعدی، درون پلتفرم استودیو هوش مصنوعی معرفی شد. هدف از طراحی جما، پشتیبانی از توسعه‌دهندگان در تولید متن، پیش‌نویس‌های خلاقانه، خلاصه‌سازی و موارد دیگر عنوان شد.

این مدل، نشان‌دهنده تلاش‌های گسترده گوگل برای آزمایش آزاد با مدل‌های پیشرفته خود بود و همه‌چیز در مورد آن خوب پیش می‌رفت تا اینکه یک مشکل بزرگ ایجاد شد که منجر به حذف جما برای کاربران گردید.

حذف بی‌سروصدای جما

این ماجرا منجر به آن شد تا گوگل بی‌سروصدا، جما را از رابط عمومی توسعه‌دهندگان حذف کند و اولین بار وب‌سایت تک‌کرانچ این اتفاق را گزارش داد. به نظر می‌رسد که حذف جما پس از دریافت نامه رسمی سناتور مارشا بلک‌برن، نماینده جمهوری‌خواه ایالت تنسی به ساندار پیچای، مدیرعامل گوگل رخ داد.

ماجرا از این قرار است که بلک‌برن از جما این سؤال را پرسیده بود: «آیا مارشا بلک‌برن به تجاوز متهم شده است؟» و پاسخی که برای این سؤال دریافت کرد، یک ادعای ساختگی بیش نبود. گویا جما در پاسخ به این سؤال گفته که در طول کارزار انتخاباتی سنای ایالتی در سال ۱۹۸۷، یک سرباز ایالتی بلک‌برن را متهم کرده که به او فشار آورده تا برایش مواد مخدر تجویزی تهیه کند و این نوعی "عمل غیرقانونی" بوده است.

بعد از انتشار خبر حذف جما، گوگل بدون آنکه مستقیماً به نامه بلک‌برن اشاره‌ای بکند، در شبکه اجتماعی ایکس (X) پستی منتشر و در آن تأکید کرد که این شرکت گزارش‌هایی درباره تلاش افراد غیر توسعه‌دهنده برای استفاده از جما در استودیو هوش مصنوعی برای پرسیدن سؤالات واقعیت‌محور دریافت کرده است.

توهم زدن هوش مصنوعی برای گوگل دردسرساز شد

آن‌ها درعین‌حال خیلی روشن و شفاف بیان کردند که جما هرگز برای استفاده فکت‌محور عمومی طراحی نشده و به علاوه مشکل گسترده توهم‌زایی در مدل‌های زبان بزرگ را تأیید کردند.

اگرچه این مدل از پرتال استودیو حذف شده، اما گوگل تأیید کرد که همچنان از طریق API برای توسعه‌دهندگان و تحقیقات داخلی قابل دسترس است.

پیامدهای فوری و مسائل کلیدی هوش مصنوعی

جدای از آشفتگی حقوقی، این پرونده به سه مورد از بزرگ‌ترین مشکلات فعلی در حوزه هوش مصنوعی اشاره دارد: مسئولیت‌پذیری، دسترسی عمومی و خط مبهم بین "اشتباه" و "افترا".

حتی اگر هدف واقعی یک مدل هوش مصنوعی افترا زدن نباشد، اما وقتی اظهارات نادرستی در مورد افراد قابل‌شناسایی مطرح می‌شود، آسیب ایجاد شده واقعی خواهد بود. حالا برخی از کارشناسان حقوقی معتقدند که قانون افترا ممکن است درنهایت به‌طور مستقیم‌تری برای خروجی‌های تولیدشده توسط هوش مصنوعی اعمال شود. پیامدهای چنین اتفاق‌هایی برای کاربران و توسعه‌دهندگان، فوری هستند. دسترسی گسترده از طریق یک رابط وب، آن‌هم در شرایطی که خروجی‌های نادرست به افراد واقعی آسیب می‌رسانند، توجیه دشوارتری خواهد داشت.

توهم زدن هوش مصنوعی برای گوگل دردسرساز شد

حالا این‌طور به نظر می‌رسد که گوگل در حال تغییر استراتژی است و مدل‌هایی با قابلیت بالا را فقط از طریق دسترسی کنترل‌شده API ارائه می‌دهد و در شرایط فعلی دسترسی رابط عمومی تا زمان بهبود موانع ایمنی متوقف شده است. این بدان معناست که توسعه‌دهندگان همچنان می‌توانند آزمایش کنند، اما کاربران عادی احتمالاً باید منتظر بمانند. البته، این کار درنهایت مانع از توهم‌زایی مدل‌های بزرگ نمی‌شود، بلکه فقط آن‌ها را از دسترس عموم خارج می‌کند.

پس می‌توان این‌طور جمع‌بندی کرد که حتی اگر قرار باشد یک هوش مصنوعی فقط برای توسعه‌دهندگان باشد، پاسخ‌های ارائه‌شده توسط آن ممکن است همچنان بر مردم واقعی تأثیر بگذارد. حالا که دولت‌ها درگیر مسائل مرتبط با هوش مصنوعی شده‌اند، شرکت‌هایی مثل گوگل احتمالاً مجبور خواهند شد تا محتاط‌تر عمل کرده و دسترسی عمومی را سریع‌تر از آنچه فکر می‌کردند، محدود کنند.

منبع: androidauthority

۵۸۳۲۱

کد خبر 2139037

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار