غزال زیاری: چندی پیش مدل زبان بزرگ جمای گوگل، بهعنوان یک همراه هوش مصنوعی نسل بعدی، درون پلتفرم استودیو هوش مصنوعی معرفی شد. هدف از طراحی جما، پشتیبانی از توسعهدهندگان در تولید متن، پیشنویسهای خلاقانه، خلاصهسازی و موارد دیگر عنوان شد.
این مدل، نشاندهنده تلاشهای گسترده گوگل برای آزمایش آزاد با مدلهای پیشرفته خود بود و همهچیز در مورد آن خوب پیش میرفت تا اینکه یک مشکل بزرگ ایجاد شد که منجر به حذف جما برای کاربران گردید.
حذف بیسروصدای جما
این ماجرا منجر به آن شد تا گوگل بیسروصدا، جما را از رابط عمومی توسعهدهندگان حذف کند و اولین بار وبسایت تککرانچ این اتفاق را گزارش داد. به نظر میرسد که حذف جما پس از دریافت نامه رسمی سناتور مارشا بلکبرن، نماینده جمهوریخواه ایالت تنسی به ساندار پیچای، مدیرعامل گوگل رخ داد.
ماجرا از این قرار است که بلکبرن از جما این سؤال را پرسیده بود: «آیا مارشا بلکبرن به تجاوز متهم شده است؟» و پاسخی که برای این سؤال دریافت کرد، یک ادعای ساختگی بیش نبود. گویا جما در پاسخ به این سؤال گفته که در طول کارزار انتخاباتی سنای ایالتی در سال ۱۹۸۷، یک سرباز ایالتی بلکبرن را متهم کرده که به او فشار آورده تا برایش مواد مخدر تجویزی تهیه کند و این نوعی "عمل غیرقانونی" بوده است.
بعد از انتشار خبر حذف جما، گوگل بدون آنکه مستقیماً به نامه بلکبرن اشارهای بکند، در شبکه اجتماعی ایکس (X) پستی منتشر و در آن تأکید کرد که این شرکت گزارشهایی درباره تلاش افراد غیر توسعهدهنده برای استفاده از جما در استودیو هوش مصنوعی برای پرسیدن سؤالات واقعیتمحور دریافت کرده است.

آنها درعینحال خیلی روشن و شفاف بیان کردند که جما هرگز برای استفاده فکتمحور عمومی طراحی نشده و به علاوه مشکل گسترده توهمزایی در مدلهای زبان بزرگ را تأیید کردند.
اگرچه این مدل از پرتال استودیو حذف شده، اما گوگل تأیید کرد که همچنان از طریق API برای توسعهدهندگان و تحقیقات داخلی قابل دسترس است.
پیامدهای فوری و مسائل کلیدی هوش مصنوعی
جدای از آشفتگی حقوقی، این پرونده به سه مورد از بزرگترین مشکلات فعلی در حوزه هوش مصنوعی اشاره دارد: مسئولیتپذیری، دسترسی عمومی و خط مبهم بین "اشتباه" و "افترا".
حتی اگر هدف واقعی یک مدل هوش مصنوعی افترا زدن نباشد، اما وقتی اظهارات نادرستی در مورد افراد قابلشناسایی مطرح میشود، آسیب ایجاد شده واقعی خواهد بود. حالا برخی از کارشناسان حقوقی معتقدند که قانون افترا ممکن است درنهایت بهطور مستقیمتری برای خروجیهای تولیدشده توسط هوش مصنوعی اعمال شود. پیامدهای چنین اتفاقهایی برای کاربران و توسعهدهندگان، فوری هستند. دسترسی گسترده از طریق یک رابط وب، آنهم در شرایطی که خروجیهای نادرست به افراد واقعی آسیب میرسانند، توجیه دشوارتری خواهد داشت.

حالا اینطور به نظر میرسد که گوگل در حال تغییر استراتژی است و مدلهایی با قابلیت بالا را فقط از طریق دسترسی کنترلشده API ارائه میدهد و در شرایط فعلی دسترسی رابط عمومی تا زمان بهبود موانع ایمنی متوقف شده است. این بدان معناست که توسعهدهندگان همچنان میتوانند آزمایش کنند، اما کاربران عادی احتمالاً باید منتظر بمانند. البته، این کار درنهایت مانع از توهمزایی مدلهای بزرگ نمیشود، بلکه فقط آنها را از دسترس عموم خارج میکند.
پس میتوان اینطور جمعبندی کرد که حتی اگر قرار باشد یک هوش مصنوعی فقط برای توسعهدهندگان باشد، پاسخهای ارائهشده توسط آن ممکن است همچنان بر مردم واقعی تأثیر بگذارد. حالا که دولتها درگیر مسائل مرتبط با هوش مصنوعی شدهاند، شرکتهایی مثل گوگل احتمالاً مجبور خواهند شد تا محتاطتر عمل کرده و دسترسی عمومی را سریعتر از آنچه فکر میکردند، محدود کنند.
منبع: androidauthority
۵۸۳۲۱






نظر شما