به گزارش خبرآنلاین، به نقل از ایسنا، با وجود همه مزایای مذکور، چتجیپیتی نیز مانند همه رقبای خود با کاستیهای فراوانی همراه است. به عبارت دیگر، چتجیپیتی دقیقاً همان فناوری نیست که کسی برای انجام کارهای مهم به آن تکیه کند و این درسی است که «مارسل بوچر»(Marcel Bucher) استاد علوم گیاهی «دانشگاه کلن»(University of Cologne) به سختی آموخت.
بوچر در مصاحبه با مجله «Nature» گفت که پس از غیر فعال کردن گزینه «رضایت دادهها» در چتجیپیتی، دو سال کار دانشگاهی با دقت ساختاریافته را از جمله درخواستهای کمکهزینه، ویرایشهای نشریه، سخنرانیها و امتحانات از دست داده است.
او این ویژگی را غیر فعال کرد، زیرا میخواست ببیند اگر دادهها را در اختیار چتبات شرکت «اوپنایآی»(OpenAI) قرار ندهد، همچنان به همه ویژگیهای آن دسترسی خواهد داشت یا خیر، اما در کمال ناباوری، چتها فوراً و بدون هیچ ردی ناپدید شدند. بوچر گفت: هیچ هشداری ظاهر نشد. هیچ گزینه لغوی وجود نداشت. فقط یک صفحه خالی.
این ماجرا با موجی از شماتت در شبکههای اجتماعی روبهرو شد و کاربران این پرسش را مطرح کردند که چطور بوچر دو سال را بدون هیچ گونه پشتیبانی محلی گذرانده است. برخی دیگر خشمگین شدند و از دانشگاه خواستند که او را به دلیل اتکای شدید به هوش مصنوعی برای کارهای دانشگاهی اخراج کند.
با وجود این، برخی نیز برای بوچر دلسوزی کردند. «رولند گرومز»(Roland Gromes)، هماهنگکننده آموزشی «دانشگاه هایدلبرگ»(Heidelberg University) نوشت: درود بر مارسل بوچر برای انتشار داستانی درباره یک گردش کار عمیقاً ناقص و یک اشتباه احمقانه. بسیاری از دانشگاهیان معتقدند که میتوانند مشکلات را ببینند، اما همه ما میتوانیم سادهلوح باشیم و با این نوع مشکلات روبهرو شویم.
بوچر اولین کسی است که اذعان کرده چتجیپیتی میتواند اظهارات به ظاهر مطمئن، اما گاهی نادرست را تولید کند و استدلال میکند که هرگز قابلیت آن را با دقت واقعی برابر ندانسته است. با وجود این، او به پیوستگی و ثبات ظاهری فضای کاری تکیه کرده و از نسخه Plus چتجیپیتی به عنوان دستیار هر روز خود استفاده کرده است.
استفاده از هوش مصنوعی مولد در دنیای علم بسیار بحثبرانگیز بوده است. مجلههای علمی سرشار از مقالههای بیکیفیت هوش مصنوعی شدهاند و روند بررسی دقیق مقالهها را به یک نمایش وحشتناک تبدیل کردهاند. مجلههای علمی جعلی بسیاری در حال ظهور هستند تا از کسانی که سعی در انتشار مقالههای هوش مصنوعی خود دارند، سوءاستفاده کنند. نتیجه این است که مقالههای هوش مصنوعی توسط مدلهای هوش مصنوعی بررسی میشوند و آلودگی مطالب علمی را بیشتر تثبیت میکنند.
از سوی دیگر، دانشمندان دائماً در جریان چگونگی ارجاع به آثارشان در مقالههای جدید و متنوع قرار میگیرند، اما در نهایت متوجه میشوند که مطالب ارجاعدادهشده کاملاً توهم بودهاند.
هیچ مدرکی وجود ندارد که نشان دهد بوچر به هر نحوی سعی در فروش اطلاعات نادرست هوش مصنوعی به دانشجویانش یا انتشار تحقیقات مشکوک تولیدشده توسط هوش مصنوعی داشته است. با وجود این، تجربه ناخوشایند او با این پلتفرم باید یک نشانه هشداردهنده برای دیگران باشد.
بوچر اوپنایآی را متهم کرد که به رغم عدم تضمین اقدامات حفاظتی اولیه برای جلوگیری از ناپدید شدن فوری سالها تلاش او، حق اشتراک نسخه Plus چتجیپیتی خود را میفروشد.
اوپنایآی در بیانیهای به مجله Nature توضیح داد که چتها پس از حذف قابل بازیابی نیستند و ادعای بوچر مبنی بر نبود هشدار را به چالش کشید. مقامات اوپنایآی گفتند: ما پیش از این که کاربر یک چت را به طور دائم حذف کند، یک پیام تأیید ارائه میدهیم.
همچنین، این شرکت به کاربران توصیه کرد که برای کارهای حرفهای خود، نسخههای پشتیبان شخصی را تهیه کنند.