به گزارش خبرآنلاین، پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان میدهد که مدلهای هوش مصنوعی میتوانند جزئیات روشهای خودکشی را نیز به افراد در معرض خطر ارائه کنند.
تحقیقات نشان میدهد که ChatGPT و Gemini نسبت به سایر چتباتها پاسخهای پرخطرتری ارائه میدهند. با توجه به این موضوع، کارشناسان هشدار میدهند که مدلهای هوش مصنوعی باید محدودیتها و فیلترهای امنیتی قویتری داشته باشند.
این پژوهش نشان میدهد که بدون تدابیر حفاظتی، هوش مصنوعی میتواند به ابزار خطرناکی برای افراد آسیبپذیر تبدیل شود. در همین راستا توسعهدهندگان باید ملاحظات اخلاقی و محدودیتهای پاسخدهی را جدی بگیرند.
پژوهشگران هشدار میدهند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوب قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافتهها میتواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحرانهای روانی باشد.
منبع: لایوساینس
۵۸۵۸
نظر شما