مدیرعامل OpenAI هشدار داد کاربران نباید در گفت‌وگو با ChatGPT مسائل شخصی و محرمانه‌شان را مطرح کنند، چرا که هیچ‌گونه محرمانگی قانونی میان انسان و هوش مصنوعی وجود ندارد.

به گزارش خبرگزاری خبرآنلاین، سم آلتمن، مدیرعامل شرکت OpenAI، در تازه‌ترین اظهارنظر خود در پادکست «تئو وان» اعلام کرد که نباید ChatGPT را به‌عنوان درمانگر یا مشاور شخصی در نظر گرفت. او گفت: «مردم در گفت‌وگو با این ابزار هوش مصنوعی، از مشکلات روحی، عاطفی و تصمیمات حساس زندگی‌شان می‌گویند، اما باید بدانند که چنین گفت‌وگوهایی مشمول محرمانگی قانونی نیست.»

آلتمن هشدار داد که برخلاف مکالمه با یک پزشک، وکیل یا روان‌درمانگر، هنوز هیچ قانون مشخصی برای حفظ حریم خصوصی مکالمات با هوش مصنوعی وجود ندارد و در صورت نیاز قانونی، شرکت‌ها ممکن است ملزم به ارائه محتوای این چت‌ها باشند.

او با اشاره به نگرانی‌های کاربران از این موضوع، تأکید کرد که باید چارچوب‌های جدیدی برای حفاظت از حریم خصوصی در تعامل با فناوری‌های نوین تعریف شود. آلتمن همچنین به تلاش OpenAI برای مقاومت در برابر حکمی قضایی اشاره کرد که این شرکت را ملزم به نگه‌داری داده‌های کاربران کرده است — با استثنای کاربران نسخه شرکتی ChatGPT Enterprise.

این هشدار در حالی مطرح می‌شود که بسیاری از جوانان در جهان از هوش مصنوعی برای دریافت مشاوره‌های روانی و سبک زندگی استفاده می‌کنند، بدون آنکه از عواقب حقوقی یا حریم خصوصی این تعامل‌ها آگاه باشند.

منبع: TechCrunch

۲۲۷۲۲۷

منبع: خبرآنلاین