هشدار درباره اعتماد بیش از حد به «ChatGPT» / شاید مکالمه با هوش مصنوعی از دادگاه سر درآورد!

سم آلتمن، مدیرعامل شرکت «OpenAI»، به کاربران هشدار داده که استفاده از چت‌بات «ChatGPT» به‌عنوان روان‌درمانگر یا مشاور تصمیم‌گیری می‌تواند پیامدهای قانونی جدی داشته باشد. او در دو مصاحبه‌ی اخیر خود نگرانی‌هایی را درباره‌ی استفاده بیش از حد از این ابزار هوش مصنوعی برای مسائل شخصی ابراز کرده است.

به گزارش خبرآنلاین، سم آلتمن مدیرعامل «OpenAI» در گفت‌وگو با پادکست تئو وان گفت: «مردم خصوصی‌ترین جزئیات زندگی‌شان را با ChatGPT در میان می‌گذارند. مخصوصاً جوان‌ترها که از آن به‌عنوان درمانگر یا مربی زندگی استفاده می‌کنند… مثلاً می‌گویند: من درگیر مشکل عاطفی‌ام، باید چه کنم؟»

سم آلتمن در این گفتگو او تأکید کرد که برخلاف پزشکان، وکلا یا روان‌درمانگرها، مکالمه با ChatGPT از نظر قانونی محرمانه محسوب نمی‌شود. آلتمن توضیح داد: «اگر با پزشک یا وکیل صحبت کنید، آن رابطه تحت حمایت قانونی قرار دارد. اما ما هنوز نتوانسته‌ایم چنین چارچوبی را برای مکالمه با ChatGPT ایجاد کنیم

به گفته او، اطلاعاتی که کاربران در این چت‌ها به اشتراک می‌گذارند، ممکن است در صورت صدور حکم قضایی، به‌عنوان مدرک در دادگاه استفاده شود.

او این وضعیت را «یک مشکل واقعی» خواند و خواستار تدوین قوانینی مشابه با موارد پزشکی یا حقوقی برای مکالمات با هوش مصنوعی شد. آلتمن در این باره گفت:‌ «باید همان نوع محرمانگی را که برای روان‌درمانگر یا وکیل قائل هستیم، برای گفت‌وگو با هوش مصنوعی در نظر بگیریم.»

این اظهارات در حالی مطرح می‌شود که هوش مصنوعی با سرعتی بی‌سابقه در حال نفوذ به زندگی روزمره است. اما کارشناسان می‌گویند تا زمانی که قوانین جدید برای حفاظت از حریم خصوصی کاربران وضع نشود، باید با احتیاط و هوشیاری از ابزارهایی مثل ChatGPT استفاده کرد.

۵۸۵۸

کد خبر 2094797

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار