تینا مزدکی_هرش وارشنی، مهندس شاغل در بخش امنیت هوش مصنوعی کروم در گوگل، تاکید میکند که ابزارهای هوش مصنوعی به سرعت به یک شریک خاموش در زندگی روزمره ما تبدیل شدهاند و برای کارهایی چون تحقیق عمیق، کدنویسی و جستجوهای آنلاین بسیار مفید هستند. اما به دلیل ماهیت شغلیاش در تیم امنیت، او نسبت به نگرانیهای حریم خصوصی مرتبط با استفاده از هوش مصنوعی کاملاً آگاه است.
او که پیش از این در تیم حفظ حریم خصوصی گوگل کار میکرده، هشدار میدهد که مدلهای هوش مصنوعی برای تولید پاسخهای مفید از دادهها استفاده میکنند و کاربران باید از اطلاعات خصوصی خود محافظت کنند تا نهادهای مخرب مانند مجرمان سایبری و کارگزاران داده نتوانند به آنها دسترسی پیدا کنند. در این راستا، این متخصص امنیت چهار عادت را معرفی میکند که برای محافظت از دادهها در حین استفاده از هوش مصنوعی ضروری هستند:
۱. با هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنید
گاهی اوقات، یک حس نادرست از صمیمیت با هوش مصنوعی باعث میشود افراد اطلاعاتی را به صورت آنلاین به اشتراک بگذارند که هرگز در حالت عادی این کار را نمیکردند. اگرچه شرکتهای هوش مصنوعی دارای کارمندانی هستند که برای بهبود جنبههای حریم خصوصی مدلهایشان تلاش میکنند، اما به هیچ وجه توصیه نمیشود جزئیاتی مانند اطلاعات کارت اعتباری، شمارههای شناسایی، آدرس منزل، سوابق پزشکی شخصی یا سایر اطلاعات هویتی (Personally Identifiable Information - PII) را با چتباتهای عمومی به اشتراک بگذارید.
بسته به نسخهای که استفاده میشود، اطلاعاتی که با چتباتهای عمومی به اشتراک گذاشته میشود، میتواند برای آموزش مدلهای آتی و تولید پاسخهای مرتبطتر مورد استفاده قرار گیرد. این موضوع میتواند منجر به "نشت آموزشی" (Training Leakage) شود، جایی که مدل، اطلاعات شخصی یک کاربر را حفظ میکند و بعداً آن را در پاسخ به کاربر دیگری بازگو میکند. علاوه بر این، خطر نقض دادهها وجود دارد که میتواند اطلاعات به اشتراک گذاشته شده با چتبات را فاش کند.
به گفته وارشنی، کاربران باید با چتباتهای هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند. اگر فردی حاضر نیست اطلاعاتی را روی یک کارت پستال بنویسد که ممکن است توسط هر کسی دیده شود، نباید آن را با یک ابزار عمومی هوش مصنوعی به اشتراک بگذارد.

۲. بدانید کجا هستید
تشخیص اینکه از یک ابزار هوش مصنوعی عمومی استفاده میکنید یا یک ابزار در سطح سازمانی (Enterprise-grade)، بسیار مهم است. در حالی که مشخص نیست مکالمات چگونه برای آموزش مدلهای عمومی استفاده میشوند، شرکتها میتوانند برای مدلهای «سازمانی» هزینه پرداخت کنند. در این مدلها، معمولاً مکالمات کاربران برای آموزش استفاده نمیشود و بنابراین برای کارمندان امنتر است که در مورد کارهای خود و پروژههای شرکت صحبت کنند.
ادامه این مطلب را در «۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی»، بخوانید.
۵۸۳۲۳





نظر شما