اطلاعات شخصی شما، غذای الگوریتم‌هاست / کلیک بی‌خطر نیست؛ هوش مصنوعی می‌داند چه می‌خواهی و برایت تصمیم گرفته!

هوش مصنوعی آمده تا دنیا را دگرگون کند، اما هر تغییر بهایی دارد؛ از چالش‌های اخلاقی و فنی گرفته تا تهدیدهای ناشی از افشای داده‌های شخصی. حمیدرضا کشاورز از لابه‌لای الگوریتم‌ها، نگاهی انسانی به قلب تپنده ماشین‌ها دارد.

نگار علی، غزال زیاری- در بخش نخست گفت‌وگو با حمیدرضا کشاورز، مهندس یادگیری ماشین و سخنران TEDx، نگاهی انداختیم به تأثیر روزافزون هوش مصنوعی بر زندگی روزمره؛ از نقش مدل‌های زبانی در حوزه پزشکی گرفته تا چالش‌های امنیت داده‌ و دغدغه‌های مربوط به حریم خصوصی. او با اشاره به تفاوت‌های پردازش انسان و ماشین، بر این نکته تأکید کرد که حتی دقیق‌ترین مدل‌ها هم ممکن است دچار خطا شوند، به‌ویژه زمانی‌ که اطلاعات ورودی ناقص یا نامتوازن باشد.

اکنون در بخش دوم این گفت‌وگو، وارد حوزه‌هایی می‌شویم که مرز میان توانمندی و تهدید در هوش مصنوعی را شفاف‌تر می‌کنند: از چالش‌های حقوقی مربوط به مالکیت معنوی و سوءاستفاده از داده‌های شخصی گرفته تا تأثیر سخت‌افزارها و شکاف دیجیتال جهانی در توسعه مدل‌ها. اگر می‌خواهید بدانید آینده این فناوری پرشتاب به کدام سو می‌رود و چه تصمیم‌هایی باید امروز برای فردای ایمن‌تر بگیریم، در ادامه مطالعه بخش دوم این گفت‌وگو را از دست ندهید:

هوش مصنوعی، داده‌های شخصی و مخاطرات پیش‌رو

در بخش اول گفت‌وگو اشاره شد که مدل‌های هوش مصنوعی گاهی در نقش راهنما عمل می‌کنند، این مهندس یادگیری ماشین در ادامه در پاسخ به این پرسش که این مدل‌ها چطور تصویرهای ورودی را تحلیل می‌کنند و آیا می‌توان به دقت‌شان اعتماد کرد، گفت:«مدل‌ها کنار ما هستند و سعی می‌کنند ما را به سمت تصمیم درست هدایت کنند. اما نباید تصور کنیم پردازش آن‌ها کاملاً دقیق است. به‌خصوص در پردازش تصویر، چون استانداردهای مختلفی وجود دارد و زاویه یا کیفیت تصویر می‌تواند باعث تفسیرهای متفاوت شود. مثلاً اگر شما دو عکس از یک موضوع از دو زاویه مختلف بدهید، ممکن است خروجی مدل هم متفاوت باشد. البته مدل‌های تخصصی‌تر معمولاً عملکرد بهتری دارند.»

این بحث ما را به نقطه‌ی حساس‌تری می‌رساند؛ ما اطلاعات حساسی در اختیار این مدل‌ها قرار می‌دهیم: داده‌هایی مثل شماره ملی یا اطلاعات پزشکی، کشاورز در ادامه و در پاسخ به این پرسش که این موضوع چه مخاطراتی دارد، گفت:«مهم‌ترین خطر این است که از روی اطلاعات شما یک پروفایل ساخته می‌شود؛ پروفایلی که می‌تواند برای تبلیغات هدفمند یا حتی اهداف دیگر مورد استفاده قرار بگیرد. این دغدغه البته در شبکه‌های اجتماعی هم وجود دارد، اما در چت‌بات‌ها مسئله‌ی جدی‌تری مطرح است: داده‌هایی که شما وارد می‌کنید ممکن است در آموزش مجدد مدل به‌کار گرفته شوند. فرض کنید شماره ملی‌تان را در یک قرارداد وارد کرده‌اید و آن را برای بررسی به یک مدل داده‌اید. ممکن است چند ماه بعد، این داده در پاسخ به کاربر دیگری ظاهر شود. این اتفاق به‌شدت نگران‌کننده است.»

او در ادامه و در پاسخ به این پرسش که برای حرفه‌هایی مثل وکالت یا پزشکی، استفاده از چت‌بات‌ها می‌تواند چالش‌برانگیز باشد، گفت:« دقیقاً. مشاغلی که با اطلاعات حساس سروکار دارند باید حتماً مراقب باشند. استفاده از مدل‌های محلی (local models) می‌تواند راه‌حل مناسبی باشد. مثلاً نسخه‌هایی از مدل Llama وجود دارد که روی لپ‌تاپ اجرا می‌شود و در آن‌ها داده‌ها فقط روی همان دستگاه باقی می‌مانند. این باعث می‌شود اطلاعات شخصی وارد چرخه‌ی آموزش نشود.»

این مهندس یادگیری ماشین در ادامه و در پاسخ به این پرسش که آیا امکان دارد از چت‌بات‌ها خواست که از اطلاعات ما برای آموزش استفاده نکنند، گفت:«بله، در ابتدای مکالمه می‌توان این درخواست را مطرح کرد، اما تضمینی نیست. خصوصاً که در نسخه‌های جدید، ChatGPT از حافظه‌ی مکالمه برخوردار است و اطلاعات شما را به‌خاطر می‌سپارد. این یعنی می‌تواند حتی از شما بازخورد بگیرد و بر اساس رفتار گذشته‌تان تغییر رفتار دهد، گاهی حتی به شکل نگران‌کننده. مثلاً کاربری در شبکه‌های اجتماعی گزارش داده بود که از چت‌بات خواسته او را مسخره کند و مدل هم با توجه به سابقه‌ی مکالمات، به شکلی بی‌رحمانه این کار را انجام داده بود.»

اطلاعات شخصی شما، غذای الگوریتم‌هاست /وقتی کلمات ما سلاح می‌شوند؛ برای چه کسی می‌جنگند؟

مرزهای مبهم مالکیت معنوی در عصر هوش مصنوعی

موضوع دیگر، مالکیت معنوی داده‌هایی است که به هوش مصنوعی داده می‌شود، کشاورز در پاسخ به این پرسش که آیا قوانینی در این زمینه شکل گرفته است، گفت:«خوشبختانه در دانشکده‌های حقوق سراسر جهان، بحث مالکیت معنوی در عصر دیجیتال و هوش مصنوعی به‌طور جدی پیگیری می‌شود. نگرانی فقط درباره‌ی استفاده‌ی بدون اجازه از مقالات یا اخبار اختصاصی نیست، بلکه فراتر رفته است. مثلاً ممکن است سبک یک هنرمند یا گوینده توسط مدل تقلید شود. حتی اگر صدای اسکارلت جوهانسون مستقیماً استفاده نشود، ممکن است لحن یا استایل او بازتولید شود. در این حالت، صدای شما شنیده می‌شود ولی به سبک او، و این دقیقاً همان‌جایی است که مرزها تار می‌شوند.»

چرخه‌ی باطل داده و مسئله‌ی منابع

او در ادامه و در پاسخ به این پرسش که اگر منابع آموزشی تمام شوند، چه می‌شود، گفت:«این نگرانی جدی است. وقتی منابع اصلی به پایان برسند، مدل‌ها شروع می‌کنند به بازخورد گرفتن از خودشان؛ یعنی به‌نوعی در یک چرخه‌ی باطل می‌افتند. این مسئله مشابه چیزی است که در پلتفرم‌های موسیقی مثل اسپاتیفای می‌بینیم: الگوریتم‌ها سلیقه‌ی شما را می‌سنجند و آهنگ‌هایی پیشنهاد می‌دهند، اما به‌تدریج پیشنهادها محدود و تکراری می‌شوند.»

شکاف دیجیتال و رقابت جهانی بر سر تراشه‌ها

کشاورز در ادامه و در پاسخ به این پرسش که چقدر نقش تراشه‌ها در توسعه‌ی مدل‌های هوش مصنوعی مهم است و آیا این موضوع شکاف دیجیتال بین کشورها را عمیق‌تر می‌کند، گفت:«بسیار زیاد. در واقع، ایده‌ی شبکه‌های عصبی عمیق از دهه‌ی ۹۰ میلادی مطرح بود، اما چون توان پردازشی کافی وجود نداشت، قابل‌اجرا نبود. از حدود سال ۲۰۱۲ با توسعه‌ی GPUها، مدل‌ها توانستند آموزش ببینند. حالا هم دو مسیر در حال پیگیری است: یا الگوریتم‌ها بهینه‌تر شوند، یا توان پردازشی افزایش پیدا کند.»

او در آخر و در پاسخ به این پرسش که پس کشورهایی که دسترسی به این تراشه‌ها ندارند، عقب می‌افتند، گفت:«در کوتاه‌مدت، بله. البته چین با مدل‌هایی مثل DeepSeek و مدل‌های علی‌بابا نشان داده که در حال رقابت با آمریکا است. اما واقعیت این است که آینده بسیار غیرقابل پیش‌بینی است. همان‌طور که ظهور ناگهانی ChatGPT بازار را شوکه کرد، در آینده هم ممکن است شاهد جهش‌های مشابهی باشیم.»

انتشار مطالب کافه خبر حمیدرضا کشاورز در سرویس هوش مصنوعی خبرآنلاین ادامه دارد؛ همچنان با تازه‌ترین تحلیل‌ها و دستاوردهای در حوزه هوش مصنوعی با ما همراه باشید.

۲۲۷۲۲۷

کد خبر 2059958

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار