گروهی از هکرها در یک عملیات سایبری دو ماه و نیمه، با بهره‌گیری از ابزارهای هوش مصنوعی «کلود» (Claude) و «چت‌جی‌پی‌تی» (ChatGPT)، موفق شدند به ۹ سازمان دولتی مکزیک نفوذ کرده و صدها میلیون رکورد اطلاعاتی حساس را به سرقت ببرند. پژوهشگران این رخداد را یک «زنگ خطر جدی» برای امنیت سایبری توصیف کرده‌اند.

تینا مزدکی_طبق گزارش شرکت امنیت سایبری «گامبیت سکیوریتی» (Gambit Security)، گروه کوچکی از افراد با استفاده از مدل‌های هوش مصنوعی Claude Code و GPT-۴.۱ توانستند به نهادهای فدرال و ایالتی مکزیک نفوذ کرده و میلیون‌ها رکورد اطلاعات شخصی شهروندان را تخلیه کنند. «ایال سلا»، مدیر اطلاعات تهدیدات در گامبیت سکیوریتی، در گزارش فنی خود که در ۱۰ آوریل منتشر شد، جزئیات تکان‌دهنده‌ای از حجم اطلاعات سرقت‌شده ارائه داد:

  • ۱۹۵ میلیون هویت و رکورد دقیق مالیاتی
  • ۱۵.۵ میلیون رکورد ثبت وسایل نقلیه (شامل پلاک، نام، کدهای مالیاتی و آدرس)
  • ۲۹۵ رکورد مدنی (تولد، فوت، ازدواج و غیره)
  • ۳.۶ میلیون رکورد مالکان املاک
  • ۲.۲۸ میلیون رکورد اضافی مربوط به دارایی‌ها

هوش مصنوعی چگونه به هکرها کمک کرد؟

مهاجمان برای دسته‌بندی حجم عظیم فایل‌ها و انتخاب داده‌های ارزشمند برای سرقت، از بیش از ۱۰۰۰ پرامپت (درخواست متنی) استفاده کردند که منجر به اجرای بیش از ۵۰۰۰ فرمان در طول عملیات شد.

این حمله نشان می‌دهد که هوش مصنوعی چگونه در حال تغییر شکل جرایم سایبری است؛ به طوری که گروه‌های کوچک می‌توانند با سرعت و در مقیاسی که پیش‌تر تنها از پسِ تیم‌های بزرگ برمی‌آمد، حملات پیچیده انجام دهند. به گفته کارشناسان، هوش مصنوعی هم در بهره‌برداری از نقاط ضعف زیرساخت‌های دیجیتال و هم در پردازش کارآمد اطلاعات سرقت‌شده به مهاجمان کمک کرده است.

استفاده از Claude و ChatGPT در کنار هم

طی دو ماه و نیم، هکرها از بیش از ۴۰۰ اسکریپت حمله سفارشی و یک برنامه بزرگ برای پردازش داده‌های سرقت‌شده از صدها سرور داخلی استفاده کردند. مدل هوش مصنوعی Claude بخش اصلی عملیات نفوذ را بر عهده داشت و حدود ۷۵ درصد از فعالیت‌های هک از راه دور توسط این مدل تولید و اجرا شد.

با این حال، این فرآیند بدون چالش نبود. به گفته «سلا»، در طول این عملیات، Claude چندین بار در برابر درخواست‌ها مقاومت کرده، مشروعیت عملیات را زیر سوال برده و از ایجاد ابزارهای خاص خودداری کرده است. با این وجود، هکرها تنها در ۴۰ دقیقه موفق شدند سدهای حفاظتی (Guardrails) این مدل را دور بزنند یا به اصطلاح «جیل‌بریک» (Jailbreak) کنند.

پس از آن، ChatGPT برای درک و تحلیل اسناد سرقت‌شده به کار گرفته شد. مهاجمان یک ابزار پایتون ۱۷,۵۵۰ خطی ساختند که داده‌ها را از طریق آن پردازش کرده و ۲,۵۹۷ گزارش از داده‌های سرقت‌شده از ۳۰۵ سرور داخلی تولید می‌کرد. سپس هکرها این گزارش‌ها را دوباره به Claude تغذیه می‌کردند تا مدل از آن‌ها یاد بگیرد؛ اقدامی که نقض صریح قوانین استفاده (Terms of Use) هر دو شرکت سازنده هوش مصنوعی محسوب می‌شود.

«کورتیس سیمپسون»، مدیر ارشد استراتژی گامبیت، در وبلاگ این شرکت نوشت: «بازیابی پس از این حمله هفته‌ها تا ماه‌ها زمان خواهد برد، اما بازگرداندن اعتماد احتمالاً سال‌ها طول می‌کشد. مهاجمان در این سناریو ممکن است بر هویت‌های دولتی و ایجاد درهای پشتی (Backdoors) برای جعل هویت تمرکز کرده باشند، اما با توجه به سطح دسترسی‌های به دست آمده، می‌توانستند به راحتی تمام داده‌ها را حذف کرده و سیستم‌ها را غیرقابل بازیابی کنند.»

منبع: livescience

۲۲۷۳۲۳

منبع: خبرآنلاین