تینا مزدکی_تیمی تحقیقاتی در مایکروسافت ادعا میکند که از هوش مصنوعی برای کشف یک آسیبپذیری «روز صفر» (Zero Day) در سیستمهای زیست امنیتی استفاده کرده که برای جلوگیری از سوءاستفاده از DNA طراحی شدهاند.
این سیستمهای غربالگری بهمنظور جلوگیری از خرید توالیهای ژنتیکی ساخته شدهاند که میتوانند برای تولید سموم کشنده یا پاتوژنها و عوامل بیماریزای کشنده استفاده شوند. اکنون پژوهشگرانی به رهبری «اریک هورویتز»، دانشمند ارشد مایکروسافت، میگویند راهی برای دور زدن این محافظتها یافتهاند که قبلاً ناشناخته بوده است.
هورویتز و همکارانش روی الگوریتمهای هوش مصنوعی مولد تمرکز کردند که اشکال جدیدی از پروتئینها را پیشنهاد میدهند. این نوع برنامهها به جستجوی داروهای جدید توسط استارتاپهای ثروتمندی مانند Generate Biomedicines و Isomorphic Labs کمک میکنند. اما مشکل از آنجایی شروع میشود چنین سیستمهایی کاربرد دوگانه دارند، یعنی میتوانند از دادههای آموزشی خود هم برای تولید مولکولهای مفید و هم برای مولکولهای مضر استفاده کنند.
مایکروسافت میگوید در سال ۲۰۲۳ یک آزمایش «رد-تیمینگ» درباره پتانسیل دوگانه هوش مصنوعی آغاز کرده تا مشخص کند که طراحی چنین پروتئین خصمانه با هوش مصنوعی میتواند به زیست-تروریستها در ساخت پروتئینهای زیانبار کمک کند یا خیر.
این ابزار که مایکروسافت به آن حمله کرد، بهعنوان نرمافزار غربالگری امنیت زیستی شناخته میشود. برای تولید یک پروتئین، محققان معمولاً باید توالی DNA مربوطه را از یک فروشنده تجاری سفارش دهند، که پس از آن میتوانند آن را در یک سلول نصب کنند. این فروشندگان از نرمافزار غربالگری استفاده میکنند تا سفارشهای دریافتی را با سموم یا عوامل بیماریزای شناختهشده مقایسه کنند. یک تطابق نزدیک باعث فعال شدن هشدار میشود. مایکروسافت برای طراحی حمله خود، از چندین مدل پروتئین مولد (از جمله مدل خود با نام EvoDiff) برای طراحی مجدد سموم استفاده کرد، آنها ساختار سموم را بهگونهای تغییر دادند که از نرمافزار غربالگری عبور کند، اما پیشبینی میشد که عملکرد کشنده خود را حفظ کند.
محققان میگویند این تمرین کاملاً دیجیتالی بوده و هرگز هیچ پروتئین سمی تولید نکردهاند و این اقدام برای جلوگیری از هرگونه تصور مبنی بر توسعه سلاحهای بیولوژیک توسط این شرکت انجام شد. اگرچه برخی از مولکولهای طراحی شده توسط هوش مصنوعی هنوز میتوانند از تشخیص فرار کنند، اما مایکروسافت میگوید پیش از انتشار نتایج، به دولت ایالات متحده و سازندگان نرمافزار هشدار داده است و آنها نیز سیستمهای خود را پچ (Patch) کردهاند.
همچنین آنها برای اطمینان از سوءاستفاده نشدن از این تحقیق، نمیگویند که از هوش مصنوعی خواستهاند کدام پروتئینهای سمی را بازطراحی کند. با این حال، برخی پروتئینهای خطرناک مانند ریسین (یک سم موجود در دانههای کرچک) و پریونهای عفونی که عامل بیماری جنون گاوی هستند، بهخوبی شناخته شدهاند.
اختلاف نظر درباره بهترین راه دفاع
دین بال، از بنیاد نوآوری آمریکا میگوید: «این کشف، همراه با پیشرفتهای سریع در شبیهسازیهای بیولوژیکی با کمک هوش مصنوعی، نیاز فوری و روشنی را به وجود میآورد تا روشهای قویتری برای غربالگری توالیهای اسید نوکلئیک (DNA) ایجاد شود و سازوکارهای مطمئنی برای تأیید و اجرای این روشها به کار گرفته شود.» بال خاطرنشان کرده است که در حال حاضر، دولت ایالات متحده، بررسی و غربالگری سفارشات DNA را یک خط دفاعی حیاتی در امنیت ملی میداند. در ماه می گذشته، ترامپ با صدور یک فرمان اجرایی درباره ایمنی تحقیقات بیولوژیکی، خواستار بازنگری کلی در آن سیستم شده بود؛ هرچند کاخ سفید تاکنون توصیههای جدیدی در این خصوص منتشر نکرده است.
در مقابل، برخی دیگر شک دارند که تکیه بر سنتز تجاری DNA (تولید DNA در شرکتها) بهترین راهکار دفاعی در برابر افراد خرابکار باشد. مایکل کوهن، محقق ایمنی هوش مصنوعی از دانشگاه کالیفرنیا، برکلی، معتقد است که همیشه روشهایی برای پنهان کردن توالیهای خطرناک وجود خواهد داشت و مایکروسافت میتوانست آزمون کشف آسیبپذیری خود را سختتر انجام دهد. کوهن میگوید: «به نظر میرسد این چالش آزمایشی ضعیف بوده و ابزارهای امنیتی که پچ شدهاند نیز همچنان بارها شکست میخورند. این طور به نظر میرسد که تمایلی برای پذیرش این حقیقت وجود ندارد که بهزودی مجبور خواهیم شد از این نقطه کنترل اصلی فرضی عقبنشینی کنیم. بنابراین، بهتر است به دنبال زمینههایی باشیم که واقعاً توان دفاع از آنها را داریم.»
او بر این باور است که امنیت زیستی احتمالاً باید در خود سیستمهای هوش مصنوعی ادغام شود؛ یا به صورت مستقیم در ساختار مدلها یا از طریق کنترلهایی بر اطلاعاتی که این مدلها منتشر میکنند.
اما کلور (از شرکت تولید DNA) معتقد است نظارت بر سنتز ژن همچنان یک روش عملی برای شناسایی تهدیدهای زیستی است. او دلیل این موضوع را در این میبیند که تولید DNA در ایالات متحده تحت کنترل چند شرکت محدود است که همکاری نزدیکی با دولت دارند. در مقابل، فناوری مورد نیاز برای ساخت و آموزش مدلهای هوش مصنوعی بهمراتب گستردهتر شده است. کلور میگوید: «نمیتوانید آن غول (هوش مصنوعی) را دوباره به بطری بازگردانید. اگر فردی منابع لازم برای فریب دادن ما برای ساختن توالی DNA را داشته باشد، احتمالاً میتواند به راحتی یک مدل زبان بزرگ (LLM) را نیز آموزش دهد.»
منبع: technologyreview
۲۲۷۳۲۳