غزال زیاری: دهههاست که عبارت "هوش مصنوعی" در مباحث و مجالس علمی مطرح بوده است؛ اما امسال، با رونمایی از ChatGPT محصول شرکت OpenAI که برای عموم قابل دسترس و کاربردی است، پیشرفتهای علمی وارد مرحله دیگری شده است. با این حال هوش مصنوعی، تاریخچهای دیرینه دارد و تا پیش از دستیابی به فناوری امروزی، سابقه کوتاهی از آزمایشهای ناموفق وجود داشت.
در بیشتر موارد این طور به نظر میرسد که نوآوریهای هوش مصنوعی در بهبود مواردی مثل تشخیص پزشکی و اکتشافات علمی کاربردی بوده است. به عنوان مثال یک مدل هوش مصنوعی میتواند با تجزیه و تحلیل اسکن پزشکی، تشخیص دهد که آیا شما در معرض خطر بالای ابتلا به سرطان ریه هستید یا خیر. در جریان پاندمی کووید ۱۹، دانشمندان الگوریتمی ساختند که میتوانست با گوش دادن به تفاوتهای ظریف در صدای سرفه افراد، وجود این ویروس در بدن فرد را تشخیص دهد؛ هوش مصنوعی همچنین در طراحی آزمایشهای فیزیک کوانتومی فراتر از آنچه تصور میکنیم، مورد استفاده قرار میگیرد.
اما تمام موارد استفاده از این نوآوریها چندان خوشایند و دلپذیر و مطلوب نیستند؛ از پهپادهای قاتل گرفته تا هوش مصنوعی که آینده بشر را مورد تهدید قرار میدهد. در این مقاله قصد داریم تا به بررسی تعدادی از ترسناکترین پیشرفتهای هوش مصنوعی که احتمالا در سال ۲۰۲۴ مورد استفاده قرار خواهد گرفت بپردازیم:
سن هوش مصنوعی عمومی (AGI)
ما دقیقا نمیدانیم که چرا سام آلتمن، مدیرعامل OpenAI در اواخر سال ۲۰۲۳ از سمتش برکنار شد و دوباره به پست خود بازگردانده شد. اما در بحبوحه هرج و مرجهایی که در شرکت OpenAI به وجود آمده بود، شایعاتی درباره فناوری پیشرفتهای که میتواند آینده بشریت را تهدید کند، مطرح شد. سیستم OpenAI که Q* (کیو استار) نامیده میشود، ممکن است تحقق بالقوه پیشگامانه هوش مصنوعی عمومی (AGI) را تجسم ببخشد. البته اطلاعات درباره این سیستم مرموز محدود است؛ اما در صورت صحت گزارشها، این سستم میتواند قابلیتهای هوش مصنوعی را چندین سطح درجه افزایش دهد.
AGI یک نقطه اوج فرضی است که از آن تحت عنوان "تکینگی" نیز یاد میشود. یعنی زمانی که در آن هوش مصنوعی هوشمندتر از انسان میشود. نسل فعلی هوش مصنوعی هنوز در برخی زمینهها مثل استدلال مبتنی بر زمینه و خلاقیت واقعی که انسانها هنوز برتر هستند، از بشر عقب مانده است. همه یا دست کم بیشتر محتوای تولید شده توسط هوش مصنوعی، به نوعی دادههایی که برای آموزش آنها مورد استفاده قرار گرفته را پس میگیرند.
اما طبق گفته دانشمندان، AGI میتواند به شکل بالقوه مشاغل خاصی را به مراتب بهتر از انسانها انجام دهد. همچنین میتوان از آن برای ایجاد عوامل بیماریزا، حملات سایبری گسترده و یا سازماندهی دستکاری تودهها استفاده کرد.
ایده AGIمدتهاست که به داستانهای علمی تخیلی محدود شده و بسیاری از دانشمندان معتقدند که هرگز به این نقطه نخواهیم رسید. البته برای شرکت OpenAI رسیدن به همین نقطه اوج هم یک شوک بزرگ است. به عنوان مثال میدانیم که سام آلتمن در فوریه سال ۲۰۲۳، رویکرد OpenAI به AGI را در یک وبلاگ تشریح کرد. بارونز در گزارشی به این نکته اشاره کرد که ما میدانیم که متخصصان شروع به پیشبینی یک پیشرفت قریبالوقوع کردهاند؛ از جمله این افراد میتوان به جنسن هوانگ، مدیرعامل Nvidia اشاره کرد که در نوامبر یادآور شد که AGI در پنج سال آینده در دسترس عموم خواهد بود. آیا سال ۲۰۲۴، سال شکست AGI خواهد بود؟ تنها گذر زمان این را نشان خواهد داد.
دیپ فیکهای واقعگرایانه تقلب در انتخابات
یکی از مهمترین تهدیدهای سایبری، دیپ فیک است؛ دیپ فیک به معنی تولید تصاویر یا ویدیوهای کاملا ساختگی از افراد است که اطلاعات نادرست از آنها ارائه کرده، آنها را متهم کرده و یا به سخره میگیرد. تکنولوژی دیپ فیک هوش مصنوعی، هنوز آنقدر خوب نیست که به منزله یک تهدید تلقی شود، ولی ممکن است در آینده تغییراتی داشته باشد.
هوش مصنوعی حالا میتواند دیپ فیکهای real-time و ویدیوهای لایو تولید کند و آنقدر پیشرفت کرده که میتواند تصویر صورتهای انسان را به نحوی خلق کند که افراد نمیتوانند فرق بین تصویر واقعی و فیک را تشخیص دهند. در تحقیق دیگری که نتیجه آن در روز سیزدهم نوامبر در محله Psychological Science منتشر شد، پدیده "هیپررئالسیم" مطرح شد که در آن محتوای تولید شده توسط هوش مصنوعی، بیشتر به عنوان "واقعی" به جای محتوای واقعی تلقی میشود.
این امر عملا تشخیص واقعیت از خیال با چشم غیرمسلح را برای افراد غیرممکن میکند. گرچه ابزارها میتوانند در شناسایی دیپ فیک به افراد کمک کنند، ولی این ابزارها هنوز در جریان اصلی قرار نگرفتهاند. به عنوان مثال، اینتل یک تشخیص دهنده real time ساخته که با استفاده از هوش مصنوعی، جریان خون را آنالیز میکند. ولی طبق گزارش بی بی سی، FakeCatcher نتایج متفاوتی را به همراه داشته.
بیشتر بخوانید:
همانطور که هوش مصنوعی مولد به بلوغ میرسد، یک احتمال ترسناک وجود دارد که مردم میتوانند از دیپ فیک برای اعمال تغییرات در انتخابات استفاده کنند. فایننشال تایمز در گزارشی به این نکته اشاره کرده که مثلا بنگلادش خود را برای برگزاری انتخابات در ژانویه ۲۰۲۴ آماده میکند که احتمالا توسط دیپ فیک مختل خواهد شد. در شرایطی که آمریکا برای انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ آماده میشود، این احتمال وجود دارد که هوش مصنوعی و دیپ فیکها بتوانند نتیجه رای گیری این انتخابات مهم را تغییر دهند. مثلا US Berkeley ، استفاده از هوش مصنوعی در مبارزات انتخاباتی را زیرنظر دارد و NBC News در گزارشی به این نکته اشاره کرده که بسیاری از ایالتها فاقد قوانین یا ابزار لازم برای رسیدگی به موارد افزایش اطلاعات نادرست تولید شده توسط هوش مصنوعی هستند.
رباتهای قاتل با هوش مصنوعی
استفاده از هوش مصنوعی در ابزارهای جنگی توسط دولتها در سرتاسر جهان در حال افزایش است. دولت آمریکا در ۲۲ نوامبر اعلام کرد که ۴۷ ایالت این کشور بیانیهای را درباره استفاده مسئولانه از هوش مصنوعی در ارتش تائید کردهاند؛ بیانیهای که اولین بار در ماه فوریه در لاهه ارائه شد. اما چرا چنین اعلامیهای لازم است؟ چرا که استفاده غیرمسئولانه از هوش مصنوعی، چشماندازی وحشتناک را به همراه خواهد داشت. مثلا شنیده میشود که پهپادهای هوش مصنوعی در لیبی بدون بهرهگیری از نیروی انسانی، به شکار سربازان میپردازند.
هوش مصنوعی قابلیت تشخیص الگوها، خودآموزی، پیش بینی و ارائه توصیههایی در زمینههای نظامی را داراست. این احتمال وجود دارد که در سال ۲۰۲۴، هوش مصنوعی نه تنها در سیستمهای تسلیحاتی مورد استفاده قرار بگیرد، بلکه در سیستمهای لجستیک و پشتیبانی تصمیم و همچنین تحقیق و توسعه نیز کاربردی شود. مثلا در سال ۲۰۲۲، هوش مصنوعی، ۴۰ هزار سلاح شیمیایی جدید و فرضی تولید کرد. شاخه های مختلف ارتش آمریکا، پهپادهایی را سفارش دادهاند که میتوانند تشخیص هدف و ردیابی نبرد را حتی بهتر از انسانها انجام دهند.
در سوی دیگر، اسرائیل نیز از هوش مصنوعی برای شناسایی سریع اهداف بهره برده و این روش حداقل۵۰ برابر سریعتر از عملکرد انسانی عمل میکند.
ولی یکی از ترسناکترین زمینههای توسعه، درباره سیستمهای تسلیحاتی مرگبار (LAWS) یا رباتهای قاتل است. در طول یک دهه اخیر، چندین دانشمند و متخصص تکنولوژی درباره تولید و استفاده از رباتهای قاتل هشدار دادهاند که از جمله آنها میتوان به استیون هاوکینگ در سال ۲۰۱۵ و یا ایلان ماسک در سال ۲۰۱۷ اشاره کرد؛ البته این فناوری هنوز در مقیاس انبوه مورد بهرهبرداری قرار نگرفته است.
با این وجود، برخی پیشرفتهای نگران کننده، حکایت از آن دارد که در سال جدید میلادی، ممکن است شاهد رشد و پیشرفت رباتهای قاتل باشیم. به عنوان مثال ظاهرا روسیه در اوکراین، از پهپادی به نام Zala KYB-UAV بهره میبرد که قابلیت شناسایی و حمله به اهداف را بدون دخالت انسانی داراست. استرالیا هم یک سیستم زیردریایی خودمختار به نام Ghost Shark را توسعه داده که یک سیستم زیردریایی خودمختار است که قرار است به زودی در مقیاسی بالا تولید شود.
به گزارش داتنا و روئیترز، افزایش تعداد کشورهایی که در حال سرمایهگذاری برروی هوش مصنوعی هستند، خود یک نشانه است. هزینههای چین در بهرهگیری از هوش مصنوعی از ۱۱.۶ میلیون دلار در سال ۲۰۱۰ به ۱۴۱ میلیون دلار در سال ۲۰۱۹ افزایش یافته و این بدین معناست که چین در مسیر بهرهگیری از LAWS وارد رقابت با آمریکا شده است. این پیشرفتها حکایت از آن دارد که ما در حال ورود به مرحله جدیدی از جنگ هوش مصنوعی هستیم.
منبع: livescience
نظر شما