از وکالت تا شبیه‌سازی مردگان/ هوش مصنوعی وارد دادگاه‌ها شد

از ویدیوهای دیپ‌فیک گرفته تا پرونده‌های حقوقی ساختگی، با وجود هشدارها و مجازات‌های قضایی، استفاده از ابزارهای تولید محتوای هوش مصنوعی در دادگاه‌ها ادامه دارد.

تینا مزدکی_از پرونده‌های ساختگی ناشی از «توهمات» مدل‌های زبانی گرفته تا ویدیوهای دیپ‌فیک، هوش مصنوعی کم‌کم راهش را به دادگاه‌ها باز کرده است. حالا، در یکی از عجیب‌ترین موارد، این فناوری برای بازگرداندن مقتولان به ظاهر از مرگ استفاده شده است.

این هفته، خانواده‌ی یکی از قربانیان جرم، ویدیویی کوتاه در دادگاهی در ایالت آریزونا ارائه کردند که در آن، نسخه‌ای هوش‌مصنوعی از «کریس پلکی» ۳۷ ساله، خطاب به متهم صحبت می‌کرد. پلکی در سال ۲۰۲۱ در جریان یک درگیری جاده‌ای به ضرب گلوله کشته شد. اکنون، چهار سال بعد، «کلون» تولیدشده با هوش مصنوعی به‌طور مجازی رو به قاتل احتمالی‌اش ایستاد. به گزارش شبکه‌ی محلی ABC۱۵، این نخستین مورد شناخته‌شده از استفاده از یک دیپ‌فیک تولیدشده با هوش مصنوعی در بیانیه‌ی تأثیر جرم قربانی (victim impact statement) است.

در ویدیو، نسخه‌ی بازسازی‌شده‌ی پلکی به متهم می‌گوید: «گابریل اورکاسیتاس، مردی که به من شلیک کردی، مایه‌ی تأسف است که ما آن روز و در آن شرایط همدیگر را دیدیم. شاید در زندگی‌ای دیگر، می‌توانستیم دوست باشیم.»

در این ویدیو، پلکی، سرباز کهنه‌کار ارتش با هیکلی درشت و ریش پرپشت با هودی سبز و کلاهی طوسی ظاهر می‌شود. خانواده‌اش این ویدیو را با استفاده از مدل هوش مصنوعی آموزش‌دیده بر اساس کلیپ‌های قدیمی از او تولید کرده‌اند. فیلتر «پیری» نیز بر چهره‌اش اعمال شده تا نشان دهد او ممکن بود امروز چه شکلی باشد. در نهایت، قاضی، گابریل اورکاسیتاس را به ۱۰.۵ سال زندان به جرم قتل غیرعمد محکوم کرد، تصمیمی که به گفته‌ی خودش، تا حدی تحت تأثیر بیانیه‌ی تولیدشده با هوش مصنوعی گرفته شد.

دیپ‌فیک پلکی در پایان گفت: «این بهترین چیزی‌ست که می‌توانم به تو بدهم از اینکه اگر فرصت داشتم پیر شوم، چطور می‌بودم. به یاد داشته باش، پیر شدن نعمتی‌ست که نصیب همه نمی‌شود. پس قدرش را بدان و نگران چین و چروک‌ها نباش.»

از وکالت تا شبیه‌سازی مردگان/ هوش مصنوعی وارد دادگاه‌ها شد

استفاده‌ی یک متهم نیویورکی از دیپ‌فیک برای دفاع شخصی

تنها یک ماه پیش، یک متهم دیگر در ایالت نیویورک نیز از ویدیوی دیپ‌فیک برای دفاع از خود استفاده کرد. «جروم دیوالد» ۷۴ ساله، در جریان رسیدگی به پرونده‌ی اختلاف قراردادی با کارفرمای سابقش، ویدیویی ارائه کرد که در آن، مردی با ژاکت و پیراهن آبی مستقیم به دوربین نگاه می‌کرد و سخن می‌گفت. قاضی، که از ویدیو سردرگم شده بود، از دیوالد پرسید که آیا فرد در تصویر، وکیل اوست. اما حقیقت این بود که ویدیو، کاملاً ساختگی و توسط هوش مصنوعی تولید شده بود.

به گزارش نیویورک تایمز، دیوالد در پاسخ گفت: «من این ویدیو را تولید کردم. آن فرد واقعی نیست.»

قاضی از اینکه دیوالد استفاده از ابزار هوش مصنوعی را افشا نکرده بود، ابراز نارضایتی کرد و او را توبیخ نمود. دیوالد بعدها به نیویورک تایمز گفت که قصد گمراه‌کردن دادگاه را نداشته و تنها تلاش کرده تا دفاعیه‌اش را به شکل واضح‌تری ارائه دهد. او توضیح داد که در ابتدا قصد داشت چهره‌ی دیپ‌فیک را شبیه خودش بسازد اما به دلیل مشکلات فنی، به نسخه‌ی جایگزین روی آورد.

دیوالد در نامه‌ای به قضات نوشت: «قصد من هرگز فریب نبود، بلکه فقط می‌خواستم استدلال‌هایم را به مؤثرترین شکل ممکن بیان کنم.»

از پرونده‌های ساختگی تا دادخواست‌های علیه چت‌بات‌ها

این دو پرونده تازه‌ترین نمونه‌ها از حضور فزاینده‌ی هوش مصنوعی مولد در دادگاه‌ها هستند. این روند از چند سال پیش، همزمان با همه‌گیر شدن چت‌بات‌هایی مانند ChatGPT آغاز شد. بسیاری از وکلا در سراسر ایالات متحده از مدل‌های زبانی بزرگ برای نوشتن دادخواست‌ها و جمع‌آوری اطلاعات استفاده کرده‌اند. اما این امر در مواردی منجر به اشتباهات فاجعه‌بار شده—از جمله ایجاد پرونده‌های حقوقی کاملاً ساختگی و نقل قول از منابعی که اصلاً وجود ندارند.

در سال ۲۰۲۳، دو وکیل در نیویورک به‌دلیل ارائه‌ی یک لایحه‌ی حقوقی شامل شش مورد استناد به پرونده‌های جعلی تولیدشده توسط ChatGPT، با مجازات قضایی روبه‌رو شدند. «مایکل کوهن»، وکیل شخصی سابق دونالد ترامپ نیز reportedly پرونده‌های ساختگی تولیدشده با هوش مصنوعی را برای وکیلش فرستاده بود که در نهایت در یک دادخواست به دادگاه فدرال ارسال شد. یک وکیل دیگر در کلرادو هم به دلیل ارائه‌ی مستندات جعلی تولیدشده با AI، با تعلیق مواجه شد. حتی یک مجری رادیویی در جورجیا، از OpenAI شکایت کرده و مدعی شده بود که ChatGPT او را به‌اشتباه به مشارکت در یک پرونده‌ی اختلاس نسبت داده که هیچ ارتباطی با آن نداشته است.

آینده‌ای مبهم اما اجتناب‌ناپذیر

با اینکه برخی از دادگاه‌ها وکلا و متهمان را به‌دلیل استفاده‌ی فریبکارانه از هوش مصنوعی مجازات کرده‌اند، هنوز قوانین روشنی درباره‌ی استفاده‌ی مجاز یا ممنوع این ابزارها در روندهای حقوقی وجود ندارد. هفته‌ی گذشته، یک هیئت قضایی فدرال با رأی ۸ به ۱ تصمیم گرفت تا نظر عمومی را درباره‌ی پیش‌نویس قانونی جویا شود که هدف آن، اطمینان از این است که شواهد تولیدشده با هوش مصنوعی همان استانداردهایی را داشته باشند که از شاهدان انسانی انتظار می‌رود.

رئیس دیوان عالی آمریکا، جان رابرتس، نیز در گزارش سالانه‌ی خود در سال ۲۰۲۳ به این موضوع پرداخت. او ضمن اشاره به مزایای بالقوه‌ی استفاده از هوش مصنوعی برای افرادی با منابع مالی محدود، هشدار داد که این فناوری ممکن است به «نقض حریم خصوصی» و «غیرانسانی‌کردن حقوق» منجر شود.

اما یک چیز قطعی است: حضور دیپ‌فیک‌ها در دادگاه‌ها تازه آغاز شده است.

منبع: popsci

۳۲۳

کد خبر 2061474

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
0 + 0 =

آخرین اخبار