دادگاه عالی کبک مردی به نام ژان لاپراد را به دلیل استفادهی نادرست از هوش مصنوعی در دفاع از خود در یک پروندهی قضایی، به پرداخت پنج هزار دلار جریمه محکوم کرد. لاپراد در اسناد ارائهشده به دادگاه از نقلقولهای جعلی و آرای قضایی غیرواقعی استفاده کرده بود که توسط هوش مصنوعی تولید شده بودند.
این پرونده بخشی از یک ماجرای حقوقی طولانی است که از سال ۲۰۱۹ آغاز شده و ریشه در یک معاملهی تجاری در گینه دارد. لاپراد مدعی بود که در این معامله، سه هلیکوپتر و یک هواپیما دریافت کرده است، اما به دلیل خطایی در قرارداد، هواپیمایی با ارزش بسیار بالاتر از آنچه توافق شده بود به او تعلق گرفت. این هواپیما که در فرودگاه شربروک کبک توقیف شده، موضوع اختلاف با دو شرکت هواپیمایی است که خواستار بازگرداندن آن هستند.
در سال ۲۰۲۱، اتاق داوری بینالمللی پاریس لاپراد را به پرداخت ۲/۷ میلیون دلار به دلیل از دست دادن امکان استفاده از هواپیما محکوم کرد. او در دادگاه کبک تلاش کرد این تصمیم را لغو کند، اما اسناد ارائهشده توسط او شامل هشت مورد استناد غیرواقعی، آرای قضایی ساختگی و نتیجهگیریهای ناسازگار بود.
لاپراد ضمن عذرخواهی، اظهار داشت که بدون کمک هوش مصنوعی قادر به دفاع از خود در دادگاه نبود.
قاضی لوک مورین در رأی خود اعلام کرد که اگرچه استفاده از هوش مصنوعی در راستای دسترسی بهتر به مدارک، میتواند اقدام قابلقبولی باشد، اما لاپراد مسئول اسناد ارائهشده به دادگاه است.
او با تأیید تصمیم داوری پاریس، لاپراد را به پرداخت ۲/۷ میلیون دلار و بازگرداندن هواپیما ملزم کرد.
قاضی همچنین رفتار لاپراد را «بسیار ناشایست» توصیف کرد و گفت که او وقت دادگاه و سایر طرفهای درگیر را هدر داده است.
قاضی پرونده افزود که در تفسیری سختگیرانهتر، میتوانست لاپراد را به تلاش برای فریب دادگاه متهم کند، که نقض جدی آیین دادرسی است.
این پرونده که شش سال و سه قاره را در بر گرفته، به گفتهی قاضی، داستانی شایسته یک فیلم موفق است!
مراقب توهم هوش مصنوعی باشیم!
پدیده «توهم هوش مصنوعی» یا AI Hallucination به حالتی اشاره دارد که هوش مصنوعی اطلاعاتی نادرست، جعلی یا غیرواقعی تولید میکند که به نظر معتبر میآیند، اما در واقع وجود خارجی ندارند.
این مشکل زمانی رخ میدهد که مدلهای هوش مصنوعی، مانند مدلهای زبانی، بر اساس الگوهای آماری پاسخهایی تولید میکنند که ممکن است شامل دادههای ساختگی، مانند نقلقولها، ارجاعات یا حقایق غیرواقعی باشند.
این پدیده در موقعیتهای حساس مانند امور قضایی، پزشکی یا پژوهشی میتواند عواقب جدی به دنبال داشته باشد.
ضرورت توجه به این پدیده در نظارت دقیق بر خروجیهای هوش مصنوعی، اعتبارسنجی اطلاعات و آموزش کاربران برای استفاده مسئولانه از این فناوری نهفته است تا از آسیبهای احتمالی، از جمله گمراه کردن مراجع قانونی یا تصمیمگیریهای نادرست جلوگیری شود.
این مطلب ابتدا با این لینک در کانال تلگرامی «مداد» منتشر شد.











