مداد، مجله آنلاین مونترال

تبلیغات

هوش مصنوعی در کانادا و دغدغه‌های اخلاقی مرتبط

طی چند سال اخیر، کانادا توانسته به جایگاه خوبی در سطح بین‌المللی در زمینه فناوری هوش مصنوعی دست یابد. با وجود پیشرفت‌های قابل توجه در این حوزه، نگرانی‌هایی هم در این خصوص مطرح است که کاربردهای غیراخلاقی این فناوری را می‌توان اصلی‌ترین دغدغه بسیاری از کارشناسان در این زمینه دانست. آیا کانادا می‌تواند با تدوین اصولی اخلاقی برای استفاده از هوش مصنوعی، مسیر پیشرفت این فناوری را خوشایندتر سازد؟

تبلیغات

نشریه مک‌گیل اینترنشنال رویوو (McGill Internatiinal Review) به تازگی در مقاله‌ای به بررسی جایگاه کانادا در این حوزه و دغدغه‌های اخلاقی مرتبط با آن پرداخته که خلاصه آن را با هم می‌خوانیم:

هوش مصنوعی یکی از مهم‌ترین حوزه‌های در حال رشد در دنیای فناوری به شمار می‌رود. هدف هوش مصنوعی، آموزش نحوه یادگیری یا «فکر کردن» مستقل به ماشین، آن هم بدون نیاز به انسان است. شاید اولین تصویری که از هوش مصنوعی به ذهن‌مان بیاید، ربات جارویس (JARVIS) در فیلم‌های مرد آهنی و یا در فیلم سینمایی هوش مصنوعی ساخته اسپیلبرگ (۲۰۰۱) باشد. اما واقعیت این است که هوش مصنوعی در دنیای واقعی، کاملا متفاوت با چنین تصاویری است که در فیلم‌های علمی-تخیلی می‌بینیم.

جالب اینجاست که کانادا، یکی از کشورهای پیشتاز در زمینه این فناوری در دنیا به شمار می‌رود. مونترال بیشترین تراکم پژوهشگران و دانشجویان رشته هوش مصنوعی در دنیا را به خود اختصاص داده است. تورنتو نیز رکورد بیشترین تراکم استارتاپ‌های هوش مصنوعی را به نام خود ثبت کرده است.

MonrealAI/Facebook

اشلی کاسووان (مدیر سابق معماری داده و نوآوری دولت فدرال) می‌گوید کانادا به طور گسترده‌ای از هوش مصنوعی برای امور روزمره استفاده می‌کند. برای مثال، فرض کنید سوار قطار هستید و می‌خواهید اظهارنامه مالیاتی‌تان را ارسال کنید. وقتی صفحه وب‌سایت مربوطه را باز می‌کنید، یک ربات گفتگو (چت‌بات) باز شده و فرآیند را برایتان توضیح می‌دهد. شرکت بهره‌برداری خطوط ریلی نیز از حسگرهایش برای شناسایی هر نوع مانع احتمالی در مسیر و واکنش مناسب به آن استفاده می‌کند.

هر دوی این فناوری‌ها (گفتگو در وب‌سایت و نیز شناسایی موانع) از الگوی یادگیری ماشین (machine learning) بهره می‌برند. یادگیری ماشین تکنیکی است که به رایانه‌ها آموزش می‌دهد چگونه از داده‌هایی که توسط انسان برچسب‌گذاری شده‌اند برای واکنش درست به اطلاعات جدید استفاده کند. هر قدر این برنامه بتواند به اطلاعاتی جدید بیشتری که فاقد برچسب هستند پاسخ دهد، بیشتر «یاد می‌گیرد».

دولت کانادا از این فناوری در حوزه‌های دیگری نیز استفاده می‌کند. برای نمونه، دانشمندان کانادایی با استفاده از پیش‌بینی تحلیلی توانستند ویروس زیکا را شناسایی کنند که این یافته به کاهش گسترش این ویروس کمک کرد. افزون بر این، خدمات سلامت کانادا از پیش‌بینی تحلیلی برای جلوگیری از خودکشی نیز بهره می‌برند.

با این وجود، این پیشتازی دولت کانادا برای استفاده از هوش مصنوعی، تا حدی نگران‌کننده است. برخی کارشناسان از این نگرانند که استفاده حاکمیتی از این فناوری به نقص آزادی‌های فردی (مشابه آنچه در برخی از کشورها نظیر چین روی می‌دهد) بیانجامد. گفتنی است چین از نرم‌افزارهای تشخیص چهره برای پایش رفتار شهروندان خود استفاده می‌کند.

افزون بر این، روز به روز از میزان اعتماد مردم به رسانه‌های اجتماعی دیجیتال و موضوع امنیت اینرتنت کاسته می‌شود. نبود نظارت انسانی بر تصمیماتی که الگوریتم‌های هوش مصنوعی اتحاذ می‌کنند یکی از دلایل این کاهش اعتماد است. حفظ حریم خصوصی در فضای آنلاین دغدغه ۵۴ درصد از ساکنان آمریکای شمالی به شمار می‌رود. اما دولت‌های فدرال اقدام خاصی برای کاهش این ترس‌ها به انجام نمی‌رسانند. کانادایی‌ها به خاطر تهدیداتی که از سوی شرکت‌های اینترنتی حس می‌کنند، بیشتر نگران امنیت آنلاین خود هستند. با این وجود، حداقل ۵۹ درصد از آنها از این نگرانند که اطلاعات خصوصی‌شان توسط دولت خودشان مورد استفاده قرار گیرد.

سوفیا، ربات انسان‌نمای مبتنی بر هوش مصنوعی (REUTERS/Denis Balibouse)

هر روز بر تعداد کسانی که نگرانند نحوه استفاده از اطلاعات‌شان هستند افزوده می‌شود و شاید رسوایی فیسبوک در ماجرای رسوایی کمبریج آنالیتیکا و فروش داده‌های میلیون‌ها کاربر سبب تشدید این نگرانی شده باشد. علاوه بر اینها، دخالت روس‌ها در انتخابات ۲۰۱۶ ریاست جمهوری ایالات متحده نیز سبب شده اعتماد بسیاری از کاربران به پلتفرم‌های آنلاین اجتماعی بسیار متزلزل شود. به همین دلیل، کاملا قابل درک است که چرا بسیاری از مردم، به هوش مصنوعی و اینکه ماشین‌ها به پردازش اطلاعات‌شان بپردازند، روی خوش نشان نمی‌دهند.

احتمال اینکه رایانه‌ها با کمک این فناوری بخواهند بر ما مسلط شوند، پائین است. اما واقعیت این است که گسترش استفاده از هوش مصنوعی می‌تواند به شکل‌های دیگری به جامعه ضربه بزند که برای نمونه می‌توان به افزایش سوگیری‌ها و تبعیض در جامعه اشاره کرد.

از آنجا که سامانه‌های مبتنی بر هوش مصنوعی توسط انسان طراحی می‌شوند، همیشه احتمال سوگیری در آنها وجود دارد که این می‌توان به خاطر داده‌هایی که برای آموزش آنها صرف می‌شود و یا نحوه استفاده از این ابزارهای نوین باشد.

از آنجا که بیشتر برنامه‌نویسان، مرد و سفیدپوست هستند، کمبود تنوع در هوش مصنوعی می‌تواند به نوعی سوگیری جنسی و نژادی بیانجامد. سازمان‌های مختلفی برای حل این مساله تشکیل شده است که برای نمونه می‌توان به AI4ALL اشاره کرد که هدفش، حضور افراد غیرسفیدپوست و نیز زنان در صنعت هوش مصنوعی است.

با گسترش کاربردهای هوش مصنوعی در جامعه، ضرورت تدوین اصولی اخلاقی برای این فناوری نیز پررنگ‌تر می‌شود. با وجود اینکه دولت کانادا یک سیاست مشخص را در زمینه استفاده مسئولانه از هوش مصنوعی تدوین کرده است، پیاده‌سازی آن در حوزه‌های مختلف حاکمیتی کار چندان ساده‌ای نیست. علاوه بر این، چهارچوب قانونی خاصی برای محدودسازی شرکت‌های خصوصی فعال در این زمینه وجود ندارد و حتی پیاده‌سازی آن در سازمان‌های دولتی هم کار دشواری به شمار می‌آید. به همین دلیل شاید راه حل این باشد که یک مدل اخلاقی چابک، همکارانه و متن‌باز تدوین شود تا شرکت‌ها بتوانند بر اساس آن، به بهترین شکل ممکن به ارائه فناوری هوش مصنوعی در قالبی اخلاق‌مدارانه بپردازند.

کانادا به خاطر بسترهای مناسب دانشگاهی و نیز استارتاپی، همچنان حرف‌های زیادی برای گفتن در سطح جهانی در حوزه فناوری هوش مصنوعی خواهد داشت. با این وجود، همه علاقمندان به این فناوری باید به جنبه‌های اخلاقی این مساله نیز دقت کنند. هوش مصنوعی را می‌توان پلی بین دنیای فناوری و دنیای سیاسی و اجتماعی دانست. به همین دلیل، فقط جنبه فنی‌اش اهمیت ندارد. پژوهشگران حوزه هوش مصنوعی باید نگران برخی کاربردهای ناخوشایند این فناوری و پیامدهایی که می‌تواند برای نسل‌های آینده به همراه آورد هم باشند.

آمار «مداد»

  • 384
  • 19,500
  • 2020-02-27