یوشوا بنیجو در مقالهای در گلوب اند میل به واکاوی خطرات جدی هوش مصنوعی برای جامعه بشری پرداخته و راهکارهایی نیز برای مقابله آن پیشنهاد کرده است. ترجمه فارسی این مقاله را برایتان آماده کردیم:
از نخستین روزهای دوره دانشجوییام در مونترال، به دنبال یک ماموریت علمی هیجان انگیز بودم که آن هم چیزی نبود جز درک اینکه هوش انسانی چگونه کار میکند. هدفم کمک به یافتن فرمولهایی ریاضی، یعنی چیزی همانند قوانین فیزیک، بود تا بتوانیم بخش زیادی از پیچیدگی ظاهری هوش بشر را درک کنم. این الگوبرداری هر چند ساده از هوش زیستی بعدا به ما اجازه میداد تا هوشهایی مصنوعی را طراحی کنیم که بتوانند کیفیت زندگی را بهبود دهند، به تسهیل اکتشافات علمی بیانجامند و به ما در مقابله با چالشهای مهم کمک کنند. فعالیتهای من در زمینه شبکههای عصبی مصنوعی که الهام گرفته از روش تفکر انسان است، نقش مهمی در توسعه یادگیری عمیق یعنی روش یادگیری ماشینی از طریق شبکههای عصبی عمیق که از لحاظ ساختاری شبیه به شبکههای عصبی انسان هستند، داشته است.
آنچه در آن دوران به عنوان یک تحقیق صرفاً کنجکاوانه شروع شد، حدود یک دهه پیش وارد مرحلهای جدید شد. یک دهه پیش بود که صنایع با نتایج استفاده از یادگیری عمیق ما در محصولات واقعی آشنا شدند و همین سبب رشد شتابان سرمایهگذاری در زمینه پژوهش و استفاده از راهحلهای مبتنی بر هوش مصنوعی در بازار شد. در سال ۲۰۱۹ که جایزه تورینگ را به همراه جفری هینتون و یان لکون به خاطر کمکهایمان در این حوزه دریافت کردم، از پیشرفت و نوآوریهای فوق العادهای که هوش مصنوعی زمینهشان را فراهم میکرد، احساس غرور، خوشبینی و هیجان میکردم.
» همچنین بخوانید مونترال به مرکز اصلی توسعه هوش مصنوعی تبدیل شده است
اما اعتراف میکنم که برای اولی ن بار، همین امسال، هنگامی که مدل زبانی بزرگ (LLM) چتجیپیتی شرکت اپن ایآی را بررسی کردم و سپس آینده این فناوری را تصور کردم، به شدت خطرات ناشی از پیشرفتهای بیرویه در هوش مصنوعی پی بردم. قبلا بارها بر اهمیت رویکرد مسئولانه و اخلاقی نسبت به هوش مصنوعی تاکید داشتم و همچنین درباره خطرات ناشی از هوش مصنوعی خوانده بودم، اما نمیتوانستم ارتباط آنها را با هم بیابم، زیرا باور داشتم که محدودیتهای فعلی فناوری به این معنی است که هنوز فاصله بسیار زیادی با دستیابی به هوش مصنوعی در سطحی مشابه هوش انسانی داریم.
اما با گذشت ماهها، و همچنان که مدلهای زبانی بزرگ مانند چتجیپیتی و مشابه آن پیشرفتهای قابل توجهی را تجربه میکنند، نگرانیهای من نیز به شکلی پیوسته افزایش یافته است.
در حال حاضر به نقطهای رسیدهایم که در آن، سیستمهای هوش مصنوعی قادر به فراگیری زبان و برخورداری از دانش کافی درباره انسان برای مشارکت در بحثها و تولید حرفهای محتوای – اگرچه هنوز این محتوا ممکن است نادرست باشد – هستند. نسخههای بعدی این سامانههای هوش مصنوعی بیتردید بهبودهای قابل توجهی خواهند داشت و به سرعت ما را به سوی آینده پیش خواهند برد. همانند هر فناوری دیگری که میتواند کاربردی دو منظوره داشته باشد، هوش مصنوعی نیز علاوه بر اهداف سودمند، میتواند برای اهداف شوم نیز به کار گرفته شود.
شاید تا زمانی که این تواناییها آن قدر جدی نباشد که تهدیدی برای ارکان کلیدی جامعه ما مانند دموکراسی و امنیت ملی باشد، لازم نباشد زیاد نگران باشیم. اما اگر تواناییهای هوش مصنوعی با سرعت خیرهکنندهای پیشرفت کند، ممکن است در نهایت به اندازهای قدرتمند شوند که در حوزههای مهم و کلیدی برای بشر خطرناک باشد و حتی تواناییهایی فراتر از تواناییهای ما به دست آورند. جفری، یان و من اکنون بر این باوریم که با توجه به موفقیتهای اخیر هوش مصنوعی مولد (Generative AI)، هوش مصنوعی در سطح هوش انسان شاید تنها چند سال یا یا چند دهه آینده ایجاد شود و احساس میکنم جامعه اصلا برای مقابله با اثرات بیثباتکننده و خطرات نسخههای آینده و بهشدت قدرتمند فناوریای که من، و بسیاری دیگر از همکارانم ایجاد کرده ایم، اصلا آماده نیست.
کنار آمدن با چنین تغییر سریع و اساسی دیدگاهم درباره حوزه کاریام و ارزش آن، برایم دشوار بود و بیتردید برای بسیاری دیگر از پژوهشگران برجسته هوش مصنوعی نیز همین طور بوده است. همه ما میخواهیم احساس خوبی نسبت به خودمان داشته باشیم، و انکار ]واقعیتهای ناخوشایند[ میتواند بسیار آرامشبخش باشد. این قطعاً در مورد من طی سالهای زیادی که مسائل مربوط به خطرات هوش مصنوعی را میخواندم یا در مورد آنها میشنیدم، بدون اینکه به طور کامل این موارد را در سطحی بسیار عمیقتر بپذیرم، صادق بود. در ماههای اخیر، بسیاری از مردم حتی از من پرسیدهاند که آیا درباره پیامدهای بالقوه فناوریای که به شکل دادن آن کمک کردهام، احساس پشیمانی یا گناه میکنم یا خیر. واقعیت این است که خطرات جدی هوش مصنوعی یک نگرانی بسیار جدی برای من تبدیل شده و خواب از چشمم گرفته است و در این میان، به ویژه به ]آینده[ نوهام و میراثی که برای نسل او خواهیم گذاشت میاندیشم.
با این حال، من همیشه در زندگی عملگرا بودهام و به سرعت همه توانم را برای تغییر مسیر تلاشهایم به سمت آنچه که میتوان انجام داد به کار گرفتهام. در مواجهه با چالشهای هراسانگیز، ترسهایم را کنار گذاشتهام و از خود پرسیدهام: چگونه میتوانم نقشم را ایفا کنم و به شکلی مثبت به بشریت کمک کنم؟ احساس میکنم این وظیفه را دارم که هر کاری در توانم هست انجام دهم تا از گرفتار شدن بشر در تنگناهای حاصل از هوش مصنوعی جلوگیری کنم، زیرا همچنان بر این باورم که این فناوری میتواند سهم ارزشمند و مهمی در آینده مشترک ما داشته باشد.
این موضوع اکنون به محور اساسی و اصلیترین اولویت من تبدیل شده است. در برابر اعضای سنای ایالات متحده صحبت کردهام، به دبیرکل سازمان ملل مشاوره دادهام، و به کارگروههای در سازمان توسهه و همکاریهای اقتصادی (OECD) و یونسکو پیوستهام، تا نگرانیهای عمیقم را درباره تهدیدات کنونی و بلندمدت هوش مصنوعی برای دموکراسی، امنیت ملی و آینده مشترک بشر با آنها به اشتراک بگذارم، که البته همه این موارد نشانگر آن است که نیازمند مداخله دولتها هستیم. علاوه بر آسیبهای کنونی هوش مصنوعی (نظیر تبعیض و اختلال در بازار کار) که در حال حاضر از آنها آگاه هستیم، خطرات دیگری نیز وجود دارد؛ برای مثال هوش مصنوعی قدرتمند میتواند برای تولید اطلاعات جعلی، حملات سایبری، تمرکز بیش از حد قدرت و طراحی سلاحهای بیولوژیکی یا شیمیایی نوآورانه مورد سوء استفاده قرار گیرد.
به شدت احساس میکنم در مواجهه با این خطرات نوظهور، دولتها باید فدرال و با چشماندازی بلندمدت مداخله کنند. برای مثال، بریتانیا در حال حاضر از این فرصت استفاده کرده است: در نوامبر، رهبران جهانی، پژوهشگران و مدیران ارشد فناوری در پارک بلچلی به دعوت ریشی سوناک، نخست وزیر بریتانیا، گرد هم میآیند. آقای سوناک کشورش را به عنوان پرچمدار مبارزه با خطرات هوش مصنوعی در سراسر جهان معرفی میکند. اختصاص منابع مالی قابل توجهی از جمله ۹۰۰ میلیون پوند (۱/۵۱ میلیارد دلار) برای منابع محاسباتی و ۱۰۰ میلیون پوند (۱۶۷ میلیون دلار) اضافی برای کارگروه جدید هوش مصنوعی که مأموریت دارد چنین خطراتی برای امنیت ملی را ارزیابی و کاهش دهد از جمله اقداماتی است که بریتانیا در این حوزه انجام میدهد. من هم به عنوان عضو هیأت مشاوره این کارگروه منصوب شدهام.
اما جلوگیری از خطرات هوش مصنوعی باید تلاشی چندجانبه باشد. امروزه، کانادا از نظر منابع انسانی، تحقیقات، نوآوری و سرمایهگذاری، یکی از ۵ کشور برتر دنیا در زمینه هوش مصنوعی، در کنار ایالات متحده، چین، بریتانیا و سنگاپور قرار دارد. این موفقیت تا حد زیادی به خاطر اجرای راهبرد فراگیر هوش مصنوعی پان-کانادایی (Pan-Canadian AI Strategy) در سال ۲۰۱۷ است که بودجهاش از سوی دولت فدرال تامین میشود و به ما اجازه داده استعدادهای برجسته جذب کنیم و به تحقیقات پیشرفته ادامه دهیم. حال زمان آن است که اهدافی بلندمدتتر ترسیم کنیم. در واقع بر این باورم که کانادا با یک فرصت تکرارنشدنی و مسئولیت اخلاقی را برای نشان دادن پیشتازی خود در حراست از دموکراسی، حقوق بشر و حفاظت از انسانها در برابر خطرات روبروست.
اولین گام، پیشتازی و رهبری علمی است که بر پایه موفقیت فعلی ما بنا شده باشد. مدلهای هوش مصنوعی امروزی مانند چتجیپیتی، بر اساس پیشرفتهای کانادایی در یادگیری عمیق، به خصوص در مدلهای زبانی و معماریهای شبکه عصبی که شامل مکانیسمهای توجه هستند، امکانپذیر شدهاند. ما باید اکنون از قدرت نهادهای دانشگاهی، اکوسیستمهای هوش مصنوعی و راهبرد فراگیر هوش مصنوعی پان-کانادایی خود بهره ببریم تا زمینه انجام تحقیقاتی جدی با محوریت حفاظت از دموکراسی و مردم را تسریع کنیم. این امر به سیاستگذاریها و پروتکلهای آگاهانهتری برای سلامت هوش مصنوعی میانجامد که البته نیازمند تخصص و تحقیق در هوش مصنوعی و همچنین علوم اجتماعی است.
با وجود افزایش خطر سوءاستفاده از هوش مصنوعی، سرمایهگذاریهای کنونی ما به شکل نمایی در توسعه قابلیتهای هوش مصنوعی در حال افزایش است، بدون اینکه به اندازه کافی روی موضوع تضمین سلامت و نظارت دموکراتیک کافی بر این سیستمها سرمایهگذاری کنیم. در آینده، هر دلار سرمایهگذاری شده در تحقیقات برای افزایش قابلیتهای هوش مصنوعی باید همراه با یک دلار هزینه برای تضمین استفاده مسئولانه از آن از طریق تعمیق تحقیقات میانرشتهای ما در زمینههایی مانند عدالت، ایمنی و حکمرانی باشد.
» همچنین بخوانید هوش مصنوعی در کانادا و دغدغههای اخلاقی مرتبط
همچنین بحث زیادی در محافل سیاسی و علمی درباره نیاز به رهبری فیزیکی (یعنی ایجاد نهادهای بینالمللی متمرکز بر کاهش خطرات هوش مصنوعی) وجود دارد. کانادا یک میزبان ایدهآل برای یکی از این سازمانهای جدید خواهد بود. ما حتی میتوانیم پیشگام در تعریف مشترک تسهیلات تحقیقاتی بینالمللی با بودجه دولتی باشیم که منابع محاسباتی هوش مصنوعی قدرتمند و ترویج توسعه تخصص، نوآوری و تحقیقات میانرشتهای برای مدلهای هوش مصنوعی مقیاس بزرگ ایمن که در خدمت جامعه هستند را فراهم میکند. ما به دلیل تخصص علمی، نیروی کار بسیار ماهر و سابقه عالی به عنوان یک میانجی چندجانبه و پیشگام در توسعه هوش مصنوعی مسئولانه (علاوه بر در نظر گرفتن مسائل محیط زیستی در زیرساخت انرژی و آبو هوای مساعد برای کاهش هزینه خنک کردن سختافزار مورد نیاز ابررایانه) در موقعیت خوبی برای انجام این کار هستیم.
در نهایت، تدوین سازوکارهای حکمرانی، ازجمله سازوکارهای الزامآوری همانند قوانین و معاهدات، برای کاهش خطراتی که هوش مصنوعی برای بنیانهای اصلی جامعهمان به همراه دارد، ضروری خواهند بود. با در اختیار داشتن قدرتمندترین سیستمهای هوش مصنوعی توسط چند شرکت خصوصی، باید پاسخی قانعکننده برای این پرسشها داشته باشیم که: چه کسی تصمیم میگیرد که از هوش مصنوعی قدرتمند چگونه استفاده شود؟ چگونه میتوانیم تعیین کنیم چه چیزی برای مردم و دموکراسیمان بیخطر است؟ و اینکه ثروت حاصله چگونه تقسیم میشود؟
کانادا در زمینه سیاستگزاری در حوزه هوش مصنوعی در دنیا پیشتاز بوده است: ابتدا با اعلامیه مونترال برای توسعه مسئولانه هوش مصنوعی، سپس به عنوان یکی از بنیانگذاران شراکت جهانی هوش مصنوعی (Global Partnership on AI)، و اخیراً با معرفی یک چهارچوب اختیاری برای سیستمهای هوش مصنوعی تولیدی و یک چارچوب قانونی تنظیم مقررات برای این فناوری. من از این تلاشها حمایت میکنم و توصیه میکنم که قانون سی-۲۷ (Bill-27) را نیز اصلاح کنیم تا شامل عناصر کلیدی مانند برچسبزنی محتوای مصنوعی تولیدشده توسط هوش مصنوعی، ایجاد یک ساختار قانونی مجوزدهی و ثبت الگو، تعریف الزامات ایمنی و نیاز به بازرسیهای مستقل نیز بشود. علاوه بر اجرای حکمرانی ملی هوش مصنوعی در سطح ملی، کانادا باید اعتبار و نفوذ خود را به کار گیرد تا تلاشهای بینالمللی برای تنظیم مقررات هوش مصنوعی، از جمله در سطح سازمان ملل را تسریع کند. کانادا به دلیل تعهدش به حقوق بشر و شهرتش به عنوان یک قدرت میانهرو، از این فرصت برای بسیج توان جامعه جهانی برخوردار است.
انتظار میرود هوش مصنوعی سالانه هزاران میلیارد دلار به اقتصاد جهانی کمک کند و کشورهای سراسر جهان نیز به شکلی فعالانه به توسعه تواناییهای خود برای برای پیشرفت اقتصادی و اجتماعی مشغولند و دستاورهای بهتری به شهروندانشان ارائه میکنند. معتقدم باید بزرگترین ذهنهای کانادایی را برای مشارکت در تلاش جسورانه، چندجانبه و هماهنگ شده در سطح جهانی بسیج کنیم تا بتوانیم کاملاً از مزایای اقتصادی و اجتماعی هوش مصنوعی بهرهمند شویم و در عین حال، از حقوق بشر، جامعه و بشریت مشترکمان محافظت میکنیم.
ما باید این کار را برای نوهام – و البته تمام بشریت – انجام دهیم.