مداد، رسانه آنلاین مونترال

تبلیغات
 

یوشوا بنیجو: نگرانی از خطرات هوش مصنوعی، خواب از چشمم ربوده است

کانادا یکی از پنج کشور پیشرو در زمینه تحقیقات و کاربرد هوش مصنوعی در دنیاست. در این میان، مونترال نیز به دلیل داشتن اکوسیستمی بسیار قدرتمند و متشکل از دانشگاه‌ها، شرکت‌ها و استارتاپ‌های پیشرو در زمینه هوش مصنوعی، نقشی اساسی در پیشرفت این فناوری در دنیا ایفا می‌کند.

در این اکوسیستم، یک نام بیشتر از بقیه به چشم می‌خورد: یوشوا بنجیو (Yoshua Bengio). آقای بنجیو، استاد تمام دانشگاه مونترال، برنده جایزه تورینگ (معادل نوبل علوم رایانه) و بنیانگذار و مدیرعلمی موسسه تحقیقات هوش مصنوعی میلا است. او چندین دهه از عمر خود را صرف پژوهش در زمینه هوش مصنوعی کرده و بسیاری از دستاورهای او و دانشجویانش، پایه شکل‌گیری فناوری‌های نوین مبتنی بر این فناوری به شمار می‌رود.

حالا به نظر می‌رسد آقای بنجیو، همانند بسیاری دیگر از فعالان فناوری و حتی مردم عادی، نگران آینده‌ای که هوش مصنوعی می‌تواند برای بشر رقم بزند. او می‌گوید این نگرانی از چند ماه پیش به شدت برایش آزاردهنده شده و اگر دولت کانادا و سایر دولت‌ها اقدامی جدی برای نظارت بر توسعه هوش مصنوعی صورت ندهند، آینده‌‌ای هراس‌انگیز در انتظار بشر خواهد بود.

تبلیغات: برای کسب اطلاعات بیشتر روی هر پوستر کلیک کنید

گروه املاک OneClickHome مهدی یزدی و حمید سام  

یوشوا بنیجو در مقاله‌ای در گلوب اند میل به واکاوی خطرات جدی هوش مصنوعی برای جامعه بشری پرداخته و راهکارهایی نیز برای مقابله آن پیشنهاد کرده است. ترجمه فارسی این مقاله را برایتان آماده کردیم:


از نخستین روزهای دوره دانشجویی‌ام در مونترال، به دنبال یک ماموریت علمی هیجان انگیز بودم که آن هم چیزی نبود جز درک اینکه هوش انسانی چگونه کار می‌کند. هدفم کمک به یافتن فرمول‌هایی ریاضی، یعنی چیزی همانند قوانین فیزیک، بود تا بتوانیم بخش زیادی از پیچیدگی ظاهری هوش بشر را درک کنم. این الگوبرداری هر چند ساده از هوش زیستی بعدا به ما اجازه می‌داد تا هوش‌هایی مصنوعی را طراحی کنیم که بتوانند کیفیت زندگی را بهبود دهند، به تسهیل اکتشافات علمی بیانجامند و به ما در مقابله با چالش‌های مهم کمک کنند. فعالیت‌های من در زمینه شبکه‌های عصبی مصنوعی که الهام گرفته از روش تفکر انسان است، نقش مهمی در توسعه یادگیری عمیق یعنی روش یادگیری ماشینی از طریق شبکه‌های عصبی عمیق که از لحاظ ساختاری شبیه به شبکه‌های عصبی انسان هستند، داشته است.

آنچه در آن دوران به عنوان یک تحقیق صرفاً کنجکاوانه شروع شد، حدود یک دهه پیش وارد مرحله‌ای جدید شد. یک دهه پیش بود که صنایع با نتایج استفاده از یادگیری عمیق ما در محصولات واقعی آشنا شدند و همین سبب رشد شتابان سرمایه‌گذاری در زمینه پژوهش و استفاده از راه‌حل‌های مبتنی بر هوش مصنوعی در بازار شد. در سال ۲۰۱۹ که جایزه تورینگ را به همراه جفری هینتون و یان لکون به خاطر کمک‌هایمان در این حوزه دریافت کردم، از پیشرفت و نوآوری‌های فوق العاده‌ای که هوش مصنوعی زمینه‌شان را فراهم می‌کرد، احساس غرور، خوشبینی و هیجان می‌کردم.

» همچنین بخوانید مونترال به مرکز اصلی توسعه هوش مصنوعی تبدیل شده است

اما اعتراف می‌کنم که برای اولی ن بار، همین امسال، هنگامی که مدل زبانی بزرگ (LLM) چت‌جی‌پی‌تی شرکت اپن ای‌آی را بررسی کردم و سپس آینده این فناوری را تصور کردم، به شدت خطرات ناشی از پیشرفت‌های بی‌رویه در هوش مصنوعی پی بردم. قبلا بارها بر اهمیت رویکرد مسئولانه و اخلاقی نسبت به هوش مصنوعی تاکید داشتم و همچنین درباره خطرات ناشی از هوش مصنوعی خوانده بودم، اما نمی‌توانستم ارتباط آنها را با هم بیابم، زیرا باور داشتم که محدودیت‌های فعلی فناوری به این معنی است که هنوز فاصله بسیار زیادی با دستیابی به هوش مصنوعی در سطحی مشابه هوش انسانی داریم.

اما با گذشت ماه‌ها، و همچنان که مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی و مشابه آن پیشرفت‌های قابل توجهی را تجربه می‌کنند، نگرانی‌های من نیز به شکلی پیوسته افزایش یافته است.

در حال حاضر به نقطه‌ای رسیده‌ایم که در آن، سیستم‌های هوش مصنوعی قادر به فراگیری زبان و برخورداری از دانش کافی درباره انسان برای مشارکت در بحث‌ها و تولید حرفه‌ای محتوای – اگرچه هنوز این محتوا ممکن است نادرست باشد – هستند. نسخه‌های بعدی این سامانه‌های هوش مصنوعی بی‌تردید بهبودهای قابل توجهی خواهند داشت و به سرعت ما را به سوی آینده پیش خواهند برد. همانند هر فناوری دیگری که می‌تواند کاربردی دو منظوره داشته باشد، هوش مصنوعی نیز علاوه بر اهداف سودمند، می‌تواند برای اهداف شوم نیز به کار گرفته شود.

شاید تا زمانی که این توانایی‌ها آن قدر جدی نباشد که تهدیدی برای ارکان کلیدی جامعه ما مانند دموکراسی و امنیت ملی باشد، لازم نباشد زیاد نگران باشیم. اما اگر توانایی‌های هوش مصنوعی با سرعت خیره‌کننده‌ای پیشرفت کند، ممکن است در نهایت به اندازه‌ای قدرتمند شوند که در حوزه‌های مهم و کلیدی برای بشر خطرناک باشد و حتی توانایی‌هایی فراتر از توانایی‌های ما به دست آورند. جفری، یان و من اکنون بر این باوریم که با توجه به موفقیت‌های اخیر هوش مصنوعی مولد (Generative AI)، هوش مصنوعی در سطح هوش انسان شاید تنها چند سال یا یا چند دهه آینده ایجاد شود و احساس می‌کنم جامعه اصلا برای مقابله با اثرات بی‌ثبات‌کننده و خطرات نسخه‌های آینده و به‌شدت قدرتمند فناوری‌ای که من، و بسیاری دیگر از همکارانم ایجاد کرده ایم، اصلا آماده نیست.

کنار آمدن با چنین تغییر سریع و اساسی دیدگاهم درباره حوزه کاری‌ام و ارزش آن، برایم دشوار بود و بی‌تردید برای بسیاری دیگر از پژوهشگران برجسته هوش مصنوعی نیز همین طور بوده است. همه ما می‌خواهیم احساس خوبی نسبت به خودمان داشته باشیم، و انکار ]واقعیت‌های ناخوشایند[ می‌تواند بسیار آرامش‌بخش باشد. این قطعاً در مورد من طی سال‌های زیادی که مسائل مربوط به خطرات هوش مصنوعی را می‌خواندم یا در مورد آنها می‌شنیدم، بدون اینکه به طور کامل این موارد را در سطحی بسیار عمیق‌تر بپذیرم، صادق بود. در ماه‌های اخیر، بسیاری از مردم حتی از من پرسیده‌اند که آیا درباره پیامدهای بالقوه فناوری‌ای که به شکل دادن آن کمک کرده‌ام، احساس پشیمانی یا گناه می‌کنم یا خیر. واقعیت این است که خطرات جدی هوش مصنوعی یک نگرانی بسیار جدی برای من تبدیل شده و خواب از چشمم گرفته است و در این میان، به ویژه به ]آینده[ نوه‌ام و میراثی که برای نسل او خواهیم گذاشت می‌اندیشم.

با این حال، من همیشه در زندگی عملگرا بوده‌ام و به سرعت همه توانم را برای تغییر مسیر تلاش‌هایم به سمت آنچه که می‌توان انجام داد به کار گرفته‌ام. در مواجهه با چالش‌های هراس‌انگیز، ترس‌هایم را کنار گذاشته‌ام و از خود پرسیده‌ام: چگونه می‌توانم نقشم را ایفا کنم و به شکلی مثبت به بشریت کمک کنم؟ احساس می‌کنم این وظیفه را دارم که هر کاری در توانم هست انجام دهم تا از گرفتار شدن بشر در تنگناهای حاصل از هوش مصنوعی جلوگیری کنم، زیرا همچنان بر این باورم که این فناوری می‌تواند سهم ارزشمند و مهمی در آینده مشترک ما داشته باشد.

این موضوع اکنون به محور اساسی و اصلی‌ترین اولویت من تبدیل شده است. در برابر اعضای سنای ایالات متحده صحبت کرده‌ام، به دبیرکل سازمان ملل مشاوره داده‌ام، و به کارگروه‌های در سازمان توسهه و همکاری‌های اقتصادی (OECD) و یونسکو پیوسته‌ام، تا نگرانی‌های عمیقم را درباره تهدیدات کنونی و بلند‌مدت هوش مصنوعی برای دموکراسی، امنیت ملی و آینده مشترک بشر با آنها به اشتراک بگذارم، که البته همه این موارد نشانگر آن است که نیازمند مداخله دولت‌ها هستیم. علاوه بر آسیب‌های کنونی هوش مصنوعی (نظیر تبعیض و اختلال در بازار کار) که در حال حاضر از آنها آگاه هستیم، خطرات دیگری نیز وجود دارد؛ برای مثال هوش مصنوعی قدرتمند می‌تواند برای تولید اطلاعات جعلی، حملات سایبری، تمرکز بیش از حد قدرت و طراحی سلاح‌های بیولوژیکی یا شیمیایی نوآورانه مورد سوء استفاده قرار گیرد.

به شدت احساس می‌کنم در مواجهه با این خطرات نوظهور، دولت‌ها باید فدرال و با چشم‌اندازی بلندمدت مداخله کنند. برای مثال، بریتانیا در حال حاضر از این فرصت استفاده کرده است: در نوامبر، رهبران جهانی، پژوهشگران و مدیران ارشد فناوری در پارک بلچلی به دعوت ریشی سوناک، نخست وزیر بریتانیا، گرد هم می‌آیند. آقای سوناک کشورش را به عنوان پرچمدار مبارزه با خطرات هوش مصنوعی در سراسر جهان معرفی می‌کند. اختصاص منابع مالی قابل توجهی از جمله ۹۰۰ میلیون پوند (۱/۵۱ میلیارد دلار) برای منابع محاسباتی و ۱۰۰ میلیون پوند (۱۶۷ میلیون دلار) اضافی برای کارگروه جدید هوش مصنوعی که مأموریت دارد چنین خطراتی برای امنیت ملی را ارزیابی و کاهش دهد از جمله اقداماتی است که بریتانیا در این حوزه انجام می‌دهد. من هم به عنوان عضو هیأت مشاوره این کارگروه منصوب شده‌ام.

سوفیا، ربات انسان‌نمای مبتنی بر هوش مصنوعی (REUTERS/Denis Balibouse)

اما جلوگیری از خطرات هوش مصنوعی باید تلاشی چندجانبه باشد. امروزه، کانادا از نظر منابع انسانی، تحقیقات، نوآوری و سرمایه‌گذاری، یکی از ۵ کشور برتر دنیا در زمینه هوش مصنوعی، در کنار ایالات متحده، چین، بریتانیا و سنگاپور قرار دارد. این موفقیت تا حد زیادی به خاطر اجرای راهبرد فراگیر هوش مصنوعی پان-کانادایی (Pan-Canadian AI Strategy) در سال ۲۰۱۷ است که بودجه‌اش از سوی دولت فدرال تامین می‌شود و به ما اجازه داده استعدادهای برجسته‌ جذب کنیم و به تحقیقات پیشرفته ادامه دهیم. حال زمان آن است که اهدافی بلندمدت‌تر ترسیم کنیم. در واقع بر این باورم که کانادا با یک فرصت تکرارنشدنی و مسئولیت اخلاقی را برای نشان دادن پیشتازی خود در حراست از دموکراسی‌، حقوق بشر و حفاظت از انسان‌ها در برابر خطرات روبروست.

اولین گام، پیشتازی و رهبری علمی است که بر پایه موفقیت فعلی ما بنا شده باشد. مدل‌های هوش مصنوعی امروزی مانند چت‌جی‌پی‌تی، بر اساس پیشرفت‌های کانادایی در یادگیری عمیق، به خصوص در مدل‌های زبانی و معماری‌های شبکه عصبی که شامل مکانیسم‌های توجه هستند، امکان‌پذیر شده‌اند. ما باید اکنون از قدرت نهادهای دانشگاهی، اکوسیستم‌های هوش مصنوعی و راهبرد فراگیر هوش مصنوعی پان-کانادایی خود بهره ببریم تا زمینه انجام تحقیقاتی جدی با محوریت حفاظت از دموکراسی و مردم را تسریع کنیم. این امر به سیاست‌گذاری‌ها و پروتکل‌های آگا‌هانه‌تری برای سلامت هوش مصنوعی می‌انجامد که البته نیازمند تخصص و تحقیق در هوش مصنوعی و همچنین علوم اجتماعی است.

با وجود افزایش خطر سوءاستفاده از هوش مصنوعی، سرمایه‌گذاری‌های کنونی ما به شکل نمایی در توسعه قابلیت‌های هوش مصنوعی در حال افزایش است، بدون اینکه به اندازه کافی روی موضوع تضمین سلامت و نظارت دموکراتیک کافی بر این سیستم‌ها سرمایه‌گذاری کنیم. در آینده، هر دلار سرمایه‌گذاری شده در تحقیقات برای افزایش قابلیت‌های هوش مصنوعی باید همراه با یک دلار هزینه برای تضمین استفاده مسئولانه از آن از طریق تعمیق تحقیقات میان‌رشته‌ای ما در زمینه‌هایی مانند عدالت، ایمنی و حکمرانی باشد.

» همچنین بخوانید هوش مصنوعی در کانادا و دغدغه‌های اخلاقی مرتبط

همچنین بحث زیادی در محافل سیاسی و علمی درباره نیاز به رهبری فیزیکی (یعنی ایجاد نهادهای بین‌المللی متمرکز بر کاهش خطرات هوش مصنوعی) وجود دارد. کانادا یک میزبان ایده‌آل برای یکی از این سازمان‌های جدید خواهد بود. ما حتی می‌توانیم پیشگام در تعریف مشترک تسهیلات تحقیقاتی بین‌المللی با بودجه دولتی باشیم که منابع محاسباتی هوش مصنوعی قدرتمند و ترویج توسعه تخصص، نوآوری و تحقیقات میان‌رشته‌ای برای مدل‌های هوش مصنوعی مقیاس بزرگ ایمن که در خدمت جامعه هستند را فراهم می‌کند. ما به دلیل تخصص علمی، نیروی کار بسیار ماهر و سابقه عالی به عنوان یک میانجی چندجانبه و پیشگام در توسعه هوش مصنوعی مسئولانه (علاوه بر در نظر گرفتن مسائل محیط زیستی در زیرساخت انرژی و آب‌و هوای مساعد برای کاهش هزینه خنک کردن سخت‌افزار مورد نیاز ابررایانه) در موقعیت خوبی برای انجام این کار هستیم.

در نهایت، تدوین سازوکارهای حکمرانی، ازجمله سازوکارهای الزام‌آوری همانند قوانین و معاهدات، برای کاهش خطراتی که هوش مصنوعی برای بنیان‌های اصلی جامعه‌مان به همراه دارد، ضروری خواهند بود. با در اختیار داشتن قدرتمندترین سیستم‌های هوش مصنوعی توسط چند شرکت خصوصی، باید پاسخی قانع‌کننده برای این پرسش‌ها داشته باشیم که: چه کسی تصمیم می‌گیرد که از هوش مصنوعی قدرتمند چگونه استفاده شود؟ چگونه می‌توانیم تعیین کنیم چه چیزی برای مردم و دموکراسی‌مان بی‌خطر است؟ و اینکه ثروت حاصله چگونه تقسیم می‌شود؟

کانادا در زمینه سیاستگزاری در حوزه هوش مصنوعی در دنیا پیشتاز بوده است: ابتدا با اعلامیه مونترال برای توسعه مسئولانه هوش مصنوعی، سپس به عنوان یکی از بنیانگذاران شراکت جهانی هوش مصنوعی (Global Partnership on AI)، و اخیراً با معرفی یک چهارچوب اختیاری برای سیستم‌های هوش مصنوعی تولیدی و یک چارچوب قانونی تنظیم مقررات برای این فناوری. من از این تلاش‌ها حمایت می‌کنم و توصیه می‌کنم که قانون سی-۲۷ (Bill-27) را نیز اصلاح کنیم تا شامل عناصر کلیدی مانند برچسب‌زنی محتوای مصنوعی تولیدشده توسط هوش مصنوعی، ایجاد یک ساختار قانونی مجوزدهی و ثبت الگو، تعریف الزامات ایمنی و نیاز به بازرسی‌های مستقل نیز بشود. علاوه بر اجرای حکمرانی ملی هوش مصنوعی در سطح ملی، کانادا باید اعتبار و نفوذ خود را به کار گیرد تا تلاش‌های بین‌المللی برای تنظیم مقررات هوش مصنوعی، از جمله در سطح سازمان ملل را تسریع کند. کانادا به دلیل تعهدش به حقوق بشر و شهرتش به عنوان یک قدرت میانه‌رو، از این فرصت برای بسیج توان جامعه جهانی برخوردار است.

انتظار می‌رود هوش مصنوعی سالانه هزاران میلیارد دلار به اقتصاد جهانی کمک کند و کشورهای سراسر جهان نیز به شکلی فعالانه به توسعه توانایی‌های خود برای برای پیشرفت اقتصادی و اجتماعی مشغولند و دستاورهای بهتری به شهروندانشان ارائه می‌کنند. معتقدم باید بزرگ‌ترین ذهن‌های کانادایی را برای مشارکت در تلاش جسورانه، چندجانبه و هماهنگ شده در سطح جهانی بسیج کنیم تا بتوانیم کاملاً از مزایای اقتصادی و اجتماعی هوش مصنوعی بهره‌مند شویم و در عین حال، از حقوق بشر، جامعه و بشریت مشترکمان محافظت می‌کنیم.

ما باید این کار را برای نوه‌ام – و البته تمام بشریت – انجام دهیم.

نیازمندیهای مداد
کسب‌وکارهای مونترالی

محمد تائبی، مشاور و بروکر بیمه
محمد تائبی، مشاور و بروکر بیمه
کلینیک دندانپزشکی ویلری، دکتر عندلیبی
دارالترجمه رسمی فرهنگ
مریم رمضانلو، کارشناس وام مسکن
 
رضا نوربخش، نماینده فروش نیسان

«مداد» در چند خط

«مداد»، مجله آنلاین مونترال
مداد یعنی کودکی، صداقت، تلاش تا آخرین لحظه، یعنی هر قدر کوچک‌تر، همان‌قدر باتجربه‌تر

ارتباط با «مداد»:
تلفن: 4387388068
آدرس:
No. 3285 Cavendish Blvd, Apt 355
Montréal, QC
Canada

مداد مسئولیتی درباره صحت آگهی‌ها ندارد

بازنشر فقط به شرط لینک به مطلب اصلی در وب‌سایت مداد

نیازمندی‌های «مداد»، کسب‌وکارهای مونترال

«مداد» در شبکه های اجتماعی

مداد، مجله آنلاین مونترال

آمار بازدید از «مداد»

  • 935
  • 2,119
  • 20,629
  • 95,904
  • 534,119

MÉDAD
Persian E-magazine of Montr
éal

MÉDAD is an Independent, Montreal based, Persian Language E-Magazine.
Using the digital platform, Medad is trying to be the voice of Afghan / Iranian-Montrealers.
Medad Editorial is formed by a group of experienced and independent journalists.

Tel: 4387388068

Address:3285 Cavendish Blvd, #355
Montréal

امیر سام، مشاور املاک