بزرگان فناوری از توسعه هوش مصنوعی می ترسند
بیش از 1000 کارشناس حوزه هوش مصنوعی در سراسر جهان از جمله ایلان ماسک با امضای نامه سرگشادهای خواهان توقف روند تحقیق و توسعه سیستمها و برنامههای هوش مصنوعی قدرتمندتر و پیشرفتهتر از GPT 4 شدند. این نامه خواستار یک وقفه 6 ماهه در کلیه امور مرتبط با هوش مصنوعی پیشرفته شده است؛ چرا که کارشناسان احساس میکنند که این پیشرفت میتواند به منزله یک تهدید بالقوه برای جامعه بشری قلمداد شود.
نامه سرگشاده تحت عنوان “وقفه آزمایشات کلان هوش مصنوعی” توسط موسسه غیرانتفاعی Future Of Life منتشر شده است. این موسسه در زمینه کاهش خطرات فاجعهبار پیش روی جامعه بشری و مشخصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته فعالیت میکند.
این نامه توسط شخصیتهای برجسته، دانشمندان، اساتید هوش مصنوعی و کارشناسانی مانند Yoshua Bengio؛ برنده جایزه تورینگ، استوارت راسل؛ پروفسور علوم کامپیوتر در دانشگاه برکلی، استیو وزنیاک؛ یکی از بنیانگذاران اپل، Yuval Noah Harari؛ نویسنده کتاب Homo Sapiens و عماد موستاک؛ مدیرعامل موسسه Stability AI امضاء شده است.
در این نامه اعلام شده که سیستمهای هوش مصنوعی با وجود هوش رقابتی انسان، خطرات عمیقی را برای جامعه و بشریت ایجاد میکنند و این موضوع از سوی آزمایشگاههای برتر هوش مصنوعی مورد تائید قرار گرفته است. در ادامه خاطرنشان شده که پیشرفتهای اخیر هوش مصنوعی به میدان رقابت برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتری تبدیل شده که کنترل آنها احتمالا کار دشواری خواهد بود. چنین سیستمهای قدرتمندی صرفا بایستی زمانی توسعه پیدا کنند که بتوان اثرات و مخاطرات مثبت آنها را با اطمینان مدیریت کرد.
نهایتا این طومار خواهان توقف 6 ماهه آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT 4 شده است. این سازمان از کلیه آزمایشگاههای هوش مصنوعی و کارشناسان مستقل درخواست کرده تا پروتکلهای امنیتی مشترکی را ایجاد نموده و از ایمنی سیستمها در سطحی فراتر از شک منطقی اطمینان حاصل کنند.
همچنین در این نامه خاطرنشان شده که به منظور تسریع روند توسعه سیاستهای مدیریتی قدرتمند هوش مصنوعی، توسعهدهندگان بایستی با سیاستگذاران همکاری نمایند.
گری مارکوس؛ استاد دانشگاه نیویورک و یکی از امضاکنندگان نامه اعلام کرده که این طومار اگرچه کامل نیست؛ اما دارای ماهیتی صحیح بوده و تا زمان درک پیامدهای هوش مصنوعی بهتر است سرعت توسعه آنرا کاهش دهیم. همچنین به گفته وی، بازیگران بزرگ در رابطه با فعالیتهای خود به شکل فزآیندهای پنهانکاری میکنند و این موضوع میتواند موجب آسیبپذیری جامعه و مخاطرات جدی هوش مصنوعی برای انسان شود.
بسیاری از موسسات و دولتها در سراسر جهان نگرانی خود را پیرامون مسائل اخلاقی و قانونی ایجاد شده توسط هوش مصنوعی پیشرفته نظیر ChatGPT ابراز نمودهاند. اخیرا یوروپل در خصوص بهرهبرداری احتمالی از سیستمهای هوش مصنوعی نظیر ChatGPT برای اجرای جرایم سایبری، حملات فیشینگ و انتشار اطلاعات نادرست هشدار داده است. اکنون بسیاری از دولتها روی تنظیم سیاستهای قانونی و چارچوبهای نظارتی برای کنترل هوش مصنوعی کار میکنند.
بسیاری از موسسات آموزشی و دانشگاهها نیز نگرانی خود در رابطه با ChatGPT و برنامههای مشابه هوش مصنوعی را ابراز نمودهاند. بهعنوان مثال چندین کالج در شهر نیویورک تصمیم گرفتهاند تا مانع از بهکارگیری ChatGPT توسط دانشآموزان جهت انجام تکالیف شوند. در این راستا دانشگاهها دسترسی به وبسایت ChatGPT از طریق سرورهای خود را مسدود کردهاند.
دپارتمان آموزش نیز بهدلیل نگرانیهای موجود در خصوص پیامدهای منفی احتمالی استفاده از ChatGPT برای فرآیند یادگیری دانشآموزان و صحت و ایمنی محتوا از محدود کردن دسترسی به این ابزار اعلام حمایت نموده است.