جستجو
این کادر جستجو را ببندید.

خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است

مدیران ارشد اجرایی شرکت های هوش مصنوعی، کارشناسان و اساتید درباره خطر هوش مصنوعی برای جامعه هشدار دادند و آن را به اندازه خطر پاندمی یا جنگ هسته ای دانسته اند.

مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپن ای آی» روز گذشته همراه کارشناسان و پروفسورها درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آنها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک پاندمی ها و جنگ هسته ای یکسان بدانند.

بیش از ۳۵۰ امضا کننده در نامه ای که توسط مرکز ایمنی هوش مصنوعی(CAIS) منتشر کرده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک های بزرگ مانند پاندمی ها و جنگ هسته ای به یک اولویت جهانی تبدیل شود.

علاوه بر آلتمن، مدیر ارشد اجرایی شرکت های دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آنها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی که در سال ۲۰۱۸ میلادی جایزه تورینگ را برای فعالیت خود در یادگیری عمیق دریافت کردند) و همچنین پروفسورهایی از انستیتوهای مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.

البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی شود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می کند.

انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.

ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک های احتمالی فناوری برای جامعه هشدار دادند.

/مهر

امتیاز دهید
نظر دهید

پاسخ دهید

هفت − یک =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0