گروهی از محققان دانشگاه استنفورد در کالیفرنیای آمریکا میگویند ارزیابیهای مربوط به تواناییهای نوظهور هوش مصنوعی بر تحلیل نادرست آماری متکی بوده و در حد یک سراب است.
به نظر میرسد که پایانی برای پیشبینیهای مربوط به ابرهای توفانی در زمانی که رایانهها سرانجام بخواهند امور را به دست خود بگیرند یا بهتر بگوییم به پردازشگرهای خود بسپارند، وجود ندارد.
«استیفن هاکینگ» دانشمند انگلیسی هشدار داده است: توسعه هوش مصنوعی میتواند پایان نژاد انسان باشد. «ایلان ماسک» از بنیانگذاران شرکت «اوپن ای.آی» نیز گفته است: هوش مصنوعی مرا وحشت زده میکند. این فناوری توانایی بیش از تصورات دارد و سرعت پیشرفت آن بالا است.
در یک نامه امضا شده توسط بیش از هزار نفر از رهبران بخش فناوری در سال جاری میلادی خاطرنشان شده بود که فناوریهای هوش مصنوعی «خطرهای بزرگی برای جامعه و انسانیت هستند». این افراد خواستار ایجاد وقفهای در تحقیقات مربوط به هوش مصنوعی تا زمان درک بهتر خطرات مرتبط بر آن شدند.
«یوشوا بنیگو» استاد و محقق هوش مصنوعی در دانشگاه مونترئال کانادا میگوید: ما باید بسیار هوشیار باشیم.
رسانههای بسیاری هر چند که دورنمای تحولات مثبت ناشی از هوش مصنوعی در حوزههای گوناگون صنعت، اقتصاد، علوم، آموزش، کشاورزی، پزشکی و تحقیقات را نادیده نمیگیرند اما در عین حال بطور فزایندهای درباره پیامدهای ناخواسته فناوریهای هوش مصنوعی هشدار داده و زنگهای خطر را به صدا درمیآورند.
یکی از حوزههای موجب نگرانی، رفتارهای نوظهور است که منظور از آن یک رشته تراکنشها یا تعاملهای پیش بینی نشده و برنامهریزینشده در درون یک سامانه و ناشی از رفتارهای برنامهریزیشده سادهتر است.
محققان میگویند شواهد چنین رفتارهایی در مدلهایی که به خودی خود زبان یاد میگیرند، مشاهده شده است. زمانی که سیستمهای آموزش دیده برای بازی شطرنج یا «گو» راهبردهای اولیهای برای پیشرفت تولید میکنند یا زمانی که رباتها در الگوهای حرکتی خود تنوعهایی به نمایش میگذارند، در ابتدا برنامه ریزی نشده بود.
«اتان دایر» دانشمند علوم رایانه شرکت «گوگل» میگوید: من هر چند تلاش میکنم که برای شگفتانههایی آماده باشم اما باز هم از کارهایی که این مدلها میتوانند انجام دهند، شگفتزده میشوم. اما «دایر» ممکن است شگفتزده شود اگر بداند که یک تیم تحقیقاتی در دانشگاه «استنفورد» آب سردی بر گزارشهای مربوط به «رفتارهای نوظهور» ریخته است.
«رایان شافر»، «براندو میراندا» و «سانمی کوییجو» (محققان استنفورد) در مقالهای که هفته گذشته منتشر شد، گفتند شواهد و مدارک مربوط به «رفتارهای نوظهور» (سامانههای هوش مصنوعی) بر اساس آماری استوار بوده که احتمالا به نادرستی تفسیر شده اند.
آنان خاطرنشان میکنند: پیام ما این است که تواناییهای گزارش شده قبلی درباره رفتارهای نوظهور هوش مصنوعی ممکن است سرابی ناشی از تحلیل های نادرست باشد. این تیم تحقیقاتی همچنین خاطرنشان کرده است که عدم استفاده از نمونههای آماری به اندازه کافی گسترده نیز در ارائه این نتایج نادرست نقش داشته و روششناسی (متدلوژی) نیز احتمالا منجر به نتایج گمراه کننده در تحقیقات قبلی شده است.
/ایرنا