مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که میتواند آسیبهای زیادی ایجاد کند و گوگل عمدا قابلیتهای عمومی هوش مصنوعی بارد را محدود میکند.
ساندار پیچای مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیوهای جعلی از چهرههای شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.
پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی(Scott Pelley) مصاحبه کنندهی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیتهایی برای هوش مصنوعی بارد(Bard) خود قائل شده است.
پیچار به پلی گفت: با استفاده از هوش مصنوعی میتوان به راحتی یک ویدئو ایجاد کرد که در آن اسکات چیزی میگوید، یا من چیزی میگویم که هرگز نگفتهایم و این میتواند دقیق به نظر برسد. اما میدانید، در مقیاس اجتماعی میتواند آسیبهای زیادی به همراه داشته باشد.
پلی پرسید که آیا بارد برای جامعه بیخطر است؟ پیچای پاسخ داد: روشی که امروزه برای راهاندازی آن به کار گرفتهایم یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همهی ما باید در هر مرحله از این راه مسئولیت پذیر باشیم.
پلی پرسید: آهسته آهسته آن را عرضه میکنید تا جامعه به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را دریافت میکنیم و میتوانیم قبل از ساختن، قبل از استقرار مدلهای توانمندتر، لایههای ایمنی قویتری ایجاد کنیم.
مدلهای فعلی هوش مصنوعی در حال حاضر قادر به ساخت تصاویری از چهرههای شناختهشده هستند که تقریبا تشخیص آنها از واقعیت ممکن نیست. هوش مصنوعی در ساخت ویدیو و صدا تاکنون مهارت کمتری داشته است.
در کلیپهای صوتی ایجاد شده با هوش مصنوعی، صدای مورد نظر فرد شبیهسازی میشود اما نسخههای فعلی کمی رباتیک و غیرطبیعی به نظر میرسند.
پیچای در ادامه گفت که گوگل همیشه پاسخهای هوش مصنوعی بارد خود را به طور کامل درک نمیکند. او به نمونهای اشاره کرد که در آن به نظر میرسید هوش مصنوعی به خود بنگالی میآموخت با وجود اینکه برای آن آموزش ندیده بود.
پلی پرسید: شما به طور کامل نمیدانید که چگونه کار میکند. و با این حال، آن را در جامعه عرضه کردهاید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمیکنم ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار میکند.
/فارس