جستجو
این کادر جستجو را ببندید.

میزان مصرف انرژی هوش مصنوعی گوگل چقدر است؟

همینطور که ما به سمت ایجاد یکی از بزرگترین دستاوردهای فناورانه بشر، یعنی توسعه هوش مصنوعی شتاب می‌گیریم، باید از خود بپرسیم که جبران هزینه‌ این پیشرفت چیست؟ چرا که به گفته کارشناسان، هوش مصنوعی شرکت گوگل به تنهایی می‌تواند به اندازه کشور ایرلند انرژی مصرف کند.

به گزارش دنبال چی ، سیستم‌های مبتنی بر هوش مصنوعی نه تنها حجم زیادی از داده‌ها را برای آموزش مصرف می‌کنند، بلکه برای کار کردن به مقدار زیادی برق نیز نیاز دارند.

یک مطالعه جدید، مصرف انرژی و ردپای کربن چندین مدل زبان بزرگ اخیر را محاسبه کرده است. یکی از آنها ChatGPT است که با ۱۰ هزار پردازنده گرافیکی انویدیا(NVIDIA) کار می‌کند، ۱۲۸۷ مگاوات ساعت برق مصرف می‌کند که معادل انرژی مصرف شده توسط ۱۲۱ خانه برای یک سال در ایالات متحده است.

همین طور که ما به سمت ایجاد یکی از بزرگترین پیشرفت‌های فناورانه که بشر تاکنون به آن دست یافته است، شتاب می‌گیریم، باید از خود بپرسیم که چه چیزی هزینه‌های گزاف این پیشرفت را جبران می‌کند؟

در تحلیلی که در مجله Joule منتشر شده، الکس دی وریس(Alex de Vries) نویسنده این مقاله استدلال می‌کند که در آینده، انرژی مورد نیاز برای استفاده از ابزارهای هوش مصنوعی ممکن است حتی بیشتر از نیازهای انرژی برخی از کشورهای کوچک باشد.

وی می‌گوید: در سال ۲۰۲۱، کل مصرف برق گوگل ۱۸.۳ تراوات ساعت بود که هوش مصنوعی ۱۰ تا ۱۵ درصد از آن را تشکیل می‌داد. بدترین سناریو نشان می‌دهد که هوش مصنوعی گوگل به تنهایی می‌تواند به اندازه کشوری مانند ایرلند با مصرف ۲۹.۳ تراوات ساعت برق در سال، برق مصرف کند.

با گذشت زمان، هوش مصنوعی انرژی بیشتری مصرف خواهد کرد

از زمانی که شرکت اوپن‌ای‌آی ربات هوش مصنوعی ChatGPT را در اواخر سال ۲۰۲۲ به جهان معرفی کرد، رونق هوش مصنوعی مولد به وجود آمد. این امر منجر به افزایش تقاضا برای تراشه‌های هوش مصنوعی شده است.

شرکت انویدیا که در خط مقدم عرضه تراشه‌های رده بالا قرار دارد، در سه ماهه منتهی به ژوئیه ۲۰۲۳ درآمدی معادل ۱۶ میلیارد دلار را گزارش کرده است. این بدان معناست که تقاضا برای تراشه‌های هوش مصنوعی بیش از پیش در حال افزایش است.

اخیراً نیز تغییرات در شرکت‌های بیشتری به وجود آمده است، شرکت‌هایی که تراشه‌های خود را برای برآورده کردن نیازهای سنگین هوش مصنوعی توسعه می‌دهند. گوگل و آمازون در حال حاضر تراشه‌های هوش مصنوعی خود را دارند، در حالی که شایعات مبنی بر اینکه مایکروسافت نیز از سخت افزار تراشه داخلی خود در ماه آینده رونمایی خواهد کرد، در حال پخش شدن است.

شرکت مایکروسافت همچنین سرمایه‌گذاری‌های سنگینی در شرکت OpenAI دارد که طبق گزارش‌ها، این شرکت نیز در مراحل ابتدایی توسعه تراشه‌های خود یا خرید یک شرکت نیمه‌رساناست که این کار را برایش انجام دهد.

همه‌ی اینها به این معنی است که افزایش چشمگیری در ردپای مصرف انرژی توسط صنعت هوش مصنوعی وجود خواهد داشت.

وریس توضیح می‌دهد: به عنوان مثال، تقاضای انرژی شرکت‌هایی مانند گوگل، اگر هوش مصنوعی مولد در هر موتور جستجوی آن ادغام شود، می‌تواند به میزان قابل توجهی افزایش یابد.

غول بعدی در مصرف انرژی

طبق گزارش‌ها تخمین زده می‌شود که ادغام یک چت‌بات مانند ChatGPT با موتور جستجوی گوگل به ۵۱۲ هزار و ۸۲۰ سرور مجهز به تراشه‌های A100 HGX شرکت انویدیا نیاز دارد که به معنای بیش از چهار میلیون پردزانده گرافیکی است و تقاضای برق ۶.۵ کیلووات برای هر سرور، مصرف برق روزانه آن را به ۸۰ گیگاوات ساعت و مصرف سالانه آن را به ۲۹.۲ تراوات ساعت می‌رساند.

وریس خاطرنشان می‌کند که ابزارهای هوش مصنوعی یک مرحله آموزش اولیه دارند و سپس یک مرحله استنتاج دارند. مرحله آموزش پرمصرف‌ترین مرحله است و تاکنون مرکز تحقیقات پایداری هوش مصنوعی بوده است. مرحله استنتاج نیز زمانی است که این ابزارها بر اساس داده‌هایی که روی آنها آموزش دیده‌اند، خروجی تولید می‌کنند. وریس از جامعه علمی می‌خواهد که به این مرحله توجه بیشتری کنند.

وی می‌گوید: شرکت OpenAI برای پشتیبانی از ChatGPT به ۳۶۱۷ سرور HGX A100  انویدیا با مجموع ۲۸ هزار و ۹۳۶ پردازنده گرافیکی نیاز داشت که به معنای تقاضای انرژی ۵۶۴ مگاوات ساعتی در روز است و این فقط برای راه‌اندازی این چت‌بات قبل از شروع استفاده از آن توسط مصرف کنندگان است.

وی افزود: در مقایسه با ۱۲۸۷ مگاوات ساعت تخمین زده شده در مرحله آموزشی GPT-3، تقاضای انرژی فاز استنتاج آن به طور قابل توجهی بالاتر به نظر می‌رسد.

وریس در پایان خاطرنشان می‌کند که خیلی خوش‌بینانه است که انتظار داشته باشیم بهبود در کارایی سخت افزار و نرم افزار به طور کامل هرگونه تغییر طولانی مدت در مصرف برق مرتبط با هوش مصنوعی را جبران کند. اما تلاش‌ها در حال انجام است.

به عنوان مثال در تاریخ ۹ اکتبر گروهی از پژوهشگران MIT گزارش دادند که در حال یافتن راه‌هایی برای کاهش مصرف برق مدل‌های هوش مصنوعی هستند. آنها توانسته‌اند مصرف انرژی یک مدل هوش مصنوعی را با محدود کردن توان مصرفی پردازنده‌های گرافیکی که آن را تغذیه می‌کنند، ۱۲ تا ۱۵ درصد کاهش دهند.

وریس نیز پیشنهاد می‌کند که پردازنده‌های گرافیکی قدیمی‌تر که در استخراج ارز دیجیتال اتریوم استفاده می‌شوند و اکنون استفاده‌ نمی‌شوند، می‌توانند مجدداً مورد استفاده قرار گیرند.

/ایسنا

امتیاز دهید
نظر دهید

پاسخ دهید

7 + 18 =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0