چرا اقبال به GPT Chat کاهش یافت؟

پس از مدت کوتاهی که GPT Chat با اقبال زیادی روبه رو شد، در طول هفته‌های اخیر توجهات به این ربات چت کاهش یافته است.

پس از مشاهده تقاضای زیاد در روز‌های آغازین راه اندازی GPT Chat، اکنون استفاده از آن با کاهش ۱۰ درصدی نسبت به ماه گذشته مواجه شده و همچنین میزان دانلود‌های این برنامه کاهش یافته است.

کاربرانی که برای دسترسی به مدل قوی‌تر GPT Chat یعنی مدل GPT Chat Plus هزینه پرداخت می‌کنند، در رسانه‌های اجتماعی و انجمن‌های خصوصی OpenAI از کیفیت پایین خروجی این چت بات شکایت کرده اند.

کاربران اتفاق نظر دارند که GPT-۴ قادر به تولید خروجی سریع‌تر، اما با سطح کیفیت پایین‌تر است. پیتر یانگ، رئیس شرکت تولیدی Roblox، در توییتر از عملکرد GPT Chat انتقاد و ادعا کرد که کیفیت آن بدتر شده است. یکی دیگر از کاربران گفت که جدیدترین تجربه GPT-۴ مانند رانندگی با یک فراری برای یک ماه و سپس تبدیل شدن ناگهانی آن به یک پیکاپ قدیمی است.

برخی از کاربران حتی خشن‌تر بوده‌اند و GPT Chat را احمق و تنبل خواندند. به گفته کاربران، چند هفته پیش عملکرد GPT-۴ به طور قابل توجهی سریعتر شد، اما این سرعت به قیمت کاهش کیفیت عملکرد بود. جامعه هوش مصنوعی حدس می‌زند که این ممکن است به دلیل تغییر در اخلاق طراحی OpenAI و تقسیم آن به چندین مدل کوچک‌تر آموزش‌دیده در حوزه‌های خاص باشد که می‌توانند در کنار هم برای ارائه همان نتیجه نهایی کار کنند.

شرکت OpenAI هنوز به طور رسمی این مورد را تایید نکرده و هیچ اشاره‌ای به چنین تغییر عمده‌ای در نحوه عملکرد GPT-۴ نشده است. اما به گفته کارشناسان مانند شارون ژو، مدیر عامل سازنده هوش مصنوعی Lamini، که ایده چند پارادایم را “گام بعدی طبیعی” در توسعه GPT-۴ نامید، این یک توضیح معتبر است.

مشکل مبرم دیگری در GPT Chat وجود دارد که برخی از کاربران گمان می‌کنند ممکن است علت افت اخیر عملکرد آن باشد و به نظر می‌رسد صنعت هوش مصنوعی تا حد زیادی تمایلی به رسیدگی به آن ندارد؛ و آن اصطلاح «خودکار عمل کردن در استفاده از هوش مصنوعی» است؛ به این معنی که مدل‌های بزرگ زبان (LLM) مانند ChatGPT و Google Bard داده‌های عمومی را خلاصه می‌کنند تا هنگام تولید پاسخ‌ها از آن استفاده کنند.

این خطر ایجاد یک حلقه بازخورد را به همراه دارد که به موجب آن مدل‌های هوش مصنوعی از محتوای تولید شده توسط آن یاد می‌گیرند و منجر به کاهش تدریجی انسجام و کیفیت خروجی می‌شود. با وجود تعداد زیادی LLM که هم اکنون هم برای متخصصان و هم برای عموم مردم در دسترس است، خطر جذب هوش مصنوعی به طور فزاینده‌ای رایج می‌شود؛ به ویژه آنکه هنوز هیچ نمایش مفیدی وجود ندارد که چگونه مدل‌های هوش مصنوعی می‌توانند به طور دقیق بین اطلاعات واقعی و محتوای تولید شده توسط این فناوری تمایز قائل شوند.

/باشگاه خبرنگاران جوان

تگ ها:

نظر دهید

پاسخ دهید

7 + هجده =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0