«ChatGpt» نظریه‌های مشهورترین زبان‌شناس جهان را به چالش می‌کشد!

«ChatGpt» پرسش‌هایی را در مورد چگونگی دستیابی انسان به زبان مطرح می‌کند که بحثی را در مورد نظریه‌های «نوآم چامسکی»، مشهورترین زبان‌شناس جهان برانگیخته‌اند.

 هنگامی که یک ابررایانه شطرنج‌باز موسوم به «دیپ بلو»(Deep Blue)، «گری کاسپاروف»(Garry Kasparov) قهرمان جهان را در سال ۱۹۹۷ شکست داد، ترس از پیروزی ماشین‌ها بر بشریت، بسیاری از مردم را فراگرفت. در این سالها، هوش مصنوعی کارهای شگفت‌انگیزی را انجام داده است اما هیچ‌ کدام نتوانسته‌اند تصورات عمومی را به همان شکل جذب کنند. در هر حال، لحظه شگفت‌انگیز دیپ بلو اکنون بازگشته است زیرا رایانه‌ها چیزی را به کار می‌گیرند که انسانها آن را توانایی تعیین‌کننده خود می‌دانند. این توانایی، زبان است.

اگرچه مدل‌های بزرگ زبانی که معروف‌ترین آنها «ChatGpt» است، چیزی مشابه نوشتار بی‌عیب و نقص انسان تولید می‌کنند اما در مورد اینکه ماشین‌ها واقعا چه می‌کنند، بحثی پیرامون نظریه‌های «نوآم چامسکی»(Noam Chomsky) مشهورترین زبان‌شناس جهان درگرفته است.

اگرچه ایده‌های پروفسور چامسکی از زمانی که در دهه ۱۹۵۰ به شهرت رسید، به طور قابل توجهی تغییر کرده‌اند اما چندین عنصر نسبتا ثابت مانده‌اند. او و پیروانش استدلال می‌کنند که زبان انسان از نظر نوع(نه فقط میزان بیان) با سایر انواع ارتباطات متفاوت است. همه زبان‌های انسانی بیشتر به یکدیگر شباهت دارند تا مثلا به رمزهای رایانه. پروفسور چامسکی مکررا گفته است که یک مریخی هنگام بازدید از سیاره ما به این نتیجه می‌رسد که همه انسان‌های روی زمین به یک زبان و با تنوع سطحی صحبت می‌کنند.

شاید مهم‌ترین نظریه‌ چامسکی این باشد که کودکان با وجود فقدان محرک، زبان مادری خود را با سرعت و سهولت شگفت‌انگیزی یاد می‌گیرند. تنها توضیح برای این موضوع شاید این باشد که نوعی استعداد برای یادگیری زبان در مغز انسان ایجاد شده است.

اندیشه‌های چامسکی بر «حوزه زبانی نحو» غالب بوده‌اند، اما بسیاری از زبان‌شناسان مخالف چامسکی هستند و برخی اکنون سعی دارند از ظرفیت‌ مدل‌های بزرگ زبانی برای حمله مجدد به نظریه‌های چامسکی استفاده کنند.

دستور زبان، ساختاری سلسله مراتبی و تو در تو دارد که شامل واحدهایی درون واحدهای دیگر است. کلمات، عباراتی را تشکیل می‌دهند که تشکیل‌دهنده جمله‌ها هستند. نظریه چامسکی، یک عملیات ذهنی به نام «ادغام» را مطرح می‌کند که واحدهای کوچک‌تر را به هم می‌چسباند تا واحدهای بزرگ‌تری را تشکیل دهد که می‌توان آنها را ادامه داد. در یکی از مقالاتی که اخیرا در نیویورک تایمز به چاپ رسید، چامسکی و دو نفر از نویسندگان مقاله گفتند: ما می‌دانیم که رایانه‌ها مانند انسان‌ها از زبان استفاده نمی‌کنند و به طور ضمنی این شناخت را در بر می‌گیرند. مدل‌های بزرگ زبانی در واقع فقط واژه بعدی را در میان یک رشته از واژه‌ها پیش‌بینی می‌کنند.

با وجود این، درک اینکه مردم به چه چیزی فکر می‌کنند، به چند دلیل دشوار است. جزئیات برنامه‌نویسی و آموزش داده‌های تجاری به چیزی مانند ChatGpt، یک کار اختصاصی است.

زبان‌شناسان راه‌های هوشمندانه‌ای را برای آزمایش کردن دانش زیربنایی مدل‌های بزرگ زبانی پیدا کرده‌اند که در واقع آنها را با آزمون‌های کاوشگری فریب می‌دهند. در واقع به نظر می‌رسد که مدل‌های بزرگ زبانی، ساختارهای دستوری تو در تو و سلسله مراتبی را یاد می‌گیرند؛ حتی اگر آنها فقط در معرض ورودی خطی یعنی رشته‌هایی از متن باشند. آنها می‌توانند به مدیریت واژه‌های جدید بپردازند و بخش‌هایی از گفتار را درک کنند. کافی است به ChatGpt بگویید که «dax» یک فعل به معنای خوردن یک برش پیتزا با تا کردن آن است و سیستم آن را به راحتی اجرا می‌کند. در جمله «پس از یک روز طولانی در محل کار، من دوست دارم در حین تماشای برنامه تلویزیونی مورد علاقه‌ام استراحت کنم و یک برش پیتزا را با تا کردن آن بخورم»( After a long day at work, I like to relax and dax on a slice of pizza while watching my favourite tv show.)، عنصر تقلیدی را می‌توان در «dax on» مشاهده کرد که ChatGpt احتمالا آن را از الگوهایی مانند «chew on» یا «munch on» به دست آورده است.

در مورد فقدان محرک چطور؟ به هر حال، مدل زبانی بزرگ «Gpt-۳» که زیربنای ChatGpt تا پیش از انتشار اخیر «Gpt-۴» در نظر گرفته می‌شود، با حدود ۱۰۰۰ برابر داده‌هایی که یک انسان ۱۰ ساله در معرض آن قرار می‌گیرد، آموزش می‌بیند. این موضوع، چنین امکانی را به جا می‌گذارد که کودکان به دستور زبان تمایل ذاتی دارند و همین امر آنها را بسیار ماهرتر از هر مدل زبانی بزرگی می‌کند.

در مقاله‌ای که در مجله «Linguistic Inquiry» به چاپ خواهد رسید، پژوهشگران ادعا می‌کنند یک مدل زبانی بزرگ را روی متنی آموزش داده‌اند که یک کودک انسان در معرض آن قرار می‌گیرد و دریافته‌اند که مدل زبانی می‌تواند حتی از بخش‌های نادر دستور زبان استفاده کند. سایر پژوهشگران تلاش کرده‌اند یک مدل زبانی بزرگ را روی پایگاه داده‌ای از زبانی آموزش دهند که فقط توسط کودک هدایت می‌شود و یک کپی از صحبت‌های افرادی است که با کودکان صحبت می‌کنند. در اینجا، مدل زبانی بزرگ به مراتب بدتر است. همان طور که پروفسور چامسکی می‌گوید، شاید مغز واقعا برای زبان ساخته شده است.

قضاوت کردن سخت است. هر دو طرف بحث در حال بررسی مدل‌های زبانی بزرگ هستند تا ادعای خود را تقویت کنند. خود بنیان‌گذار مکتب زبان‌شناسی، تنها یک پاسخ بی‌پرده را ارائه کرده است. برای این که نظریه‌های او از این چالش جان سالم به در ببرند، باید دفاع قوی‌تری داشته باشد.

/ایسنا

امتیاز دهید

تگ ها:

نظر دهید

پاسخ دهید

3 × پنج =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0