جستجو
این کادر جستجو را ببندید.

تهدیدات بالقوه ChatGPT

نسل جدید ماشین پاسخگو تحت عنوان ChatGPT، قدرت‌نمایی جدیدی از هوش مصنوعی را آغاز کرده، اما باعث نگرانی کارکنان در جهان شده است.  لیست‌هایی از مشاغل، تهیه شده که با فعالیت این چت‌بات جدید -که قادر است به پیچیده‌ترین پرسش انسان، پاسخ تحلیلی دقیق بدهد- از بین خواهند رفت. مقابل این نگرانی، مهارت مدیران برای «تطبیق محیط کار با تکنولوژی جدید» قرار دارد. چرا که تهدیدات بالقوه ChatGPT در حال حاضر وجود دارد.

طی هفته‌‌‌های اخیر، انتشار ChatGPT در میان خوره‌‌‌های تکنولوژی سر و صدای زیادی به پا کرده است. این چت‌‌‌بات که یک ابزار پرسش و پاسخ مبتنی بر هوش مصنوعی است، به سوالات کاربر در طیف وسیعی از زمینه‌‌‌ها، به شکلی دقیق، شمرده و در قالب متن پاسخ می‌دهد. پاسخ‌‌‌ها بسیار مشابه با پاسخ انسان هستند. به باور بسیاری از کارشناسان، این ابزار که توسط شرکت OpenAI توسعه ‌یافته، انقلابی در حوزه تکنولوژی است. همزمان با رواج هوش مصنوعی در صنایع مختلف، نگرانی‌ها نیز در این رابطه افزایش می‌یابد. هوش مصنوعی چه تهدیدهای بالقوه‌‌‌ای به همراه دارد؟ چگونه می‌توان در کنار بهره‌‌‌گیری از مزایای آن، تهدیدهایش را مهار کرد؟ آیا هوش مصنوعی جای انسان را خواهد گرفت؟

ChatGPT جواب همه چیز را می‌‌‌داند

ساعت ۱۱:۳۰ است. دانش‌‌‌آموزان وارد کلاس می‌‌‌شوند، پشت میزهایشان می‌‌‌نشینند و لپ‌‌‌تاپ‌هایشان را بیرون می‌‌‌آورند. ظاهرا یک روز عادی زمستانی به نظر می‌‌‌رسد. «ماریسا شومان»، دبیر رشته علوم کامپیوتر، برای اولین بار در دوران تدریس خود، برنامه درسی را ننوشته. او محتوای آموزشی را با استفاده از ChatGPT آماده کرده؛ یک چت‌‌‌بات مبتنی بر هوش مصنوعی که پاسخ سوالات مخاطب را به صورت کاملا شفاف و در قالب متن، ارائه می‌کند. خانم شومان از این ابزار برای دریافت محتوای آموزشی استفاده کرد تا ببیند چقدر مفید و کاربردی است و چه ایراداتی دارد. او خطاب به دانش‌‌‌آموزانش گفت: «امروز می‌‌‌خواهیم ChatGPT را بررسی کنیم. هدف شما این است که ببینید آیا درس امروز، موثر بوده یا نه.» مدارس و دانشگاه‌‌‌ها در ایالات متحده در درک و استفاده از چت‌‌‌بات‌‌‌ها با مشکل مواجهند. بسیاری از آنها به دنبال منع استفاده از ChatGPT هستند تا دانش‌‌‌آموزان نتوانند با استفاده از آن تقلب کنند.

اما افرادی مثل خانم شومان از نوآوری‌‌‌هایی از این قبیل برای افزایش تفکر انتقادی در کلاس‌‌‌ها استفاده می‌کنند. او دانش‌‌‌آموزان را تشویق می‌کند که هیجان و جوی را که حول محور ابزارهای هوش مصنوعی وجود دارد، زیر سوال ببرند و «عوارض جانبی» این تکنولوژی‌‌‌ها را بررسی کنند. این مدرسان می‌‌‌گویند هدفشان، آموزش «رایانش انتقادی» به نسل آینده خالقان و کاربران تکنولوژی است. رایانش انتقادی یک رویکرد تحلیلی است که در آن، نقد الگوریتم‌‌‌ها به اندازه یادگیری نحوه برنامه‌‌‌نویسی مهم است. هوش مصنوعی می‌تواند سوگیری‌‌‌ها و ریسک‌‌‌های احتمالی به همراه داشته باشد که در مدارس دولتی نیویورک، این موارد را به دانش‌‌‌آموزان کامپیوتر، آموزش می‌دهند.

مثلا بعضی از ابزارهای تشخیص چهره، در تشخیص چهره افراد سفیدپوست، بهتر عمل می‌کنند تا چهره افراد دارای پوست تیره. هوش مصنوعی قدرتمند، این امکان را دارد که خطوط قرمز اخلاقی را رد کند و به فرد در تولید ویدئوهای فیک که کاملا واقعی به نظر می‌‌‌رسند، کمک کند. مثلا یک سیاستمدار شناخته‌‌‌شده، حرف‌‌‌هایی را ادا کند که هرگز نزده. از سوی دیگر، برخی کارشناسان معتقدند یکی از نقاط ضعف رواج ابزارهایی مثل ChatGPT، فقدان «عامل انسانی» است. آنها می‌‌‌گویند نگرانی‌های بسیاری در رابطه با اعتماد به هوش مصنوعی وجود دارد. چطور یک ابزار می‌تواند به جای انسان، بنویسد و چطور می‌توان به آن اتکا کرد؟ گرچه ادبیات تولیدشده توسط این سیستم‌ها، کاملا طبیعی به نظر می‌رسد اما فاقد قدرت استدلال و تحلیل هستند.

نگرانی اصلی در رابطه با ChatGPT، این است که این ابزار می‌تواند به صورت بالقوه، تهدیدی برای اصالت باشد. توان و ظرفیت هوش مصنوعی در تقلید از انسان، بی‌‌‌پایان است و می‌تواند به شما در نوشتن مقالات درجه یک کمک کند اما یک حلقه گمشده در این میان وجود دارد: وجه شخصی. نظر و احساس شخصی شما در مقاله لحاظ نمی‌شود. مقاله شما می‌تواند شبیه مقاله یک فرد دیگر باشد. اما «سم آلتمن»، مدیرعامل OpenAI که سازنده ChatGPT است، می‌‌‌گوید: «هوش مصنوعی هنوز اول راه است و سفر دور و درازی در پیش دارد. قطعا توسعه و بهبود خواهد یافت و تاثیر مثبتی بر جامعه خواهد گذاشت.»

انقلابی در تکنولوژی

اگر درباره‌ChatGPT، ابزار هوش مصنوعی که این روزها طرفداران زیادی پیدا کرده، سوالی بپرسید جواب‌‌‌هایی که می‌‌‌گیرید فی‌‌‌البداهه، قطعی و اغلب اشتباهند. ChatGPT که اخیرا نقل مجالس شده، یک چت‌‌‌بات «پاسخگو» است که می‌تواند در گفت‌وگوها به سوالات پیچیده مخاطب پاسخ دهد. توسعه چنین نرم‌‌‌افزاری، یک انقلاب در حوزه تکنولوژی است چون این بات، آموزش دیده که «منظور انسان‌‌‌ها» را از سوالی که می‌‌‌پرسند درک کند. پاسخ‌‌‌هایی که این ابزار مبتنی بر هوش مصنوعی ارائه می‌دهد، کیفیت پاسخ‌‌‌های انسان را دارند. همین است که کاربران را شگفت‌‌‌زده کرده. ظهور چنین ابزاری می‌تواند نحوه تعامل میان انسان و کامپیوتر و بازیابی اطلاعات را دگرگون کند. صحبت با ChatGPT مثل این است که با یک اقتصاددان صحبت کنی. به دنبال خلق چنین تکنولوژی‌‌‌هایی، معمولا سوالاتی در ذهن مردم ایجاد می‌شود که پاسخ به آنها نیازمند زمان و تجربه است. اما حالا که چنین ابزاری وارد محیط‌های کار شده، مدیران جزو نخستین افرادی هستند که باید این سوالات را از خود بپرسند.

هوش مصنوعی، تهدیدی برای کارکنان؟

یکی از مسائلی که ممکن است پیش بیاید، نگرانی کارمندها درباره امنیت شغلی‌شان است. این نگرانی‌ها طبیعی‌‌‌اند. آیا این ابزار، جای انسان را خواهد گرفت؟ تکلیف شغل من چه می‌شود؟ نکند برای همیشه بیکار شوم؟ اینکه یک ابزار هوش مصنوعی بیاید و پردازش هزینه‌‌‌هایتان را آسان‌‌‌تر کند، یک چیز است. اما اینکه مردم ترجیح دهند در مراسم شام، کنار آن بنشینند و با آن حرف بزنند، یک مقوله دیگر است. ورود چنین ابزاری به محیط کار، قطعا در زمان و انرژی صرفه‌‌‌جویی می‌کند. برای آنکه پذیرش آن میان کارکنان، ممکن شود، باید به شکلی شفاف توضیح دهیم که کارمندها این زمان و انرژی ذخیره‌‌‌شده را صرف چه چیزهایی خواهند کرد. به‌علاوه، باید به آنها یک جور حس عاملیت دهیم تا حس کنند نسبت به شروع و پیامدهای اقدامات خود، کنترل دارند. تحقیقات نشریه اسلون، وابسته به دانشگاه MIT و گروه مشاوره بوستون نشان می‌دهد که اگر کارکنان این اجازه را داشته باشند که یک ابزار هوش مصنوعی را قبول یا رد کنند، احتمال آنکه از آن استفاده کنند، بیشتر خواهد بود.

پذیرش هوش مصنوعی به چه عواملی وابسته است؟

آیا مردم باید بدانند که درون یک ابزار هوش مصنوعی چه می‌‌‌گذرد؟ جوابش مشخص نیست. اما تحقیقاتی که توسط چهره‌‌‌های دانشگاهی هاروارد، انستیتوی تکنولوژی ماساچوست و دانشگاه پلی‌تکنیک میلان انجام شده نشان می‌دهد که توضیح بیش از حد، خود می‌تواند مشکل‌‌‌زا باشد. پس بهتر است زیاد وارد جزئیات نشویم.

«تیپستری» که تولیدکننده طیف وسیعی از محصولات لوکس است، یک ابزار در اختیار کارکنانش قرار داد که به آنها می‌‌‌گفت چطور موجودی را بین فروشگاه‌‌‌ها تقسیم کنند. بعضی‌‌‌ها از ابزاری استفاده کردند که منطقش، قابل تفسیر بود؛ سایرین از مدل دیگری استفاده کردند که بیشتر شبیه یک جعبه سیاه بود و مشخص نبود درون آن چه می‌‌‌گذرد. مشخص شد که کارمندها بیشتر بر ابزارهایی مسلط می‌شدند (منظور این است که به آن ابزارها سلطه پیدا می‌‌‌کردند)، که توان درکشان را داشتند چون نسبت به درک شهودی خود، مطمئن بودند، هرچند به اشتباه. اما آنها بیشتر تصمیمات ابزاری را می‌پذیرفتند که از آن سر در‌نمی‌‌‌آوردند چون به تخصص افرادی که آن مدل را ساخته بودند، اطمینان داشتند. پس اینکه چه کسی و با چه اعتباری یک ابزار هوش مصنوعی را بسازد، در میزان پذیرش آن از سوی افراد، تاثیر دارد و بسیار حائز اهمیت است.

نحوه پاسخ انسان نسبت به انسان و الگوریتم، موضوع طیف وسیعی از تحقیقات بوده است. «گیزم یالچین» از دانشگاه تگزاس و همکارش در تحقیقاتی، به بررسی این سوال پرداخته‌‌‌اند: «آیا مشتری‌‌‌ها، وقتی تصمیمی توسط یک ماشین یا یک فرد گرفته می‌شود، واکنش متفاوتی نشان می‌دهند؟» مثلا تصمیم بر سر تایید یک وام یا اجازه عضویت در یک کلوپ. مشخص شد که افراد وقتی درخواستشان رد می‌شود، واکنش یکسانی نشان می‌دهند، صرف نظر از اینکه آن تصمیم را چه کسی گرفته. اما وقتی درخواستشان توسط یک ماشین یا الگوریتم تایید می‌‌‌شد، احساس مثبت کمتری نسبت به آن سازمان پیدا می‌‌‌کردند. دلیلش چه بود؟ چون آدم‌‌‌ها خوب بلدند تصمیمات ناخوشایند را توجیه کنند، حالا فرقی نمی‌‌‌کند که چه کسی آن تصمیمات را گرفته باشد. آنها وقتی توسط یک ماشین ارزیابی می‌‌‌شوند، برایشان سخت‌‌‌تر است که یک اپلیکیشن موفق را به «خودِ جذاب و دوست‌‌‌داشتنی‌‌‌شان» ربط دهند. آدم‌‌‌ها دوست دارند احساس خاص بودن داشته باشند، نه اینکه تا حد و اندازه یک نقطه دیتا تقلیل داده شوند.

«آرتور جیگو» از دانشگاه واشنگتن و «گلن کارول» از مدرسه کسب و کار استنفورد در تحقیقاتی که به زودی منتشر خواهد شد، به این سوال پرداخته‌‌‌اند که «مردم تا چه حد مایلند بابت کاری که یک نفر، خودش به تنهایی انجام نداده، به او اعتبار دهند به جای آنکه اعتبار به دست آورند؟» این دو، جمعی از افراد داوطلب را گرد هم آوردند و به آنها چیزی مربوط به یک فرد را نشان دادند، مثل یک اثر هنری یا یک طرح کسب و کار. سپس فاش کردند که آن اثر، با کمک یک الگوریتم یا یک انسان، خلق شده. مخاطبان پس از شنیدن این خبر که خالق اثر، با کمک گرفتن، آن اثر را خلق کرده، به اتفاق، اعتبار کمتری به خالق بخشیدند اما وقتی شنیدند او از یک انسان کمک گرفته، این تاثیر به مراتب برجسته‌‌‌تر بود. یعنی وقتی متوجه شدند که خالق از یک انسان کمک خواسته، اعتبار بسیار کمتری برای او قائل شدند. شرکت‌کنندگان حس می‌‌‌کردند منصفانه نیست که کسی بابت کار یک فرد دیگر، اعتبار کسب کند.

تحقیقات دیگری توسط «آنوج کاپور» و همکارش از انستیتوی مدیریت احمدآباد منتشر شده که در آن، به این سوال پاسخ داده می‌شود که «کدام در کمک به افراد در کاهش وزن موثرترند؟ انسان یا هوش مصنوعی؟» این دو، نتیجه کاهش وزن مشترکان یک اپلیکیشن هندی را بررسی کردند. بعضی از مشترکان فقط از یک مربی هوش مصنوعی کمک گرفته بودند در حالی که بقیه، از یک مربی انسان نیز کمک گرفته بودند. تحقیقات نشان داد آنهایی که از یک مربی انسان کمک گرفتند، وزن بیشتری کم کردند، اهداف سختگیرانه‌‌‌تری برای خودشان تعیین می‌‌‌کردند و دقت و وسواس بیشتری در رابطه با ثبت فعالیت‌‌‌های خود نشان می‌‌‌دادند. اما افرادی که شاخص توده بدنشان (BMI)  بالاتر بود به اندازه افرادی که وزن کمتری داشتند، ارتباط خوبی با مربیان انسان برقرار نمی‌‌‌کردند. این دو محقق گمان می ‌کنند که افراد با وزن سنگین‌‌‌تر، احتمالا از اینکه با یک انسان دیگر تعامل کنند، خجالت می‌‌‌کشند و به همین علت، روبات‌‌‌ها را برای تمرین انتخاب می‌کنند.

تصویری که از این تحقیقات به دست می‌‌‌آید یک تصویر در‌هم و برهم است: و البته پویا نیز هست. همزمان با تکامل تکنولوژی، گرایشات و طرز تفکرات و رفتارها نیز تکامل می‌یابند. اما یک چیز کاملا مشخص است: تاثیر ChatGPT و سایر ابزارهای هوش مصنوعی بستگی خواهد داشت به کاری که هر کدام از این ابزارها می‌توانند انجام دهند و البته، به احساسی که در مردم ایجاد خواهند کرد. شاید باید به گفته‌‌‌های سم آلتمن اتکا کنیم چون هوش مصنوعی، تازه اول راه است.

امتیاز دهید

تگ ها:

نظر دهید

پاسخ دهید

دو + 9 =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0