سرنوشت کارجویان در دستان هوش مصنوعی

استارت‌آپ‌های کوچک و پلتفرم‌های حرفه‌ای بزرگ از هوش مصنوعی برای یافتن و استخدام نیروهای جدید استفاده می‌کنند، اما استفاده از این ابزارها می‌توانند تصمیم‌گیری‌های سوگیرانه را تقویت کنند.

به گزارش ایسنا، توری پادمجرسکی (Torrey Podmajersky)، مشاور تجربه کاربری در سیاتل، یک ایمیل شخصی در ماه ژانویه از استخدام‌کننده‌ای به نام جنی جانسون (Jennie Johnson) دریافت کرد. در این پیام آمده بود که جانسون یک پروفایل شغلی برای پادمجرسکی ایجاد کرده و چند کار منطبق با پروفایل او را پیشنهاد داده است، اما این پروفایل بسیار گسترده بود و چندین بخش مهم از تاریخچه حرفه‌ای او در آن حذف شده بود. پادمجرسکی که در وهله اول به دنبال کار نبود، متوجه شد که این یک کلاهبرداری است.

به نقل از اس‌ای، تا زمانی که تا پایین صفحه نرفته بود، متوجه نشد جانسون حتی یک انسان هم نیست. ایمیل از یک ربات هوش مصنوعی آمده بود. شرکت سازنده، آن را به عنوان «هوش مصنوعی نماینده یک مربی شغلی حرفه‌ای» توصیف کرده بود. پادمجرسکی به یاد می‌آورد: که احساس ناخوشایندی را تجربه کرده زیرا متوجه شده است که این هوش مصنوعی برای ایجاد احساس دیده شدن، خاص بودن، مراقبت و حمایت طراحی شده و همه اینها دروغ بوده است.

داگلاس همیلتون (Douglas Hamilton)، یک مدیر بازنشسته فروش و بازاریابی در آلبانی، نیویورک نیز یک ایمیل از جنی جانسون دریافت کرد. همیلتون خلاصه کار ربات را این گونه توصیف می‌کند: نقش‌های اشتباه، صنعت اشتباه، سطح اشتباه. او ایمیل را باز کرده بود، زیرا عکس استخدام‌کننده که در مکاتبات برای استخدام نامعمول بود، توجه او را جلب کرد. آن عکس نیز به صورت مصنوعی ساخته شده بود.

ربات جنی جانسون، بخشی از یک ابزار توسعه‌یافته توسط شرکت مولد هوش مصنوعی هایپرلیپ (Hyperleap) است که در چند ماه اخیر ایمیل‌های ناخواسته‌ای را برای بسیاری از متخصصان ارسال کرده است. این تنها یک نمونه از این است که چگونه پلتفرم‌های استخدام، از استارت‌آپ‌های کوچک گرفته تا لینکدین، به‌طور فزاینده‌ای از هوش مصنوعی برای یافتن، فیلتر کردن و استخدام افراد جدید استفاده می‌کنند. با پیچیده‌تر شدن این ابزارها، کارشناسان نگرانند که مسیریابی در بازار کار برای جویندگان کار، بیشتر فاقد صفات انسانی شده و تعصبات موجود تقویت شود.

شرکت هایپرلیپ، مستقر در پارک سیتی، یوتا، جنی جانسون را به عنوان یک ابزار کاریابی آنلاین ایجاد کرد که خلاصه‌های خودکار شغل را برای کاربرانی که در این سرویس ثبت‌نام می‌کنند، ارسال می‌کند. مدیر عامل شرکت، کوین هولبرت (Kevin Holbert)، می‌گوید این سیستم هوش مصنوعی اطلاعیه‌های شغلی آنلاین و وب‌سایت‌های کسب‌وکار را بررسی می‌کند تا یک پایگاه داده قابل جستجو بسازد. سپس پروفایل لینکدین، رزومه و سابقه کاری افراد را بررسی می‌کند و این اطلاعات را با پایگاه داده خود تطبیق می‌دهد تا فرصت‌های شغلی را به افراد پیشنهاد دهد.

به گفته هولبرت، اگرچه هر کسی می‌تواند در این سرویس ثبت‌نام کند، افرادی مانند پادمجرسکی و همیلتون ایمیل‌های ناخواسته خود را در طول کمپین‌های اولیه هایرپلیپ دریافت کردند تا با مشارکت یک پلتفرم شغلی، کاربران جدیدی را به دست آورند. او می‌گوید هرکسی که در آن پلتفرم ثبت‌نام می‌کرد، هشدارهایی را از ربات جنی جانسون نیز دریافت می‌کرد، اگرچه نه پادمجرسکی و نه همیلتون به یاد نمی‌آورند که در آن زمان در هیچ پلتفرم شغلی ثبت‌نام کرده باشند. هولبرت می‌گوید که شرکت از آن زمان این مشارکت را متوقف کرده است و آنها همچنان به پاک کردن لیست خود و حذف کاربرانی که درگیر نیستند، ادامه می‌دهند.

خدماتی مانند جنی جانسون گسترش طبیعی فناوری خودکار است که استخدام‌کنندگان بیش از یک دهه از آن استفاده می‌کنند. ریگان گراس (Regan Gross) از انجمن مدیریت منابع انسانی (SHRM) که به متخصصان منابع انسانی در مورد شیوه‌های استخدام مشاوره می‌دهد، می‌گوید: اینها شامل نرم افزار ردیابی متقاضی می‌شوند که رزومه‌ها را برای یافتن کلمات کلیدی بررسی می‌کند. بیش از ۹۷ درصد از شرکت‌های فورچون ۵۰۰ (فهرستی از ۵۰۰ مورد از بزرگ‌ترین شرکت‌های آمریکایی از نظر درآمدزایی ) در حال حاضر به چنین ابزارهایی برای بررسی متقاضیان متکی هستند و یک نظرسنجی در سال ۲۰۲۲ نشان داد که ۴۲ درصد از سازمان‌های مورد بررسی با ۵۰۰۰ کارمند یا بیشتر گزارش داده‌اند که از خودکار شدن یا حضور هوش مصنوعی در فعالیت‌های مرتبط با منابع انسانی، از جمله استخدام استفاده می‌کنند.

گراس مزایای بالقوه‌ای را در برخی از این ابزارها می‌بیند، اما می‌گوید که آنها محدودیت‌های مخصوص به خود را دارند. به عنوان مثال، در حالی که برنامه‌های کاربردی هوش مصنوعی می‌توانند در انجام وظایف اساسی مانند خلاصه کردن مهارت‌های متقاضی کمک کنند، اما هنوز نمی‌توانند شخصیت و ویژگی‌های منحصربه‌فردی را که برای استخدام‌کنندگان مهم است، به تصویر بکشند. گراس پیش‌بینی می‌کند که استفاده گسترده از هوش مصنوعی، جویندگان کار را مجبور می‌کند راه‌های جدیدی برای متمایز کردن خود بیابند.

برنامه‌های کاربردی هوش مصنوعی به طور پیوسته فرآیند استخدام را خودکار می‌کنند. به عنوان مثال، پلتفرم‌های بزرگ‌تری مانند لینکدین اکنون می‌توانند به طور خودکار تجربه کاری و مهارت‌های افراد جویای کار را با مشاغل موجود مطابقت دهند. برخی از آنها، از جمله ZipRecruiter، چت‌بات‌های انسانی نیز ارائه می‌دهند که می‌توانند به سؤالات مربوط به یک شغل پاسخ دهند، با نامزدهای بالقوه تماس بگیرند و ارزیابی‌های شخصیتی را انجام دهند. هوش مصنوعی مولد جدید حتی به کارفرمایان این امکان را می‌دهد که بخش‌های کامل فرآیند استخدام از جمله جستجوی نامزدها و انجام مصاحبه‌های از پیش برنامه‌ریزی شده را به الگوریتم‌ها برون سپاری کنند.

هولبرت می‌گوید هایپرلیپ یک شخصیت انسانی برای هوش مصنوعی خودساخته است تا برقراری ارتباط با آن را راحت‌تر کند و مردم در مواجهه با آن طبیعی‌تر عمل کنند.

زهیرا جاسر (Zahira Jaser) که در مورد رفتار سازمانی در مدرسه بازرگانی دانشگاه ساسکس در انگلستان تحقیق می‌کند، می‌گوید که عدم شفافیت در فرآیند استخدام خودکار می‌تواند اثر معکوس داشته باشد.

جاسر معتقد است که عدم اطمینان کارجو در مورد اینکه آیا با یک انسان سر و کار دارد یا خیر، بر عملکرد نامزدها در طول فرآیند استخدام تأثیر می‌گذارد و همچنین می‌تواند مانع از دریافت اطلاعات دقیق از رفتار عادی نامزدها شود. او در تحقیقات خود در مورد مصاحبه‌های مبتنی بر هوش مصنوعی دریافته است که متقاضیان معمولا اگر فکر می‌کنند به جای انسان با یک ربات آنلاین صحبت می‌کنند، رفتار طبیعی کمتری از خود نشان می‌دهند. برای مثال، آنها نگاه ثابتی روی صفحه نمایش خواهند داشت و از حرکت دادن دستان خود خودداری می‌کنند.

تحقیقات جاسر همچنین نشان می‌دهد که مصاحبه‌های مبتنی بر هوش مصنوعی اغلب نامزدهایی را که فارغ‌التحصیلان نسل اول هستند، با لهجه صحبت می‌کنند یا از پیش‌زمینه کمتری برخوردارند، نادیده می‌گیرند.

فارغ‌التحصیلان نسل اول به کسانی گفته می‌شود که پدر و مادر آنها فاقد تحصیلات آکادمیک هستند.

جاسر اضافه می‌کند که بدون نظارت کافی انسانی، این سیستم‌های استخدام مبتنی بر هوش مصنوعی می‌توانند تعصبات موجود را تقویت کنند. او می‌گوید: به‌کارگیری این نوع سیستم‌ها ممکن است از منظر کنترل هزینه‌ها عالی باشد، اما اگر کنترل نشود، ممکن است مشکلاتی در مورد تنوع ایجاد کند.

النور دراگ (Eleanor Drage)، محقق اخلاق هوش مصنوعی در دانشگاه کمبریج می‌گوید: توسعه‌دهندگان ابزارهای استخدام هوش مصنوعی اغلب گفته‌اند که الگوریتم‌هایشان این پتانسیل را دارد که از انسان‌ها عینی‌تر باشند؛ اگر این ابزارها بر روی داده‌هایی که به اندازه کافی فراگیر و متنوع هستند، آموزش ببینند. اما چنین ادعاهایی گمراه‌کننده هستند و نشان‌دهنده عدم درک نحوه عملکرد سوگیرانه در دنیای واقعی است.

دراگ افزود: از آنجایی که سیستم‌های استخدام مبتنی بر هوش مصنوعی بر اساس گرایش‌ها و شیوه‌های استخدام در گذشته آموزش دیده‌اند که غالبا مغرضانه و تبعیض‌آمیز بوده‌اند، آنها همیشه همان الگوها را تکرار می‌کنند، حتی اگر شرکت‌ها به صراحت عواملی مانند نژاد و جنسیت را حذف کنند.

جاسر می‌گوید: اگرچه تبلیغات پیرامون این ابزارهای استخدام هوش مصنوعی در حال حاضر زیاد است، بسیاری از دپارتمان‌های منابع انسانی منتظر هستند تا قبل از استفاده از آنها، کارایی این ابزارها ثابت شود. او افزود: امیدواریم آنها به طور انبوه پذیرفته نشوند، مگر در صورتی که مفید، منصفانه و قابل اعتماد بودن آنها ثابت شود.

امتیاز دهید
نظر دهید

پاسخ دهید

هجده + 8 =

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0