پژوهشهای جدید نشان میدهد که روبات هوش مصنوعی ChatGPT میتواند دادهها و اطلاعات جعلی را واقعی جلوه دهد این موضوع در مورد اطلاعات پزشکی میتواند خطرآفرین باشد.
به گزارش کاسموس، پژوهشهای جدید نشان میدهد که ChatGPT میتواند دادههای پزشکی قانعکنندهای جعل کند. نویسندگان این مطالعه جدید ادعا میکنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که میتواند در همه امور شک و تردید ایجاد کند، آسانتر از همیشه میکند. پژوهشگران این مطالعه میگویند: «ما در این مقاله با چند مثال نشان دادیم که چگونه میتوان از چتباتهای هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.» در ادامه این مقاله آمده است: «علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا میخواهیم تحقیقات پزشکی و راهحلهای بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.» پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از روبات هوش مصنوعی درخواست کردند که از دادههای سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار میکند که این موضوع، یک کار و تایید خطرناک از سوی یک چتبات است. از آنجا که ChatGPT در حال حاضر فقط با دادههای تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر میگیرد، نمیتواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران هشدار میدهند که در عرض تنها یک بعدازظهر میتوان با دهها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، روبهرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دستنوشته و مقاله استفاده کرد که کاملا بر اساس دادههای ساختگی و نتایج جعلی بنا شده است. بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راههای مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد. آنها میگویند: «استفاده از هوش مصنوعی برای تحقیقات ذاتا یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجهای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی میتواند در فرآیند پژوهش بگنجاند تا کارهای زمانبری را که روند پژوهشهای علمی را کند میکند، حذف کند.» مساله زمانی چالشبرانگیز میشود که فرد از دادههایی استفاده میکند که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش میسازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند. پژوهشگران میگویند این آثار در صورت انتشار، پژوهشهای مشروع را آلوده میکنند و ممکن است بر تعمیمپذیری آثار مشروع تاثیر بگذارند. بر اساس این گزارش، پژوهشگران در پایان خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به دادههای جعلی و پیامدهای آن باید در نظر گرفته شود.