قوانین هوش مصنوعی در چین کدامند؟

در ۱۱ آوریل سال ۲۰۲۳ پیشرفت بزرگی در فضای هوش مصنوعی چین رخ داد، اداره فضای سایبری چین (CAC)، پیش‌نویس مقررات مربوط به هوش مصنوعی مولد  را منتشر کرد. در این سند از هیچ شرکت خاصی نام برده نشده اما نحوه بیان آن روشن می‌کند که از راه‌اندازی بی‌وقفه چت ربات‌های چین و ایالات‌متحده الهام گرفته شده است.

پیش‌نویس مقررات، ترکیبی از محدودیت‌های معقول در مورد خطرات هوش مصنوعی و ادامه سنت قوی دولت چین در مداخله تهاجمی در صنعت فناوری است. بسیاری از بندهای پیش‌نویس مقررات، اصولی هستند که منتقدان هوش مصنوعی در غرب از آن دفاع می‌کنند؛ داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کنند. الگوریتم‌ها نباید بین کاربران بر اساس نژاد، قومیت، سن، جنسیت و سایر ویژگی‌ها تبعیض قائل شوند. شرکت‌های هوش مصنوعی باید از منابع داده‌های آموزشی و نحوه استفاده انسان شفاف باشند.

در عین حال، قوانینی نیز در آن وجود دارد که سایر کشورها احتمالا از اطاعت آنها سر باز می‌زنند. دولت از افرادی که از این ابزارهای هوش مصنوعی مولد استفاده می‌کنند می‌خواهد با هویت واقعی خود (مانند هر پلتفرم اجتماعی در چین) ثبت‌نام کنند و محتوایی که نرم‌افزار هوش مصنوعی تولید می‌کند باید «ارزش‌های اصلی سوسیالیسم» را منعکس کند.

هیچ یک از این الزامات تعجب‌آور نیست. دولت چین در سال‌های اخیر شرکت‌های فناوری را با قدرت کنترل  و پلتفرم‌ها را به دلیل سهل‌انگاری مجازات می‌کند. این سند باعث می‌شود تا این سنت نظارتی به راحتی قابل مشاهده باشد.

این واقعیت که دولت چین می‌تواند به سرعت به یک پدیده فناوری جدید واکنش نشان دهد یک شمشیر دولبه است. مت شیهان، یکی از همکاران بنیاد کارنگی برای صلح بین‌المللی می‌نویسد که نقطه قوت این رویکرد که به هر روند فناوری جدید به طور جداگانه نگاه می‌کند، «دقت آن است که راه‌حل‌های خاصی برای مشکلات خاص ایجاد می‌کند».

علیرغم ماهیت محدودکننده، این سند تشویقی ضمنی برای شرکت‌ها در ادامه کار بر روی هوش مصنوعی است. حداکثر جریمه پیشنهادی برای نقض قوانین حدود ۱۵هزار دلار است که برای هر شرکتی که ظرفیت ساخت مدل‌های بزرگ را دارد رقمی ناچیز است.

البته، اگر شرکتی هر بار که مدل هوش مصنوعی آن قوانین را نقض کند جریمه شود، مبالغ ممکن است انباشته شود. اما اندازه جریمه نشان می‌دهد که قوانین برای ترساندن شرکت‌ها از سرمایه‌گذاری در هوش مصنوعی ساخته نشده‌اند.

بر اساس پیش‌نویس مقرراتی که منتشر شد، شرکت‌های فناوری چینی باید محصولات مولد هوش مصنوعی را در آژانس فضای سایبری چین ثبت کنند و قبل از انتشار عمومی آن‌ها را برای ارزیابی امنیتی ارسال کنند.

این مقررات عملا تمام جنبه‌های هوش مصنوعی مولد از نحوه آموزش آن گرفته تا نحوه تعامل کاربران با آن را پوشش می‌دهد، شرکت‌های فناوری مسئول «مشروعیت منبع داده‌های پیش‌آموزشی» خواهند بود تا اطمینان حاصل کنند که محتوا منعکس‌کننده «ارزش اصلی سوسیالیسم» است.

شرکت‌ها باید اطمینان حاصل کنند که هوش مصنوعی خواستار «براندازی قدرت دولتی» یا سرنگونی حزب حاکم کمونیست چین، اقداماتی برای «تفرق در کشور» یا «تضعیف وحدت ملی»، تولید محتوای مستهجن یا غیراخلاقی تشویق خشونت، افراط گرایی، تروریسم یا تبعیض  نیست. افرادی که قوانین را نقض کنند با جریمه‌های بین ۱۰هزار یوان (۱۴۵۴ دلار) تا ۱۰۰هزار یوان (۱۴۵۴۵ دلار) روبرو خواهند.

مقررات مربوط به هوش مصنوعی مولد برای هر شخصی اعمال می‌شود که با استفاده از محصولات هوش مصنوعی مولد خود در چین خدمات ارائه می‌دهد. تا زمانی که محصول مولد هوش مصنوعی در دسترس عموم قرار نگیرد یا به صورت عمومی برای کاربران در چین به بازار عرضه شود، دیدگاه بهتر این است که مقررات مربوط به هوش مصنوعی مولد اعمال نشود. ارائه یک محصول مولد هوش مصنوعی به تعدادی منتخب از شرکت‌ها در چین یا چند کاربر آزمایشی از پیش شناسایی شده لزوما نباید باعث ایجاد مقررات مربوط به هوش مصنوعی مولد شود.

با این حال، حتی اگر یک کسب‌وکار تمام اقدامات را انجام دهد تا اطمینان حاصل کند که محصول هوش مصنوعی تولیدی آن توسط هیچ فردی در چین استفاده نمی‌شود همچنان باید نسبت به منبع داده‌ای که برای آموزش هوش مصنوعی استفاده می‌کند، مراقب باشد. از این نظر، تاثیر فراسرزمینی قانون حفاظت از اطلاعات شخصی (PIPL) به ویژه در این مورد مرتبط است زیرا استفاده از الگوریتم‌ها برای پردازش داده‌ها به منظور تولید چیزی شبیه به آنچه پردازش انسانی انجام می‌دهد، ممکن است مستلزم «تجزیه و تحلیل و ارزیابی رفتار افراد در چین» شود بنابراین توسعه‌دهنده هوش مصنوعی را تحت اختیار PIPL قرار می‌دهد.

اگرچه مقررات مربوط به هوش مصنوعی مولد فقط به صورت پیش‌نویس هستند اما نشان دهنده رویکرد نظارتی است که اداره فضای سایبری چین قصد دارد، اتخاذ کند.

ارائه دهنده

ارائه‌دهنده به معنای هر شخصی است که از هوش مصنوعی مولد برای ارائه خدمات تولید محتوا، از جمله ارائه دسترسی از طریق مواردی مانند رابط‌های قابل برنامه‌ریزی (به عنوان مثال API) است تا دیگران بتوانند از هوش مصنوعی مولد برای تولید محتوا استفاده کنند.

یک ارائه دهنده، مسئول (الف) محتوای تولید شده با استفاده از سرویس خود، (ب) مشروعیت داده‌های مورد استفاده برای آموزش هوش مصنوعی مولد و (ج) تحقق الزامات حاکمیتی مربوطه برای چنین هوش مصنوعی مولدی است.

محتوا

محتوای تولید شده نباید حاوی محتوای ممنوعه در چین باشد، با توجه به اینکه، دامنه چنین اطلاعات ممنوعه تا حد زیادی با قوانین و مقررات مخابراتی موجود مطابقت دارد.

محتوای تولید شده باید درست و دقیق با اقدامات موثر برای جلوگیری از اطلاعات جعلی باشد همچنین نباید تبعیض‌آمیز ارائه شود.

ارائه دهنده باید به درستی کاربران خود را برای استفاده از هوش مصنوعی مولد برای اهداف قانونی راهنمایی کند.

ارائه دهنده باید اقداماتی را برای جلوگیری از تولید مجدد محتوای ممنوعه ذکر شده بیش از سه ماه پس از شناسایی چنین محتوایی انجام دهد و اقدامات فیلترینگ بر این اساس انجام شود.

داده‌های مورد استفاده برای آموزش هوش مصنوعی

چنین داده‌هایی ممکن است حقوق مالکیت معنوی دیگران را نقض نکند.

در صورت گنجاندن داده‌های شخصی، رضایت حق موضوع داده‌ها الزامی است، مگر اینکه قوانین و مقررات به گونه‌ای دیگر اجازه داده باشند.

داده‌ها باید درست، دقیق، عینی و متنوع باشند.

الزامات فوق حتی اگر منبع داده‌ها از دامنه عمومی باشد، قابل اجرا باقی می‌مانند.

حکمرانی و شفافیت

ارائه‌دهندگان باید از کاربران بخواهند که اطلاعات هویت واقعی خود را ارائه دهن. د

ارائه‌دهنده باید یک روش رسیدگی به شکایات ایجاد کند.

ارائه دهنده باید اطلاعات لازم که می‌تواند بر اعتماد و انتخاب کاربران مطابق با قوانین مربوطه تاثیر بگذارد، از جمله منبع، اندازه، نوع و کیفیت داده‌ها برای آموزش هوش مصنوعی، قوانین، اندازه و نوع برچسب‌گذاری، الگوریتم‌های اساسی و سیستم‌های تکنولوژیکی را افشا کند.

مقررات مربوط به هوش مصنوعی مولد همچنین به جنبه‌های دیگری نیز می‌پردازد، به‌عنوان مثال، تعلیق یا خاتمه خدمات پس از رویدادهای خاص، برچسب‌گذاری، مکانیسم پیشگیری از اعتیاد، حفاظت از اطلاعات کاربر که همه این موارد بر نحوه عملکرد ارائه‌دهنده کسب‌وکار هوش مصنوعی مولد تاثیر می‌گذارد.

مشاهدات نهایی

چندین روز قبل از انتشار مقررات مربوط به هوش مصنوعی مولد برای مشاوره، وزارت علوم و فناوری پیش‌نویس مشاوره اقدامات بازنگری برای اخلاق علم و فناوری (Ethics Review) را برای نظرات عمومی نیز منتشر کرد. این مورد خوب است که برای تنظیم چیزی جدید و بالقوه انقلابی، تلاش‌های هماهنگ مقامات مختلف چین با تمرکز بر جنبه‌های مختلف آن چیز مورد نیاز است.

با این حال، در سطح جهانی، در حالی که رویکرد نظارتی اتخاذ شده در حوزه‌های قضایی مختلف به طور ماهرانه‌ای متفاوت است (با توجه به اینکه برخی از حوزه‌های قضایی اولین محرک‌ها و برخی دیگر ناظران محتاط هستند)، همه حوزه‌های قضایی عمدتا در یک جهت حرکت می‌کنند. به عنوان مثال، سازمان حفاظت از داده‌های ایتالیا، عملیات پردازش داده چت بات جی پی تی را در پایان مارس ۲۰۲۳ متوقف کرد. این روند به این معنی است که هر شرکتی که در یک حوزه قضایی ثبت شده است اما هوش مصنوعی خود را با استفاده از داده‌های جمع‌آوری شده از اینترنت آزاد آموزش و خدمات ارائه می‌دهد برای کاربران در سراسر جهان، به یک راه حل جهانی نیاز دارد.

در حالی که چین هنوز به موفقیت چت بات جی پی تی پیشگامانه Open AI مستقر در کالیفرنیا نرسیده است، تلاش این کشور برای تنظیم این حوزه نوپا سریعتر از جاهای دیگر حرکت کرده است.

هنوز مقررات هوش مصنوعی در کنگره ایالات‌متحده مورد توجه قرار نگرفته است، اگرچه انتظار می‌رود مقررات مربوط به حریم خصوصی در مورد هوش مصنوعی در سال جاری در سطح ایالت اجرا شود.

اتحادیه اروپا قوانین گسترده‌ای را پیشنهاد کرده است که به عنوان قانون هوش مصنوعی شناخته می‌شود و طبقه‌بندی می‌کند چه نوع هوش مصنوعی «غیرقابل قبول» و ممنوع، کدام دارای «خطر بالا» و غیرقانونی است.

/ایسنا

نظر دهید

پاسخ دهید

دنبال‌ چی
Logo
مقایسه موارد
  • کل (0)
مقایسه
0