هوش مصنوعی قانونمند می شود
تاسیسات نیوز – پریسا فقیهی: اتحادیه اروپا قانون نوآورانه هوش مصنوعی را معرفی میکند که هدف آن تبدیل شدن به یک مرکز جهانی برای هوش مصنوعی قابل اعتماد و متمرکز بر انسان است.
قوانین/مقرراتی که به طور مستقیم بر هوش مصنوعی نظارت دارند.
چارچوب قانونی اصلی برای ساماندهی هوش مصنوعی در اتحادیه اروپا، قوانین هوش مصنوعی اتحادیه اروپا (EU AI Act) میباشد. اتحادیه اروپا همچنین پیشنهادی برای دستورالعمل مسئولیت هوش مصنوعی (AI Liability Directive) ارائه نموده که به منظور اطمینان از اعمال مناسب قوانین مسئولیت برای ادعاهای مربوط به هوش مصنوعی طرح شدهاند.
وضعیت قوانین هوش مصنوعی
قانون هوش مصنوعی اتحادیه اروپا در تاریخ ۱۲ جولای ۲۰۲۴ در نشریه رسمی اتحادیه اروپا منتشر شد که اولین چارچوب قانونی جامع و کامل برای ساماندهی هوش مصنوعی در سراسر اتحادیه اروپاست. این قانون از اول آگوست ۲۰۲۴ لازم الاجرا شده و از تاریخ ۲ آگوست ۲۰۲۶ منشا اثر خواهد بود.
تعریف هوش مصنوعی
هوش مصنوعی در قوانین اتحادیه اروپا تحت شرایط زیر تعریف شده:
-
«سیستم هوش مصنوعی» به معنای یک سیستم مبتنی بر ماشین که برای عملکرد با سطوح مختلفی از استقلال طراحی شده و میتواند پس از استقرار، تطبیق پذیری نشان داده و برای اهداف صریح یا ضمنی، با توجه به ورودیهایی که دریافت میکند، خروجیهایی مثل پیش بینیها، محتوا، پیشنهادات یا تصمیماتی را اتخاذ کند که میتوانند بر محیطهای فیزیکی یا مجازی تاثیرگذار باشند.
-
«مدل هوش مصنوعی چند منظوره» به معنی یک مدل هوش مصنوعی، شامل مواردی است که هوش مصنوعی با حجم زیادی از دادهها به کمک خود نظارتی در مقیاس واقعی، آموزش داده شده و قادر به انجام شایسته و موثر طیف وسیعی از وظایف متمایز، صرفنظر از شیوه ارائه مدل در بازار است و میتواند در انواع سیستمها یا برنامههای پائین دستی ادغام شود، به جز مدلهای هوش مصنوعی که پیش از عرضه به بازار برای فعالیتهای تحقیقاتی، توسعه یا پیش الگو استفاده میشوند.
-
«سیستم هوش مصنوعی چند منظوره» به معنی یک سیستم هوش مصنوعی مبتنی بر مدل هوش مصنوعی چند منظوره است و توانایی انجام اهداف متنوع، هم به صورت مستقیم و هم برای ادغام با دیگر سیستمهای هوش مصنوعی را دارد.
قانون هوش مصنوعی اتحادیه اروپا به منظور ترویج درک و پذیرش هوش مصنوعی انسان محور و قابل اعتماد و نیز تضمین سطح بالای حفاظت از سلامت، ایمنی، حقوق اساسی، دموکراسی و حاکمیت قانون در برابر اثرات مخرب سیستمهای هوش مصنوعی و در عین حال حمایت از نوآوری و عملکرد بازار داخلی می باشد.
هدف از دستورالعمل مسئولیت هوش مصنوعی، حصول اطمینان از این موضوع است که افراد آسیب دیده به واسطه سیستمهای هوش مصنوعی از همان سطح حمایتی معادل دیگر فناوریها در اتحادیه اروپا برخوردار شوند.
دسته بندی ریسک ها
براساس دسته بندی قانون هوش مصنوعی اتحادیه اروپا، سطوح مختلفی از ریسک در این حوزه وجود دارد:
-
ریسکهای غیرقابل قبول: سیستمهای هوش مصنوعی که ریسک «غیرقابل قبول» دارند، ممنوع میباشند. این موضوع شامل سیستمهای هوش مصنوعی است که برای امتیازدهی اجتماعی استفاده میشوند و نیز سیستمهای هوش مصنوعی که از روشهای فریبنده یا استثمارگرانه برای تحریف مالی عملکرد افراد به گونهای استفاده میکنند که باعث صدمه شود.
-
ریسک با امکان بالا (High Risk): همه سیستمهای هوش مصنوعی که ریسک «بالایی» دارند، مشمول دقیقترین تعهدات مطابق با قانون هوش مصنوعی اتحادیه اروپا شده و در دو دسته قرار می گیرند: (الف) سیستمهای هوش مصنوعی که به عنوان جزء ایمنی یک محصول استفاده میشوند یا (ب) سیستمهای هوش مصنوعی بکارگرفته شده در هشت حوزه خاص شامل آموزش، اشتغال، دسترسی به خدمات ضروری دولتی و خصوصی، اجرای قانون، مهاجرت و اجرای عدالت.
-
ریسک محدود: سیستمهای هوش مصنوعی ارائه دهنده ریسک «محدود» شامل مواردی که مستقیما با افراد حقیقی (مانند چت بات ها)، سیستمهای تشخیص احساسات، سیستمهای طبقه بندی بیومتریک و سیستمهای هوش مصنوعی تولید کننده جعل عمیق (دیپ فیک) در تعاملند. این سیستمها ملزم به افشای این واقعیت هستند که محتوا به صورت مصنوعی تولید یا دستکاری شده است.
-
ریسک کم یا حداقل: هر سیستم هوش مصنوعی که مشمول دسته بندیهای فوق نشود.
درمورد هوش مصنوعی چند منظوره، قانون هوش مصنوعی اتحادیه اروپا میان مدلهایی که مستلزم ریسک سیستماتیک هستند و غیرآن، تمایز قائل میشود. در صورتیکه توان محاسباتی هوش منصوعی چند منظوره از آستانه معینی فراتر باشد، هوش مصنوعی مستلزم ریسک سیستمی فرض میشود.
الزامات انطباق کلیدی
تعهدات انطباق در درجه اول براساس سطح ریسک مرتبط با سیستم هوش مصنوعی مربوطه تعیین میشود:
-
ریسک غیرقابل قبول: سیستمهای هوش مصنوعی با ریسک غیرقابل قبول، مشمول الزامات انطباق نمیشوند و کاملاً ممنوع میباشند.
-
ریسک بالا (High Risk): سیستمهای هوش مصنوعی و ارائه دهندگان آنها پیش از حضور در بازار اتحادیه اروپا یا خدماتدهی باید در بانک دادههای اتحادیه اروپا ثبت شده و مطابق با طیف وسیعی از الزامات آموزش و حکمرانی دادهها، شفافیت، نظارت انسانی و امنیت سایبری باشند.
-
ریسک محدود: ارائه دهندگان و توسعه دهندگان سیستمهای هوش مصنوعی خاص و مدلهای چند منظوره مشمول تعهدات شفافیت هستند.
-
ریسک کم یا حداقل: سیستمهای هوش مصنوعی بر اساس قانون EU AI Act فاقد الزامات یا تعهدات خاص میباشند.
همه ارائه دهندگان مدلهای هوش مصنوعی چند منظوره، مشمول اسناد فنی و تعهدات شفافیت هستند و ملزم به همکاری با کمیسیون و مقامات ذیصلاح ملی و نیز احترام به قوانین ملی در زمینه حق انتشار و حقوق مرتبط میباشند.
نهادهای نظارتی
اجرای قانون هوش مصنوعی اتحادیه اروپا مشتمل بر مشارکت طیفی از مسئولان امر میباشد. بدین منظور کشورهای عضو اتحادیه اروپا، حداقل یک مقام آگاه و حداقل یک مقام ناظر بر بازار را در این حوزه تعیین یا مستقر خواهند کرد و اطمینان مییابند که مقامات ذیصلاح ملی از منابع انسانی، مالی و فنی کافی و نیز زیرساخت لازم برای انجام وظایف خود تحت قانون هوش مصنوعی اتحادیه اروپا برخوردار هستند.
منبع: EU news
ترجمه: پریسا فقیهی- دفتر تخصصی امور بینالملل و حلال