هوش مصنوعی قانونمند می شود

تاسیسات نیوز – پریسا فقیهی:  اتحادیه اروپا قانون نوآورانه هوش مصنوعی را معرفی می‌کند که هدف آن تبدیل شدن به یک مرکز جهانی برای هوش مصنوعی قابل اعتماد و متمرکز بر انسان است.
قوانین/مقرراتی که به طور مستقیم بر هوش مصنوعی نظارت دارند.
چارچوب قانونی اصلی برای ساماندهی هوش مصنوعی در اتحادیه اروپا، قوانین هوش مصنوعی اتحادیه اروپا (EU AI Act) می‌باشد. اتحادیه اروپا همچنین پیشنهادی برای دستورالعمل مسئولیت هوش مصنوعی (AI Liability Directive) ارائه نموده که به منظور اطمینان از اعمال مناسب قوانین مسئولیت برای ادعاهای مربوط به هوش مصنوعی طرح شده‌اند.
وضعیت قوانین هوش مصنوعی
قانون هوش مصنوعی اتحادیه اروپا در تاریخ ۱۲ جولای ۲۰۲۴ در نشریه رسمی اتحادیه اروپا منتشر شد که اولین چارچوب قانونی جامع و کامل برای ساماندهی هوش مصنوعی در سراسر اتحادیه اروپاست. این قانون از اول آگوست ۲۰۲۴ لازم الاجرا شده و از تاریخ ۲ آگوست ۲۰۲۶ منشا اثر خواهد بود.
تعریف هوش مصنوعی
هوش مصنوعی در قوانین اتحادیه اروپا تحت شرایط زیر تعریف شده:
  • «سیستم هوش مصنوعی» به معنای یک سیستم مبتنی بر ماشین که برای عملکرد با سطوح مختلفی از استقلال طراحی شده و می‌تواند پس از استقرار، تطبیق پذیری نشان داده و برای اهداف صریح یا ضمنی، با توجه به ورودی‌هایی که دریافت می‌کند، خروجی‌هایی مثل پیش بینی‌ها، محتوا، پیشنهادات یا تصمیماتی را اتخاذ کند که می‌توانند بر محیط‌های فیزیکی یا مجازی تاثیرگذار باشند.
  • «مدل هوش مصنوعی چند منظوره» به معنی یک مدل هوش مصنوعی، شامل مواردی است که هوش مصنوعی با حجم زیادی از داده‌ها به کمک خود نظارتی در مقیاس واقعی، آموزش داده شده و قادر به انجام شایسته و موثر طیف وسیعی از وظایف متمایز، صرفنظر از شیوه ارائه مدل در بازار است و می‌تواند در انواع سیستم‌ها یا برنامه‌های پائین دستی ادغام شود، به جز مدل‌های هوش مصنوعی که پیش از عرضه به بازار برای فعالیت‌های تحقیقاتی، توسعه یا پیش الگو استفاده می‌شوند.
  • «سیستم هوش مصنوعی چند منظوره» به معنی یک سیستم هوش مصنوعی مبتنی بر مدل هوش مصنوعی چند منظوره است و توانایی انجام اهداف متنوع، هم به صورت مستقیم و هم برای ادغام با دیگر سیستم‌های هوش مصنوعی را دارد.
قانون هوش مصنوعی اتحادیه اروپا به منظور ترویج درک و پذیرش هوش مصنوعی انسان محور و قابل اعتماد و نیز تضمین سطح بالای حفاظت از سلامت، ایمنی، حقوق اساسی، دموکراسی و حاکمیت قانون در برابر اثرات مخرب سیستم‌های هوش مصنوعی و در عین حال حمایت از نوآوری و عملکرد بازار داخلی می باشد.
هدف از دستورالعمل مسئولیت هوش مصنوعی، حصول اطمینان از این موضوع است که افراد آسیب دیده به واسطه سیستم‌های هوش مصنوعی از همان سطح حمایتی معادل دیگر فناوری‌ها در اتحادیه اروپا برخوردار شوند.
دسته بندی ریسک ها
براساس دسته بندی قانون هوش مصنوعی اتحادیه اروپا، سطوح مختلفی از ریسک در این حوزه وجود دارد:
  • ریسک‌های غیرقابل قبول: سیستم‌های هوش مصنوعی که ریسک «غیرقابل قبول» دارند، ممنوع می‌باشند. این موضوع شامل سیستم‌های هوش مصنوعی است که برای امتیازدهی اجتماعی استفاده می‌شوند و نیز سیستم‌های هوش مصنوعی که از روش‌های فریبنده یا استثمارگرانه برای تحریف مالی عملکرد افراد به گونه‌ای استفاده می‌کنند که باعث صدمه شود.
  • ریسک با امکان بالا (High Risk): همه سیستم‌های هوش مصنوعی که ریسک «بالایی» دارند، مشمول دقیق‌ترین تعهدات مطابق با قانون هوش مصنوعی اتحادیه اروپا شده و در دو دسته قرار می گیرند: (الف) سیستم‌های هوش مصنوعی که به عنوان جزء ایمنی یک محصول استفاده می‌شوند یا (ب) سیستم‌های هوش مصنوعی بکارگرفته شده در هشت حوزه خاص شامل آموزش، اشتغال، دسترسی به خدمات ضروری دولتی و خصوصی، اجرای قانون، مهاجرت و اجرای عدالت.
  • ریسک محدود: سیستم‌های هوش مصنوعی ارائه دهنده ریسک «محدود» شامل مواردی که مستقیما با افراد حقیقی (مانند چت بات ها)، سیستم‌های تشخیص احساسات، سیستم‌های طبقه بندی بیومتریک و سیستم‌های هوش مصنوعی تولید کننده جعل عمیق (دیپ فیک) در تعاملند. این سیستم‌ها ملزم به افشای این واقعیت هستند که محتوا به صورت مصنوعی تولید یا دستکاری شده است.
  • ریسک کم یا حداقل: هر سیستم هوش مصنوعی که مشمول دسته بندی‌های فوق نشود.
درمورد هوش مصنوعی چند منظوره، قانون هوش مصنوعی اتحادیه اروپا میان مدل‌‌هایی که مستلزم ریسک سیستماتیک هستند و غیرآن، تمایز قائل می‌شود. در صورتیکه توان محاسباتی هوش منصوعی چند منظوره از آستانه معینی فراتر باشد، هوش مصنوعی مستلزم ریسک سیستمی فرض می‌شود.
الزامات انطباق کلیدی
تعهدات انطباق در درجه اول براساس سطح ریسک مرتبط با سیستم هوش مصنوعی مربوطه تعیین می‌شود:
  • ریسک غیرقابل قبول: سیستم‌های هوش مصنوعی با ریسک غیرقابل قبول، مشمول الزامات انطباق نمی‌شوند و کاملاً ممنوع می‌باشند.
  • ریسک بالا (High Risk): سیستم‌های هوش مصنوعی و ارائه دهندگان آنها پیش از حضور در بازار اتحادیه اروپا یا خدمات‌دهی باید در بانک داده‌های اتحادیه اروپا ثبت شده و مطابق با طیف وسیعی از الزامات آموزش و حکمرانی داده‌ها، شفافیت، نظارت انسانی و امنیت سایبری باشند.
  • ریسک محدود: ارائه دهندگان و توسعه دهندگان سیستم‌های هوش مصنوعی خاص و مدل‌های چند منظوره مشمول تعهدات شفافیت هستند.
  • ریسک کم یا حداقل: سیستم‌های هوش مصنوعی بر اساس قانون EU AI Act فاقد الزامات یا تعهدات خاص می‌باشند.
همه ارائه دهندگان مدل‌های هوش مصنوعی چند منظوره، مشمول اسناد فنی و تعهدات شفافیت هستند و ملزم به همکاری با کمیسیون و مقامات ذیصلاح ملی و نیز احترام به قوانین ملی در زمینه حق انتشار و حقوق مرتبط می‌باشند.
نهادهای نظارتی
اجرای قانون هوش مصنوعی اتحادیه اروپا مشتمل بر مشارکت طیفی از مسئولان امر می‌باشد. بدین منظور کشورهای عضو اتحادیه اروپا، حداقل یک مقام آگاه و حداقل یک مقام ناظر بر بازار را در این حوزه تعیین یا مستقر خواهند کرد و اطمینان می‌یابند که مقامات ذیصلاح ملی از منابع انسانی، مالی و فنی کافی و نیز زیرساخت لازم برای انجام وظایف خود تحت قانون هوش مصنوعی اتحادیه اروپا برخوردار هستند.

منبع: EU news
ترجمه: پریسا فقیهی- دفتر تخصصی امور بین‌الملل و حلال

ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

;