قانون هوش مصنوعی اتحادیه اروپا، هوش مصنوعی با «ریسک غیرقابل‌قبول» را ممنوع کرد

تیم تحریریه 19 بهمن 1403 اخبار و رویداد ۴ دقیقه زمان مطالعه 0 دیدگاه ( ۰ امتیاز )

اولین مقررات قانون هوش مصنوعی اتحادیه اروپا اجرایی شد.

با آغاز اجرای اولین مقررات قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، اکنون مقامات نظارتی می‌توانند سیستم‌های هوش مصنوعی با ریسک غیرقابل‌قبول (unacceptable) را که تهدیدی جدی برای جامعه محسوب می‌شوند، ممنوع کنند.

از ۲ فوریه ۲۰۲۵، برخی از مهم‌ترین الزامات این قانون، لازم‌الاجرا شده‌اند. این قوانین شامل ممنوعیت برخی کاربردهای پرخطر هوش مصنوعی و همچنین الزام شرکت‌ها به ارتقای سواد هوش مصنوعی کارکنان است. اگر شرکت‌ها این مقررات را رعایت نکنند، ممکن است تا ۳۵ میلیون یورو جریمه شوند یا ۷٪ از درآمد سالانه جهانی خود را به‌عنوان جریمه بپردازند (هرکدام که بیشتر باشد).

قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) چیست؟

EU AI Act Bans AI With 'Unacceptable Risks'

این قانون که در اوت ۲۰۲۴ تصویب شد، نخستین چارچوب جامع برای مدیریت و نظارت بر توسعه و استفاده از هوش مصنوعی در جهان با هدف کاهش خطرات هوش مصنوعی، حمایت از حقوق مردم و اطمینان از استفاده ایمن از این فناوری در اروپاست.

این قانون، هوش مصنوعی را براساس سطح ریسک آن به چهار دسته تقسیم می‌کند:

  1. ریسک حداقلی یا بدون ریسک (مانند چت‌بات‌های ساده)؛
  2. ریسک محدود (مانند فیلترهای اسپم ایمیل)؛
  3. ریسک بالا (مانند هوش مصنوعی در پزشکی، استخدام یا امنیت عمومی)؛
  4. ریسک غیرقابل‌قبول (سیستم‌هایی که تهدیدی جدی برای امنیت و حقوق مردم محسوب می‌شوند و اکنون ممنوع شده‌اند).

انواع هوش مصنوعی با ریسک غیرقابل‌قبول ممنوع شدند

از ۲ فوریه ۲۰۲۵، هشت نوع استفاده از هوش مصنوعی که بیشترین خطر را دارند، رسماً غیرقانونی اعلام شده‌اند:

  1. هوش مصنوعی که از نقاط ضعف افراد (مانند سن، وضعیت مالی یا ناتوانی جسمی) سوءاستفاده می‌کند.
  2. هوش مصنوعی که از روش‌های فریبنده برای تأثیرگذاری بر تصمیمات مردم استفاده می‌کند.
  3. هوش مصنوعی که فقط براساس ظاهر افراد پیش‌بینی می‌کند چه کسی ممکن است در آینده مرتکب جرم شود.
  4. سیستم‌های هوش مصنوعی که امتیازدهی اجتماعی (مشابه چین) انجام می‌دهند.
  5. هوش مصنوعی که بدون اجازه افراد، تصاویر چهره افراد را از اینترنت یا دوربین‌های نظارتی جمع‌آوری می‌کند.
  6. هوش مصنوعی که احساسات افراد را در مدارس و محیط‌های کاری تحلیل می‌کند.
  7. هوش مصنوعی که ویژگی‌های افراد را از طریق داده‌های بیومتریک (مثل اثر انگشت و اسکن چهره) حدس می‌زند.
  8. هوش مصنوعی که به‌صورت زنده داده‌های بیومتریک افراد را در مکان‌های عمومی برای اهداف امنیتی جمع‌آوری می‌کند.

بررسی قوانین جدید برای هوش مصنوعی مولد و عمومی (GenAI)

مدل‌های هوش مصنوعی مولّد (GenAI) که می‌توانند متن، تصویر یا کد تولید کنند (مانند ChatGPT و DALL·E)، در این قانون به‌عنوان هوش مصنوعی عمومی شناخته شده‌اند.

برای این مدل‌ها، از ۲ اوت ۲۰۲۵، مقرراتی مانند:

  • رعایت قوانین کپی‌رایت اروپا؛
  • شفافیت درباره روش‌های آموزش مدل‌ها؛
  • اقدامات امنیتی قوی در برابر حملات سایبری.

لازم‌الاجرا خواهد شد. همچنین، شرکت‌هایی که از هوش مصنوعی با ریسک بالا در محصولاتی مثل تجهیزات پزشکی استفاده می‌کنند، تا ۲ اوت ۲۰۲۷ فرصت دارند تا خود را با قوانین جدید تطبیق دهند.

قانون جدید اتحادیه اروپا به‌دنبال ایجاد توازن بین نوآوری و امنیت است. با ممنوعیت کاربردهای خطرناک هوش مصنوعی، این قانون تلاش می‌کند تا از سوءاستفاده‌های احتمالی جلوگیری و درعین‌حال به پیشرفت فناوری‌های هوش مصنوعی مفید و کم‌خطر کمک کند.

برای شرکت‌های فعال در این حوزه، این قوانین یک چالش بزرگ اما ضروری محسوب می‌شوند؛ زیرا رعایت‌نکردن آن‌ها می‌تواند منجر به جریمه‌های سنگین و حتی ممنوعیت فعالیت شود.

منابع
سوالات متداول این بخش
نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مشابه
آیا OpenAI دیگر دیدگاه‌ها را سانسور نمی‌کند؟ بررسی تغییرات جدید
شرکت OpenAI اعلام کرده است که مدل‌های هوش مصنوعی آن دیگر از پرداختن به موضو…
تیم تحریریه ( ۰ امتیاز )
پروژه جدید هوش مصنوعی با حمایت گوگل: آیا آینده AI متحول می‌شود؟
یک ابتکار جدید در حوزه هوش مصنوعی با هدف خدمت به جامعه معرفی شد! پروژه‌ای ب…
تیم تحریریه ( ۰ امتیاز )
گسترش OpenAI در آسیا: OpenAI پس‌از امضای قرارداد با سافت‌بانک در ژاپن، با Kakao کره همکاری می‌کند
در پی موفقیت چشمگیر شرکت چینی DeepSeek در حوزه هوش مصنوعی، OpenAI نیز با ام…
تیم تحریریه ( ۰ امتیاز )