ممنوعیت های هوش مصنوعی در قانون اتحادیه اروپا تنش با آمریکا در عرصه فناوری بیشتر می شود

ممنوعیت های هوش مصنوعی در قانون اتحادیه اروپا تنش با آمریکا در عرصه فناوری بیشتر می شود سئو سی: قانون هوش مصنوعی اتحادیه اروپا وارد مرحله اجرائی شد. این قانون از طرف خیلی از کارشناسان، به عنوان یک نقطه عطف راهبردی در راه حکمرانی تکنولوژی های جدید و هوشمند تلقی می شود.


به گزارش سئو سی به نقل از مهر؛ قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، از تاریخ سوم فوریه ۲۰۲۵ وارد مرحله اجرایی شد. این قانون از جانب خیلی از کارشناسان بعنوان یک نقطه عطف راهبردی در راه حکمرانی تکنولوژی های جدید و هوشمند تلقی می شود. متخصصان اعتقاد دارند که اتحادیه اروپا در قانون جامع هوش مصنوعی خود با تاکید بر اصول بنیادین حکمرانی داده محور، هدفی دوگانه را دنبال می کند: نخست، تسریع روند نوآوری های فناورانه از راه ایجاد شفافیت و الزامات عملیاتی مشخص دوم، ارتقاء ملاحظات اخلاقی و امنیتی در بستر فناوری بررسی های صورت گرفته نشان داده است که این چارچوب نظارتی فراگیر، زمینه ای برای کنترل و نظارت جامع بر استفاده از هوش مصنوعی در قسمت های مختلف صنعتی، اجتماعی و دولتی فراهم نموده و به دنبال کاهش مخاطرات بالقوه در کنار پشتیبانی از پیشرفت پایدار می باشد. این در شرایطی است که به نظر می آید اجرای الزامات تعیین شده در این سند حقوقی، تبعات و تأثیرات بنیادین بر آینده هوش مصنوعی خواهد داشت. مهر در این نوشتار کوتاه به مرور بعضی از دیدگاه های مطرح شده در این حوزه می پردازد. سیستم طبقه بندی مبتنی بر ریسک و چالش های نظارتی این قانون با اتخاذ نگاهی مبتنی بر ارزیابی مخاطرات، کاربردهای هوش مصنوعی را به سه دسته کلیدی تفکیک می کند: کاربردهای ممنوعه کاربردهای پرخطر کاربردهای کم خطر دسته بندی مذکور به منظور مدیریت ریسک های در رابطه با فناوری و محافظت از منافع عمومی طراحی شده است. بر همین اساس، کاربردهای ممنوعه شامل سیستم هایی هستند که به علت نقض آشکار حقوق اساسی انسان ها، مانند نظارت بی رویه یا دست کاری شناختی، به صورت کامل ممنوع اعلام شده اند. بر همین اساس، تمامی سیستم های هوش مصنوعی که تهدیدی آشکار برای ایمنی، معیشت و حقوق افراد محسوب می شوند، ممنوع هستند. قانون هوش مصنوعی (AI Act) هشت رویه را بعنوان اقدامات ممنوعه تعریف کرده است که عبارت اند از: دست کاری و فریب مبتنی بر هوش مصنوعی به کارگیری از هوش مصنوعی در جهت سوءاستفاده از صدمه پذیری ها سیستم های امتیازدهی اجتماعی (Social Scoring) ارزیابی یا پیشبینی ریسک ارتکاب جرم توسط افراد استخراج اطلاعات (Scraping) بدون هدف مشخص از اینترنت یا داده های دوربین های مدار بسته به منظور ایجاد یا گسترش پایگاه های داده تشخیص چهره شناسایی احساسات در محیط های کاری و موسسات آموزشی طبقه بندی زیست سنجی (Biometric Categorisation) برای استنباط خصوصیت های حساس (مانند جنسیت، نژاد یا مذهب) سیستم های شناسایی زیستی از راه دور و آنی در مقابل، کاربردهای پرخطر که در حوزه های استراتژیکی چون زیرساخت های حیاتی، نظام سلامت و فرآیندهای حساس استخدامی قرار می گیرند، تحت نظارت های شدید و الزامات سخت گیرانه تری نظیر ارزیابی جامع تأثیرات، گزارش دهی شفاف و پایش مستمر فعالیتها قرار دارند. این الزامات شامل تهیه مستندات دقیق از داده های مورد استفاده، کنترل سوگیری های احتمالی و تضمین پایداری سیستم های هوش مصنوعی می شوند. بر مبنای ادعای مطرح شده از جانب مسؤلان اروپایی و مدافعان اجرای این قانون، تدابیر نظارتی در جهت کاهش صدمه های اجتماعی، حقوقی و اقتصادی ناشی از عملکرد نادرست یا غیراخلاقی فناوری های هوشمند وضع شده اند و بر اهمیت مسئولیت پذیری سازمان ها در رویارویی با چالش های پیچیده حاکمیتی تاکید دارند. معافیت کاربردهای نظامی و نتایج راهبردی یکی از موضوعات مهم و شاید برجسته ترین نکته در این قانون، معافیت صریح سیستم های هوش مصنوعی مورد استفاده در قسمت های نظامی و امنیت ملی است. این استثنا مبین نگاهی راهبردی در جهت حفظ مزیت رقابتی و پیشگامی فناورانه در حوزه دفاعی است. در این عرصه، فناوری های مبتنی بر هوش مصنوعی در قسمتهایی چون شناسایی تهدیدات خودکار، امنیت سایبری پیشرفته، تحلیل و پیشبینی های تاکتیکی و مدیریت عملیات میدانی نقش کلیدی دارند. مدافعان این تصمیم، مدعی هستند که چنین کاربردهایی، به علت ماهیت حساس و محرمانه خود، به سرعت عمل و انعطاف پذیری بالا در تصمیم گیری های عملیاتی نیاز دارند؛ بنابراین، اعمال مقررات سخت گیرانه در این حوزه می تواند توسعه و پیاده سازی بموقع این فناوری ها را مختل کرده و بر کار آمدی مأموریت های امنیتی تاثیر منفی بگذارد. معافیت مذکور تضمین می نماید که نهادهای نظامی بتوانند با تمرکز بر نوآوری های فناورانه، بدون تأخیرهای ناشی از فرایندهای نظارتی، به ارتقا قابلیت های دفاعی و امنیتی خود ادامه دهند. این در شرایطی است که از طرفی، خیلی از کارشناسان، معافیت سامانه های دفاعی را بعنوان یکی از حساس ترین حوزه های کاربرد هوش مصنوعی، بسیار خطرناک و مخرب ارزیابی می کنند؛ چونکه در چنین شرایطی، خیلی از سامانه های هوش مصنوعی ناقض حقوق بشر در میدان های نبرد، بدون هیچ محدودیتی امکان توسعه دارند. سخت گیری های مقرراتی در کاربردهای مدنی بر مبنای قانون هوش مصنوعی اروپا، در مقابل، کاربردهای مدنی هوش مصنوعی ملزم به رعایت مجموعه ای از مقررات سخت گیرانه و چندلایه هستند. قانون گذاران اروپایی اعتقاد دارند که این مقررات به نحوی طراحی شده اند که از بروز تخلفات اخلاقی، نقض حریم خصوصی و تصمیم گیری های ناعادلانه جلوگیری نمایند. علاوه بر این، دفتر هوش مصنوعی کمیسیون اروپا بعنوان نهاد نظارتی اصلی، وظیفه دارد تا از انطباق این سیستم ها با اصول اساسی نظارت انسانی، شفافیت در عملکرد و مسئولیت پذیری اطمینان حاصل کند. بخصوص در قسمتهایی نظیر اعطای وام، فرآیندهای استخدامی و تشخیص های پزشکی که تأثیرات تصمیمات هوش مصنوعی می تواند عمیق و سرنوشت ساز باشد، این نظارت ها اهمیتی دوچندان می یابند. بر مبنای الزامات این قانون، سازمان ها و توسعه دهندگان هوش مصنوعی باید مستندات کاملی را تهیه کنند که جزئیاتی از قبیل منابع داده های آموزشی، روش های مورد استفاده برای کاهش و کنترل سوگیری ها و فرآیندهای تصمیم گیری الگوریتمی را شامل می شود. بعلاوه، ارزیابی های منظم جهت بررسی عملکرد سیستم ها و میزان تطابق آنها با موازین اخلاقی و فنی الزامی است. بی گمان چنین رویکردی، نه تنها به افزایش اعتماد عمومی به کاربردهای هوش مصنوعی کمک می کنند، بلکه زمینه را برای پاسخگویی در مقابل هرگونه تخلف احتمالی هم فراهم می سازد. امنیت داده ها و تقویت سازوکارهای مواجهه با اطلاعات جعلی از دیگر محورهای کلیدی قانون هوش مصنوعی اتحادیه اروپا، توجه عمیق به امنیت داده ها و حفظ حریم خصوصی است که بعنوان یکی از اصول بنیادین حکمرانی فناوری اروپا بحساب می آید. توسعه دهندگان فناوری در جهت اجرای این قانون، موظف به اجرای پروتکلهای پیشرفته امنیت سایبری هستند تا از خطراتی چون حملات سایبری گسترده، دسترسی غیر مجاز به داده ها و نقض حقوق حریم خصوصی جلوگیری نمایند. این اقدامات شامل رمزنگاری داده ها، کنترل های دسترسی چندلایه و نظارت مستمر بر امنیت سیستم ها می شود. در جهت مواجهه با انتشار اطلاعات جعلی و محتوای گمراه کننده، ابزارهای هوش مصنوعی که توانایی تولید محتوای جعلی و دیپ فیک دارند، ملزم به استفاده از مکانیزم های پیشرفته تأیید هویت دیجیتال و برچسب گذاری شفاف محتوا شده اند. این مکانیزم ها به کاربران اجازه می دهند تا صحت و منبع اطلاعات عرضه شده را بررسی نموده و از گسترش اطلاعات نادرست جلوگیری نمایند. همچنین، توسعه دهندگان باید گزارش های ادواری در رابطه با امنیت و عملکرد این ابزارها عرضه کنند و با ارزیابی های مستمر، از انطباق آنها با الزامات قانونی اطمینان حاصل کنند. پیامدهای بین المللی و چارچوب حکمرانی آینده تحلیلگران اعتقاد دارند که قانون هوش مصنوعی اروپا با عرضه مدلی جامع و فراگیر برای تنظیم گری فناوری های هوشمند، تأثیرات گسترده و چندبُعدی بر سیاستگذاری جهانی خواهد داشت. این قانون نه تنها بعنوان ابزاری برای مدیریت و نظارت بر نوآوری های فناورانه درون مرزهای اتحادیه اروپا به کار گرفته می شود، بلکه به علت جامعیت و سازگاری آن با اصول حکمرانی مدرن، به یک مرجع بین المللی در حوزه هوش مصنوعی تبدیل گشته است. مباحث مطرح شده در این قانون، شامل مسئولیت پذیری اخلاقی، امنیت فناوری و ترویج نوآوری پایدار، بگونه ای طراحی شده اند که کشورهای دیگر هم بتوانند آنرا بعنوان الگویی برای تدوین چارچوب های مشابه در نظام های قانونی خود درنظر بگیرند. از طرفی، جمعیت بالای منطقه اتحادیه اروپا و اثرگذاری بالای کشورهای این بلوک بر سیاستهای جهانی، راه را برای اشاعه آن در همه نقاط جهان هموار ساخته است. از همین روی، انتظار می رود که اجرای این مقررات، تعاملات فراملی در زمینه های در رابطه با فناوری های هوشمند را تقویت کرده و باعث هماهنگی بیشتری میان نظام های حکمرانی فناوری در سطح جهانی شود. از طرفی، برخی کارشناسان اعتقاد دارند که تضاد این قانون با سیاستهای ایالات متحده آمریکا بر مبنای آزادی عمل بیشتر شرکتهای و استارتاپ های هوش مصنوعی برای توسعه فناوری و رویکرد چین بر مبنای عدم پایبندی به بعضی از محورهای یاد شده در این سند حقوقی، می تواند زمینه ساز برخی تنش های ژئوپلیتیک در مقیاس جهانی شود. الزامات اجرایی کسب و کارها در جهت انطباق با قانون هوش مصنوعی اروپا دراین میان، سازمان ها و کسب وکارهایی که در حوزه توسعه و بهره برداری از سیستم های هوش مصنوعی فعالیت دارند، ناگزیرند تا نگاهی پیشگیرانه و راهبردی در رویارویی با تغییرات مداوم مقررات اتخاذ کنند. این امر مستلزم درک عمیق از چارچوب های نظارتی، ارزیابی مستمر عملکرد سیستم های هوش مصنوعی و انطباق آنها با استانداردهای اخلاقی، فنی و امنیتی است. بر مبنای برآوردهای صورت گرفته، با ظهور تکنولوژی های جدید، بخصوص در حوزه هایی نظیر یادگیری عمیق، سیستم های خودمختار و تعاملات پیچیده انسان و ماشین، چارچوب های نظارتی به شکل مداوم بازبینی شده و به جنبه هایی همچون کاهش سوگیری های الگوریتمی، ارتقاء شفافیت در تصمیم گیری ها و افزایش نظارت انسانی توجه بیشتری خواهد شد. علاوه بر این، گویی کسب و کارها باید بشکلی فعال در فرآیندهای تدوین و بازبینی مقررات مشارکت داشته باشند و با استفاده از متخصصان حقوقی و فنی، اطمینان حاصل کنند که سیستم های هوش مصنوعی آنها ضمن رعایت قوانین، قابلیت پاسخگویی در مقابل چالش های پیشبینی نشده را دارند.


منبع:

1403/11/20
11:04:01
5.0 / 5
39
تگهای خبر: آموزش , اینترنت , تخصص , تكنولوژی
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۳
SEOc
seoc.ir - حقوق مادی و معنوی سایت سئو سی محفوظ است

سئو سی

فناوری اطلاعات و سئو