پایان توهم قدرت هنجاری در زمانه هوش مصنوعی
تحولات اخیر اتحادیه اروپا در تعدیل بخشی از سختگیریهای قانون هوش مصنوعی (AI Act)، در نگاه نخست شاید صرفا یک بازنگری فنی یا انعطاف تقنینی در حوزه فناوری به نظر برسد؛ اما در واقع، آنچه امروز در بروکسل در حال وقوع است، نشانه تغییری عمیقتر در فهم اروپا از مفهوم «قدرت» در نظم جدید جهانی است. این تغییر نهفقط در حوزه اقتصاد و امنیت، بلکه در فلسفه حقوق فناوری اروپا نیز قابل مشاهده است.
به گزارش گروه رسانهای شرق،
کمیل احمدیلیوانی-پژوهشگر:
درآمد
تحولات اخیر اتحادیه اروپا در تعدیل بخشی از سختگیریهای قانون هوش مصنوعی (AI Act)، در نگاه نخست شاید صرفا یک بازنگری فنی یا انعطاف تقنینی در حوزه فناوری به نظر برسد؛ اما در واقع، آنچه امروز در بروکسل در حال وقوع است، نشانه تغییری عمیقتر در فهم اروپا از مفهوم «قدرت» در نظم جدید جهانی است. این تغییر نهفقط در حوزه اقتصاد و امنیت، بلکه در فلسفه حقوق فناوری اروپا نیز قابل مشاهده است. اروپا طی دو دهه گذشته تلاش کرده بود نوعی «قدرت هنجاری» را نمایندگی کند؛ قدرتی مبتنی بر حقوق بشر، حریم خصوصی، تنظیمگری، محیط زیست و استانداردهای حقوقی. برخلاف ایالات متحده که بخش مهمی از نفوذ جهانی خود را از قدرت نظامی، برتری فناورانه و سلطه شرکتهای بزرگ فناوری اخذ میکرد، اروپا کوشید از طریق «قدرت تنظیمگری» بر جهان اثر بگذارد. موفقیت نسبی مقررات عمومی حفاظت از دادهها (GDPR) نیز این تصور را در بروکسل تقویت کرده بود که اروپا حتی بدون در اختیار داشتن ابرپلتفرمهای جهانی، همچنان میتواند قواعد نظم دیجیتال را تعیین کند. اما امروز بهنظر میرسد اروپا با واقعیتی متفاوت مواجه شده است؛ واقعیتی که بخشی از آن در بحرانهای ژئوپلیتیکی سالهای اخیر و بخشی دیگر در رقابت جهانی هوش مصنوعی آشکار شد.
جنگهای جدید و آشکارشدن شکاف راهبردی غرب
جنگ اوکراین، تنشهای فزاینده خاورمیانه، اختلافات اقتصادی اروپا و آمریکا، تهدیدهای مکرر درباره آینده ناتو و حتی نحوه مواجهه واشنگتن با بحرانهای مرتبط با امنیت انرژی و تنگه هرمز، همگی برای اروپا حامل یک پیام مهم بودهاند: آمریکا دیگر مانند گذشته حاضر نیست بدون قیدوشرط هزینه نظم غرب را بپردازد. تنشهای مرتبط با ایران و آمریکا نیز این واقعیت را برای اروپا آشکارتر کرد. درواقع، جنگها و بحرانهای اخیر تنها رخدادهای امنیتی نبودند؛ بلکه نشانههای فرسایش یک تقسیم کار تاریخی در جهان غرب بودند؛ تقسیم کاری که در آن آمریکا قدرت سخت و اروپا قدرت نرم را نمایندگی میکرد. اروپا سالها میتوانست از موضع اخلاق، حقوق بشر، محیط زیست و تنظیمگری سخن بگوید، زیرا امنیت ژئوپلیتیکیاش تا حد زیادی توسط آمریکا تأمین میشد. اما امروز، با آشکارشدن شکافهای راهبردی میان دو سوی آتلانتیک، اروپا بهتدریج دریافته که دوران «قدرت هنجاری بدون هزینه ژئوپلیتیکی» رو به پایان است. این تغییر ذهنیت اکنون به حوزه حقوق فناوری و هوش مصنوعی نیز سرایت کرده است.
قانون هوش مصنوعی محصول عصر اروپای هنجارساز
قانون هوش مصنوعی اتحادیه اروپا از ابتدا صرفا یک قانون فناوری نبود؛ بلکه نوعی بیانیه سیاسی و حقوقی درباره آینده حکمرانی دیجیتال محسوب میشد. اروپا تلاش داشت در برابر مدل آمریکاییِ مبتنی بر آزادی عمل شرکتهای فناوری و مدل چینیِ مبتنی بر کنترل دولتی، مسیر سومی را طراحی کند؛ مسیری مبتنی بر حقوق بنیادین، شفافیت، مسئولیتپذیری و کنترل ریسک. به همین دلیل، AI Act بر مبنای «تنظیمگری مبتنی بر ریسک» طراحی شد. در این چارچوب، سیستمهای هوش مصنوعی به سطوح مختلف ریسک تقسیم شدند و برای سیستمهای پرخطر، تعهدات سنگینی مانند ارزیابی انطباق، مستندسازی فنی، نظارت انسانی، الزامات شفافیت و سازوکارهای مسئولیتپذیری پیشبینی شد. همچنین برخی کاربردها مانند امتیازدهی اجتماعی یا بعضی انواع شناسایی بیومتریک، در زمره سیستمهای «غیرقابل قبول» قرار گرفتند. این رویکرد، ادامه طبیعی سنت حقوق عمومی اروپایی بود؛ سنتی که در آن حفاظت از کرامت انسانی و حقوق شهروندان بر منطق بازار اولویت دارد. در واقع، اروپا تلاش داشت نشان دهد حتی در عصر هوش مصنوعی نیز میتوان توسعه فناوری را ذیل اصول حقوقبشری و اخلاقی کنترل کرد. اما چالش از جایی آغاز شد که اروپا با واقعیت اقتصاد سیاسی هوش مصنوعی مواجه شد.
بحران قدرت فناورانه و محدودیتهای تنظیمگری
در عمل، بخش عمده زیرساختهای جهانی هوش مصنوعی، مدلهای بنیادین، سرمایهگذاریها و اکوسیستم فناوری در اختیار بازیگران آمریکایی قرار دارد. شرکتهایی مانند OpenAI، Google و Microsoft نهفقط توسعهدهندگان اصلی مدلهای پیشرفته هوش مصنوعی هستند، بلکه بخش مهمی از زیرساخت راهبردی این فناوری را نیز کنترل میکنند. اروپا نه ابرپلتفرم جهانی در مقیاس آمریکایی دارد، نه زیرساخت ابری همسطح ایالات متحده و نه سرمایهگذاریهایی در اندازه رقبای خود. همین مسئله باعث شد بروکسل بهتدریج نگران شود که سختگیری بیش از حد در تنظیمگری، عملا به تضعیف بیشتر موقعیت فناورانه اروپا منجر شود.
از منظر حقوق فناوری، این نقطه بسیار مهم است؛ زیرا نشان میدهد تنظیمگری زمانی قابلیت اثرگذاری دارد که بر بستر قدرت اقتصادی و فناورانه استوار باشد. اروپا سالها تصور میکرد میتواند بدون سلطه فناورانه، اما از طریق قواعد حقوقی و استانداردهای اخلاقی، نظم دیجیتال جهان را شکل دهد. اما هوش مصنوعی نشان داد که در غیاب قدرت فناورانه، حتی پیشرفتهترین نظامهای حقوقی نیز با محدودیت مواجه میشوند. درواقع، اروپا اکنون با یک پرسش بنیادین مواجه شده است: چگونه میتوان سختگیرترین نظام تنظیمگری جهان را داشت، درحالیکه ابزار اصلی فناوری در اختیار دیگران است؟
گذار از تنظیمگری آرمانمحور به تنظیمگری بقامحور
در همین چارچوب است که باید تعدیلهای اخیر AI Act را تحلیل کرد. تعویق اجرای بخشی از الزامات مربوط به سیستمهای پرخطر، کاهش بار مقرراتی برای صنایع و حرکت تدریجی به سمت کدهای رفتاری داوطلبانه، همگی نشانههای یک تغییر مهماند. اتحادیه اروپا اکنون بیش از گذشته از مفاهیمی مانند رقابت، انطباقپذیری صنعتی، امنیت اقتصادی و حاکمیت فناورانه سخن میگوید. این تغییر صرفا تغییر واژگان سیاسی نیست، بلکه نشانه تغییر در فلسفه تنظیمگری اروپاست.
اروپا بهتدریج از «تنظیمگری آرمانمحور» به سمت نوعی «تنظیمگری بقامحور» حرکت میکند. در مدل قبلی، اولویت اصلی بر حفاظت از حقوق بنیادین و کنترل ریسک بود؛ اما در مدل جدید، حفظ رقابتپذیری فناورانه و جلوگیری از وابستگی راهبردی نیز به اولویتهای اصلی تبدیل شدهاند. این تحول از منظر حقوقی اهمیت زیادی دارد؛ زیرا نشان میدهد حقوق دیگر صرفا ابزار حمایت از شهروندان یا تنظیم بازار نیست، بلکه به بخشی از رقابت ژئوپلیتیکی قدرتها تبدیل شده است. در جهان جدید، قواعد حقوقی زمانی قابلیت اعمال و جهانیشدن دارند که بر بستر زیرساخت فناورانه، سرمایه و استقلال راهبردی استوار باشند.
پایان یک دوره تاریخی
آنچه امروز در اروپا در حال وقوع است، صرفا عقبنشینی از بخشی از سختگیریهای AI Act نیست. این تحولات، نشانه پایان دورهای است که اروپا میتوانست بدون تحمل هزینههای ژئوپلیتیکی، صرفا از موضع اخلاق، حقوق بشر و تنظیمگری درباره آینده جهان سخن بگوید. جنگها و بحرانهای اخیر، از اوکراین تا تنشهای خاورمیانه و شکافهای فزاینده میان اروپا و آمریکا، بهتدریج اروپا را متوجه این واقعیت کردهاند که دوران اتکای صرف به «قدرت هنجاری» رو به پایان است. در جهان هوش مصنوعی، قواعد حقوقی زمانی مؤثر خواهند بود که بر بستر قدرت فناورانه، سرمایه راهبردی و استقلال ژئوپلیتیکی استوار باشند. شاید مهمترین تحول عصر جدید حقوق فناوری نیز دقیقا همین باشد؛ اینکه مرز میان حقوق، فناوری، اقتصاد و ژئوپلیتیک، بیش از هر زمان دیگری در حال فروریختن است.