تنش بیسابقه میان آنتروپیک و پنتاگون بر سر هوش مصنوعی
به گزارش فانی لند به نقل از تجارت نیوز
آنتروپیک در برابر فشار پنتاگون برای دسترسی نظامی به مدلهای هوش مصنوعی مقاومت کرده؛ اختلافی که میتواند به اقدام حقوقی و استفاده از قانون تولید دفاعی منجر شود.
به گزارش تجارت نیوز، شرکت آنتروپیک با یکی از جدیترین چالشهای خود از زمان تأسیس روبهرو شده است؛ چالشی که مستقیماً به تقابل با دولت ایالات متحده و وزارت دفاع این کشور گره خورده است. بر اساس گزارشهای منتشرشده، پنتاگون در روزهای اخیر فشار خود را بر این شرکت هوش مصنوعی به شکل قابلتوجهی افزایش داده و خواستار دسترسی گسترده و بدون محدودیت ارتش آمریکا به مدلهای پیشرفته هوش مصنوعی آنتروپیک شده است. این درخواست با واکنش قاطع مدیران آنتروپیک مواجه شده و به بنبستی کمسابقه در رابطه دولت و شرکتهای پیشرو هوش مصنوعی انجامیده است.
طبق گزارش اکسیوس، مقامهای آمریکایی ضربالاجلی تعیین کردهاند که تا پایان شامگاه جمعه اعتبار دارد. در این اولتیماتوم، به آنتروپیک هشدار داده شده که یا باید دسترسی کامل نظامی به فناوری خود بدهد یا با پیامدهای سنگین حقوقی و نظارتی روبهرو شود. این هشدار در نشستی رسمی میان Dario Amodei مدیرعامل آنتروپیک و Pete Hegseth وزیر دفاع ایالات متحده مطرح شده است. در این جلسه، مقامهای پنتاگون بهصراحت اعلام کردهاند که در صورت عدم همکاری، گزینههای بسیار تهاجمی روی میز قرار دارد.
یکی از این گزینهها، معرفی آنتروپیک بهعنوان ریسک زنجیره تأمین است. این برچسب معمولاً برای شرکتها یا نهادهایی استفاده میشود که تهدیدی برای امنیت ملی آمریکا تلقی میشوند و اغلب به بازیگران خارجی یا دشمنان بالقوه نسبت داده میشود. گزینه دیگر، استفاده از Defense Production Act است؛ قانونی قدرتمند که به دولت فدرال اجازه میدهد شرکتهای خصوصی را وادار کند تولید یا خدمات خود را در راستای نیازهای دفاعی کشور اولویتبندی کنند.
قانون تولید دفاعی پیشتر در دوران همهگیری کرونا برای الزام شرکتهایی مانند جنرال موتورز و تری ام به تولید تجهیزات پزشکی مورد استفاده قرار گرفت. اما بهکارگیری این قانون در حوزه هوش مصنوعی، آن هم برای اجبار یک شرکت به تغییر سیاستهای اخلاقی و فنی خود، اقدامی بیسابقه تلقی میشود و میتواند مرزهای دخالت دولت در صنعت فناوری را بهطور اساسی جابهجا کند.
در مقابل، آنتروپیک موضع خود را بدون ابهام اعلام کرده است. این شرکت بارها تأکید کرده که اجازه استفاده از مدلهایش برای نظارت گسترده بر شهروندان آمریکایی یا توسعه سلاحهای کاملاً خودمختار را نخواهد داد. این اصول بخشی از چارچوب ایمنی و سیاستهای استفاده آنتروپیک است و مدیران شرکت نشان دادهاند که حتی در برابر فشار شدید دولت نیز حاضر به عقبنشینی از آن نیستند.
از دید پنتاگون، این رویکرد قابل قبول نیست. مقامهای وزارت دفاع استدلال میکنند که استفاده نظامی از فناوری باید تابع قوانین و سازوکارهای نظارتی ایالات متحده باشد، نه محدودیتهای اخلاقی تعیینشده توسط یک شرکت خصوصی. آنها معتقدند اجازه دادن به پیمانکاران برای تعیین خط قرمزهای مستقل، انعطافپذیری عملیاتی ارتش را تضعیف میکند و میتواند آمادگی دفاعی کشور را به خطر بیندازد.
کارشناسان حقوقی و سیاستگذاری اما نسبت به پیامدهای چنین برخوردی هشدار دادهاند. دین بال، پژوهشگر ارشد بنیاد نوآوری آمریکایی و مشاور سابق سیاست هوش مصنوعی در کاخ سفید، این وضعیت را نگرانکننده توصیف کرده است. بهگفته او، استفاده از قانون تولید دفاعی در این زمینه میتواند بهمنزله تنبیه یک شرکت بهدلیل دیدگاههای اخلاقی یا سیاسیاش تلقی شود و پیام منفی قدرتمندی به سرمایهگذاران و مدیران فناوری ارسال کند.
بال همچنین اشاره کرده که این مناقشه در بستر تنشهای ایدئولوژیک گستردهتری در دولت فعلی آمریکا شکل گرفته است. برخی مقامها، از جمله مشاوران سیاست هوش مصنوعی، رویکرد ایمنیمحور آنتروپیک را بیشازحد ایدئولوژیک میدانند. بهاعتقاد منتقدان، این نگاه باعث سیاسی شدن تصمیمات اجرایی و افزایش بیثباتی در تعامل دولت با صنعت فناوری شده است.
با وجود همه این فشارها، گزارش رویترز نشان میدهد که آنتروپیک قصدی برای تغییر سیاستهای خود ندارد. این شرکت در حال حاضر تنها آزمایشگاه پیشرفته هوش مصنوعی است که دسترسی طبقهبندیشده به وزارت دفاع آمریکا دارد. هرچند پنتاگون بهطور موازی در حال بررسی استفاده از سیستمهای دیگر مانند Grok است، اما هنوز جایگزینی کامل برای آنتروپیک در اختیار ندارد.
این وضعیت، وزارت دفاع را در موقعیتی حساس قرار داده است. خروج یا حذف آنتروپیک از زنجیره تأمین دفاعی میتواند خلأ عملیاتی فوری ایجاد کند؛ خلأیی که برخلاف دستورالعملهای امنیت ملی پیشین آمریکا، اتکای بیشازحد به یک تأمینکننده را تشدید میکند.
در آستانه پایان ضربالاجل، این رویارویی بیش از آنکه یک اختلاف قراردادی باشد، به نبردی سرنوشتساز میان قدرت حاکمیتی دولت و استقلال اخلاقی شرکتهای پیشرو هوش مصنوعی شباهت دارد. نتیجه این تقابل میتواند مسیر آینده رابطه میان دولتها و توسعهدهندگان هوش مصنوعی را برای سالها تعیین کند.
ثبت دیدگاه
آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *نظرات (0)
هیچ نظری ثبت نشده است.