``
logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

علم و فناوری

تنش بی‌سابقه میان آنتروپیک و پنتاگون بر سر هوش مصنوعی‌

avatar
Author

نویسنده


  • 2026-02-25

به گزارش فانی لند به نقل از تجارت نیوز

آنتروپیک در برابر فشار پنتاگون برای دسترسی نظامی به مدل‌های هوش مصنوعی مقاومت کرده؛ اختلافی که می‌تواند به اقدام حقوقی و استفاده از قانون تولید دفاعی منجر شود.

به گزارش تجارت نیوز، شرکت آنتروپیک با یکی از جدی‌ترین چالش‌های خود از زمان تأسیس روبه‌رو شده است؛ چالشی که مستقیماً به تقابل با دولت ایالات متحده و وزارت دفاع این کشور گره خورده است. بر اساس گزارش‌های منتشرشده، پنتاگون در روزهای اخیر فشار خود را بر این شرکت هوش مصنوعی به شکل قابل‌توجهی افزایش داده و خواستار دسترسی گسترده و بدون محدودیت ارتش آمریکا به مدل‌های پیشرفته هوش مصنوعی آنتروپیک شده است. این درخواست با واکنش قاطع مدیران آنتروپیک مواجه شده و به بن‌بستی کم‌سابقه در رابطه دولت و شرکت‌های پیشرو هوش مصنوعی انجامیده است.

طبق گزارش اکسیوس، مقام‌های آمریکایی ضرب‌الاجلی تعیین کرده‌اند که تا پایان شامگاه جمعه اعتبار دارد. در این اولتیماتوم، به آنتروپیک هشدار داده شده که یا باید دسترسی کامل نظامی به فناوری خود بدهد یا با پیامدهای سنگین حقوقی و نظارتی روبه‌رو شود. این هشدار در نشستی رسمی میان Dario Amodei مدیرعامل آنتروپیک و Pete Hegseth وزیر دفاع ایالات متحده مطرح شده است. در این جلسه، مقام‌های پنتاگون به‌صراحت اعلام کرده‌اند که در صورت عدم همکاری، گزینه‌های بسیار تهاجمی روی میز قرار دارد.

یکی از این گزینه‌ها، معرفی آنتروپیک به‌عنوان ریسک زنجیره تأمین است. این برچسب معمولاً برای شرکت‌ها یا نهادهایی استفاده می‌شود که تهدیدی برای امنیت ملی آمریکا تلقی می‌شوند و اغلب به بازیگران خارجی یا دشمنان بالقوه نسبت داده می‌شود. گزینه دیگر، استفاده از Defense Production Act است؛ قانونی قدرتمند که به دولت فدرال اجازه می‌دهد شرکت‌های خصوصی را وادار کند تولید یا خدمات خود را در راستای نیازهای دفاعی کشور اولویت‌بندی کنند.

قانون تولید دفاعی پیش‌تر در دوران همه‌گیری کرونا برای الزام شرکت‌هایی مانند جنرال موتورز و تری ام به تولید تجهیزات پزشکی مورد استفاده قرار گرفت. اما به‌کارگیری این قانون در حوزه هوش مصنوعی، آن هم برای اجبار یک شرکت به تغییر سیاست‌های اخلاقی و فنی خود، اقدامی بی‌سابقه تلقی می‌شود و می‌تواند مرزهای دخالت دولت در صنعت فناوری را به‌طور اساسی جابه‌جا کند.

در مقابل، آنتروپیک موضع خود را بدون ابهام اعلام کرده است. این شرکت بارها تأکید کرده که اجازه استفاده از مدل‌هایش برای نظارت گسترده بر شهروندان آمریکایی یا توسعه سلاح‌های کاملاً خودمختار را نخواهد داد. این اصول بخشی از چارچوب ایمنی و سیاست‌های استفاده آنتروپیک است و مدیران شرکت نشان داده‌اند که حتی در برابر فشار شدید دولت نیز حاضر به عقب‌نشینی از آن نیستند.

از دید پنتاگون، این رویکرد قابل قبول نیست. مقام‌های وزارت دفاع استدلال می‌کنند که استفاده نظامی از فناوری باید تابع قوانین و سازوکارهای نظارتی ایالات متحده باشد، نه محدودیت‌های اخلاقی تعیین‌شده توسط یک شرکت خصوصی. آن‌ها معتقدند اجازه دادن به پیمانکاران برای تعیین خط قرمزهای مستقل، انعطاف‌پذیری عملیاتی ارتش را تضعیف می‌کند و می‌تواند آمادگی دفاعی کشور را به خطر بیندازد.

کارشناسان حقوقی و سیاست‌گذاری اما نسبت به پیامدهای چنین برخوردی هشدار داده‌اند. دین بال، پژوهشگر ارشد بنیاد نوآوری آمریکایی و مشاور سابق سیاست هوش مصنوعی در کاخ سفید، این وضعیت را نگران‌کننده توصیف کرده است. به‌گفته او، استفاده از قانون تولید دفاعی در این زمینه می‌تواند به‌منزله تنبیه یک شرکت به‌دلیل دیدگاه‌های اخلاقی یا سیاسی‌اش تلقی شود و پیام منفی قدرتمندی به سرمایه‌گذاران و مدیران فناوری ارسال کند.

بال همچنین اشاره کرده که این مناقشه در بستر تنش‌های ایدئولوژیک گسترده‌تری در دولت فعلی آمریکا شکل گرفته است. برخی مقام‌ها، از جمله مشاوران سیاست هوش مصنوعی، رویکرد ایمنی‌محور آنتروپیک را بیش‌ازحد ایدئولوژیک می‌دانند. به‌اعتقاد منتقدان، این نگاه باعث سیاسی شدن تصمیمات اجرایی و افزایش بی‌ثباتی در تعامل دولت با صنعت فناوری شده است.

با وجود همه این فشارها، گزارش رویترز نشان می‌دهد که آنتروپیک قصدی برای تغییر سیاست‌های خود ندارد. این شرکت در حال حاضر تنها آزمایشگاه پیشرفته هوش مصنوعی است که دسترسی طبقه‌بندی‌شده به وزارت دفاع آمریکا دارد. هرچند پنتاگون به‌طور موازی در حال بررسی استفاده از سیستم‌های دیگر مانند Grok است، اما هنوز جایگزینی کامل برای آنتروپیک در اختیار ندارد.

این وضعیت، وزارت دفاع را در موقعیتی حساس قرار داده است. خروج یا حذف آنتروپیک از زنجیره تأمین دفاعی می‌تواند خلأ عملیاتی فوری ایجاد کند؛ خلأیی که برخلاف دستورالعمل‌های امنیت ملی پیشین آمریکا، اتکای بیش‌ازحد به یک تأمین‌کننده را تشدید می‌کند.

در آستانه پایان ضرب‌الاجل، این رویارویی بیش از آنکه یک اختلاف قراردادی باشد، به نبردی سرنوشت‌ساز میان قدرت حاکمیتی دولت و استقلال اخلاقی شرکت‌های پیشرو هوش مصنوعی شباهت دارد. نتیجه این تقابل می‌تواند مسیر آینده رابطه میان دولت‌ها و توسعه‌دهندگان هوش مصنوعی را برای سال‌ها تعیین کند.


ثبت دیدگاه

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نظرات (0)

هیچ نظری ثبت نشده است.


اشتراک گذاری