» فناوری اطلاعات و اینترنت » سم آلتمن: قرارداد اوپن‌ای‌آی با پنتاگون عجولانه بود

سم آلتمن: قرارداد اوپن‌ای‌آی با پنتاگون عجولانه بود

اسفند ۱۱, ۱۴۰۴ 008

به گزارش خبرآنلاین، پس از آن که مذاکرات بین شرکت «آنتروپیک»(Anthropic) و پنتاگون برای جلوگیری از استفاده وزارت دفاع آمریکا از مدل‌های هوش مصنوعی آن به منظور نظارت گسترده داخلی یا به‌کارگیری سلاح‌های کاملاً خودمختار به نتیجه نرسید، «دونالد ترامپ» رئیس‌جمهور آمریکا به آژانس‌های فدرال دستور داد تا استفاده از همه محصولات آنتروپیک را متوقف کنند و «پیت هگست»(Pete Hegseth) وزیر دفاع آمریکا گفت که این شرکت را به عنوان یک تهدید برای زنجیره تأمین معرفی می‌کند.

به نقل از ایسنا، به دنبال این اتفاقات شرکت «اوپن‌ای‌آی»(OpenAI) به سرعت اعلام کرد که برای استقرار مدل‌های هوش مصنوعی خود در محیط‌های طبقه‌بندی‌شده به توافق رسیده است. با توجه به این که آنتروپیک اعلام کرد خطوط قرمزی را درباره استفاده از فناوری خود در سلاح‌های کاملاً خودمختار یا نظارت گسترده داخلی ترسیم می‌کند و «سم آلتمن»(Sam Altman) مدیرعامل اوپن‌ای‌آی گفت که این شرکت نیز همین خطوط قرمز را دارد، چند پرسش واضح مطرح می‌شود. آیا اوپن‌ای‌آی درباره اقدامات حفاظتی خود صادق بوده است؟ چرا اوپن‌ای‌آی توانست به توافق برسد، در حالی که آنتروپیک این کار را نکرد؟

آلتمن اعتراف کرد که قرارداد اوپن‌ای‌آی با وزارت دفاع آمریکا قطعاً عجولانه بوده است و به نظر می‌رسد اوضاع خوب نیست.

هم‌زمان با دفاع مدیران اوپن‌ای‌آی از این توافق در رسانه‌های اجتماعی، این شرکت یک پست جدید نیز منتشر کرد که در آن رویکرد خود را تشریح کرده بود.

اوپن‌ای‌آی در این پست به سه حوزه اشاره کرد که مدل‌های این شرکت نمی‌توانند در آنها مورد استفاده قرار بگیرند. این حوزه‌ها عبارتند از نظارت گسترده‌ داخلی، سیستم‌های سلاح‌های خودکار و تصمیم‌های خودکار با ریسک بالا مانند سیستم‌های اعتبار اجتماعی.

این شرکت اعلام کرد برخلاف سایر شرکت‌های هوش مصنوعی که حفاظت‌های ایمنی خود را کاهش داده یا حذف کرده‌اند و عمدتاً به سیاست‌های استفاده به عنوان حفاظ‌های اصلی خود در استقرار امنیت ملی متکی بوده‌اند، توافق اوپن‌ای‌آی خطوط قرمز آن را از طریق یک رویکرد گسترده‌تر و چندلایه‌تر محافظت می‌کند.

در این پست آمده است: ما اختیار کامل خود را درباره مجموعه امنیتی خود حفظ می‌کنیم و از طریق فضای ابری مستقر می‌شویم. پرسنل دارای مجوز اوپن‌ای‌آی در جریان امور هستند و از حمایت‌های قراردادی قوی برخورداریم. همه این‌ها علاوه بر حمایت‌های قوی موجود در قانون است.

این شرکت در ادامه نوشت: ما نمی‌دانیم چرا شرکت آنتروپیک نتوانست به این توافق برسد و امیدواریم که آنها و آزمایشگاه‌های (هوش مصنوعی) بیشتری این موضوع را بررسی کنند.

پس از انتشار این پست، «مایک ماسنیک»(Mike Masnick)، بنیان‌گذار وبلاگ فناوری «تکدرت»(Techdirt) ادعا کرد که این توافق قطعاً اجازه نظارت داخلی را می‌دهد، زیرا می‌گوید جمع‌آوری داده‌های خصوصی با فرمان اجرایی ۱۲۳۳۳ همراه با تعدادی از قوانین دیگر مطابقت دارد. 

فرمان اجرایی ۱۲۳۳۳ با هدف گسترش اختیارات و مسئولیت‌های سازمان‌های اطلاعاتی آمریکا و دستور به رهبران سازمان‌های فدرال این کشور به منظور همکاری کامل با درخواست‌های سی‌آی‌ای برای انتشار اطلاعات صادر شده است.

«کاترینا مولیگان»(Katrina Mulligan)، رئیس بخش مشارکت‌های امنیت ملی اوپن‌ای‌آی در یک پست لینکدین نوشت: بخش عمده‌ای از بحث پیرامون متن قرارداد، فرض را بر این می‌گذارد که تنها مانع بین آمریکایی‌ها و استفاده از هوش مصنوعی برای نظارت گسترده داخلی و سلاح‌های خودمختار، یک بند از سیاست استفاده واحد در یک قرارداد واحد با وزارت جنگ است.

مولیگان در ادامه نوشت: هیچ‌کدام از این‌ موارد به این‌ صورت کار نمی‌کنند. ساختار استقرار بیش از زبان قرارداد اهمیت دارد. با محدود کردن استقرارمان به API فضای ابری می‌توانیم اطمینان حاصل کنیم که مدل‌های ما نمی‌توانند مستقیماً در سیستم‌های تسلیحاتی، حسگرها یا سایر سخت‌افزارهای عملیاتی ادغام شوند.

آلتمن گفت: ما واقعاً می‌خواستیم اوضاع را آرام کنیم و فکر می‌کردیم معامله‌ پیشنهادی خوب است. اگر حق با ما باشد و این کار به آرام شدن تنش بین وزارت کار و صنعت کمک کند، ما نابغه‌ای به نظر خواهیم رسید که برای کمک به صنعت زحمات زیادی کشیده است. اگر این طور نباشد، ما همچنان به عنوان یک شرکت عجول و بی‌دقت توصیف خواهیم شد.

5858

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×