آنتروپیک روز پنجشنبه اعلام کرد که با شرکت تحلیل داده پالانتیر و Amazon Web Services (AWS) همکاری میکند تا دسترسی آژانسهای اطلاعاتی و دفاعی ایالات متحده به مدلهای هوش مصنوعی خانواده کلود (Claude) را فراهم کند.
این خبر در شرایطی منتشر شده است که تعداد رو به افزایشی از فروشندگان هوش مصنوعی به دنبال انعقاد قراردادهایی با مشتریان حوزه دفاعی آمریکا برای اهداف استراتژیک و مالی هستند. اخیراً متا نیز اعلام کرده است که مدلهای لاما (Llama) خود را برای همکاری با شرکای دفاعی در دسترس قرار میدهد، و OpenAI نیز در تلاش است تا رابطه نزدیکتری با وزارت دفاع آمریکا ایجاد کند.
مدیر فروش آنتروپیک، کیت ایرل جنسن، اظهار داشت که همکاری این شرکت با پالانتیر و AWS باعث میشود که مدل کلود به صورت عملیاتی در پلتفرم پالانتیر، با استفاده از میزبانی AWS، مورد استفاده قرار گیرد. کلود از ابتدای این ماه در پلتفرم پالانتیر در دسترس بوده و اکنون میتواند در محیط دفاعی معتبر پالانتیر با سطح تاثیر ۶ (IL6) استفاده شود.
سطح IL6 در وزارت دفاع به سیستمهایی اختصاص دارد که حاوی اطلاعات حیاتی برای امنیت ملی هستند و نیاز به «حداکثر حفاظت» در برابر دسترسی و دستکاری غیرمجاز دارند. اطلاعات در سیستمهای IL6 میتواند تا سطح «محرمانه» باشد، که یک مرحله پایینتر از سطح فوق محرمانه است.
جنسن بیان کرد: «ما مفتخریم که در پیشروی ارائه راهکارهای هوش مصنوعی مسئولانه در محیطهای طبقهبندی شده ایالات متحده هستیم و قابلیتهای تحلیلی و کارآیی عملیاتی را در عملیاتهای حیاتی دولتی ارتقا میدهیم. دسترسی به کلود در پلتفرم پالانتیر بر روی AWS، ابزارهای قدرتمند هوش مصنوعی را در اختیار سازمانهای دفاعی و اطلاعاتی ایالات متحده قرار میدهد که میتواند به سرعت حجم زیادی از دادههای پیچیده را پردازش و تحلیل کند. این کار به طور چشمگیری تحلیل اطلاعات را بهبود میبخشد و در فرایند تصمیمگیری مقامات، تسریع وظایف سنگین و افزایش بهرهوری عملیاتی در بخشهای مختلف کمک میکند.»
این تابستان، آنتروپیک مدلهای منتخب کلود را به AWS GovCloud آورد که نشان از هدف این شرکت برای گسترش پایگاه مشتریان خود در بخش دولتی دارد. GovCloud سرویس AWS برای نیازهای پردازش ابری دولت آمریکا است.
آنتروپیک خود را به عنوان فروشندهای با تمرکز بیشتر بر ایمنی نسبت به OpenAI معرفی کرده است. اما شرایط خدمات این شرکت اجازه میدهد که محصولات آن برای وظایفی مانند «تحلیل اطلاعاتی خارجی مجاز قانونی»، «شناسایی کمپینهای نفوذ پنهان یا خرابکاری» و «ارائه هشدار در مورد فعالیتهای نظامی احتمالی» استفاده شود.
آنتروپیک در شرایط استفاده خود بیان میکند که “[ما] محدودیتهای استفاده را متناسب با مأموریت و مجوزهای قانونی هر نهاد دولتی” تنظیم میکنیم، بر اساس عواملی مانند “میزان تمایل آژانس به تعامل مداوم.” این شرایط، به گفته آنتروپیک، برای سیستمهای هوش مصنوعی که “به طور قابل توجهی خطر سوءاستفاده فاجعهبار را افزایش میدهند”، دارای “قابلیتهای خودکار در سطح پایین” هستند، یا میتوانند برای کمپینهای اطلاعات نادرست، طراحی یا استقرار سلاح، سانسور، نظارت داخلی و عملیات سایبری مخرب استفاده شوند، اعمال نمیشود.
آژانسهای دولتی به هوش مصنوعی علاقهمند هستند. تحلیل مؤسسه بروکینگز در مارس ۲۰۲۴ نشان داد که قراردادهای دولتی مرتبط با هوش مصنوعی ۱۲۰۰ درصد افزایش یافته است. با این حال، برخی شاخهها مانند ارتش آمریکا در پذیرش این فناوری کند عمل کردهاند و هنوز نسبت به بازگشت سرمایه آن تردید دارند.
گفته میشود که آنتروپیک که اخیراً به اروپا گسترش یافته است، در حال مذاکره برای جذب سرمایه جدیدی با ارزشگذاری تا ۴۰ میلیارد دلار است. این شرکت تاکنون حدود ۷.۶ میلیارد دلار سرمایه جذب کرده است که شامل تعهدات آینده نیز میشود. آمازون تا کنون بزرگترین سرمایهگذار این شرکت بوده است.
نظر شما در مورد این مطلب چیه؟
ارسال دیدگاه