پیشنهاد جدید به CISOها، تیمهای امنیتی و MSSPها امکان میدهد تا هوش مصنوعی را برای تجزیه و تحلیل تهدیدات، پاسخ به حوادث و انطباق مستقر کنند—بدون اینکه دادههای حساس را در معرض مدلهای عمومی قرار دهند
— LLM.co، ارائهدهنده زیرساخت مدل زبان بزرگ (LLM) خصوصی برای صنایع تنظیمشده و حساس به داده، امروز راهاندازی راهکارهای LLM خصوصی طراحیشده بهطور خاص برای امنیت سایبری خود را اعلام کرد. این پیشنهاد جدید به سازمانها اجازه میدهد تا هوش مصنوعی را در عملیات امنیتی به کار گیرند در حالی که دادههای حساس به طور کامل در محیط خودشان محفوظ میماند.
همانطور که تیمهای امنیت سایبری به طور فزایندهای با هوش مصنوعی آزمایش میکنند تا تشخیص، پاسخ و کارایی عملیاتی را بهبود بخشند، بسیاری با یک مانع اساسی مواجه هستند: مدلهای هوش مصنوعی عمومی با الزامات امنیتی، انطباق و حاکمیت داده ناسازگار هستند. لاگها، هشدارها، دادههای حوادث و مواد تحقیقاتی نمیتوانند به طور ایمن با پلتفرمهای هوش مصنوعی شخص ثالث به اشتراک گذاشته شوند بدون اینکه ریسک غیرقابل قبولی معرفی کنند.
زیرساخت LLM خصوصی LLM.co این چالش را با فعال کردن استقرارهای هوش مصنوعی کاملاً ایزوله—در محل، در محیطهای ابری خصوصی، یا در پیکربندیهای ترکیبی—بدون اینکه دادهها هرگز از کنترل سازمان خارج شوند، مورد توجه قرار میدهد.
"تیمهای امنیتی دستاوردهای بهرهوری که هوش مصنوعی ارائه میدهد را میخواهند، اما نمیتوانند در حفاظت از دادهها مصالحه کنند"، ساموئل ادواردز، مدیر ارشد بازاریابی در LLM.co گفت. "LLMهای خصوصی آن مصالحه را از بین میبرند. این درباره دادن قابلیتهای هوش مصنوعی مدرن به تیمهای امنیت سایبری است بدون ایجاد سطوح حمله جدید یا مسئولیتهای انطباق."
ساختهشده برای گردشهای کاری امنیت سایبری پرخطر
LLMهای خصوصی LLM.co برای پشتیبانی از عملیات امنیتی دنیای واقعی طراحی شدهاند، از جمله:
برخلاف ابزارهای هوش مصنوعی عمومی، مدلهای LLM.co بر روی دادههای مشتری آموزش داده نمیشوند، درخواستها را به صورت خارجی ثبت نمیکنند و کاملاً در محیطهای کنترلشده عمل میکنند.
"از منظر درآمد و ورود به بازار، ما تقاضای قوی از سازمانهایی را میبینیم که قبلاً ریسکهای هوش مصنوعی عمومی را درک میکنند"، تیموتی کارتر، مدیر ارشد درآمد در LLM.co گفت. "CISOها نمیپرسند که آیا هوش مصنوعی در امنیت استفاده خواهد شد—آنها میپرسند چگونه آن را به طور ایمن مستقر کنند. LLMهای خصوصی به سرعت در حال تبدیل شدن به پاسخ پیشفرض هستند."
طراحیشده برای کنترل سازمانی و انطباق
استقرارهای LLM متمرکز بر امنیت سایبری LLM.co از الزامات حاکمیتی سختگیرانه پشتیبانی میکنند، شامل سیاستهای امنیتی داخلی و چارچوبهای انطباق صنعتی مانند SOC 2، ISO 27001، HIPAA، CJIS و سایر استانداردهای نظارتی. سازمانها کنترل کامل بر دسترسی به داده، نگهداری، رفتار مدل و مجوزهای کاربر را حفظ میکنند.
"گفتگوهای فروش در امنیت سایبری اساساً درباره اعتماد و کنترل است"، اریک لامانا، معاون فروش در LLM.co گفت. "LLMهای خصوصی به رهبران امنیتی اجازه میدهند با ابتکارات هوش مصنوعی پیش بروند بدون اینکه ریسک را به سمت حقوقی، انطباق یا هیئت مدیره هل دهند. آن همراستایی برای پذیرش حیاتی است."
خدمات به سازمانها، MSSPها و صنایع تنظیمشده
پیشنهاد LLM خصوصی برای موارد زیر طراحی شده است:
LLM.co با استکهای امنیتی و گردشهای کاری موجود یکپارچه میشود و به تیمها اجازه میدهد هوش مصنوعی را بدون مختل کردن کنترلها یا فرآیندهای تثبیتشده مستقر کنند.
تغییر گستردهتر به سمت هوش مصنوعی خصوصی و خاص حوزه
این راهاندازی منعکسکننده یک تغییر گستردهتر صنعت از هوش مصنوعی عمومی چندمنظوره به سمت LLMهای خصوصی و خاص حوزه متناسب با موارد استفاده پرخطر است. با شتاب گرفتن پذیرش هوش مصنوعی، سازمانها به طور فزایندهای معماریهایی را که قابلیت را با کنترل متعادل میکنند، اولویتبندی میکنند.
"امنیت سایبری یکی از واضحترین نمونههای جایی است که هوش مصنوعی خصوصی اختیاری نیست—ضروری است"، ادواردز افزود. "این راهاندازی آنچه را که بسیاری از رهبران امنیتی قبلاً میدانند رسمی میکند: اگر هوش مصنوعی به دادههای امنیتی حساس دست بزند، باید از نظر طراحی خصوصی باشد."
درباره LLM.co
ایجادشده توسط DEV.co، LLM.co زیرساخت مدل زبان بزرگ خصوصی و ایمن را برای سازمانهایی که در محیطهای تنظیمشده و حساس به داده فعالیت میکنند، ارائه میدهد. این شرکت در استقرار سیستمهای هوش مصنوعی که انطباق، کنترل و امنیت سطح سازمانی را اولویتبندی میکنند تخصص دارد—که به تیمها امکان میدهد از هوش مصنوعی بهرهمند شوند بدون اینکه اطلاعات اختصاصی یا حساس را در معرض قرار دهند.
اطلاعات تماس:
نام: ساموئل ادواردز
ایمیل: ارسال ایمیل
سازمان: Digital.Marketing
وبسایت: https://digital.marketing
شناسه انتشار: 89182243
اگر هرگونه مسئله، مشکل یا خطایی در محتوای این بیانیه مطبوعاتی شناسایی کردید، لطفاً با [email protected] تماس بگیرید تا ما را مطلع کنید (توجه داشته باشید که این ایمیل کانال مجاز برای چنین مواردی است، ارسال ایمیلهای متعدد به آدرسهای مختلف لزوماً به تسریع درخواست شما کمک نمیکند). ما در ۸ ساعت آینده پاسخ خواهیم داد و وضعیت را اصلاح خواهیم کرد.

