Această săptămână, Securonix a introdus Sam, Analistul SOC AI, și Agentic Mesh în colaborare cu Amazon Web Services. Titlul nu este o altă funcționalitate AI. Este o trecere la un Model AI Bazat pe Productivitate.
Ați văzut vreodată echipa SOC înecându-se în alerte în timp ce consiliul de administrație solicită „un ROI clar al AI"?
Imaginați-vă asta.
Este ora 8:45 dimineața. CISO se alătură unei pre-ședințe a consiliului. Alertele de peste noapte au depășit 40.000. Doi analiști au sunat să anunțe că sunt bolnavi. Un regulator a solicitat dovezi ale guvernanței AI. Departamentul financiar dorește justificare pentru creșterea cheltuielilor SIEM.
Echipa folosește AI. Dar nu pot dovedi ce a livrat de fapt.
Aceasta este lacuna pe care Securonix o vizează cu cea mai recentă lansare în colaborare cu Amazon Web Services. Compania a introdus Sam, Analistul SOC AI, și Securonix Agentic Mesh—împreună cu un model AI bazat pe productivitate pentru operațiunile de securitate.
Pentru liderii CX și EX, aceasta nu este doar o știre de securitate cibernetică. Este un plan pentru AI guvernat la scară largă.
Un model AI bazat pe productivitate măsoară AI prin munca finalizată, nu prin utilizare sau datele consumate.
Majoritatea prețurilor AI enterprise urmăresc token-uri, stocare sau funcționalități. Acel model recompensează consumul. Rareori dovedește rezultate.
Securonix inversează această logică.
Sam este licențiat pe baza muncii echivalente analist verificate finalizate de AI. Productivitatea este urmărită transparent. Liderii pot cuantifica orele economisite și câștigul în randament.
Pentru liderii CX și EX, aceasta recadrează valoarea AI:
Această schimbare reflectă ceea cu ce se confruntă liderii CX în privința AI de parcurs și copiloți. Consiliul nu dorește statistici de utilizare a chatbot-ului. Dorește rate de deflectare, reducerea timpului de rezolvare și îmbunătățirea costului de serviciu.
Securitatea vorbește acum aceeași limbă.
Sam este un coechipier digital SOC guvernat, mereu activ, care automatizează munca de Nivelul 1 și Nivelul 2 în cadrul SIEM Unified Defense.
Sam efectuează:
Operează nativ în cadrul platformei Securonix. Analiștii rămân în control prin supraveghere human-in-the-loop.
Mulți copiloți AI asistă. Puțini operează ca sisteme structurate de lucru. Sam orchestrează agenți AI specializați pe parcursul etapelor de investigație. Prezintă rezumate în limbaj simplu pe care analiștii le pot valida sau escalada.
Rezultatul: AI augmentează judecata. Nu o înlocuiește.
Deoarece majoritatea implementărilor AI se scalează mai rapid decât cadrele de control.
Liderii de securitate se confruntă cu trei tensiuni:
Consiliile pun acum întrebări mai dificile:
AI nestructurat nu poate răspunde la acestea.
Aici intră Securonix Agentic Mesh.
Agentic Mesh este un strat de orchestrare guvernat care coordonează agenți AI specializați în detectare, investigație, răspuns și raportare.
Spre deosebire de asistenții monolitici, Agentic Mesh funcționează ca un sistem de lucru.
Acesta:
Construit folosind Amazon Bedrock AgentCore, rulează în siguranță în cadrul mediilor clienților. Aceasta oferă izolare și reziliență de nivel enterprise.
Copiloții răspund la întrebări.
Sistemele agentice finalizează fluxuri de lucru guvernate.
Acea distincție schimbă maturitatea AI enterprise.
Liderii de securitate operează din ce în ce mai mult sub supravegherea consiliului. AI trebuie să dovedească încredere, nu să o promită.
Conform lui Sameer Ratolikar, CISO la HDFC Bank:
Simon Hunt, Chief Product Officer la Securonix, încadrează provocarea clar:
Pentru conversațiile cu consiliul, AI bazat pe productivitate permite:
DPM Flex rutează telemetria pe baza valorii analitice mai degrabă decât pe volumul brut pentru a controla costurile SIEM.
Productivitatea AI se prăbușește dacă costurile datelor cresc vertiginos.
Data Pipeline Manager cu Flex Consumption (DPM Flex) introduce economia datelor orientată spre rezultate. În loc să ingere totul, prioritizează telemetria de mare valoare.
Pentru paralele CX:
Guvernanța costurilor face parte din guvernanța AI.
1. Măsurați AI prin munca finalizată.
Metricile de adopție înseamnă puțin fără metricile de rezultate.
2. Încorporați guvernanța în cadrul sistemului.
Conformitatea retroactivă este fragilă.
3. Protejați supravegherea umană.
AI se scalează cel mai bine când augmentează judecata.
4. Aliniați AI cu narațiunile financiare.
Consiliile aprobă rezultate, nu experimentare.
5. Controlați economia datelor devreme.
Scalarea AI fără disciplină a costurilor creează reacții negative.
Aceste capcane creează fragmentare. Erodează încrederea executivă.
CXQuest propune Modelul PRODUCT pentru scalarea AI enterprise:
P – Productivity Units Defined (Unități de Productivitate Definite)
Definiți echivalente de muncă măsurabile.
R – Risk Guardrails Embedded (Bariere de Risc Încorporate)
Aplicați politica în cadrul fluxurilor de lucru.
O – Oversight Maintained (Supraveghere Menținută)
Păstrați oamenii în controlul escaladării.
D – Data Economics Managed (Economia Datelor Gestionată)
Aliniați ingestia cu valoarea analitică.
U – Use Case Boundaries Clear (Limitele Cazurilor de Utilizare Clare)
Începeți cu muncă definită, de mare volum.
C – Context Shared Across Agents (Context Partajat între Agenți)
Evitați asistenții AI izolați.
T – Transparent Reporting to Leadership (Raportare Transparentă către Conducere)
Traduceți rezultatele în limbaj financiar.
Securonix operaționalizează multe dintre aceste principii în cadrul operațiunilor de securitate. Echipele CX pot adapta aceeași structură.
Epuizarea analiștilor reflectă oboseala centrelor de contact.
Munca repetitivă de triaj determină atriție.
Lipsa de vizibilitate asupra impactului reduce angajamentul.
Prin absorbirea zgomotului de Nivelul 1 și Nivelul 2, Sam permite analiștilor să se concentreze pe apeluri de judecată cu risc mai mare.
AI ar trebui să elimine corvada, nu autonomia.
Securitatea adesea pionierează cadre de guvernanță înainte ca CX să le adopte.
Mutarea către orchestrarea AI agentică sugerează că următoarea fază AI enterprise se va concentra pe:
Consiliile vor întreba din ce în ce mai mult:
Câtă muncă a finalizat AI?
A fost controlată?
O putem apăra?
Acest model răspunde direct la acele întrebări.
Leagă costul de munca verificată finalizată mai degrabă decât de utilizarea datelor sau funcționalități.
Se referă la sistemele AI care coordonează agenți specializați pentru a finaliza fluxuri de lucru structurate.
Analiștii revizuiesc, validează sau inversează acțiunile generate de AI înainte de execuție.
Eșecurile de securitate comportă risc reglementar și financiar. Deciziile AI trebuie să fie explicabile.
Da. Orice flux de lucru de mare volum, bazat pe reguli, poate adopta măsurarea AI bazată pe productivitate.
Sam, Analistul SOC AI, Agentic Mesh și DPM Flex sunt disponibile global pentru clienții Securonix.
Schimbarea mai profundă este clară.
AI trebuie să facă muncă reală.
Trebuie să fie guvernat prin design.
Și valoarea sa trebuie să reziste în sala consiliului.
Postarea Model AI Bazat pe Productivitate: Cum Redefinește Securonix AI Guvernat pentru Rezultatele SOC a apărut prima dată pe CX Quest.

