Eticheta „risc în lanțul de aprovizionare", confirmată într-o declarație de către Anthropic, intră în vigoare imediat și interzice contractorilor guvernamentali să utilizeze tehnologia AnthropicEticheta „risc în lanțul de aprovizionare", confirmată într-o declarație de către Anthropic, intră în vigoare imediat și interzice contractorilor guvernamentali să utilizeze tehnologia Anthropic

Pentagonul desemnează Anthropic drept risc în lanțul de aprovizionare

2026/03/06 12:51
4 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la [email protected]

Pentagonul a aplicat joi, 5 martie, o desemnare formală de risc în lanțul de aprovizionare laboratorului de inteligență artificială Anthropic, limitând utilizarea unei tehnologii care, conform unei surse, era folosită pentru operațiuni militare în Iran.

Eticheta de „risc în lanțul de aprovizionare", confirmată într-o declarație de către Anthropic, este efectivă imediat și interzice contractorilor guvernamentali să folosească tehnologia Anthropic în lucrul lor pentru armata SUA.

Dar companiile pot în continuare să folosească Claude de la Anthropic în alte proiecte fără legătură cu Pentagonul, a scris CEO-ul Dario Amodei în declarație. El a spus că desemnarea are „un scop restrâns" și că restricțiile se aplică doar utilizării AI Anthropic în contractele Pentagonului.

„Se aplică în mod clar doar utilizării Claude de către clienți ca parte directă a contractelor cu Departamentul de Război, nu toată utilizarea Claude de către clienții care au astfel de contracte."

Desemnarea de risc urmează unui diferend de câteva luni privind insistența companiei asupra măsurilor de protecție pe care Departamentul Apărării, pe care administrația Trump îl numește Departamentul de Război, a spus că au mers prea departe. În declarația sa, Amodei a reiterat că compania va contesta desemnarea în instanță.

În ultimele zile, Anthropic și Pentagonul au discutat posibile planuri pentru ca Pentagonul să înceteze utilizarea Claude, a spus Amodei în declarația de joi. Cele două părți au vorbit despre cum ar putea Anthropic să lucreze în continuare cu armata fără a demonta măsurile sale de protecție, a adăugat el.

Cu toate acestea, într-o postare pe X joi seara, Directorul Tehnologic al Pentagonului, Emil Michael, a spus că nu există nicio negociere activă a Departamentului Apărării cu Anthropic.

Amodei s-a scuzat, de asemenea, pentru un memorandum intern publicat miercuri de site-ul de știri tehnologice The Information. În memorandum, scris inițial vinerea trecută, Amodei a spus că oficialii Pentagonului nu apreciază compania parțial pentru că „nu am oferit laude în stil dictatorial lui Trump."

Publicarea memorandumului intern a venit în timp ce investitorii Anthropic se grăbeau să limiteze daunele cauzate de conflictul companiei cu Pentagonul.

Departamentul Apărării nu a răspuns imediat solicitărilor de comentarii.

Acțiunea a reprezentat o mustrare extraordinară din partea Statelor Unite împotriva unei companii americane de tehnologie care a fost mai devreme decât rivalii săi în lucrul cu Pentagonul. Acțiunea vine în timp ce departamentul continuă să se bazeze pe tehnologia Anthropic pentru a oferi suport pentru operațiuni militare, inclusiv în Iran, conform unei persoane familiare cu problema.

Claude este probabil utilizat pentru a analiza informații și a asista cu planificarea operațională.

Un purtător de cuvânt Microsoft a spus că avocații companiei au studiat desemnarea și au concluzionat că: „Produsele Anthropic, inclusiv Claude, pot rămâne disponibile clienților noștri — alții decât Departamentul de Război — prin platforme precum M365, GitHub și Microsoft AI Foundry."

Microsoft poate continua să lucreze cu Anthropic la proiecte care nu sunt legate de apărare, a adăugat purtătorul de cuvânt.

Amazon, un investitor în Anthropic și un client semnificativ al modelului Claude al companiei, nu a răspuns imediat la o solicitare de comentarii în afara orelor normale de lucru.

Maven Smart Systems de la Palantir – o platformă software care furnizează armatelor analiză de informații și țintire a armelor – folosește multiple prompturi și fluxuri de lucru care au fost construite folosind codul Claude al Anthropic, a raportat anterior Reuters.

Anthropic a fost cel mai agresiv dintre rivalii săi în curtarea oficialilor de securitate națională ai SUA. Dar compania și Pentagonul au fost în dezacord de luni de zile cu privire la modul în care armata poate folosi tehnologia sa pe câmpul de luptă. Acest conflict a erupt în vizualizarea publică la începutul acestui an.

Anthropic a refuzat să renunțe la interdicțiile pentru AI-ul său Claude de a alimenta arme autonome și supraveghere în masă a SUA. Pentagonul a ripostat, spunând că ar trebui să poată folosi această tehnologie după cum este necesar, atâta timp cât respectă legea SUA.

Eticheta de „risc în lanțul de aprovizionare" îi conferă acum lui Anthropic un statut pe care Washington până acum l-a folosit de obicei pentru adversarii străini. O acțiune similară a SUA a fost luată pentru a elimina gigantul tehnologic chinez Huawei din lanțurile de aprovizionare ale Pentagonului. – Rappler.com

Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează [email protected] pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.