Tormilise 120 minuti jooksul, mis on saatnud šokilaineid läbi Silicon Valley ja Washingtoni võimukoridoride, on föderaalvalitsuse suhe tehisintellektitööstusega jõudnud ajaloolise murdepunktini. Pärast president Donald Trumpi keskpäevast teadet Truth Socialis, milles kuulutati välja Anthropicu toodete täielik keeld föderaalvalitsuses, eskaleeris kaitseminister Pete Hegseth olukorda veelgi. Pärastlõunaks määras kaitseministeerium (DoD) Anthropicu ametlikult „tarneahela riskiks“.
See samm tähistab radikaalset eemaldumist varasematest administratiivsetest seisukohtadest kodumaiste AI-firmade suhtes. Kuigi valitsus on ajalooliselt reserveerinud sellised määratlused välismaistele üksustele — eelkõige Hiina telekommunikatsioonihiidudele —, siis selle sildi omistamine San Franciscos asuvale ettevõttele, mida toetavad miljardid dollarid Ameerika riskikapitali, tähistab uut regulatiivse volatiilsuse ajastut. Anthropic on juba andnud märku kavatsusest määratlus vaidlustada, luues eeldused kõrgete panustega õiguslikuks lahinguks Ameerika AI-maastiku tuleviku üle.
Mõistmaks minister Hegsethi teadaande tõsidust, tuleb vaadata poliitilisest retoorikast kaugemale föderaalsete hangete masinavärki. Kui DoD määratleb ettevõtte tarneahela riskina, ei ole see lihtsalt soovitus nende tarkvara vältida; see on funktsionaalne musta nimekirja kandmine.
Föderaalse hanke tarneahela turvalisuse seaduse (FASCSA) kohaselt võimaldab selline määratlus valitsusel väljastada välistamis- või eemaldamiskorraldusi. See tähendab, et mitte ainult föderaalvalitsusel pole keelatud osta Anthropicu „Claude“ mudeleid, vaid kõik kolmandatest osapooltest töövõtjad — alates kaitsehiidudest nagu Lockheed Martin kuni väikeste IT-konsultantideni — võivad olla sunnitud Anthropicu integratsioonid oma süsteemidest eemaldama, kui nad soovivad säilitada oma valitsuslepinguid.
Praktikas tekitab see „karantiini“ efekti. Kui Anthropicut peetakse riskiks föderaalse tarneahela terviklikkusele, siis vaadeldakse kõiki nende mudelite kaudu liikuvaid andmeid potentsiaalselt ohustatuna või volitamata mõjutustele avatuna.
Selle konflikti keskmes on Anthropicu põhiidentiteet. OpenAI endiste juhtide asutatud Anthropic on turustanud end kui „ohutus ennekõike“ AI-ettevõtet. Nende patenteeritud treeningmeetod, mida tuntakse kui konstitutsioonilist AI-d, hõlmab mudelile kirjaliku põhimõtete kogumi (nn põhiseaduse) andmist, mida mudel peab vastuste genereerimisel järgima.
Kuigi tehnoloogiasektor on seda laialdaselt kiitnud kui viisi vältida AI muutumist kahjulikuks või kallutatuks, näib praegune administratsioon vaatavat neid ohutuspiirdeid läbi teise pilgu. Administratsiooni kriitikud on iseloomustanud neid filtreid kui „algoritmilise tsensuuri“ või „ideoloogilise kallutatuse“ vormi, mis võib segada sõjaliste ja luurerakenduste jaoks vajalikku objektiivset toorandmete töötlemist.
Märgistades ettevõtte tarneahela riskiks, vihjab DoD, et just need samad kaitsemeetmed, mida Anthropic kasutab „abivalmiduse, aususe ja ohutuse“ tagamiseks, võivad lahingulises või strateegilises kontekstis kujutada endast haavatavust või keeldumist järgida seaduslikke korraldusi.
Anthropic ei eksisteeri vaakumis. Ettevõte on sügavalt integreeritud maailma suurimate pilveteenuse pakkujate infrastruktuuri. Nii Amazon (AWS) kui ka Google on investeerinud Anthropicusse miljardeid, majutades Claude’i oma vastavatel platvormidel (Bedrock ja Vertex AI).
See määratlus asetab need pilvehiiglased ebamugavasse olukorda. Kui DoD jääb seisukohale, et Anthropic on tarneahela risk, siis kas see risk laieneb ka platvormidele, mis neid majutavad?
| Huvirühm | Potentsiaalne mõju |
|---|---|
| Föderaalasutused | Kohene üleminek Claude-põhistelt töövoogudelt alternatiividele nagu OpenAI või xAI. |
| Kaitsetöövõtjad | Kohustuslikud tarkvarapinu auditid, et tuvastada ja eemaldada Anthropicu API päringud. |
| Pilveteenuse pakkujad | Potentsiaalne surve Anthropicu teenuste eraldamiseks või piiramiseks GovCloudi keskkondades. |
| Ettevõtte kasutajad | Suurenenud ebakindlus tehisintellekti turu pikaajalise regulatiivse stabiilsuse osas. |
Anthropicu vastus oli kiire. Lühikeses avalduses väljendas ettevõte „pettumust ja eriarvamust“, kinnitades, et nende tehnoloogia on loodud Ameerika pinnal, Ameerika kodanike poolt ning keskendudes eelkõige riiklikule julgeolekule ja usaldusväärsusele.
Õiguseksperdid viitavad, et Anthropicu hagi keskendub tõenäoliselt haldusmenetluse seaduse (APA) „suvalisuse ja omavoli“ standardile. Tarneahela riski määratluse säilitamiseks peab DoD tavaliselt esitama tõendeid usutava ohu kohta. Kuna Anthropic on kodumaine ettevõte, millel pole teadaolevaid sidemeid välisvaenlastega, võib valitsus olla sunnitud avalikustama keelu salastatud põhjendused — või riskima sellega, et föderaalkohtunik tühistab korralduse.
Tehnoloogiajuhtide (CTO) ja IT-otsustajate jaoks on see eskalatsioon äratuskellaks seoses „tarnija lukustusega“ (vendor lock-in) AI-ajastul. Suure tegija äkiline üleminek „valdkonna liidrist“ „tarneahela riskiks“ rõhutab vajadust mitmekülgse AI-strateegia järele.
Kuna õiguslik lahing algab, jääb tehnoloogiasektor mõtlema: kui ohutuse põhimõttele rajatud ettevõtet saab märgistada riskiks, siis kes on uues regulatiivses kliimas tõeliselt kaitstud?



Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.
/ Tasuta konto loomin