Viesuļvētrai līdzīgās 120 minūtēs, kas izraisījušas satricinājuma viļņus Silīcija ielejā un Vašingtonas politiskajās aprindās, federālās valdības attiecības ar mākslīgā intelekta nozari ir sasniegušas vēsturisku lūzuma punktu. Pēc prezidenta Donalda Trampa pusdienlaika paziņojuma vietnē Truth Social, pasludinot pilnīgu Anthropic produktu aizliegumu federālajā valdībā, aizsardzības ministrs Pīts Hegsets situāciju saasināja vēl vairāk. Līdz pēcpusdienai Aizsardzības departaments (DoD) oficiāli atzina Anthropic par “piegādes ķēdes risku”.
Šis solis iezīmē radikālu atkāpšanos no iepriekšējām administrācijas nostājām attiecībā uz vietējiem MI uzņēmumiem. Lai gan valdība vēsturiski šādus apzīmējumus ir rezervējusi ārvalstu subjektiem — jo īpaši Ķīnas telekomunikāciju gigantiem —, šīs etiķetes piemērošana Sanfrancisko bāzētam uzņēmumam, kuru atbalsta miljardiem liels Amerikas riska kapitāls, signalizē par jaunu regulatīvās nestabilitātes ēru. Anthropic jau ir devis mājienu par nodomu apstrīdēt šo apzīmējumu, sagatavojot augstu likmju juridisko cīņu par Amerikas MI ainavas nākotni.
Lai saprastu ministra Hegseta paziņojuma nopietnību, ir jāskatās tālāk par politisko retoriku un jāiedziļinās federālo iepirkumu mehānismā. Kad DoD uzņēmumu nosauc par piegādes ķēdes risku, tas nav tikai ieteikums izvairīties no to programmatūras; tas ir funkcionāls melnais saraksts.
Saskaņā ar Federālo iepirkumu piegādes ķēdes drošības likumu (FASCSA), šāds apzīmējums ļauj valdībai izdot izslēgšanas vai izņemšanas rīkojumus. Tas nozīmē, ka ne tikai federālajai valdībai ir aizliegts iegādāties Anthropic “Claude” modeļus, bet jebkurš trešās puses darbuzņēmējs — no aizsardzības gigantiem kā Lockheed Martin līdz maziem IT konsultantiem — var tikt spiests iztīrīt Anthropic integrācijas no savām sistēmām, ja tie vēlas saglabāt savus valdības līgumus.
Praktiski tas rada “karantīnas” efektu. Ja Anthropic tiek uzskatīts par risku federālās piegādes ķēdes integritātei, jebkuri dati, kas plūst caur to modeļiem, tiek uzskatīti par potenciāli apdraudētiem vai pakļautiem neautorizētai ietekmei.
Šī konflikta pamatā ir Anthropic galvenā identitāte. Anthropic, ko dibināja bijušie OpenAI vadītāji, ir pozicionējis sevi kā “drošība pirmajā vietā” MI uzņēmumu. Viņu patentētā apmācības metode, kas pazīstama kā Konstitucionālais MI (Constitutional AI), ietver modeļa nodrošināšanu ar rakstisku principu kopumu (“konstitūciju”), kas jāievēro, ģenerējot atbildes.
Lai gan tehnoloģiju nozare to lielā mērā ir atzinīgi novērtējusi kā veidu, kā novērst MI kļūšanu par kaitīgu vai neobjektīvu, pašreizējā administrācija uz šīm drošības barjerām raugās caur citu prizmu. Kritiķi administrācijā šos filtrus ir raksturojuši kā “algoritmisko cenzūru” vai “ideoloģisku neobjektivitāti”, kas varētu traucēt objektīvai, neapstrādātu datu apstrādei, kas nepieciešama militāriem un izlūkošanas mērķiem.
Marķējot uzņēmumu kā piegādes ķēdes risku, DoD liek domāt, ka tieši tie drošības pasākumi, kurus Anthropic izmanto, lai nodrošinātu “noderīgumu, godīgumu un nekaitīgumu”, kaujas vai stratēģiskā kontekstā varētu kļūt par ievainojamību vai atteikšanos izpildīt likumīgas pavēles.
Anthropic nepastāv vakuumā. Uzņēmums ir cieši integrēts pasaules lielāko mākoņpakalpojumu sniedzēju infrastruktūrā. Amazon (AWS) un Google ir ieguldījuši miljardus Anthropic, izvietojot Claude savās attiecīgajās platformās (Bedrock un Vertex AI).
Šis apzīmējums nostāda šos mākoņpakalpojumu titānus neērtā stāvoklī. Ja DoD apgalvo, ka Anthropic ir piegādes ķēdes risks, vai šis risks attiecas arī uz platformām, kas tos izmitina?
| Ieinteresētā puse | Potenciālā ietekme |
|---|---|
| Federālās aģentūras | Tūlītēja migrācija no Claude balstītām darba plūsmām uz alternatīvām, piemēram, OpenAI vai xAI. |
| Aizsardzības darbuzņēmēji | Obligāti programmatūras grēdu auditi, lai identificētu un noņemtu Anthropic API izsaukumus. |
| Mākoņpakalpojumu sniedzēji | Potenciāls spiediens nošķirt vai ierobežot Anthropic pakalpojumus GovCloud vidēs. |
| Uzņēmumu lietotāji | Palielināta nenoteiktība attiecībā uz MI tirgus ilgtermiņa regulatīvo stabilitāti. |
Anthropic reakcija bija ātra. Īsā paziņojumā uzņēmums pauda “vilšanos un nesaskaņas”, apgalvojot, ka to tehnoloģija ir izstrādāta Amerikas teritorijā, to veikuši Amerikas pilsoņi, un galvenā uzmanība pievērsta valsts drošībai un uzticamībai.
Juridiskie eksperti pieļauj, ka Anthropic apstrīdēšana, visticamāk, koncentrēsies uz Administratīvā procesa likuma (APA) “patvaļīgu un kaprīzu” standartu. Lai pamatotu piegādes ķēdes riska apzīmējumu, DoD parasti ir jāsniedz pierādījumi par ticamiem draudiem. Tā kā Anthropic ir vietējais uzņēmums bez zināmām saiknēm ar ārvalstu pretiniekiem, valdība var tikt spiesta atklāt slepenus pamatojumus aizliegumam — vai riskēt ar to, ka federālais tiesnesis rīkojumu atceļ.
Tehnoloģiju direktoriem (CTO) un IT lēmumu pieņēmējiem šī eskalācija ir trauksmes signāls par “piegādātāja atkarību” (vendor lock-in) MI laikmetā. Pēkšņā lielā spēlētāja pāreja no “nozares līdera” uz “piegādes ķēdes risku” uzsver nepieciešamību pēc diversificētas MI stratēģijas.
Sākoties juridiskajai cīņai, tehnoloģiju nozarei atliek domāt: ja uzņēmumu, kas dibināts uz drošības principiem, var nosaukt par risku, kurš patiesībā ir drošībā jaunajā regulatīvajā vidē?



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu