Gadiem ilgi attiecības starp Silīcija ielejas mākslīgā intelekta (MI) pionieriem un Aizsardzības departamentu (DoD) ir bijušas kā delikāta savstarpējas nepieciešamības deja. Taču kopš 2026. gada februāra šī deja ir pārvērtusies publiskā un eksistenciālā cīņā. Konflikta centrā ir Anthropic — uz drošību orientētais jaunuzņēmums, kura vērtība tagad sasniegusi galvu reibinošus 380 miljardus dolāru, un šķietami vienkārša trīs vārdu klauzula, ko Pentagons pieprasa savos jaunākajos iepirkuma līgumos: “jebkāda likumīga izmantošana” (any lawful use).
Lai gan šī frāze izklausās pēc standarta juridiska formulējuma, tā apzīmē fundamentālas pārmaiņas tajā, kā mākslīgais intelekts tiks izmantots mūsdienu karadarbībā. Uzņēmumam Anthropic piekrišana šiem nosacījumiem nozīmētu izjaukt pašu “Konstitucionālā MI” (Constitutional AI) ietvaru, kas definē tā zīmolu. Pentagonam tas ir nacionālās drošības jautājums un garantija, ka globālajā bruņošanās sacensībā Amerikas MI neiegrožos privātā sektora ētikas normas.
Noteikums par “jebkādu likumīgu izmantošanu” ir jaunais zelta standarts Aizsardzības departamenta MI integrācijai. Būtībā tas pieprasa MI pakalpojumu sniedzējiem atteikties no savām specifiskajām “pieņemamas izmantošanas” politikām — noteikumiem, kas parasti aizliedz izmantot MI vardarbībai, novērošanai vai ieroču izstrādei —, ja vien militārais pielietojums tiek uzskatīts par likumīgu saskaņā ar starptautiskajām un vietējām tiesībām.
Ziņojumi liecina, ka OpenAI un Ilona Maska xAI jau ir klusi atjauninājuši savus pakalpojumu sniegšanas noteikumus, lai pielāgotos šai prasībai. To darot, tie ir pavēruši ceļu savu modeļu integrēšanai “nogalināšanas ķēdē” (kill chain) — mērķu identificēšanas, izsekošanas un iznīcināšanas procesā. Tomēr Anthropic joprojām ir vienīgais, kas pretojas starp “Lielā trijnieka” pamata modeļu izstrādātājiem, izraisot nedēļām ilgu cīņu, kas izpaužas nopludinātos memorandos un asās viedokļu apmaiņās sociālajos tīklos.
Lai saprastu, kāpēc Anthropic tik neatlaidīgi pretojas, ir jāskatās uz to, kā tiek veidoti tā modeļi. Atšķirībā no citiem lielajiem valodas modeļiem (LLM), kas tiek pieslīpēti galvenokārt ar cilvēku atgriezenisko saiti, Anthropic Claude modeļus pārvalda “Konstitūcija” — rakstisku principu kopums, ko MI izmanto, lai uzraudzītu savu uzvedību.
Ja Pentagons integrētu Claude sistēmā, kas paredzēta masveida novērošanai vai, vēl pretrunīgāk, letāliem autonomiem ieročiem (LAWS), MI saskartos ar loģisku paradoksu. Tā pamata programmēšana aizliedz tam palīdzēt nodarīt kaitējumu vai pārkāpt cilvēktiesības, tomēr tā operatīvās komandas pieprasītu tieši to.
“Mēs nerunājam tikai par politikas maiņu,” nesenā forumā atzīmēja kāds nenosaukts Anthropic inženieris. “Mēs runājam par drošības arhitektūras lobotomizēšanu, kas padara mūsu modeli par to, kas tas ir. Jums nevar būt ‘drošs’ MI, kuram vienlaikus ir atļauts autonomi pieņemt lēmumu par mērķa likvidēšanu.”
Vislielākais berzes punkts ir saistīts ar MI, kas var izsekot un nogalināt mērķus bez cilvēka tiešas iesaistes (“in the loop”). Lai gan Pentagons oficiāli apgalvo, ka galīgo lēmumu par letāla spēka lietošanu vienmēr pieņems cilvēks, klauzula “jebkāda likumīga izmantošana” nodrošina juridisku aizsegu nākotnei, kurā ātrums ir galvenais ierocis. Piemēram, dronu bara scenārijā cilvēks-operators var būt pārāk lēns, lai autorizētu katru atsevišķu triecienu, atstājot uzbrukuma vadību MI ziņā.
Anthropic vadība apgalvo, ka pašreizējiem MI modeļiem trūkst “veselā saprāta” un situācijas izpratnes, lai reāla kaujas lauka haosā atšķirtu kombatantu no civiliedzīvotāja. Atsakoties no Pentagona noteikumiem, Anthropic faktiski liek likmi uz to, ka tirgus — un sabiedrība — galu galā vērtēs drošību augstāk par tīru militāro lietderību.
Šī konfrontācija notiek Anthropic nepateicīgā laikā. Ar 380 miljardu dolāru vērtējumu spiediens gūt milzīgus ieņēmumus ir milzīgs. Valdības līgumi ir lielākā neapgūtā zelta raktuve MI nozarē. Nogaidot, Anthropic riskē tikt izslēgts no Apvienotās karadarbības mākoņdatošanas spējas (JWCC) un citām daudzmiljardu iniciatīvām, potenciāli atdodot visu aizsardzības tirgu OpenAI un xAI.
Anthropic nostājas kritiķi apgalvo, ka, ja “ētiskākie” MI uzņēmumi atteiksies sadarboties ar militārpersonām, Pentagons vienkārši paļausies uz mazāk drošiem modeļiem, kas novedīs pie bīstamāka iznākuma. Turpretim atbalstītāji uzskata Anthropic par pēdējo aizsardzības līniju pret automatizētās karadarbības eskalāciju “Black Mirror” stilā.
Šīs sarunas ir rādītājs visai programmatūras nozarei. Tās signalizē par beigām “darbojies ātri un salauz lietas” ērai MI jomā un sākumu periodam, kurā tehnoloģiju uzņēmumiem ir jāizlemj, vai tie ir neitrāli pakalpojumu sniedzēji vai morāli subjekti.
| Funkcija | Anthropic pozīcija | OpenAI/xAI pozīcija |
|---|---|---|
| “Jebkāda likumīga izmantošana” | Noraidīta (pašlaik) | Pieņemta |
| Letāla autonomija | Stingri aizliegta | Atļauta DoD uzraudzībā |
| Drošības mehānisms | Konstitucionālais MI (iebūvēts) | RLHF un uz politiku balstīts |
| Galvenais mērķis | Salāgošana un drošība | Strauja mērogošana un lietderība |
Kamēr šī cīņa turpinās, uzņēmumiem un izstrādātājiem būtu jāapsver sekojošais:
Sarunas starp Anthropic un Pentagonu ir par ko vairāk nekā tikai līgumu; tās ir referendums par mākslīgā intelekta dvēseli. Virzoties tālāk 2026. gadā, nozare vēros, vai Anthropic spēs saglabāt savu morālo pozīciju, neupurējot savu finansiālo nākotni. Pagaidām šie trīs vārdi — “jebkāda likumīga izmantošana” — joprojām ir dārgākie vārdi Silīcija ielejas vēsturē.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu