Mākslīgais intelekts

Trīs vārdu ultimāts: Antropic saspringtā konfrontācija ar Pentagonu

Ieskats Anthropic konfrontācijā ar Pentagonu par klauzulu “jebkāda likumīga izmantošana” un letālu autonomu ieroču nākotni 380 miljardu dolāru vērtajā MI nozarē.
Trīs vārdu ultimāts: Antropic saspringtā konfrontācija ar Pentagonu

Gadiem ilgi attiecības starp Silīcija ielejas mākslīgā intelekta (MI) pionieriem un Aizsardzības departamentu (DoD) ir bijušas kā delikāta savstarpējas nepieciešamības deja. Taču kopš 2026. gada februāra šī deja ir pārvērtusies publiskā un eksistenciālā cīņā. Konflikta centrā ir Anthropic — uz drošību orientētais jaunuzņēmums, kura vērtība tagad sasniegusi galvu reibinošus 380 miljardus dolāru, un šķietami vienkārša trīs vārdu klauzula, ko Pentagons pieprasa savos jaunākajos iepirkuma līgumos: “jebkāda likumīga izmantošana” (any lawful use).

Lai gan šī frāze izklausās pēc standarta juridiska formulējuma, tā apzīmē fundamentālas pārmaiņas tajā, kā mākslīgais intelekts tiks izmantots mūsdienu karadarbībā. Uzņēmumam Anthropic piekrišana šiem nosacījumiem nozīmētu izjaukt pašu “Konstitucionālā MI” (Constitutional AI) ietvaru, kas definē tā zīmolu. Pentagonam tas ir nacionālās drošības jautājums un garantija, ka globālajā bruņošanās sacensībā Amerikas MI neiegrožos privātā sektora ētikas normas.

Klauzula, kas mainīja visu

Noteikums par “jebkādu likumīgu izmantošanu” ir jaunais zelta standarts Aizsardzības departamenta MI integrācijai. Būtībā tas pieprasa MI pakalpojumu sniedzējiem atteikties no savām specifiskajām “pieņemamas izmantošanas” politikām — noteikumiem, kas parasti aizliedz izmantot MI vardarbībai, novērošanai vai ieroču izstrādei —, ja vien militārais pielietojums tiek uzskatīts par likumīgu saskaņā ar starptautiskajām un vietējām tiesībām.

Ziņojumi liecina, ka OpenAI un Ilona Maska xAI jau ir klusi atjauninājuši savus pakalpojumu sniegšanas noteikumus, lai pielāgotos šai prasībai. To darot, tie ir pavēruši ceļu savu modeļu integrēšanai “nogalināšanas ķēdē” (kill chain) — mērķu identificēšanas, izsekošanas un iznīcināšanas procesā. Tomēr Anthropic joprojām ir vienīgais, kas pretojas starp “Lielā trijnieka” pamata modeļu izstrādātājiem, izraisot nedēļām ilgu cīņu, kas izpaužas nopludinātos memorandos un asās viedokļu apmaiņās sociālajos tīklos.

Konstitucionālais MI pret kaujas lauku

Lai saprastu, kāpēc Anthropic tik neatlaidīgi pretojas, ir jāskatās uz to, kā tiek veidoti tā modeļi. Atšķirībā no citiem lielajiem valodas modeļiem (LLM), kas tiek pieslīpēti galvenokārt ar cilvēku atgriezenisko saiti, Anthropic Claude modeļus pārvalda “Konstitūcija” — rakstisku principu kopums, ko MI izmanto, lai uzraudzītu savu uzvedību.

Ja Pentagons integrētu Claude sistēmā, kas paredzēta masveida novērošanai vai, vēl pretrunīgāk, letāliem autonomiem ieročiem (LAWS), MI saskartos ar loģisku paradoksu. Tā pamata programmēšana aizliedz tam palīdzēt nodarīt kaitējumu vai pārkāpt cilvēktiesības, tomēr tā operatīvās komandas pieprasītu tieši to.

“Mēs nerunājam tikai par politikas maiņu,” nesenā forumā atzīmēja kāds nenosaukts Anthropic inženieris. “Mēs runājam par drošības arhitektūras lobotomizēšanu, kas padara mūsu modeli par to, kas tas ir. Jums nevar būt ‘drošs’ MI, kuram vienlaikus ir atļauts autonomi pieņemt lēmumu par mērķa likvidēšanu.”

Letālu autonomu ieroču pieaugums

Vislielākais berzes punkts ir saistīts ar MI, kas var izsekot un nogalināt mērķus bez cilvēka tiešas iesaistes (“in the loop”). Lai gan Pentagons oficiāli apgalvo, ka galīgo lēmumu par letāla spēka lietošanu vienmēr pieņems cilvēks, klauzula “jebkāda likumīga izmantošana” nodrošina juridisku aizsegu nākotnei, kurā ātrums ir galvenais ierocis. Piemēram, dronu bara scenārijā cilvēks-operators var būt pārāk lēns, lai autorizētu katru atsevišķu triecienu, atstājot uzbrukuma vadību MI ziņā.

Anthropic vadība apgalvo, ka pašreizējiem MI modeļiem trūkst “veselā saprāta” un situācijas izpratnes, lai reāla kaujas lauka haosā atšķirtu kombatantu no civiliedzīvotāja. Atsakoties no Pentagona noteikumiem, Anthropic faktiski liek likmi uz to, ka tirgus — un sabiedrība — galu galā vērtēs drošību augstāk par tīru militāro lietderību.

380 miljardu dolāru dilemma

Šī konfrontācija notiek Anthropic nepateicīgā laikā. Ar 380 miljardu dolāru vērtējumu spiediens gūt milzīgus ieņēmumus ir milzīgs. Valdības līgumi ir lielākā neapgūtā zelta raktuve MI nozarē. Nogaidot, Anthropic riskē tikt izslēgts no Apvienotās karadarbības mākoņdatošanas spējas (JWCC) un citām daudzmiljardu iniciatīvām, potenciāli atdodot visu aizsardzības tirgu OpenAI un xAI.

Anthropic nostājas kritiķi apgalvo, ka, ja “ētiskākie” MI uzņēmumi atteiksies sadarboties ar militārpersonām, Pentagons vienkārši paļausies uz mazāk drošiem modeļiem, kas novedīs pie bīstamāka iznākuma. Turpretim atbalstītāji uzskata Anthropic par pēdējo aizsardzības līniju pret automatizētās karadarbības eskalāciju “Black Mirror” stilā.

Ko tas nozīmē tehnoloģiju nozarei

Šīs sarunas ir rādītājs visai programmatūras nozarei. Tās signalizē par beigām “darbojies ātri un salauz lietas” ērai MI jomā un sākumu periodam, kurā tehnoloģiju uzņēmumiem ir jāizlemj, vai tie ir neitrāli pakalpojumu sniedzēji vai morāli subjekti.

Funkcija Anthropic pozīcija OpenAI/xAI pozīcija
“Jebkāda likumīga izmantošana” Noraidīta (pašlaik) Pieņemta
Letāla autonomija Stingri aizliegta Atļauta DoD uzraudzībā
Drošības mehānisms Konstitucionālais MI (iebūvēts) RLHF un uz politiku balstīts
Galvenais mērķis Salāgošana un drošība Strauja mērogošana un lietderība

Praktiskas atziņas MI ieinteresētajām pusēm

Kamēr šī cīņa turpinās, uzņēmumiem un izstrādātājiem būtu jāapsver sekojošais:

  • Pārskatiet savas atkarības: Ja jūsu uzņēmuma programmatūra balstās uz Claude, apzinieties, ka Anthropic atteikums no aizsardzības līgumiem var ietekmēt tā ilgtermiņa piekļuvi kapitālam vai izraisīt pavērsienu tā biznesa modelī.
  • Vērojiet regulējuma izmaiņas: Šīs konfrontācijas iznākums, visticamāk, ietekmēs turpmākos MI noteikumus. Ja Pentagons uzvarēs, sagaidiet, ka “jebkāda likumīga izmantošana” kļūs par standarta prasību visām ar valdību saistītajām tehnoloģijām.
  • Ētika kā konkurences priekšrocība: Uzņēmumiem civilajā sektorā Anthropic nostāja nostiprina tā pozīciju kā “drošai” alternatīvai, kas varētu būt pievilcīgāka veselības aprūpes, juridiskajā un izglītības nozarē.

Ceļš uz priekšu

Sarunas starp Anthropic un Pentagonu ir par ko vairāk nekā tikai līgumu; tās ir referendums par mākslīgā intelekta dvēseli. Virzoties tālāk 2026. gadā, nozare vēros, vai Anthropic spēs saglabāt savu morālo pozīciju, neupurējot savu finansiālo nākotni. Pagaidām šie trīs vārdi — “jebkāda likumīga izmantošana” — joprojām ir dārgākie vārdi Silīcija ielejas vēsturē.

Avoti

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu