Tehisintellekt

Kolmesõnaline ultimatum: Anthropicu ja Pentagoni vahelise kõrgete panustega vastasseisu tagamaad

Ülevaade Anthropicu vastasseisust Pentagoniga "igasuguse seadusliku kasutuse" klausli üle ning letaalsete autonoomsete relvade tulevikust 380 miljardi dollarilises TI-tööstuses.
Kolmesõnaline ultimatum: Anthropicu ja Pentagoni vahelise kõrgete panustega vastasseisu tagamaad

Aastaid on Silicon Valley tehisintellekti pioneeride ja kaitseministeeriumi (DoD) vahelised suhted olnud delikaatne vastastikuse vajaduse tants. Kuid 2026. avalikuks ja eksistentsiaalseks kähmluseks. Konflikti keskmes on Anthropic – turvalisusele keskendunud idufirma, mille väärtus on nüüdseks peadpööritavad 380 miljardit dollarit – ja näiliselt lihtne kolmesõnaline klausel, mida Pentagon oma viimastes hankelepingutes nõuab: „igasugune seaduslik kasutus” (any lawful use).

Kuigi see fraas kõlab nagu standardne juriidiline kantseliit, tähistab see fundamentaalset nihket selles, kuidas tehisintellekti kaasaegses sõjapidamises kasutusele võetakse. Anthropicu jaoks tähendaks nende tingimustega nõustumine just selle „konstitutsioonilise TI” (Constitutional AI) raamistiku lammutamist, mis määratleb nende brändi. Pentagoni jaoks on see riikliku julgeoleku küsimus ja tagatise saamine, et Ameerika tehisintellekti ei kammitseks globaalses võidurelvastumises erasektori eetika.

Klausel, mis muutis kõike

Säte „igasugune seaduslik kasutus” on Pentagoni TI-integratsiooni uus kuldstandard. Sisuliselt nõuab see TI-teenuse pakkujatelt loobumist oma spetsiifilistest „lubatud kasutuse” poliitikatest – reeglitest, mis tavaliselt keelavad TI kasutamise vägivalla, jälgimise või relvade arendamise eesmärgil –, tingimusel, et sõjaväe rakendus loetakse rahvusvahelise ja siseriikliku õiguse kohaselt seaduslikuks.

Aruanded viitavad, et OpenAI ja Elon Muski xAI on juba vaikselt oma teenusetingimusi uuendanud, et selle nõudmisega kohanduda. Seejuures on nad avanud tee oma mudelite integreerimiseks „tapmisahelasse” (kill chain) – sihtmärkide tuvastamise, jälgimise ja ründamise protsessi. Anthropic on aga jäänud „suure kolmiku” alusmudelite pakkujate seas ainsaks vastuseisjaks, mis on viinud nädalaid kestnud lahinguni, mida peetakse lekkinud memode ja teravate sotsiaalmeedia postituste kaudu.

Konstitutsiooniline TI vs. lahinguväli

Mõistmaks, miks Anthropic endale kindlaks jääb, tuleb vaadata, kuidas nende mudelid on üles ehitatud. Erinevalt teistest suurtest keelemudelitest (LLM), mida peenhäälestatakse peamiselt inimeste tagasiside kaudu, juhitakse Anthropicu Claude’i mudeleid „konstitutsiooni” abil – see on kirjalike põhimõtete kogum, mida TI kasutab oma käitumise kontrollimiseks.

Kui Pentagon integreerib Claude’i süsteemi, mis on loodud massiliseks jälgimiseks või, veelgi vastuolulisemalt, letaalseteks autonoomseteks relvasüsteemideks (LAWS), seisaks TI silmitsi loogilise paradoksiga. Selle põhiprogramm keelab tal kahju tekitamises osalemise või inimõiguste rikkumise, kuid operatiivkäsud nõuaksid just seda.

„Me ei räägi siin lihtsalt poliitika muutusest,” märkis üks anonüümne Anthropicu insener hiljutises foorumis. „Me räägime turvaarhitektuuri lobotomeerimisest, mis teeb meie mudelist selle, mis ta on. Ei saa olla ’turvalist’ tehisintellekti, millel on samal ajal volitus otsustada autonoomselt sihtmärgi elimineerimise üle.”

Letaalsete autonoomsete relvade esiletõus

Kõige suurem hõõrdepunkt puudutab tehisintellekti, mis suudab sihtmärke jälgida ja tappa ilma „inimeseta ahelas” (human in the loop). Kuigi Pentagon kinnitab ametlikult, et lõpliku otsuse surmava jõu kasutamiseks teeb alati inimene, pakub klausel „igasugune seaduslik kasutus” juriidilist katet tulevikuks, kus peamine relv on kiirus. Näiteks drooniparve stsenaariumi puhul võib inimoperaator jääda üksikute rünnakute autoriseerimiseks liiga aeglaseks, jättes rünnaku juhtimise tehisintellekti hooleks.

Anthropicu juhtkond väidab, et praegustel TI-mudelitel puudub „terve mõistus” ja olukorrateadlikkus, et eristada võitlejat tsiviilisikust reaalse lahinguvälja kaoses. Pentagoni tingimustest keeldumisega panustab Anthropic sisuliselt sellele, et turg – ja avalikkus – väärtustavad lõpuks turvalisust rohkem kui puhast sõjalist kasulikkust.

380 miljardi dollariline dilemma

Vastasseis toimub Anthropicu jaoks ebakindlal ajal. 380 miljardi dollarilise väärtuse juures on surve massilise tulu teenimiseks tohutu. Valitsuslepingud on TI-sektori suurim kasutamata kullakaevandus. Vastuseisuga riskib Anthropic jääda välja ühisest sõjapidamise pilvevõimekusest (JWCC) ja teistest miljardite dollarite suurustest algatustest, loovutades potentsiaalselt kogu kaitseturu OpenAI-le ja xAI-le.

Anthropicu seisukoha kriitikud väidavad, et kui kõige „eetilisemad” TI-ettevõtted keelduvad sõjaväega koostööd tegemast, toetub Pentagon lihtsalt vähem reguleeritud mudelitele, mis viib ohtlikuma tulemuseni. Pooldajad näevad Anthropicut aga viimase kaitseliinina automatiseeritud sõjapidamise „Black Mirror” stiilis eskaleerumise vastu.

Mida see tähendab tehnoloogiasektorile

Need läbirääkimised on märgilise tähendusega kogu tarkvaratööstuse jaoks. See tähistab TI „liigu kiiresti ja lõhu asju” ajastu lõppu ning perioodi algust, kus tehnoloogiaettevõtted peavad otsustama, kas nad on neutraalsed teenusepakkujad või moraalsed osapooled.

Funktsioon Anthropicu seisukoht OpenAI/xAI seisukoht
„Igasugune seaduslik kasutus” Tagasi lükatud (hetkel) Aktsepteeritud
Letaalne autonoomsus Rangelt keelatud Lubatud Pentagoni järelevalve all
Turvamehhanism Konstitutsiooniline TI (püsiprogrammeeritud) RLHF ja poliitikapõhine
Peamine eesmärk Kooskõlastamine ja turvalisus Kiire skaleerimine ja kasulikkus

Praktilised järeldused TI huvirühmadele

Kuna see võitlus jätkub, peaksid ettevõtted ja arendajad kaaluma järgmist:

  • Vaadake üle oma sõltuvused: Kui teie ettevõtte tarkvara toetub Claude’ile, arvestage, et Anthropicu keeldumine kaitselepingutest võib mõjutada nende pikaajalist juurdepääsu kapitalile või viia muutuseni nende ärimudelis.
  • Jälgige regulatiivseid muutusi: Selle vastasseisu tulemus mõjutab tõenäoliselt tulevasi TI-regulatsioone. Kui Pentagon võidab, võib oodata, et „igasugune seaduslik kasutus” muutub standardnõudeks kogu valitsusega seotud tehnoloogiale.
  • Eetika kui konkurentsieelis: Tsiviilsektori ettevõtete jaoks tugevdab Anthropicu seisukoht nende positsiooni kui „turvaline” alternatiiv, mis võib olla atraktiivsem tervishoiu-, õigus- ja haridussektorile.

Tee edasi

Läbirääkimised Anthropicu ja Pentagoni vahel on midagi enamat kui lihtsalt leping; see on referendum tehisintellekti hinge üle. 2026. aasta edenedes jälgib tööstus, kas Anthropic suudab säilitada oma moraalse positsiooni, ohverdamata oma finantsilist tulevikku. Praegu jäävad need kolm sõna – „igasugune seaduslik kasutus” – Silicon Valley ajaloo kõige kallimateks sõnadeks.

Allikad

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

Kohtumiseni teisel poolel.

Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.

/ Tasuta konto loomin