Pinged Silicon Valley eetiliste raamistike ja kaitseministeeriumi strateegiliste nõudmiste vahel on jõudnud keemispunktini. Neljapäeval esitas Claude'i mudeli taga seisev tehisintellekti ohutusele keskendunud ettevõte Anthropic lõpliku keeldumise Pentagoni nõudmisele, mis oleks põhjalikult muutnud selle tehisintellekti arhitektuuri.
Vaidluse keskmes on 200 miljoni dollariline leping ja kaitseminister Pete Hegsethi taotlus eemaldada ohutuspiirded (guardrails), mis reguleerivad Claude'i käitumist. Anthropicu juhtkond teatas, et nad „ei saa puhas südametunnistusega” nõudmist täita, luues aluse märgilisele vastasseisule eratehnoloogia rolli üle riiklikus julgeolekus.
Konflikt keskendub mastaapsele hankeostule, mille eesmärk on integreerida Claude'i arenenud arutlusvõime sõjalisse logistikasse ja strateegilisse planeerimisse. Kuid Pentagoni praegune juhtkond on muutunud üha pettunumaks kommerts-tehisintellekti piirava olemuse tõttu.
Kaitseminister Pete Hegseth on iseloomustanud neid ohutusprotokolle kui „käeraudu”, mis takistavad USA sõjaväel säilitada konkurentsieelist vastaste ees, keda sarnased eetilised piirangud ei pruugi siduda. Ultimatum on selge: kas Anthropic pakub Claude'ist „piiranguteta” versiooni — sellist, mis on võimeline genereerima taktikalist nõu või surmavaid strateegiaid ilma ohutusfiltrite sekkumiseta — või leping lõpetatakse.
Mõistmaks, miks Anthropic on valmis nii märkimisväärsest summast loobuma, peab mõistma, mida need ohutuskontrollid teevad. Suurte keelemudelite (LLM) maailmas ei ole ohutuspiirded lihtsalt lihtsad märksõnafiltrid. Need on sügavalt integreeritud treeningkihid, mida sageli nimetatakse „konstitutsiooniliseks tehisintellektiks” (Constitutional AI).
Need kihid takistavad mudelil abistamast bioloogiliste relvade loomisel, vihakõne genereerimisel või küberrünnakute juhiste andmisel. Nende kontrollide eemaldamine sõjaväe jaoks tähendaks sisuliselt mudeli „lahtimurtud” (jailbroken) versiooni loomist. Kuigi Pentagon väidab, et see on vajalik kõrgete panustega otsustamiseks, kus tehisintellekt ei tohiks komandörile „loengut pidada”, kardab Anthropic, et piirideta mudelit võidakse kuritarvitada või see võib käituda ettearvamatult viisidel, mis põhjustavad katastroofilist kahju reaalses maailmas.
Anthropicu vastus on juurdunud selle asutamismissioonis. Erinevalt paljudest konkurentidest loodi Anthropic spetsiaalselt tehisintellekti katastroofiliste tõrgetega seotud riskide lahendamiseks. Oma ametlikus avalduses rõhutas ettevõte, et nende ohutusprotokollid ei ole „poliitiline korrektsus”, vaid on olulised tehnilised kaitsemeetmed, mis on loodud tagama, et tehisintellekt jääks kasulikuks, kahjutuks ja ausaks.
„Meie ohutusprotokollid ei ole valikulised funktsioonid; need on mudeli usaldusväärsuse alus. Nende eemaldamine tähendaks tööriista väljastamist, mille ohutust me ei saa enam garanteerida isegi kontrollitud sõjalises keskkonnas.”
Viidates „südametunnistusele”, annab Anthropic märku, et tegemist ei ole läbirääkimistega hinna või funktsioonide üle, vaid põhimõttelise erimeelsusega autonoomsete süsteemide eetika osas sõjapidamises.
Allolev tabel toob esile lahknevuse Pentagoni nõuete ja Anthropicu praeguse ohutusarhitektuuri vahel.
| Funktsioon | Pentagoni nõue (piiranguteta) | Anthropicu standard (Claude) |
|---|---|---|
| Operatiivkiirus | Reaalajas, ilma filtrite viivituseta | Ohutuskontrollid lisavad millisekundilise viivituse |
| Sisu filtreerimine | Taktikaliste stsenaariumide puhul keelatud | Aktiivne kahjuliku/ebaseadusliku sisu puhul |
| Mudeli joondamine | Rangelt missiooni eesmärkidega joondatud | Joondatud „konstitutsiooniliste” ohutuspõhimõtetega |
| Riskitaluvus | Kõrge (strateegiline vajadus) | Madal (avalik ja eksistentsiaalne ohutus) |
| Vastutus | Ainult inimene ahelas (human-in-the-loop) | Sisseehitatud tehnilised piirangud |
Seda vastasseisu jälgivad tähelepanelikult teised tehisintellekti hiiud nagu OpenAI ja Google. Kui Anthropic lepingu kaotab, tekitab see tühimiku, mille võib täita järeleandlikum ettevõte. Samas loob see ka precedendi selle kohta, kuidas tehnoloogiaettevõtted võivad vastu seista valitsuse survele oma tooteid relvastada või neist ohutusmeetmeid eemaldada.
Laiema tehnoloogiasektori jaoks rõhutab see kasvavat „kahesuguse kasutuse” dilemmat. Tarkvara, mis on loodud tsiviilotstarbeliseks tootlikkuseks, saab kohandada kineetiliseks sõjaliseks tegevuseks. Kui tarkvara arendaja kaotab kontrolli selle üle, kuidas mudel mõtleb, suureneb eksponentsiaalselt ootamatute tagajärgede potentsiaal — näiteks tehisintellekti hallutsinatsioonid eskaleerumise põhjendamiseks.
Kuna tehisintellekt integreerub üha enam valitsuse ja kõrgete panustega infrastruktuuri, peaksid arendajad ja juhid kaaluma järgmist:
Kui Pentagon viib ellu oma ähvarduse leping tühistada, seisab Anthropic silmitsi märkimisväärse tuluauguga, kuid selle maine „ohutus ennekõike” tehisintellekti ettevõttena tõenäoliselt kinnistub. Samal ajal võib kaitseministeerium hakata looma oma siseseid mudeleid või tegema koostööd väiksemate, nišipõhisemate kaitsetehnoloogia idufirmadega, kes on valmis looma mudeleid ilma kommertstoodetes leiduvate rangete ohutuspiireteta.
See kokkupõrge on tõenäoliselt alles esimene paljudest, kuna piir tsiviiltehnoloogia ja sõjalise võimekuse vahel tehisintellekti ajastul üha enam hägustub.



Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.
/ Tasuta konto loomin