Daugelį metų santykiai tarp Silicio slėnio DI pionierių ir Gynybos departamento (DoD) buvo subtilus abipusės būtinybės šokis. Tačiau nuo 2026 m. vasario šis šokis pavirto viešomis ir egzistencinėmis grumtynėmis. Konflikto centre – „Anthropic“, į saugumą orientuotas startuolis, dabar vertinamas stulbinančia 380 mlrd. dolerių suma, ir iš pažiūros paprasta trijų žodžių sąlyga, kurios Pentagonas reikalauja naujausiose pirkimo sutartyse: „bet koks teisėtas naudojimas“ (angl. „any lawful use“).
Nors ši frazė skamba kaip standartinė teisinė klišė, ji reiškia esminį lūžį tame, kaip dirbtinis intelektas bus naudojamas šiuolaikiniame kare. „Anthropic“ sutikimas su šiomis sąlygomis reikštų pačios „Konstitucinio DI“ (angl. „Constitutional AI“) struktūros, apibrėžiančios jos prekės ženklą, išardymą. Pentagonui tai yra nacionalinio saugumo klausimas ir siekis užtikrinti, kad Amerikos DI nebūtų suvaržytas privataus sektoriaus etikos globaliose ginklavimosi varžybose.
„Bet kokio teisėto naudojimo“ nuostata yra naujas DoD DI integracijos aukso standartas. Iš esmės ji reikalauja, kad DI teikėjai atsisakytų savo specifinių „tinkamo naudojimo“ taisyklių – taisyklių, kurios paprastai draudžia naudoti DI smurtui, sekimui ar ginklų kūrimui – tol, kol kariuomenės taikymas laikomas teisėtu pagal tarptautinę ir vidaus teisę.
Pranešimai rodo, kad OpenAI ir Elono Musko „xAI“ jau tyliai atnaujino savo paslaugų teikimo sąlygas, kad atitiktų šį reikalavimą. Taip jie atvėrė kelią savo modelių integravimui į „žudymo grandinę“ (angl. „kill chain“) – taikinių nustatymo, sekimo ir naikinimo procesą. Tačiau „Anthropic“ išlieka vienintele besipriešinančia šalimi tarp „didžiojo trejeto“ pamatinių modelių kūrėjų, o tai lėmė kelias savaites trunkančią kovą, vykstančią per nutekintus memorandumus ir aštrius pasikeitimus socialiniuose tinkluose.
Norint suprasti, kodėl „Anthropic“ taip užsispyrė, reikia pažvelgti į tai, kaip kuriami jos modeliai. Kitaip nei kiti didieji kalbos modeliai (LLM), kurie tobulinami pirmiausia per žmonių grįžtamąjį ryšį, „Anthropic“ „Claude“ modeliai yra valdomi „Konstitucijos“ – rašytinių principų rinkinio, kurį DI naudoja savo elgesiui prižiūrėti.
Jei Pentagonas integruotų „Claude“ į sistemą, skirtą masiniam sekimui arba, dar kontroversiškiau, mirtinoms autonominėms ginklų sistemoms (LAWS), DI susidurtų su loginiu paradoksu. Jo pagrindinė programinė įranga draudžia padėti daryti žalą ar pažeidinėti žmogaus teises, tačiau operatyvinės komandos reikalautų būtent to.
„Mes kalbame ne tik apie politikos pasikeitimą,“ neseniai vykusiame forume pažymėjo vienas neįvardytas „Anthropic“ inžinierius. „Mes kalbame apie saugumo architektūros, kuri daro mūsų modelį tuo, kas jis yra, lobotomiją. Negalite turėti „saugaus“ DI, kuris taip pat yra įgaliotas savarankiškai nuspręsti sunaikinti taikinį.“
Didžiausias trinties taškas susijęs su DI, kuris gali sekti ir naikinti taikinius be žmogaus įsikišimo (angl. „in the loop“). Nors Pentagonas oficialiai teigia, kad galutinį sprendimą panaudoti mirtiną jėgą visada priims žmogus, „bet kokio teisėto naudojimo“ sąlyga suteikia teisinę priedangą ateičiai, kurioje greitis yra pagrindinis ginklas. Pavyzdžiui, dronų spiečiaus atveju žmogus-operatorius gali būti per lėtas, kad patvirtintų kiekvieną smūgį, todėl DI paliekama valdyti kovos veiksmus.
„Anthropic“ vadovybė teigia, kad dabartiniams DI modeliams trūksta „sveiko proto“ ir situacijos suvokimo, kad realaus mūšio lauko chaose būtų galima atskirti kombatantą nuo civilio. Atsisakydama Pentagono sąlygų, „Anthropic“ faktiškai lažinasi, kad rinka – ir visuomenė – galiausiai vertins saugumą labiau nei gryną karinę naudą.
Ši priešprieša vyksta „Anthropic“ ne itin palankiu metu. Esant 380 mlrd. dolerių įvertinimui, spaudimas generuoti milžiniškas pajamas yra didžiulis. Vyriausybinės sutartys yra didžiausia nepanaudota aukso gysla DI sektoriuje. Nesutikdama su sąlygomis, „Anthropic“ rizikuoja būti pašalinta iš „Joint Warfighting Cloud Capability“ (JWCC) ir kitų kelių milijardų dolerių vertės iniciatyvų, potencialiai užleisdama visą gynybos rinką „OpenAI“ ir „xAI“.
„Anthropic“ pozicijos kritikai teigia, kad jei „etiškiausios“ DI įmonės atsisakys bendradarbiauti su kariuomene, Pentagonas tiesiog pasikliaus mažiau suderintais modeliais, o tai sukels pavojingesnių pasekmių. Tačiau šalininkai „Anthropic“ mato kaip paskutinę gynybos liniją prieš „Black Mirror“ stiliaus automatizuoto karo eskalaciją.
Šios derybos yra indikatorius visai programinės įrangos pramonei. Jos signalizuoja apie „greitai judėk ir viską laužyk“ (angl. „move fast and break things“) eros pabaigą DI srityje ir laikotarpio, kai technologijų įmonės privalo nuspręsti, ar jos yra neutralios paslaugos, ar moraliniai veikėjai, pradžią.
| Funkcija | „Anthropic“ pozicija | „OpenAI“/„xAI“ pozicija |
|---|---|---|
| „Bet koks teisėtas naudojimas“ | Atmesta (šiuo metu) | Priimta |
| Mirtina autonomija | Griežtai draudžiama | Leidžiama prižiūrint DoD |
| Saugumo mechanizmas | Konstitucinis DI (įrašytas į kodą) | RLHF ir taisyklėmis pagrįstas |
| Pagrindinis tikslas | Suderinimas ir saugumas | Greitas mastelio keitimas ir naudingumas |
Šiai kovai tęsiantis, įmonės ir kūrėjai turėtų apsvarstyti šiuos dalykus:
Derybos tarp „Anthropic“ ir Pentagono yra daugiau nei tik sutartis; tai referendumas dėl dirbtinio intelekto sielos. Žengiant giliau į 2026-uosius, pramonė stebės, ar „Anthropic“ pavyks išlaikyti savo moralinę poziciją neaukojant savo finansinės ateities. Kol kas šie trys žodžiai – „bet koks teisėtas naudojimas“ – išlieka brangiausiais žodžiais Silicio slėnio istorijoje.



Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.
/ Sukurti nemokamą paskyrą