Dirbtinis intelektas

Trijų žodžių ultimatumas: „Anthropic“ ir Pentagono aukštų statymų priešpriešos užkulisiai

„Anthropic“ priešprieša su Pentagonu dėl „bet kokio teisėto naudojimo“ sąlygos ir mirtinų autonominių ginklų ateitis 380 mlrd. dolerių vertės DI pramonėje.
Trijų žodžių ultimatumas: „Anthropic“ ir Pentagono aukštų statymų priešpriešos užkulisiai

Daugelį metų santykiai tarp Silicio slėnio DI pionierių ir Gynybos departamento (DoD) buvo subtilus abipusės būtinybės šokis. Tačiau nuo 2026 m. vasario šis šokis pavirto viešomis ir egzistencinėmis grumtynėmis. Konflikto centre – „Anthropic“, į saugumą orientuotas startuolis, dabar vertinamas stulbinančia 380 mlrd. dolerių suma, ir iš pažiūros paprasta trijų žodžių sąlyga, kurios Pentagonas reikalauja naujausiose pirkimo sutartyse: „bet koks teisėtas naudojimas“ (angl. „any lawful use“).

Nors ši frazė skamba kaip standartinė teisinė klišė, ji reiškia esminį lūžį tame, kaip dirbtinis intelektas bus naudojamas šiuolaikiniame kare. „Anthropic“ sutikimas su šiomis sąlygomis reikštų pačios „Konstitucinio DI“ (angl. „Constitutional AI“) struktūros, apibrėžiančios jos prekės ženklą, išardymą. Pentagonui tai yra nacionalinio saugumo klausimas ir siekis užtikrinti, kad Amerikos DI nebūtų suvaržytas privataus sektoriaus etikos globaliose ginklavimosi varžybose.

Sąlyga, kuri pakeitė viską

„Bet kokio teisėto naudojimo“ nuostata yra naujas DoD DI integracijos aukso standartas. Iš esmės ji reikalauja, kad DI teikėjai atsisakytų savo specifinių „tinkamo naudojimo“ taisyklių – taisyklių, kurios paprastai draudžia naudoti DI smurtui, sekimui ar ginklų kūrimui – tol, kol kariuomenės taikymas laikomas teisėtu pagal tarptautinę ir vidaus teisę.

Pranešimai rodo, kad OpenAI ir Elono Musko „xAI“ jau tyliai atnaujino savo paslaugų teikimo sąlygas, kad atitiktų šį reikalavimą. Taip jie atvėrė kelią savo modelių integravimui į „žudymo grandinę“ (angl. „kill chain“) – taikinių nustatymo, sekimo ir naikinimo procesą. Tačiau „Anthropic“ išlieka vienintele besipriešinančia šalimi tarp „didžiojo trejeto“ pamatinių modelių kūrėjų, o tai lėmė kelias savaites trunkančią kovą, vykstančią per nutekintus memorandumus ir aštrius pasikeitimus socialiniuose tinkluose.

Konstitucinis DI prieš mūšio lauką

Norint suprasti, kodėl „Anthropic“ taip užsispyrė, reikia pažvelgti į tai, kaip kuriami jos modeliai. Kitaip nei kiti didieji kalbos modeliai (LLM), kurie tobulinami pirmiausia per žmonių grįžtamąjį ryšį, „Anthropic“ „Claude“ modeliai yra valdomi „Konstitucijos“ – rašytinių principų rinkinio, kurį DI naudoja savo elgesiui prižiūrėti.

Jei Pentagonas integruotų „Claude“ į sistemą, skirtą masiniam sekimui arba, dar kontroversiškiau, mirtinoms autonominėms ginklų sistemoms (LAWS), DI susidurtų su loginiu paradoksu. Jo pagrindinė programinė įranga draudžia padėti daryti žalą ar pažeidinėti žmogaus teises, tačiau operatyvinės komandos reikalautų būtent to.

„Mes kalbame ne tik apie politikos pasikeitimą,“ neseniai vykusiame forume pažymėjo vienas neįvardytas „Anthropic“ inžinierius. „Mes kalbame apie saugumo architektūros, kuri daro mūsų modelį tuo, kas jis yra, lobotomiją. Negalite turėti „saugaus“ DI, kuris taip pat yra įgaliotas savarankiškai nuspręsti sunaikinti taikinį.“

Mirtinų autonominių ginklų iškilimas

Didžiausias trinties taškas susijęs su DI, kuris gali sekti ir naikinti taikinius be žmogaus įsikišimo (angl. „in the loop“). Nors Pentagonas oficialiai teigia, kad galutinį sprendimą panaudoti mirtiną jėgą visada priims žmogus, „bet kokio teisėto naudojimo“ sąlyga suteikia teisinę priedangą ateičiai, kurioje greitis yra pagrindinis ginklas. Pavyzdžiui, dronų spiečiaus atveju žmogus-operatorius gali būti per lėtas, kad patvirtintų kiekvieną smūgį, todėl DI paliekama valdyti kovos veiksmus.

„Anthropic“ vadovybė teigia, kad dabartiniams DI modeliams trūksta „sveiko proto“ ir situacijos suvokimo, kad realaus mūšio lauko chaose būtų galima atskirti kombatantą nuo civilio. Atsisakydama Pentagono sąlygų, „Anthropic“ faktiškai lažinasi, kad rinka – ir visuomenė – galiausiai vertins saugumą labiau nei gryną karinę naudą.

380 milijardų dolerių dilema

Ši priešprieša vyksta „Anthropic“ ne itin palankiu metu. Esant 380 mlrd. dolerių įvertinimui, spaudimas generuoti milžiniškas pajamas yra didžiulis. Vyriausybinės sutartys yra didžiausia nepanaudota aukso gysla DI sektoriuje. Nesutikdama su sąlygomis, „Anthropic“ rizikuoja būti pašalinta iš „Joint Warfighting Cloud Capability“ (JWCC) ir kitų kelių milijardų dolerių vertės iniciatyvų, potencialiai užleisdama visą gynybos rinką „OpenAI“ ir „xAI“.

„Anthropic“ pozicijos kritikai teigia, kad jei „etiškiausios“ DI įmonės atsisakys bendradarbiauti su kariuomene, Pentagonas tiesiog pasikliaus mažiau suderintais modeliais, o tai sukels pavojingesnių pasekmių. Tačiau šalininkai „Anthropic“ mato kaip paskutinę gynybos liniją prieš „Black Mirror“ stiliaus automatizuoto karo eskalaciją.

Ką tai reiškia technologijų pramonei

Šios derybos yra indikatorius visai programinės įrangos pramonei. Jos signalizuoja apie „greitai judėk ir viską laužyk“ (angl. „move fast and break things“) eros pabaigą DI srityje ir laikotarpio, kai technologijų įmonės privalo nuspręsti, ar jos yra neutralios paslaugos, ar moraliniai veikėjai, pradžią.

Funkcija „Anthropic“ pozicija „OpenAI“/„xAI“ pozicija
„Bet koks teisėtas naudojimas“ Atmesta (šiuo metu) Priimta
Mirtina autonomija Griežtai draudžiama Leidžiama prižiūrint DoD
Saugumo mechanizmas Konstitucinis DI (įrašytas į kodą) RLHF ir taisyklėmis pagrįstas
Pagrindinis tikslas Suderinimas ir saugumas Greitas mastelio keitimas ir naudingumas

Praktinės įžvalgos DI suinteresuotosioms šalims

Šiai kovai tęsiantis, įmonės ir kūrėjai turėtų apsvarstyti šiuos dalykus:

  • Peržiūrėkite savo priklausomybes: Jei jūsų įmonės programinė įranga remiasi „Claude“, žinokite, kad „Anthropic“ atsisakymas sudaryti gynybos sutartis gali turėti įtakos jos ilgalaikei prieigai prie kapitalo arba lemti verslo modelio pasikeitimą.
  • Stebėkite reguliavimo pokyčius: Šios priešpriešos baigtis greičiausiai turės įtakos būsimiems DI reglamentams. Jei DoD laimės, tikėkitės, kad „bet koks teisėtas naudojimas“ taps standartiniu reikalavimu visoms su vyriausybe susijusioms technologijoms.
  • Etika kaip konkurencinis pranašumas: Civilinio sektoriaus įmonėms „Anthropic“ pozicija sustiprina jos, kaip „saugios“ alternatyvos, statusą, kuris gali būti patrauklesnis sveikatos apsaugos, teisės ir švietimo sektoriams.

Kelias į priekį

Derybos tarp „Anthropic“ ir Pentagono yra daugiau nei tik sutartis; tai referendumas dėl dirbtinio intelekto sielos. Žengiant giliau į 2026-uosius, pramonė stebės, ar „Anthropic“ pavyks išlaikyti savo moralinę poziciją neaukojant savo finansinės ateities. Kol kas šie trys žodžiai – „bet koks teisėtas naudojimas“ – išlieka brangiausiais žodžiais Silicio slėnio istorijoje.

Šaltiniai

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

Iki pasimatymo kitoje pusėje.

Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.

/ Sukurti nemokamą paskyrą