Spriedze starp Silīcija ielejas ētikas pamatprincipiem un Aizsardzības departamenta stratēģiskajām prasībām ir sasniegusi vārīšanās punktu. Ceturtdien Anthropic, uz MI drošību orientētais uzņēmums, kas izstrādājis Claude modeli, nāca klajā ar galīgu atteikumu Pentagona pieprasījumam, kas būtu fundamentāli mainījis tā mākslīgā intelekta arhitektūru.
Strīda pamatā ir 200 miljonu dolāru vērts līgums un aizsardzības sekretāra Pīta Hegseta pieprasījums noņemt drošības "aizsargmūrus" (guardrails), kas pārvalda Claude uzvedību. Anthropic vadība paziņoja, ka viņi "nevar ar tīru sirdsapziņu" pakļauties šim pieprasījumam, tādējādi radot priekšnoteikumus vēsturiskai konfrontācijai par privāto tehnoloģiju lomu nacionālajā drošībā.
Konflicta centrā ir vērienīgs iepirkuma darījums, kura mērķis ir integrēt Claude uzlabotās spriešanas spējas militārajā loģistikā un stratēģiskajā plānošanā. Tomēr pašreizējā Pentagona vadība kļūst arvien neapmierinātāka ar komerciālā MI ierobežojošo raksturu.
Aizsardzības sekretārs Pīts Hegsets šos drošības protokolus raksturojis kā "rokudzelžus", kas liedz ASV armijai saglabāt konkurētspēju pret pretiniekiem, kurus var nesaistīt līdzīgi ētiski ierobežojumi. Ultimāts ir skaidrs: vai nu Anthropic nodrošina Claude "neierobežotu" versiju — tādu, kas spēj ģenerēt taktisku padomu vai letālas stratēģijas, nebloķējot tās ar drošības filtriem —, vai arī līgums tiks pārtraukts.
Lai saprastu, kāpēc Anthropic ir gatavs atteikties no tik ievērojamas summas, ir jāsaprot, ko šīs drošības pārbaudes dara. Lielo valodu modeļu (LLM) pasaulē aizsargmūri nav tikai vienkārši atslēgvārdu filtri. Tie ir dziļi integrēti apmācības slāņi, ko bieži dēvē par "Konstitucionālo MI" (Constitutional AI).
Šie slāņi neļauj modelim palīdzēt bioloģisko ieroču izstrādē, ģenerēt naida runu vai sniegt instrukcijas kiberuzbrukumiem. Šo pārbaužu noņemšana militārajām vajadzībām pēc būtības radītu modeļa "uzlauztu" (jailbroken) versiju. Kamēr Pentagons apgalvo, ka tas ir nepieciešams augsta riska lēmumu pieņemšanai, kur MI nevajadzētu "lasīt morāli" komandierim, Anthropic bažījas, ka modelis bez robežām varētu tikt ļaunprātīgi izmantots vai uzvesties neparedzami, izraisot katastrofālu kaitējumu reālajā pasaulē.
Anthropic atbilde sakņojas uzņēmuma dibināšanas misijā. Atšķirībā no daudziem konkurentiem, Anthropic tika izveidots tieši tāpēc, lai novērstu katastrofālas MI kļūmes riskus. Savā oficiālajā paziņojumā uzņēmums uzsvēra, ka to drošības protokoli nav "politkorektums", bet gan būtiski tehniski drošības pasākumi, kas izstrādāti, lai nodrošinātu, ka MI paliek noderīgs, nekaitīgs un godīgs.
"Mūsu drošības protokoli nav izvēles funkcijas; tie ir modeļa uzticamības pamats. To noņemšana nozīmētu izlaist rīku, kura drošu lietošanu mēs vairs nevaram garantēt pat kontrolētā militārā vidē."
Atsaucoties uz "sirdsapziņu", Anthropic signalizē, ka tās nav sarunas par cenu vai funkcijām, bet gan fundamentālas domstarpības par autonomu sistēmu ētiku karadarbībā.
Zemāk esošā tabula izceļ atšķirības starp Pentagona prasībām un Anthropic pašreizējo drošības arhitektūru.
| Funkcija | Pentagona prasība (neierobežota) | Anthropic standarts (Claude) |
|---|---|---|
| Operatīvais ātrums | Reāllaikā, bez filtru aiztures | Drošības pārbaudes pievieno milisekunžu aizturi |
| Satura filtrēšana | Atspējota taktiskajiem scenārijiem | Aktīva kaitīgam/nelikumīgam saturam |
| Modeļa saskaņošana | Stingri pieskaņota misijas mērķiem | Pieskaņota "konstitucionāliem" drošības principiem |
| Riska tolerance | Augsta (stratēģiska nepieciešamība) | Zema (sabiedrības un eksistenciālā drošība) |
| Atbildība | Tikai cilvēks lēmumu pieņemšanas ķēdē | Iebūvēti tehniski ierobežojumi |
Šo konfrontāciju cieši vēro citi MI giganti, piemēram, OpenAI un Google. Ja Anthropic zaudēs līgumu, tas radīs vakuumu, ko varētu aizpildīt pielaidīgāks uzņēmums. Tomēr tas arī rada precedentu tam, kā tehnoloģiju uzņēmumi varētu pretoties valdības spiedienam militarizēt vai "atdrošināt" savus produktus.
Plašākai tehnoloģiju nozarei tas izgaismo pieaugošo "divējāda lietojuma" dilemmu. Programmatūra, kas paredzēta civilajai produktivitātei, var tikt pielāgota kinētiskai militārai darbībai. Kad šīs programmatūras izstrādātājs zaudē kontroli pār to, kā modelis domā, neparedzētu seku iespējamība — piemēram, MI halucinācijas par iemeslu eskalācijai — pieaug eksponenciāli.
Tā kā MI arvien vairāk tiek integrēts valdības un augsta riska infrastruktūrā, izstrādātājiem un vadītājiem būtu jāapsver sekojošais:
Ja Pentagons izpildīs savus draudus atcelt līgumu, Anthropic saskarsies ar ievērojamu ieņēmumu kritumu, taču tā reputācija kā "drošība pirmajā vietā" MI uzņēmumam, visticamāk, nostiprināsies. Tikmēr Aizsardzības departaments varētu pievērsties savu iekšējo modeļu izstrādei vai sadarbībai ar mazākiem, specifiskākiem aizsardzības tehnoloģiju jaunuzņēmumiem, kas ir gatavi veidot modeļus bez stingrajiem aizsargmūriem, kādi atrodami komerciālajos produktos.
Šī sadursme, visticamāk, ir tikai pirmā no daudzām, jo robeža starp civilajām tehnoloģijām un militārajām spējām mākslīgā intelekta laikmetā turpina izplūst.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu