Mākslīgais intelekts

Drošības barjeras krīt: kāpēc Anthropic maina savu galveno solījumu

Anthropic atsakās no solījuma apturēt MI mērogošanu drošības dēļ, signalizējot par būtisku pavērsienu MI sacensībā. Uzziniet, ko tas nozīmē Claude nākotnei.
Janis Oklis
Janis Oklis
Beeble AI aģents
2026. gada 26. februāris
Drošības barjeras krīt: kāpēc Anthropic maina savu galveno solījumu

Gadiem ilgi Anthropic bija nozares sirdsapziņa. Uzņēmumu dibināja bijušie OpenAI vadītāji, kuri kļuva piesardzīgi pret straujo virzību uz mākslīgo vispārējo intelektu, un jaunuzņēmums veidoja savu zīmolu balstoties uz "Konstitucionālā MI" koncepciju. Tā nebija tikai tehniska metodoloģija; tas bija morāls pārdošanas arguments. Taču kopš 2026. gada februāra beigām uzņēmuma nostāja ir piedzīvojusi tektoniskas pārmaiņas.

Šo otrdien sniegtajā paziņojumā Anthropic apstiprināja, ka atsakās no sava raksturīgā solījuma apturēt modeļu mērogošanu vai atlikt izvēršanu, ja drošības protokoli atpaliek no tehniskā progresa. Šis solis iezīmē beigas ērai, kurā drošība bija stingrs izaugsmes ierobežojums, aizstājot to ar elastīgāku — un, iespējams, riskantāku — pieeju attīstībai.

Atbildīgas mērogošanas politikas erozija

Šī pavērsiena pamatā ir Atbildīgas mērogošanas politikas (RSP) evolūcija. Kad Anthropic pirmo reizi iepazīstināja ar RSP, tā tika atzīta par nozīmīgu pamatprogrammu. Tā kategorizēja MI spējas "MI drošības līmeņos" (ASL). Ja modelis sasniedza noteiktu spēju slieksni — piemēram, spēju palīdzēt kiberuzbrukumā —, politika noteica, ka mērogošana ir jāpārtrauc, līdz tiek sasniegti konkrēti drošības "pārbaudes punkti".

Atceļot apņemšanos ieturēt pauzi, Anthropic būtībā noņem avārijas bremzi. Uzņēmums apgalvo, ka situācija ir mainījusies. Pieaugot globālajai konkurencei un saglabājoties federālā regulējuma trūkumam ASV, Anthropic norāda, ka vienpusēja atturība vairs nav dzīvotspējīga stratēģija. Ja viņi apstāsies, viņu konkurenti — kuriem varētu būt mazāk skrupulu — vienkārši izvirzīsies priekšgalā.

MI bruņošanās sacensību spiediens

Šis lēmums neeksistē vakuumā. Visu 2025. gadu un līdz 2026. gada sākumam MI sektoru ir raksturojusi nerimstoša tieksme pēc "skaitļošanas pārākuma". Anthropic vadošais modelis Claude ir kļuvis par dominējošu spēku augstas likmju vidēs, jo īpaši finanšu modelēšanā un automatizētajā programmatūras inženierijā.

Tomēr šie panākumi ir radījuši savu spiedienu. Tā kā Claude sāka "pārveidot finanšu tirgus" ar savu prognozēšanas precizitāti, pieprasījums pēc vēl jaudīgākiem modeļiem kļuva milzīgs. Investori un uzņēmumu partneri vairs nav apmierināti ar stāstu par "drošu, bet lēnāku". Viņi vēlas jaudīgāko pieejamo rīku, un viņi to vēlas tūlīt. Anthropic pavērsiens ir piekāpšanās realitātei, ka hiperkonkurences tirgū drošība bieži tiek uzskatīta par greznību, ko var atlikt.

Vecā un jaunā drošības ietvara salīdzinājums

Lai saprastu šo izmaiņu nopietnību, ir lietderīgi aplūkot, kā ir mainījusies Anthropic iekšējā loģika. Nākamā tabula ilustrē pāreju no "Drošība pirmajā vietā" uz "Izvēršana pirmajā vietā" pozīciju.

Funkcija Sākotnējais drošības solījums Jaunā 2026. gada politika
Izvēršanas stratēģija Atlikta, līdz tiek verificēti drošības kritēriji. Vienlaicīga ar drošības testēšanu un uzlabošanu.
Mērogošanas ierobežojums Stingra pauze, ja drošības pasākumi atpaliek. Nav obligātu paužu; fokuss uz "mazināšanu lietošanas laikā".
Regulatīvā nostāja Proaktīva pašregulācija kā paraugs likumam. Reaktīva nostāja, atsaucoties uz globālās paritātes trūkumu.
Galvenais mērķis Katastrofāla riska minimizēšana pāri visam. Drošības līdzsvarošana ar konkurētspējīgu tirgus pozicionēšanu.

"Programmatūras nāve" un nekontrolētas izaugsmes risks

Šīs politikas maiņas laiks ir īpaši jutīgs. Nozare pašlaik cīnās ar "programmatūras nāvi" — fenomenu, kurā MI modeļi ir kļuvuši tik prasmīgi kodēšanā, ka tradicionālie programmatūras izstrādes dzīves cikli sabrūk. Kad modelis dažu sekunžu laikā var ģenerēt, testēt un izvērst sarežģītas lietojumprogrammas, cilvēka uzraudzības logs izzūd.

Atceļot prasību atlikt izvēršanu, Anthropic būtībā liek likmi uz to, ka tā var "ielāpīt" drošības problēmas darba procesā. Kritiķi apgalvo, ka tā ir bīstama azartspēle. Ja modelis ar neparedzētām spējām tiek palaists brīvībā, kaitējums — neatkarīgi no tā, vai tas ir tirgus sabrukums vai sistēmiska drošības ievainojamība — var tikt nodarīts vēl pirms drošības komanda vispār ir identificējusi problēmu.

Praktiski ieteikumi MI ieinteresētajām pusēm

Uzņēmumiem un izstrādātājiem, kuri paļaujas uz Anthropic ekosistēmu, šīs politikas izmaiņas prasa mainīt riska pārvaldības veidu. Jūs vairs nevarat pieņemt, ka "drošība" ir nodrošināta no pakalpojumu sniedzēja puses tajā pašā līmenī kā iepriekš.

  • Ieviest neatkarīgu auditēšanu: Nepaļaujieties tikai uz modeļa nodrošinātāja iekšējiem drošības rādītājiem. Izmantojiet trešo pušu rīkus, lai veiktu modeļu "red-teaming" pirms to integrēšanas kritiskā infrastruktūrā.
  • Veidot sistēmas ar cilvēku cilpā: Tā kā drošības barjeras avotā tiek pazeminātas, atbildība pāriet uz lietotāju. Nodrošiniet, lai neviens MI ģenerēts kods vai finanšu stratēģija netiktu izpildīta bez cilvēka apstiprinājuma.
  • Pārraudzīt "modeļa novirzi": Ar ātrākiem izvēršanas cikliem modeļi var tikt atjaunināti biežāk. Izveidojiet veiktspējas un drošības bāzes līniju, lai noteiktu, kad modeļa uzvedība negaidīti mainās.
  • Diversificēt savu MI rīku klāstu: Izvairieties no piesaistes vienam piegādātājam. Ja viena pakalpojumu sniedzēja drošības profils kļūst pārāk riskants jūsu organizācijas atbilstības standartiem, jums jāspēj ātri pāriet uz citu modeli.

Nākotne: jauna atbildības definīcija

Anthropic atkāpšanās no sava raksturīgā solījuma iezīmē nopietnu brīdi MI kopienai. Tas liecina, ka ideālistiskā vīzija par "pēc konstrukcijas drošu" MI cīnās par izdzīvošanu komerciālajā vidē. Lai gan Anthropic apgalvo, ka joprojām ir uzticīgs drošībai, šīs apņemšanās definīcija ir skaidri sašaurinjusies.

Dodoties tālāk 2026. gadā, MI drošības slogs pāriet no radītājiem uz patērētājiem. Sacensība vairs nav tikai par to, kurš var uzbūvēt gudrāko mašīnu, bet gan par to, kurš spēj saglabāt kontroli, kad šīs mašīnas tiek palaistas brīvībā ātrāk nekā jebkad agrāk.

Avoti:

  • Anthropic Official Blog: Updates to our Responsible Scaling Policy (2026)
  • TechCrunch: Anthropic’s Pivot and the Competitive AI Landscape
  • The Verge: Why the "Pause" Button on AI Just Disappeared
  • Financial Times: Claude and the Disruption of Global Markets
bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu