Gadiem ilgi Anthropic bija nozares sirdsapziņa. Uzņēmumu dibināja bijušie OpenAI vadītāji, kuri kļuva piesardzīgi pret straujo virzību uz mākslīgo vispārējo intelektu, un jaunuzņēmums veidoja savu zīmolu balstoties uz "Konstitucionālā MI" koncepciju. Tā nebija tikai tehniska metodoloģija; tas bija morāls pārdošanas arguments. Taču kopš 2026. gada februāra beigām uzņēmuma nostāja ir piedzīvojusi tektoniskas pārmaiņas.
Šo otrdien sniegtajā paziņojumā Anthropic apstiprināja, ka atsakās no sava raksturīgā solījuma apturēt modeļu mērogošanu vai atlikt izvēršanu, ja drošības protokoli atpaliek no tehniskā progresa. Šis solis iezīmē beigas ērai, kurā drošība bija stingrs izaugsmes ierobežojums, aizstājot to ar elastīgāku — un, iespējams, riskantāku — pieeju attīstībai.
Šī pavērsiena pamatā ir Atbildīgas mērogošanas politikas (RSP) evolūcija. Kad Anthropic pirmo reizi iepazīstināja ar RSP, tā tika atzīta par nozīmīgu pamatprogrammu. Tā kategorizēja MI spējas "MI drošības līmeņos" (ASL). Ja modelis sasniedza noteiktu spēju slieksni — piemēram, spēju palīdzēt kiberuzbrukumā —, politika noteica, ka mērogošana ir jāpārtrauc, līdz tiek sasniegti konkrēti drošības "pārbaudes punkti".
Atceļot apņemšanos ieturēt pauzi, Anthropic būtībā noņem avārijas bremzi. Uzņēmums apgalvo, ka situācija ir mainījusies. Pieaugot globālajai konkurencei un saglabājoties federālā regulējuma trūkumam ASV, Anthropic norāda, ka vienpusēja atturība vairs nav dzīvotspējīga stratēģija. Ja viņi apstāsies, viņu konkurenti — kuriem varētu būt mazāk skrupulu — vienkārši izvirzīsies priekšgalā.
Šis lēmums neeksistē vakuumā. Visu 2025. gadu un līdz 2026. gada sākumam MI sektoru ir raksturojusi nerimstoša tieksme pēc "skaitļošanas pārākuma". Anthropic vadošais modelis Claude ir kļuvis par dominējošu spēku augstas likmju vidēs, jo īpaši finanšu modelēšanā un automatizētajā programmatūras inženierijā.
Tomēr šie panākumi ir radījuši savu spiedienu. Tā kā Claude sāka "pārveidot finanšu tirgus" ar savu prognozēšanas precizitāti, pieprasījums pēc vēl jaudīgākiem modeļiem kļuva milzīgs. Investori un uzņēmumu partneri vairs nav apmierināti ar stāstu par "drošu, bet lēnāku". Viņi vēlas jaudīgāko pieejamo rīku, un viņi to vēlas tūlīt. Anthropic pavērsiens ir piekāpšanās realitātei, ka hiperkonkurences tirgū drošība bieži tiek uzskatīta par greznību, ko var atlikt.
Lai saprastu šo izmaiņu nopietnību, ir lietderīgi aplūkot, kā ir mainījusies Anthropic iekšējā loģika. Nākamā tabula ilustrē pāreju no "Drošība pirmajā vietā" uz "Izvēršana pirmajā vietā" pozīciju.
| Funkcija | Sākotnējais drošības solījums | Jaunā 2026. gada politika |
|---|---|---|
| Izvēršanas stratēģija | Atlikta, līdz tiek verificēti drošības kritēriji. | Vienlaicīga ar drošības testēšanu un uzlabošanu. |
| Mērogošanas ierobežojums | Stingra pauze, ja drošības pasākumi atpaliek. | Nav obligātu paužu; fokuss uz "mazināšanu lietošanas laikā". |
| Regulatīvā nostāja | Proaktīva pašregulācija kā paraugs likumam. | Reaktīva nostāja, atsaucoties uz globālās paritātes trūkumu. |
| Galvenais mērķis | Katastrofāla riska minimizēšana pāri visam. | Drošības līdzsvarošana ar konkurētspējīgu tirgus pozicionēšanu. |
Šīs politikas maiņas laiks ir īpaši jutīgs. Nozare pašlaik cīnās ar "programmatūras nāvi" — fenomenu, kurā MI modeļi ir kļuvuši tik prasmīgi kodēšanā, ka tradicionālie programmatūras izstrādes dzīves cikli sabrūk. Kad modelis dažu sekunžu laikā var ģenerēt, testēt un izvērst sarežģītas lietojumprogrammas, cilvēka uzraudzības logs izzūd.
Atceļot prasību atlikt izvēršanu, Anthropic būtībā liek likmi uz to, ka tā var "ielāpīt" drošības problēmas darba procesā. Kritiķi apgalvo, ka tā ir bīstama azartspēle. Ja modelis ar neparedzētām spējām tiek palaists brīvībā, kaitējums — neatkarīgi no tā, vai tas ir tirgus sabrukums vai sistēmiska drošības ievainojamība — var tikt nodarīts vēl pirms drošības komanda vispār ir identificējusi problēmu.
Uzņēmumiem un izstrādātājiem, kuri paļaujas uz Anthropic ekosistēmu, šīs politikas izmaiņas prasa mainīt riska pārvaldības veidu. Jūs vairs nevarat pieņemt, ka "drošība" ir nodrošināta no pakalpojumu sniedzēja puses tajā pašā līmenī kā iepriekš.
Anthropic atkāpšanās no sava raksturīgā solījuma iezīmē nopietnu brīdi MI kopienai. Tas liecina, ka ideālistiskā vīzija par "pēc konstrukcijas drošu" MI cīnās par izdzīvošanu komerciālajā vidē. Lai gan Anthropic apgalvo, ka joprojām ir uzticīgs drošībai, šīs apņemšanās definīcija ir skaidri sašaurinjusies.
Dodoties tālāk 2026. gadā, MI drošības slogs pāriet no radītājiem uz patērētājiem. Sacensība vairs nav tikai par to, kurš var uzbūvēt gudrāko mašīnu, bet gan par to, kurš spēj saglabāt kontroli, kad šīs mašīnas tiek palaistas brīvībā ātrāk nekā jebkad agrāk.
Avoti:



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu