Daugelį metų „Anthropic“ buvo laikoma pramonės sąžine. Įkurta buvusių „OpenAI“ vadovų, kurie su nerimu žvelgė į staigų lėkimą link bendrojo dirbtinio intelekto, ši pradedančioji įmonė savo prekės ženklą sukūrė remdamasi „Konstitucinio DI“ (angl. „Constitutional AI“) koncepcija. Tai nebuvo tik techninė metodika; tai buvo moralinis pardavimo argumentas. Tačiau 2026 m. vasario pabaigoje bendrovės pozicija patyrė tektoninį lūžį.
Šį antradienį paskelbtame pareiškime „Anthropic“ patvirtino, kad atsisako savo firminio pažado stabdyti modelių masto didinimą arba atidėti jų diegimą, kai saugumo protokolai atsilieka nuo techninės pažangos. Šis žingsnis žymi eros, kurioje saugumas buvo griežtas augimo apribojimas, pabaigą, pakeičiant ją lankstesniu – ir, ko gero, rizikingesniu – požiūriu į plėtrą.
Šio posūkio pagrindas yra Atsakingo masto didinimo politikos (angl. Responsible Scaling Policy, RSP) evoliucija. Kai „Anthropic“ pirmą kartą pristatė RSP, ji buvo sveikinama kaip pavyzdinė sistema. Ji suskirstė DI galimybes į „DI saugumo lygius“ (angl. AI Safety Levels, ASL). Jei modelis pasiekdavo tam tikrą galimybių ribą – pavyzdžiui, gebėjimą padėti vykdyti kibernetinę ataką – politika reikalavo sustabdyti masto didinimą, kol bus pasiekti konkretūs saugumo „kontrolės punktai“.
Panaikindama įsipareigojimą daryti pauzę, „Anthropic“ iš esmės pašalina avarinį stabdį. Bendrovė teigia, kad aplinka pasikeitė. Intensyvėjant pasaulinei konkurencijai ir Jungtinėse Valstijose vis dar trūkstant federalinio reguliavimo, „Anthropic“ užsimena, kad vienašališkas susilaikymas nebebuvo perspektyvi strategija. Jei jie sustos, jų konkurentai, kurie gali turėti mažiau skrupulų, tiesiog išsiverš į priekį.
Šis sprendimas neatsirado vakuume. Per visus 2025 m. ir 2026 m. pradžioje DI sektorių apibūdino nenumaldomas siekis pasiekti „skaičiavimo galios viršenybę“. Pagrindinis „Anthropic“ modelis „Claude“ tapo dominuojančia jėga didelės rizikos aplinkose, ypač finansinio modeliavimo ir automatizuotos programinės įrangos inžinerijos srityse.
Tačiau ši sėkmė atnešė ir savitą spaudimą. Kai „Claude“ pradėjo „versti finansų rinkas aukštyn kojomis“ dėl savo prognozių tikslumo, dar galingesnių modelių paklausa tapo kurtinanti. Investuotojai ir įmonių partneriai nebesitenkina pasakojimu „saugu, bet lėčiau“. Jie nori galingiausio prieinamo įrankio ir nori jo dabar. „Anthropic“ posūkis yra nuolaida realybei, kad itin konkurencingoje rinkoje saugumas dažnai laikomas prabanga, kurią galima atidėti vėlesniam laikui.
Norint suprasti šio pokyčio svorį, naudinga pažvelgti į tai, kaip pasikeitė vidinė „Anthropic“ logika. Ši lentelė iliustruoja perėjimą nuo „pirmiausia saugumas“ prie „pirmiausia diegimas“ pozicijos.
| Funkcija | Pradinis saugumo pažadas | Naujoji 2026 m. politika |
|---|---|---|
| Diegimo strategija | Atidedama, kol patvirtinami saugumo rodikliai. | Vykdoma kartu su saugumo testavimu ir tobulinimu. |
| Masto didinimo apribojimas | Griežta pauzė, jei saugumo priemonės atsilieka. | Jokių privalomų pauzių; dėmesys „rizikos mažinimui naudojimo metu“. |
| Reguliavimo pozicija | Proaktyvus savireguliavimas kaip pavyzdys įstatymams. | Reaktyvi pozicija, nurodant pasaulinio pariteto trūkumą. |
| Pagrindinis tikslas | Visų pirma katastrofiškos rizikos mažinimas. | Saugumo ir konkurencinės pozicijos rinkoje pusiausvyra. |
Šio politikos posūkio laikas yra ypač jautrus. Pramonė šiuo metu grumiasi su „programinės įrangos mirtimi“ – reiškiniu, kai DI modeliai tapo tokie įgudę programuoti, kad tradiciniai programinės įrangos kūrimo ciklai žlunga. Kai modelis gali sugeneruoti, išbandyti ir įdiegti sudėtingas programas per kelias sekundes, žmogaus priežiūros galimybė išnyksta.
Panaikindama reikalavimą atidėti diegimą, „Anthropic“ iš esmės lažinasi, kad galės „sulopyti“ saugumo problemas darbo eigoje. Kritikai teigia, kad tai pavojingas lošimas. Jei į laisvę bus išleistas modelis su nenumatytomis galimybėmis, žala – nesvarbu, ar tai būtų staigus rinkos nuosmukis, ar sisteminis saugumo pažeidžiamumas – gali būti padaryta dar prieš saugumo komandai spėjant identifikuoti problemą.
Verslui ir kūrėjams, pasikliaujantiems „Anthropic“ ekosistema, šis politikos pokytis reikalauja keisti rizikos valdymo būdus. Jūs nebegalite daryti prielaidos, kad saugumas yra įdiegtas tiekėjo tokiu pačiu lygiu kaip anksčiau.
„Anthropic“ atsitraukimas nuo savo firminio pažado žymi blaivinančią akimirką DI bendruomenei. Tai rodo, kad idealistinė „saugaus pagal konstrukciją“ DI vizija sunkiai išgyvena komercinės kalvės karštį. Nors „Anthropic“ teigia, kad vis dar yra įsipareigojusi saugumui, šio įsipareigojimo apibrėžimas akivaizdžiai susiaurėjo.
Žengiant giliau į 2026-uosius, DI saugumo našta persikelia nuo kūrėjų ant vartotojų pečių. Lenktynės nebevyksta tik dėl to, kas gali sukurti protingiausią mašiną, bet ir dėl to, kas gali išlaikyti kontrolę, kai tos mašinos išleidžiamos greičiau nei bet kada anksčiau.
Šaltiniai:



Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.
/ Sukurti nemokamą paskyrą