Power Reads

Žmogiškumo deklaracija: abiejų partijų gairės superintelekto amžiui

Susipažinkite su Žmogiškumo deklaracija – abiejų partijų gairėmis atsakingam DI vystymui po Pentarono ir „Anthropic“ konflikto. Sužinokite apie DI saugą.
Linda Zola
Linda Zola
2026 m. kovo 8 d.
Žmogiškumo deklaracija: abiejų partijų gairės superintelekto amžiui

Pastarasis konfliktas tarp Pentarono ir „Anthropic“ apnuogino realybę, kurią daugelis Silicio slėnyje ir Vašingtone bandė ignoruoti: mes skrendame aklai. Kol gynybos struktūros ir privačios laboratorijos konfliktuoja dėl nacionalinio saugumo ir korporacinės autonomijos ribų, atsirado lyderystės vakuumas. Į šią tuštumą žengia Žmogiškumo deklaracija (angl. Pro-Human Declaration) – sistema, kurią parengė abiejų partijų tyrėjų, etikų ir pramonės veteranų koalicija, teigianti, kad jei vyriausybė nenustatys taisyklių, tai turi padaryti žmonės.

Iš dalies organizuota MIT fiziko Maxo Tegmarko, deklaracija pasirodė būtent tada, kai priešprieša tarp Gynybos departamento ir vienos pirmaujančių pasaulio DI laboratorijų pasiekė kulminaciją. Tai nėra tik dar vienas atviras laiškas; tai techninis ir etinis planas pasauliui, kuriame superintelektas nebėra mokslinės fantastikos klišė, o artėjantis lūžio taškas.

Valdysenos krizė

Metų metus požiūris į DI reguliavimą buvo reaktyvus. Teisės aktai dažnai atsilieka nuo svaiginančio modelių mokymo greičio, palikdami kūrėjams patiems save reguliuoti. Pentarono ir „Anthropic“ incidentas – kai dėl komunikacijos sutrikimų, susijusių su prieiga prie modelių ir saugos protokolais, viešai nutrūko ryšiai – įrodo, kad net ir svarbiausios partnerystės yra trapios be aiškių, standartizuotų bendradarbiavimo taisyklių.

Maxas Tegmarkas pastebi, kad visuomenės kantrybė išseko. Naujausi duomenys rodo, kad 95 % amerikiečių dabar prieštarauja nereguliuojamoms lenktynėms superintelekto link. Tai nėra tik „robotų žudikų“ baimė; tai racionalus susirūpinimas dėl ekonominio išstūmimo, tiesos erozijos ir žmogaus įtakos praradimo sprendimų priėmimo procesuose, kurie valdo mūsų gyvenimus.

Žmogiškumo sistemos ramsčiai

Žmogiškumo deklaracija peržengia neaiškias frazes apie „DI gėriui“. Vietoj to, joje siūlomi trys konkretūs ramsčiai, skirti užtikrinti, kad sistemoms tampant vis pajėgesnėms, jos liktų tvirtoje žmogaus kontrolėje.

  1. Privalomi saugos buferiai: prieš diegiant bet kokį modelį, viršijantį tam tikrą skaičiavimo slenkstį, turi būti atliktas nepriklausomas trečiųjų šalių auditas, nesusijęs nei su kūrėju, nei su vyriausybe. Tai užkerta kelią „namų darbų vertinimo patiems sau“ problemai, kuri šiuo metu vyrauja pramonėje.
  2. Teisė į žmogaus vaidmenį: deklaracijoje teigiama, kad tam tikri sprendimai – teisiniai nuosprendžiai, mirtinos jėgos panaudojimas ir medicininės diagnozės – visada privalo turėti „žmogų grandinėje“ (angl. human-in-the-loop), kuris prisiima galutinę atsakomybę. DI turėtų siūlyti, bet žmogus privalo nuspręsti.
  3. Ketinimų skaidrumas: kūrėjai privalo skaidriai pateikti ne tik tai, modelis daro, bet ir kaip jis buvo mokomas bei kokie yra jo optimizavimo tikslai. Jei modelis sukurtas siekiant maksimaliai padidinti įsitraukimą tikslumo sąskaita, tai turi būti viešai žinoma.

Dabartinės padėties ir Žmogiškumo gairių palyginimas

Norėdami suprasti šios deklaracijos siūlomą pokytį, galime pažvelgti, kaip dabartinė pramonės praktika atrodo lyginant su siūloma sistema.

Funkcija Dabartinis pramonės standartas Žmogiškumo gairės
Saugos bandymai Vidinis „red-teaming“; savanoriškas atskleidimas. Privalomi, nepriklausomi trečiųjų šalių auditai.
Atsakomybė Neaiški; dažnai apsaugota EULA sutartimis. Aiškios teisinės sistemos kūrėjų atsakomybei.
Kūrimo greitis Konkurencinės „lenktynės į viršūnę“ (arba dugną). Saugos etapais ribojami pasiekimai ir skaičiavimo pajėgumų lubos.
Visuomenės indėlis Minimalus; apsiribojama atsiliepimais po išleidimo. Abiejų partijų priežiūra ir viešas skaidrumas.

Kodėl Pentarono ir „Anthropic“ priešprieša yra svarbi

Žmogiškumo deklaracijos ir pastarųjų Pentarono sunkumų susidūrimas nėra atsitiktinis. Karinis-pramoninis kompleksas trokšta didžiųjų kalbos modelių (LLM) ir autonominių agentų galimybių, tačiau jam trūksta vidinės kompetencijos juos patikrinti. Priešingai, tokios laboratorijos kaip „Anthropic“ baiminasi, kad jų technologija bus naudojama pažeidžiant jų pagrindinius saugos principus.

Be vieningo plano liekame susiskaidžiusioje aplinkoje, kur kai kurios laboratorijos bendradarbiauja su valstybe neaiškiomis sąlygomis, o kitos izoliuojasi. Toks susiskaidymas yra pavojingas. Jis sukuria „reguliavimo užuovėjas“, kur saugumas aukojamas dėl greičio, o visuomenė visiškai pašalinama iš diskusijos.

Praktinės įžvalgos: kas toliau?

Nors Žmogiškumo deklaracija dar nėra įstatymas, ji pateikia kontrolinį sąrašą, kaip turėtų atrodyti atsakingas DI kūrimas ateinančiais mėnesiais. Technologijų lyderiams ir susirūpinusiems piliečiams šie žingsniai yra kritiškai svarbūs:

  • Reikalauti nepriklausomų auditų: remti iniciatyvas, kurios saugos testavimą perduoda ne į modelius kuriančių korporacijų rankas.
  • Pasisakyti už „žmogaus grandinėje“ teisės aktus: užtikrinti, kad didelės rizikos automatizavimui visada reikėtų žmogaus parašo.
  • Stebėti skaičiavimo slenksčius: stebėti statomus milžiniškus techninės įrangos telkinius; tai fizinės vietos, kuriose gims naujos kartos superintelektas, ir joms reikalinga fizinė priežiūra.
  • Mažinti atskirtį tarp partijų: šių naujų gairių stiprybė slypi plačiame palaikyme. DI sauga neturėtų būti partinis klausimas, nes rizikos, susijusios su netinkamu suderinimu, veikia visus, nepriklausomai nuo politinių pažiūrų.

Kelias į priekį

Žmogiškumo deklaracija primena, kad intelekto ateitis yra per daug svarbi, kad ją būtų galima palikti saujelei vadovų ir generolų. Tai raginimas laikytis demokratiškesnio, skaidresnio ir – svarbiausia – į žmogų orientuoto požiūrio į labiausiai transformuojančią mūsų laikų technologiją. Gairės jau pateiktos; lieka tik klausimas, ar valdantieji nuspręs jomis vadovautis.

Šaltiniai:

  • Future of Life Institute: AI Policy and Governance Research
  • MIT News: Max Tegmark on AI Safety and the Future of Intelligence
  • Anthropic: Core Views on AI Safety and Model Scaling
  • Department of Defense: Ethical Principles for Artificial Intelligence
bg
bg
bg

Iki pasimatymo kitoje pusėje.

Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.

/ Sukurti nemokamą paskyrą