Power Reads

Inimkeskne deklaratsioon: kahepoolne teekaart üliintellekti ajastuks

Tutvuge inimkeskse deklaratsiooniga, mis on kahepoolne teekaart vastutustundlikuks tehisintellekti arendamiseks pärast Pentagoni ja Anthropicu vastasseisu. Lugege tehisintellekti ohutuse kohta.
Linda Zola
Linda Zola
8. märts 2026
Inimkeskne deklaratsioon: kahepoolne teekaart üliintellekti ajastuks

Hiljutine tüli Pentagoni ja Anthropicu vahel on paljastanud reaalsuse, mida paljud Silicon Valleys ja Washingtonis on püüdnud ignoreerida: me lendame pimedalt. Samal ajal kui kaitseametkond ja eralaborid põrkuvad riikliku julgeoleku ja korporatiivse autonoomia piiride üle, on tekkinud juhtimisvaakum. Sellesse tühimikku astub inimkeskne deklaratsioon (Pro-Human Declaration) – raamistik, mille on koostanud teadlaste, eetikute ja tööstuse veteranide kahepoolne koalitsioon, kes väidavad, et kui valitsus reegleid ei kehtesta, peavad seda tegema inimesed.

Osaliselt MIT füüsiku Max Tegmarki poolt organiseeritud deklaratsioon saabus just siis, kui vastasseis kaitseministeeriumi ja ühe maailma juhtiva tehisintellekti labori vahel saavutas haripunkti. See ei ole lihtsalt järjekordne avalik kiri; see on tehniline ja eetiline plaan maailma jaoks, kus üliintellekt ei ole enam ulmeline troop, vaid hirmutavalt lähedal asuv verstapost.

Valitsemiskriis

Aastaid on lähenemine tehisintellekti reguleerimisele olnud reageeriv. Seadusandlus jääb sageli mudelite treenimise peadpööritavast kiirusest maha, jättes arendajad end ise reguleerima. Pentagoni ja Anthropicu vaheline intsident — kus kommunikatsioonihäired mudelitele juurdepääsu ja ohutusprotokollide üle viisid suhete avaliku katkestamiseni — demonstreerib, et isegi kõige kaalukamad partnerlused on haprad ilma selgete ja standardiseeritud koostööreegliteta.

Max Tegmark märgib, et avalikkuse kannatus on katkemas. Hiljutised andmed viitavad sellele, et 95% ameeriklastest on nüüd vastu reguleerimata võidujooksule üliintellekti suunas. See ei ole ainult hirm "tapjarobotite" ees; see on ratsionaalne mure majandusliku asendamise, tõe murenemise ja inimliku otsustusõiguse kaotamise pärast meie elu juhtivates protsessides.

Inimkeskse raamistiku sambad

Inimkeskne deklaratsioon liigub kaugemale ebamäärastest loosungitest nagu "TI hüvanguks". Selle asemel pakub see välja kolm konkreetset sammast, mis on loodud tagama, et süsteemide võimekuse kasvades jääksid need kindlalt inimkontrolli alla.

  1. Kohustuslikud turvapuhvrid: Enne kui võetakse kasutusele mis tahes mudel, mis ületab konkreetse arvutusläve, peab see läbima kolmanda osapoole auditi, mis on sõltumatu nii arendajast kui ka valitsusest. See hoiab ära tööstuses praegu levinud probleemi, kus "õpilane hindab ise oma kodutööd".
  2. Õigus inimlikule otsustusõigusele: Deklaratsioon kinnitab, et teatud otsuste puhul — kohtuotsused, surmav jõud ja meditsiinilised diagnoosid — peab alati olema kaasatud inimene ("human-in-the-loop"), kes kannab lõplikku vastutust. Tehisintellekt peaks soovitama, kuid inimesed peavad otsustama.
  3. Kavatsuste läbipaistvus: Arendajad peavad olema läbipaistvad mitte ainult selle osas, mida mudel teeb, vaid ka selle osas, kuidas seda treeniti ja millised on selle optimeerimise eesmärgid. Kui mudel on loodud maksimeerima kaasatust täpsuse arvelt, peab see olema avalik teave.

Praeguse maastiku võrdlus inimkeskse teekaardiga

Mõistmaks selle deklaratsiooni pakutavat nihet, saame vaadata, kuidas praegused tööstusharu praktikad võistlevad pakutud raamistikuga.

Funktsioon Praegune tööstusstandard Inimkeskne teekaart
Ohutustestimine Sisemine "punane meeskond"; vabatahtlik avalikustamine. Kohustuslikud, sõltumatud kolmanda osapoole auditid.
Vastutus Ebaselge; sageli varjatud lõppkasutaja litsentsilepingutega (EULA). Selged õigusraamistikud arendaja vastutuse kohta.
Arenduskiirus Konkurentsipõhine "võidujooks tippuni" (või põhja). Ohutuspiirangutega verstapostid ja arvutusvõimsuse piirangud.
Avalikkuse panus Minimaalne; piirdub turuletoomise järgse tagasisidega. Kahepoolne järelevalve ja avalik läbipaistvus.

Miks Pentagoni ja Anthropicu vastasseis on oluline

Inimkeskse deklaratsiooni kokkupõrge Pentagoni hiljutiste raskustega ei ole juhus. Sõjatööstuskompleks januneb suurte keelemudelite (LLM) ja autonoomsete agentide võimekuse järele, kuid neil puudub sisemine ekspertiis nende kontrollimiseks. Vastupidiselt on laborid nagu Anthropic ettevaatlikud, et nende tehnoloogiat ei kasutataks viisidel, mis rikuvad nende põhilisi ohutuspõhimõtteid.

Ilma ühtse teekaardita jääme killustatud maastikule, kus mõned laborid teevad riigiga koostööd läbipaistmatutel tingimustel, teised aga tõmbuvad isolatsiooni. See killustatus on ohtlik. See loob "regulatiivseid varjupaiku", kus ohutus ohverdatakse kiiruse nimel, ja jätab avalikkuse vestlusest täielikult välja.

Praktilised järeldused: mis saab edasi?

Kuigi inimkeskne deklaratsioon ei ole veel seadus, pakub see kontrollnimekirja selle kohta, milline peaks vastutustundlik tehisintellekti arendamine lähikuudel välja nägema. Tehnoloogiajuhtide ja murelike kodanike jaoks on järgmised sammud kriitilised:

  • Nõudke sõltumatuid auditeid: Toetage algatusi, mis viivad ohutustestimise välja mudeleid ehitavate korporatsioonide käest.
  • Seiske "inimene-protsessis" seadusandluse eest: Tagage, et kõrgete panustega automatiseerimine nõuaks alati inimese allkirja.
  • Jälgige arvutuslävesid: Hoidke silm peal ehitatavatel tohututel riistvaraklastritel; need on füüsilised asukohad, kus sünnib järgmine põlvkond üliintellekti, ja need vajavad füüsilist järelevalvet.
  • Sillutage kahepoolne lõhe: Selle uue teekaardi tugevus peitub selle laias toetuses. Tehisintellekti ohutus ei tohiks olla parteiline küsimus, kuna ebakõla riskid mõjutavad kõiki sõltumata poliitilisest kuuluvusest.

Tee edasi

Inimkeskne deklaratsioon on meeldetuletus, et intellekti tulevik on liiga oluline, et jätta see vaid käputäie tegevjuhtide ja kindralite hooleks. See on üleskutse demokraatlikumale, läbipaistvamale ja — eelkõige — inimkesksemale lähenemisele meie aja kõige transformatiivsemale tehnoloogiale. Teekaart on laual; ainus küsimus on, kas võimulolijad otsustavad seda järgida.

Allikad:

  • Future of Life Institute: AI Policy and Governance Research
  • MIT News: Max Tegmark on AI Safety and the Future of Intelligence
  • Anthropic: Core Views on AI Safety and Model Scaling
  • Department of Defense: Ethical Principles for Artificial Intelligence
bg
bg
bg

Kohtumiseni teisel poolel.

Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.

/ Tasuta konto loomin