Power Reads

Cilvēces aizstāvības deklarācija: Abpusējs ceļvedis superinteliģences laikmetam

Iepazīstieties ar Cilvēces aizstāvības deklarāciju — abpusēju ceļvedi atbildīgai MI izstrādei pēc Pentagona un Anthropic konflikta. Uzziniet par MI drošību.
Linda Zola
Linda Zola
2026. gada 8. marts
Cilvēces aizstāvības deklarācija: Abpusējs ceļvedis superinteliģences laikmetam

Nesenais konflikts starp Pentagonu un Anthropic ir atklājis realitāti, kuru daudzi Silīcija ielejā un Vašingtonā ir mēģinājuši ignorēt: mēs lidojam uz labu laimi. Kamēr aizsardzības iestādes un privātās laboratorijas strīdas par nacionālās drošības un korporatīvās autonomijas robežām, ir izveidojies līderības vakuums. Šajā tukšumā piesakās Cilvēces aizstāvības deklarācija (Pro-Human Declaration) — ietvars, ko izstrādājusi pētnieku, ētikas speciālistu un nozares veterānu abpusēja koalīcija, kuri apgalvo: ja valdība nenosaka noteikumus, tas jādara tautai.

Deklarācija, kuras organizēšanā piedalījās MIT fiziķis Makss Tegmarks, parādījās tieši tad, kad saspīlējums starp Aizsardzības ministriju un vienu no pasaules vadošajām MI laboratorijām sasniedza kulmināciju. Tā nav tikai kārtējā atklātā vēstule; tas ir tehnisks un ētisks projekts pasaulei, kurā superinteliģence vairs nav zinātniskās fantastikas tēls, bet gan tuvojošos pavērsiena punkts.

Pārvaldības krīze

Gadiem ilgi pieeja MI regulēšanai ir bijusi reaktīva. Likumdošana bieži atpaliek no modeļu apmācības galvu reibinošā ātruma, atstājot izstrādātājus pašregulācijai. Pentagona un Anthropic incidents — kur komunikācijas pārrāvums par piekļuvi modeļiem un drošības protokoliem izraisīja publisku saišu pārtraukšanu — pierāda, ka pat vissvarīgākās partnerības ir trauslas bez skaidriem, standartizētiem sadarbības noteikumiem.

Makss Tegmarks atzīmē, ka sabiedrības pacietība ir sasniegusi lūzuma punktu. Jaunākie dati liecina, ka 95% amerikāņu tagad iebilst pret neregulētu sacensību uz superinteliģenci. Tās nav tikai bailes no "robotiem-slepkavām"; tās ir racionālas bažas par ekonomisko pārvietošanu, patiesības eroziju un cilvēka rīcībspējas zaudēšanu lēmumu pieņemšanas procesos, kas pārvalda mūsu dzīvi.

Cilvēces aizstāvības ietvara pīlāri

Cilvēces aizstāvības deklarācija sniedzas tālāk par tukšām frāzēm par "MI labiem mērķiem". Tā vietā tā piedāvā trīs konkrētus pīlārus, kas izstrādāti, lai nodrošinātu, ka sistēmām kļūstot spējīgākām, tās paliek stingrā cilvēka kontrolē.

  1. Obligātie drošības buferi: Pirms jebkura modeļa ieviešanas, kas pārsniedz noteiktu skaitļošanas slieksni, tam jāveic trešās puses audits, kas ir neatkarīgs gan no izstrādātāja, gan no valdības. Tas novērš "pašu mājasdarbu vērtēšanas" problēmu, kas pašlaik dominē nozarē.
  2. Tiesības uz cilvēka rīcībspēju: Deklarācija uzsver, ka noteiktiem lēmumiem — tiesu spriedumiem, nāvējoša spēka lietošanai un medicīniskajām diagnozēm — vienmēr jāietver "cilvēks procesā" (human-in-the-loop), kurš uzņemas galīgo atbildību. MI būtu jāiesaka, bet cilvēkiem ir jāizlemj.
  3. Nolūku caurskatāmība: Izstrādātājiem jābūt atklātiem ne tikai par to, ko modelis dara, bet arī par to, tas tika apmācīts un kādi ir tā optimizācijas mērķi. Ja modelis ir izstrādāts, lai maksimāli palielinātu iesaisti uz precizitātes rēķina, tam jābūt publiski pieejamai informācijai.

Pašreizējās situācijas salīdzinājums ar Cilvēces aizstāvības ceļvedi

Lai saprastu šīs deklarācijas piedāvātās izmaiņas, mēs varam aplūkot, kā pašreizējā nozares prakse izskatās uz piedāvātā ietvara fona.

Funkcija Pašreizējais nozares standarts Cilvēces aizstāvības ceļvedis
Drošības testēšana Iekšējā pārbaude (red-teaming); brīvprātīga atklāšana. Obligāti, neatkarīgi trešo pušu auditi.
Atbildība Neskaidra; bieži aizsargāta ar lietošanas līgumiem (EULA). Skaidri tiesiskie ietvari izstrādātāju atbildībai.
Attīstības ātrums Konkurējoša "sacensība uz augšu" (vai leju). Drošības kontrolēti posmi un skaitļošanas ierobežojumi.
Sabiedrības ieguldījums Minimāls; aprobežojas ar atsauksmēm pēc palaišanas. Abpusēja uzraudzība un publiska caurskatāmība.

Kāpēc Pentagona un Anthropic saspīlējums ir svarīgs

Cilvēces aizstāvības deklarācijas sadursme ar Pentagona nesenajām grūtībām nav nejaušība. Militāri rūpnieciskais komplekss kāro pēc lielo valodas modeļu (LLM) un autonomo aģentu iespējām, taču tam trūkst iekšējās kompetences to pārbaudei. Savukārt tādas laboratorijas kā Anthropic baidās, ka to tehnoloģijas tiks izmantotas veidos, kas pārkāpj to drošības pamatprincipus.

Bez vienota ceļveža mēs paliekam sadrumstalotā vidē, kur dažas laboratorijas sadarbojas ar valsti saskaņā ar nepārredzamiem noteikumiem, bet citas noslēdzas izolācijā. Šī sadrumstalotība ir bīstama. Tā rada "regulējuma patvērumus", kur drošība tiek upurēta ātruma dēļ, un pilnībā izslēdz sabiedrību no sarunas.

Praktiskie secinājumi: Kas notiks tālāk?

Lai gan Cilvēces aizstāvības deklarācija vēl nav likums, tā sniedz kontrolsarakstu tam, kā tuvākajos mēnešos vajadzētu izskatīties atbildīgai MI izstrādei. Tehnoloģiju līderiem un bažīgiem pilsoņiem šie soļi ir kritiski:

  • Pieprasīt neatkarīgus auditus: Atbalstīt iniciatīvas, kas izņem drošības testēšanu no to korporāciju rokām, kuras veido modeļus.
  • Iestāties par "Cilvēks procesā" likumdošanu: Nodrošināt, ka augsta riska automatizācijai vienmēr ir nepieciešams cilvēka paraksts.
  • Pārraudzīt skaitļošanas sliekšņus: Sekot līdzi masīvajiem aparatūras klasteriem, kas tiek būvēti; tās ir fiziskās vietas, kur dzims nākamā superinteliģences paaudze, un tām nepieciešama fiziska uzraudzība.
  • Pārvarēt politisko plaisu: Šī jaunā ceļveža spēks slēpjas tā plašajā atbalstā. MI drošībai nevajadzētu būt politizētam jautājumam, jo neatbilstības riski ietekmē ikvienu neatkarīgi no politiskās piederības.

Ceļš uz priekšu

Cilvēces aizstāvības deklarācija ir atgādinājums, ka intelekta nākotne ir pārāk svarīga, lai to atstātu dažu izpilddirektoru un ģenerāļu ziņā. Tas ir aicinājums uz demokrātiskāku, caurskatāmāku un, galvenais, uz cilvēku vērstu pieeju mūsu laikmeta transformējošākajai tehnoloģijai. Ceļvedis ir uz galda; vienīgais atlikušais jautājums ir, vai tie, kam ir vara, izvēlēsies tam sekot.

Avoti:

  • Future of Life Institute: AI Policy and Governance Research
  • MIT News: Max Tegmark on AI Safety and the Future of Intelligence
  • Anthropic: Core Views on AI Safety and Model Scaling
  • Department of Defense: Ethical Principles for Artificial Intelligence
bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu