Santykiai tarp Silicio slėnio ir Pentagono ilgą laiką buvo įtampos šaltinis, kurį apibūdino trapi pusiausvyra tarp nacionalinio saugumo poreikių ir dirbtinio intelekto etinių ribų. Žengdama reikšmingą žingsnį savo pozicijai paaiškinti, „OpenAI“ neseniai atskleidė konkrečią sutarties kalbą ir „raudonąsias linijas“, reglamentuojančias jos partnerystę su JAV Gynybos departamentu (DoD). Šis atskleidimas įvyko lemiamu momentu, kai bendrovė siekia atsiriboti nuo kontroversijų, susijusių su kitomis DI laboratorijomis, ir nustatyti naują karinio bendradarbiavimo standartą.
Daugelį metų technologijų pramonė laikėsi savanoriškos tremties nuo gynybos darbų, kurią daugiausia išprovokavo vidiniai darbuotojų maištai tokiose įmonėse kaip „Google“. Tačiau padėtis pasikeitė išaugus geopolitinei įtampai, o strateginei didžiųjų kalbos modelių (DKM) svarbai tapus neginčytinai. „OpenAI“ naujausia skaidrumo ataskaita rodo, kad nors jie yra atviri verslui su kariuomene, jie nesiūlo „tuščio čekio“.
„OpenAI“ susitarimas su Gynybos departamentu yra pagrįstas keliais neginčytinais draudimais. Tai nėra tik žodiniai pažadai; jie yra įtvirtinti sutarties kalboje, siekiant užtikrinti, kad technologija būtų naudojama administraciniais, logistikos ir gynybiniais tikslais, o ne puolamosioms operacijoms.
Pirma, susitarimas aiškiai draudžia naudoti „OpenAI“ technologiją autonominių ginklų kūrimui ar valdymui. Taip sprendžiama pagrindinė „robotų žudikų“ scenarijaus baimė, užtikrinant, kad DI neturėtų galutinės teisės panaudoti mirtinę jėgą. Antra, sutartis draudžia naudoti jos modelius masiniam vidaus sekimui. Tai kritinis skirtumas, kuriuo siekiama apsaugoti pilietines laisves ir užkirsti kelią panoptikumo tipo valstybės kūrimui.
Galiausiai, sutarties kalba draudžia naudoti DI didelės rizikos sprendimų priėmimo sistemose, kurios galėtų paveikti asmens laisves, konkrečiai nurodant „socialinio kredito“ balus. Brėždama šias linijas, „OpenAI“ bando pateikti savo dalyvavimą kaip kariuomenės „pagalbinių funkcijų“ (back office) modernizavimo pastangas – gerinant vertimą, duomenų analizę ir kibernetinį saugumą – o ne pagrindinio intelekto ginklavimą.
Vienas ryškiausių pastarojo meto „OpenAI“ komunikacijos aspektų yra tiesioginis palyginimas su savo varžove „Anthropic“. „OpenAI“ teigia, kad jos susitarimas su Gynybos departamentu iš tikrųjų yra „geresnis“ ir pasižymi tvirtesnėmis saugumo priemonėmis nei sutartis, kurią „Anthropic“ garsiai atsisakė pasirašyti.
Norint tai suprasti, reikia pažvelgti į atsisakymo ir derybų niuansus. Nors „Anthropic“ nusprendė atsiriboti nuo tam tikrų gynybos sutarčių, kad išlaikytų savo „Konstitucinio DI“ prekės ženklą, „OpenAI“ teigia, kad likdami prie derybų stalo jie galėjo tiesiogiai įtraukti savo saugos standartus į vyriausybės viešųjų pirkimų procesą. „OpenAI“ užsimena, kad visiškas saugumu besirūpinančių laboratorijų atsisakymas tiesiog palieka duris atviras mažiau skrupulingiems veikėjams, kurie kariuomenei gali pateikti nevaržomus DI įrankius. Jų nuomone, reguliuojamas dalyvavimas yra saugesnis nei principingas nebuvimas.
Kritikai dažnai klausia, kaip šios „raudonosios linijos“ iš tikrųjų įgyvendinamos, kai programinė įranga atsiduria už klasifikuotos ugniasienės. „OpenAI“ tai sprendžia pabrėždama daugiasluoksnį priežiūros požiūrį. Tai apima techninę stebėseną – kai API užklausos tikrinamos dėl politikos pažeidimų – ir teisinę atsakomybę.
Kadangi Gynybos departamentas naudoja verslo lygio programinės įrangos versijas, „OpenAI“ išlaiko tam tikrą matomumą naudojimo modeliuose, kuris nebūtų įmanomas naudojant visiškai atjungtą, „izoliuotą“ (air-gapped) diegimą. Be to, sutartyje numatytos audito teisės, leidžiančios periodiškai peržiūrėti, kaip modeliai integruojami į karines darbo eigas. Tai pasitikėjimo sistema, tačiau ji patvirtinama griežtais techniniais ir teisiniais patikrinimais.
Šio sandorio pasekmės siekia toli už Pentagono ribų. Įmonių vadovams ir kūrėjams „OpenAI“ pozicija suteikia planą, kaip spręsti etines dilemas didelės rizikos aplinkose. Tai signalizuoja, kad „sauga“ nėra dvejetainė būsena – įjungta arba išjungta – o derybomis nustatytų ribų seka.
Kadangi DI toliau skverbiantis į kritinę infrastruktūrą, nuo sveikatos apsaugos iki finansų, „raudonųjų linijų“ sistema tikriausiai taps pramonės standartu. Įmonės nebeklaus tik to, ar įrankis veikia; jos klaus, ką įrankiui sutartimi draudžiama daryti. „OpenAI“ skaidrumas šiuo klausimu yra bandymas vadovauti šiam pokalbiui, pozicionuojant save kaip brandų, pragmatišką pasirinkimą instituciniam DI.
Jei jūsų organizacija siekia įdiegti DI jautriuose ar griežtai reguliuojamuose sektoriuose, „OpenAI“ požiūris siūlo keletą pamokų:



Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.
/ Sukurti nemokamą paskyrą