Attiecības starp Silīcija ieleju un Pentagonu jau sen ir bijušas berzes avots, ko raksturo trausls līdzsvars starp nacionālās drošības vajadzībām un mākslīgā intelekta ētikas robežām. Sperot nozīmīgu soli savas pozīcijas skaidrošanā, OpenAI nesen atklāja specifisku līguma valodu un "sarkanās līnijas", kas pārvalda tās partnerību ar ASV Aizsardzības departamentu (DoD). Šī informācijas atklāšana notiek izšķirošā brīdī, kad uzņēmums cenšas norobežoties no kontroversēm ap citām MI laboratorijām un noteikt jaunu standartu militārajai iesaistei.
Gadiem ilgi tehnoloģiju nozare darbojās pašizolācijā no aizsardzības darbiem, ko lielā mērā izraisīja iekšējie darbinieku nemieri tādos uzņēmumos kā Google. Tomēr situācija mainījās, pieaugot ģeopolitiskajai spriedzei un kļūstot nenoliedzamai lielo valodu modeļu (LLM) stratēģiskajai nozīmei. OpenAI jaunākais pārredzamības ziņojums liecina, ka, lai gan viņi ir atvērti sadarbībai ar militārpersonām, viņi nepiedāvā "tukšu čeku".
OpenAI vienošanās ar DoD ir balstīta uz vairākiem neapspriežamiem aizliegumiem. Tie nav tikai mutiski solījumi; tie ir kodificēti līguma valodā, lai nodrošinātu, ka tehnoloģija tiek izmantota administratīviem, loģistikas un aizsardzības mērķiem, nevis uzbrukuma operācijām.
Pirmkārt, vienošanās nepārprotami aizliedz izmantot OpenAI tehnoloģiju autonomu ieroču izstrādei vai darbībai. Tas risina galvenās bailes no "robotu-slepkavu" scenārija, nodrošinot, ka MI nav galīgās pilnvaras pielietot nāvējošu spēku. Otrkārt, līgums aizliedz izmantot tā modeļus masveida iekšzemes novērošanai. Tā ir būtiska atšķirība, kuras mērķis ir aizsargāt pilsoniskās brīvības un novērst "panoptikona" tipa valsts izveidi.
Visbeidzot, līguma valoda aizliedz izmantot MI augsta riska lēmumu pieņemšanas sistēmās, kas varētu ietekmēt personīgās brīvības, īpaši minot "sociālo kredītu" rādītājus. Novelkot šīs līnijas, OpenAI mēģina definēt savu iesaisti kā militārā "back office" modernizācijas centienus — uzlabojot tulkošanu, datu analīzi un kiberdrošību —, nevis kā pamata intelekta pārvēršanu ierocī.
Viens no spilgtākajiem OpenAI nesenās komunikācijas aspektiem ir tiešais salīdzinājums ar konkurentu Anthropic. OpenAI apgalvo, ka tās vienošanās ar DoD faktiski ir "labāka" un tajā ir iestrādāti stingrāki drošības aizsargmehānismi nekā līgumā, kuru Anthropic slaveni atteicās parakstīt.
Lai to saprastu, jāraugās uz niansēm starp atteikumu un sarunām. Kamēr Anthropic izvēlējās norobežoties no noteiktiem aizsardzības līgumiem, lai saglabātu savu "Constitutional AI" zīmolu, OpenAI argumentē, ka, paliekot pie sarunu galda, viņi ir spējuši iestrādāt savus drošības standartus tieši valdības iepirkumu procesā. OpenAI pieļauj, ka pilnīgs atteikums no drošības apzinīgu laboratoriju puses vienkārši atstāj durvis vaļā mazāk skrupuloziem dalībniekiem, kas nodrošinātu militārpersonām neierobežotus MI rīkus. Viņu skatījumā regulēta klātbūtne ir drošāka par principu vadītu prombūtni.
Kritiķi bieži jautā, kā šīs "sarkanās līnijas" faktiski tiek ievērotas, kad programmatūra atrodas aiz klasificēta ugunsmūra. OpenAI to risina, uzsverot daudzslāņu pieeju uzraudzībai. Tas ietver tehnisko monitoringu — kur API pieprasījumi tiek pārbaudīti attiecībā uz politikas pārkāpumiem — un juridisko atbildību.
Tā kā DoD izmanto programmatūras uzņēmuma līmeņa versijas, OpenAI saglabā redzamību pār lietošanas paradumiem, kas nebūtu iespējams pilnīgi atvienotas, "air-gapped" instalācijas gadījumā. Turklāt līgumā ir iekļautas revīzijas tiesības, kas ļauj periodiski pārbaudīt, kā modeļi tiek integrēti militārajās darba plūsmās. Tā ir uzticības sistēma, taču tāda, kas tiek verificēta ar stingrām tehniskām un juridiskām pārbaudēm.
Šī darījuma sekas sniedzas tālu aiz Pentagona robežām. Uzņēmumu vadītājiem un izstrādātājiem OpenAI nostāja sniedz paraugu, kā risināt ētiskas dilemmas augsta riska vidēs. Tas signalizē, ka "drošība" nav binārs stāvoklis — ieslēgts vai izslēgts —, bet gan sarunu ceļā noteiktu robežu virkne.
MI turpinot caurvīt kritisko infrastruktūru, no veselības aprūpes līdz finansēm, "sarkano līniju" ietvars, visticamāk, kļūs par nozares standartu. Uzņēmumi vairs nejautās tikai to, vai rīks darbojas; tie jautās, ko rīkam ir līgumiski aizliegts darīt. OpenAI caurspīdīgums šeit ir mēģinājums vadīt šo sarunu, pozicionējot sevi kā nobriedušu, pragmatisku izvēli institucionālajam MI.
Ja jūsu organizācija plāno ieviest MI jutīgās vai stingri regulētās nozarēs, OpenAI pieeja piedāvā vairākas mācības:



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu