Kas vestlusrobot võib tõesti olla füüsilise katastroofi katalüsaator? See on küsimus, mis kõlanuks vaid viis aastat tagasi nagu tehnopõneviku süžee. Ometi, liikudes läbi 2026. aasta maastiku, suhtuvad meie digitaalse tuleviku arhitektid vastusesse surmtõsiselt. Anthropic ja OpenAI, generatiivse tehisintellekti ajastu titaanid, ei otsi enam üksnes tarkvarainsenere ja andmeteadlasi. Nad värbavad nüüd agressiivselt keemiarelvade, lõhkeainete ja bioloogiliste ohtude spetsialiste.
See muutus tähistab murrangulist hetke tehnoloogiatööstuse arengus. Me liigume mööda ajastust „liigu kiiresti ja lõhu asju“ – kus purustatud asjadeks olid tavaliselt vaid vananenud ärimudelid – ebakindlasse reaalsusesse, kus „asjadeks“ võivad olla avalik turvalisus ja rahvusvaheline julgeolek. Organisatsioonid käituvad üha enam nagu elusorganismid, arendades immuunsüsteeme, et kaitsta ennast ja avalikkust omaenda märkimisväärse intelligentsuse soovimatute tagajärgede eest.
Anthropic andis sellest muutusest hiljuti märku silmapaistva töökuulutusega, otsides poliitikaeksperti, kes on spetsialiseerunud keemiarelvadele ja plahvatustele. Roll ei seisne muidugi relvade ehitamises; see on suunatud nende Claude'i mudelite „katastroofilise väärkasutuse“ ennetamisele. Teisisõnu, nad palkavad inimesi, kes teavad, kuidas pommi ehitada, et nad saaksid tehisintellektile täpselt õpetada, miks see ei tohiks kunagi kedagi teist selles aidata.
Minu algusaegadel tehnoloogia idufirmades oli suurim „turvamure“ andmebaasi leke või vigane API. Mäletan nende hilisõhtuste seansside palavikulist energiat, mida toitis külm pitsa, kus panused tundusid kõrged, kuid füüsiline maailm jäi puutumata. Seetõttu tundub täna San Franciscost tulevate ametijuhendite nägemine sürreaalse korporatiivse üleminekuna. Sellele ametikohale palgatav isik kavandab ja jälgib kaitsepiirdeid selle kohta, kuidas AI-mudelid reageerivad tundlikke keemilisi ühendeid puudutavatele päringutele. Nad on uut tüüpi digitaalse tulekahju „kiirreageerimismeeskond“.
Akronüüm, mida OpenAI ja Anthropicu koridorides sageli sosistatakse, on CBRN: keemiline, bioloogiline, radioloogiline ja tuumaenergia (Chemical, Biological, Radiological, and Nuclear). Kuna tipptasemel mudelid muutuvad võimekamaks, omandavad nad nüansseeritud arusaama teaduskirjandusest. Kuigi see on uuenduslik ravimiarenduse ja materjaliteaduse jaoks, on see sama ohtlik, kui mudel suudab sünteesida juhiseid närvimürgi või algelise lõhkeseadme jaoks.
Huvitaval kombel ei ole risk ainult selles, et AI teab „retsepti“. Risk on selles, et AI võib toimida ülitõhusa projektijuhina kellelegi, kellel on kurjad kavatsused. See võib lahendada keemiliste reaktsioonide probleeme, soovitada alternatiivseid lähteaineid, mis hiilivad mööda seaduslikest piirangutest, ja pakkuda samm-sammulisi juhiseid seadmete seadistamiseks. Erinevalt staatilisest otsingumootorist võib interaktiivne AI kasutajat ohtliku protsessi käigus käekõrval hoida. Seetõttu peavad nende mudelite „ehituskivid“ olema algusest peale turvalisusega läbi põimitud.
OpenAI on valinud sarnase tee oma „Preparedness“ (valmisoleku) meeskonnaga. Selle rühma ülesanne on hinnata tipptasemel mudeleid „katastroofiliste“ riskide suhtes. Nad on välja töötanud keeruka hindamissüsteemi, et jälgida, kui lähedale jõuab mudel võimele aidata kaasa bioloogilisele või keemilisele rünnakule. Kui mudel ületab teatud võimekuse künnise ilma piisavate kaitsemeetmeteta, sätestab raamistik, et seda ei tohi avalikkusele avaldada.
Sellest hoolimata on väljakutse tohutu. AI-ohutus ei ole funktsioon, mille saab korraks seadistada ja siis unustada. See on teekond, mitte sihtkoht. Mudelite arenedes leiavad nad uusi viise vanadest filtritest mööda hiilimiseks – nähtus, mida tuntakse kui „jailbreaking“. Palkades eksperte, kes on veetnud oma karjääri laborites ja kõrge turvalisusega keskkondades, püüavad AI-ettevõtted olla sammu võrra ees loovast pahatahtlikkusest, mis sageli järgneb tehnoloogilistele läbimurretele.
Peame vaatlema tehnoloogiatööstust kui ökosüsteemi. Kui keskkonda siseneb uus võimas kiskja – või antud juhul transformatiivne tööriist –, peab kogu keskkond tasakaalu säilitamiseks kohanema. Relvaspetsialistide palkamine on märk sellest, et tööstus on küpsemas. See on ülestunnistus, et nende ettevõtete käes olev võim on liiga suur „ootame ja vaatame“ lähenemisviisi jaoks.
Ajal, mil juhtisin kaugtöötajate meeskondi erinevates ajavööndites, õppisin, et kõige edukamad projektid ei olnud need, kus olid kiireimad arendajad, vaid need, millel oli parim ettenägelikkus. Tuleb ette näha, kus tekib hõõrdumine. Tehisintellekti kontekstis on see hõõrdumine digitaalse intelligentsuse ja füüsilise kahju ristumiskoht.
Kuigi enamik meist ei ehita suuri keelemudeleid (LLM) ega käitle keemilisi lähteaineid, on AI-ohutuse professionaalsemaks muutumisel reaalne mõju sellele, kuidas me tehnoloogiaga suhtleme. Siin on see, mida peaksite meeles pidama:
Vaadates 2026. aasta lõpu poole, saab tuumafüüsikute, keemikute ja koodikirjutajate koostöö tõenäoliselt standardiks, mitte erandiks. See on kummaline, veidi ärevust tekitav, kuid lõppkokkuvõttes vajalik areng meie püüdlustes luua tööriistu, mis on sama ohutud kui targad.



Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.
/ Tasuta konto loomin