Izstrādātājs vēlu vakarā sēž pie darbstacijas, veidojot sensitīvu iekšējo rīku, izmantojot vietējo lielo valodas modeli (LLM). Viņi tic, ka dati ir drošībā, jo tie nekad nepamet aparatūru. Tomēr nesen tika atklāta klusa ievainojamība pašā programmatūrā, kas nodrošina šī modeļa darbību — Ollama. Tā nopludināja sistēmas atmiņas fragmentus ikvienam, kurš zināja, kā tos pieprasīt. Šis incidents izgaismo skarbu realitāti: rīki, kurus mēs izmantojam datu privātuma nodrošināšanai, vienas arhitektūras kļūdas dēļ var kļūt par galveno vektoru to kompromitēšanai.
No riska viedokļa šī ievainojamība ir būtisks konfidencialitātes pārkāpums CIP (konfidencialitāte, integritāte, pieejamība) triādē. Kļūda, kas klasificēta kā atmiņas robežu pārsniegšanas (OOB) nolasīšana, ļauj attālam uzbrucējam apiet paredzētās atmiņas robežas un piekļūt datiem, kuriem vajadzēja palikt stingri nepieejamiem. Raugoties uz draudu ainavu, tā nav tikai teorētiska pētnieku problēma; tas ir sistēmisks risks jebkurai organizācijai, kas izmanto vietējo AI, lai apstrādātu patentētu kodu, personu apliecinošu informāciju (PII) vai kritiski svarīgu biznesa loģiku.
Aizkulisēs ievainojamība slēpjas tajā, kā Ollama apstrādā specifiskus API pieprasījumus. C++ un Go pasaulē, kas bieži darbina augstas veiktspējas AI rīkus, atmiņas pārvaldība ir augstu likmju spēle, kurā dati jānotur tiem paredzētajās joslās. Ja programmai tiek likts nolasīt noteiktu datu apjomu, bet netiek dota stingra komanda "stop", tā var turpināt lasīt tālāk par finiša līniju.
Es bieži domāju par šifrēšanu kā par neplīstošu digitālo seifu, taču šis seifs ir bezjēdzīgs, ja iekšpusē esošais darbinieks sāk izsniegt dokumentus caur spraugu grīdas dēļos. Šajā scenārijā OOB nolasīšana ir šī sprauga. Uzbrucējs nosūta īpaši izstrādātu pieprasījumu Ollama serverim — iespējams, tādu, kas nepareizi norāda datu bufera izmēru —, un serveris atbild, izmetot visu, kas gadās atrasties blakus esošajā atmiņā. Tie varētu būt iepriekšējie vaicājumi, sistēmas vides mainīgo fragmenti vai pat paša modeļa svara koeficientu daļas.
Arhitektūras līmenī problēma izriet no nespējas validēt ievades garumu pirms atmiņas ietilpīgu operāciju apstrādes. Kad Ollama pakalpojums saņem pieprasījumu apstrādāt attēlu vai sarežģītu multimodālu uzvedni, tas piešķir noteiktu atmiņas bloku. Ja koda loģika pieņem, ka ievade vienmēr būs noteikta izmēra, to nepārbaudot, ļaundaris var izraisīt nolasīšanas operāciju, kas sniedzas pāri robežām.
Pēc konstrukcijas atmiņa ir koplietojams resurss, lai gan mūsdienu operētājsistēmas mēģina izolēt procesus "smilškastēs". Tomēr pašā Ollama procesam piešķirtajā atmiņas telpā ir milzum daudz sensitīvu datu. Tā kā nolasīšana notiek leģitīmā procesa telpā, tā ir neticami nemanāma. Neviena tradicionālā pretvīrusu programma vai pamata ugunsmūra kārtula neatzīmēs standarta HTTP pieprasījumu, kas vienkārši prasa "pārāk daudz" datu, jo īpaši, ja atbilde izskatās pēc parastas, lai gan nedaudz sakropļotas, informācijas plūsmas.
Savā pieredzē kā ētiskajam hakerim esmu bieži redzējis, ka "ēnu IT" (shadow IT) tiek raksturota kā korporatīvā tīkla tumšā matērija. Tā ir neredzama IT nodaļai, bet rada milzīgu risku. Šodien Ollama un līdzīgi rīki kļūst par jauno "ēnu IT". Izstrādātāji tos lejupielādē, lai apietu ierobežojošas korporatīvās AI politikas, neapzināti atverot logu uz savām darbstacijām.
Novērtējiet uzbrukuma virsmu uz brīdi: ja izstrādātājs darbina Ollama mašīnā, kas tiek izmantota arī piekļuvei korporatīvajam VPN, Ollama procesa atmiņas kompromitēšana teorētiski varētu nopludināt sesijas marķierus vai PGP atslēgas, kas tajā pašā sesijā glabājas atmiņā. Runājot proaktīvi, briesmas nav tikai tajā, ka tiek nopludināta jūsu "rauga mīklas receptes" uzvedne; briesmas ir tajā, ka procesa atmiņa var saturēt "atslēgas uz karalisti".
Pārkāpuma gadījumā pirmā reakcija parasti ir panika, bet kā žurnālists, kurš vērtē precizitāti augstāk par baiļu sēšanu (FUD), es dodu priekšroku seku novēršanas cikla izpētei. Ollama komanda rīkojās ātri, lai to risinātu, izlaižot atjauninājumus, kas ievieš stingrākas robežu pārbaudes. Ielāpu uzlikšana šajā kontekstā ir tieši tāda pati kā caurumu aiztaisīšana kuģa korpusā. Tas aptur tūlītēju noplūdi, bet nemaina faktu, ka kuģis sākotnēji tika uzbūvēts no neizturīgiem materiāliem.
Kā pretpasākumu lietotājiem ir jāsaprot, ka "vietējs" nenozīmē "izolēts". Ja pakalpojums klausās visas saskarnes (0.0.0.0), nevis tikai lokālo saiti (127.0.0.1), šī atmiņas noplūde ir sasniedzama ikvienam tajā pašā tīklā — vai vēl ļaunāk, atvērtajā internetā, ja ir aktīva portu pāradresācija. No galalietotāja viedokļa tūlītējais labojums ir atjaunināšana uz jaunāko versiju un tīkla konfigurācijas audits, lai nodrošinātu, ka API nav nevajadzīgi eksponēts.
Raugoties tālāk par tūlītēju ielāpu, mums pret AI rīkiem ir jāizturas ar tādu pašu detalizētu drošības pārbaudi, kādu mēs piemērojam tīmekļa serveriem vai datubāzu dzinējiem. Decentralizēts AI ir spēcīga kustība, taču tai trūkst lielāko mākoņpakalpojumu sniedzēju centralizētās drošības uzraudzības. Tas uzliek drošības slogu tieši uz lietotāju.
Datu integritātes ziņā OOB nolasīšana ne vienmēr sabojā modeli, taču tā sagrauj uzticību vides konfidencialitātei. Tāpēc mums ir jāvirzās uz "nulles uzticamības" (zero-trust) modeli vietējiem pakalpojumiem. Iedomājieties nulles uzticamību kā VIP kluba apsargu pie katrām iekšējām durvīm. Pat ja jūs jau atrodaties "ēkā" (datorā), katrs pieprasījums piekļūt konkrētai "telpai" (atmiņas buferim) ir jāpārbauda un jāsalīdzina ar viesu sarakstu.
Lai pārietu no reaktīvas pozīcijas uz proaktīvu, es iesaku veikt šādas darbības ikvienam, kas integrē Ollama savā darbplūsmā vai korporatīvajā vidē:
Šīs ievainojamības atklāšana ir atgādinājums, ka straujais AI attīstības temps bieži apsteidz pamata drošības principu ieviešanu. Tomēr tas nav iemesls atteikties no vietējiem LLM. Tā vietā tas ir aicinājums profesionalizēt to, kā mēs tos izvietojam. Izprotot atmiņas robežu pārsniegšanas nolasīšanas tehnisko realitāti un uztverot vietējo AI kā daļu no uzņēmuma uzbrukuma virsmas, mēs varam turpināt ieviest jauninājumus, nepārvēršot savus datus par toksisku aktīvu.
Galu galā mūsu AI sistēmu digitālās pēdas nodrošināšana prasa domāšanas maiņu. Mēs nevaram pieņemt, ka tikai tāpēc, ka rīks ir "mūsu" un "vietējs", tas ir pēc būtības izturīgs. Pārbaude un pastāvīgs audits ir vienīgie veidi, kā nodrošināt, ka mūsu digitālie seifi paliek neplīstoši.
Avoti:
Atruna: Šis raksts ir paredzēts tikai informatīviem un izglītojošiem mērķiem. Tas neaizstāj profesionālu kiberdrošības auditu, tiesu ekspertīzes analīzi vai oficiālu incidentu novēršanas pakalpojumu. Vienmēr konsultējieties ar kvalificētu drošības speciālistu pirms būtisku izmaiņu veikšanas savā infrastruktūrā.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu