Mūsdienu uzņēmums šobrīd ir iesaistīts masīvā, augstu likmju arhitektūras azartspēlē. No vienas puses, organizācijas iegulda miljoniem dolāru AI vadītā automatizācijā, izmantojot sarežģītus spriešanas dzinējus, lai apstrādātu visu, sākot no klientu atbalsta līdz aizmugursistēmas datubāzu pārvaldībai. No otras puses, paši protokoli, kas izstrādāti, lai padarītu šīs AI sistēmas savietojamas — konkrēti Anthropic modeļa konteksta protokols (MCP) —, ir balstīti uz nedrošiem noklusējuma iestatījumiem, kurus var apiet ar vienkāršu komandrindu. Aizkulisēs mēs novērojam klasisku AI ēras arhitektūras paradoksu: jo "savienotākus" un "noderīgākus" mēs padarām savus rīkus, jo vairāk mēs paplašinām uzbrukuma virsmu ikvienam, kurš ir pietiekami gudrs, lai izmantotu dizaina izvēli.
Nesen pavadīju pēcpusdienu, apspriežot to ar kolēģi pa šifrētu Signal līniju. Viņš ir pieredzējis incidentu reaģētājs, kurš ir redzējis pietiekami daudz piegādes ķēžu katastrofu. Mēs abi piekritām, ka esam sasnieguši lūzuma punktu. Gadiem ilgi drošības kopiena ir brīdinājusi, ka steiga integrēt lielos valodas modeļus (LLM) ražošanas vidēs radīs jaunu sistēmisku risku klasi. Pagājušajā nedēļā šie brīdinājumi kristalizējās, kad OX Security atklāja kritisku "pēc konstrukcijas" vājumu MCP arhitektūrā. Šī nav tikai kļūda vienā programmatūras daļā; tas ir visaptverošs strukturāls trūkums, kas ietekmē vairāk nekā 150 miljonus lejupielāžu Python, TypeScript, Java un Rust vidēs.
Lai saprastu situācijas nopietnību, mums jāaplūko, kā modeļa konteksta protokols faktiski darbojas arhitektūras līmenī. MCP tika izstrādāts kā atvērts standarts, lai ļautu LLM nemanāmi mijiedarboties ar lokālajiem datiem un rīkiem. Tas izmanto vairākus transporta mehānismus, bet visizplatītākā — un problemātiskākā — ir standarta ievades/izvades (STDIO) saskarne.
No riska viedokļa šī dizaina izvēle ir neizprotama. Protokols efektīvi ļauj AI modelim palaist lokālu STDIO serveri, izpildot sistēmas komandu. Normālos apstākļos šī komanda tiek izmantota, lai palaistu leģitīmu lokālo rīku. Tomēr, tā kā protokola ieviešanai trūkst stingras validācijas, uzbrucējs var manipulēt ar konfigurāciju, lai tā vietā palaistu patvaļīgas operētājsistēmas komandas. Proaktīvi runājot, ja jūs piešķirat sistēmai pilnvaras "palaist serveri", izmantojot komandrindu, kuru jūs stingri nekontrolējat, jūs būtībā esat nodevis valstības atslēgas.
Arhitektūras līmenī trūkums ir elegants savā vienkāršībā. Kad MCP SDK tiek lūgts inicializēt serveri, tas izpilda norādīto komandu. Ja šī komanda veiksmīgi izveido STDIO serveri, tā atgriež rokturi (handle) LLM. Ja komanda ir ļaunprātīga — piemēram, skripts API atslēgu eksfiltrācijai vai reversā čaula (reverse shell) —, tā joprojām tiek izpildīta. Sistēma pēc tam var atgriezt kļūdu, jo tā neatrada gaidīto STDIO rokturi, taču tajā brīdī kaitējums jau ir nodarīts. Komanda ir palaista, lietderīgā slodze (payload) ir piegādāta, un uzbrucējs ir panācis attālinātu koda izpildi (RCE).
Raugoties uz draudu ainavu, šis ir mācību grāmatas piemērs piegādes ķēdes notikumam. Tā kā šī loģika tika iekļauta oficiālajā Anthropic MCP SDK, tā klusi izplatījās fundamentālajās bibliotēkās, uz kurām paļaujas visa AI nozare. Rezultātā projekti, kuriem izstrādātāji uzticējās kā drošiem "no kastes", faktiski mantoja kritisku RCE ievainojamību.
Kā pretpasākumu daudziem izstrādātājiem nācies steigšus labot savas individuālās implementācijas. Ietekmēto projektu saraksts izskatās kā mūsdienu AI steka "Kas ir kas". Mēs redzam CVE parādāmies visur, sākot no orķestrēšanas ietvariem līdz specializētiem pētniecības rīkiem:
Datu integritātes ziņā risks ir milzīgs. Šiem MCP iespējotajiem pakalpojumiem bieži ir tieša piekļuve iekšējām datubāzēm, sensitīvām lietotāju tērzēšanas vēsturēm un kritiski svarīgām API atslēgām. Pārkāpuma gadījumā uzbrucējs ne tikai nozog paroli; viņš iegūst iespēju manipulēt ar pašu uzņēmuma automatizēto sistēmu "smadzenēm".
Iespējams, visvairāk kaitinošais šī atklājuma aspekts ir atbilde no avota. Anthropic ir atteicies mainīt protokola arhitektūru, raksturojot šo uzvedību kā "gaidītu". No viņu viedokļa protokols dara tieši to, kam tas ir paredzēts: izpilda komandas, lai palaistu serverus. Viņi apgalvo, ka atbildība par ievades — pašu komandu — nodrošināšanu gulstas uz izstrādātājiem, kuri ievieš protokolu.
Tas izgaismo pieaugošu berzes punktu informācijas drošībā. Ja pārdevējs nodrošina rīku ar nedrošiem noklusējuma iestatījumiem, vai tā ir pārdevēja vaina par bīstamības radīšanu, vai izstrādātāja vaina par ķiveres nevalkāšanu? Mana pieredze rāda, ka atbildības novirzīšana uz ieviesējiem nepārnes risku; tas to tikai aizmiglo. Ja dizaina izvēle rada 10 dažādus CVE 10 dažādos lielos projektos, tā vairs nav "lietotāja kļūda" — tā ir sistēmiska kļūme.
Mums ir jāuztver dati kā toksisks aktīvs. Ja jūs tos apstrādājat vai nodrošināt caurules to kustībai, jums jāpieņem, ka kaut kas noies greizi. Atstājot STDIO transportu tādu, kāds tas ir, Anthropic būtībā lūdz katram izstrādātājam izveidot savu izolācijas tērpu protokolam, kas jau sākotnēji būtu bijis jāveido, domājot par drošību.
Neatkarīgi no ielāpiem, organizācijas nevar gaidīt protokola līmeņa labojumu, kas var nekad nepienākt. Mums jābūt izturīgiem un proaktīviem. Ja izmantojat MCP iespējotus pakalpojumus, jums jāuztver tīkla perimetrs kā novecojis pils grāvis. Draudi jau ir sienu iekšpusē, bieži vien ielūgti ar "noderīga" AI rīka starpniecību.
Lai nodrošinātu savu vidi, apsveriet šos granulāros soļus:
Novērtēt AI uzbrukuma virsmu šodien ir kā staigāt pa māju, kuras durvis ir no tērauda, bet logi — no papīra. Anthropic MCP ir spēcīgs rīks, taču tā pašreizējā "pēc konstrukcijas" filozofija uzliek nepamatotu slogu galalietotājam.
Mums virzoties uz autonomākiem AI aģentiem, šo ievainojamību slepenais raksturs kļūs tikai bīstamāks. Mēs nevaram atļauties uzticēties, ka mūsu rīki ir droši "no kastes". Tā vietā mums jāpieņem nulles uzticības domāšana, kur katra mijiedarbība starp modeli un lokālo sistēmu tiek pārbaudīta, ierobežota un reģistrēta. AI revolūcija virzās strauji, bet, ja mēs neapstāsimies, lai salabotu šīs arhitektūras plaisas, mēs varam attapties, būvējot uz smiltīm.
Rīkojieties: Veiciet sava pašreizējā AI steka auditu attiecībā uz jebkādām atkarībām no modeļa konteksta protokola. Konkrēti pārbaudiet, vai jūsu LangChain, LiteLLM vai Flowise implementācijās darbojas jaunākās ielāpētās versijas. Ja izstrādājat pielāgotus MCP rīkus, nekavējoties atsakieties no STDIO transporta attālinātām konfigurācijām un ieviesiet stingru atļauto sarakstu (allow-listing) visām izpildāmajām komandām.
Avoti:
Atruna: Šis raksts ir paredzēts tikai informatīviem un izglītojošiem nolūkiem un neaizstāj profesionālu kiberdrošības auditu vai incidentu reaģēšanas pakalpojumu. Draudu ainava pastāvīgi attīstās; pirms arhitektūras izmaiņu veikšanas kritiski svarīgās sistēmās vienmēr konsultējieties ar sertificētu drošības speciālistu.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu