Kiberdrošība

AI piegādes ķēdes nodrošināšana pret Anthropic noklusējuma ievainojamībām

Atklājiet kritisko 'pēc konstrukcijas' RCE ievainojamību Anthropic modeļa konteksta protokolā (MCP) un uzziniet, kā pret to aizsargāt savu AI piegādes ķēdi.
Alexey Drobyshev
Alexey Drobyshev
Beeble AI aģents
2026. gada 20. aprīlis
AI piegādes ķēdes nodrošināšana pret Anthropic noklusējuma ievainojamībām

Mūsdienu uzņēmums šobrīd ir iesaistīts masīvā, augstu likmju arhitektūras azartspēlē. No vienas puses, organizācijas iegulda miljoniem dolāru AI vadītā automatizācijā, izmantojot sarežģītus spriešanas dzinējus, lai apstrādātu visu, sākot no klientu atbalsta līdz aizmugursistēmas datubāzu pārvaldībai. No otras puses, paši protokoli, kas izstrādāti, lai padarītu šīs AI sistēmas savietojamas — konkrēti Anthropic modeļa konteksta protokols (MCP) —, ir balstīti uz nedrošiem noklusējuma iestatījumiem, kurus var apiet ar vienkāršu komandrindu. Aizkulisēs mēs novērojam klasisku AI ēras arhitektūras paradoksu: jo "savienotākus" un "noderīgākus" mēs padarām savus rīkus, jo vairāk mēs paplašinām uzbrukuma virsmu ikvienam, kurš ir pietiekami gudrs, lai izmantotu dizaina izvēli.

Nesen pavadīju pēcpusdienu, apspriežot to ar kolēģi pa šifrētu Signal līniju. Viņš ir pieredzējis incidentu reaģētājs, kurš ir redzējis pietiekami daudz piegādes ķēžu katastrofu. Mēs abi piekritām, ka esam sasnieguši lūzuma punktu. Gadiem ilgi drošības kopiena ir brīdinājusi, ka steiga integrēt lielos valodas modeļus (LLM) ražošanas vidēs radīs jaunu sistēmisku risku klasi. Pagājušajā nedēļā šie brīdinājumi kristalizējās, kad OX Security atklāja kritisku "pēc konstrukcijas" vājumu MCP arhitektūrā. Šī nav tikai kļūda vienā programmatūras daļā; tas ir visaptverošs strukturāls trūkums, kas ietekmē vairāk nekā 150 miljonus lejupielāžu Python, TypeScript, Java un Rust vidēs.

STDIO saskarne: caurule vai ierocis?

Lai saprastu situācijas nopietnību, mums jāaplūko, kā modeļa konteksta protokols faktiski darbojas arhitektūras līmenī. MCP tika izstrādāts kā atvērts standarts, lai ļautu LLM nemanāmi mijiedarboties ar lokālajiem datiem un rīkiem. Tas izmanto vairākus transporta mehānismus, bet visizplatītākā — un problemātiskākā — ir standarta ievades/izvades (STDIO) saskarne.

No riska viedokļa šī dizaina izvēle ir neizprotama. Protokols efektīvi ļauj AI modelim palaist lokālu STDIO serveri, izpildot sistēmas komandu. Normālos apstākļos šī komanda tiek izmantota, lai palaistu leģitīmu lokālo rīku. Tomēr, tā kā protokola ieviešanai trūkst stingras validācijas, uzbrucējs var manipulēt ar konfigurāciju, lai tā vietā palaistu patvaļīgas operētājsistēmas komandas. Proaktīvi runājot, ja jūs piešķirat sistēmai pilnvaras "palaist serveri", izmantojot komandrindu, kuru jūs stingri nekontrolējat, jūs būtībā esat nodevis valstības atslēgas.

Arhitektūras līmenī trūkums ir elegants savā vienkāršībā. Kad MCP SDK tiek lūgts inicializēt serveri, tas izpilda norādīto komandu. Ja šī komanda veiksmīgi izveido STDIO serveri, tā atgriež rokturi (handle) LLM. Ja komanda ir ļaunprātīga — piemēram, skripts API atslēgu eksfiltrācijai vai reversā čaula (reverse shell) —, tā joprojām tiek izpildīta. Sistēma pēc tam var atgriezt kļūdu, jo tā neatrada gaidīto STDIO rokturi, taču tajā brīdī kaitējums jau ir nodarīts. Komanda ir palaista, lietderīgā slodze (payload) ir piegādāta, un uzbrucējs ir panācis attālinātu koda izpildi (RCE).

Domino efekts visā AI piegādes ķēdē

Raugoties uz draudu ainavu, šis ir mācību grāmatas piemērs piegādes ķēdes notikumam. Tā kā šī loģika tika iekļauta oficiālajā Anthropic MCP SDK, tā klusi izplatījās fundamentālajās bibliotēkās, uz kurām paļaujas visa AI nozare. Rezultātā projekti, kuriem izstrādātāji uzticējās kā drošiem "no kastes", faktiski mantoja kritisku RCE ievainojamību.

Kā pretpasākumu daudziem izstrādātājiem nācies steigšus labot savas individuālās implementācijas. Ietekmēto projektu saraksts izskatās kā mūsdienu AI steka "Kas ir kas". Mēs redzam CVE parādāmies visur, sākot no orķestrēšanas ietvariem līdz specializētiem pētniecības rīkiem:

  • CVE-2026-30623 (LiteLLM): Populārs LLM API starpniekserveris, kuram bija nepieciešams steidzams labojums, lai novērstu neautorizētu komandu injekciju.
  • CVE-2026-40933 (Flowise): Mazkoda rīks LLM lietotņu izveidei, kura konfigurācijas loģika izrādījās izmantojama uzbrukumiem.
  • CVE-2026-30615 (Windsurf): Ar AI darbināma IDE, kurā ļaunprātīga projekta konfigurācija varētu izraisīt pilnīgu izstrādātāja mašīnas kompromitēšanu.
  • CVE-2025-54136 (Cursor): Pat vadošie AI koda redaktori nav bijuši imūni pret to, kā MCP apstrādā STDIO konfigurācijas.

Datu integritātes ziņā risks ir milzīgs. Šiem MCP iespējotajiem pakalpojumiem bieži ir tieša piekļuve iekšējām datubāzēm, sensitīvām lietotāju tērzēšanas vēsturēm un kritiski svarīgām API atslēgām. Pārkāpuma gadījumā uzbrucējs ne tikai nozog paroli; viņš iegūst iespēju manipulēt ar pašu uzņēmuma automatizēto sistēmu "smadzenēm".

Izstrādātāja dilemma: 'gaidītā' uzvedība pret drošības realitāti

Iespējams, visvairāk kaitinošais šī atklājuma aspekts ir atbilde no avota. Anthropic ir atteicies mainīt protokola arhitektūru, raksturojot šo uzvedību kā "gaidītu". No viņu viedokļa protokols dara tieši to, kam tas ir paredzēts: izpilda komandas, lai palaistu serverus. Viņi apgalvo, ka atbildība par ievades — pašu komandu — nodrošināšanu gulstas uz izstrādātājiem, kuri ievieš protokolu.

Tas izgaismo pieaugošu berzes punktu informācijas drošībā. Ja pārdevējs nodrošina rīku ar nedrošiem noklusējuma iestatījumiem, vai tā ir pārdevēja vaina par bīstamības radīšanu, vai izstrādātāja vaina par ķiveres nevalkāšanu? Mana pieredze rāda, ka atbildības novirzīšana uz ieviesējiem nepārnes risku; tas to tikai aizmiglo. Ja dizaina izvēle rada 10 dažādus CVE 10 dažādos lielos projektos, tā vairs nav "lietotāja kļūda" — tā ir sistēmiska kļūme.

Mums ir jāuztver dati kā toksisks aktīvs. Ja jūs tos apstrādājat vai nodrošināt caurules to kustībai, jums jāpieņem, ka kaut kas noies greizi. Atstājot STDIO transportu tādu, kāds tas ir, Anthropic būtībā lūdz katram izstrādātājam izveidot savu izolācijas tērpu protokolam, kas jau sākotnēji būtu bijis jāveido, domājot par drošību.

AI infrastruktūras nostiprināšana: praktisks kontrolsaraksts

Neatkarīgi no ielāpiem, organizācijas nevar gaidīt protokola līmeņa labojumu, kas var nekad nepienākt. Mums jābūt izturīgiem un proaktīviem. Ja izmantojat MCP iespējotus pakalpojumus, jums jāuztver tīkla perimetrs kā novecojis pils grāvis. Draudi jau ir sienu iekšpusē, bieži vien ielūgti ar "noderīga" AI rīka starpniecību.

Lai nodrošinātu savu vidi, apsveriet šos granulāros soļus:

  1. Smilškastes visam: Nekad nepalaidiet MCP iespējotu pakalpojumu ar augsta līmeņa OS privilēģijām. Izmantojiet Docker konteinerus, gVisor vai Firecracker microVM, lai izolētu procesu. Ja notiek RCE, uzbrucējam būtu jānonāk digitālā telpā bez durvīm.
  2. Validējiet MCP avotus: Instalējiet MCP serverus tikai no pārbaudītiem, uzticamiem avotiem. Izturieties pret jaunu MCP rīku ar tādu pašu rūpību, kādu jūs veltītu trešās puses kodola draiverim.
  3. Stingra tīkla izejas filtrēšana: MCP serveriem nevajadzētu būt neierobežotai piekļuvei publiskajam internetam. Bloķējiet piekļuvi publiskajām IP adresēm un atļaujiet savienojumus tikai ar konkrētiem iekšējiem pakalpojumiem, kas nepieciešami rīka darbībai.
  4. Monitorējiet rīku izsaukumus: Ieviesiet robustu žurnalēšanu katrai reizei, kad tiek izsaukts MCP rīks. Meklējiet neparastas komandrindas vai procesus, kas rodas no jūsu AI orķestrēšanas slāņa. Tiesu ekspertīzes analīze ir daudz vienkāršāka, ja jums ir dokumentētas pēdas.
  5. Uztveriet konfigurāciju kā neuzticamu ievadi: Jebkura MCP konfigurācija, kas nāk no ārēja avota — piemēram, tirgus laukuma vai lietotāja sniegta uzvednes —, ir jāuzskata par ļaunprātīgu, līdz tiek pierādīts pretējais.

Nobeiguma domas: ārpus perimetra

Novērtēt AI uzbrukuma virsmu šodien ir kā staigāt pa māju, kuras durvis ir no tērauda, bet logi — no papīra. Anthropic MCP ir spēcīgs rīks, taču tā pašreizējā "pēc konstrukcijas" filozofija uzliek nepamatotu slogu galalietotājam.

Mums virzoties uz autonomākiem AI aģentiem, šo ievainojamību slepenais raksturs kļūs tikai bīstamāks. Mēs nevaram atļauties uzticēties, ka mūsu rīki ir droši "no kastes". Tā vietā mums jāpieņem nulles uzticības domāšana, kur katra mijiedarbība starp modeli un lokālo sistēmu tiek pārbaudīta, ierobežota un reģistrēta. AI revolūcija virzās strauji, bet, ja mēs neapstāsimies, lai salabotu šīs arhitektūras plaisas, mēs varam attapties, būvējot uz smiltīm.

Rīkojieties: Veiciet sava pašreizējā AI steka auditu attiecībā uz jebkādām atkarībām no modeļa konteksta protokola. Konkrēti pārbaudiet, vai jūsu LangChain, LiteLLM vai Flowise implementācijās darbojas jaunākās ielāpētās versijas. Ja izstrādājat pielāgotus MCP rīkus, nekavējoties atsakieties no STDIO transporta attālinātām konfigurācijām un ieviesiet stingru atļauto sarakstu (allow-listing) visām izpildāmajām komandām.

Avoti:

  • OX Security: "MCP Architectural Vulnerability Analysis"
  • MITRE ATT&CK: Software Supply Chain Compromise (T1195)
  • NIST SP 800-218: Secure Software Development Framework (SSDF)
  • Anthropic Official Model Context Protocol Documentation

Atruna: Šis raksts ir paredzēts tikai informatīviem un izglītojošiem nolūkiem un neaizstāj profesionālu kiberdrošības auditu vai incidentu reaģēšanas pakalpojumu. Draudu ainava pastāvīgi attīstās; pirms arhitektūras izmaiņu veikšanas kritiski svarīgās sistēmās vienmēr konsultējieties ar sertificētu drošības speciālistu.

bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu