News (NO)

Google Vertex AI-feil lar lavprivilegerte brukere få tilgang til forhøyede tjenestekontoer

Google
Foto: Google - Charles-McClintock Wilson/shutterstock.com

Cybersikkerhetsfirmaet XM Cyber har avslørt oppdagelsen av to kritiske sårbarheter i Google Vertex AI kunstig intelligens-plattformen. Feilene lar brukere med minimale tillatelser, for eksempel en enkel visningsprogram, eskalere privilegiene sine og få tilgang til tjenestekontoer med mye bredere autorisasjoner. Esta-brudd utnytter verktøyets standardinnstillinger direkte, og gir et varsel om sikkerheten til administrerte AI-tjenester.

Det sentrale problemet ligger i “serviceagentene”, spesialkontoer administrert av Google Cloud som utfører oppgaver på brukerens vegne. Som standard gis disse kontoene omfattende tillatelser for å sikre sømløs funksjon av plattformens funksjoner. Denne bekvemmeligheten skaper imidlertid en betydelig angrepsvektor som kan utnyttes av interne ondsinnede aktører eller kompromitterte kontoer for å bevege seg sideveis i et skymiljø.

Som svar på den ansvarlige avsløringen fra XM Cyber, uttalte Google at den identifiserte oppførselen fungerer i samsvar med plattformens opprinnelige design, og klassifiserte den som tilsiktet. Essa-posisjonen forsterker behovet for bedrifter å innta en proaktiv sikkerhetsstilling i stedet for blindt å stole på skyleverandørers standardkonfigurasjoner, spesielt i miljøer som omhandler sensitive data og maskinlæringsmodeller.

Google
Google – Realiia/ Shutterstock.com

Tekniske detaljer om letingen

Utnyttelse av sårbarhetene er basert på måten Google Vertex AI administrerer identiteten og tilgangen til sine interne komponenter. Tjenesteagenter opprettes automatisk for å lette komplekse operasjoner som modellopplæring, kjøring av datapipelines og distribusjon av endepunkter. Para For å la disse oppgavene skje uten avbrudd, gir plattformen disse identitetene et bredt sett med tillatelser på prosjektnivå. XM Når angriperen først er i besittelse av disse tokenene, overtar angriperen privilegiene til tjenestekontoen, som ofte inkluderer redaktør- eller administratortillatelser på forskjellige Google Cloud-funksjoner som BigQuery og Cloud Storage. Esse-eskaleringsmetoden er spesielt farlig fordi aktiviteten generert av den kompromitterte tjenesteagenten virker legitim for overvåkingsverktøy, maskerer bruddet som normal plattformdrift og gjør ondsinnet aktivitet vanskelig å oppdage.

Google sitt svar og filosofien om “tilsiktet design”

Den offisielle posisjonen til Google Cloud, som klassifiserer atferd som en designkarakteristikk, fremhever en felles filosofi i skyplattformer som prioriterer brukervennlighet og rask implementering. Ved å gi brede tillatelser som standard, fjerner selskapet barrierer for utviklere og dataforskere til å utnytte AI-evner uten behov for komplekse oppsett for identitets- og tilgangsadministrasjon (IAM). Essa tilnærming akselererer innovasjon, men flytter en betydelig del av sikkerhetsansvaret til kunden.

[[MVG_PROTECTED_BLOCK_0]

Sikkerhetsanalytikere påpeker at denne strategien underordner selskapsstyringsmodeller til leverandørens arkitektur. Bedrifter mister synlighet og detaljert kontroll over de “usynlige identitetene” som opererer i deres miljøer. Hendelsen fungerer som en kritisk påminnelse om delt ansvarsmodellen i skyen: mens leverandøren er ansvarlig for sikkerheten *i* skyen, er kunden ansvarlig for sikkerheten *i* skyen. Isso inkluderer riktig konfigurering av tillatelser, revisjon av tjenestekontoer og implementering av ytterligere sikkerhetskontroller for å beskytte arbeidsbelastninger.

Implikasjoner for bedriftens sikkerhet

Hullene identifisert i Vertex AI øker risikoen forbundet med innsidetrusler betraktelig. En ondsinnet ansatt eller angriper som har kompromittert en lavprivilegert konto kan bruke denne teknikken for å få tilgang til og eksfiltrere sensitive data.

Manipulering av tjenesteagenter er en snikende taktikk, siden den ikke utløser tradisjonelle sikkerhetsvarsler som overvåker opprettelsen av nye brukertillatelser. Operasjoner utført med stjålne tokens blir registrert som legitime handlinger utført av plattformen selv.

Bedriftssikkerhetsverktøy, for eksempel endepunktdeteksjon og -respons (EDR) eller SIEM-systemer (sikkerhetsinformasjon og hendelsesadministrasjon), er sjelden konfigurert til å overvåke atferden til leverandøradministrerte identiteter, noe som skaper en betydelig blindsone i forsvarets holdning.

AI-miljøer behandler ofte store mengder sensitiv informasjon, og mangelen på tilstrekkelig isolasjon mellom ressursene lar et innledende kompromiss spre seg raskt, noe som dramatisk øker innvirkningsradiusen til et sikkerhetsbrudd.

Vertex AI sikkerhetshistorikk

Dette er ikke første gang at sikkerheten til Vertex AI-plattformen har blitt stilt spørsmål ved. I november 2024 avslørte forskere ved Palo Alto Networks lignende sårbarheter som tillot privilegieeskalering gjennom “tilpassede jobber” og eksfiltrering av maskinlæringsmodeller.

På det tidspunktet implementerte Google reparasjoner for de spesifikke problemene som ble rapportert. Gjentakelsen av feil relatert til rettighetsstyring antyder imidlertid strukturelle utfordringer i utformingen av administrerte AI-plattformer, som av natur må gi en høy grad av autonomi til sine interne agenter for å fungere effektivt.

Overensstemmelse med OWASP-retningslinjene

Funnene er i tråd med nye risikoer katalogisert av Open Web Application Security Project (OWASP). I desember 2025 ga organisasjonen ut “OWASP Top 10 for Large Language Model Applications”, en guide til viktige sikkerhetsrisikoer i AI-systemer.

Vertex AI-sårbarheten faller helt inn i ASI03-kategorien, som tar for seg misbruk av identitet og privilegier i autonome AI-systemer. Esta-kategorien advarer om faren for at agenter gis overdreven tilgang til verktøy og ressurser uten tilstrekkelige granulære begrensninger.

OWASP-rammeverket fungerer som en viktig referanse for sikkerhetsteam for å vurdere og redusere risikoer i AI-plattformer, og understreker at overdreven avhengighet av tredjepartskomponenter kan føre til betydelige sikkerhetsfeil.

Avbøtende tiltak og ekspertanbefalinger

For å redusere risikoen anbefaler sikkerhetseksperter at selskaper som bruker Vertex AI umiddelbart implementerer kompenserende kontroller. Det første trinnet er å utføre en fullstendig revisjon av alle tjenesteidentiteter knyttet til AI-arbeidsbelastninger, ved å bruke prinsippet om minste privilegium når det er mulig.

Det er avgjørende å implementere spesifikk overvåking for aktiviteten til disse tjenesteagentene, og behandle dem som privilegerte kontoer. Isso innebærer å lage varsler for unormale atferdsmønstre, for eksempel tilgang til data eller APIer utenfor omfanget av din vanlige rolle. Segmentering av ressurser og opprettelse av sikkerhetsbarrierer mellom ulike prosjekter kan begrense en angripers handlingsrom i tilfelle et kompromiss.

Fremtiden for styring på AI-plattformer

Den raske utviklingen og bruken av verktøy for kunstig intelligens krever konstant tilpasning i forsvars- og styringsstrategier. Organisasjoner må balansere smidigheten som tilbys av administrerte tjenester med behovet for å opprettholde kontroll og synlighet over deres skymiljøer, og erkjenner at sikkerhet er et delt ansvar.

↓ Continue lendo ↓