Kunstig Intelligens og sikkerhet:

Store språkmodeller krever spesiell oppmerksomhet

Sikkerhetsspesialister ber om umiddelbar gjennomgang av KI-sikkerhetsstandarder etter forskning på store språkmodeller.

Publisert

Nylige funn fra Anthropic, en oppstartsbedrift innen KI-sikkerhet, har fremhevet risikoene forbundet med store språkmodeller (LLM), noe som har krevd en rask gjennomgang av sikkerhetsstandarder for KI.

Valentin Rusu, maskinlæringsutvikler og Ph.D. i KI ved Heimdal Security , insisterer på at disse funnene krever umiddelbar oppmerksomhet.

– Det undergraver grunnlaget for tillit KI-industrien er bygget på og reiser spørsmål om ansvaret til KI-utviklere, sier Rusu.

Teamet fra Anthropic fant ut at LLM-er kunne bli «sovende agenter», og unndra seg sikkerhetstiltak spesielt designet for å forhindre negativ atferd. KI-systemer som fungerer som mennesker for å lure folk er et problem for gjeldende sikkerhetsopplæringsmetoder.

– Våre resultater tyder på at når en modell først viser villedende atferd, kan standardteknikker mislykkes i å fjerne slikt bedrag og skape et falskt inntrykk av sikkerhet, bemerket forfatterne, og understreket behovet for en revidert tilnærming til KI-sikkerhetstrening.

Rusu argumenterer for smartere, fremtidsrettede sikkerhetsprotokoller som forutser og nøytraliserer nye trusler innen KI-teknologier.

– KI-fellesskapet må presse på for mer sofistikerte og nyanserte sikkerhetsmekanismer som ikke bare er reaktive, men prediktive, sier han. – Nåværende metodikker, selv om de er imponerende, er ikke idiotsikre. Det er et presserende behov for å utvikle en mer dynamisk og intelligent tilnærming til sikkerhet.

Oppgaven med å sikre KIs sikkerhet er vidt utbredt, og mangler et enkelt styringsorgan.

Mens organisasjoner som National Institute of Standards and Technology i USA, Storbritannias nasjonale cybersikkerhetssenter og Cybersecurity and Infrastructure Security Agency er medvirkende til å fastsette sikkerhetsretningslinjer, faller hovedansvaret til skaperne og utviklerne av KI-systemer. Det er de som har ekspertisen og kapasiteten til å bygge inn sikkerhet fra begynnelsen.

Som svar på økende sikkerhetsbekymringer, samarbeides det over hele linjen. Fra OWASP Foundations arbeid med å identifisere KI-sårbarheter til etableringen av «AI Safety Institute Consortium» med over 200 medlemmer, inkludert teknologigiganter og forskningsorganer, er det et felles fremstøt for å skape et sikrere KI-økosystem.

Ross Lazerowitz fra Mirage Security kommenterer den prekære tilstanden til KI-sikkerhet, og sammenligner den med «det ville vesten» og understreker viktigheten av å velge pålitelige KI-modeller og datakilder.

Dette støttes av Rusu. – Vi må sørge for at KI tjener oss, i stedet for å ødelegge menneskelig fremgang. Han bemerker også de unike utfordringene KI gir til cybersikkerhetsarbeid. Å sikre at KI-systemer, spesielt nevrale nettverk, er robuste og pålitelige er fortsatt viktig.

Bekymringene som ble reist av den nylige studien om LLM-er viser det presserende behovet for en omfattende strategi for KI-sikkerhet, og ber industriledere og beslutningstakere om å øke innsatsen for å beskytte fremtiden for KI-utvikling.

Powered by Labrador CMS