Kunstig intelligens og sikkerhet:

Vil AI gjøre oss tryggere?

ChatGPT og andre AI-fenomener reiser nye spørsmål om sikkerheten i nettet.

ChatGPT, den dialogbaserte AI-chatboten som er i stand til å forstå naturlig menneskelig språk, har blitt nytt ikon i økosystemet for banebrytende teknologier. Den fikk over 1 million registrerte brukere på bare 5 dager, og har blitt den raskest voksende teknologiplattformen noensinne.

ChatGPT genererer imponerende detaljert menneskelignende skrevet tekst og gjennomtenkt prosa, etter å ha mottatt en tekstmelding. I tillegg kan ChatGPT skrive og hacke kode, noe som er en potensiell stor hodepine sett fra et infosec-synspunkt, og har satt Web3-fellesskapet i brann. De gruer seg over implikasjonene og den rene oppfinnsomheten til denne AI-chatboten som kan analysere kode og oppdage sårbarheter på sekunder:

https://twitter.com/gf_256/status/1598104835848798208

Naoris Protocols synspunkt:

Etter hypen rundt ChatGPT, er kappløpet nå i gang mellom OpenAIs Chat GPT og Googles LaMDA om å være det markedsledende NLP-søkeverktøyet for brukere og selskaper som ser fremover. OpenAI er en nybegynner med 1 milliard dollar i finansiering og en verdivurdering på 20 milliarder dollar, i motsetning til Googles svimlende inntekter på 281 milliarder dollar.

Google må imidlertid raskt innovere og tilpasse seg – eller risikere å bli fraløpt; Et eksempel er TikTok og Meta, med kortformatet TikTok som leder tidsånden til å bli den mest nedlastede appen, og som slo Facebook i 2022. Google tar dette på alvor, etter å ha annonsert en “kode rød” for å utvikle et nytt AI-basert søkemotorprodukt for å motvirke OpenAIs landfangst. Ironisk nok bruker ChatGPT den samme samtale-AI-plattformen utviklet av Googles ingeniører i 2017.

Hvordan dette vil påvirke cybersikkerhet i fremtiden er ukjent, men vi kan gå ut fra noen antakelser.

På lang sikt vil dette være et netto positivt for fremtiden for cybersikkerhet dersom nødvendige kontroller og balanser er på plass. På kort sikt vil AI avsløre sårbarheter som må løses, ettersom vi vil kunne se en potensiell økning i sikkerhetsbrudd.

AI som skriver og hacker kode kan skape problemer for bedrifter, systemer og nettverk. Nåværende cybersikkerhet svikter allerede, med eksponentielle økninger i hacks på tvers av alle sektorer, der 2022 angivelig allerede er 50 % opp i forhold til 2021.

Med en modning av AI kan brukstilfellene være positive for arbeidsflyten innen bedriftssikkerhet og utvikling, noe som vil øke forsvarsevnene over gjeldende (eksisterende) sikkerhetsstandarder. Naoris Protocol bruker Swarm AI, som en del av brudddeteksjonssystemet som overvåker alle nettverksenheter og smarte kontrakter i sanntid.

● AI kan hjelpe organisasjoner med å forbedre sitt cybersikkerhetsforsvar ved å gjøre dem i stand til bedre å oppdage, forstå og svare på potensielle trusler. AI kan også hjelpe organisasjoner med å reagere på og komme seg etter cyberangrep raskere og mer effektivt, ved å automatisere oppgaver som respons på hendelser og etterforskning. Det kan frigjøre menneskelige ressurser til å fokusere på mer strategiske oppgaver på høyt nivå.

● Ved å analysere store datamengder og bruke avanserte maskinlæringsalgoritmer, kan AI (i fremtiden) identifisere mønstre og trender som kan indikere at et nettangrep er nært forestående, slik at organisasjoner kan ta forebyggende tiltak før et angrep skjer, og minimere risikoen for datainnbrudd og andre cyberhendelser.

● Innføringen av AI kan hjelpe organisasjoner med å ligge et skritt foran potensielle angrep og beskytte deres sensitive data og systemer. Ved å integrere AI i en organisasjons produksjonsflyt for å lage smartere og mer robust kode, med utviklere som instruerer AI til å skrive, generere og revidere (eksisterende programmering) koden.

● AI kan foreløpig ikke erstatte utviklere, siden den ikke kan forstå alle nyansene til systemene (og forretningslogikken) og hvordan de fungerer sammen. Utviklere vil fortsatt trenge å lese og vurdere AI-utdataene, læremønstrene og se etter svake punkter. AI vil positivt påvirke CISO- og IT-teamets evne til å overvåke i sanntid. Sikkerhetsbudsjetter vil reduseres, cybersikkerhetsteam vil også reduseres i antall. Bare de som kan jobbe med og tolke AI vil være etterspurt.

Imidlertid kan ondsinnede aktører øke angrepsvektoren, jobbe smartere og mye raskere ved å instruere AI til å se etter utnyttelser og sårbarheter i eksisterende kodeinfrastruktur. Den kalde, harde sannheten kan bety at tusenvis av plattformer og smarte kontrakter plutselig kan bli avslørt, noe som fører til en kortsiktig økning i cyberbrudd.

● Ettersom ChatGPT og LaMDA er avhengig av store datamengder for å fungere effektivt, kan det føre til upresise eller feilaktige resultater, hvis dataene som brukes til å trene disse teknologiene er partiske eller ufullstendige, f.eks. ble Microsofts T AI ond (!) i løpet av timer. Naoris Protocol bruker Swarm AI kun for å overvåke metadataene til de kjente operasjonelle grunnlinjene til enheter og systemer, for å sikre at de ikke har blitt tuklet med på noen måte. Derfor oppdager Naoris Protocol AI atferdsendringer på enheter og nettverk, og refererer til kjente industribaselinjer (OS- og fastvareoppdateringer osv.) i stedet for å lære og ta beslutninger basert på forskjellige individuelle meninger.

● Et annet problem er at AI ikke er idiotsikker og fortsatt kan være sårbar for nettangrep eller andre former for manipulasjon. Dette betyr at organisasjoner må ha robuste sikkerhetstiltak på plass for å beskytte disse teknologiene og sikre deres integritet.

● ● Det er også viktig å vurdere de potensielle etiske implikasjonene av å bruke ChatGPT og LaMDA for cybersikkerhet. For eksempel kan det være bekymringer rundt personvern og bruk av personopplysninger for å trene disse teknologiene, eller om potensialet for at de kan brukes til ondsinnede formål. Imidlertid overvåker Naoris Protocol bare metadata og atferdsendringer i enheter og smarte kontrakter, og ikke noen form for personlig identifiserbar informasjon (PII).

Konklusjon

AI vil kreve at bedrifter forbedrer sin innsats. De må implementere og bruke AI-tjenester innenfor sine sikkerhetsmessige QA-arbeidsflytprosesser før de lanserer ny kode/programmer. AI er ikke et menneske. Den vil savne grunnleggende forståelser, kunnskap og finesser som bare mennesker ser. Det er et verktøy som vil forbedre sårbarheter som er kodet feil av mennesker. Det vil forbedre kvaliteten på kode på tvers av alle web2- og web3-organisasjoner. Den nåværende brudddeteksjonstiden målt av IBM (IBMs datasikkerhetsrapport for 2020) er opptil 280 i gjennomsnitt. Ved å bruke AI-systemer som Naoris Protocols cybersikkerhetsløsning som en del av en bedriftsforsvar i dybden, kan brudddeteksjonstider reduseres til mindre enn 1 sekund, noe som endrer spillets gang.

Det er verdt å merke seg at AI er en relativt ny teknologi og som fortsatt utvikles og foredles, derfor kan vi aldri stole 100% på produksjonen. Menneskelige utviklere vil alltid være nødvendig for å sikre at koden er robust og oppfyller en organisasjons forretningskrav. Imidlertid brukes AI av begge sider - fra gode og dårlige aktører - i et forsøk på å gi dem overtaket. Med reguleringsarbeid som er flere år bak teknologien, trenger vi at organisasjoner implementerer en cybersikker mentalitet på tvers av arbeidsstyrken deres for å bekjempe det økende antallet nye hacks.

Ånden er nå ute av flasken, og hvis den ene siden ikke bruker den nyeste teknologien, kommer de til å være i en tapsposisjon. Så hvis det er en offensiv AI der ute, vil bedrifter trenge det beste AI-verktøyet å forsvare seg med.

Det er et våpenkappløp om hvem som har det beste verktøyet.

Powered by Labrador CMS