Google slår alarm: AI-hacking eksploderet
I en bekymrende rapport advarer Google mod, at mængden af hacking baseret på AI-værktøjer er gået amok.

I en bekymrende rapport advarer Google mod, at mængden af hacking baseret på AI-værktøjer er gået amok.

På bare tre måneder er hacking ved brug af AI gået fra at være et spirende problem til en trussel i industriel skala.
Så markant lyder advarslen fra Google i en ny rapport ifølge The Guardian.
Rapporten viser således, hvordan kriminelle grupper og statslige aktører fra Kina, Rusland og Nordkorea tilsyneladende bruger offentligt tilgængelige værktøjer som Gemini, Claude og værktøjer fra OpenAI – firmaet bag ChatGPT – til at udføre hackerangreb.
»Der er en misforståelse om, at kapløbet om AI-sårbarhed er nært forestående. Realiteten er, at det allerede er begyndt,« udtaler John Hultquist, gruppens chefanalytiker, i rapporten ifølge mediet.
Videre beretter han, at fjendtlige aktører bruger kunstig intelligens til at øge hastigheden, skalaen og sofistikationsgraden af angrebene.
Tidligere i år droppede virksomheden Anthropic at udgive deres seneste AI-værktøj, da man vurderede at værktøj udgjorde en trussel mod regeringer og finansielle institutioner, hvis det blev brugt på en skadelig måde.
Til Guardian siger Steven Murdoch, professor i sikkerhedsteknik ved University College London, at AI-værktøjerne kan bruges af dem, der forebygger hackerangreb, på samme vilkår som de fjendtlige aktører kan bruge dem.
»Det er derfor, jeg ikke går i panik. Generelt har vi nået et niveau, hvor den gamle måde at opdage fejl er forsvundet, og det hele nu er baseret på sprogmodeller,« siger han.