På bare tre måneder er hacking ved brug af AI gået fra at være et spirende problem til en trussel i industriel skala.

Så markant lyder advarslen fra Google i en ny rapport ifølge The Guardian.

Rapporten viser således, hvordan kriminelle grupper og statslige aktører fra Kina, Rusland og Nordkorea tilsyneladende bruger offentligt tilgængelige værktøjer som Gemini, Claude og værktøjer fra OpenAI – firmaet bag ChatGPT – til at udføre hackerangreb.

»Der er en misforståelse om, at kapløbet om AI-sårbarhed er nært forestående. Realiteten er, at det allerede er begyndt,« udtaler John Hultquist, gruppens chefanalytiker, i rapporten ifølge mediet.

Videre beretter han, at fjendtlige aktører bruger kunstig intelligens til at øge hastigheden, skalaen og sofistikationsgraden af angrebene.

Tidligere i år droppede virksomheden Anthropic at udgive deres seneste AI-værktøj, da man vurderede at værktøj udgjorde en trussel mod regeringer og finansielle institutioner, hvis det blev brugt på en skadelig måde.

Til Guardian siger Steven Murdoch, professor i sikkerhedsteknik ved University College London, at AI-værktøjerne kan bruges af dem, der forebygger hackerangreb, på samme vilkår som de fjendtlige aktører kan bruge dem.

»Det er derfor, jeg ikke går i panik. Generelt har vi nået et niveau, hvor den gamle måde at opdage fejl er forsvundet, og det hele nu er baseret på sprogmodeller,« siger han.