En løbsk drone angreb og beskød i marts sidste år en gruppe soldater i Libyen i det nordlige Afrika.

Det oplyser dr.dk, der har oplysningen fra en rapport fra FN's Sikkerhedsråd.

Den armerede drone havde ikke haft kontakt til mennesker, inden den eftersatte og fra luften angreb soldaterne, der i forvejen var på flugt fra libyske regeringsstyrker.

Konsekvenserne af angrebet fra den løbske drone er ikke konkret beskrevet, men ifølge dr.dk antyder eksperter i FN-rapporten, at droneangrebet førte til ét eller flere dødsfald.

I givet fald vil det være første gang, at en autonom dræberdrone er skyld i tab af menneskeliv.

Såkaldte selvopererende våbensystemer i eksempelvis droner eller førerløse kampfly, der ved hjælp af kunstig intelligens er blevet programmeret til at genkende og angribe mulige fjender efter forskellige fastlagte kriterier, vækker bekymring hos nogle eksperter. Heriblandt Thomas Bolander – lektor ved DTU Compute og ekspert i kunstig intelligens.

»Jeg har gennem længere tid mistænkt, at det her skete i krigszoner rundt om i verden. Våbensystemer, som for eksempel denne her drone, kan i dag programmeres sådan, at de også kan angribe på egen hånd. Det er dybt uforsvarligt og meget farligt, når teknologien bruges på den måde«, siger Thomas Bolander til dr.dk.

Sammen med en lang række andre forskere, interesseorganisationer og ledere i erhvervslivet har lektoren fra DTU underskrevet flere åbne breve, hvor der udtrykkes stor bekymring omkring autonome våbensystemer. De betragtes af kritikerne som alt for risikable at bruge, fordi den kunstige intelligens i våbensystemerne risikerer at opføre sig utilsigtet.