Når roboter bestemmer seg for å drepe

De som ikke bekymrer seg for kunstig intelligens bruker gjerne argumentet om at ny teknologi lages med de beste intensjoner og til nytte for alle mennesker.

Nå er forsvarsindustrien nær ferdigstillelse av roboter som tar selvstendige beslutninger om mål og hvem som skal drepes.

I denne skrekkvideoen vises et scenario som viser hvordan eksisterende teknologier kan brukes til et terrorangrep.

Det som er mest skremmende med denne filmen er at selv om den er fiksjon er alle elementene som benyttes faktisk teknologier som finnes og er i bruk i dag.

 

Forsvarsindustrien langt fremme med AI

I krig er man alltid uenig i hvem som er «the bad guys». Nå er forsvarsindustrien nær ferdigstillelse av roboter som tar selvstendige beslutninger om mål og hvem som skal drepes.

Droner er i dag brukt av det amerikanske forsvaret, men de blir fortsatt styrt av mennesker. De som styrer dronene har etiske, legale og operasjonelle rammeverk de må forholde seg til. Beslutningene blir tatt av mennesker.

Hva skjer når drapsdroner blir utstyrt med kunstig intelligens og tar selvstendige beslutninger? Argumenter som benyttes for kunstig intelligens er blant annet at beslutningene vil være fullstendig «objektive» og at belastningen som droneoperatørene i dag blir utsatt for gjennom sine valg blir eliminert (…) De blir nemlig traumatisert når dronene ender opp med å drepe ikke bare målet, men også sivile, hevdes det.

Vil vi virkelig ha en verden hvor kunstig intelligens tar beslutninger om hvem som skal drepes?

En kunstig intelligens er selvsagt ikke «objektiv». Alt starter med en kode og etiske og legale rammeverk forsvinner selvsagt ikke om det er en algoritme som konkluderer. Som videoen over viser er det også et skremmende perspektiv om teknologien havner på gale hender.

Heldigvis er det motkrefter. 3.100 Google-ansatte signerte et åpent brev hvor de protesterte mot et kontroversielt Pentagonprogram «Project Maven». Avtalen mellom Google og Pentagon gikk ut på å bruke AI til overvåkning og analyse av droneopptak for å skille mellom mennesker og for eksempel kjøretøy på bakken.

Ansatte i Google mente at dette prosjektet strider mot Googles verdisyn «Don´t be evil»

En annen frykt er at Google vil integrere innsamlede personlige data med forsvarets innsamlede data som vil stride mot grunnleggende menneskerettigheter og at dette er en fundamental trussel mot allmennhetens tillit til Google

Recommended Posts

Legg inn kommentar

Start typing and press Enter to search

Kunstig intelligens kan lese dine tanker Jan Sollid Storehaug AI-kappløpet tilspisser seg mellom nasjonene og de digitale plattformene Jan Sollid Storehaug

Send this to a friend