Kunstig intelligens kan bruges af kriminelle

Der er stor risiko for, at kunstig intelligens, AI, i fremtiden vil blive brug i forbrydernes tjeneste, mener London-institut for fremtidens forbrydelser.

[vc_row][vc_column][vc_column_text]

Kunstig intelligens kan bruges af kriminelle

Der er stor risiko for, at kunstig intelligens, AI, i fremtiden vil blive brug i forbrydernes tjeneste, mener London-institut for fremtidens forbrydelser.
Af Kaj Mieritz, kaj@indblik.net
Instituttet Dawes Institute for Future Crime under University of London offentliggjorde for nylig en ny rapport med titlen ”AI-enabled Future Crime”.
I rapporten identificerer man en række typer forbrydelser, som kan drage nytte af kunstig intelligens, på engelsk AI, Artificial Intelligence. Og som giver anledning til betydelig bekymring (high concern). Disse er:

  • Lyd og billedefterligninger, skabt af AI
  • Førerløse køretøjer brugt som våben
  • Skræddersyet phishing
  • Angreb på andre AI-kontrollerede systemer
  • Afpresning i stor skala
  • Falske nyheder

I vurderingen af, hvor stor risikoen er for kriminel anvendelse af AI, har instituttet allieret sig med eksperter fra flere myndigheder, bl.a. politiet. For at vurdere, hvordan AI ville blive brugt, analyserede man, hvor stor skade de kriminelle kunne forvolde, hvor store fortjenester de kriminelle ville opnå, hvor nemt det er at benytte teknologien, og hvor svært det vil være at hindre den pågældende trussel.
Det er K-News, den danske advokatbranches nyhedsmagasin, som gør opmærksom på den britiske undersøgelse.
Som det fremgår af listen, er brug af falsk lyd og video den største trussel. Når man via AI kan skabe en figur på video, som ligner, taler og gebærder sig ligesom en person, man kender i forvejen (en skuespiller eller politiker, f.eks.) så er det nemmere at tiltuske sig adgang til de koder, som skaffer adgang igennem sikkerhedssystemerne.
En kunstig skabt person, som ligner og taler som en politiker, kan f.eks. programmeres til at opføre sig på en måde, så den virkelige politiker bliver diskrediteret.
AI kan også bruges til at gøre begrebet phishing langt mere sofistikeret end det er i dag. Den form for phishing, man kan opleve i dag, er at man modtager mail – som tilsyneladende er sendt fra banken eller NETS – hvor man bliver bedt om at oplyse sine adgangskoder. I fremtiden kan AI-robotter helt uden menneskelig indblanding tilrette mail til den enkelte person i målgruppen og gøre afsenderes logo umulig at skelne fra de ægte.
Kan man så ikke få ”gode” AI-robotter til at opdage den kriminalitet, som udføres af den ”onde” AI?
Ekspertgruppen bag analysen fastslår på den ene side, at der er flere gode veldokumenterede takter, som viser, at kriminel adfærd med AI kan opdages. Men på den anden side er det alligevel svært at forhindre AI-drevet kriminalitet, fordi der er ”mange ukontrollerede ruter, hvor falsk materiale kan sprede sig.”[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=”1/3″][qk_post id=”3743″][/vc_column][vc_column width=”1/3″][qk_post id=”6981″][/vc_column][vc_column width=”1/3″][qk_post id=”8327″][/vc_column][/vc_row]

[adning id="17957"]

Fik du læst?