Artificiell intelligens – vän eller fiende i krisarbete?

Insikterna blev många när Krisinstitutets medlemmar tog sig an ämnet artificiell intelligens (AI) på föreningens årsmöte. Vi konstaterade snabbt att det inte är lätt att hänga med i den snabba utvecklingstakten, men efter att ha gått igenom ett antal verkliga exempel, forskning på området och deltagarnas egna tester kunde vi ändå skapa oss en bild av nuläget och identifiera ett antal hot och möjligheter som vi ser med AI ur ett krisperspektiv. Vi fångade även in ett antal frågeställningar värda att diskutera vidare kring.

Några aktuella exempel på AI:

  • AI-kontrollerad satellit väljer ut militära mål att titta närmare på.
  • Fotograf avsäger sig fotoutrustning och en prissumma på 5000 dollar efter att ha vunnit en fototävling med en AI-genererad bild.
  • Falska AI-klonade röster lurar äldre att låna ut pengar till ”barnbarn”.
  • AI genererar fejknyheter.
  • AI-fejkad bild visar att Pentagon är bombat och aktiekursen går ner.
  • En person begår självmord på inrådan av ”terapi-AI”.

Hot

  • Militära hot
  • Övervakning av civilbefolkning
  • Cyberhot
  • Nätfiske – trovärdiga mejl
  • Informationspåverkan
  • Svårare att källgranska
  • Upphovsrätt
  • Lättare att fuska och luras

Möjligheter

  • Snabbare research
  • Nya ”insikter” från stora informationsmängder
  • Smarta digitala assistenter
  • Förutsäga naturkatastrofer i tidigt skede
  • Simulera olika krisscenarier
  • Autonoma system, t.ex. drönare, kan söka efter överlevande, undersöka skador på infrastruktur, leverera medicinsk utrustning eller samla in information om farliga platser där det är svårt för människor att vara.

Frågeställningar

  • Går det att lagstifta om AI när utvecklingstakten är snabbare än lagstiftningsprocessen?
  • Vad ska lagstiftas? Ska lagstiftningen ske på EU- eller nationell nivå?
  • Vem är ansvarig och kan ställas till svars för skadliga råd från AI?
  • AI kan underlätta exempelvis programmering, utveckling och kommunikation. Hur ställer sig företagen och den offentliga sektorn till att föra in AI i IT-miljön? Vad säger säkerhetsfolket?
  • Vad händer när AI börjar utveckla och placera ut skadlig kod?
  • Hur bevisar man att AI skrivit huvuddelen av en magisteruppsats?
  • Hur vet vi om AI talar sanning eller ljuger när källgranskningen blir svårare?
  • Vilken data vill vi skriva in? Hur vet vi var den hamnar och hur den används?
  • Hur ser världen ut om terrororganisationer, kriminella och illasinnade personer utan etisk kompass börjar utveckla och använda AI?
  • Går det någonsin att reglera och hantera AI Alter ego?
  • Kan vi hantera den AI-bot vi satt i rullning eller kan den bli smartare än oss?
  • Var är vi om 10 år? Någon som har en kvalificerad gissning?