På Försvarspolitiskt Forum under Almedalen avslutades dagen med en diskussion kring artificiell intelligens och hur försvaret ska se på teknikens möjligheter och risker. Medverkande var Dennis Gyllensporre, chef på Ledningsstaben, Försvarsmakten, Rebecca Ihrfors, CIO på Försvarets Materielverk och Conny Svensson på CGI.
Vad är AI – egentligen?
Problemet med konceptet artificiell intelligens är att man hela tiden leds till att tänka på en tänkande dator som grubblar över sina beslut när det än så länge handlar om system med extremt smala användningsområden, till exempel att styra en bil, att avslöja bedrägerier, optimera flöden och processer eller effektivisera en handläggningsprocess. Vi är alltså mycket långt från en ”tänkande” dator som man kan ha en generell konversation med.
Men när det gäller dessa smala områden håller AI, eller mer specifikt maskininlärning, på att revolutionera hur vi gör saker. Det tog 18 månaders träning för Googles AI att slå världsmästaren i Go som tränat hela sitt liv på detta extremt komplexa spel. Men då kan den bara göra just det, inte spela schack eller styra en bil. Den typen av ”smal” AI kan även användas i militära sammanhang för att till exempel hitta mönster i enorma mängder komplexa data.
Ett annat användningsområde som Dennis Gyllensporre nämnde var att kunna skicka in självstyrande robotar in i områden som till exempel kontaminerats med kemiska stridsmedel. Att fjärrstyra via kamera och radio är inte alltid möjligt så dessa maskiner behöver kunna fatta egna beslut och navigera förbi hinder som man inte kan förutse. Ett annat område av intresse för just Ledningsstaben är att genomföra simuleringar med komplexa förlopp.
Etiska dilemman
Men hur ska en artificiell intelligens agera i en stridssituation? Conny Svensson illustrerade problematiken genom att visa hur universitetet MIT i USA har ställt upp flera olika situationer där en självstyrande bil kommer att behöva göra en avvägning mellan till exempel risken att bilen kör över fotgängare och räddar föraren eller offrar föraren för att rädda ett större antal fotgängare. Hur många fotgängare krävs i så fall för att bilens AI-system ska offra föraren? Ska barn prioriteras över vuxna?
Samma gäller militära applikationer. En autonom stridsmaskin som stöter på olika situationer i fält, till exempel där stridande använder civila som sköldar. Kan man offra en civil för att vinna striden? Eller måste man då avstå, även om det innebär att stridsmaskinen förstörs och striden förloras med risker för större fortsatt lidande?
Dennis Gyllensporre menar att alla typer av AI-styrda lösningar måste byggas och programmeras – eller uppfostras som det snarare handlar om – för att arbeta efter de principer som styr hur de mänskliga soldaterna agerar i olika situationer. Det betyder att inlärningen och uppfostran av dessa AIs kommer att var avgörande.
Rebecca Ihrfors avslutade med att säga att det måste finnas mekanismer och funktioner för att bryta in och stoppa en AI som inte längre agerar som den ska. Men ytterligare an utmaning när det går fel är att man inte bara kan ”debugga” ett AI-system som man gör med vanliga datorprogram för att se var det går fel. AI arbetar med neurala nät vilket liknar hjärnans funktion. Det är alltså inte ett sekventiellt flöde av instruktioner som får systemet att fatta sina beslut utan definitioner av samband och mönster i olika formationer.
Seminariet finns inspelat här.