Artificiell Intelligens (AI) har potentialen att bli en av mänsklighetens största förändringar sedan vi utvecklades från homo sapiens. Det är spännande och intressant – men frågan är om vi är redo för vad som kommer att hända? Förstår vi riskerna och inser vi vilket tungt ansvar vi fått? I en serie om tre blogginlägg resonerar CGI:s Conny Svensson om förhoppningar och farhågor med AI.
Vi har redan idag AI runt omkring oss, inbakat i olika system. När du kollar på en film eller köper något på nätet så är det AI som hjälper dig att föreslå vad du kanske också är intresserad av. När du tar ett kort med din telefon och den automatiskt kategoriserar kortet som en solig semesterbild med glada människor så är det AI. När du placerar pengar i en fond så fördelas dessa automatiskt av AI. Dessa låter kanske som enkla exempel men det är så AI kommer krypa in i våra liv – genom att förenkla livet på små men värdefulla sätt.
Men AI räddar redan liv. Tesla har publicerat ett antal rapporter om hur deras autopilot har sett en potentiell situation och hunnit reagera långt innan förare ens var medveten om faran. Den kan nämligen se genom bilar, blir aldrig trött och är alltid uppmärksam, det lär sig också hela tiden och blir en bättre och bättre bilförare. Det kan man tyvärr inte säga om oss människor. Man har också sett hur ett AI, med tillgång till tusentals journaler och medicinsk historik, kan ställa mycket säkrare diagnoser och tidigt se potentiella sjukdomar mycket bättre och långt innan erfarna läkare.
Resonemang bortom vår förmåga?
Google använde nyligen sitt egna AI-bolag DeepMind, som nyligen slog världsmästaren i spelet Go, till att optimera sin drift av serverhallar. Man kunde se en besparing upp till 40 procent i en hall som redan, med mänsklig förmåga, optimerats till perfektion. Det innebär stora besparingar på miljön, energin och kostnaderna.
När det gäller Go-spelet genomförde DeepMind flera drag och använde taktiker som varken Go-experterna eller DeepMind förstod logiken bakom. När vi på CGI använde machine learning för att kunna identifiera män och kvinnor i en stor mängd beteendedata så uppnådde vi en träffsäkerhet på 98 procent jämfört med en säkerställd kontrollmängd. Vi var förbluffade över den höga träffsäkerheten och ville analysera hur den kommit fram till det.
Men det är här AI blir lite "läskigt", till skillnad från vanlig programmering där man kan stega sig igenom varje instruktion så går man helt vilse i de flera lager av noder i det neurala nätverket som efterliknar hur den mänskliga hjärnan fungerar. Google gick nyligen ut och sa att även de är förbryllade över de resultat som deras olika AI system kommer fram till. De har även identifierat detta som ett potentiellt orosmoln då människan inte längre har kontrollen.
Rätt värderingar skapar ansvarsfulla AI
Elon Musk, vår tids kanske största visionär, uttalade sig nyligen om AI. Han menade att AI kan vara det största existentiella hotet som vi någonsin sett; större än det miljöhot som hänger över oss. Och det är inte bara han som är orolig. Stephen Hawking, en av de mest populära vetenskapsmännen i historien, använder så starka ord som "The development of full artificial intelligence could spell the end of the human race". Så ja, vi bör nog fundera igenom detta.
När beslut blir mer och mer automatiserade så kommer vi även lägga mer och mer av våra liv i händerna på det som från början var baserat på ren data och tolkningen av denna data. Hade vi rätt data? Lärde vi vår AI att tolka datat korrekt? Var vi bra föräldrar med rätt värderingar med en god kalibrerad moralisk kompass? Om vi inte lär AI:n grunderna i grundskolan, tänk på hur den kan bli som tonåring...