Profilbild på Raymond

Raymond Anneborg

Senior Business Consultant med inriktning mot AI

Med stort intresse följer jag den snabba utvecklingen inom AI-området och den potential som finns för verksamheter inom en rad branscher i att använda AI för att effektivisera processer, optimera kostnader, förhindra mänskliga fel, öka sitt kundfokus, hantera IT-system, för att hantera repetitiva uppgifter och mycket mer. Att generativ AI har blivit väldigt tillgängligt för alla och envar väcker också en hel del relevanta frågor och etiska överväganden kring hur verksamheter bör förhålla sig till tekniken. Jag har arbetat med AI under lång tid och leder nu en strategisk gruppering kring generativ AI på CGI. Därför vill jag försöka ge lite råd på vägen både för verksamheter som är restriktiva med AI-användning och för er som vill kasta er ut bland AI-möjligheterna.

Ett av de viktigaste områdena för en verksamhet eller ledning när det gäller AI är att fundera över policyer för AI-användningen. Det här är viktigt att göra oavsett om ni har en verksamhetsövergripande strategi för AI, eller är mer avvaktande. Ni kan nämligen vara säkra på att anställda redan har korn på och använder tekniken.

Etik och ansvarsfull användning av AI

Vi på CGI förespråkar en ansvarsfull användning av AI. Oavsett er mognad eller aptit på att använda tekniken finns det en rad viktiga frågeställningar som ni bör lyfta och som kan vara viktiga områden att inkludera i en policy. Bland dem är:

  • Jämställdhet och likvärdighet
    Det är viktigt att säkerställa att alla problemformuleringar och all data för AI-användning är opartisk, jämställd och likvärdig utifrån ras, kön, sexuell läggning, politisk, religiös och etnisk bakgrund. Här går det ofta att utgå från verksamhetens likabehandlingsplan och jämställdhetspolicy.
  • Användning av känslig data
    På samma sätt som verksamheter i stort måste hantera data på ett ansvarsfullt sätt, tillgodose integritet, datasekretess och skydd av känsliga uppgifter, behöver dessa områden också innefatta all typ av AI-användning. Generell informationsklassning, som delar in information i publik, intern respektive sekretessbelagd, kan vara användbar. Tydliggör vilken data som får användas i allmänna AI-verktyg och hur. Här är det också viktigt att upphovsrätt och immateriella rättigheter kring data tillgodoses. Utgå från er informationsklassificeringspolicy.
  • Tillit till systemen
    En utmaning med AI-system är att inte ens utvecklarna av verktygen och systemen verkar veta riktigt hur de fungerar eller vad som händer. Ska en verksamhet använda och förlita sig på AI-teknik är det viktigt att utvärdera tilliten till systemen och att resultaten faktiskt går att lita på. Ett första steg här är att AI-användning måste följas av transparens kring hur resultatet har genererats, vilka verktyg som används och vilken data de utnyttjat. Just transparens är också en viktig del som lyfts i EU:s AI Act. I nästa steg kan det vara bra att utveckla riktlinjer för hur resultat kan verifieras eller åtminstone ifrågasättas. Ett tips kan vara att ställa samma fråga till flera olika AI-verktyg. Kommer alla verktyg fram till samma svar, blir det mer trovärdigt. Ger de olika verktygen olika resultat går det att fråga eller ifrågasätta verktygens resultat där de kan ge mer kontext till hur de gått till väga, för att kunna känna sig mer säker på att resultaten är tillförlitliga. För särskilt viktiga uppgifter eller beslut kan det vara lämpligt att låta verksamhets- eller ämnesexperter se över och ge sitt perspektiv på de AI-genererade resultaten.
  • Ansvar
    För många verksamheter finns mer eller mindre tydliga ansvars- och befogenhetsbeskrivningar för viktiga arbetsuppgifter. Med AI:s tillgänglighet är det bra att se över eller ta fram ansvarsbeskrivningar även för AI-användning. Är det den som använder AI-verktyget som är ansvarig för eventuella incidenter eller felslut som AI kan ge upphov till, så bör det göras tydligt. Notera också att det aldrig är verktyget som är ansvarigt, utan ansvaret måste fördelas till någon person bakom verktyget.

Genom att gå igenom, diskutera och ta fram riktlinjer kring dessa fyra områden har ni kommit en bra bit på vägen i att skapa tydliga riktlinjer och policyer för AI-användning. Börja med att se över de policyer och riktlinjer som ni redan har och uppdatera dessa med AI-perspektivet. Det är också viktigt att med regelbundenhet se över och göra justeringar i dem. Anledningen till det är att utvecklingen av tekniken och de olika verktygen går snabbt. Det är inte otänkbart att några av frågeställningarna ovan byggs in som funktioner i verktygen framöver. Titta även på hur andra ser på ansvarsfull AI. Det finns redan många ramverk och riktlinjer publicerade, som det går att inspireras av när ni tar fram era egna policyer och riktlinjer, som t.ex. EU:s ”Etiska riktlinjer för tillförlitlig AI”. En anledning till regelbunden översyn är också att lagstiftare, främst inom EU, är mycket aktiva inom områden relaterade till AI och ny teknik.

EU är aktiva inom AI-reglering

Med EU:s AI Act är ambitionen att skapa bättre villkor för utvecklingen och användningen av AI. Europaparlamentet vill se till att AI-system som används är säkra, transparenta, spårbara, icke-diskriminerande och miljövänliga. Tanken är att AI-system ska övervakas av människor, snarare än av automatisering, för att förhindra skadliga effekter. Den 21 maj 2024 togs det sista formella beslutet och AI Act träder nu i kraft från början av juli. Företag och organisationer har nu ett par år på sig att säkra sin efterlevnad. I detta sammanhang har ansvarsfrågan fått en framskjuten roll, som kan få konsekvenser även utanför AI-området.

Ansvarsfrågan i AI Act har lyft att både utvecklarna som tar fram tekniken och verktygen, men också de som använder tekniken, har ansvar för resultaten och dess konsekvenser. Det är en mycket komplex och svår fråga. Denna definiering kan exempelvis få omfattande påverkan på användningen av öppen källkod. Vem är ansvarig för en samutvecklad applikation?

Min rekommendation är att inte förlora mer tid. Lyft frågan om AI redan nu och utveckla en policy för er verksamhet, så att ni har belyst de viktigaste frågorna, kan börja informera och utbilda personalen, så att ni känner er trygga med att AI-användningen inte sker helt i det fördolda inom verksamheten.

Vi på CGI har lång erfarenhet av att arbeta med AI-teknik och AI-frågor. Hör gärna av er om ni vill diskutera frågan eller behöver hjälp med att utveckla er policy, er AI-strategi eller bara vill testa hur AI skulle kunna användas på ett effektivt sätt i er verksamhet.

About this author

Profilbild på Raymond

Raymond Anneborg

Senior Business Consultant med inriktning mot AI

Raymond har 35 års erfarenhet inom olika aspekter av informationshantering och informationsstyrning, från praktisk utveckling till strategisk planering. Hans expertis sträcker sig över företagsarkitektur, master data management, systemintegration, dataskydd (GDPR), informationssäkerhet, datakvalitet och analys, samt datavetenskap och artificiell intelligens. För närvarande fokuserar han främst på ...