Frederic Miskawi

Frederic Miskawi

Vice-President, Consulting Services

Stora språkmodeller som OpenAIs ChatGPT, Googles Bard, Anthropic Claude och Metas LLaMA har skapat en stark förväntan och entusiasm kring hur de kommer att kunna stödja många olika användningsområden för artificiell intelligens (AI). De mest effektiva och innovativa framtida AI-systemen kommer dock sannolikt att kombinera dessa mångsidiga fundament med mer specialiserade neurala nätverk. Dessa inkluderar datorseende för att analysera bilder, regressionsmodeller för att förutsäga numeriska värden, förstärkningsinlärning för att optimera beteenden och mycket mer.

Precis som en orkester kombinerar olika musikaliska talanger kommer morgondagens AI-plattformar att integrera olika maskininlärningsmetoder som modulära komponenter som leds av mänskliga expertdirigenter. Framtidens AI är en orkester av modeller, inte ett solonummer.

Nyckeln till framgång här är att på ett genomtänkt sätt kombinera LLM med andra AI-funktioner, kvalitativa data, experter och processer för att skapa ett system med kontroller och balanser. Detta möjliggör skräddarsydda lösningar som skapar värde genom att öka kvaliteten, säkerheten och noggrannheten. LLM utgör en mångsidig grund, men genom att integrera dem med bredare AI-funktioner och infrastruktur kan man frigöra deras fulla potential. Det finns alltid utmaningar med ny teknik, men genom att ta ett helhetsgrepp kan dessa modeller göra det möjligt för organisationer att göra säkra framsteg på sina AI-resor.

"På CGI ser vi framtiden för AI som ett ekosystem av modeller med kompletterande styrkor, som arbetar tillsammans med kontinuerlig mänsklig expertmedverkan och övervakning, eller vad vi kallar ’mänsklig expert i loopen’, för att uppnå önskad anpassning. Till exempel kan en generativ språkmodell snabbt syntetisera den första innehållsutformningen. Ett logikdrivet kvalitetssäkringssystem kan hjälpa till att granska och verifiera kritiska termer. En specialiserad innehållsmodell som är finjusterad för måldomänen kan ytterligare förfina språket och tonen för att matcha en organisations tidigare dokument."

Att selektivt kombinera specialiserade och generella AI-modeller på detta stegvisa, validerade sätt under mänsklig övervakning kan möjliggöra skräddarsydda lösningar där varje modell bidrar med unika styrkor till en mer tillförlitlig och trovärdig output. Denna sammanslagning av olika modeller och valideringar kommer att vara avgörande för att på ett säkert sätt frigöra AI:s fulla potential.

Framgångsfaktorer för att använda AI med flera modeller

För att bygga ett blomstrande AI-ekosystem som stöder flera AI-modeller och system krävs expertis för att orkestrera modeller, data, infrastruktur och verksamhet till ett system med kontroller och balanser. Att förstå vilka kompletterande AI-modeller som ska användas och vilka resurser som behövs för att säkerställa korrekt styrning hjälper teamen att fokusera på att, på ett ansvarsfullt sätt, skapa AI-ledda värden. Med noggrann planering och strategisk vägledning för att samordna alla delar synergistiskt kan organisationer utveckla sådana AI-miljöer för att driva etiska affärseffekter.

För att skapa denna noggrant utformade orkester av rörliga delar krävs ett AI-ekosystem med ett robust system för styrning och kontroll:

  • Rätt AI-ramverk och infrastruktur för att stödja implementering, övervakning och uppdatering av modeller
  • Kompetens och kapacitet - mänskliga AI-resurser som är involverade i utbildning, finjustering och validering
  • En mångsidig uppsättning av specialiserade och generella AI-modeller som kan arbeta tillsammans för att stödja och utmana varandra
  • Korrekt arkitektur, utbildning, processer och förfaranden för att främja modularitet men ändå förbättra samarbetet mellan modeller
  • Rätt datauppsättningar för att minimera partiskhet och maximera resultatens noggrannhet, rättvisa och säkerhet
  • Rigorösa valideringsuppsättningar för att uppnå önskade resultat och minska risken för fel som hallucinationer
  • Kontinuerlig mänsklig övervakning i hela systemet för att balansera autonoma komponenter

Även om du aldrig helt kan eliminera påverkan av fördomar och tolkningar i källmaterialet kan du minska dem genom att använda lämpliga modeller och processer, förbättra dina metoder för att träna AI och öka storleken och mångfalden i datauppsättningen.

Säkerställa etik och säkerhet inom ett sunt AI-ekosystem

Att säkerställa att resultatet från era satsningar på AI och att ni samtidigt kan se till att era etiska regelverk efterlevs behöver ni sätta upp AI-ekosystemet och träna det på rätt sätt. Varje organisation kommer att ha olika krav och toleransnivåer.

När det gäller säkerhet finns det flera potentiella attackvektorer relaterade till LLM och AI-modeller i allmänhet. Ett relativt nytt hot är från aktörer som vill påverka resultatet av en modell genom att använda ”AI social engineering”. Precis som med människor kan dessa stora språkmodeller påverkas genom en noggrant utvald serie av uppmaningar. För att motverka dessa hot och undvika att dina modeller delar mer data än förväntat, skulle AI-modeller agera lite som säkerhetsagenter som tillhandahåller tillsyn och support, precis som en handledare skulle göra i ett mänskligt callcenter.

Som komplement till dessa övervakningsmodeller bör företagen överväga följande ytterligare tekniker:

  • Motverkande utbildning för att ”härda” modeller för att motstå speciellt utformade ingångar - detta bör vara en hög prioritet.
  • Sandbox-validering för att isolera otillförlitliga ingångar för testning före produktion för att förhindra att hot påverkar live-system
  • Förklaringsmått för att få insikter i modellerna logik och hur stort förtroende man kan ha för resultaten för att hjälpa till att identifiera oegentligheter
  • Autentiseringsmekanismer för att möjliggöra och förbättra revision
  • Övervakning av förändringar i prestanda som indikerar problem som dataförgiftning
  • Integrera blockkedjealgoritmer med generativ AI i ditt ekosystem för tillförlitliga resultat

Organisationer bör ta itu med säkerhet och integritet tidigt genom att se till att deras AI-ekosystem implementerar de nödvändiga kontrollerna.

I ett sunt AI-ekosystem med flera modeller kan man dra paralleller till många aspekter av det moderna mänskliga samhället. Så kallade "Good Guys" kommer att vilja behålla användningen av specialiserade och generaliserade modeller för att motverka de så kallade "Bad Guys" som kommer att vilja kringgå och korrumpera modellerna för sina egna negativa syften. På många sätt är tävlingen redan i gång.

Förhindra falska data med "mänskliga experter i loopen"  

En viktig utmaning med LLM och andra generativa AI-modeller är att de kan producera information som saknar stöd eller är ologisk, på samma sätt som människor kan minnas fakta på ett felaktigt sätt. Sådana "hallucinationer" beror på hur djupinlärningsnätverk fungerar.

Enkelt beskrivet tar modellerna element i datamängder, som ord, och förvandlar dem till tokens, som är grundläggande enheter i text eller kod. Baserat på tokens relationer i ett givet sammanhang översätts sedan tokens till flerdimensionella vektorer, som är samlingar av siffror. När de avkodas tillbaka till naturligt språk för en given uppmaning genererar modellerna den mest statistiskt sannolika texten baserat på modellens träning, vilket kan leda till falskt eller irrationellt innehåll.

Organisationer kan minska förekomsten av hallucinationer med hjälp av en mängd olika tekniker och tillvägagångssätt. Några exempel är:

  • Att föra in mänsklig bedömning direkt i loopen: Bättre verktyg för validering av innehåll, flaggning av avvikelser och iterativ utbildning av AI-experter kan möjliggöra felkorrigering i realtid, feedback och förbättrad modellträning.
  • Anta utbildningstekniker och processförbättringar: Förstärkningsinlärning från mänsklig feedback, kontradiktorisk träning och multi-task-inlärning kan förbättra faktagrundningen genom att utsätta modellen för olika scenarier och svar som sammanställts av experter. Dessutom kan utökade datauppsättningar, förtroendepoäng och osäkerhetskvantifiering säkerställa att modellen har en robust träningsgrund och kan bedöma dess prestanda.
  • Använda nya modellarkitekturer: Inkorporering av externa kunskapslager och modulära logikdrivna komponenter kan ge ytterligare lager av information och beslutsfattande för att hjälpa AI att producera mer exakta utdata.
  • Implementering av flera grundmodeller: I ett sunt AI-ekosystem kan användning av flera modeller för att jämföra utdata och minska outliers lägga till ett lager av korsvalidering, vilket förbättrar den övergripande noggrannheten i resultaten.
  • Införliva orsakssamband och resonemang i modellmålen: Utöver prediktiv noggrannhet kan tillägg av kausalitet och resonemang ge AI-modellen en djupare förståelse av data, vilket minskar risken för att göra sakligt felaktiga slutsatser.
  • Fokusera på hybridmetoder: Genom att kombinera neurala tekniker för djupinlärning med symbolisk logik (mer traditionella algoritmer som blockkedjor) och kunskapsrepresentationer kan man förbättra noggrannheten och anpassningen, minska utbildningstiden och påskynda marknadsintroduktionen genom återanvändning.

Även om tekniker som de som anges ovan kommer att bidra till att minska ologiska resultat, kommer LLM att fortsätta att vara felaktiga till sin natur, precis som mänsklig kommunikation ibland kan vara. Detta innebär att AI-ekosystem fortfarande kommer att kräva kontinuerliga mänskliga kontroller och avvägningar under överskådlig framtid. I stället för att AI ersätter mänsklig arbetskraft kommer organisationer som vill dra full nytta av AI att fokusera på utbildningsprogram som gör att deras anställda kan lära sig att använda den här tekniken.

Om AI implementeras på rätt sätt kommer den att göra det möjligt för anställda att fokusera mer tid på värdefulla uppgifter som utnyttjar mänskliga styrkor och interaktioner. Lärare skulle till exempel kunna ägna mer tid åt att engagera sig i eleverna (se "2-Sigma Problem", 1984 av Benjamin Bloom). Sådana produktivitetsförbättringar kan bidra till att lösa den brist på talanger som många organisationer står inför. Övergången kan dock vara utmanande för vissa roller och kräva omskolning och stöd.
Med en genomtänkt strategi i ett hälsosamt ekosystem med flera AI-modeller och kontroller och balanser kan organisationer arbeta för att maximera fördelarna och mildra undanträngningarna när AI och mänskliga arbetsstyrkor utvecklas tillsammans snarare än konkurrerar mot varandra.

Att främja ett hälsosamt AI-ekosystem

Precis som en symfoniorkester kombinerar talangerna hos olika musiker till en harmonisk helhet, kräver en framgångsrik AI-användning också en genomtänkt integrering av teknik, data och mänsklig expertis. På CGI är vi medvetna om att de mest framgångsrika resultaten från AI uppnås genom denna fusion. 

Vår CGI PulseAI-plattform är ett exempel på hur man bygger robusta ekosystem för att göra det möjligt för olika AI-modeller att arbeta tillsammans under mänsklig övervakning, som en dirigent som leder de olika sektionerna i en orkester.

Generella språkmodeller ger en solid ”grundmelodi” ovanpå vilken specialiserade datorseende- och prediktionsmodeller kan lägga kompletterande delar. Genom att orkestrera dessa olika förmågor - kombinera generella och specialiserade modeller, använda kvalitetsdata och möjliggöra samarbete mellan AI-system och människor genom människocentrerad design - skapas skräddarsydda lösningar för varje affärsutmaning.

Framtiden för AI ligger i denna harmoniska syntes av modeller, data och människor för att möjliggöra lösningar som driver mätbart värde. Kontakta oss gärna för att diskutera våra perspektiv på det framväxande landskapet för AI med flera modeller och bästa praxis för implementering.

Frederic Miskawi
VPCS, CGI US

Blogginlägget skrevs ursprunligen på engelska på CGI.com

About this author

Frederic Miskawi

Frederic Miskawi

Vice-President, Consulting Services

Fred är konsultchef på CGI i USA och expert inom bland annat artificiell intelligens. Hans arbete kännetecknas av hans fokus på att hjälpa kunderna till snabb ROI genom bygga lösningar baserad på både avancerad teknik, förståelse för mänskliga beteenden och fokus på säkerhet och funktionalitet. ...