Management
of Innovation
& Technology

Framtiden som chef över ChatGPT

”Jag ber om ursäkt för förbiseendet! Låt mig rätta till det”. För ett par veckor sedan bad jag Microsoft Copilot att lista de vanligaste generativa AI modellerna åt mig. Den radade upp ett antal, men av någon anledning glömde den att ta med sig själv. Jag påpekade misstaget och mycket välvilligt så bad Copilot om ursäkt och lade direkt till sig själv till listan. Copilot hade på så sätt utfört en enkel arbetsuppgift åt mig, om än lite felaktigt, men som tur var hade jag kunskap om ämnet och kunde korrigera misstaget.

De generativa AI modellerna har landat i vår vardag och har redan lämnat ett stort avtryck. Vi överöses dagligen av uppdateringar om deras tekniska framsteg i otaliga artiklar, nyhetsblänkare, eller poster på sociala medier. Skaran av människor som inte prövat att interagera med dem krymper troligen varje dag, Ett av de områden där generativ AI förväntas göra absolut störst påverkan är vårt arbetsliv. Bara löftet om de arbetsuppgifter som Microsoft Copilot påstås kunna utföra är häpnadsväckande. Från att svara på enkla mail och summera långa rapporter, till att ta mötesanteckningar från möten du inte hinner delta i och hålla ordning på alla dina dokument.

Oro för AI

Samtidigt som lovsången för vad AI kan göra sjungs högt och klart från varje teknikutvecklare kan även en vemodigare melodi av oro höras. I en av mina tidigare studier såg mina medförfattare och jag att rädsla är ett vanligt förekommande motstånd för att implementera AI i organisationen. Inte bara rädsla för att förlora jobbet, utan också rädsla för att ens kompetens ska bli förlegad, och att man ska förlora kontroll. Vilken roll spelar egentligen din domänkunskap som du arbetat upp under längre tid när AI modeller förväntas kunna göra delar av ditt jobb på sekunder?

Den här misstron föds inte bara från den flitigt kommunicerade AI hypen utan bottnar också i avsaknad av förståelse för hur AI och data fungerar. I en fallstudie där jag och mina forskarkollegor följde ett team av AI utvecklare i en större organisation, såg vi att de omgivande teamen, de team som skulle ta emot och implementera AI modellerna, inte ville acceptera utvecklarnas modeller. Problem med misstro hade uppstått mot både AI modellerna och mot utvecklarna. En orsak till att misstron hade uppstått berodde på att de kringliggande teamen varken förstod utvecklarnas kompetens tillräckligt, eller hur AI teknologi fungerade och dess beroende av data. Det senare var särskilt problematiskt för de kringliggande teamen då de inte ens uppfattade hur deras eget arbete påverkade funktionaliteten och tillförlitligheten av AI modellerna.

Faktum är att både du och jag, i våra befintliga roller, har en osynlig arbetsuppgift som vi sällan reflekterar över. En stor del av vårt arbete är datakonstruktion (data construction). Varje mail du skickar, varje dokument du skapar, varje formulär eller program du fyller i är också datakonstruktion. När vi slarvar med processerna, stavar fel på ett namn, eller struntar i att fylla i fält i formulär så bidrar vi i någon mån till att försämra datakvalitén. Det är ett problem eftersom samma data som du just har konstruerat kan komma att användas till en AI- modell. Och är datakvalitén dålig, så kan det påverka tillförlitligheten i modellen. Som tidigare forskning visat så är bristande funktionalitet och tillförlitlighet är orsaker att misstro AI.

Bristande förståelse kan också leda till övertro

Intressant är att bristande förståelse även skapar problem när tilltron till AI är hög, för att inte säga övertro till AI. I en studie som nyligen utfördes av forskare tillsammans med Boston Consulting Group, såg man att avsaknaden av förståelse för generativ AIs begränsningar skapade övertro på dess förmåga (Dell’Acqua et al., 2023). I experimentet delades konsulterna upp i två grupper, där en grupp fick utföra en kreativ uppgift att ta fram nya produktidéer, och den andra fick utföra en uppgift att lösa ett affärsproblem. Varje grupp delades dessutom in i tre subgrupper, en subgrupp fick utföra uppgiften på egen hand, en subgrupp fick hjälp av generativ AI, och en subgrupp fick ta hjälp av generativ AI men fick dessutom en kort översikt om hur man kan prompta AI. För den kreativa uppgiften visade det sig att generativ AI ökade konsulternas prestation, framför allt de som inte från början var toppreseterande. Intressant nog såg man inte samma fördel gällande uppgiften som fokuserade på ett affärsproblem. Gällande den uppgiften, som hade designats för att ligga utanför AI modellens förmåga, var det gruppen som arbetade utan AI som klarade sig bäst. De som förlitade sig helt på AIn gjorde ett sämre resultat.

Så vad säger det här om hur vi vårdar vår expertis och vårt framtida samarbete med generativ AI? I min avhandling för jag resonemanget att det vi står inför inte är en förlust av domänexpertis utan ett skifte i expertis. Vi går mot en framtid där allas kompetens kommer inkludera hur man tillämpar och hanterar AI.

När det gäller AI och förtroende har forskning visat att domänexperter är mer tveksamma att använda AI eftersom de fruktar att de ska förlora sin expertis. Samtidigt visar tidigare forskning att kompetens bibehålls också efter automatisering; till exempel bland piloter som i sitt yrkesutövande förlitar sig på autopiloter. Snarare kan domänexperter behöva en kombination av sin domänexpertis och mer tekniska färdigheter (Lou & Wu, 2021). Till exempel behövde konstexperter som arbetade med en AI-modell som tränats att matcha konst tvungna att lära sig hur AI fungerade för att kunna hantera situationer där AIns resultat inte överensstämde med expertens förväntningar.

Domänexpertis i förändring

Samtidigt, att automatisering kräver ny expertis är inget nytt. Med hjälp av IT har vi digitaliserat och automatiserat uppgifter, verktyg och processer under en längre tid, En förändring som också fört med förändringar i domänexperternas behov av ny kunskap. För att förstå det nya gränssnittet mot IT verktygen måste anställda också förstå sitt arbete på en mer abstrakt nivå och kunna skapa sig en teoretisk förståelse för data. Domänexpertisen måste helt enkelt ses som att den är i kontinuerlig förändring med tanke på att uppgifter och processer kan förändras med ny teknologi. Till exempel, när nya AI-modeller introduceras och utmanar befintligt arbete, möjliggör domänkunskap, teknisk förståelse och kognitiva färdigheter, såsom förmågan till abstraktion, för domänexperter att sätta riktningen för AI-utvecklingen inom organisationen. I stället för att vara låst vid uppgifter och processer som kan bli föråldrade kommer domänexperter anta mellanroller mellan teknologin, teknikexperter och den operativa miljön.

Genom att lyfta vår domänkunskap till en mer abstrakt nivå och öka vår kunskap om tekniken, kan vi som domänexperter röra oss mer fritt mellan olika processer i organisationen när de förändras till följd av implementeringen av AI. På så sätt kan vi blir vi också experter på hur vi tillämpar och hanterar AI inom organisationen.

“I stället för att vara låst vid uppgifter och processer som kan bli föråldrade kommer domänexperter anta mellanroller mellan teknologin, teknikexperter och den operativa miljön.”

Tänk dig en framtid där den tidigare domänexpertens roll skulle vara mer liknande en chef. Men i stället för att hantera anställda människor, skulle hen bli ansvarig för att leda multipla AI-applikationer. En sådan förändring kan också skydda domänexpertis från att bli förlegad när AI tar över delar av arbetet. Paradoxalt nog skulle en sådan förändring också göra yrken inom operativa områden mer likartade och, på sikt, utbytbara. Hotet om ditt arbete kommer alltså inte från AI utan från personer som är bättre att leda AI modeller i deras arbete.

Råd för att implementera AI i organisationer

Så vad betyder det här för företag som redan börjat eller ligger i startgroparna för att implementera AI? För att överkomma osäkerheten med att implementera AI i organisationer, men även eventuell övertro för AI’s förmåga, krävs att man fokuserar på kompetenshöjning och utvecklande av domänkunskap.

Råd 1: Satsa på att bygga intern kompetens. Inte bara för teamen som jobbar med implementeringen och utvecklingen av AI, utan för alla användare. Förståelse för AI modellers kapacitet och begränsningar, och framför allt dess beroende av data, kommer motverka oro. En liten brasklapp, dock, utbildningen måste gå på djupet. I experimentet med konsulterna som jag nämnde ovan, fick de konsulter som mottagit information om hur man kan prompta AI sämst resultat. Det litade helt enkelt ännu mer på AI’ns resultat. Det vittnar om att en ytlig utbildning kan leda till övertro till både AI’n och den egna förmågan.

Råd 2: Vi vet inte ännu hur generativ AI bäst kan hjälpa oss. Som jag nämnde ovan så visar tidig forskning att generativ AI framför allt höjer prestationen för dem som inte redan är toppresterande. Därför är mitt råd att tillåta och stimulera kreativa användningar av generativ AI (i kombination av kunskapshöjande aktiviteter) för att hitta nya användningssätt. Det kan leda till att verktygen inte bara utjämnar mellan hög och låg presenterande anställda, utan också leder till nya användningsområden.

Råd 3: I entusiasmen kring AI är det lätt att tappa bort fokus på ansvar och etik. Med nya kraftfulla verktyg följer risker med ofördusedda konsekvenser. Därför, när ni arbetar med de kompetenshöjande aktiviteterna se också till att skapa en bred förståelse för vilka risker som kommer med AI. Både inom och utanför företaget.

Rekommenderad läsning:
> Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., … & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge
worker productivity and quality. Harvard Business School Technology & Operations Mgt. Unit Working Paper, (24-013).

> Lou, B., & Wu, L. (2021). AI on drugs: Can artificial intelligence accelerate drug development? Evidence from a large-scale examination of bio-pharma firms. MIS Quarterly, 45(3), 1451–1482.

> Ångström, R. C., Björn, M., Dahlander, L., Mähring, M., & Wallin, M. W. (2023). Getting AI Implementation Right: Insights from a Global Survey. California Management Review, 66(1), 5-22.

> Ångström, R. C. (2023). Dancing with the Dynamic Machine: Essays on Implementation Practices, Trust Dynamics, and Idea Evaluation in and Around the Use of Artificial Intelligence in Organizations (Doctoral dissertation). Stockholm School of Economics. ISBN 978-91-7731-277-2.

  • Rebecka C. Ångström

    Dr. Rebecka C. Ångström, principal researcher, är ansvarig för Technology Ethics och medlem i Ericsson Researh Ethical Board. Försvarade sin avhandling ”Dancing with the Dynamic Machine” 29e September 2023. Mottog IMITs stipendium för sin avhandling 2024. Affilierad forskare med House of Innovation, Handelshögskolan i Stockholm.

Vi använder oss av cookies för att förbättra användarvänligheten och prestandan för sajten. Genom att klicka på godkänn-knappen eller surfa vidare på siten går du med på denna lagring.