Med rette har der været stor fokus på mulighederne i generativ AI. Med lige så stor ret er der nu fokus på teknologiens begrænsninger. Det er virksomhedsledernes opgave at erhverve sig en viden om muligheder og faldgruber, eller som minimum at engagere sig med kompetente rådgivere. Korn Ferry har opstillet en trepunktsplan for, hvordan denne vidensindsamling kan foregå i praksis. Artiklen er en del af ØU’s artikelserie om erhvervslivets brug af kunstig intelligens.
Generativ AI var en sensation, da den første version af Chat-GPT blev lanceret i november 2022. Men det er immervæk også noget tid siden nu. Teknologien er siden blevet en del af hverdagen, og dermed er der ikke længere nogen undskyldning for virksomhedsledere, der ikke forholder sig til den.
Heri ligger ikke nødvendigvis, at man for enhver pris skal implementere AI-systemer, og slet ikke at man skal gøre det her og nu. Men man skal forholde sig til både de muligheder, der allerede findes, og til dem, som sandsynligt er på vej. Rekrutteringsfirmaet Korn Ferry oplister i en guide tre praktiske skridt, topledere kan tage her i 2024.
For det første skal de suge til sig af viden om generativ AI. Konsulenthuset formulerer det sådan, at lederen skal se sig selv som en svamp for tilgængelig viden. Det handler ikke så meget om at forstå de tekniske finesser, som det handler om at kunne navigere i alt det, der er blevet sagt og skrevet i de seneste år.
Der har været meget hype, og mange af skriverierne er dybest set blot oplistning af buzzwords. Der er også egentlige fejlinformationer, og man skal ikke gå i panik, når man ser konkurrenten reklamere med, at den er begyndt at bruge kunstig intelligens. En gang imellem er den slags bragesnak, hvor man blot hæfter AI-etiketten på en ældre digital løsning.
Al denne tvivlsomme information imødegår man ved dels at søge informationer fra mere autoritative kilder, dels ved at eksperimentere i egen virksomhed.
Netop eksperimenter er udgangspunktet for det andet praktiske trin fra topledernes side. Medarbejdere og hele afdelinger skal gives et vist frirum på det felt. Virksomhederne bag AI-systemerne har indset dette, og mange af dem har installeret ”sandkassefunktioner”, hvor man kan ”lege” med funktionaliteterne. Og det skal ske uden, at man med det samme tilpasser alle sine eksisterende it-systemer, og, nok så vigtigt, uden at man bringer sikkerheden omkring interne data i fare.
Det tredje praktiske skridt er måske det mest komplicerede. Her skal lederne forholde sig til de praktiske cases, der på nuværende tidspunkt findes derude i den virkelige verden.
Disse praktiske cases kan f.eks. gå ud på, at virksomheder har sparet arbejdskraft ved at lade AI overtage simple funktioner, at chatsbots til kundeservice er blevet bedre, eller at prissætningen af virksomhedens produkter er blevet mere optimal, fordi AI-systemer har kunnet gennemskue, hvilke prisniveauer, der er gangbare i forskellige markeder og forskellige situationer.
Det kan alt sammen være meget fint. Men det kommer også med ulemper og risici. Der er under alle omstændigheder konkrete omkostninger, der skal betales. Derfor foreslås det, at man tager en tur op i helikopteren og stiller sig selv nogle overordnede spørgsmål:
Hvad er det i sidste ende, man ønsker at opnå? Hvis man f.eks. lægger vægt på troværdighed i markedet, skal man være forsigtig med at erhverve et system, der uophørligt ændrer salgspriser.
Hvilke data har man allerede? Det er spild af penge at sætte AI-systemer til at tygge sig igennem store datamængder, hvis der allerede findes simple data, der giver den viden, man har brug for.
Hvordan kan man styrke sit team, når det kommer til brugen af AI? Det oplagte svar er efteruddannelse, men det kan også handle om at nedsætte taskforces for at undersøge dette og hint eller blot at udvide medarbejdernes beføjelser til at eksperimentere.
Hvilke etiske risici er der? Man kan grine af den politiske korrekthed i svarene fra især Googles Gemini, men også fra de andre lancerede løsninger. Men det afspejler ikke blot woke normer på den amerikanske vestkyst: Enhver, som sætter AI-systemer i gang, må forholde sig til, at de uden at være eftertjekket vil fremkomme med en bred palet af injurier, racisme og andre ytringer, der ikke bare er uetiske, men også i mange tilfælde ulovlige.
Sten Thorup Kristensen