Af Christian Ørsted, ledelsesrådgiver, foredragsholder og forfatter

Kan kunstig intelligens gøre vores arbejdsliv bedre og mere meningsfyldt eller er den en trussel? Efter at have arbejdet med kunstig intelligens i mange år, er jeg ved at køre træt i store løfter og meget lille effekt. Det er paradoksalt, at vi den ene øjeblik hører, at generativ ai kan løse både klimakrise og kurere alle sygdomme, og det andet øjeblik oplever en strøm af kommunikativ støj i hidtil uset skala i form af åndsforladte reklametekster og akavede autogenererede e-mail-svar.

Men noget tyder på, at problemet ikke er generativ ai, men den måde, mange instinktivt kommer til at bruge det på. Det kræver en indsats, hvor vi bruger vores menneskelige intelligens i stærkere samspil med den kunstige.

Lige præcis det Kian Gohar, ceo i GeoLab, og Jeremy Utley fra Stanford University er eksperter i. For nylig lavede de et interessant eksperiment, som endte i Harvard Business Review.

De valgte teams i Europa og USA. Alle fik samme tidsrum og struktur til at samarbejde om konkrete arbejdsopgaver. Først skulle de arbejde individuelt, derefter skulle de dele ideer med hinanden i brainstorms og til sidst aflevere deres forslag, som blev vurderet af chefer og kollegaer på en skala fra »virkeligt gode« til »ikke værd at bruge mere tid på«.

Halvdelen af grupperne fik mulighed for at bruge ai i idéfaserne. Forventningen var, at de ville komme med flere og bedre ideer. Til forskernes store overraskelse fik de kun otte procent flere ideer. Det skuffede lidt. Men det, der skuffede meget, var, at de ikke kom med flere gode ideer end de teams, som ikke havde ai til rådighed. Det eneste, de adskilte sig markant ved, var, at de havde større tiltro til deres ideer end de rent menneskelige teams, og at de præsenterede færre decideret dårlige ideer.

I stedet for at blive mere kreative med ai, stillede de sig hurtigere tilfredse med løsninger, der var fornuftige, men generiske og ofte middelmådige. De undgik med andre ord de værste fejlskud, men det var grupperne uden ai, som kom med flest af de bedste løsninger.

Problemet med samarbejdet mellem ai og mennesker handler ikke om ai, konkluderer Utley.

Generativ ai giver os resultater lynhurtigt som aldrig før. Men vi er instinktivt gearede til at vælge en løsning, der er »god nok«, og gå videre, når den er fundet. Vi dropper bedre løsninger, hvis først vi har nogle, der lever op til de krav, vi har sat, og det er det, der sker, hvis man forveksler generativ ai med en søgemaskine og indtaster lidt baggrund og et spørgsmål og trykker retur og venter på svaret. Ofte er det svar, der kommer, ganske godt. Ikke rigtig godt.

Snarere middelmådigt. Og her er problemet. Vi er ganske enkelt nødt til at slippe vores gamle teknologiforståelse og i stedet se på, hvordan vi arbejder sammen som mennesker.

Det handler om mennesker, og hvordan bias spænder ben for os, når vi tager nyt værktøj i brug. Især vores »det er godt nok-bias« – den, nobelprismodtageren Herbert Simon navngav »satisficing«. »Godt nok-bias« stoppede de grupper, som brugte generativ ai, når de fik fornuftige svar. Det løftede selvfølgelig bundniveauet og forklarer, hvorfor de fik færre rigtig dårlige ideer. Men det, at de forventede, at det ville kunne blive bedre eller ikke gjorde sig ekstra umage for at se anderledes på resultaterne, førte også til at de fik færre af de rigtig gode ideer end de grupper, som ikke havde ai til at hjælpe sig, men måttes nøjes med hinanden. De faldt ikke i samme fælde af selvtilfredshed, for de havde let ved at forestille sig, at deres kollegaers ideer kunne udfordres og bygges videre på.

Utley og Gohan foreslår en simpel, men stærk løsning, der beskytter menneskelighed og trækker det bedste ud af ai. De kalder den FIXit: Modellen begynder med »F« for at formulere et fokuseret problem. Generative ai-modeller giver »gennemsnitlige« svar baseret på sandsynligheden af ordsekvenser, så det er afgørende, at vi formulerer meget specifikke problemstillinger. I stedet for at stille abstrakte spørgsmål som »hvordan kan vi forbedre kundetilfredsheden?« opfordrer de til at være så præcise som muligt, for eksempel: »Hvilke ændringer kan vi foretage i vores kundes onboarding-proces for at forbedre kundetilfredsheden med 10 %?« Men »FIXIT« stopper ikke her. Modellen understreger vigtigheden af individuel idéudvikling. (»I«), så vi beskytter menneskelig kreativitet, før andet værktøj bruges og sikrer, at teammedlemmer kommer med  ideer, uforstyrret af ai-forslag eller gruppetænkning. Først herefter tages ai i brug. Først med træning, hvor den fodres med detaljerede data relaterede til det specifikke problem. Det kalder de kontekst (»X«). Først herefter bliver ai spurgt, men ikke som søgemaskine, men som diskussions- og sparringspartner. Det er interaktive eller interaktive samtaler (»I«), hvor vi både beder ai udfordre os og stille os spørgsmål, og hvor vi stiller spørgsmål til dens svar. Fuldstændig som vi ville gøre i samtale med mennesker, hvis vi tror, de har kompetencen til at svare og tålmodigheden til at høre på os. Til sidst skal teamet (»T«) på banen igen uden ai og tage stilling til videre udvikling, prioritering og færdiggørelse af ideer og løsningsforslag.

Processen forstærker vores kreative potentiale i samspil mellem mennesker og mellem mennesker og teknologi. Den spænder ben for vores instinktive bias og inviterer vores nysgerrighed, så vi kan få det bedste fra begge verdener: Færre dårlige ideer og flere af de rigtigt gode. Vigtigst af alt, så beskytter den menneskelighed og sikrer, at vi bruger og udvikler kritisk tænkning og fælles læring, som vi får brug for i takt med, at generativ ai bliver mere og mere udbredt.

Christian Ørsted er cand.merc., ledelsesrådgiver og forfatter. Han holder foredrag og workshops om ledelse og arbejdsmiljø og fungerer som rådgiver for ledelsen i en række af Danmarks største private og offentlige virksomheder og er ekstern lektor. Forfatter til bestsellerne »Livsfarlig ledelse« og »Fatale forandringer«. Se mere på www.christianorsted.dk