Bestyrelsesguiden

Guide: Topledere bør fokusere på regler og etik omkring AI

Guide: Topledere bør fokusere på regler og etik omkring AI

Artikelserie om kunstig intelligens: Da Chat GPT ud af den blå luft blev lanceret i november 2022, måtte myndigheder over hele verden omgående til at tænke i ny regulering. Regulativer og lovforslag er nu begyndt at dukke op. De bærer præg af at være i en tidlig fase. Men virksomhederne gør klogt i at følge med i arbejdet, for selv uden lovgivning skal de forholde sig til samme etiske og praktiske problemer.

Transparens er et positivt ladet ord, som – med større eller mindre selvindsigt – bliver brugt i mange organisationer. Desværre står det langt hen ad vejen i modsætning til den nye dagsorden, der er på bordet i direktions- og bestyrelseslokaler: Kunstig intelligens.

Det ligger i begrebet, at maskinerne kan gennemskue mønstre, som mennesker ikke ser, og ofte er maskinerne heller ikke i stand til at forklare deres ejere, hvad der foregår. De kan kun give bundlinjen. Derfor kan den kunstige intelligens komme til at diktere nogle praksisser, som virksomheden ikke ønsker at bruge, og som også er ulovlige.

Det kan f.eks. være tilfældet i HR-arbejdet, hvor maskinen kan diskriminere mod køn eller etniciteter. Det er topledelsens opgave at holde øje med, at den slags ikke sker, og her kan det være værd at kigge på den lovgivning mod regulering af kunstig intelligens, der er begyndt at dukke op.

Fire niveauer for risiko

Et amerikansk advokatfirma med speciale i selskabsledelse gennemgår i en guide på Harvards governance blog eksempler på sådan lovgivning – eller i nogle tilfælde er det blot notater og lignende fra myndigheder, der som bekendt også er blevet taget på sengen og i hast skal finde ud af, hvordan de regulerer dette område.

Her i EU er The Artificial Intelligence Act på vej gennem systemet. Første udkast blev faktisk udsendt allerede i april 2021, det vil sige halvandet års tid inden det store gennembrud for generativ AI.

Det var trods alt kendt, at AI ville blive stort engang i fremtiden. Fremtiden kom blot hurtigere end forventet. I lovteksten deles risikoen ved AI-systemer op i fire kategorier: Uacceptabel, høj, begrænset og minimal. De to første er naturligvis de to mest relevante.

Uacceptabel risiko er, når borgernes sikkerhed, borgerrettigheder eller levebrød er i fare. For så vidt angår borgerrettigheder må AI-systemer f.eks. ikke sættes til at genkende folk i det offentlige rum. Risikoen regnes som høj, når det angår følsomme systemer. Sætter man AI til at regulere trafiksystemer, skal man f.eks. være meget sikker på, at de ikke indimellem kortslutter. Det samme gælder ved AI i sundhedssektoren.

I USA formulerede Det Hvide Hus i oktober 2022 ”Blueprint for an AI Bill of Rights”. Alene retorikken siger noget om den alvor, området bliver betragtet med – begrebet bill of rights hentyder til de ni paragraffer i den amerikanske forfatning, der sikrer de helt basale borgerrettigheder, som i dag mestendels er selvfølgelige, men som var revolutionerende, da de blev forfattet.

Rettigheder og principper

Blueprintet taler om fem grundlæggende rettigheder i henseende til AI: 1) Borgerne skal beskyttes mod usikre og ineffektive systemer. Dette skal sikres gennem omfattende høringsrunder og tests inden lanceringen. 2) AI-systemerne må ikke diskriminere på baggrund af køn, etnicitet, seksualitet osv. 3) Elementer, der forhindrer misbrug af følsomme data om borgerne, skal være bygget ind i systemerne. 4) Borgerne skal have det at vide, når de kommunikerer med eller bliver sagsbehandlet af et AI-system. 5) Hvor det er rimeligt, skal borgeren have mulighed for at fravælge AI, og tillige undervejs i en proces med AI at forlade denne og blive betjent af et menneske.

På lovgivningsfronten var amerikanerne også i gang i god tid inden, at nogen havde hørt om Chat GPT. Et stort lovforslag blev lanceret denne sommer, og dette altså under indtryk af den teknologiske revolution i henseende til generativ AI.

Lovforslaget har fem fokuspunkter: 1) Beskyttelse af national sikkerhed og økonomisk tryghed for lønmodtagere. 2) Støtte af udviklingsarbejde, der skal forhindre misbrug og utilsigtet ansvarspådragelse. 3) Beskyttelse af valghandlinger og promovering af sociale ordninger. 4) At afklare hvilke informationer myndigheder og borgere har brug for om AI-systemer og 5) Støtte til amerikanske virksomheder inden for AI.

Sten Thorup Kristensen