Vejen til ansvarlig AI går gennem test og afprøvning

Af:

AI har aldrig været så hypet, som det er lige nu. For blot et halvt års tid siden var det de færreste, der gjorde sig tanker om AI, men nu har emnet sneget sig ind i primetime-udsendelser på public service-kanaler eller i chefredaktørernes ledere, hvor etiske, juridiske og tekniske aspekter diskuteres.

Skrevet af: Andreas Holbak Espersen, digitaliseringspolitisk chef i DI Digital

Det har både sine fordele og ulemper. På den ene side er det godt, at flere bliver opmærksomme på, hvad AI kan skabe af muligheder, og at flere tager del i den fælles diskussion om, hvor begrænsningerne bør være. Samtidig må man også konstatere, at AI er kompliceret stof, og samtalen bliver hurtigt overfladisk og upræcis, og dermed skabes et forvrænget billede af, hvad AI kan bruges til og ikke bruges til.  Vi skal alle være en del af den demokratiske samtale om, hvordan transformerende teknologi skal påvirke vores samfund, og derfor er det også afgørende, at vi skaber et fælles fundament for den samtale – det har vi alle, og særligt interesseorganisationer, erhvervsliv, forskermiljøer og politikere, et ansvar for. 

AI på pause 
Kort før påske skrev Elon Musk, Steve Wozniak og 1100 forskere under på et åbent brev om en bekymring for AI’s udvikling, og med et opråb om, at vi som samfund bør sætte AI på pause, til vi er blevet klogere på mulighederne og begrænsningerne. Men hvis vi skal kunne skabe det førnævnte fundament for ansvarlig AI og sikre, at teknologien anvendes som vi ønsker, så er løsningen ikke at sætte AI på pause.

AI skal være med til at løse kapacitetsudfordringerne i vores sundhedsvæsen, accelerere den grønne omstilling, skabe et bedre arbejdsliv mv. Hvis det skal lykkes, så skal vi arbejde med AI og ikke imod. Det betyder ikke, at vi skal være blinde over for potentielle farer, der også kan ligge i at arbejde med AI. Det ville være naivt ikke at være opmærksomme på faldgruberne, men at sætte det på pause er ikke en løsning. Vi skal i stedet indføre gode og konstruktive værktøjer, der hjælper virksomheder, den offentlige sektor og borgerne med at udnytte det enorme potentiale, som AI har. 

Europæisk AI lovgivning
Den kommende AI lovgivning – EU AI Act – er et godt eksempel på et værktøj, som kan være nøglen til, at ansvarlig AI kan blive en europæisk styrkeposition. Formålet er at regulere AI med en risikobaseret tilgang, hvor man kigger på anvendelsesområderne og ikke på teknologien i sig selv. 

På den måde rettes fokus på AI systemer, der tages i anvendelse på områder, hvor der kan være alvorlige konsekvenser, hvis løsningerne ikke fungerer som forventet eller bruges forkert – såkaldt højrisiko AI. Hvis AI systemet bliver kategoriseret som højrisiko, vil der være en længere række krav og kriterier, som systemet og virksomheden skal leve op til. Eksempler på højrisiko er selvkørende biler, brug af biometriske data (særligt ansigtsgenkendelse) og AI til at udrede cancer. Ikke-højrisiko AI vil være langt de fleste anbefalingssystemer; chatbots i kundeservice, optimering af produktionsapparater mv. 

Test og afprøvning   
Test og afprøvning af fremtidens AI systemer bliver et afgørende supplement til EU AI Act. Det kan være med til at løse nogle af de tekniske og regulatoriske knuder, som virksomheder og offentlige myndigheder kan støde på i deres arbejde med AI systemer. I DI Digital arbejder vi p.t. på to initiativer, der skal hjælpe virksomheder og offentlige myndigheder med test og afprøvning. Det ene initiativ skal hjælpe danske aktører i første fase af arbejdet med AI. 

Initiativet kaldes en AI sandkasse og er et kontrolleret miljø, hvor det kan undersøges, hvordan systemerne agerer ift. regulering og de tekniske aspekter, inden systemerne udvikles endeligt. Det kunne fx være en life-science virksomhed, som vil bruge AI til behandling af persondata. Sandkassen kan benyttes, når ideen opstår, og hjælpe aktører med at komme videre både teknisk og regulatorisk. 

Det andet initiativ er en såkaldt TEF – Test and Experimentation Facility – som er et EU-finansieret initiativ, der skal hjælpe virksomheder med at teste ”cutting edge” AI inden for Smart City and Communities. Det vil altså være virksomheder, som allerede har udviklet ideen, men som har behov for at teste løsningen i et kontrolleret miljø. 

Vi mener, at Danmark og resten af Europa skal gå forrest, når det kommer til ansvarlig AI. Det er afgørende, at den kurs, der i sidste ende bliver udstukket, ikke baserer sig på frygt, men på erfaring. Erfaring, der er dannet under åbne forhold og ansvarlige rammer. De rammer kan lovgivningen samt test- og afprøvningsfaciliteterne være med til at skabe. 

DI Digital er et branchefællesskab i Dansk Industri for virksomheder inden for it, tele,
elektronik og kommunikation. DI Digital vil sikre, at Danmark bliver det foretrukne land at drive teknologivirksomhed i og ud fra for derigennem at skabe udvikling, vækst, velstand og velfærd.

www.danskindustri.dk

Mest læste på BusinessReview.dk

1600px_COLOURBOX53565833--
Legal Tech gør det nemmere at have medarbejdere
annonce
Miljømærkning og klimakrav - bliver medicin også bæredygtig?
frit
Garant for begge sider
2
Når teamet spiller sammen vinder virksomheden
DK_Langelands Plads^J Fredriksberg_PHOTO @gamasj
Certificeret og formstabilt Kebony-træ vinder frem overalt

Læs også

Fotograf Sif Meinckewww.sifmeincke
Den generelle trussel fra cyberangreb i Danmark er meget høj 
Det samme er danske virksomheders kompetence til at levere løsninger, der kan beskytte samfundet, virksomheder og centrale institutioner. Så...
de-fem-storste-globale-risikoer-i-2024-og-2025 (1) copy_
Misinformation og cybersikkerhed er de største globale trusler
Over de næste to år vil AI-genereret misinformation være den største globale trussel skarpt forfulgt at cybersikkerhed. Det slår over...
Natasha-Friis-Saxberg-4-Storformat (1)
Cybersikkerhed er blevet et mange-hovedet monster
Der går ikke mange dage mellem, at man hører om en ny virksomhed eller branche, der har været udsat for et cyberangreb. Og det er måske...