Ansvarlig AI starter med data – ikke principper
De fleste organisationer, der siger, at de arbejder med ansvarlig AI, arbejder faktisk med at formulere principper. Det er ikke det samme. Ansvarlig AI bliver hurtigt et dokument. En erklæring. Noget, man står inde for i strategipræsentationer og årsrapporter. Men et princip, der ikke er forankret i, hvordan systemerne rent faktisk bygges og drives, er ikke styring - det er en hensigt. Og intentioner er ikke nok, når det drejer sig om ansvarlighed.
Principperne er velkendte. Hvad de faktisk kræver, er mindre diskuteret.
De fleste rammer for ansvarlig AI bygger på de samme grundlæggende principper - retfærdighed, pålidelighed, sikkerhed og ansvarlighed. Der er bred enighed om, at de er vigtige. Der er mindre opmærksomhed på, hvad de betyder i det daglige arbejde med at bygge og drive systemer.
For følger man principperne langt nok, ender de alle det samme sted:
|
Princip |
Hvad det faktisk kræver |
|
Fairness |
Repræsentative træningsdata |
|
Pålidelighed |
Validerede og opdaterede data |
|
Sikkerhed og tryghed |
Sikker databehandling |
|
Ansvarlighed |
Sporbar dokumentation af data |
Principperne overlapper og forstærker hinanden - men fælles for dem alle er, at de ikke kan opfyldes uden bevidst håndtering af data.
Fairness kræver, at træningsdata er repræsentative. Et AI-system lærer af historiske data, og data afspejler naturligvis den kontekst, de blev skabt i - hvilke begivenheder der blev registreret, hvilke anlæg der blev målt på, og hvilke afvigelser der blev dokumenteret. Det er ikke et problem i sig selv, men det er noget, der skal forstås og håndteres aktivt.
Pålidelighed opretholdes gennem datakvalitet over tid. Et forudsigende system er kun så godt som de data, det fodres med. Når AI-anbefalinger indgår i vedligeholdelsesplaner eller driftsbeslutninger, er det en direkte forudsætning for, at systemet kan udføre det arbejde, det er beregnet til.
Sikkerhed handler i dag om mere end adgangsstyring til systemer. Det omfatter, hvordan træningsdata er beskyttet, hvem der har haft adgang til dem, og om datakæder vurderes med samme strenghed som softwareforsyningskæder.
Ansvarlighed kræver sporbarhed. Når AI-systemer indgår i beslutningsprocesser, skal det være muligt at forstå grundlaget for beslutningerne bagefter. Det kræver, at data dokumenteres, at ejerskabet afklares, og at de anvendte modeller er så gennemsigtige, at de kan administreres.
Et spørgsmål om fundament
En AI-strategi uden en tilhørende datastrategi hviler på et svagt fundament. Ikke fordi teknologien er dårlig, men fordi teknologien kun er så god som de data, den bygger på.
Det praktiske spørgsmål for enhver organisation, der tager ansvarlig AI alvorligt, er derfor ikke primært "hvilke principper står vi bag" - men "har vi rent faktisk kontrol over de data, der driver vores systemer, og ved vi, hvad der sker, når noget går galt?"