Ansvarsfull AI börjar med data – inte med principer
De flesta organisationer som säger sig arbeta med ansvarsfull AI arbetar i själva verket med att formulera principer. Det är inte samma sak. Ansvarsfull AI blir lätt ett dokument. Ett intyg. Något man står bakom i strategipresentationer och årsredovisningar. Men en princip som inte är förankrad i hur system faktiskt byggs och drivs är inte styrning – det är en avsikt. Och intentioner räcker inte när det gäller ansvarstagande.
Principerna är kända. Vad de faktiskt kräver är mindre diskuterat.
De flesta ramverk för ansvarsfull AI bygger på samma grundläggande principer - rättvisa, tillförlitlighet, säkerhet och ansvarstagande. Det finns en bred enighet om att dessa är viktiga. Mindre uppmärksamhet ägnas åt vad de innebär i det dagliga arbetet med att bygga och driva system.
För varje princip, när man följer den tillräckligt långt, hamnar på samma ställe:
|
Princip |
Vad den faktiskt kräver |
|
Rättvisa |
Representativa utbildningsdata |
|
Tillförlitlighet |
Validerade och uppdaterade data |
|
Säkerhet och trygghet |
Säker databehandling |
|
Ansvarsskyldighet |
Spårbar dokumentation av data |
Principerna överlappar och förstärker varandra – men gemensamt för dem alla är att de inte kan uppfyllas utan en medveten hantering av data.
Rättvisa kräver att träningsdata är representativa. Ett AI-system lär sig av historien, och data återspeglar naturligtvis det sammanhang i vilket de skapades – vilka händelser som registrerades, vilka anläggningar som mättes, vilka avvikelser som dokumenterades. Det är inget problem i sig, men det är något som man måste förstå och aktivt hantera.
Tillförlitligheten upprätthålls genom datakvalitet över tid. Ett prediktivt system är bara så bra som den data det bygger på. När AI-rekommendationer ingår i underhållsplaner eller operativa beslut är detta en direkt förutsättning för att systemet ska kunna göra det jobb som det är avsett att göra.
Säkerhet handlar idag om mer än åtkomsthantering till system. Det handlar bland annat om hur utbildningsdata skyddas, vem som har haft tillgång till dem och om huruvida leveranskedjor för data bedöms med samma noggrannhet som leveranskedjor för programvara.
Ansvarighet kräver spårbarhet. Om AI-system ingår i beslutsprocesser måste det vara möjligt att förstå grunden för besluten i efterhand. Detta kräver att data dokumenteras, att ägarskapet klargörs och att de modeller som används är tillräckligt transparenta för att kunna hanteras.
En fråga om grund
En AI-strategi utan en tillhörande datastrategi vilar på en svag grund. Inte för att tekniken är dålig, utan för att tekniken bara är lika bra som de data den bygger på.
Den praktiska frågan för alla organisationer som tar ansvarsfull AI på allvar är därför inte i första hand "vilka principer står vi bakom" – utan "har vi faktiskt kontroll över den data som driver våra system, och vet vi vad som händer när något går fel?"
Den frågan förtjänar ett lika konkret svar.