3 anledningar till att din organisation kommer att behöva externa algoritmbedömare

Av Satta Sarmah-Hightower

Företagsledare pressar ut allt värde de kan ur artificiell intelligens (AI). En KPMG-studie från 2021 visar en majoritet av företagsledare inom regering, industriell tillverkning, finansiella tjänster, detaljhandel, life science och hälsovård säger att AI är åtminstone måttligt funktionellt i deras organisationer. Studien visar också att hälften av de tillfrågade säger att deras organisation påskyndade adoptionen av AI som svar på Covid-19-pandemin. Hos organisationer där AI har antagits säger minst hälften att tekniken har överträffat förväntningarna.

AI-algoritmer är i allt högre grad ansvariga för en mängd av dagens interaktioner och innovationer – från personliga produktrekommendationer och kundservice erfarenheter till bankernas utlåningsbeslut och även polisens svar.

Men trots alla fördelar de erbjuder, kommer AI-algoritmer med stora risker om de inte övervakas och utvärderas effektivt för motståndskraft, rättvisa, förklarabarhet och integritet. För att hjälpa företagsledare med att övervaka och utvärdera AI visar den ovan refererade studien att en ett växande antal företagsledare vill att regeringen ska reglera AI för att tillåta organisationer att investera i rätt teknik och affärsprocesser. För nödvändig support och tillsyn är det klokt att överväga externa bedömningar som erbjuds av en tjänsteleverantör med erfarenhet av att tillhandahålla sådana tjänster. Här är tre anledningar till varför.

1. Algoritmer är "svarta lådor"

AI-algoritmer – som lär sig av data för att lösa problem och optimera uppgifter – gör systemen smartare, vilket gör det möjligt för dem att samla in och generera insikter mycket snabbare än vad människor någonsin kunde.

Vissa intressenter anser dock att dessa algoritmer är "svarta lådor", förklarar Drew Rosen, revisionschef på KPMG, ett ledande professionellt tjänsteföretag. Specifikt kanske vissa intressenter inte förstår hur algoritmen kom till ett visst beslut och kan därför inte vara säkra på att beslutet är rättvist eller korrekt.

"Resultaten som hämtas från algoritmen kan vara benägna att fördomar och misstolka resultaten", säger Rosen. "Det kan också leda till vissa risker för enheten eftersom de utnyttjar dessa resultat och delar [dem] med allmänheten och deras intressenter."

En algoritm som använder felaktig data, till exempel, är i bästa fall ineffektiv – och i värsta fall skadlig. Hur kan det se ut i praktiken? Överväg en AI-baserad chatbot som tillhandahåller fel kontoinformation till användarna eller ett automatiskt språköversättningsverktyg som översätter text på ett felaktigt sätt. Båda fallen kan resultera i allvarliga fel eller feltolkningar för statliga enheter eller företag, såväl som för de beståndsdelar och kunder som förlitar sig på beslut som fattas av dessa algoritmer.

En annan bidragande orsak till black-box-problemet är när inneboende partiskhet sipprar in i utvecklingen av AI-modeller, vilket potentiellt kan orsaka partiskt beslutsfattande. Till exempel använder kreditgivare i allt högre grad AI för att förutsäga potentiella låntagares kreditvärdighet för att fatta lånebeslut. En risk kan dock uppstå när viktiga indata i AI:n, såsom en potentiell låntagares kreditvärdighet, har ett väsentligt fel, vilket leder till att dessa individer nekas lån.

Detta understryker behovet av en extern bedömare som kan fungera som en opartisk utvärderare och ge en fokuserad bedömning, baserad på accepterade kriterier, av relevansen och tillförlitligheten hos de historiska data och antaganden som driver en algoritm.

2. Intressenter och tillsynsmyndigheter kräver transparens

År 2022 fanns inga aktuella rapporteringskrav för ansvarsfull AI. Men, säger Rosen, "precis som hur styrande organ införde ESG-reglering [miljö, social och styrning] till rapportera om vissa ESG-mått, det är bara en tidsfråga att vi ser ytterligare regelrapporteringskrav för ansvarsfull AI.”

Faktiskt från och med 1 januari 2023, New Yorks Lokal lag 144 kräver att en partisk revision utförs på ett automatiserat anställningsbeslutsverktyg innan det används.

Och på federal nivå National Artificial Intelligence Initiative Act från 2020— som bygger på en 2019 års förordning— fokuserar på tekniska standarder och vägledning för AI. Dessutom Algorithmic Accountability Act kan kräva konsekvensbedömningar av automatiserade beslutssystem och utökade kritiska beslutsprocesser. Och utomlands Artificiell intelligenslag har föreslagits och erbjuder ett omfattande regelverk med specifika mål för AI-säkerhet, efterlevnad, styrning och pålitlighet.

Med dessa förändringar är organisationer under ett styrningsmikroskop. En algoritmbedömare kan tillhandahålla sådana rapporter som behandlar regulatoriska krav och förbättrar intressenternas transparens samtidigt som man undviker risken att intressenterna misstolkar eller är vilseleds av bedömningens resultat.

3. Företag drar nytta av långsiktig riskhantering

Steve Camara, en partner i KPMG:s tekniksäkringspraxis, förutspår AI-investeringar kommer att fortsätta att växa i takt med att enheter fortsätter med att automatisera processer, utveckla innovationer som förbättrar kundupplevelsen och distribuera AI-utveckling över affärsfunktioner. För att förbli konkurrenskraftiga och lönsamma kommer organisationer att behöva effektiva kontroller som inte bara åtgärdar de omedelbara bristerna med AI utan också minskar eventuella långsiktiga risker förknippade med AI-driven affärsverksamhet.

Det är här externa bedömare går in som en pålitlig, kunnig resurs. När organisationer i allt högre grad anammar AI-integritet som en affärsmöjlighet, kan partnerskapet bli mindre av en ad hoc-tjänst och mer av ett konsekvent samarbete, förklarar Camara.

"Vi ser en väg framåt där det kommer att behöva finnas en fortsatt relation mellan organisationer som kontinuerligt utvecklar och operationaliserar AI och en objektiv extern bedömare", säger han.

En titt på vad som kommer härnäst

I framtiden kan organisationer använda externa bedömningar på mer cyklisk basis när de till exempel utvecklar nya modeller, använder nya datakällor, integrerar tredjepartsleverantörslösningar eller navigerar efter nya efterlevnadskrav.

När ytterligare reglering och efterlevnadskrav är mandat kan externa bedömare tillhandahålla tjänster för att direkt utvärdera hur väl en organisation har implementerat eller använt AI i förhållande till dessa krav. Dessa bedömare skulle då vara bäst placerade för att dela bedömningsresultat på ett tydligt och konsekvent sätt.

För att dra nytta av tekniken samtidigt som den skyddar mot dess begränsningar måste en organisation söka externa bedömare för att tillhandahålla rapporter som den sedan kan lita på för att visa större transparens vid implementering av algoritmer. Därifrån kan både organisationen och intressenterna bättre förstå AI:s kraft – och dess begränsningar.

Källa: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/