Här är varför företag har ett tumultartat kärlek-hat-förhållande med AI-etiknämnder

Bör ett företag inrätta en rådgivande nämnd för AI-etik?

Du kanske blir förvånad över att veta att detta inte är ett lätt ja-eller-nej-svar.

Innan jag går in på komplexiteten bakom för- och nackdelarna med att inrätta en AI Ethics Advisory Board, låt oss se till att vi alla är på samma sida om vad en AI Ethics Advisory Board består av och varför den har stigit till rubriknivå framträdande plats.

Som alla vet har artificiell intelligens (AI) och den praktiska användningen av AI för affärsverksamhet gått igenom taket som ett måste för moderna företag. Du skulle få svårt att hävda något annat. Till viss del har infusionen av AI gjort produkter och tjänster bättre, plus ibland lett till lägre kostnader förknippade med att tillhandahålla nämnda produkter och tjänster. En snygg lista över effektivitetsvinster och effektivitetsökningar kan potentiellt tillskrivas den förnuftiga och lämpliga tillämpningen av AI. Kort sagt kan tillägget eller förstärkningen av det du gör genom att införliva AI vara ett ganska lönsamt förslag.

Det finns också det ska vi säga stort stänk som kommer med att lägga till AI i dina företagssträvanden.

Företag är högljudda och stolta över sin användning av AI. Om AI bara råkar förbättra dina varor, är det bra. Samtidigt är påståenden om att använda AI tillräckligt uppmärksammade för att du i stort sett kan göra samma saker som du gjorde tidigare, men ändå tjäna mycket mer pengar eller ögonglober genom att kasta runt AI-fanan som en del av din affärsstrategi och dörren varor.

Den sista punkten om att ibland tjafsa lite om huruvida AI verkligen används får oss att gå in på arenan för AI-etik. Det finns alla möjliga direkt falska påståenden om AI från företag. Ännu värre, kanske består av att använda AI som visar sig vara den så kallade AI för dåligt.

Till exempel har du utan tvekan läst om de många fall av AI-system som använder Machine Learning (ML) eller Deep Learning (DL) som har invanda rasfördomar, könsfördomar och andra otillbörliga olämpliga diskriminerande metoder. För min pågående och omfattande bevakning av dessa frågor som rör negativ AI och uppkomsten av skrikande krav på AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Så, vi har dessa sura drivkrafter dolda inom den till synes helt rosa AI-användningen av företag:

  • Ihåliga påståenden om att använda AI när det faktiskt inte finns någon AI eller obetydlig AI-infusion
  • Falska påståenden om AI-användning som är avsiktligt utformade för att vilseleda
  • Oavsiktlig inkludering av AI som visar sig ge olämpliga fördomar och är diskriminerande
  • Målmedvetet formad AI för att sprida dåliga fördomar och avskyvärda diskriminerande handlingar
  • Övriga

Hur uppstår den här typen av tanklösa eller skamliga metoder i företag?

En anmärkningsvärd pusselbit är bristen på AI-etik.

Toppchefer kanske inte är medvetna om själva idén om att skapa AI som följer en uppsättning etiska AI-föreskrifter. AI-utvecklarna i ett sådant företag kan ha en viss medvetenhet om saken, även om de kanske bara är bekanta med AI-etiska teorier och inte vet hur de ska överbrygga klyftan i den dagliga utvecklingen av AI. Det finns också omständigheterna med AI-utvecklare som vill ta till sig AI-etiken men som sedan får en stark stöt när chefer och chefer tror att detta kommer att sakta ner deras AI-projekt och öka kostnaderna för att utveckla AI.

Många ledande befattningshavare inser inte att bristande efterlevnad av AI-etiken sannolikt kommer att sluta sparka dem och företaget i ryggen när AI släpps, som är fylld av svåra och helt och hållet fula problem. Ett företag kan fastna med dålig AI mitt ibland sig som sedan bedrövligt undergräver företagets annars länge uppbyggda rykte (ryktesrisk). Kunder kan välja att inte längre använda företagets produkter och tjänster (kundförlustrisk). Konkurrenter kan dra nytta av detta misslyckande (konkurrensrisk). Och det finns massor av advokater som är redo att hjälpa dem som har överträtts, i syfte att lämna in rejäla stämningar mot företag som har tillåtit ruttet AI i deras företagsartiklar (juridisk risk).

Kort sagt, ROI (return on investment) för att på lämpligt sätt använda AI-etiken är nästan säkert mer fördelaktigt än i jämförelse med nedströmskostnaderna förknippade med att sitta ovanpå en stank av dålig AI som inte borde ha utformats eller släppts.

Det visar sig att alla inte har fått det PM så att säga.

AI-etiken vinner bara gradvis dragkraft.

Vissa tror att lagens långa arm oundvikligen kan behövas för att ytterligare inspirera till antagandet av etiska AI-metoder.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha distinkta lagar för att styra olika utveckling och användningar av AI. Nya lagar håller verkligen på att samlas runt på internationell, federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar är avmått. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. Faktum är att de varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Se till exempel min bevakning på länken här och länken här.

Låt oss se till att vi alla är på samma sida om vad grunderna i AI-etiken innehåller.

I min spaltbevakning har jag tidigare diskuterat olika samlade analyser av AI-etiska principer, såsom denna bedömning på länken här, som erbjuder en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Det krävs en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Ett sätt att försöka introducera och behålla varaktig uppmärksamhet kring användningen av AI-etiska föreskrifter kan delvis genomföras genom att inrätta en AI-etikrådgivning.

Vi kommer att packa upp aspekterna av AI Ethics Advisory Board nästa.

AI Ethics Boards och hur man gör dem rätt

Företag kan befinna sig i olika stadier av AI-adoption, och likaså i olika stadier av att anamma AI-etik.

Föreställ dig ett företag som vill komma igång med AI-etik, men som inte är säker på hur man gör det. Ett annat scenario kan vara ett företag som redan har sysslat med AI-etik men som verkar osäker på vad som behöver göras för att främja ansträngningen. Ett tredje scenario kan vara ett företag som aktivt har utvecklat och använt AI och internt har gjort mycket för att förkroppsliga AI-etiken, även om de inser att det finns en chans att de går miste om andra insikter kanske på grund av internt grupptänkande.

För något av dessa scenarier kan det vara klokt att inrätta en AI-etikrådgivningsnämnd.

Begreppet är ganska okomplicerat (nåja, för att förtydliga, den övergripande föreställningen är den ökända toppen av isberget och djävulen är med all säkerhet i detaljerna, som vi för ett ögonblick kommer att ta upp).

En AI Ethics Advisory Board består vanligtvis av i första hand externa rådgivare som ombeds att sitta i en särskild rådgivande styrelse eller kommitté för företaget. Det kan också finnas några interna deltagare i styrelsen, men vanligtvis är tanken att skaffa rådgivare utanför företaget och det kan ge ett halvoberoende perspektiv på vad företaget gör.

Jag säger halvoberoende eftersom det utan tvekan kommer att finnas några potentiella oberoende konflikter som kan uppstå med de utvalda medlemmarna i AI Ethics Advisory Board. Om företaget betalar rådgivarna, väcker det den uppenbara frågan om de betalda medlemmarna känner sig beroende av företaget för en lönecheck eller att de kan vara oroliga för att kritisera den gåva hästen de har i handen. Å andra sidan är företag vana vid att använda externa betalda rådgivare för alla möjliga övervägda oberoende åsikter, så detta är lite vanligt och förväntat ändå.

AI Ethics Advisory Board ombeds vanligtvis att träffas regelbundet, antingen personligen eller på virtuell distans. De används som bollplank av företaget. Oddsen är också att medlemmarna förses med olika interna dokument, rapporter och PM om de ansträngningar som pågår med AI på företaget. Särskilda medlemmar i AI Ethics Advisor Board kan bli ombedda att delta i interna möten som anstår deras specifika expertis. Etc.

Förutom att kunna se vad som händer med AI inom företaget och ge nya ögon, har AI Ethics Advisory Board vanligtvis en dubbel roll att vara en extern till insida leverantör av det senaste inom AI och etisk AI. Interna resurser kanske inte har tid att gräva i vad som händer utanför företaget och därför kan de få mycket fokuserade och skräddarsydda toppmoderna synpunkter från AI Ethics rådgivande styrelsemedlemmar.

Det finns också användningsområden inifrån och ut för en AI Ethics Advisory Board.

Detta kan vara knepigt.

Konceptet är att AI Ethics Advisory Board används för att låta omvärlden veta vad företaget gör när det kommer till AI och AI Ethics. Detta kan vara praktiskt som ett sätt att stärka företagets rykte. De AI-infunderade produkterna och tjänsterna kan uppfattas som mer pålitliga på grund av den gyllene godkännandestämpeln från AI Ethics Advisory Board. Dessutom kan uppmaningar om att företaget ska göra mer åt etisk AI avtrubbas något genom att påpeka att en AI-etikrådgivning redan används av företaget.

Frågor som vanligtvis ställs till en AI Ethics Advisory Board av företaget som använder en sådan mekanism inkluderar ofta:

  • Ska företaget använda AI för en viss produkt eller tjänst, eller verkar det vara överdrivet oroande?
  • Tar företaget hänsyn till hela skalan av AI-etiska överväganden i sina AI-ansträngningar?
  • Har företaget fallit in i grupptänkande och blivit ovilligt eller oförmöget att se potentiellt störande AI-etiska undergångar som väntar på dessa ansträngningar?
  • Vilka typer av senaste tillvägagångssätt för AI-etik bör företaget försöka ta till sig?
  • Skulle det vara möjligt att ge extern beröm för våra AI-etiska ansträngningar och engagemanget för detta?
  • Övriga

Att ta del av en AI Ethics Advisory Board är förvisso vettigt och företag har i allt högre grad marscherat in på denna väg.

Var medveten om att det finns en annan sida av detta mynt.

På ena sidan av myntet kan AI Ethics advisory boards vara det näst bästa sedan skivat bröd. Försumma inte den andra sidan av myntet, de kan också vara en monumental huvudvärk och du kan ångra att du vänder dig in i detta tråkiga territorium (som du kommer att se i den här diskussionen, nackdelarna kan hanteras, om du vet vad du gör).

Företag börjar inse att de kan hamna i lite knipa när de väljer att gå vägen för AI Ethics Advisory Board. Du kan hävda att denna intrig är något som liknar att leka med elden. Du förstår, eld är ett mycket kraftfullt element som du kan använda för att laga mat, skydda dig från rovdjur när du är i vildmarken, hålla dig varm, föra fram ljus och ge en mängd praktiska och viktiga fördelar.

Eld kan också bränna dig om du inte kan hantera den bra.

Det har varit olika nyhetsrubriker på senare tid som tydligt visar de potentiella farorna med att ha en AI-etikrådgivning. Om en medlem sammanfattningsvis bestämmer sig för att de inte längre tror att företaget gör rätt etisk AI-aktiviteter, kan den missnöjda medlemmen sluta med ett stort huff. Om man antar att personen sannolikt är välkänd inom AI-området eller branschen, kommer deras hoppande skepp att få stor uppmärksamhet i media.

Ett företag måste sedan gå på försvaret.

Varför lämnade medlemmen?

Vad sysslar företaget med?

Vissa företag kräver att medlemmarna i AI Ethics Advisory Board undertecknar NDAs (sekretessavtal), som till synes kommer att skydda företaget om medlemmen bestämmer sig för att bli "skurk" och kassera företaget. Problemet är dock att även om personen förblir relativt tyst, finns det ändå ett troligt erkännande av att de inte längre sitter i AI Ethics Advisory Board. Detta i sig kommer att väcka alla typer av ögonbrynshöjande frågor.

Dessutom, även om en NDA finns, kommer ibland medlemmen att försöka gå runt bestämmelserna. Detta kan inkludera att hänvisa till icke namngivna generiska "fallstudier" för att belysa AI-etiska anomalier som de tror att företaget smygande utförde.

Den fallna medlemmen kan vara helt fräck och komma ut direkt och nämna sina farhågor om företaget. Huruvida detta är ett tydligt brott mot NDA är kanske något mindre avgörande än det faktum att ordet sprids om etiska AI-skval. Ett företag som försöker stämma medlemmen för brott mot NDA kan på ett brutalt sätt sätta hett vatten på sig själva, skapa extra uppmärksamhet åt tvisten och framstå som den klassiska David kontra Goliat-duellen (företaget är det stora "monstret").

Vissa toppchefer antar att de helt enkelt kan nå en ekonomisk uppgörelse med vilken medlem som helst i AI Ethics Advisory Board som anser att företaget gör fel saker, inklusive att ignorera eller tona ner uttryckta farhågor.

Detta kanske inte är så lätt som man antar.

Ofta är medlemmarna andäktigt etiskt sinnade och kommer inte lätt att backa från vad de uppfattar som en etisk rätt-mot-fel kamp. De kan också på annat sätt vara ekonomiskt stabila och inte villiga att raka sina etiska föreskrifter eller så kan de ha annan anställning som förblir orörd av att de lämnat AI Ethics Advisory Board.

Som kanske är uppenbart inser vissa senare att en AI-etikrådgivning är ett tvåeggat svärd. Det finns ett enormt värde och viktig insikt som en sådan grupp kan förmedla. Samtidigt leker du med elden. Det kan vara så att en eller flera medlemmar bestämmer sig för att de inte längre tror att företaget gör ett trovärdigt etiskt AI-arbete. I nyheterna har det funnits indikationer på att ibland en hel rådgivande nämnd för AI-etik slutar tillsammans, på en gång, eller har en övervikt av medlemmarna som tillkännager att de lämnar.

Var redo för det goda och de problem som kan uppstå med AI Ethics advisory boards.

Naturligtvis finns det tillfällen då företag faktiskt inte gör de rätta sakerna när det kommer till AI-etik.

Därför hoppas vi och förväntar oss att en rådgivande nämnd för AI-etik på det företaget skulle gå upp för att göra detta känt, förmodligen internt inom företaget först. Om företaget fortsätter på den upplevda dåliga vägen, skulle medlemmarna säkerligen verka etiskt bundna (möjligen också juridiskt) att vidta andra åtgärder som de anser är lämpliga (medlemmar bör konsultera sin personliga advokat för sådan juridisk rådgivning). Det kan vara så att det är det enda sättet att få företaget att ändra sitt sätt. En drastisk åtgärd från en medlem eller grupp medlemmar kan tyckas vara den sista utvägen som medlemmarna hoppas ska vända utvecklingen. Dessutom vill dessa medlemmar sannolikt inte vara en del av något som de ivrigt tror har gått vilse från AI-etiken.

Ett användbart sätt att överväga dessa möjligheter är detta:

  • Företaget går vilse, medlem väljer att lämna på grund av en upplevd brist på fast efterlevnad
  • Företaget är inte vilse, men medlemmen tror att företaget är det och därmed lämnar det på grund av en upplevd brist på efterlevnad

Omvärlden kommer inte nödvändigtvis att veta om medlemmen som lämnar har en god grund för oro för företaget eller om det kan vara något idiosynkratiskt eller felaktigt intryck av medlemmen. Det finns också den ganska enkla möjligheten att en medlem lämnar gruppen på grund av andra åtaganden eller av personliga skäl som inte har något att göra med vad företaget gör.

Kontentan är att det är viktigt för alla företag som antar en AI Ethics Advisory Board att medvetet tänka igenom hela skalan av livscykelfaser som är förknippade med gruppen.

Med allt prat om problematiska aspekter vill jag inte förmedla intrycket av att hålla mig borta från att ha en AI Ethics Advisory Board. Det är inte budskapet. Den verkliga kärnan är att ha en AI Ethics Advisory Board och se till att du gör det på rätt sätt. Gör det till ditt omhuldade mantra.

Här är några av de ofta nämnda fördelarna med en AI Ethics Advisory Board:

  • Ha ett sätt till hands att studsa AI-projekt och idéer från en halvoberoende privat grupp
  • Dra nytta av expertis inom AI-etik som kommer utanför företaget
  • Sikta på att undvika AI-etik-guffaws och direkta katastrofer från företaget
  • Var en PR-förstärkare för företaget och dess AI-system
  • Utbrott av internt grupptänkande om AI och AI-etik
  • Få en ny titt på AI-innovationer och deras praktiska funktion
  • Förbättra företagets ställning och ställning
  • Fungera som en ohämmad röst när de fasta AI-insatserna är sämre
  • Övriga

Här är vanliga sätt som företag förstör och underskrider sin AI-etikrådgivning (gör inte detta!):

  • Ge vag och förvirrande anvisningar om uppdrag och syfte
  • Endast sparsamt konsulterad och ofta dålig tajming efter att hästen redan är ute ur ladugården
  • Förvaras i mörker
  • Fed starkt filtrerad information som ger en missvisande skildring av saker
  • Används endast som ett skyltfönster och inte för något annat värdeskapande syfte
  • Inte tillåtet att göra något sken av utforskning om interna frågor
  • Berörda tillräckliga resurser för att utföra sitt arbete tillräckligt
  • Brist på uttryckligt ledarskap inom gruppen
  • Bristande uppmärksamhet från företagets ledning angående gruppen
  • Förväntas ge blindt godkännande till vad som än presenteras
  • Slumpmässigt när det gäller valda medlemmar
  • Behandlas med liten respekt och till synes bara en bock
  • Övriga

Ett annat ofta förvirrande problem är karaktären och uppträdandet hos de olika medlemmarna som sitter i en AI-etikrådgivning, vilket ibland kan vara problematiskt på dessa sätt:

  • Vissa medlemmar kanske bara är AI-etik-konceptualiserare snarare än bevandrade i AI-etik som praktik och ger som sådan minimalistiska affärskunniga insikter
  • Vissa kan vara bombastiska när det kommer till AI-etik och är utomordentligt svåra att hantera under hela sitt deltagande
  • Strider kan bli en betydande distraktor, ofta sammandrabbningar av stora egon, och få gruppen att övergå till att vara dysfunktionell
  • Vissa kan vara alltför upptagna och överengagerade så att de är distanserade från AI-etikrådgivningen
  • Vissa har en djupt hållen orubblig åsikt om AI-etik som är oflexibel och orealistisk
  • Vissa är benägna till emotionella snarare än analytiska och systemiska överväganden som ligger bakom AI-etiken
  • Kan vara besläktad med det berömda ordspråket att vara som en flock katter som inte fokuserar och vandrar planlöst
  • Övriga

Vissa företag verkar helt enkelt slänga ihop en AI Ethics Advisory Board på en lite viljemässig basis. Ingen tanke går på de medlemmar som ska väljas ut. Ingen tanke går på vad de var och en för med sig till bordet. Ingen tanke går på mötesfrekvensen och hur mötena ska genomföras. Ingen tanke går på att driva AI Ethics Advisory Board, allt sagt. Etc.

På sätt och vis sätter du sannolikt ett tågvrak i rörelse på grund av din egen brist på fyndighet.

Gör inte det.

Kanske denna lista över rätt saker att göra är nu till synes uppenbart för dig baserat på diskursen hittills, men du skulle kanske bli chockad över att veta att få företag verkar ha rätt:

  • Ange uttryckligen uppdraget och syftet med AI Ethics Advisory Board
  • Se till att gruppen ges lämplig uppmärksamhet på högsta chefsnivå
  • Identifiera vilken typ av medlemmar som skulle passa bäst för gruppen
  • Närma dig de önskade medlemmarna och försäkra dig om passformen för gruppen
  • Gör lämpliga arrangemang med de utvalda medlemmarna
  • Upprätta logistiken för möten, frekvens m.m.
  • Bestäm medlemmarnas uppgifter, omfattning och djup
  • Förutse de interna resurser som behövs för att hjälpa gruppen
  • Tilldela tillräckliga resurser för själva gruppen
  • Håll AI Ethics Advisory Board aktiv och inkopplad
  • Ha eskaleringar förplanerade för när oro uppstår
  • Ange hur akuta eller krisorienterade händelser kommer att hanteras
  • Vrid delarna ut eller in efter behov för att hålla blandningen lämplig
  • I förväg har förutsett utträdesvägar för medlemmar
  • Övriga

Slutsats

För några år sedan uppmanades plötsligt många av de biltillverkare och självkörande teknikföretag som börjar utveckla AI-baserade självkörande bilar att anta AI Ethics Advisory Boards. Fram till den tidpunkten hade det verkat vara lite medveten om att ha en sådan grupp. Det antogs att det interna fokuset på Etisk AI skulle vara tillräckligt.

Jag har diskuterat utförligt i min kolumn de olika olyckliga AI-etikbortfallen eller förbiseendena som ibland har lett till problem med självkörande bilar som mindre fordonsolyckor, uppenbara bilkrockar och andra olyckor, se min bevakning på länken här. Vikten av AI-säkerhet och liknande skydd måste vara den största hänsynen för dem som tillverkar autonoma fordon. AI Ethics Advisory Boards i denna nisch hjälper till att hålla AI-säkerhet en viktig prioritet.

Mitt favoritsätt att uttrycka denna typ av uppenbarelse om AI-etik är att likna saken vid jordbävningar.

Kalifornier utsätts då och då för jordbävningar, ibland ganska rejäla sådana. Du kanske tror att att vara förberedd för jordbävningen skulle vara en ständigt närvarande övervägande. Inte så. Cykeln fungerar på detta sätt. En omfattande jordbävning inträffar och människor blir påminda om att vara jordbävningsförberedda. För en kort stund är det bråttom att genomföra sådana förberedelser. Efter ett tag avtar uppmärksamheten för detta. Förberedelserna faller förbi eller försummas på annat sätt. Boom, en annan jordbävning träffar, och alla de som borde ha förberetts fångas "omedvetna" som om de inte hade insett att en jordbävning en dag skulle kunna inträffa.

Företag gör ofta ungefär samma sak om AI Ethics Advisory Boards.

De startar inte en och sedan plötsligt, efter någon katastrof med deras AI, sporras de reaktivt till handling. De startar lätt en AI Ethics Advisory Board. Den har många av de problem som jag tidigare har citerat här. AI Ethics Advisory Board faller isär. Hoppsan, en ny AI-katastrof inom företaget återväcker behovet av AI Ethics Advisory Board.

Tvätta, skölj och upprepa.

Företag upptäcker definitivt att de ibland har en hat-kärleksrelation med sina AI-etikrådgivande insatser. När det gäller att göra saker på rätt sätt, är kärlek i luften. När det kommer till att göra saker på fel sätt, dyker hat upp våldsamt fram. Se till att du gör det som krävs för att hålla kärleken igång och avvärja hatet när det gäller att etablera och underhålla en AI-etikrådgivning.

Låt oss förvandla detta till en kärlek-kärlek relation.

Källa: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/