AI-etik och det hotande debaclet när New Yorks lag som kräver revisioner för AI-fördomar sätter igång

Ibland störs de bästa avsikterna beklagligt av en allvarlig brist på uppmärksamhet på detaljer.

Ett utmärkt exempel på denna visdom är värd att utforska.

Närmare bestämt, låt oss ta en närmare titt på en ny lag i New York City angående artificiell intelligens (AI) som kommer att träda i kraft den 1 januari 2023. Du kan lätt vinna en stor satsning på att all slags förvirring, bestörtning och problem kommer att uppstå när lagen träder i kraft. Även om besvären inte är avsiktliga, kommer de utan tvekan att uppstå som ett resultat av en dålig design eller åtminstone en otillräcklig bestämmelse av nödvändiga detaljer som enkelt borde och kunde ha utformats och uttryckligen anges.

Jag syftar på en lokal lag som antogs förra året den 11 december 2021 i den vördade staden New York som är planerad att träda i kraft i början av 2023. Vi är för närvarande bara några månader bort från det storslagna uppvaknandet som denna nya lag kommer att röra sig. Jag önskar att jag kunde säga att den ambitiösa lagen sömlöst kommer att göra vad den är tänkt att göra, nämligen att hantera potentiella AI-fördomar när det gäller att fatta anställningsbeslut. Tyvärr, även om avsikten är lovvärd, kommer jag att leda dig genom de gapande kryphålen, utelämnanden och bristen på specificitet som kommer att undergräva denna lag och göra arbetsgivare galna när de försöker hantera de oavsiktliga men ganska negativa återverkningarna av den.

Man kan säga att det här är den klassiska frågan om att gå vidare med en halvdan plan. En vördad maxim som tillskrivs Dwight Eisenhower var att en plan är ingenting medan planering är allt. Kort sagt, denna lag kommer att ge ett levande exempel på hur lagstiftare ibland kan komma till korta genom att inte tänka igenom förhand de nödvändiga uppgifterna så att lagen uppfyller sina lovvärda mål och kan antas på förvisso rimliga och försiktiga sätt.

Ett debacle väntar.

Ursäkter står redan i rad.

Vissa förståsigpåare har sagt att man aldrig kan specificera en lag helt och hållet och att man måste se den i aktion för att veta vilka aspekter av lagen som behöver justeras (en allmän truism som förvrängs ur proportion i det här fallet). Dessutom hävdar de häftigt att detta är särskilt fallet när det kommer till den framväxande nyheten av AI-relaterade lagar. Heck, uppmanar de, AI är högteknologisk trolldom som vi inte vet så mycket om som lagstiftare, så logiken är att det är bättre att ha något på de juridiska sidorna än att inte ha något där alls.

På ytan låter det verkligen övertygande. Men gräv djupare och du inser att det är potentiellt tjusigt, inklusive och särskilt när det gäller denna specifika lag. Denna lag skulle lätt kunna fastställas på ett skickligare och mer klokt sätt. Vi behöver inga trolldrycker. Vi behöver inte vänta tills kaos uppstår. Vid den tidpunkt då lagen utformades kunde rätt typ av formulering och detaljer ha fastställts.

Låt oss också se till att den opassande, svävande idén att adoptionsaspekterna inte kunde spånas i förväg är smärtsamt absurt. Det är lagligt mumbo-jumbo handviftande av det mest tomlösa slaget. Det finns massor av redan kända överväganden om att hantera AI-fördomar och genomföra AI-revisioner som lätt kunde ha kokats in i denna lag. Detsamma kan sägas för alla andra jurisdiktioner som överväger att upprätta en sådan lag. Låt dig inte luras att tro att vi bara måste ta till blint att kasta en laglig pil i vilda vindar och lida ångest. En klick juridiskt tänkande kombinerat med en lämplig förståelse för AI är redan genomförbart och det finns ingen anledning att bara greppa efter halmstrån.

Jag kan tillägga att det fortfarande finns tid att rätta till detta. Klockan tickar fortfarande. Det kan vara möjligt att vakna innan varningsklockorna börjar ringa. Det råd som behövs kan härledas och göras känt. Tiden är knapp så detta måste prioriteras.

Se i alla fall till att du förstår betoningen här.

Tillåt mig att ivrigt förtydliga att en sådan lag om AI-fördomar verkligen är förtjänstfulla. Jag ska förklara varför ett ögonblick. Jag kommer också att beskriva vilka problem det finns med denna nya lag som många skulle säga är den första någonsin som läggs in i de juridiska böckerna (andra varianter finns, kanske inte riktigt som den här dock).

Du kan verkligen förvänta dig att liknande lagar gradvis kommer att träda i kraft över hela landet. En anmärkningsvärd oro är att om detta New York City-försök går dåligt, kan det få resten av landet att vara försiktig med att anta sådana lagar. Det är inte rätt läxa att dra. Den korrekta lärdomen är att om du ska skriva en sådan lag, gör det förnuftigt och med vederbörlig hänsyn.

Lagar som slängs in i böckerna utan tillräcklig granskning kan vara ganska upprörande och skapa alla möjliga nedströms svårigheter. I den meningen, släng inte ut barnet med badvattnet (ett gammalt talesätt som förmodligen borde gå i pension). Kontentan är att sådana lagar kan vara verkligt produktiva och skyddande när de är rätt sammansatta.

Just den här kommer tyvärr inte att göra det utanför porten.

Alla typer av panikartad vägledning kommer oundvikligen från lagens utövare och upprätthållare. Markera dina kalendrar för slutet av januari och in i februari 2023 så att du kan se hur striden börjar. Fingerpekandet kommer att bli oerhört intensivt.

Ingen är särskilt squawking just nu eftersom lagen inte har landat ännu på huvudet av arbetsgivare som kommer att få zonked av den nya lagen. Föreställ dig att detta är en metaforiskt sett en slags jordbävning som kommer att äga rum under de inledande veckorna 2023. Få förbereder sig för jordbävningen. Många vet inte ens att jordbävningen redan har ploppat in i kalendern. Med detta sagt, när jordbävningen väl inträffar kommer många mycket förvånade och chockade företag att undra vad som hände och varför röran var tvungen att inträffa.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI. För min pågående och omfattande bevakning av AI-etik, Ethical AI, tillsammans med AI-lag bland de juridiska aspekterna av AI-styrning, finns på länken här och länken här, bara för att nämna några.

Denna juridiska berättelse om elände relaterar till tidigare framväxande oro för dagens AI och särskilt användningen av Machine Learning (ML) och Deep Learning (DL) som en form av teknik och hur den används. Du förstår, det finns användningar av ML/DL som tenderar att innebära att AI antropomorfiseras av allmänheten i stort, och tror eller väljer att anta att ML/DL antingen är kännande AI eller nära (det är det inte). Dessutom kan ML/DL innehålla aspekter av beräkningsmönstermatchning som är oönskade eller direkt olämpliga, eller olagliga ur etiska eller juridiska perspektiv.

Det kan vara användbart att först klargöra vad jag menar när jag hänvisar till AI övergripande och även ge en kort översikt över Machine Learning och Deep Learning. Det råder en hel del förvirring om vad artificiell intelligens innebär. Jag skulle också vilja presentera föreskrifterna för AI-etiken för er, som kommer att vara särskilt integrerade i resten av denna diskurs.

Ange posten om AI

Låt oss se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande.

Vi har inte det här.

Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan på ett lämpligt sätt förutsäga om vi kommer att uppnå sentient AI, inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad The Singularity, se min bevakning på länken här).

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning och djupinlärning, som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

En del av problemet är vår tendens att antropomorfisera datorer och speciellt AI. När ett datorsystem eller AI verkar agera på ett sätt som vi associerar med mänskligt beteende, finns det en nästan överväldigande drift att tillskriva mänskliga egenskaper till systemet. Det är en vanlig mental fälla som kan gripa tag i även den mest oförsonliga skeptiker om chanserna att nå sentiment.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne.

AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha en AI-etik och att göra det integrerat med AI-utveckling och fältarbete är avgörande för att producera lämplig AI, inklusive bedömningen av hur AI-etik antas av företag.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Se till exempel min bevakning på länken här.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss hålla saker jordnära och fokusera på dagens beräkningslösa AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Jag tror att jag nu har satt scenen för att tillräckligt diskutera AI:s roll inom rubriken tyst sluta.

AI som används vid anställningsbeslut

New York City-lagen fokuserar på ämnet anställningsbeslut.

Om du nyligen har försökt söka ett modernt jobb nästan var som helst på denna jord, har du förmodligen stött på ett AI-baserat element i beslutsprocessen för anställning. Naturligtvis kanske du inte vet att den finns där eftersom den kan vara gömd bakom kulisserna och du inte skulle ha något enkelt sätt att urskilja att ett AI-system hade varit inblandat.

En vanlig slagord som används för att hänvisa till dessa AI-system är att de övervägs Automatiserade verktyg för anställningsbeslut, förkortat AEDT.

Låt oss se hur NYC-lagen definierade dessa verktyg eller appar som innebär beslutsfattande i anställning:

  • "Termen "automatiserat anställningsbeslutsverktyg" avser varje beräkningsprocess, härledd från maskininlärning, statistisk modellering, dataanalys eller artificiell intelligens, som ger förenklad utdata, inklusive en poäng, klassificering eller rekommendation, som används för att väsentligt hjälpa eller ersätta diskretionärt beslutsfattande för att fatta anställningsbeslut som påverkar fysiska personer. Termen "automatiserat anställningsbeslutsverktyg" inkluderar inte ett verktyg som inte automatiserar, stöder, avsevärt bistår eller ersätter diskretionära beslutsprocesser och som inte väsentligt påverkar fysiska personer, inklusive, men inte begränsat till, ett skräppostfilter, brandvägg, antivirusprogram, kalkylator, kalkylblad, databas, datamängd eller annan sammanställning av data” (NYC, Int 1894-2020, underkapitel 25, avsnitt 20-870).

Jag ska kort undersöka denna formulering eftersom den är avgörande för hela lagens natur och räckvidd.

För det första, som jag har sagt många gånger i mina skrifter, består ett av de svåraste hindren när man skriver lagar om AI av att försöka definiera vad AI betyder. Det finns ingen enstaka lagligt skottsäker standard som alla har landat på. Det finns alla möjliga definitioner. Vissa är användbara, andra inte. Se mina analyser på länken här.

Du kanske frestas att tro att det inte spelar någon större roll hur vi kan definiera AI. Förlåt, men du skulle ha fel om det.

Problemet är att om AI-definitionen är vagt specificerad i en given lag, tillåter den de som utvecklar AI att försöka gå runt lagen genom att till synes hävda att deras programvara eller system inte är AI-infunderat. De skulle med stor djärvhet hävda att lagen inte gäller deras mjukvara. På samma sätt kan någon som använder programvaran också hävda att lagen inte gäller dem eftersom programvaran eller systemet de använder faller utanför AI-definitionen som anges i lagen.

Människor är så knepiga.

Ett av de smartaste sätten att undvika att bli besvärad av en lag som du inte gillar är att hävda att lagen inte gäller dig. I det här fallet skulle du försöka ta isär definitionen av AEDT bitvis. Ditt mål, förutsatt att du inte vill att lagen ska vara på ryggen, skulle vara att juridiskt hävda att definitionen som ges i lagen är felaktig av vad ditt anställningsrelaterade datorsystem är eller gör.

En lag av det här slaget kan både underlättas och ibland även underskridas genom att avsiktligt ha inkluderat uteslutningsbestämmelser i definitionen.

Ta en titt igen på definitionen av AEDT som anges i denna lag. Du observerade förhoppningsvis att det finns en uteslutningsklausul som säger "...inte inkluderar ett verktyg som inte automatiserar, stödjer, bistår eller ersätter diskretionära beslutsprocesser och som inte väsentligt påverkar fysiska personer...".

Å ena sidan är grunden för att inkludera en sådan uteslutning avgjort till hjälp.

Det verkar antyda (enligt min lekmans uppfattning) att AEDT måste tillhandahålla ett specifikt syfte och användas på ett materiellt sätt. Om AEDT är översiktligt eller perifert, och om anställningsbeslutet fortfarande är ganska mänskligt handgjort, kanske det använda mjukvarusystemet inte ska tolkas som en AEDT. Dessutom, om programvaran eller systemet inte "materiellt" påverkar fysiska personer (människor), så verkar det inte lönt att hålla fötterna mot elden, så att säga.

Förnuftigt, du vill inte att en lag ska överdriva dess räckvidd och uppsluka allt inklusive diskbänken. Att göra det är i grunden orättvist och betungande för dem som lagen inte var avsedd att omfatta. De kan fastna i ett morass som fungerar som ett av de där överflödiga fisknäten. Förmodligen bör våra lagar vara försiktiga så att de inte dras in oskyldiga i lagens tillämpningsområde.

Allt är väl och bra.

En kunnig advokat är skyldig att inse att en uteslutningsklausul kan vara ett slags lagligt kort för att komma ut ur fängelset (för övrigt föreskriver denna lag civilrättsliga påföljder, inte straffrättsliga påföljder, så komma ut ur fängelset anmärkningen är bara metaforisk och för smakfull punchiness). Om någon skulle hävda att ett företag använde en AEDT vid anställningshantering, skulle ett av de första sätten att försöka övervinna det påståendet vara att hävda att den så kallade AEDT faktiskt var i det exklusiva området. Du kanske försöker visa att den så kallade AEDT inte gör det automatisera anställningsbeslutet, eller så gör det inte det stödja anställningsbeslutet, eller så gör det inte det avsevärt hjälpa or ersätta diskretionära beslutsprocesser.

Du kan sedan gå in på den slingrande vägen för att identifiera vad orden "automatisera", "support", "avsevärt hjälpa" eller "ersätta" betyder i detta sammanhang. Det är ett ganska praktiskt lagligt kaninhål. Ett övertygande fall kan göras att programvaran eller systemet som påstås vara en AEDT är en del av de uteslutande indikationerna. Därför, ingen skada, inget fult, angående just denna lag.

Uppenbarligen bör licensierade advokater konsulteras i sådana frågor (ingen sken av juridisk rådgivning anges här och detta är helt och hållet en lekmans åsikt).

Min poäng här är att det kommer att finnas rörelseutrymme i denna nya lag. Vickrummet kommer att tillåta vissa arbetsgivare som verkligen använder en AEDT att kanske hitta ett kryphål för att komma runt AEDT-användningen. Den andra sidan av det myntet är att det kan finnas företag som inte verkligen använder en AEDT som kommer att bli snärjd av denna lag. Ett påstående kan göras att vad de än använde verkligen var en AEDT, och de kommer att behöva hitta ett sätt att visa att deras programvara eller system faller utanför AEDT och omfattas av undantagsbestämmelsen.

Vi kan göra denna djärva förutsägelse:

  • Det kommer utan tvekan att finnas arbetsgivare som medvetet använder en AEDT som potentiellt kommer att försöka ta sig ur sitt juridiska ansvar.
  • Det kommer oundvikligen att finnas arbetsgivare som inte använder en AEDT som fastnar i påståenden om att de använder en AEDT, vilket tvingar dem att behöva göra en "extra" ansträngning för att visa att de inte använder en AEDT.

Jag kommer att förklara ytterligare om dessa många permutationer och kombinationer när vi kommer längre i denna diskussion. Vi har mycket mer mark att beträda.

Att använda en AEDT i sig är inte den del av denna fråga som ger upphov till demonstrativa farhågor, det är hur AEDT utför sina handlingar som får den juridiska irritationen att flöda. Kruxet är att om AEDT också kanske introducerar fördomar relaterade till beslutsfattande i anställning, så är du i potentiellt hett vatten (nåja, typ).

Hur ska vi veta om en AEDT faktiskt introducerar AI-laddade fördomar i ett anställningsbeslut?

Svaret enligt denna lag är att en AI-revision ska genomföras.

Jag har tidigare och ofta täckt arten av AI-revisioner och vad de är, tillsammans med att notera befintliga nackdelar och dåligt definierade aspekter, som t.ex. länken här och länken här, bland många andra liknande inlägg. Enkelt uttryckt är tanken att precis som du kan utföra en finansiell revision av ett företag eller göra en teknikrevision relaterad till ett datorsystem, kan du göra en revision på ett AI-system. Med hjälp av specialiserade revisionstekniker, verktyg och metoder undersöker och bedömer du vad ett AI-system består av, inklusive att till exempel försöka fastställa om det innehåller fördomar av ett eller annat slag.

Detta är ett växande uppmärksamhetsområde.

Du kan förvänta dig att detta underområde av revision som är ägnat åt AI-revision kommer att fortsätta att växa. Det är lätt uppenbart att eftersom vi kommer att få fler och fler AI-system som släpps lös på marknaden, och i sin tur kommer det att bli mer och mer krav på AI-revisioner. Nya lagar kommer att bidra till detta. Även utan dessa lagar kommer det att finnas AI-revisioner i överflöd eftersom människor och företag hävdar att de har blivit kränkta av AI och kommer att försöka ge en påtaglig dokumenterad indikation på att skadan var närvarande och knuten till den AI som används.

AI-revisorer kommer att bli heta och efterfrågade.

Det kan vara ett spännande jobb. Ett kanske spännande element är att vara nedsänkt i det senaste och bästa inom AI. AI fortsätter att gå framåt. När detta händer måste en skarpsinnig AI-revisor hålla sig på tårna. Om du är en revisor som har tröttnat på att göra vanliga vanliga revisioner, ger den ögonöppnande, alltid nya AI-revisionsarenan ett löfte (jag säger detta för att delvis höja revisorernas ställning eftersom de ofta är de obevisade hjältarna som arbetar i skyttegravarna och tenderar att försummas för sina ansträngningar).

Dessutom har jag varit certifierad datorsystemrevisor (en sådan beteckning är CISA) och har gjort IT-revisioner (Informationsteknik) många gånger under många år, inklusive AI-revisioner. För det mesta får man inte det erkännande som förtjänar för sådana insatser. Du kan säkert gissa varför. I stort sett tenderar revisorer att hitta saker som är fel eller trasiga. I den meningen är de ganska hjälpsamma, även om detta av vissa kan uppfattas som dåliga nyheter, och de dåliga nyheternas budbärare är vanligtvis inte särskilt placerad på en piedestal.

Åter till saken.

Angående NYC-lagen, här är vad lagen säger om AI-revision och försök att avslöja AI-fördomar:

  • "Begreppet "bias revision" betyder en opartisk utvärdering av en oberoende revisor. Sådan partisk revision ska omfatta men inte begränsas till testning av ett automatiserat anställningsbeslutsverktyg för att bedöma verktygets olika inverkan på personer av någon komponent 1-kategori som måste rapporteras av arbetsgivare i enlighet med underavsnitt (c) i avsnitt 2000e-8 i titeln 42 i USA:s kod enligt beskrivningen i del 1602.7 i titel 29 i federala bestämmelser” (NYC, Int 1894-2020, Subkapitel 25, avsnitt 20-870).

Som en sammanfattning, här är var vi är så långt när det gäller att packa upp den här lagen:

  • Lagen omfattar Automated Employment Decision Tools (AEDT)
  • En definition av sorter ingår för att identifiera vad en AEDT är
  • Definitionen av AEDT nämner också undantagsbestämmelser
  • Kontentan är att lagen vill avslöja AI-fördomar i AEDT
  • För att ta reda på om AI-fördomar finns, måste en AI-revision göras
  • AI-revisionen kommer förmodligen att upplysa om eventuella AI-fördomar

Vi kan sedan gräva lite mer i lagen.

Här är vad ett anställningsbeslut består av:

  • "Termen 'anställningsbeslut' betyder att screena kandidater för anställning eller anställda för befordran inom staden" (NYC, Int 1894-2020, underkapitel 25, avsnitt 20-870).

Observera att den begränsande aspekten av "staden" antyder att frågan endast handlar om anställningsrelaterade omständigheter inom NYC. Det är också värt att notera att ett anställningsbeslut enligt definitionen innebär screening av kandidater, vilket är den vanliga konnotationen av vad vi tänker på som ett anställningsbeslut, plus att det också inkluderar befordran.

Detta är ett dubbelt slag i den meningen att företag måste inse att de måste ha koll på hur deras AEDT (om de använder en) används för initiala anställningsinställningar och även när de marknadsför inom företaget. Du kan antagligen gissa eller anta att många företag inte kommer att vara helt medvetna om att marknadsföringselementet också ingår i denna rubrik. De kommer oundvikligen att förbise den ytterligare konstruktionen på egen risk.

Jag kommer härnäst att ge ett ytterligare nyckelutdrag ur lagen för att belysa kärnan i vad som tolkas som olagligt av denna lag:

  • “Krav på automatiserade verktyg för anställningsbeslut. a. I staden ska det vara olagligt för en arbetsgivare eller en arbetsförmedling att använda ett automatiserat anställningsbeslutsverktyg för att screena en kandidat eller anställd för ett anställningsbeslut såvida inte: 1. Ett sådant verktyg har varit föremål för en partisk revision som inte har genomförts mer än ett år före användningen av sådant verktyg; och 2. En sammanfattning av resultaten av den senaste biasrevisionen av ett sådant verktyg samt distributionsdatumet för det verktyg som sådan revision gäller har gjorts allmänt tillgänglig på arbetsgivarens eller arbetsförmedlingens webbplats innan användningen av sådant verktyg...” (NYC, Int 1894-2020, underkapitel 25, avsnitt 20-871). Det finns ytterligare underklausuler som du kanske vill ta en titt på, om du är mycket intresserad av den juridiska formuleringen.

Skeptiker och kritiker har hävdat att detta verkar något ljummet när det gäller den olagliga verksamheten som utropas.

De säger att lagen bara snävt och minimalt fokuserar på ledande en AI-revision och offentliggörande resultaten, snarare än på huruvida AI-revisionen upptäckte AI-fördomar och om några konsekvenser detta har haft i anställningsbeslut som faller inom denna lags tillämpningsområde. I huvudsak är det tydligen olagligt att inte välja att genomföra en sådan AI-revision (i tillämpliga fall, som diskuterats tidigare), plus att det också är olagligt i det fallet om du utför AI-revisionen men gör inte publicera det.

Lagen verkar tyst i frågan om huruvida AI-fördomar upptäcktes och var närvarande eller inte. Likaså tystnad om huruvida AI-fördomarna påverkade någon relaterade till en framträdande anställningsbeslutsaktivitet. Nyckeln är att till synes tydligt "bara" genomföra en AI-revision och berätta om det.

Går inte denna lag tillräckligt långt?

En del av motargumentet för att hävda att detta till synes är tillfredsställande när det gäller räckvidden eller omfattningen av vad denna lag omfattar är att om en AI-revision finner AI-fördomar, och om dessa AI-fördomar är knutna till särskilda anställningsbeslutstillfällen, personen eller personer som så skadas skulle kunna förfölja arbetsgivaren enligt andra lagar. Det finns alltså inget behov av att inkludera den aspekten i just denna lag.

Enligt uppgift är denna lag avsedd att föra fram sådana frågor.

När dagens ljus väl har kastats över dessa ogynnsamma metoder kan alla möjliga andra rättsliga vägar eftersträvas om AI-fördomar finns och påverkar människor. Utan denna lag går argumentet att de som använder AEDT:er skulle göra det samtidigt som de kanske går amok och har potentiellt massor av AI-fördomar, för vilka de som söker arbete eller de som söker befordran inte skulle veta att det äger rum.

Ta upp dem till ytan. Få dem att berätta. Gå under huven. Se vad som finns inuti den motorn. Det är mantrat i det här fallet. Utifrån detta framträdande och berättande kan ytterligare åtgärder vidtas.

Förutom att söka rättsliga åtgärder som ett resultat av att belysa att en AI-revision kanske har rapporterat att AI-fördomar förekom, finns det också tron ​​att publiceringen av dessa resultat kommer att få anseendemässiga återverkningar. Arbetsgivare som visas upp som använder AEDTs som har AI-fördomar kommer sannolikt att drabbas av samhälleliga vrede, som via sociala medier och liknande. De kommer att bli avslöjade för sina ondskefulla handlingar och skämmas för att korrigera sitt beteende, och kan också finna sig själva berövade människor som vill arbeta där på grund av betänkligheterna att AI-fördomar hindrar anställning eller tillranar sig befordran.

De angivna påföljderna för att vara olaglig är följande:

  • "Straffar. a. Varje person som bryter mot någon bestämmelse i detta underkapitel eller någon regel som utfärdats i enlighet med detta underkapitel är ansvarig för ett civilrättsligt straff på högst 500 USD för en första överträdelse och varje ytterligare överträdelse som inträffar samma dag som den första överträdelsen, och inte mindre än 500 USD eller mer än 1,500 1894 USD för varje efterföljande överträdelse” (NYC, Int 2020-25, underkapitel 20, avsnitt 872-XNUMX). Det finns ytterligare underklausuler som du kanske vill ta en titt på, om du är mycket intresserad av den juridiska formuleringen.

Skeptiker och kritiker hävdar att straffen inte är tillräckligt hårda. Ett stort företag skulle förmodligen håna eller skratta åt de ringa dollarböterna. Andra påpekar att böterna kan sluta bli mer än vad man kan se, så att om ett företag skulle ha tusen dollars kränkningar varje dag (bara ett scenario, det finns många andra scenarier), skulle ett års värde vara runt 365,000 XNUMX $, förutsatt att företaget helt enkelt ignorerade lagen under ett helt år och kom undan med att göra det (verkar svårt att föreställa sig, men kan hända, och kan till och med inträffa längre eller för en högre kulmination av dagsböter, i teorin).

Samtidigt är vissa oroliga för mindre företag och de tillhörande böterna. Om ett litet företag som knappt klarar sig drabbas av böterna, och förmodligen inte gjorde det av en avsiktlig motivering att kringgå lagen, kan böterna väsentligt påverka deras vibrerande verksamhet.

Keystone-problematiska överväganden

Jag har en enkel och okomplicerad fråga till dig.

Vad är egentligen en AI-revision inom ramen för denna lag?

Problematiskt nog finns det ingen definitiv indikation inom lagens narrativ. Allt som vi verkar få veta är att "bias revision" ska utföras via "en opartisk utvärdering av en oberoende revisor" (enligt lagens ordalydelse).

Du kan köra en Mac-lastbil genom det gapande hålet.

Här är varför.

Tänk på detta ganska oroande exempel. En bedragare kontaktar ett företag i NYC och förklarar att de tillhandahåller en tjänst så att de kommer att göra en så kallad "bias revision" av sin AEDT. De lovar att de kommer att göra det "opartiskt" (vad det än betyder). De framhåller sig själva som en oberoende revisor, och de har smort sig själva som en. Inget behov av någon form av redovisnings- eller revisionsutbildning, examina, certifieringar eller något liknande. Kanske gör de sig besväret med att skriva ut några visitkort eller hastigt sätta upp en webbplats som hyllar deras oberoende revisor.

De kommer att debitera företaget en blygsam avgift på säg $100. Deras tjänst består av att kanske ställa några frågor om AEDT och sedan proklamera att AEDT är fördomsfritt. De skickar sedan en rapport som är en sida stor och deklarerar ”resultaten” av den så kallade revisionen. Företaget publicerar plikttroget detta på sin hemsida.

Har företaget följt denna lag?

Säg det du.

Det verkar som om de har det.

Du kan omedelbart bli förvånad över att granskningen gjordes på ett översiktligt sätt (det är att vara artig och generös i det här specifika scenariot). Du kan bli störd över att fördomsdetekteringen (eller avsaknaden av sådan) kanske i huvudsak var förutbestämd (voila, du verkar vara fördomsfri). Du kanske blir upprörd över att de publicerade resultaten kan ge en aura av att ha klarat en rigorös revision av en erfaren, utbildad, erfaren, certifierad revisor.

Ja, det handlar om storleken.

En arbetsgivare kan vara lättad över att de fick detta "dumma" krav uppfyllt och förbannat glad över att det bara kostade dem ynka $100. Arbetsgivaren kanske internt och tyst inser att den oberoende revisionen var en charad, men det verkar inte vara på deras axlar att avgöra. De presenterades för en påstådd oberoende revisor, revisorn gjorde det arbete som revisorn sa var kompatibelt, företaget betalade för det, de fick resultaten och de publicerade resultaten.

Vissa arbetsgivare kommer att göra detta och inse att de gör en blinkning-wink-efterlevnad av lagen. Ändå kommer de att tro att de är helt kompatibla.

Andra arbetsgivare kan bli lurade. Allt de vet är behovet av att följa lagen. Lyckligtvis för dem (eller så antar de), kontaktar en "oberoende revisor" dem och lovar att en klagomålsrevision och ett resultat kan fås för $100. För att undvika att få 500 $ eller mer dagsböter, tror företaget att de har fått en gåva från himlen. De betalar $100, "revisionen" äger rum, de får en gratis hälsoräkning angående deras brist på AI-fördomar, de publicerar resultaten och de glömmer detta tills nästa gång de behöver göra en annan sådan granskning .

Hur ska varje företag i NYC som är föremål för denna lag veta vad som är uppriktig efterlevnad av lagen?

Om du inte redan har lite pirrar i magen kan vi göra saken värre. Jag hoppas att du inte har ätit någon måltid under de senaste timmarna eftersom nästa vändning kommer att bli svår att hålla intakt.

Är du redo?

Den här skentjänstleverantören visar sig vara mer av en shammare än du kanske trodde. De får företaget att registrera sig för $100-tjänsten för att göra den opartiska bias-revisionen som en oberoende revisor. Se och se, de gör "revisionen" och upptäcker att det finns fördomar i varje skrymsle och hörn av AEDT.

De har AI-fördomar som ett kackerlackangrepp.

Oj, säger företaget, vad kan vi göra åt det?

Inga problem, får de veta, vi kan fixa dessa AI-fördomar åt dig. Det kommer att kosta dig bara $50 per varje sådan bias som hittades. Okej, säger företaget, snälla fixa dem, tack för att du gör det. Tjänsteleverantören gör lite kodning och berättar för företaget att de fixade hundra AI-fördomar och därför kommer att debitera dem $5,000 50 (det är $100 per AI-bias som ska fixas, multiplicerat med de XNUMX som hittats).

Ouch, företaget känner sig klämd, men det är fortfarande bättre än att möta kränkningen av $500 eller mer per dag, så de betalar den "oberoende revisorn" och får sedan en ny rapport som visar att de nu är partiska. De lägger upp detta stolt på sin hemsida.

Föga anar de om att det här var en tjusig, en bedrägeri, en bluff.

Du kanske insisterar på att den här tjänsteleverantören ska straffas för deras trick. Att fånga och stoppa dessa tricksters kommer att bli mycket svårare än du kan föreställa dig. Precis som att gå efter de utlandsbaserade prinsar som har en förmögenhet för dig troligen befinner sig i ett främmande land utanför räckhåll för USA:s lagar, kan detsamma inträffa i det här fallet också.

Räkna med att en stugindustri kommer att växa fram på grund av denna nya lag.

Det kommer att finnas godkända revisorer som försöker tillhandahålla dessa tjänster. Bra för dem. Det kommer att vara skissartade revisorer som går efter detta arbete. Det kommer att finnas falskt utropade revisorer som går efter detta arbete.

Jag nämnde att tjänsteleverantörsscenariot innebar att be om 100 $ för att göra den så kallade AI-revisionen. Det var bara en påhittad platshållare. Kanske kommer vissa att ta ut $10 (verkar lite skumt). Kanske några $50 (fortfarande skissartad). Etc.

Anta att en tjänsteleverantör säger att det kommer att kosta $10,000 XNUMX att utföra arbetet.

Eller 100,000 XNUMX dollar för att göra det.

Möjligen $1,000,000 XNUMX XNUMX för att göra det.

Vissa arbetsgivare har ingen aning om hur mycket detta kan eller borde kosta. Marknadsföringen av dessa tjänster kommer att vara gratis för alla. Det här är en lag för att tjäna pengar för de som legitimt utför dessa tjänster och en tjäna pengar för dem som också är underhanden i att göra det. Det blir svårt att veta vilken som är vilken.

Jag ber dig också att överväga ett annat gapande hål.

Vad är egentligen en AI-bias i sammanhanget av denna lag?

Förutom omnämnandet av USA:s kod för federala bestämmelser (detta svarar inte särskilt på frågan om AI-fördomar och fungerar därför inte som ett stopp eller lösare i frågan), skulle du vara hårt pressad att hävda att denna nya lag ger någon materiell indikation på vad AI-fördomar är. Återigen kommer detta att vara helt öppet för vitt skilda tolkningar och du kommer inte att särskilt veta vad som letades efter, vad som hittades, och så vidare. Dessutom kommer arbetet som utförs av även bona fide AI-revisorer nästan sannolikt att vara ojämförligt med andra, så att var och en tenderar att använda sina egna definitioner och tillvägagångssätt.

Kort sagt, vi kan se med bävan och oro för vad arbetsgivare kommer att stöta på som ett resultat av denna lösaktiga, men välmenade lag:

  • Vissa arbetsgivare kommer att känna till lagen och på allvar och fullt ut följa efter bästa förmåga
  • Vissa arbetsgivare kommer att känna till lagen och marginellt följa den smalaste, billigaste och möjligen obehagliga vägen som de kan hitta eller som kommer till deras dörr
  • Vissa arbetsgivare känner till lagen och tror att de inte faller inom lagens räckvidd, så de kommer inte att göra något åt ​​det (även om det visar sig att de kan vara inom räckvidden)
  • Vissa arbetsgivare kommer att känna till lagen och bestämmer sig för att ignorera den, kanske i tron ​​att ingen kommer att märka det eller att lagen inte kommer att upprätthållas, eller att lagen kommer att visa sig vara omöjlig att verkställa, etc.
  • Vissa arbetsgivare kommer inte att känna till lagen och kommer att fångas med plattfot, som kämpar för att följa
  • Vissa arbetsgivare kommer inte att känna till lagen och kommer olyckligtvis att bli lurade av bedragare
  • Vissa arbetsgivare kommer inte att känna till lagen, de är inte inom räckvidden, men de blir ändå utskällda av bedragare som övertygar dem om att de är inom räckvidden
  • Vissa arbetsgivare kommer inte att känna till lagen och kommer inte att göra något åt ​​det, samtidigt som de på ett mirakulöst sätt aldrig blir ertappade eller påtalade för sin förbiseende
  • Övriga

En avgörande faktor att tänka på är omfattningen eller skalningen som är förknippad med denna nya lag.

Enligt olika rapporterade statistik om antalet företag i New York City, anges antalet vanligtvis som någonstans runt 200,000 XNUMX eller så företag (låt oss använda det som en storleksordning). Förutsatt att detta är en rimlig uppskattning, antagligen omfattas dessa företag som arbetsgivare av denna nya lag. Så ta de ovan nämnda flera sätten på vilka arbetsgivare kommer att reagera på denna lag och fundera över hur många som kommer att finnas i var och en av de olika hinkar som jag just har nämnt.

Det är en ganska häpnadsväckande skalningsfråga.

Dessutom, enligt rapporterad statistik, finns det kanske 4 miljoner jobb i den privata sektorn i New York City, plus ett uppskattat antal på 300,000 XNUMX eller så statliga arbetare anställda av NYC-regeringen (återigen, använd dem som storleksordningar snarare än exakta räkningar). Om du tar med i beräkningen att nyanställningar tycks omfattas av denna nya lag, tillsammans med befordran för alla dessa befintliga och framtida arbetare, är antalet anställda som på ett eller annat sätt kommer att beröras av denna lag uppriktigt sagt häpnadsväckande .

The Big Apple har en ny lag som vid första anblicken verkar vara ofarlig och till synes försumbar eller vardaglig, men när du inser de skalningsfaktorer som är involverade, ja, det kan få ditt huvud att snurra

Slutsats

Jag nämnde i början av den här diskussionen att detta är en välmenad ny lag.

Allt jag just har beskrivit som potentiella kryphål, utelämnanden, luckor, problem och liknande, kan lätt förutses. Detta är inte raketvetenskap. Jag kan tillägga att det finns ännu mer inneboende bekymmer och förvirrande aspekter av denna lag som jag på grund av utrymmesbegränsningar häri inte har ropat ut.

Du kan hitta dem lika lätt som du kan skjuta fisk i en tunna.

Lagar av det här slaget bör vara noggrant utformade för att försöka förhindra den här typen av smygande slut-arounds. Jag antar att de seriösa kompositörerna försökte skriva en lag som de trodde var relativt järnklädd och kanske i värsta fall skulle få lite små droppar här eller där. Tyvärr är det en brandslang av droppar. Mycket tejp kommer att behövas.

Kunde lagen ha skrivits på ett mer belyst sätt för att stänga av dessa ganska uppenbara kryphål och tillhörande frågor?

Ja, så mycket.

Nu, när det är så, kan du indignerat uppmana att en sådan lag utan tvekan skulle vara mycket längre. Det finns alltid en avvägning mellan att ha en lag som fortsätter och fortsätter, blir svårhanterlig, kontra att vara kortfattad och kompakt. Du vill dock inte bli kortfattad genom att förlora vad som skulle vara materiell och meriterande klarhet och specificitet. En kort lag som tillåter ytterligheter är full av problem. En längre lag, även om den verkar mer komplex, skulle vanligtvis vara en värdig avvägning om den undviker, avvärjer eller åtminstone minimerar nedströmsproblem under antagandet.

Saint Augustine sa berömt: "Det förefaller mig som om en orättvis lag inte är någon lag alls."

Vi kan ge en följd av att en rättvis lag som består av problematiskt språk är en lag som ber att skapa svåra problem. I det här fallet tycks vi sitta kvar med den store juristen Oliver Wendell Holmes Jrs kloka ord, nämligen att en sida i historien är värd ett halvt kilo logik.

Håll utkik eftersom historien snart är på väg att skapas.

Källa: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- fördomar-revisioner-sparkar-i-växel/