Ansvarsfull AI njuter av en överlägsen ökning via AI-etikproklamation från det bästa professionella samhället ACM

Har du sett eller hört nyheterna?

En annan uppsättning AI-etiska föreskrifter har nyligen utropats.

Kraftiga applåder, om du vill.

Då kanske du igen inte har märkt det på grund av det faktum att så många andra AI Ethics dekret har svävat runt ett tag nu. Vissa säger att den till synes non-stop genomströmningen av etiska AI-proklamationer börjar bli lite bedövande. Hur många behöver vi? Kan någon hålla jämna steg med dem alla? Vilken är bäst? Går vi kanske överbord med AI-etiska principer? Och så vidare.

Tja, i det här fallet säger jag att vi särskilt borde välkomna detta senaste tillskott till klubben.

Jag kommer insiktsfullt att förklara varför om ett ögonblick.

För det första, som förtydligande, hänvisar jag till AI-etikreceptet som nu officiellt är känt som "Uttalande om principer för ansvarsfulla algoritmiska system” som nyligen publicerades av ACM Technology Policy Council den 26 oktober 2022. Kudos går till teamen av experter som sammanställt detta prisade dokument, inklusive medförfattarna Jeanna Matthews (Clarkson University) och Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

De av er som känner till kan vid noggrann inspektion inse att detta dokument verkar svagt bekant.

Bra öga!

Denna senaste inkarnation är i huvudsak en uppdaterad och utökad variant av det tidigare gemensamma "Statement on Algorithmic Transparency And Accountability" som offentliggjordes av ACM US Technology Policy Committee och ACM Europe Technology Policy Committee 2017. Trogna läsare av mina spalter kanske minns att Jag har då och då nämnt 2017 års dekret i min kolumnbevakning av de viktigaste aspekterna av AI-etik och AI-lag.

För min omfattande och pågående bedömning och trendanalyser av AI-etik och AI-lag, se länken här och länken här, bara för att nämna några.

Detta senaste uttalande från ACM är särskilt viktigt av flera viktiga skäl.

Här är varför.

ACM, som är en praktisk akronym för Förening för datormaskiner, anses vara världens största datorinriktade förening. ACM består av uppskattningsvis 110,000 1947 eller så medlemmar och är en långvarig pionjär inom datorområdet. ACM producerar en del av den främsta vetenskapliga forskningen inom datorområdet, och tillhandahåller också professionellt nätverk och tilltalar datorutövare också. Som sådan är ACM en viktig röst som generellt representerar de som är högteknologiska och har strävat efter att utveckla datorområdet (ACM grundades XNUMX).

Jag kan lägga till en lite personlig kommentar om detta också. När jag först började med datorer på gymnasiet gick jag med i ACM och deltog i deras utbildningsprogram, särskilt den spännande chansen att tävla i deras årliga datorprogrammeringstävling (sådana tävlingar är allmänt vanliga nuförtiden och märks vanligtvis som hackathon). Jag förblir involverad i ACM medan jag gick på college via mitt lokala universitetsavdelning och fick en möjlighet att lära mig om ledarskap genom att bli en studentavdelningsofficer. När jag kom in i branschen gick jag med i ett professionellt kapitel och tog återigen en ledarroll. Senare efter detta, när jag blev professor, tjänstgjorde jag i ACM-kommittéer och redaktioner, tillsammans med sponsring av campusstudentkapitlet. Än idag är jag aktiv i ACM, inklusive tjänstgöring i ACMs amerikanska teknologipolitiska kommitté.

Jag njuter av ACM:s förtjusande och varaktiga vision om livslångt lärande och karriärutveckling.

I vilket fall som helst, när det gäller det senaste AI-etikutlåtandet, har det faktum att detta har utfärdats av ACM en rejäl vikt. Du kan rimligen hävda att de etiska AI-föreskrifterna är helheten eller den kollektiva rösten för en världsomspännande grupp av dataproffs. Det säger något där.

Det finns också aspekten att andra inom datorområdet kommer att bli inspirerade att piggna till och lyssna i betydelsen av att ta vederbörlig hänsyn till vad uttalandet deklarerar av sina andra datorkollegor. Så även för de som inte är med i ACM eller inte vet någonting alls om den vördade gruppen, kommer det förhoppningsvis att finnas ett stort intresse för att upptäcka vad uttalandet handlar om.

Under tiden de som är utanför av datorområdet kan dras till uttalandet som en slags insiderblick bakom kulisserna på vad de som arbetar med datorer säger om etisk AI. Jag vill dock betona att uttalandet är avsett för alla, inte bara de i datorsamhället, och kom därför ihåg att AI-etiska föreskrifter så att säga är övergripande.

Slutligen finns det en extra twist som få skulle överväga.

Ibland uppfattar utomstående datorassociationer som att de är knädjupa inom teknik och inte särskilt medvetna om de samhälleliga effekterna av datorer och AI. Du kanske frestas att anta att sådana professionella enheter bara bryr sig om de senaste och hetaste genombrotten inom hårdvara eller mjukvara. De uppfattas av allmänheten, på ett enkelt uttryckt grovt sätt, som tekniknördar.

För att göra det klart, jag har varit fördjupad i de sociala effekterna av datoranvändning sedan jag först började med datorer och på samma sätt har ACM också varit djupt engagerad i sådana ämnen.

För alla som är förvånade över att detta uttalande om AI-etiska föreskrifter har satts ihop och släppts av ACM, de uppmärksammar inte den långvariga forskningen och arbetet som äger rum i dessa frågor. Jag vill också uppmana de intresserade att ta en ordentlig titt på ACM Etisk kod, en sträng yrkesetisk kod som har utvecklats under åren och betonar att systemutvecklare måste vara medvetna om, följa och vara vaksamma på de etiska konsekvenserna av deras strävanden och varor.

AI har eldat med att bli informerad om datoretik.

Synligheten av etiska och juridiska överväganden inom datorområdet har ökat enormt med framväxten av dagens AI. De inom yrket blir informerade och ibland trummade om att ge ordentlig uppmärksamhet åt AI-etik och AI-rättsfrågor. Lagstiftare blir allt mer medvetna om AI-etik och AI-lagar. Företag håller på att inse uppfattningen att den AI de utvecklar eller använder är både fördelaktig och ändå ibland öppnar enorma risker och potentiella nackdelar.

Låt oss packa upp vad som har hänt under de senaste åren så att ett lämpligt sammanhang kan etableras innan vi hoppar in i den senaste uppsättningen av AI-etiska föreskrifter.

Den ökande medvetenheten om etisk AI

Den senaste tiden av AI ansågs ursprungligen vara AI For Good, vilket betyder att vi kan använda AI för att förbättra mänskligheten. I hälarna på AI For Good kom insikten att vi också är nedsänkta i AI för dåligt. Detta inkluderar AI som är framtagen eller självförändrad till att vara diskriminerande och gör beräkningsval som genomsyrar onödiga fördomar. Ibland är AI:n byggd på det sättet, medan den i andra fall svänger in i det ogynnsamma territoriet.

Jag vill försäkra mig mycket om att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om sentient AI, skulle den här diskussionen kunna gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Jag skulle starkt föreslå att vi håller saker nere på jorden och överväger dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Var mycket försiktig med att antropomorfiera dagens AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Jag har också nyligen undersökt AI Bill of Rights vilket är den officiella titeln på det amerikanska regeringens officiella dokument med titeln "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årslång insats av Office of Science and Technology Policy (OSTP) ). OSTP är en federal enhet som tjänar till att ge råd till den amerikanske presidenten och US Executive Office om olika tekniska, vetenskapliga och tekniska aspekter av nationell betydelse. I den meningen kan du säga att denna AI Bill of Rights är ett dokument som godkänts av och godkänts av det befintliga amerikanska Vita huset.

I AI Bill of Rights finns det fem nyckelstenskategorier:

  • Säkra och effektiva system
  • Algoritmiskt diskrimineringsskydd
  • Dataintegritet
  • Meddelande och förklaring
  • Mänskliga alternativ, hänsyn och fallback

Jag har noggrant granskat de föreskrifterna, se länken här.

Nu när jag har lagt en användbar grund för dessa relaterade AI-etik- och AI-rättsämnen, är vi redo att hoppa in i det nyligen släppta ACM "Statement On Principles For Responsible Algorithmic Systems" (förresten, eftersom dokumentets titel refererar till ansvarig algoritmiska system, kanske du vill ta en titt på min bedömning av vad det innebär att tala om Pålitlig AI, Se länken här).

Gör dig redo för en resa in i den här senaste uppsättningen av AI-etiska principer.

Gräver noggrant i ACM-deklarerade AI-etiska föreskrifter

ACM-uttalandet om etisk AI består av dessa nio nyckelstenar:

  • Legitimitet och kompetens
  • Minimera skada
  • Säkerhet och integritet
  • Öppenhet
  • Tolkbarhet och förklarabarhet
  • underhåll
  • Bestridbarhet och revisionsbarhet
  • Ansvar och ansvar
  • Begränsa miljöpåverkan

Om du jämför denna senaste uppsättning med andra särskilt tillgängliga uppsättningar, finns det en hel del likheter eller liknande överensstämmelse mellan dem.

Å ena sidan kan du ta det som ett gott tecken.

Vi kanske generellt sett hoppas att mängden av AI-etiska principer som svävar runt alla går samman mot samma övergripande täckning. Att se att ett set är lite jämförbart med ett annat ger dig ett sken av förtroende för att dessa set är inom samma bollplank och inte på något sätt ute i ett förbryllande vänsterfält.

Ett potentiellt klagomål från vissa är att dessa olika uppsättningar verkar vara ungefär desamma, vilket då möjligen skapar förvirring eller åtminstone bestörtning på grund av betänkligheten att vi inte borde ha många till synes duplicerade listor. Kan det inte bara finnas en lista? Problemet är naturligtvis att det inte finns något enkelt sätt att få alla sådana listor att vara exakt likadana. Olika grupper och olika enheter har närmat sig detta på olika sätt. Den goda nyheten är att de i stort sett alla har kommit fram till samma övergripande slutsats. Vi kan vara lättade över att uppsättningarna inte har stora skillnader, vilket kanske skulle göra oss oroliga om det inte fanns en övergripande konsensus.

En motstridig person kan förmana att dessa listor är gemensamma, och hävdar att det kanske finns ett grupptänkande på gång. Kanske tänker alla dessa olika grupper på samma sätt och kan inte se bortom normen. Vi faller alla i en identisk fälla. Listorna skenbart förankrar vårt tänkande och vi kan inte se bortom våra egna näsor.

Att se bortom våra näsor är utan tvekan en värdig sak.

Jag är verkligen öppen för att höra vad kontrarister har att säga. Ibland får de nys om något som har titanic på väg mot ett gigantiskt isberg. Vi skulle kunna använda några örnögonutkik. Men när det gäller dessa AI-etiska föreskrifter, har det inte funnits något definitivt formulerat av kontrarister som verkar uppenbart underminera eller väcka oro för en otillbörlig gemensamhet som pågår. Jag tycker att vi har det bra.

I den här ACM-uppsättningen finns det några särskilt anmärkningsvärda eller framstående punkter som jag tycker är särskilt värda anmärkningsvärd uppmärksamhet.

För det första gillar jag fraseringen på toppnivå som är något annorlunda än normen.

Till exempel hänvisar till legitimitet och kompetens (den första punkten) väcker en sken av vikten av både designer- och ledningskompetenser förknippade med AI. Dessutom har legitimitet slagord slutar med att ta oss in i AI-etiken och AI Laws område. Jag säger detta eftersom många av AI-etiska föreskrifterna nästan helt koncentrerar sig på de etiska implikationerna men verkar utelämna eller avvika från att notera de juridiska konsekvenserna också. Inom det juridiska området är etiska överväganden ofta utropade som "mjuk lag" medan lagarna i böckerna tolkas som "hårda lagar" (vilket betyder att de bär tyngden av de juridiska domstolarna).

Ett av mina favoritord genom tiderna yttrades av den berömde juristen Earl Warren: "I det civiliserade livet flyter lagen i ett hav av etik."

Vi måste se till att föreskrifterna om AI-etik också omfattar och betonar den hårda sidan av saker som i utarbetandet, antagandet och upprätthållandet av AI-lagar.

För det andra, jag uppskattar att listan innehåller bestridbarhet och revisionsbarhet.

Jag har upprepade gånger skrivit om värdet av att kunna tävla eller lyfta en röd flagga när man är föremål för ett AI-system, se länken här. Dessutom kommer vi i allt högre grad att se nya lagar som tvingar AI-system att granskas, vilket jag har diskuterat länge om New York City (NYC) lagen om revisionsfördomar för AI-system som används för anställning och befordran av anställda, se länken här. Tyvärr, och som jag öppet kritiserar den nya lagen i NYC, kommer de förmodligen att skapa fler problem än de löser om dessa lagar om granskning är felaktiga.

För det tredje finns det ett gradvis uppvaknande av att AI kan genomsyra hållbarhetsfrågor och jag är glad att se att miljömässigt ämne fick en fakturering på toppnivå i dessa AI-etiska föreskrifter (se den sista punkten i listan).

Att skapa ett AI-system kan i sig förbruka mycket datorresurser. Dessa datorresurser kan direkt eller indirekt vara hållbarhetsanvändare. Det finns en avvägning att överväga när det gäller fördelarna som en AI ger kontra kostnaderna som följer med AI. Den sista av ACM-punktlistan noterar de hållbarhets- och miljöhänsyn som uppstår med AI. För min täckning av AI-relaterade koldioxidavtrycksproblem, se länken här.

Nu när vi har gjort en skyhög titt på ACM-listan över AI-etiska föreskrifter, sätter vi tårna djupare ner i vattnet.

Här är de officiella beskrivningarna för var och en av högnivåreglerna för AI-etik (citerad från det formella uttalandet):

1. "Legitimitet och kompetens: Utvecklare av algoritmiska system bör ha ledningskompetens och uttryckligt tillstånd att bygga och distribuera sådana system. De behöver också ha expertis inom applikationsdomänen, en vetenskaplig grund för systemens avsedda användning, och allmänt betraktas som socialt legitima av intressenter som påverkas av systemet. Juridiska och etiska bedömningar måste göras för att bekräfta att alla risker som introduceras av systemen kommer att vara proportionella mot de problem som åtgärdas, och att alla avvägningar mellan nytta och skada förstås av alla relevanta intressenter.”

2. "Minimera skada: Chefer, designers, utvecklare, användare och andra intressenter av algoritmiska system bör vara medvetna om de möjliga fel och fördomar som är involverade i deras design, implementering och användning, och den potentiella skada som ett system kan orsaka individer och samhälle. Organisationer bör rutinmässigt utföra konsekvensbedömningar av system de använder för att avgöra om systemet kan orsaka skada, särskilt diskriminerande skada, och för att tillämpa lämpliga begränsningar. När det är möjligt bör de lära sig av mått på faktiska prestationer, inte bara mönster av tidigare beslut som i sig kan ha varit diskriminerande."

3. "Säkerhet och integritet: Risker från skadliga parter kan minskas genom att införa bästa praxis för säkerhet och integritet i alla faser av systemens livscykler, inklusive robusta kontroller för att mildra nya sårbarheter som uppstår i samband med algoritmiska system.”

4. "Öppenhet: Systemutvecklare uppmuntras att tydligt dokumentera hur specifika datamängder, variabler och modeller valdes ut för utveckling, utbildning, validering och testning, samt de specifika åtgärder som användes för att garantera data- och utdatakvalitet. System bör indikera sin nivå av förtroende för varje utdata och människor bör ingripa när förtroendet är lågt. Utvecklare bör också dokumentera de tillvägagångssätt som användes för att utforska potentiella fördomar. För system med kritisk påverkan på liv och välbefinnande bör oberoende verifierings- och valideringsprocedurer krävas. Offentlig granskning av data och modeller ger maximala möjligheter till korrigering. Utvecklare bör därför underlätta testning från tredje part i allmänhetens intresse."

5. "Tolkbarhet och förklarabarhet: Chefer för algoritmiska system uppmuntras att ta fram information om både de procedurer som de använda algoritmerna följer (tolkbarhet) och de specifika beslut som de fattar (förklarbarhet). Förklaring kan vara lika viktigt som noggrannhet, särskilt i offentliga politiska sammanhang eller i alla miljöer där det finns farhågor om hur algoritmer kan skeva för att gynna en grupp framför en annan utan erkännande. Det är viktigt att skilja mellan förklaringar och efterhandsrationaliseringar som inte återspeglar bevisen eller beslutsprocessen som används för att komma fram till slutsatsen som förklaras.”

6. "Underhållbarhet: Bevis på alla algoritmiska systems sundhet bör samlas in under deras livscykler, inklusive dokumentation av systemkrav, utformning eller implementering av ändringar, testfall och resultat, och en logg över fel som hittats och åtgärdats. Korrekt underhåll kan kräva omskolningssystem med nya träningsdata och/eller byte av de använda modellerna.”

7. "Bestridbarhet och revisionsbarhet: Tillsynsmyndigheter bör uppmuntra antagandet av mekanismer som gör det möjligt för individer och grupper att ifrågasätta resultat och söka upprättelse för negativa effekter till följd av algoritmiskt informerade beslut. Chefer bör se till att data, modeller, algoritmer och beslut registreras så att de kan granskas och resultat replikeras i fall där skada misstänks eller påstås. Revisionsstrategier bör offentliggöras för att göra det möjligt för individer, organisationer av allmänt intresse och forskare att granska och rekommendera förbättringar.”

8. "Ansvar och ansvar: Offentliga och privata organ bör hållas ansvariga för beslut som fattas av algoritmer som de använder, även om det inte är möjligt att förklara i detalj hur dessa algoritmer gav sina resultat. Sådana organ bör ansvara för hela system som används i deras specifika sammanhang, inte bara för de enskilda delarna som utgör ett givet system. När problem i automatiserade system upptäcks bör organisationer som är ansvariga för att distribuera dessa system dokumentera de specifika åtgärder som de kommer att vidta för att åtgärda problemet och under vilka omständigheter användningen av sådan teknik bör avbrytas eller avslutas."

9. "Begränsa miljöpåverkan: Algoritmiska system bör konstrueras för att rapportera uppskattningar av miljöpåverkan, inklusive koldioxidutsläpp från både utbildning och driftberäkningar. AI-system bör utformas för att säkerställa att deras koldioxidutsläpp är rimliga med tanke på graden av noggrannhet som krävs av det sammanhang där de används."

Jag litar på att du kommer att ge var och en av dessa avgörande AI-etiska föreskrifter en noggrann och tidigare läsning. Snälla ta dem till hjärtat.

Slutsats

Det finns en subtil men lika viktig del av ACM-uttalandet som jag tror att många av misstag kan förbise. Låt mig se till att uppmärksamma dig på detta.

Jag syftar på en del som diskuterar den plågsamma gåtan med att behöva väga avvägningar förknippade med AI-etiska föreskrifter. Du förstår, de flesta människor gör ofta en hel del tanklösa huvudnickningar när de läser Etiska AI-principer och antar att alla föreskrifter är lika i vikt, och att alla föreskrifter alltid kommer att ges samma optimala sken av aktning och värde.

Inte i den verkliga världen.

När gummit möter vägen kommer vilken typ av AI som helst som har en aning av komplexitet att på ett otäckt sätt testa AI-etiska föreskrifter om att några av elementen är tillräckligt uppnåbara jämfört med några av de andra principerna. Jag inser att du kanske högt utropar att all AI måste maximera alla AI-etiska föreskrifter, men detta är inte särskilt realistiskt. Om det är den ståndpunkten du vill ta, vågar jag påstå att du förmodligen skulle behöva säga till de flesta eller nästan alla AI-tillverkare och användare att stänga butiken och lägga undan AI helt och hållet.

Kompromisser måste göras för att få AI ut genom dörren. Som sagt, jag förespråkar inte att skära i hörn som bryter mot AI-etiska föreskrifter, och inte heller antyder att de ska bryta mot AI-lagar. Ett visst minimum måste uppfyllas, och över vilket målet är att sträva mer efter det. I slutändan måste en balans noggrant bedömas. Denna balansgång måste göras medvetet, uttryckligen, lagligt och med AI-etiken som en god tro och uppriktigt hållen övertygelse (du kanske vill se hur företag använder AI-etiknämnderna för att försöka få fram detta högtidliga tillvägagångssätt, se länken här).

Här är några punktpunkter som ACM-deklarationen nämner om kompromissernas komplexitet (citerade från det formella dokumentet):

  • "Lösningarna bör stå i proportion till problemet som löses, även om det påverkar komplexiteten eller kostnaden (t.ex. att avvisa användningen av offentlig videoövervakning för en enkel förutsägelseuppgift)."
  • "En mängd olika prestandamått bör övervägas och kan viktas olika baserat på applikationsdomänen. Till exempel, i vissa vårdtillämpningar kan effekterna av falska negativa effekter vara mycket värre än falska positiva, medan i straffrättsliga rättsväsendet kan konsekvenserna av falska positiva (t.ex. fängslande av en oskyldig person) vara mycket värre än falska negativa. Den mest önskvärda operativa systemkonfigurationen är sällan den med maximal noggrannhet."
  • "Bekymmer över integritet, skydd av affärshemligheter eller avslöjande av analyser som kan tillåta illvilliga aktörer att spela systemet kan motivera att begränsa åtkomsten till kvalificerade individer, men de bör inte användas för att motivera att begränsa granskning från tredje part eller för att ursäkta utvecklare från skyldigheten att erkänna och reparera fel.”
  • "Öppenhet måste kombineras med processer för ansvarsskyldighet som gör det möjligt för intressenter som påverkas av ett algoritmiskt system att söka meningsfull gottgörelse för skador som orsakats. Transparens ska inte användas för att legitimera ett system eller för att överföra ansvar till andra parter.”
  • ”När ett systems påverkan är hög kan ett mer förklarligt system vara att föredra. I många fall finns det ingen avvägning mellan förklarabarhet och noggrannhet. I vissa sammanhang kan dock felaktiga förklaringar vara ännu värre än ingen förklaring (t.ex. i sjukvårdssystem kan ett symptom motsvara många möjliga sjukdomar, inte bara en).

De som utvecklar eller använder AI kanske inte öppet inser vilka avvägningar de står inför. Toppledarna för ett företag kan naivt anta att AI uppfyller maximivärdena för alla AI-etiska principer. Antingen tror de det här för att de har ingen aning om AI, eller så vill de tro på detta och gör kanske en blinkning för att lätt kunna ta till sig AI.

Oddsen är att om man misslyckas med att konkret och öppet konfrontera avvägningarna kommer att sluta med en AI som kommer att orsaka skada. Dessa skador kommer i sin tur sannolikt att öppna ett företag för potentiellt storskaliga skulder. Utöver det kan konventionella lagar komma att gälla för möjliga kriminella handlingar associerade med AI, tillsammans med de nyare AI-fokuserade lagarna som hamrar på detta också. Ett ton av tegelstenar väntar ovanför huvudet på dem som tror att de kan ta sig runt kompromisserna eller som är djupt omedvetna om att kompromisserna existerar (en förkrossande insikt kommer oundvikligen att falla på dem).

Jag ska ge det sista ordet för nu om detta ämne till den avslutande aspekten av ACM-uttalandet eftersom jag tycker att det gör ett robust jobb med att förklara vad dessa etiska AI-föreskrifter makroskopiskt syftar till att föra fram:

  • “Ovanstående rekommendationer fokuserar på ansvarsfull design, utveckling och användning av algoritmiska system; ansvar måste fastställas i lag och allmän ordning. Den ökande kraften hos algoritmiska system och deras användning i livskritiska och följdtillämpningar gör att stor försiktighet måste iakttas vid användningen av dem. Dessa nio instrumentella principer är avsedda att vara inspirerande för att lansera diskussioner, initiera forskning och utveckla styrningsmetoder för att ge fördelar för ett brett spektrum av användare, samtidigt som de främjar tillförlitlighet, säkerhet och ansvar. I slutändan är det det specifika sammanhanget som definierar den korrekta designen och användningen av ett algoritmiskt system i samarbete med representanter för alla berörda intressenter” (citerat från det formella dokumentet).

Som visdomsord klokt säger oss, börjar en resa på tusen miles med ett första steg.

Jag ber dig att bekanta dig med AI-etiken och AI-lagstiftningen, att ta det första steget som kommer dig igång och sedan hjälpa dig att fortsätta med dessa viktiga ansträngningar. Det fina är att vi fortfarande är i linda av att ta reda på hur man hanterar och samhälleligt hanterar AI, så du kommer in på bottenvåningen och dina ansträngningar kan bevisligen forma din framtid och framtiden för oss alla.

AI-resan har precis börjat och viktiga första steg pågår fortfarande.

Källa: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- yrkesförening-the-acm/