AI-etik Skeptisk till att upprätta så kallade Red Flag AI-lagar för att kalla ut partiska algoritmer i autonoma AI-system

Låt oss prata om Red Flag Laws.

Du vet utan tvekan att begreppet Red Flag Laws har täckts flitigt i nyheterna på sistone. Rubriker som täcker ämnet är rikligt. Passioner och passionerade debatter om sådana frågor är högst upp i sinnet som ett samhälleligt angelägenhet och inbegriper nuvarande och snabbt framväxande Red Flag Gun Laws.

Jag skulle dock våga säga att du kanske inte är bekant med andra Red Flag-lagar som antogs i slutet av 1800-talet rörande motordrivna fordon och föregångarna till dagens vardagliga moderna bilar. Ja, det stämmer, Red Flag Laws går tillbaka i historien, men täcker andra ämnen i jämförelse med dagens samtida fokus. Dessa kallas vanligtvis för röd flagga trafiklagar.

Dessa nu hundraåriga och helt och hållet nedlagda lagar krävde att alla motoriserade vagnar eller motorer som drivs med ånga vid den tiden skulle ha en vuxen före fordonet och bära en röd flagga i varningssyfte. Tanken var att boskapen skulle kunna bli orolig av de där bullriga och ojämna redskapen som tunnlade långsamt och ojämnt nerför smuts eller marginellt asfalterade vägar, och att man på så sätt skulle få någon att gå framme framför redskapet medan man kraftigt viftade med en röd flagga kunde förhoppningsvis undvika att katastrofer uppstår. Om du undrade, ansågs järnvägar och tåg vara uteslutna från samma lagar eftersom de var fordon som var integrerat bundna till räls och hade andra lagar som täckte deras handlingar.

Tänk dig att behöva vifta med röda flaggor idag som ett krav för varje bil på våra allmänna vägar.

Till exempel skulle en vanlig bilist som kommer nerför din stadsgata vara tvungen att se till att en vuxen som viftade med en röd flagga var närvarande och paraderade framför den rörliga bilen. Detta skulle behöva ske för varje fordon som passerar din gata. Kanske skulle folk bli rödflaggade jobbare som hyrde ut till förbipasserande bilförare som annars inte hade en vän eller släkting som kunde gå framför dem och göra den föreskrivna viftande handlingen.

Vi tenderar numera att associera motorvägsrelaterade röda flaggviftande med vägbyggen. När du kommer nära en uppgrävd väg kommer arbetare att hålla upp en röd flagga för att fånga din uppmärksamhet. Detta talar om för dig att sakta ner och vara på alerten. Det kan finnas en bulldozer som kommer att gå in på din väg. Ett gigantiskt hål kan finnas framför dig och du måste försiktigt gå runt det.

Men låt oss gå tillbaka till 1800-talets användning av röda flaggor.

Tro det eller ej, den röda flaggan var tänkt att vara minst en åttondel av en mils avstånd före den kommande motoriserade maskinen. Det verkar vara en ganska lång sträcka. Man antar dock att detta var mycket meningsfullt på den tiden. De häpnadsväckande ljuden från motorn och kanske blotta åsynen av fordonet kan vara tillräckligt för att få djuren att bli nervösa. Några av de röda flagglagarna från den eran krävde också att ett lysande rött ljus hölls uppe under natten så att en visuellt uppenbar röd försiktighetsvarning kunde ses från ett mörkt avstånd.

Generellt sett tycker jag att det är rättvist att hävda att vi som samhälle tenderar att associera en röd flagga som en slags signal eller skylt om att något potentiellt är fel eller åtminstone behöver vår hängivna uppmärksamhet.

Gör dig redo för lite av en twist på detta röda flagg-fenomen.

Det finns ett påstående att vi bör kräva bestämmelser om röd flagg när det kommer till artificiell intelligens (AI).

Det är lite häpnadsväckande och ett överraskande koncept som får många att klia. Du kan bli förbryllad över hur eller varför det borde finnas så kallade Red Flag AI-lagar. Observera att jag betecknar detta som Red Flag AI-lagar för att skilja saken från Red Flag-trafiklagar (som de från slutet av 1800-talet) och även för att skilja dem från dagens andra mer utbredda Red Flag-vapenlagar.

Behöver vi verkligen Red Flag AI-lagar som är distinkt och enbart inriktade på AI-frågor?

De som förespråkar det föreslagna tillvägagångssättet skulle insistera på att vi absolut behöver rättsliga bestämmelser som skulle hjälpa till att slå ner på AI som innehåller otillbörliga fördomar och agerar på diskriminerande sätt. Just nu är byggnaden och implementeringen av AI besläktad med en vilda västern-alltså-omständighet. Ansträngningar för att tygla dålig AI beror för närvarande på utformningen och antagandet av AI-etiska riktlinjer. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Lagar som boxas in dålig AI håller sakta på att utarbetas och antas, se min bevakning på länken här. Vissa oroar sig för att lagstiftarna inte går tillräckligt snabbt. Det verkar som om slussarna för att tillåta partisk AI att främjas i världen är i stort sett vidöppna just nu. Handvridning säger att när nya lagar kommer in i böckerna kommer den onda anden redan att vara ur flaskan.

Inte så snabbt går motargumenten. Bekymmer är att om lagar införs för snabbt kommer vi att döda guldgåsen, så att säga, varvid AI-insatser kommer att torka ut och vi inte kommer att få de samhällsförstärkande fördelarna med nya AI-system. AI-utvecklare och företag som vill använda AI kan bli skrämda om en rad bysantinska nya lagar som styr AI plötsligt införs på federal, statlig och lokal nivå, för att inte tala om de internationella AI-relaterade lagarna som också marscherar framåt.

In i denna röriga affär kommer uppmaningen om Red Flag AI Laws.

Innan vi går in på lite mer kött och potatis om de vilda och ulliga övervägandena som ligger till grund för den tänkta Red Flag AI-lagen, låt oss fastställa några ytterligare grunder om djupt viktiga ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etikprinciperna ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss återgå till vårt fokus på Red Flag AI-lagar.

Det underliggande konceptet är att människor skulle kunna höja en röd flagga när de trodde att ett AI-system fungerade på ett onödigt partiskt eller diskriminerande sätt. Du skulle inte hissa en fysisk flagga i sig, och istället skulle du helt enkelt använda några elektroniska medel för att göra dina bekymmer kända. Den röda flaggan i schemat eller tillvägagångssättet är mer en metafor än en fysisk förkroppsligande.

Låtsas att du ansökte om ett bostadslån. Du väljer att använda en onlinebanktjänst för att ansöka om ett lån. Efter att ha angett några personliga uppgifter väntar du ett ögonblick på AI-systemet som används för att avgöra om du är lånevärdig eller inte. AI:n talar om för dig att du har fått avslag på lånet. När du begärde en förklaring till varför du avvisades, verkar textberättelsen antyda för dig att AI:n använde otillbörligt partiska faktorer som en del av beslutsalgoritmen.

Dags att hissa en röd flagga om AI.

Var exakt kommer denna röda flagga att vifta?

Det är en miljonfråga.

En synpunkt är att vi bör upprätta en rikstäckande databas som skulle göra det möjligt för människor att markera sina AI-relevanta röda flaggor. Vissa säger att detta bör regleras av den federala regeringen. Federala myndigheter skulle vara ansvariga för att undersöka de röda flaggorna och komma till hjälp för allmänheten när det gäller sanningshalten och att hantera förmodligen "dålig AI" som underblåste den röda flaggans rapportering.

En nationell Red Flag AI-lag skulle till synes fastställas av kongressen. Lagen skulle beskriva vad en AI-relevant röd flagga är. Lagen skulle beskriva hur dessa röda flaggor med AI höjs. Och så vidare. Det kan också vara så att enskilda stater också kan välja att skapa sina egna Red Flag AI-lagar. Kanske gör de det istället för ett nationellt initiativ, eller så gör de det för att förstärka detaljer som är särskilt tilltalande för deras specifika stat.

Kritiker av ett federalt eller statligt stödjat Red Flag AI-program skulle hävda att detta är något som den privata industrin kan göra och vi behöver inte Big Brother för att komma i förgrunden. Branschen skulle kunna etablera ett onlineförråd där människor kan registrera röda flaggor om AI-system. En självpolisierande åtgärd från industrins sida skulle tillräckligt hantera dessa frågor.

En betänklighet med den påstådda industrins tillvägagångssätt är att det tycks lukta kumpan. Skulle företag vara villiga att följa någon privatägd Red Flag AI-databas? Många företag skulle potentiellt ignorera de markerade röda flaggorna om deras AI. Det skulle inte finnas vassa tänder för att få företag att ta itu med de angivna röda flaggorna.

Hej, förespråkarna för den privata sektorns tillvägagångssätt låter off, detta skulle vara besläktat med nationell Yelp-liknande service. Konsumenter kan titta på de röda flaggorna och själva bestämma om de vill göra affärer med företag som har samlat på sig en mängd AI-orienterade röda flaggor. En bank som fick massor av röda flaggor om sin AI skulle behöva vara uppmärksam och förnya sina AI-system, så logiken är, annars skulle konsumenterna undvika företaget som pesten.

Huruvida hela detta tillvägagångssätt genomförs av regeringen eller av industrin är bara toppen av isberget i svåra frågor som det föreslagna postulatet för Red Flag AI-lagar står inför.

Sätt dig in i ett företag som utvecklat eller använder AI. Det kan vara så att konsumenter skulle lyfta röda flaggor trots att det inte fanns någon hållbar grund för det. Om människor fritt kunde posta en röd flagga om AI, kan de bli frestade att göra det på ett infall, eller kanske för att hämnas mot ett företag som annars inte gjort något fel mot konsumenten.

Kort sagt, det kan finnas många falskt positiva röda flaggor om AI.

Ett annat övervägande är den enorma storleken eller magnituden på de resulterande röda flaggorna. Det kan lätt höjas miljoner och åter miljoner röda flaggor. Vem ska följa upp alla dessa röda flaggor? Vad skulle det kosta att göra det? Vem kommer att betala för de röda flaggans uppföljningsinsatser? Etc.

Om du skulle säga att alla som registrerar eller rapporterar en röd flagga om AI måste betala en avgift, har du hamnat i ett grumligt och lömskt rike. Oron skulle vara att bara de rika skulle ha råd att hissa röda flaggor. Detta innebär i sin tur att de fattiga inte skulle kunna delta på samma sätt i rödflaggans aktiviteter och i princip inte har någon plats för att varna för negativ AI.

Bara ytterligare en twist för tillfället, nämligen att den här typen av röda flagglagar eller riktlinjer om AI verkar vara i efterhand snarare än att fungera som en varning i förväg.

För att återgå till trafiklagarna för den röda flaggan, var betoningen av att använda en röd flagga för att undvika en katastrof till att börja med. Den röda flaggan var tänkt att vara långt före den kommande bilen. Genom att vara före fordonet skulle boskapen larmas och de som vaktade boskapen skulle veta att de borde vidta försiktighetsåtgärder på grund av den snart anländande störande källan.

Om människor bara kan hissa en röd flagga om AI som till synes redan har skadat eller underskränkt deras rättigheter, är den ökända hästen redan ute ur ladugården. Allt som detta verkar åstadkomma är att förhoppningsvis skulle andra som kommer nu veta att de är försiktiga med det AI-systemet. Samtidigt har den person som påstås ha blivit kränkt redan lidit.

Vissa föreslår att vi kanske kunde tillåta människor att höja röda flaggor om AI som de misstänka kan vara partiska, även om de inte har använt AI:n och inte direkt påverkats av AI:n. Således viftas den röda flaggan innan skadan är skedd.

Usch, säger repliken, du kommer verkligen att göra de röda flaggorna som klarar AI till en helt ohanterlig och kaotisk affär. Om någon av någon anledning kan höja en röd flagga om ett AI-system, trots att han inte har gjort något alls med den AI:n, kommer du att bli översvämmad av röda flaggor. Ännu värre, du kommer inte att kunna urskilja vetet från agnarna. Hela rödflaggans tillvägagångssätt kommer att kollapsa under sin egen tyngd, och ta bort det goda med idén genom att låta flottam och riffraff sänka hela fartyget.

Omtumlande och förvirrande.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om Red Flag AI Laws, och i så fall vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och Red Flag AI-lagar

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Låt oss skissera ett scenario som kan utnyttja en Red Flag AI-lag.

Du sätter dig i en AI-baserad självkörande bil och vill att det autonoma fordonet ska köra dig till din lokala livsmedelsbutik. Under den relativt korta resan tar AI en rutt som du verkar vara något fel på. Istället för att gå den mest direkta vägen navigerar AI:n till avsidesliggande gator vilket gör att körtiden blir längre än den normalt skulle kunna vara.

Vad är det som händer?

Om du antar att du betalar för användningen av den självkörande bilen, kanske du misstänker att AI:n var programmerad att köra en längre rutt för att försöka höja priset eller kostnaden för resan. Alla som någonsin har tagit en konventionell människodriven hytt känner till knep som kan ske för att få mer deg på mätaren. Naturligtvis, med människor som har GPS på sina smartphones när de åker i en hytt eller motsvarande, kan du lätt fånga en mänsklig förare som verkar smygande ta onödigt långa vägar.

Det visar sig att du har en annan oro över vägvalet, något som verkligen gnager i dig.

Anta att rutten gjordes för att undvika vissa delar av staden på grund av rasaspekter. Det finns dokumenterade fall av mänskliga förare som har ertappats med att göra den typen av val, se min diskussion på länken här. Kanske har AI programmerats negativt.

Du bestämmer dig för att hissa en röd flagga.

Låt oss för diskussionens skull anta att en Red Flag AI-lag har antagits som täcker din jurisdiktion. Det kan vara lokal lag, statlig lag, federal eller internationell lag. För en analys som jag skrev tillsammans med Harvards Autonomous Vehicle Policy Initiative (AVPI) om den ökande betydelsen av lokalt ledarskap när samhällen använder sig av självkörande bilar, se länken här.

Så du går online till en Red Flag AI-databas. I incidentdatabasen anger du informationen om den självkörande bilresan. Detta inkluderar datum och tid för körvandringen, tillsammans med märket och modellen för den självkörande bilen. Du går sedan in på navigeringsvägen som verkade vara misstänkt, och du antyder eller hävdar kanske direkt att AI:n skapades med partisk eller diskriminerande avsikt och kapacitet.

Vi skulle behöva spekulera i de andra detaljerna i Red Flag AI-lagen om vad som händer härnäst i detta specifika scenario. I teorin skulle det finnas en bestämmelse för någon att granska den röda flaggan. De skulle förmodligen försöka få biltillverkaren eller självkörande teknikföretaget att förklara sin syn på den loggade röda flaggan. Hur många andra sådana röda flaggor har registrerats? Vilka resultat gav de röda flaggorna?

Och så skulle det gå.

Slutsats

Obehagligt, uppmanar vissa skeptiker.

Vi behöver inte Red Flag AI-lagar, de anstränger sig strängt. Att göra något sådant kommer att göra det piggare när det kommer till takten och utvecklingen av AI. Alla sådana lagar skulle vara svårhanterliga. Du skulle skapa ett problem som inte löser ett problem. Det finns andra sätt att hantera AI som är dåliga. Ta inte blint tag i strån för att klara av partisk AI.

När vi växlar, vet vi alla att tjurfäktare använder röda kappor för att uppenbarligen fånga den arga tjurens uppmärksamhet. Även om rött är den färg vi mest förknippar med denna praxis, kanske du blir förvånad över att veta att forskare säger att tjurar inte uppfattar den röda färgen på muletan (de är färgblinda till röda). Den populära showen Mythbusters gjorde en ganska underhållande granskning av denna fråga. Kapans rörelse är nyckelelementet snarare än den valda färgen.

För dem som kastar undan behovet av Red Flag AI-lagar är ett motkrav att vi behöver något av en dramatisk och omisskännlig vinkande natur för att se till att AI-utvecklare och företag som använder AI kommer att undvika partisk eller dålig AI. Om inte för en röd flagga, kanske en fladdrande cape eller i princip vilken typ av varning som helst kan vara inom området för att få vederbörlig hänsyn.

Vi vet med säkerhet att dålig AI finns och att mycket mer dålig AI kommer att vara på väg i vår riktning. Att hitta sätt att skydda oss mot skadlig AI är avgörande. Likaså är det lika viktigt att sätta skyddsräcken för att försöka stoppa dålig AI från att komma in i världen.

Ernest Hemingway sa berömt att ingen någonsin lever sitt liv hela vägen upp förutom tjurfäktare. Vi måste se till att människor kan leva sitt liv hela vägen, trots vilken AI-dålighet eller galenskap som än förkunnas över oss.

Källa: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- partiska-algoritmer-i-autonoma-ai-system/