AI-etik och AI-lag väger nyckelvägar att implementera den nyligen släppta AI-rättighetsförklaringen, inklusive och häpnadsväckande genom att använda AI direkt

Det råder ingen tvekan om att vi behöver ritningar i vårt dagliga liv.

Om du ska bygga ditt länge tänkta drömhus, skulle du göra klokt i att först sätta ihop en användbar ritning.

En ritning visar på ett påtagligt och dokumenterat sätt vilket storögt visionärt perspektiv som än kan vara låst i din noggin. De som kommer att uppmanas att bygga ditt omhuldade hem kommer att kunna hänvisa till ritningen och spika ner detaljerna om hur man får jobbet gjort. Ritningar är praktiska. Frånvaron av en ritning kommer definitivt att vara problematisk för att ta itu med någon form av komplex syssla eller projekt.

Låt oss flytta denna något sentimentala men genuina hyllning till ritningar till riket av artificiell intelligens (AI).

De av er som är substantiellt i AI kanske är vagt medvetna om att en viktig policyorienterad blueprint släpptes nyligen i USA som bevisligen hänför sig till framtiden för AI. Känd informellt som AI Bill of Rights, den officiella titeln på den utropade vitboken är "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" och är lätt tillgänglig online.

Dokumentet är resultatet av en årslång ansträngning och medveten studie av Office of Science and Technology Policy (OSTP). OSTP är en federal enhet som grundades i mitten av 1970-talet och tjänar till att ge råd till den amerikanske presidenten och det amerikanska verkställande kontoret om olika tekniska, vetenskapliga och tekniska aspekter av nationell betydelse. I den meningen kan du säga att denna AI Bill of Rights är ett dokument som godkänts av och godkänts av det befintliga amerikanska Vita huset.

AI Bill of Rights skildrar mänskliga rättigheter som mänskligheten borde ha med hänsyn till tillkomsten av AI i våra dagliga liv. Jag betonar denna tunga punkt eftersom vissa människor först var förbryllade över att detta kanske var någon form av erkännande av att AI har juridisk person och att detta var en litania av rättigheter för kännande AI och humanoida robotar. Nej, vi är inte där än. Som du kommer att se om ett ögonblick, är vi inte i närheten av sentient AI, trots bannerrubrikerna som verkar säga något annat för oss.

Okej, så behöver vi en plan som förklarar mänskliga rättigheter i en tid av AI?

Ja, det gör vi definitivt.

Du skulle nästan behöva vara inlåst i en grotta och sakna internetåtkomst för att inte veta att AI redan och alltmer inkräktar på våra rättigheter. Den senaste tiden av AI ansågs ursprungligen vara AI For Good, vilket betyder att vi kan använda AI för att förbättra mänskligheten. I hälarna på AI For Good kom insikten att vi också är nedsänkta i AI för dåligt. Detta inkluderar AI som är framtagen eller självförändrad till att vara diskriminerande och gör beräkningsval som genomsyrar onödiga fördomar. Ibland är AI:n byggd på det sättet, medan den i andra fall svänger in i det ogynnsamma territoriet.

För min pågående och omfattande bevakning och analys av AI-lag, AI-etik och andra viktiga AI-teknologiska och samhälleliga trender, se länken här och länken här, bara för att nämna några.

Packar upp AI Bill Of Rights

Jag har tidigare diskuterat AI Bill of Rights och kommer att göra en snabb sammanfattning här.

För övrigt, om du vill veta mina djupgående för- och nackdelar med den nyligen släppta AI Bill of Rights, har jag detaljerat min analys i ett inlägg på Jurist, Se länken här. De Jurist är en anmärkningsvärd webbplats för juridiska nyheter och kommentarer på nätet, allmänt känd som en prisbelönt juridisk nyhetstjänst som drivs av ett globalt team av juridikstudenter, reportrar, redaktörer, kommentatorer, korrespondenter och innehållsutvecklare, och har sitt huvudkontor vid University of Pittsburgh School of Law i Pittsburgh, där det började för över 25 år sedan. Shoutout till det enastående och hårt arbetande teamet kl Jurist.

I AI Bill of Rights finns det fem nyckelstenskategorier:

  • Säkra och effektiva system
  • Algoritmiskt diskrimineringsskydd
  • Dataintegritet
  • Meddelande och förklaring
  • Mänskliga alternativ, hänsyn och fallback

Lägg märke till att jag inte numrerade dem från ett till fem eftersom det kan innebära att de är i en viss sekvens eller att en av rättigheterna till synes är viktigare än den andra. Vi kommer att anta att de är var och en av sina egna meriter. De är alla på sätt och vis lika meriterade.

Som en kort indikation på vad var och en består av, här är ett utdrag ur den officiella vitboken:

  • Säkra och effektiva system: "Du bör skyddas från osäkra eller ineffektiva system. Automatiserade system bör utvecklas med samråd från olika grupper, intressenter och domänexperter för att identifiera problem, risker och potentiella effekter av systemet."
  • Algoritmiska diskrimineringsskydd: “Du ska inte utsättas för diskriminering av algoritmer och system bör användas och utformas på ett rättvist sätt. Algoritmisk diskriminering uppstår när automatiserade system bidrar till omotiverad olika behandling eller påverkar människor som missgynnar människor baserat på deras ras, hudfärg, etnicitet, kön (inklusive graviditet, förlossning och relaterade medicinska tillstånd, könsidentitet, intersexstatus och sexuell läggning), religion, ålder , nationellt ursprung, funktionshinder, veteranstatus, genetisk information eller någon annan klassificering som skyddas av lag."
  • Dataintegritet: "Du bör skyddas från otillåten datapraxis via inbyggda skydd och du bör ha kontroll över hur data om dig används. Du bör skyddas från kränkningar av integritet genom designval som säkerställer att sådana skydd ingår som standard, inklusive att säkerställa att datainsamlingen överensstämmer med rimliga förväntningar och att endast data som är strikt nödvändig för det specifika sammanhanget samlas in.”
  • Meddelande och förklaring: "Du bör veta att ett automatiserat system används och förstå hur och varför det bidrar till resultat som påverkar dig. Utvecklare, utvecklare och driftsättare av automatiserade system bör tillhandahålla allmänt tillgänglig dokumentation i klarspråk inklusive tydliga beskrivningar av systemets övergripande funktion och den roll automatisering spelar, notera att sådana system används, den person eller organisation som är ansvarig för systemet och förklaringar av resultat som är tydliga, lägliga och tillgängliga."
  • Mänskliga alternativ, hänsyn och fallback: ”Du ska kunna välja bort, där det är lämpligt, och ha tillgång till en person som snabbt kan överväga och åtgärda problem du stöter på. Du bör kunna välja bort automatiserade system till förmån för ett mänskligt alternativ, där så är lämpligt.”

I stort sett är detta aspekter av mänsklighetens rättigheter som har cirkulerat ganska länge i samband med AI-etik och AI-lag, se min bevakning som på länken här. Vitboken tycks inte på ett magiskt sätt dra en kanin ur hatten när det gäller någon nyupptäckt eller grävd rättighet som hittills inte har belysts i ett AI-erans sammanhang.

Det är okej.

Du kan hävda att sammanställningen av dem i en snyggt förpackad och formaliserad samling ger en livsviktig tjänst. Plus, genom att bli smord som en hyllad AI Bill of Rights, detta förs vidare hela saken öppet och skickligt in i den offentliga sfärens medvetande. Den smälter samman en befintlig uppsjö av olika diskussioner till en singulär uppsättning som nu kan basuneras ut och förmedlas till alla slags intressenter.

Tillåt mig att ge denna lista med positiva reaktioner på den tillkännagivna AI Bill of Rights:

  • Ger en viktig sammanställning av keystone-principer
  • Fungerar som en ritning eller grund att bygga vidare på
  • Fungerar som en uppmaning till handling
  • Spårar intresse och visar att detta är allvarliga överväganden
  • Samlar en mängd olika diskussioner
  • Sparar och bidrar till ansträngningar för adoption av etisk AI
  • Kommer utan tvekan att ingå i upprättandet av AI-lagar
  • Övriga

Vi måste också överväga de mindre gynnsamma reaktionerna, med hänsyn till att det finns mycket mer arbete som måste göras och att detta bara är början på en lång resa på den mödosamma vägen att styra AI.

Som sådan, något hård eller ska vi säga konstruktiv kritik mot AI Bill of Rights inkluderar:

  • Inte juridiskt verkställbart och helt icke-bindande
  • Endast rådgivande och betraktas inte som statlig politik
  • Mindre omfattande i jämförelse med andra publicerade verk
  • Består i första hand av breda begrepp och saknar genomförandedetaljer
  • Det kommer att bli en utmaning att omvandla till verkliga praktiska lagar
  • Till synes tyst om den hotande frågan om att eventuellt förbjuda AI i vissa sammanhang
  • Erkänner marginellt fördelarna med att använda AI som är genomtänkt
  • Övriga

Den kanske mest framträdande skarpa kommentaren har fokuserat på det faktum att denna AI Bill of Rights inte är juridiskt verkställbar och därför inte håller vatten när det gäller att etablera tydliga målstolpar. Vissa har sagt att även om vitboken är hjälpsam och uppmuntrande, saknar den definitivt tänder. De ifrågasätter vad som kan komma av en påstådd håltandad uppsättning fiffiga föreskrifter.

Jag ska ta upp de bitande kommentarerna om ett ögonblick.

Samtidigt anger vitboken rikligt begränsningarna för vad denna AI Bill of Rights innebär:

  • "The Blueprint for an AI Bill of Rights är icke-bindande och utgör inte den amerikanska regeringens policy. Den ersätter, modifierar eller styr inte en tolkning av någon befintlig lag, förordning, policy eller internationellt instrument. Det utgör inte bindande vägledning för allmänheten eller federala myndigheter och kräver därför inte efterlevnad av principerna som beskrivs här. Det är inte heller avgörande för vad den amerikanska regeringens ståndpunkt kommer att vara i någon internationell förhandling. Antagandet av dessa principer kanske inte uppfyller kraven i befintliga lagar, förordningar, policyer eller internationella instrument, eller kraven från de federala myndigheter som upprätthåller dem. Dessa principer är inte avsedda att förbjuda eller begränsa någon laglig verksamhet av en statlig myndighet, inklusive brottsbekämpning, nationell säkerhet eller underrättelseverksamhet” (enligt vitboken).

För de som har varit snabba med att underskrida AI Bill of Rights som juridiskt icke-bindande, låt oss göra lite av ett tankeexperiment på det svidande anklagelsen. Antag att vitboken släpptes och hade lagens fulla kraft. Jag vågar påstå att resultatet skulle bli något katastrofalt, åtminstone till graden av både juridiska och samhälleliga svar på kungörelsen.

Lagstiftare skulle vara medvetna om att ansträngningen inte hade genomfört de normativa processerna och rättsliga procedurerna för att sätta ihop sådana lagar. Företag skulle med rätta bli rasande över att nya lagar dyker upp utan tillräcklig underrättelse och medvetenhet om vad dessa lagar är. All slags bestörtning och upprördhet skulle följa.

Inte ett bra sätt att dras till att stärka mänsklighetens rättigheter i en AI-era.

Kom ihåg att jag tidigare hade börjat denna diskussion genom att ta upp värdet och vitaliteten i ritningar.

Föreställ dig att någon hoppade förbi steget att skapa ritningar och hoppade omedelbart in i att bygga ditt drömhus. Hur tror du att huset skulle se ut? Det verkar vara en rimlig satsning att huset inte skulle matcha särskilt vad du hade i ditt sinne. Det resulterande hembygdsgården kan vara en total röra.

Kontentan är att vi verkligen behöver ritningar och vi har nu en för att gå vidare med att ta reda på kloka AI-lagar och bemyndiga etiska AI-adoptioner.

Jag skulle därför vilja ta upp de sätt på vilka denna AI Bill of Rights ritning kan omvandlas till ett hus, så att säga. Hur ska vi använda planen? Vilka är de lämpliga nästa stegen? Kan den här ritningen räcka, eller behöver den mer kött på benen?

Innan vi går in i de där tunga frågorna vill jag först se till att vi alla är på samma sida om arten av AI och vad dagens status består av.

Sätter rekord om dagens AI

Jag skulle vilja göra ett extremt eftertryckligt uttalande.

Är du redo?

Det finns ingen AI idag som är kännande.

Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan på ett lämpligt sätt förutsäga om vi kommer att uppnå sentient AI, inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om sentient AI, skulle den här diskussionen kunna gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Jag skulle starkt föreslå att vi håller saker nere på jorden och överväger dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Var mycket försiktig med att antropomorfiera dagens AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Nu när jag har lagt en användbar grund är vi redo att dyka längre in i AI Bill of Rights.

Fyra viktiga sätt att implementera AI Bill of Rights

Någon ger dig en ritning och säger åt dig att gå till jobbet.

Vad gör du?

När det gäller AI Bill of Rights som en ritning, överväg dessa fyra viktiga steg för att gå vidare:

  • Fungera som input för att formulera AI-lagar: Använd ritningen för att hjälpa till med att formulera AI-lagar, gör det förhoppningsvis på en anpassad basis på federal, statlig och lokal nivå (kanske hjälper internationella AI-rättsliga ansträngningar också).
  • Hjälp till att få AI-etiken mer allmänt antagen: Använd ritningen för att främja AI-etikformuleringar (ibland kallade "mjuka lagar" i jämförelse med juridiskt bindande "hårda lagar"), gör det för att inspirera och vägleda företag, individer, statliga enheter och andra valkretsar mot bättre och mer konsekvent etisk AI-resultat.
  • Shape AI-utvecklingsaktiviteter: Använd ritningen för att stimulera skapandet av AI-utvecklingsmetoder och utbildningsaspekter, gör det för att försöka få AI-utvecklare och de som arbetar med eller använder AI att bli mer medvetna om hur man utformar AI i linje med önskvärda AI-etiska föreskrifter och i väntan av förestående AI-lagar som antas.
  • Motivera tillkomsten av AI för att hjälpa till att kontrollera AI: Använd ritningen för att ta fram AI som kommer att användas för att försöka fungera som en check-and-balans mot annan AI som kan svänga in i det ogynnsamma territoriet. Detta är en av de makroskopiska synpunkter där vi kan använda just det som vi finner skenbart oroande för att också (ironiskt nog kan man säga) hjälpa till att skydda oss.

Jag har diskuterat vart och ett av de ovannämnda fyra stegen under mina kolumninlägg.

För den här diskussionen skulle jag vilja fokusera på det fjärde steget i listan, nämligen att AI Bill of Rights kan tjäna som en motivator mot tillkomsten av AI för att hjälpa till att kontrollera AI. Detta är ett något chockerande eller överraskande steg för många som ännu inte har kommit helt in i denna AI-framskridande värld.

Låt mig utarbeta.

En enkel analogi borde göra susen. Vi är alla vana nuförtiden vid cybersäkerhetsintrång och hackerinbrott. Nästan varje dag får vi höra om eller påverkas av något senaste kryphål i våra datorer som gör det möjligt för elaka ogärningsmän att ta upp vår data eller placera en elak bit ransomware på våra bärbara datorer.

Ett sätt att bekämpa dessa avskyvärda försök består av att använda specialiserad programvara som försöker förhindra dessa inbrott. Du har nästan säkert ett antivirusprogram på din dator hemma eller på jobbet. Det finns sannolikt något liknande på din smartphone, oavsett om du inser att det finns där eller inte.

Min poäng är att man ibland behöver bekämpa eld med eld (se min bevakning om detta, som till exempel kl länken här och länken här).

I fallet med AI som landar i verboten riket av AI för dåligt, kan vi försöka använda AI For Good som kämpar med det skadliga AI för dåligt. Detta är naturligtvis inget mirakelmedel. Som ni vet pågår det en ständig katt-och-råtta-gambit mellan illgärare som försöker bryta sig in i våra datorer och de framsteg som görs inom cybersäkerhetsskydd. Det är ett nästan oändligt spel.

Vi kan använda AI för att försöka hantera AI som har gått en förbjuden väg. Att göra det kommer att hjälpa. Det kommer inte att vara speciellt en silverkula eftersom den negativa AI som riktas mot nästan säkert kommer att utformas för att undvika sådana skydd. Detta kommer att vara pågående katt-och-mus av AI kontra AI.

Hur som helst kommer den AI vi använder för att skydda oss själva att ge ett visst mått av skydd mot dålig AI. Därför behöver vi otvivelaktigt ta fram AI som kan skydda eller skydda oss. Och vi bör också försöka skapa den skyddande AI:n för att justera allt eftersom den dåliga AI:n anpassar sig. Det kommer att finnas en häftig sken av blixtsnabb katt-och-mus.

Inte alla njuter av denna utvidgning av AI:s roll.

De som redan uppfattar AI som ett homogent amorft konglomerat, skulle få gåshud och mardrömmar vid denna låtsade AI-mot-AI-gambit. Om vi ​​försöker ställa eld mot eld, kanske vi bara gör en ännu större eld. AI kommer att bli ett enormt bål, ett som vi inte längre kontrollerar och kommer att välja att förslava mänskligheten eller utplåna oss från planeten. När det kommer till att diskutera AI som en existentiell risk förleds vi vanligtvis att tro att all AI kommer att gå ihop, se min diskussion om dessa frågor på länken här. Du förstår, vi får höra att varje del av AI kommer att gripa tag i sina bröder AI och bli en stor enhetlig överherrefamilj.

Det är det fruktansvärda och avgjort oroande scenariot med kännande AI som sömlös allt-för-en- och en-för-alla-maffia.

Även om du fritt är välkommen att göra sådana gissningar om att detta kan inträffa någon gång, försäkrar jag dig att för närvarande består den AI vi har idag av lastbilslaster med frånkopplade disparata AI-program som inte har något särskilt sätt att konspirera med varandra.

Med det sagt är jag säker på att de som ivrigt tror på AI-konspirationsteorier kommer att insistera på att jag medvetet har sagt detta för att dölja sanningen. A ha! Kanske får jag betalt av dagens AI som redan planerar det stora AI-övertagandet (ja herre, jag kommer att bada i rikedomar när AI-herrarna styr). Eller, och jag föredrar absolut inte denna andra vinkel, kanske är jag blint omedveten om hur AI i hemlighet planerar bakom våra ryggar. Jag antar att vi får vänta och se om jag är en del av AI-kuppen eller en AI-abjekt patsy (usch, det gör ont).

För att återgå till jordiska överväganden, låt oss kort utforska hur samtida AI kan användas för att underlätta implementeringen av AI Bill of Rights. Jag kommer bekvämt och sammanfattande att hänvisa till detta som Bra AI.

Vi kommer att använda de fem nyckelstenarna i AI Bill of Rights:

  • Bra AI för marknadsföring Säkra och effektiva system: Närhelst du är föremål för eller använder ett AI-system, försöker Good AI ta reda på om den AI som används är osäker eller ineffektiv. Vid sådan upptäckt kan den goda AI:n varna dig eller vidta andra åtgärder, inklusive att blockera den dåliga AI:n.
  • Bra AI för att tillhandahålla Algoritmiska diskrimineringsskydd: När du använder ett AI-system som kan innehålla diskriminerande algoritmer, Bra AI försöker fastställa om det finns otillräckliga skydd för dig och försöker avgöra om det verkligen finns otillbörliga fördomar i den använda AI. Den goda AI:n kan informera dig och även potentiellt automatiskt rapportera den andra AI:n till olika myndigheter som kan föreskrivas av AI-lagar och juridiska krav.
  • Bra AI för att bevara Dataintegritet: Den här typen av bra AI försöker skydda dig från intrång i dataintegriteten. När en annan AI försöker begära data som kanske inte verkligen behövs från dig, kommer Good AI att göra dig medveten om överskridandet. The Good AI kan också potentiellt maskera dina data på ett sätt som kommer att bevara dina datasekretessrättigheter när de matas till den andra AI:n. Etc.
  • Bra AI för att etablera Meddelande och förklaring: Vi kommer alla sannolikt att stöta på AI-system som i hög grad saknar korrekta och lämpliga aviseringar och som tyvärr inte kan visa upp en adekvat förklaring till sina handlingar. Bra AI kan försöka tolka eller förhöra den andra AI:n och göra det för att potentiellt identifiera meddelanden och förklaringar som borde ha tillhandahållits. Även om det inte är möjligt att göra i ett givet fall, kommer den goda AI:n åtminstone att varna dig om bristerna hos den andra AI:n, och eventuellt rapportera AI:n till utsedda myndigheter baserat på fastställda AI-lagar och juridiska krav.
  • Bra AI att erbjuda Mänskliga alternativ, hänsyn och fallback: Anta att du använder ett AI-system och AI:n verkar inte klara av uppgiften. Du kanske inte inser att det blir surt, eller så kanske du är lite försiktig och osäker på vad du ska göra åt situationen. I ett sådant fall skulle Bra AI tyst undersöka vad den andra AI gör och kan varna dig för viktiga bekymmer om den AI:n. Du skulle då bli ombedd att begära ett mänskligt alternativ till AI:n (eller så kan den goda AI:n göra det för din räkning).

För att förstå ytterligare hur denna typ av Bra AI kan utvecklas och utvecklas, se min populära och högt rankade AI-bok (ärad att säga att den har noterats som en "Top Ten") om vad jag i allmänhet har refererat till som AI-skyddsänglar, se länken här.

Slutsats

Jag vet vad du tänker. Om vi ​​har bra AI som är utformad för att skydda oss, anta att den goda AI blir korrumperad till att bli dålig AI. Den berömda eller ökända latinska slagordet verkar vara helt relevant för denna möjlighet: Vill du ha ipsos custodes?

Frasen tillskrivs den romerske poeten Juvenal och finns i hans verk med titeln satirer, och kan fritt översättas till vem som ska vakta eller titta på vakterna själva. Många filmer och tv-program som t.ex Star Trek har utnyttjat denna linje upprepade gånger.

Det är säkert för att det är en utmärkt poäng.

Visst nog, alla AI-lagar som antas måste omfatta både den dåliga AI och till och med den goda AI som blir dålig. Det är därför det kommer att vara avgörande att skriva vettiga och heltäckande AI-lagar. Lagstiftare som bara försöker slänga slumpmässiga legalese i väggen och hoppas att det håller sig med avseende på AI-lagar kommer att finna att de djupt missar målet.

Det behöver vi inte.

Vi har varken tid eller kan bära de samhälleliga kostnaderna för att klara av bristfälligt utformade AI-lagar. Jag har påpekat att vi tyvärr ibland bevittnar nya AI-relaterade lagar som är dåligt sammansatta och fyllda med alla möjliga juridiska sjukdomar, se till exempel min undersökningsanalys av New York City (NYC) AI Biases revisionslag på länken här.

Låt oss se till att vi på rätt sätt använder AI Bill of Rights-planen som vi nu har i hand om AI. Om vi ​​ignorerar ritningen har vi förlorat på att ha ökat vårt spel. Om vi ​​felaktigt implementerar ritningen, skam på oss för att vi tillskansat oss en användbar grund.

Den uppskattade romerske poeten Juvenal sa något annat som vi kan utnyttja i denna omständighet: Anima sana in corpore sano.

I allmänhet översätts detta till påståendet att det skulle vara klokt att ha både ett sunt eller friskt sinne och en sund eller frisk kropp. Detta tillåter oss att uthärda alla slags slit, enligt Juvenal, och kommer säkerligen att vara den enda vägen till ett liv i fred eller dygd.

Dags för oss att använda ett sunt sinne och en sund kropp för att se till att vi säkerställer att mänskligheten kommer att ha våra mänskliga rättigheter bevarade och stabilt befästa i den framväxande världen av allestädes närvarande och ibland olämplig AI. Det är ett bra råd från romarna som vi borde följa i dagens rusning mitt i en AI-epok och en framtid fylld av både bra och dålig AI.

Källa: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-right-inklusive-och-förvånansvärt-genom-använda-ai-direkt/