Att implantera juridiska resonemang i AI skulle på ett smart sätt kunna uppnå anpassning av mänskliga värden säger AI-etik och AI-lag

I dagens kolumn ska jag väva samman en myriad av till synes olika AI-relaterade ämnen till ett snyggt vävt tyg.

Är du redo?

Föreställ dig att du använder en AI-driven app som hjälper dig när du utför någon form av betydande uppgift. Kanske är frågan ekonomisk eller kan vara hälsorelaterad. Kärnan är att du är beroende av AI:n för att göra rätt sak och prestera på ett förmodat säkert och sunt sätt.

Anta att AI:n svänger in i oetiskt territorium.

Du kanske inte inser att AI gör det.

Till exempel kan AI:n förlita sig på potentiellt dolda diskriminerande faktorer som ras eller kön, även om du kanske inte har några genomförbara sätt att urskilja den ogynnsamma användningen. Där är du, helt ensam, att få den korta änden av pinnen via en AI som antingen har skapats från början på ett problematiskt sätt eller som har lyckats styra in i tråkig och gränsöverskridande etisk fara (jag kommer att säga mer om detta på ett ögonblick).

Vad kan du göra eller vad kan göras åt AI som väljer att gå in på en oetisk väg?

Förutom att i förväg försöka konstruera AI:n så att den inte gör den här typen av lömsk handling, har jag tidigare också berättat att det finns ett ökande intresse för att bädda in en AI etikkontroll komponent i den spirande morasen av annars vilda västern vad som helst AI-system som slängs ut på marknaden. Tanken är att för att försöka förhindra en AI-infunderad app från att gå utanför etiska dimensioner, skulle vi kunna använda ytterligare AI för att göra en check-and-balans. Denna tillagda AI kan vara utanför den riktade AI-appen eller kan vara en komponent inbäddad eller implanterad direkt i AI:n som vi vill dubbelkolla.

Som jag har sagt tidigare, se länken här: “En nyligen framväxande trend består av att försöka bygga in etiska skyddsräcken i AI:n som kommer att fånga när resten av ett AI-system börjar gå bortom förinställda etiska gränser. På sätt och vis är målet att använda själva AI:n för att hindra sig från att gå etiskt fel. Man kan säga att vi siktar på att få AI att läka sig själv" (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI And Trys To Deer Bad AI From Acting Up", forbes28 mars 2022).

Du kan också ha relevant intresse för min bok om AI guardian bots, ibland kallad skyddsänglar, som täcker den tekniska grunden för denna toppmoderna AI-inom-AI-inbäddade dubbelcheckare, se länken här.

Sammanfattningsvis är att ditt bacon tack och lov kan räddas genom att använda ett inbäddat AI-dubbelkontrollerande etikmätande element som har utformats och implanterats i en AI-app som du använder. Men kommer det att räcka som en väktare för att verkligen se till att AI:n inte helt stelar dig och vågar dig in i ens hasher skadlig mark?

Du förstår, AI-appen kan skenbart fungera olaglig fungerar.

Det är en sak att ha AI som går in i en gråzon av vad vi anser vara etiska eller oetiska beteenden. Ett lika förvirrande beteende och sannolikt förvärrad oro innebär AI som bara hoppar hajen som det var och går ner i det skumma mörkret av direkt olagliga handlingar.

Olaglig AI är dåligt. Att tillåta olaglig AI att gå utan uppsikt är dåligt. Vissa juridiska forskare är öppet oroliga för att tillkomsten och genomgripandet av AI gradvis och skrämmande kommer att underminera vår sken av rättsstatsprincipen, se min analys på länken här.

Vänta en sekund, kanske du säger.

Du kanske frestas att tro att AI-utvecklare skulle göra det aldrig programmera sin AI att strida mot lagen. Ofattbar. Endast onda skurkar skulle göra det (vilket förresten kommer ihåg att det finns de som avsiktligt utarbetar och använder AI för onda syften, ett växande område av intresse för brottslingar och andra som vill använda AI för skändliga aktiviteter).

Tyvärr, men det är önsketänkande att anta att alla icke-onda AI-utvecklare strikt kommer att se till att deras AI är helt laglydig. Det kan vara så att AI självjusterar sig och vandrar in i illegal verksamhet. Naturligtvis finns det också potentialen att AI-utvecklarna antingen ville att AI:n skulle agera illegalt eller att de inte var medvetna om vad som utgjorde olagliga kontra juridiska handlingar när de skapade AI:n (ja, detta är fullt möjligt, nämligen att en heads-down helt tekniska AI-team kan vara okunniga om de juridiska skenorna i deras AI, vilket inte är ursäktligt och ändå händer med alarmerande frekvens).

Vad kan man göra om detta?

Återigen, förutom att försöka se till att AI:n utanför porten är järnklädd och laglig, innebär ett ytterligare tillvägagångssätt för att få ånga att bädda in eller implantera en AI-komponent som gör laglig dubbelkontroll för resten av AI-appen. Den här tillagda AI:n sitter tyst och ofta obeskrivlig och observerar resten av AI:n för att försöka urskilja om AI:n kommer att bli skurk eller åtminstone gå förbi gränserna för lagliga eller regulatoriska restriktioner.

Vi har nu två typer av AI-dubbelkontroll som potentiellt är inbäddade i en AI-app:

  • AI Ethics doublechecker: I realtid utvärderar den här komponenten eller AI-tillägget resten av AI:n för etiska och oetiska beteenden som AI:n uppvisar
  • AI Legal dubbelcheckare: I realtid bedömer den här komponenten eller AI-tillägget resten av AI:n för att säkerställa att de håller sig inom lagliga slutstenar och för att fånga upp nya illegala aktiviteter av AI:n

För att förtydliga, det är relativt nya uppfattningar och som sådan kan den AI du använder idag vara i någon av dessa nuvarande förhållanden:

  • AI som inte har några dubbelcheckare alls
  • AI som har en AI Ethics doublechecker inkluderad men inga andra dubbelcheckare
  • AI som har en AI Legal dubbelcheckare inkluderad men inga andra dubbelcheckare
  • AI som har både en AI Ethics doublechecker och en AI Legal doublechecker
  • Övriga

Det finns några markant knepiga aspekter av att ha både AI Ethics-dubbelcheckaren och AI Legal-dubbelcheckaren som arbetar sida vid sida i en AI-app som släkting bror och syster. Det här är en typ av dualism som kan vara svårare att koordinera än du kan anta (jag tror att vi alla vet att bröder och systrar kan ha de hårdaste banden, även om de också kan slåss som tjuvarna då och då och har kraftigt motstånd visningar).

Jag har länge diskuterat den här typen av jobbigt dualism: "En försummad dualism förekommer inom AI för socialt gott som involverar avsaknaden av att omfatta både rollen som artificiell moralisk aktör och artificiellt juridiskt resonemang i avancerade AI-system. Ansträngningar från AI-forskare och AI-utvecklare har tenderat att fokusera på hur man skapar och bäddar in artificiella moraliska agenter för att vägleda moraliskt beslutsfattande när ett AI-system är verksamt på fältet, men har inte också fokuserat på och kopplat användningen av artificiella juridiska resonemangsförmåga. , vilket är lika nödvändigt för robusta moraliska och juridiska resultat" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good," Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Om du skulle vilja fundera på varför det kan finnas spänningar mellan en AI Ethics-dubbelgranskare och en AI Legal-dubbelgranskare, kanske du hittar det här anmärkningsvärda citatet om förvirrande begreppsvärdighet: "Lagen kan tillåta en viss handling, även om den handlingen är omoralisk; och lagen kan förbjuda en handling, även om den handlingen är moraliskt tillåten, eller till och med moraliskt nödvändig” (Shelly Kagan, Moralens gränser, 1998).

Låt oss ändra vårt fokus lite och se hur dessa dubbelpjäser passar ihop med ett annat mycket granskat AI-ämne, nämligen Ansvarig AI eller ett samordnat övervägande av anpassningen av mänskliga värderingar och AI.

Den allmänna uppfattningen är att vi vill ha AI som följer riktiga och önskvärda mänskliga värderingar. Vissa hänvisar till detta som Ansvarig AI. Andra diskuterar på liknande sätt Ansvarig AI, Pålitlig AIoch AI-justering, som alla berör samma hörnstensprincip. För min diskussion om dessa viktiga frågor, se länken här och länken här, bara för att nämna några.

Hur kan vi få AI att överensstämma med mänskliga värderingar?

Som tidigare föreslagits hoppas vi att AI-utvecklare skulle vara medvetna om att utveckla AI som uppnår Ansvarsfull AI-anslutning. Tyvärr kanske de inte, enligt de skäl som tidigare belysts. Dessutom kan de försöka göra det, men ändå slutar AI med att självjustera sig bortom det framträdande området för etiska beteenden eller möjligen till olagliga vatten.

Okej, vi måste då överväga våra praktiska, snygga dubbelcheckare som ett sätt att stödja dessa risker och exponeringar. Användningen av en genomtänkt AI-etik-dubbelcheckare kan väsentligt hjälpa till att anpassa AI till mänskliga värderingar. På samma sätt kan användningen av en genomtänkt AI Legal dubbelcheckare avsevärt hjälpa till att anpassa AI till mänskliga värderingar.

Ett avgörande och ännu inte välkänt sätt att försöka komma fram till Responsible AI, Trustworthy AI, Accountable AI, AI Alignment, etc., skulle innebära användningen av AI-dubbelcheckare som en AI Ethics doublechecker och en AI Juridisk dubbelkontroll som skulle fungera outtröttligt som en dubbelkontroll av AI som de är inbäddade i.

I den här diskussionen skulle jag vilja gå in lite mer i detalj om arten och konstruktionerna av AI Legal dubbelcheckare som kan vara inbäddade i AI. För att göra det kan det vara bra att dela med dig lite ytterligare bakgrund om det övergripande ämnet AI & juridik.

För en no-nonsens undersökning av hur AI och lagen blandas med varandra, se min diskussion på länken här. I min kräsna blick på AI & juridik koppling ger jag denna enkla uppfattning om två viktiga sätt att koppla ihop AI och lagen:

  • (1) Lag som tillämpas på AI: Utformning, antagande och upprätthållande av lagar som tillämpas på reglering eller styrning av artificiell intelligens i vårt samhälle
  • (2) AI-tillämpad lag: Teknik för artificiell intelligens som har utformats och tillämpats i lagen, inklusive AI-baserat juridiskt resonemang (AILR) infunderat i LegalTechs högteknologiska appar för att autonomt eller semi-autonomt utföra advokatuppgifter

Den först listade synpunkten består av att överväga hur befintliga och nya lagar kommer att styra AI. Det andra uppräknade perspektivet har att göra med att tillämpa AI på lagen.

Den senare kategorin innebär vanligtvis att man använder AI-baserade juridiska resonemang (AILR) i olika onlineverktyg som används av advokater. Till exempel kan AI vara en del av ett Contract Life Cycle Management-paket (CLM) som hjälper advokater genom att identifiera avtalsspråk som kommer att vara användbart för att utarbeta nya kontrakt eller kan upptäcka kontrakt som har ett juridiskt önskvärt språk som tillåter missöden eller juridiska kryphål (för min titt på så kallade "laglukter" som kan urskiljas av AI, se länken här).

Vi kommer oundvikligen att låta AI tillämpas på lagen som blir tillgänglig för allmänheten och som inte kräver att en advokat är med i kretsen. Just nu, som ett resultat av olika restriktioner, inklusive UPL (Unauthorized Practical of Law), är tillgängliggörandet av AI-baserade juridiska rådgivningsappar en svår och kontroversiell fråga, se min diskussion på länken här.

Jag tog upp den här introduktionen om AI & Law för att påpeka att en annan instrumentell användning av AI som tillämpas på lagen skulle vara att skapa AI Legal-dubbelcheckare.

Ja, samma typ av tekniska skicklighet som är involverad i att tillämpa AI på lagen kan fungera som en dubbel plikt genom att använda AI:n för att fungera som en inbäddad eller implanterad AI Legal dubbelcheckare. AI Legal-dubbelcheckaren är en komponent som måste vara bevandrad i juridiska aspekter. När resten av AI-appen utför olika åtgärder, mäter AI Legal-dubbelcheckaren om AI-appen gör det lagligt och inom lagliga begränsningar.

En AI Legal dubbelcheckarkomponent behöver inte nödvändigtvis täcka hela skalan av allt som finns att veta om lagen. Beroende på arten av AI-appen vad gäller syftet och åtgärderna för AI:n överlag, kan AI Legal-dubbelcheckaren vara mycket snävare när det gäller den juridiska expertis som den innehåller.

Jag har identifierat ett användbart ramverk för att visa hur AI inom den juridiska domänen sträcker sig över en rad autonoma kapaciteter, så kallade Levels of Autonomy (LoA). För en översikt se min forbes kolumninlägg den 21 november 2022, "The No-Nonsense Comprehensive Compelling Case for Why Lawyers need to know About AI And The Law" på länken här, och för en detaljerad teknisk skildring se min djupgående forskningsartikel i MIT Computational Law Journal av den 7 december 2021, se länken här.

Ramverket belyser fem nivåer av AI som används i juridiska strävanden:

  • Nivå 0: Ingen automatisering för AI-baserat juridiskt arbete
  • Nivå 1: Enkel assistansautomation för AI-baserat juridiskt arbete
  • Nivå 2: Avancerad assistansautomation för AI-baserat juridiskt arbete
  • Nivå 3: Semi-autonom automation för AI-baserat juridiskt arbete
  • Nivå 4: Domän autonom för AI-baserat juridiskt arbete
  • Nivå 5: Helt autonomt för AI-baserat juridiskt arbete

Jag ska kort beskriva dem här.

Nivå 0 anses vara ingen automatiseringsnivå. Juridiska resonemang och juridiska uppgifter utförs via manuella metoder och sker i huvudsak via pappersbaserade arbetssätt.

Nivå 1 består av enkel assistansautomation för AI-rättsliga resonemang. Exempel på denna kategori skulle vara användningen av daglig datorbaserad ordbehandling, användning av dagliga datorbaserade kalkylblad, tillgång till juridiska dokument online som lagras och hämtas elektroniskt, och så vidare.

Nivå 2 består av avancerad assistansautomation för AI-rättsliga resonemang. Exempel på denna kategori skulle inkludera användningen av rudimentär Natural Language Processing (NLP) i frågestil, förenklade delar av maskininlärning (ML), statistiska analysverktyg för förutsägelser av rättsfall, etc.

Nivå 3 består av semi-autonom automatisering för AI-rättsliga resonemang. Exempel på denna kategori skulle inkludera användningen av avancerade kunskapsbaserade system (KBS) för juridiska resonemang, användningen av Machine Learning och Deep Learning (ML/DL) för juridiska resonemang, avancerad NLP, och så vidare.

Nivå 4 består av domänautonoma datorbaserade system för AI-rättsliga resonemang. Denna nivå återanvänder den konceptuella begreppet Operational Design Domains (ODDs), som används för självkörande bilar, men som tillämpas på den juridiska domänen. Juridiska domäner kan klassificeras efter funktionella områden, såsom familjerätt, fastighetsrätt, konkurslagstiftning, miljörätt, skatterätt etc.

Nivå 5 består av helt autonoma datorbaserade system för AI-rättsliga resonemang. På sätt och vis är nivå 5 superuppsättningen av nivå 4 när det gäller att omfatta alla möjliga juridiska domäner. Vänligen inse att det här är en ganska lång order.

Du kan föreställa dig dessa nivåer av autonomi i paritet med liknande användningsområden när du diskuterar självkörande bilar och autonoma fordon (även baserad på den officiella SAE-standarden, se min bevakning på länken här). Vi har ännu inte SAE Level 5 självkörande bilar. Vi går in i SAE Level 4 självkörande bilar. De flesta konventionella bilar är på SAE Level 2, medan några av de nyare bilarna är på väg in i SAE Level 3.

På den juridiska domänen har vi ännu inte nivå 5 AILR. Vi berör någon nivå 4, men i extremt snäva ODDs. Nivå 3 börjar se dagens ljus, medan stöttepelaren i AILR idag i första hand ligger på nivå 2.

En nyligen genomförd forskningsartikel om AI tillämpad på lagen har anfört en typificering som kallas Lagen informerar koden. Forskaren säger detta: "Ett av de primära målen för Lagen informerar koden agendan är att lära AI att följa lagens anda" (John J. Nay, "Law Informs Code: A Legal Informatics Approach to Justing Artificial Intelligence with Humans", Northwestern Journal of Technology and Intellectual Property, volym 20, kommande). Det finns några viktiga överväganden som Lagen informerar koden mantra tar upp och jag ska leda dig genom flera av dessa keystone-föreskrifter.

Innan jag dyker in i ämnet vill jag först lägga en viktig grund om AI och särskilt AI-etik och AI-lag, för att se till att diskussionen blir kontextuellt förnuftig.

Den ökande medvetenheten om etisk AI och även AI-lag

Den senaste tiden av AI ansågs ursprungligen vara AI For Good, vilket betyder att vi kan använda AI för att förbättra mänskligheten. I hälarna på AI For Good kom insikten att vi också är nedsänkta i AI för dåligt. Detta inkluderar AI som är framtagen eller självförändrad till att vara diskriminerande och gör beräkningsval som genomsyrar onödiga fördomar. Ibland är AI:n byggd på det sättet, medan den i andra fall svänger in i det ogynnsamma territoriet.

Jag vill försäkra mig mycket om att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om sentient AI, skulle den här diskussionen kunna gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Jag skulle starkt föreslå att vi håller saker nere på jorden och överväger dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Var mycket försiktig med att antropomorfiera dagens AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Jag har också nyligen undersökt AI Bill of Rights vilket är den officiella titeln på det amerikanska regeringens officiella dokument med titeln "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årslång insats av Office of Science and Technology Policy (OSTP) ). OSTP är en federal enhet som tjänar till att ge råd till den amerikanske presidenten och US Executive Office om olika tekniska, vetenskapliga och tekniska aspekter av nationell betydelse. I den meningen kan du säga att denna AI Bill of Rights är ett dokument som godkänts av och godkänts av det befintliga amerikanska Vita huset.

I AI Bill of Rights finns det fem nyckelstenskategorier:

  • Säkra och effektiva system
  • Algoritmiskt diskrimineringsskydd
  • Dataintegritet
  • Meddelande och förklaring
  • Mänskliga alternativ, hänsyn och fallback

Jag har noggrant granskat de föreskrifterna, se länken här.

Nu när jag har lagt en användbar grund för dessa relaterade AI-etik- och AI-rättsämnen, är vi redo att hoppa in i det berusande ämnet AI Legal-dubbelcheckare och riket av Lagen informerar koden.

AI Legal Double-Checkers inbäddade i AI för anpassning av mänskliga värden

Jag hänvisar ibland till AI Legal Double-Checkers via en akronym av AI-LDC. Detta är lite visuellt skärande för dem som inte är bekanta med akronymen. Som sådan kommer jag inte att använda denna speciella förkortning i den här diskussionen men ville nämna det för dig som en heads-up.

För att ta upp några av komplexiteten hos AI Legal-dubbelcheckare, låt oss ta upp dessa huvudpunkter:

  • Användning av AI Legal dubbelpjäser som en mekanism för anpassning av mänskliga värden för AI
  • Mer expansiv AI kommer på motsvarande sätt att kräva mer robusta AI Legal dubbelpjäsare
  • AI Juridiska dubbelkontrollanter stiftar lagen och stiftar i synnerhet inte lag (förmodligen)
  • Delikat balans mellan AI Juridisk gestaltning av lagen som regler kontra standarder
  • Kräver bevis på puddingen när det gäller att AI följer lagen

På grund av utrymmesbegränsningar kommer jag bara att täcka de fem punkterna för nu, men håll utkik efter ytterligare täckning i min kolumn som täcker ytterligare och lika anmärkningsvärda överväganden om dessa snabbt utvecklande och framåtgående frågor.

Sätt i säkerhetsbältet just nu och gör dig redo för en uppfriskande resa.

  • Användning av AI Legal dubbelpjäser som en mekanism för anpassning av mänskliga värden för AI

Det finns många sätt att försöka uppnå en harmonisk anpassning mellan AI och mänskliga värderingar.

Som tidigare nämnts kan vi producera och sprida AI-etiska föreskrifter och försöka få AI-utvecklare och de som arbetar med och driver AI att följa dessa nyckelstenar. Tyvärr kommer inte detta ensamt att göra susen. Du har några upptänkare som oundvikligen inte kommer att få budskapet. Du har några konstigheter som kommer att stoltsera med etisk AI och försöka kringgå de något lösaktiga föreskrivna principerna. Och så vidare.

Användningen av "mjuka lagar"-metoder som innebär AI-etik måste nästan obönhörligt paras med "hårda lagar"-vägar som att anta lagar och förordningar som kommer att skicka en rejäl signal till alla som skapar eller använder AI. Lagens långa arm kan komma för att få dig om du inte vettigt utnyttjar AI. Ljudet av klirrande fängelsedörrar kunde få skarp uppmärksamhet.

Ett stort problem är dock att ladddörren ibland redan har släppt ut hästarna. En AI som används kommer potentiellt att producera alla möjliga olagliga handlingar och fortsätta att göra det tills det inte bara blir fångat, utan också när en viss tillsyn äntligen tar steget upp för att stoppa flödet av olagliga handlingar. Allt detta kan ta tid. Samtidigt skadas människor på ett eller annat sätt.

In i denna razzia kommer dubbelcheckaren AI Legal.

Genom att vistas i en AI-app kan AI Legal-dubbelcheckaren omedelbart upptäcka när AI:n verkar gå i strid med lagen. AI Legal-dubbelcheckaren kan stoppa AI:n i dess spår. Eller så kan komponenten varna människor om de upptäckta olagliga aktiviteterna, att göra det i tid som kan få tillsyningsmän att vidta brådskande korrigerande åtgärder. Det finns också den övervägda formaliserade loggningen som komponenten skulle kunna skapa, vilket ger en påtaglig sken av ett revisionsspår i syfte att kodifiera AI:s negativa handlingar.

Våra lagar sägs vara en form av multi-agent konglomeration så att lagarna oundvikligen är en blandning av vad samhället har försökt skapa som en balans mellan sannolikt motstridiga åsikter om korrekt och olämpligt samhälleligt beteende. En AI Legal-dubbelcheckare baserad på våra lagar förkroppsligar därför den blandningen.

Noterbart är att detta är mer än att bara programmera en lista med definitiva rättsregler. Lagar tenderar att vara mer formbara och strävar mot övergripande standarder, snarare än att specificera de minsta mikroskopiska reglerna. Komplexiteterna är rikliga.

För att återgå till det tidigare noterade forskningsdokumentet, så här kan dessa överväganden också ses när det gäller AI Alignment-strävan: "Law, den tillämpade filosofin för multi-agent alignment, uppfyller unikt dessa kriterier. Anpassning är ett problem eftersom vi inte kan ex ante specificera regler som helt och bevisligen styr ett gott AI-beteende. På samma sätt kan parterna i ett juridiskt avtal inte förutse alla oförutsedda händelser i deras förhållande, och lagstiftare kan inte förutse de specifika omständigheter under vilka deras lagar kommer att tillämpas. Det är därför mycket av juridik är en konstellation av standarder” (ibid).

Att införliva lag i en AI Legal-dubbelcheckare är mycket mer utmanande än du först kan anta.

När AI utvecklas kommer vi att behöva utnyttja sådana framsteg i enlighet med detta. Det visar sig att det som är bra för gåsen också är bra för gåsen. De av oss som gör framsteg inom AI som tillämpas på lagen pressar gränsen för AI och skapar otvivelaktigt nya framsteg som i slutändan kan bidra till AI-framsteg helt och hållet.

  • Mer expansiv AI kommer på motsvarande sätt att kräva mer robusta AI Legal dubbelpjäsare

En katt-och-mus-gambit konfronterar detta ämne.

Chansen är stor att när AI blir mer avancerat kommer alla AI Legal-dubbelcheckarkomponenter att få allt svårare att hantera. Till exempel kan en AI-app som granskas ha nyligen utarbetade superluriga sätt att dölja de olagliga åtgärder som AI:n utför. Även om AI:n inte tar en underhandsväg, kan den övergripande komplexiteten hos AI:n ensamt vara ett skrämmande hinder för att försöka få AI Legal-dubbelcheckaren att bedöma.

Så här blir detta särskilt betydelsefullt.

Anta att en AI-utvecklare eller något företag som använder AI proklamerar att det finns en AI Legal-dubbelcheckare som har bäddats in i den AI-baserade appen. Voila, de verkar nu ha tvättat händerna från ytterligare bekymmer. AI Legal-dubbelcheckaren tar hand om allt.

Inte så.

AI Legal-dubbelcheckaren kan vara otillräcklig för arten av den inblandade AI-appen. Det finns också möjligheten att AI Legal-dubbelcheckaren blir föråldrad, kanske inte uppdaterad med de senaste lagarna som gäller AI-appen. En mängd anledningar kan förutses till varför blotta närvaron av en AI Legal-dubbelcheckare inte kommer att vara en silverkula.

Betrakta dessa insikter från den tidigare citerade forskningen: "Som den senaste tekniken för AI går framåt, kan vi sätta iterativt högre ribbor för visad juridisk förståelse. Om en utvecklare hävdar att deras system har avancerade funktioner för uppgifter, bör de visa motsvarande avancerad juridisk förståelse och juridiska resonemangsförmåga hos AI:n, som praktiskt taget inte har några svårighetsgränser när de överväger myllret av lagar och förordningar över tid, prejudikat och jurisdiktion ” (ibid).

  • AI Juridiska dubbelkontrollanter stiftar lagen och stiftar i synnerhet inte lag (förmodligen)

Jag är säker på att några av er är förfärade över tanken på att ha dessa AI Legal dubbelpjäsare.

En ofta uttryckt oro är att vi uppenbarligen kommer att tillåta AI att bestämma våra lagar åt oss. Herregud, kanske du tänker, någon bit av automatisering kommer att gå om mänskligheten. Dessa förbannade inbäddade AI Legal dubbelcheckare kommer att bli standardkungarna i våra lagar. Vad de än gör kommer att vara vad lagen verkar vara.

Människor kommer att styras av AI.

Och dessa AI Legal dubbelpjäser är den hala backen som tar oss dit.

Ett motargument är att sådant prat är grejen med konspirationsteorier. Du postulerar vilt och får dig själv i en tizzy. Verkligheten är att dessa AI Legal-dubbelpjäser inte är medvetna, de kommer inte att ta över planeten, och att hypa om deras existentiella risk är helt enkelt absurt och oerhört överskattat.

Allt som allt, för att förbli med en lugn och motiverad hållning, måste vi vara medvetna om att AI Legal dubbelpjäser tjänar till att på lämpligt sätt återspegla lagen och inte av design och inte heller av misstag gå vidare till att på något sätt gå in i den vördade sfären att göra lag. Bortsett från sentience-extrapoleringarna kan vi verkligen hålla med om att det finns en verklig och pressande oro för att AI Legal-dubbelcheckaren kan sluta med att felaktigt framställa den sanna naturen hos en given lag.

I sin tur skulle du kunna hävda att därför just den där "felaktiga" lagen görs på nytt eftersom den inte längre på ett lämpligt sätt betecknar vad som var avsett med den faktiska lagen. Jag litar på att du ärligt talat kan se hur detta är en subtil men talande betraktelse. När som helst kan AI Legal-dubbelcheckaren på virtuell basis skapa eller ska vi säga "hallucinera" nya lagar helt enkelt genom hur AI-komponenten tolkar lagen som ursprungligen angavs eller förkroppsligades i AI:n (för min täckning) av AI så kallad hallucinationer, Se länken här).

Man måste vara försiktig med detta.

När det gäller detta ämne ger den tidigare nämnda forskningsstudien denna parallella tanke när det gäller att försöka undvika att korsa den heliga gränsen: "Vi siktar inte på att AI ska ha legitimitet att stifta lag, skapa juridiska prejudikat eller upprätthålla lag. I själva verket skulle detta undergräva vårt tillvägagångssätt (och vi bör investera betydande ansträngningar för att förhindra det). Snarare är det mest ambitiösa målet med Law Informing Code att beräkningsmässigt koda och inbädda generaliserbarheten av befintliga juridiska koncept och standarder i validerad AI-prestanda” (ibid).

  • Delikat balans mellan AI Juridisk gestaltning av lagen som regler kontra standarder

Lagar är röriga.

För nästan vilken lag som helst i böckerna finns det sannolikt en mängd tolkningar av vad lagen föreskriver i praktiken. På AI-området hänvisar vi till lagar som semantiskt tvetydiga. Det är det som gör att utveckla AI som tillämpas på lagen till en så spännande och samtidigt irriterande utmaning. Till skillnad från den exakta siffran som du kan se för till exempel finansiellt orienterade AI-tillämpningar, innebär önskan att förkroppsliga våra lagar i AI att hantera en tsunami av semantiska tvetydigheter.

I min stiftelsebok om grunderna för AI Legal Reasoning (AILR) diskuterar jag hur tidigare försök att enbart kodifiera lagar till en uppsättning avgränsade regler inte fick oss så långt som vi skulle vilja gå på det juridiska området (se länken här). Dagens AILR måste omfatta en integration mellan användningen av regler och vad som kan kallas övergripande standarder som lagen representerar.

Denna viktiga balans kan uttryckas på detta sätt: "I praktiken landar de flesta lagbestämmelser någonstans på ett spektrum mellan ren regel och ren standard, och juridisk teori kan hjälpa till att uppskatta den rätta kombinationen av "regel-het" och "standard-het" när man specificerar mål för AI-system” (ibid).

  • Kräver bevis på puddingen när det gäller att AI följer lagen

Att vilja något är annorlunda än att ha något.

Den där biten av visdom dyker upp när vi föreslår att även om vi kanske vill ha AI Legal-dubbelpjäser, så måste vi i stort sett försäkra oss om att de fungerar och fungerar korrekt. Observera att detta utgör ytterligare ett tufft och ansträngande hinder. Jag har tidigare täckt de senaste framstegen och utmaningarna inom verifiering och validering av AI, se länken här.

Som noterats i forskningsartikeln: "För att ta itu med klyftan, innan AI-modeller distribueras i allt mer agentskaper, t.ex. helt autonoma fordon på större vägar, bör den utplacerande parten visa systemets förståelse för mänskliga mål, policyer och juridiska standarder. Ett valideringsförfarande skulle kunna illustrera AI:s 'förståelse' av 'innebörden' med juridiska begrepp” (ibid).

Slutsats

Jag uppmanar dig att överväga att följa med mig på denna ädla strävan att bygga och sätta in AI Legal dubbelpjäsare. Vi behöver mer uppmärksamhet och resurser som ägnas åt denna dygdiga strävan.

Detta ger också dubbel skyldighet, som tidigare nämnts, för att uppnå AI Legal Reasoning (AILR) som kan användas för att bistå advokater och potentiellt användas direkt av allmänheten. Vissa hävdar faktiskt häftigt att det enda genomförbara sättet att nå en fullständigare känsla av tillgång till rättvisa (A2J) kommer att vara genom att skapa AI som förkroppsligar juridisk kapacitet och kan nås av alla.

En snabb sista punkt för nu.

Diskussionen hittills har betonat att AI Legal-dubbelcheckaren skulle bäddas in eller implanteras i AI. Detta är verkligen det primära fokuset för dem som forskar och bedriver denna framväxande värld.

Här är en fråga värd att fundera över.

Sätt på dig din tankemössa.

Varför inte använda AI Legal dubbelcheckare i all programvara?

Kontentan är att snarare än att uteslutande använda AI Legal dubbelpjäser i AI, kanske vi borde vidga vår synvinkel. Alla typer av programvara kan komma på rätt sätt på avvägar. AI har visserligen fått lejonparten av uppmärksamheten på grund av de sätt som AI vanligtvis används på, som att ta magslitande beslut som påverkar människor i deras vardag. Du kan dock lätt hävda att det finns många icke-AI-system som gör detsamma.

I grund och botten borde vi inte låta någon programvara ha en gratis åktur för att undvika eller avvärja lagen.

Minns också tidigare att jag nämnde de två kategorierna att kombinera AI och lagen. Vi har här fokuserat på användningen av AI som tillämpas på lagen. På andra sidan av myntet är tillämpningen av lagen på AI. Anta att vi stiftar lagar som kräver användning av AI Legal dubbelcheckare.

Detta kan till en början vara begränsat till AI-system, särskilt de som bedöms som särskilt högrisk. Gradvis kan samma krav på AI Legal dubbelkontroll utökas till icke-AI-programvara också. Återigen, inga gratisresor.

Medan du funderar på ovanstående övervägande, ska jag piffa upp det som en avslutande teaser. Om vi ​​ska försöka kräva AI Legal dubbelpjäsare, kan vi lika gärna också göra det om AI Ethics dubbelpjäsare. Användningen av en AI Legal-dubbelcheckare är bara halva historien, och vi kan inte försumma eller glömma AI-etikproblemen också.

Jag avslutar denna glada diskurs med ett av mina favoritcitat. Enligt de kloka orden av Earl Warren, den berömda jurist som tjänstgjorde som chefsdomare i USA: "I det civiliserade livet flyter lagen i ett hav av etik."

Det kan vara bäst att flitigt använda dessa spirande och bubblande AI Legal dubbelcheckare och AI Ethics doublecheckers om vi vill hålla huvudet ovanför potentiellt hotande tunga sjöar från sura AI och dova icke-AI-system som äventyrar vår säkerhet .

De kan vara mänsklighetens flytväst.

Källa: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- och-ai-lag/