Det no-nonsens omfattande övertygande fallet för varför advokater behöver veta om AI och lagen

Handsken hade kastats.

Du förstår, jag var den inbjudna huvudtalaren på en stor juridisk industrikonferens och mitt förebådade ämne var helt och hållet i mitt styrhus, nämligen artificiell intelligens (AI) och lagen (vanligtvis myntad som AI & juridik).

Istället för att bli helt förebådad är kanske den mer passande formuleringen att säga att ämnet möttes av en blandning av spänning av vissa och direkt ögonbrynshöjande skepsis av andra. Den samlade samlingen av flera hundra advokatbyråpartners och associerade mumlade och ifrågasatte subtilt om något om AI och lagen särskilt behövde kännas till av dem. AI uppfattades allmänt som ett tema i skyen. Ovanpå det påståendet var AI i kombination med lagen lika eller ännu längre vid utsträckningen av vad dagliga hårt arbetande advokater verkar tänka på.

Jag vågade mig ivrigt in i denna lite armveckade visa-mig-degel.

Det gläder mig att kunna säga att mina kommentarer blev väl upptagna och responsen var ganska positiv, inklusive att det här var första gången många av dem någonsin hörde ett nonsens övertygande och omfattande fall för varför advokater borde veta om AI och lagen. Diskussionen fick igång de förstklassiga juridiskt sinnade redskapen och deltagarna hade mycket att idissla om.

Låt oss se om detsamma kan sägas om de av er som kan vara intresserade eller åtminstone fascinerade av AI & juridik ämne.

Här går vi.

För det första är det en viktig aspekt att känna till AI & juridik består av två sammanflätade föreställningar.

Enkelt uttryckt är de:

  • (1) Lag som tillämpas på AI: Utformning, antagande och upprätthållande av lagar som tillämpas på reglering eller styrning av artificiell intelligens i vårt samhälle
  • (2) AI-tillämpad lag: Teknik för artificiell intelligens som har utformats och tillämpats i lagen, inklusive AI-baserat juridiskt resonemang (AILR) infunderat i LegalTechs högteknologiska appar för att autonomt eller semi-autonomt utföra advokatuppgifter

Jag vill med eftertryck klargöra att dessa är både vältrogna och snabbt växande sätt på vilka AI och lagen kombineras.

Många advokater är bara bekanta med det ena eller det andra av de två perspektiven, eller ofta inte bekant med något av de två.

Beroende på dina advokatpreferenser är det helt okej att koncentrera sig på en av de två och inte särskilt fokusera på den andra. I stort sett är advokater som verkar mindre benägna att ha ett intresse för teknik skyldiga att hålla ögonen på lagen som tillämpas på AI, där du inte nödvändigtvis behöver lägga händerna på tekniken i sig. De advokater som tycks njuta av den högteknologiska infusionen i den juridiska sfären är mer benägna att dras mot AI:s sfär som tillämpas på lagen.

Du är välkommen att anamma båda aspekterna och göra det med huvudet högt.

Överväganden som inbegriper lagen som tillämpas på AI

Jag ska först här göra lite matig uppackning av lagen som tillämpas på AI.

När du hänvisar till lagen som tillämpas på AI, bör du omedelbart tänka på den framväxande litanien av nya lagar som försöker styra tillkomsten av AI-system. Lagar dyker upp som en löpeld. Internationella lagar kommer fram AI & juridik, även federala lagar, även statliga lagar och många lokala lagar, se min pågående bevakning på länken här och länken här, bara för att nämna några.

Varför bevittnar vi plötsligt att AI-relaterade lagar blir pirriga?

Det är lätt att svara på.

För bara några år sedan hyllades den senaste eran av AI som tillhandahållande AI For Good. Detta innebar att AI uppfattades som erbjudits för samhällets bästa. Det varade inte särskilt länge. Till exempel började folk upptäcka att AI-baserad teknik för ansiktsigenkänning lätt kunde generera falska indikationer och prestera på till synes diskriminerande sätt (se min bevakning på länken här). Detsamma kan sägas om AI som användes för anställningsändamål. På och på började oron stiga.

AI för dåligt hade kommit (nåja, den fanns där hela tiden, men nu märktes det).

Hur ska vi hantera AI för dåligt?

Det snabba svaret var att identifiera mjuka lagar som består av AI-etiska föreskrifter.

Dessa etiska AI-riktlinjer angående utarbetandet av AI och fältet av AI är till viss del stopp samtidigt som mer mödosamma ansträngningar görs för att genomföra hårda lagar. Jag vill dock inte lämna intrycket av att AI-etik och etisk AI på något sätt inte längre kommer att behövas när det väl finns ett överflöd av lagar som finns i boken. Inte alls. Vi kommer ständigt och alltid att behöva AI-etik som en nödvändig kompletterande följeslagare till formella lagar. Allt som händer just nu med AI Ethics kommer att behöva förbli intakt och vara det ultimata bindande limet för att hålla AI på väg i rätt riktning.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noga i mina kolumninlägg:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här. Jag har också fördjupat undersökt de olika AI-etiska principerna och riktlinjerna som många nationer har identifierat och antagit, inklusive till exempel FN:s ansträngning såsom Unescos uppsättning av AI-etik som nästan 200 länder antog, se länken här.

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Det krävs en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Att flytta vår diskussion till arenan för den hårda lagen, mycket händer.

I USA, den Algorithmic Accountability Act slingrar sig en tum i taget genom kongressen, medan EU och dess föreslagna Artificiell intelligenslag (AIA) går vidare med ett till synes mer häftigt klipp. Du kan också finna av intresse att en sk AI Bill of Rights avslöjades nyligen av den befintliga amerikanska Vita husets administration, i syfte att definiera mänskliga rättigheter i en tid av AI, se min analys på länken här (observera att uttalandet var icke bindande och saknar lagkraft).

En daglig advokat kanske rycker på axlarna och säger att all denna energi som är förknippad med AI-etik och de gradvis landande lagarna om AI är av tomgångsintresse. Hela saken är förvisso milt underhållande, men den har ingen nämnvärd vikt på deras befintliga ansträngningar.

Låt oss nudla på det här.

Anta att du har en klient som är ett stort företag och att du tillhandahåller externa juridiska tjänster till klienten. Det visar sig att den här klienten har använt flera AI-system för att göra sin verksamhet mer effektiv och effektiv. Bra för dem, kanske du tänker, även om det inte berör dig.

Verkligen?

Klienten anammar dessa AI-applikationer och efter en stunds användning av dem hamnar han i stämningar av kunder som hävdar att AI:n agerade på ett diskriminerande eller otillbörligt partiskt sätt. Dessutom, låt oss gå vidare och föreställa oss att flera lagar på lokal, statlig och federal nivå som är inriktade på AI har antagits. Klienten står inte bara inför civilrättsliga stämningar, utan de jagas nu också för potentiella brottsliga handlingar som begåtts via AI-antagande och fältmätning.

Var var du när allt detta hände?

Tydligen bryr jag sig inte ett dugg om AI och om AI och lagen var på väg.

Skäms på dig. Ännu värre, du kan bli summariskt utslängd av klienten. Ännu värre utöver det värre är att du kan ställas inför anklagelser om juridiskt felbehandling för att du inte i rätt tid och klokt har givit företaget råd medan det hoppade in i AI-morass.

Du sov vid det juridiska ratten.

Advokater som är kunniga om AI är snabba med att påpeka att American Bar Association (ABA) redan har gett officiella råd om ämnet AI-användning och juridik. Enligt ABA-resolutionen som antogs i augusti 2019 (ja, du läste det rätt, detta hände för över 3 år sedan), här är affären om AI:

  • "LÖST, att American Bar Association uppmanar domstolar och advokater att ta itu med de framväxande etiska och juridiska frågorna relaterade till användningen av artificiell intelligens ("AI") i utövandet av juridik, inklusive (1) partiskhet, förklaringsbarhet och insyn i automatiserade beslut tillverkad av AI; (2) etisk och fördelaktig användning av AI; och (3) kontroller och tillsyn över AI och de leverantörer som tillhandahåller AI."

I den meningen kan ett något övertygande argument framföras att advokater har en skyldighet att vara medvetna om AI och se till att de juridiskt ger sina klienter råd i enlighet därmed (för min detaljerade analys om detta, se länken här).

Om du noggrant läser det ovannämnda tillkännagivandet är det visserligen lustfyllt så att du kan lita på formuleringen att den bara "manar" dig att ta itu med AI-frågan, snarare än att tvinga dig att göra det. Detta kan komma som en lättnadens suck.

Men det kan bli en kortvarig andningspaus.

Först kan man säga att du blev uppmärksammad av ABA om vikten av AI i lagen.

För det andra, om du helt har ignorerat vägledningen, kan detta komma att hållas emot dig av en smart felbehandlingsadvokat som försöker gå efter dig på uppdrag av din sura och djupa fickor.

För det tredje, även om du uppenbarligen skulle försöka motargumentera att den påstådda föreskriften är icke-bindande i sin slappa ordalydelse, är chansen stor att en domstol kanske inte ser det på det sättet, och inte heller skulle en jury troligen vara särskilt sympatisk till ditt försök att skära orden . De kan tolka andemeningen i resolutionen och väga den över den exakta formuleringen av förklaringen.

Snurra på hjulet och se hur det går.

Observera också att även om scenariot involverade dina juridiska tjänster som externa rådgivare, kom ihåg att interna rådgivare som Chief Legal Officer (CLO), General Counsel (GC) eller andra företagsjurister är oupplösligt i samma spel också. För de av er som tillhandahåller intern juridisk rådgivning, kommer det att komma tillbaka och förfölja dig om du enbart låter AI utvecklas eller adopteras inom ditt företag. Det är ett garanterat järnklädd varselresultat.

Den vanligaste reaktionen på denna styrning av AI-överväganden är att den verkligen måste inte gäller dig eftersom du inte gör juridiskt arbete för teknikföretag (låt oss anta att det är fallet). Visst, om du var genomsyrad av ett teknikföretag, kan allt detta vara relevant. Men du är juridisk rådgivare för eller inom ett icke-tekniskt företag. Företaget tillverkar inte AI. De är inte teknikorienterade.

Gå tillbaka och läs noggrant om vad scenariot bestod av.

Medan uppmärksamheten på AI ursprungligen involverade högteknologiska företag som tänkt AI, den större bilden är att nästan varje företag oavsett storlek eller form är inkrementellt antagande AI-system. De är användare av AI. I sin tur är deras produkter och tjänster beroende av AI.

Jag gissar att du kommer att försöka argumentera för att eftersom dessa företag bara anammade AI, så är de magiskt borta när AI går snett. Allt du behöver göra är att säga till alla som knackar på den juridiska dörren att de ska gå ner på gatan till företaget som utvecklade AI.

Bra försök, men kommer utan tvekan att fungera.

Oddsen är att företaget som använder AI kommer att blandas in i alla juridiska förvecklingar, särskilt om de är ett stort företag och AI-tillverkaren är ett litet företag. Sätt fötterna i skorna på den advokat som försöker stämma. Det stora företaget har de stora pengarna. Skaffa det lilla företaget och gå efter det stora företaget. Naturligtvis kommer alla möjliga slagsmål att hända om licensiering och resten. Ändå är det stora företaget det saftiga målet, och ingen advokat värd sitt salt kommer att ge upp att gå efter det.

För att lägga bränsle till den elden, är chansen stor att det stora företaget valde att göra anpassningar eller få AI:n "utbildad" för att använda data från det stora företaget. Oj, du är inte längre på någon form av armlängds avstånd från företaget som var AI-tillverkaren. Du tog in AI och gjorde den i princip till din egen. Borta är det skenbara skyddet att du var oskyldig. Ditt företag har avsiktligt modifierat eller skräddarsytt AI:n, för vilken AI nu är en del av ditt stora företag.

Lev med det, äg det.

Det finns mer för att få huvudet att snurra ytterligare.

De nya lagarna som håller på att byggas upp som flygplan som fastnat i ett flygmönster på en stor flygplats kommer att ha alla typer av röriga juridiska frågor inbäddade i sig. Lagstiftare stör dessa juridiska leriga mardrömmar genom lagstiftande pipeline. Alla vill vara de första att visa upp att de håller på AI för dåligt. Härlighet väntar, tillsammans med att hjälpa dem som skadas av dålig AI.

Det finns dock problem med denna korvtillverkning. Det juridiska språket är ofta inte genomtänkt. Kryphål finns. Felaktig formulering råder. Etc.

Du kan tolka detta som antingen en laglig gräv eller en laglig jackpott, beroende på vilken sida av staketet du kan vara när du försöker tolka dessa lagar. Se till exempel min analys av den där vaga och oroväckande lagen i New York City (NYC) om AI Biases Auditing som är planerad att gå live i januari och kommer att bli ett enormt problem för tusentals och åter tusentals företag (stora och små) i New York Stad, se länken här.

Så vi ser en våg av lagar som är koncentrerade på AI.

Det är inte allt. Vi kommer att ha till synes ägnade lagar för AI, och dessutom kommer AI också att nämnas antingen djupt eller blygsamt i lagar som till synes är tangentiella till AI. Om du tänker på det behöver du inte oroa dig AI & juridik eftersom det är en extremt snäv juridisk nisch skulle jag föreslå att du omkalibrerar det närsynta tänkandet.

En ytterligare twist är att vi kommer att ha nya lagar som innehåller en del juridiska tumbullar om AI, som då nästan säkert kommer att stå i konflikt med befintliga lagar som inte nämner AI. Kort sagt, du kanske är helt bekväm med vissa befintliga lagar, eftersom du känner till det som din egen kropp. Nästa sak som händer är att någon obskyr ny lag kommer och nämner AI. Det visar sig att den nya lagen korsar den älskade icke-AI-lagen som du kan utantill.

Är du redo att brottas med hur de nya lagarna som inkluderar AI strider mot befintlig lag som inte nämner AI?

Föreställ dig detta scenario.

En av dina favoritkunder har varit nöjd med dina juridiska tjänster, år efter år. Du känner till fullo och utan några som helst kvalifikationer till de lagar som gäller denna klient. Du kan recitera lagarna med ögonbindel.

En ny lag antas som inkluderar olika delar associerade med AI. Du uppmärksammar inte den här nya lagen eftersom lagens tema eller fokus inte verkar vara direkt relaterad till de lagar som du anser är relevanta för kunden.

En smart advokat som noggrant har studerat denna nya lag inser att AI-elementet öppnar dörren till ditt juridiska område. Helt plötsligt och till din chock och förvåning lyckas den här andra advokaten hitta en klient som tror att de har skadats lagligt av din klient. Passagen som förbinder prickarna är denna nya lag som kan sträckas ut i din normalt stilla juridiska arena.

Du såg det aldrig komma.

Om du tror att din specialitet i juridik på något sätt är immun mot AI-invasionen, var försiktig med att göra det där fräcka och så småningom falska antagandet. Nämn en juridisk specialitet så kan jag lätt peka ut hur AI kommer till den staden. Straffrätt? Självklart. Familjerätt? Ja. Skattelag? Självklart. Sjörätt? Japp. Listan fortsätter.

Ursäkta om det verkar skrämmande och lite överväldigande.

Det är utan tvekan något som få advokater är medvetna om.

En jordbävning kommer, men få förbereder sig för den. Vissa vet inte att jordbävningen börjar mullra. Andra tror att det inte kommer att påverka dem. När jordbävningen inträffar, först då kommer den juridiska AI-bekräftelsen att tända några glödlampor.

Okej, hittills har jag hamrat på hård lag aspekter. Jag tror att den mjuka lagsidan blir avundsjuk. Här är vad jag menar.

Föreställ dig detta. En klient som du har utfört juridiska tjänster för väljer att anamma AI-etik. Låt oss för tillfället anta att det inte finns några hårda lagar som upprätthåller denna etiska AI-adoption. Kunden ville göra "rätt sak" och ergo bestämde sig för att visa upp för världen att de är helt ombord på AI Ethics.

Det är trevligt.

Du kanske inte är medveten om att de har beslutat att införliva AI-etik i sin företagskultur. Eller, du kanske är medveten om det, men tänkte att det inte var något av intresse för dig. Det är bara en mjuk lag-strategi. Vem bryr sig om det? Inte du.

Några månader ner på gäddan och företaget halkar upp. De gav bara läpparnas bekännelse till dessa etiska AI-principer. Det var främst ett reklamtrick. Samtidigt är den AI som de har tagit in i företaget fylld av alla möjliga kränkningar av etiska AI.

Det är inte bra.

En smart advokat som vill ta itu med din klient lagligt kommer sannolikt att tacka sina lyckliga stjärnor för att AI-etiken ägde rum. Om din klient aldrig hade sagt något om etisk AI, kanske det finns en chans att de kunde spela gambiten att inte veta vad de inte visste. Istället bråkade de om att veta om AI-etik. Till viss del har de hållit ut sig till en högre nivå av ansvar för vad de gjort med sin AI.

Uppmärksammade du dem på detta när de började, och hjälpte du dem att juridiskt överväga arten av AI-etiken och hur de som företag skulle använda dem?

Fan, var inte i din borgen.

Jag skulle kunna fortsätta och fortsätta, men jag litar på att temat kommer fram högt och tydligt.

Advokatbyråer som är på tårna börjar inse bonanzan i samband med att erbjuda juridiska tjänster som kretsar kring AI. De börjar etablera nya metoder inom sin advokatbyrå som har AI & juridik som specialitet.

De inom AI & juridik specialiteter kan ge råd om befintliga och potentiella kunder om deras AI-adoptioner. Dessutom försöker de AI-minded partners och associates att samarbeta och informera över alla andra juridiska linjer eller specialiteter inom företaget, för att se till att dessa andra områden inte blir förblindade av nya AI-lagar, inklusive tangentiella sådana.

Interna rådgivare lägger också sakta till juridisk begåvning AI & juridik (främst i företag som inser att de är översvämmade av AI) eller att tilldela ivriga att få utbildade advokater som blir en praktisk intern resurs om det juridiska ämnet för AI. De kommer sannolikt fortfarande att använda en extern juridisk resurs för större AI-relaterade frågor, men genom att ha intern talang har de en pålitlig intern medlem av det juridiska teamet som kan fungera som den avgörande länken mellan vad företaget är gör och de sannolikt djupare AI-kunniga juridiska kapaciteterna hos en extern rådgivare.

Jag vill inte antyda att det här händer över en natt som om en trollstav har viftats.

Advokatbyråer är kända eller ska vi säga ökända för att vara långsamma att förändra.

Dessutom, tills marknadsplatsen ropar efter AI & juridik talang, kommer de flesta advokatbyråer att ta ett avvaktande tillvägagångssätt. Om marknaden uppstår, voila, kommer de antagligen att ta en hel-hog-strategi och skaffa den nya talang som behövs. Det är den klassiska just-in-time (JIT) strategin för att handla in och byta ut juridiska tjänster.

Mindre advokatbyråer eller solopraktiker kommer med all säkerhet att hamna i en svår situation. Å ena sidan, om det finns en bock att tjäna i AI & juridik domän verkar det här väldigt attraktivt. De har dock lite råd att chansa om marknaden inte redan tränger in tillräckligt. Du måste tjäna tillräckligt för att hålla saker igång. Håll dig till kassan för vilken befintlig juridisk domän du än känner, och var redo när marknadsplatsen öppnar sig för högljudda samtal om AI & juridik juridiska tjänster.

Det är en sorts Catch-22.

Juridiska företag och advokater kommer inte att lägga energi och uppmärksamhet på AI & juridik såvida inte deras kunder och marknaden bryter ut med stor efterfrågan på det. Saken är den att de flesta kunder är osannolikt att inse att de behöver AI & juridik relaterade juridiska tjänster. De springer framåt på AI-såståget och AI-tåget, helt okunniga om de lagliga gropar och rena klippor framför sig.

Kanske är det hönan-eller-ägget som kommer först.

Klienter som kommer in i alla möjliga lagliga varmvatten och blir med rätta irriterade över att de inte har fått juridisk rådgivning om deras AI-användning, och konfronterar sedan argt sina juridiska tjänsteleverantörer i enlighet med detta. Eller ska vi ha kunniga advokater som ställer sig inför de kommande tsunamierna och försöker engagera sina klienter i diskussioner som säkert kommer att bli svåra att göra, eftersom många klienter kommer att ha döva öron för AI:s juridiska varningsklockor?

Detta ger upphov till en besläktad föreställning som är värd att övervägas.

Var medveten om att vissa förståsigpåare bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar vidare att om vi stiftar dessa AI-lagar kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Ibland betecknas denna åsikt eller synpunkt som myntad som AI Exceptionalism (vilket betyder att vi borde tillåta betydande utrymme för att lagligt fastställa AI eftersom AI erbjuder sådant exceptionellt viktiga fördelar för samhället).

Du kommer definitivt att höra samma sak sägas av många av dina dagens kunder.

Om du går blint in i intensiva diskussioner med dina kunder och försöker förklara den juridiska förgreningen av deras AI-antagande, kommer detta ofta att uppfattas som att den juridiska sidan återigen sätter bromsen för bra saker. Usch, du kommer snabbt att få höra, snälla sluta med alla dessa vilda och storögda juridiska mardrömsscenarier.

Vi kommer att klara oss med AI, kommer de att insistera. Det kommer att minska våra kostnader, vi kan minska vårt antal anställda och vi kan äntligen skala upp för att tillhandahålla våra produkter och tjänster till fler och fler konsumenter eller kunder. Alla andra gör likadant. Om de gör det måste vi också göra det. Om dina ord av juridisk försiktighet var meningsfulla, skulle våra konkurrenter inte anta AI som om det är det bästa sedan skivat bröd.

Varit där gjort det.

Se till att du lägger dina juridiska varningar för AI i så affärsmässiga villkor som du kan. Jag har tyckt att det är användbart att påpeka mycket publicerade AI-misstag som redan har straffat företag genom förlust av affärsrykte och/eller via kostsamma stämningar. Jag antar att du också kan prova den gamla refrängen som vi alla lärde oss som barn, nämligen bara för att någon annan tanklöst hoppar från en klippa, betyder det att de också borde göra det?

Du kommer att vilja rama in AI-diskussionen genom att betona att det finns rätt sätt och fel sätt att ta till sig AI. Om du lämnar intrycket att du sätter kibosh på användningen av AI i sin helhet, ja, det kommer att bli ett festkrossande påstående. Det verkar inte lämna något utrymme för att utnyttja AI. Det är inte det budskap du kommer att finna framgångsrikt att förmedla.

Det bättre tillvägagångssättet är att beskriva hur juridiska behov måste vara en integrerad del av AI-adoptionens livscykel. För varje steg av AI-utveckling eller anpassning eller adoption, borde juridik väga in. Inget av det där försenade efterhandsgrejen där juridiskt i slutet uppmanas att göra en sista signoff. Det är för sent. Hästen är redan i stort sett ute ur ladugården.

Den ökända moroten-och-pinnen kommer nästa att tänka på.

Man kan säga att moroten är att lagen som tillämpas på AI kommer att vara en stor pengar för advokater (som föranleder många av dessa omhuldade fakturerbara timmar), medan stickan är att advokater som inte uppmärksammar kan hamna i djupa problem när klienter blir juridiskt överväldigade av AI-relaterade juridiska risker och ansvar (vilket sannolikt leder till advokatförlust av anseende, och kanske råkar ut för felbehandling eller liknande rättspraxis).

Jag skulle vilja lägga till en annan morot i högen, om jag får lov.

Vissa advokater motiveras av nyheten med olösta juridiska utmaningar.

Den här typen av advokater syftar till att utforska nya juridiska gräsmattor. De vill sätta en prägel på det juridiska landskapet och inte bara föra samma juridiska detaljer från en juridisk plats till en annan. För dem, även om fakturerbara timmar utan tvekan är avgörande, är de rikligt och på ett högst uppriktigt sätt angelägna om att använda sitt hårt vunna värdefulla juridiska sinne för att lösa särskilt irriterande eller utmanande juridiska pussel.

Till dessa juridiska sökande med hög äventyr, jag välkomnar er varmt till juridikområdet som tillämpas på AI.

Såhär är det.

Jag börjar med en fråga som kan få dig att göra en spotta. Förbered dig.

Vad är definitionen av artificiell intelligens (AI)?

Låt mig lite men viktigt omformulera frågan: Vad är laglig definition av artificiell intelligens (AI)?

Du antar säkerligen att den juridiska världen redan har spikat ner till den mest oändliga detalj den specifika definitionen och innebörden när vi hänvisar till det vi kallar "AI" (förresten, vissa föredrar nu att säga Artificiell allmän intelligens (AGI), ett försök att få tillbaka målet att uppnå sann AI snarare än dagens mindre imponerande icke-kännande AI.

Inte så.

Som jag har täckt utförligt, är juridiska definitioner av AI verkligen en krona ett dussin, se min analys på länken här.

Tänk på det så här.

Alla dessa glänsande nya AI-lagar på internationell, federal, statlig och lokal nivå är förmodligen fokuserade på AI, och ändå visar det sig att det inte finns någon helt överenskommen all-standardiserad juridiskt fullständigt solidifierad definition av AI. Istället hittar alla i stort sett sina AI-definitioner när de skriver en lag, eller så lånar de någon annans definition även om ingen konkret kan säga om den kommer att stå sig över tidens tand och uthärda svårigheterna i domstolsstrider.

Begrunda detta ett ögonblick.

Om du väljer att i en ny lag använda en AI-definition som är alltför snäv, är chansen stor att alla slags AI som borde ha fallit inom räckvidden kommer att kunna undkomma lagen (särskilt som juridiskt hävdat av AI-kunniga advokater att inser att kryphålet finns). Å andra sidan, om AI-definitionen är alltför bred, skulle den kunna införa ett brett utbud av mjukvara och system i den nya lagen som förmodligen inte har någon verklig grund för att vara inom den lagens räckvidd. Kort sagt, en del av röran med lagen som tillämpas på AI är att vi kommer att sluta med ett lapptäcke av nya lagar som täcker något dunkelt känt som "AI", men som kommer att vara öppna för mycket olika juridiska tolkningar.

Advokater kommer på olika sätt att befinna sig i dessa ställningar relaterade till juridiska definitionsvariationer om AI:

  • Att försvara en klient som hävdar att lagen inte gäller deras påstådda "AI" som företaget skapade
  • Att försvara en kund som hävdar att lagen inte gäller deras påstådda "AI" som företaget använder eller anammat
  • Att företräda en kund som hävdar att lagen gäller för ett företag som skapat påstådd "AI" av skadlig karaktär
  • Att företräda en kund som hävdar att lagen gäller ett företag som använde eller använde påstådd "AI" av skadlig karaktär
  • Övriga

Hur kan du som advokat göra något för att hjälpa till att hantera detta snabbt växande problem och försöka undvika de enormt kostsamma och bysantinska juridiska nedströmsproblem som definitivt kommer att uppstå?

Hjälp till att arbeta med lagstiftare för att ta reda på AI-definitionsdetaljerna. Kanske bli en lagstiftare om det är av intresse för dig. Bli en ledare när det gäller att ta reda på AI-lagar som är vettiga, som kommer att vara väl specificerade, kan vara fria från tvister (nåja, det finns inget sådant), eller åtminstone minska skillnaderna kring vilka tvister kommer att uppstå, och försöka förhindra en juridisk malström det kommer när alla dessa nya AI-lagar kommer till böckerna och hästen är ute ur ladugården.

Hur ser det dig som ett juridiskt spännande förslag?

Vissa av er kanske säger att AI-definitionsproblemen inte är en särskilt intressant utmaning ur ditt perspektiv. Vad mer som står på dockan, kanske du undrar. Jag har en skäppa full av dem, men låt oss nu bara ta ett exempel till.

Två ord: Juridisk personlighet.

Kan eller bör AI smörjas med någon form av juridisk person?

Du måste erkänna att det verkar vara en rörelse. Anta att vi alla tillsammans beslutar att tillåta AI att ha en sken av juridisk person. Tänk på konsekvenserna. Vissa länder har redan börjat på den vägen, som att hävda att AI kan inneha immateriella rättigheter (IP) för AI-producerade artefakter som nya uppfinningar, ny konst och liknande.

Vissa säger att detta är vettigt, andra är högljutt upprörda och hävdar att dagens AI inte alls är värd ett jota av juridisk person.

Det är en enorm kontrovers.

Hittills, i USA när det gäller IP, har den allmänna lagliga landningen varit att IP-lagarna stipulerar att den juridiska ägaren måste vara en människa, se min bevakning om detta på länken här. På sätt och vis kringgår denna typ av tyst frågan om AI som juridisk person genom att helt enkelt indikera att den enda tillämpliga IP-ägaren måste ha mänsklig juridisk ställning.

Något relaterat till frågan om juridisk person är ett nära parat ämne som involverar Ansvar för AI (ibland kallad Ansvar för AI). Ansvar eller ansvar avser att försöka binda en AI juridiskt till vem eller vad som ska vara ansvarig eller ansvarig när AI:n orsakar skada, se min analys på länken här.

Det enkla svaret verkar vara att den som skapade AI:n får skulden. En människa skrev koden, så människan axlar ansvaret eller ansvarsskyldigheten. Men anta att AI skrevs för att självjustera sig själv. Detta kan göras av klart fördelaktiga skäl. Samtidigt har den kränkande AI:n avvikit från sina ursprungliga utarbetade mekaniseringar. Ska vi fortfarande hålla programmerarna ansvariga?

Grumlighet uppstår.

Till exempel skrev programmerarna AI:n, och sedan ändrade någon annan som ställde upp AI:n.

Vem har nu ansvaret? Mer förvirrande är att AI:n har gått igenom dussintals mänskliga händer, tillsammans med dussintals självjusterande varv, och den resulterande varianten av AI:n är inte längre alls lik de tidigare versionerna. Får alla skulden? Är det ingen som får skulden? Kan du ens spåra AI:s härkomst för att definitivt fastställa vilka människor som var inblandade och vilket engagemang de var och en hade?

Här är en extra kicker, kanske AI får skulden.

Om vi ​​ska ge en viss del av juridisk personlighet till AI, kan vi förmodligen också juridiskt hålla AI ansvarig. Men vad betyder det? Kommer AI:n lagligen att ha tillgångar som ska tas emot för vederbörlig kompensation av de skadade? Kan AI fängslas? Jag har tagit upp dessa ämnen på länken här och länken här, bland många av mina skrifter om dessa ämnen.

Jag hoppas att dessa olika teasers är tillräckligt för att väcka din juridiska aptit.

Sammanfattningsvis är att för de av er som drömmer om att en dag kunna göra ett lagligt märke och är sugna på att fördjupa er i anmärkningsvärda juridiska utmaningar och juridiska pussel, betrakta lagen som den tillämpas på AI.

Dags att ta en titt på de allierade bröderna, AI som tillämpas på lagen.

Med tanke på uppkomsten av AI som tillämpas på lagen

Jag sa i början av denna diskussion att det finns två viktiga sätt att koppla samman AI och lagen (AI & juridik), som återigen består av:

  • (1) Lag som tillämpas på AI: Utformning, antagande och upprätthållande av lagar som tillämpas på reglering eller styrning av artificiell intelligens i vårt samhälle
  • (2) AI-tillämpad lag: Teknik för artificiell intelligens som har utformats och tillämpats i lagen, inklusive AI-baserat juridiskt resonemang (AILR) infunderat i LegalTechs högteknologiska appar för att autonomt eller semi-autonomt utföra advokatuppgifter

Vi har redan nu tagit en snabb rundtur i den första punkten angående lagen som tillämpas på AI.

Vad du än gör, ignorera eller utelämna inte den andra lika avgörande stöttepelaren, nämligen användningen av AI som tillämpas på lagen. Jag försäkrar er att det finns lika många morötter att få med användningen av AI som tillämpas på lagen som det fanns när man diskuterade lagen som tillämpades på AI. Dessutom, och även om jag inte vill verka dyster, finns det också stickor relaterade till AI som tillämpas på lagvärlden, så var beredd på det också.

AI som tillämpas på lagen innebär att man försöker utnyttja de senaste och pågående framstegen inom AI för att hjälpa till att utföra juridiska uppgifter. Syftet är att tillhandahålla teknik som kan prestera något som en mänsklig advokat, men för närvarande på ett ganska begränsat sätt.

I huvudsak är detta ett svårt problem.

Ett mycket svårt problem.

Det visar sig att det är mycket svårare att ta fram AI som plikttroget kan utföra juridiska resonemang än vad många tror. Du förstår, lagen är full av semantisk tvetydighet och hittills har alla slags konventionella programmerings- och datastrukturrepresentationer inte helt kunnat förstå kognitionen som förkroppsligas i mänskliga advokater mitt i advokatuppgiften. För inbitna datavetare som söker en anmärkningsvärd utmaning, AI & juridik är markant bördig mark. Advokater som vill ta ett steg framåt i lagens annaler skulle också uppskatta att vara en del av dessa ansträngningar.

Många insisterar på att detta är ett problem av månbildstyp. Jag håller med. Den goda nyheten är att i likhet med hur AI-självkörning tidigare presenterades som en moonshot, och för vilka stora framsteg har gjorts, kan detsamma sägas om syftena med AI-baserade juridiska resonemang. Med tillräckligt hängiven uppmärksamhet och resurser är detta svåra problem beräkningsmässigt löst och vi kommer att landa på månen, så att säga.

Du kanske frestas att säga att vi aldrig kommer att kunna låta AI göra vad advokater gör. Advokater kan aldrig "automatiseras" är en frekvent refräng.

Som du snart kommer att se här, tenderar debatten att kretsa kring en allt-eller-ingenting. Påståendet är att antingen ersätter AI helt mänskliga advokater och mänsklig advokatverksamhet, eller så gör den ingenting och har till synes inget värde att lägga till.

Lite knäppt.

Alla advokater som är värda sitt salt känner till den typen av elaka argument. Du försöker sätta upp en stråman och sedan slå ner den. Voila, du vinner argumentet. Såvida inte någon annan lika bevandrad i argumentation kommer och påpekar att stråmannen var en falsk konst som användes för att ta hand om ett svagt argument.

Vi kan använda AI på utvalda sätt och för särskilda juridiska uppgifter och behöver inte exklusivt registrera oss för att kunna utföra alla advokatuppgifter på alla tänkbara sätt på en gång.

Med detta sagt finns det naturligtvis allvarliga farhågor om vad AI gör och om den kan prestera tillräckligt för den aktuella uppgiften. Du vet förmodligen väl att en aspekt av att utöva juridik i USA är att Otillåten utövande av juridik (UPL) är ett ganska strikt villkor. Uppenbarligen skyddar UPL de som söker juridisk rådgivning genom att se till att endast de som har rätt licens att fungera som advokat kommer att göra det. En hotande fråga är om AI som slingrar sig över till att utföra juridiska uppgifter bryter mot UPL, ett komplext ämne som jag har tagit upp på länken här.

Jag är säker på att några av er väntar på att höra om vi har uppnått AI som helt ersätter mänskliga advokater. Det är den vanliga smällen som hörs på juristbranschens konferenser. Är vi där än, hänger frågan tungt i luften.

Att ersätta mänskliga advokater är definitivt en omtvistad hetknapp.

Insidersynen är att snarare än att vara upptagen av huruvida AI kommer att "ersätta" mänskliga advokater, är det mer realistiska scenariot på kort sikt att AI-beväpnade advokater sannolikt kommer att "ersätta" advokater som är obeväpnade med AI.

Jag ska säga mer om detta mot slutet av denna diskussion.

Ett särskilt betungande ämne inom AI-området som tillämpas på lagen handlar om de olika berättelserna om att en dag ha Robo-advokater, Robo-domare och kanske till och med Robo-jurister. Jag är inget fan av Robo-märkning. Problemet är att det finns så mycket förutfattat bagage förknippat med Robo-märkningen att du inte kan engagera någon i en allvarlig konversation i samma ögonblick som Robo-uppfattningen kastas in i mixen. Jag kommer tveksamt att ta med Robo-trion i den här diskussionen och be att du lägger åt sidan alla galna eller vilt förutfattade meningar du kan ha.

Tack för din vänliga villighet att titta på nytt på ämnet AI som tillämpas på lagen.

Den första och mest väsentliga slutstenen består av att få huvudet lindat runt ett viktigt ramverk som jag har blivit känd för när det gäller min syn på AI Legal Reasoning (AILR) i samband med Levels of Autonomy (LoA), se min forskningsartikel enligt tidskriften MIT Computational Law på länken här.

Jag kommer kort att presentera ramverket för dig ett ögonblick.

Kontentan är att de flesta advokater omedelbart tycks hamna i den mentala fällan att om AI kommer att användas för juridiska resonemangsändamål så finns AI:n där eller inte alls. Detta är en falsk dikotomi. Det är ett antagande att AI är antingen på eller av. Till synes har du antingen AI eller så har du inte AI. Men det är inte så saker fungerar.

Jag ska jämföra samma på-eller-av-falskhet med uppkomsten av självkörande bilar, så att du tydligare kan se varför det är avgörande att ta hänsyn till olika nivåer av autonomi.

Du vet nästan säkert att det pågår många ansträngningar för att utveckla AI-baserade självkörande bilar, där AI:n sköter körningen och det inte finns behov av en mänsklig förare vid ratten. Det pågår pågående tester av självkörande bilar i flera större städer i USA. I vissa fall sitter fortfarande en mänsklig förare vid ratten och fungerar som säkerhets- eller reservförare. Under tiden, på en begränsad basis, finns det självkörande bilar som används utan någon mänsklig reservförare alls.

Jag skulle slå vad om att du kanske vagt vet att det finns olika nivåer av AI självkörande bilar.

Det finns en standard som har fastställt en skala från 0 till 5, som betecknar Nivå av autonomi som kan finnas.

Den nedre delen av skalan är en nolla (Nivå 0), för vilken det i princip inte finns någon automatiserad körning alls och körningen är helt manuellt manövrerad av en mänsklig förare. I andra änden av skalan är det högsta poängen av en 5:a (Nivå 5). Den högsta poängen är en indikation på ett helt AI-drivet fordon som inte har någon mänsklig förare och som kan köras i nästan vilken körning som helst som en mänsklig förare kan hantera.

De flesta tänker på 0 och 5, men överväger inte de viktiga nivåerna mellan de lägsta och högsta poängen. Dagens bilar anses generellt vara på nivå 2, där de ger en viss automatisering för att köra. Den mänskliga föraren anses dock fortfarande juridiskt sett vara föraren av fordonet. Nivå 3-bilar håller precis på att växa fram och består av ett semi-autonomt körarrangemang. Den mänskliga föraren förväntas fortfarande vara redo när det behövs, även om huvuddelen av körningen förmodligen kan utföras av AI.

Nivå 4 är en något förvirrande kategori för många. Nivå 4 anses vara en helt autonomt körd bil men den kommer bara att kunna köra under vissa angivna förhållanden, känd som Operational Design Domain (ODD). Till exempel kan jag säga att jag har en AI självkörande bil som bara kan köra säkert när jag är i San Francisco, bara på dagtid och inte när vädret blir dåligt som vid kraftiga regn. Det är en speciell ODD som omfattar eller begränsar där AI-körsystemet kan köra det autonoma fordonet på rätt sätt.

Nu när vi har täckt grunderna i nivåer av autonomi är vi redo att ta samma tillvägagångssätt och se hur det också gäller för juridiska resonemang.

Här är mina angivna nivåer av autonomi för AI-baserade juridiska resonemang:

  • Nivå 0: Ingen automatisering för AI Legal Reasoning
  • Nivå 1: Enkel assistansautomatisering för AI-rättsliga resonemang
  • Nivå 2: Advanced Assistance Automation for AI Legal Reasoning
  • Nivå 3: Semi-autonom automatisering för AI-rättsliga resonemang
  • Nivå 4: Domain Autonomous for AI Legal Reasoning
  • Nivå 5: Helt autonom för AI-rättsliga resonemang

Nivå 0 anses vara ingen automatiseringsnivå. Juridiska resonemang och juridiska uppgifter utförs via manuella metoder och sker i huvudsak via pappersbaserade arbetssätt.

Nivå 1 består av enkel assistansautomation för AI-rättsliga resonemang. Exempel på denna kategori skulle vara användningen av daglig datorbaserad ordbehandling, användning av dagliga datorbaserade kalkylblad, tillgång till juridiska dokument online som lagras och hämtas elektroniskt, och så vidare.

Nivå 2 består av avancerad assistansautomation för AI-rättsliga resonemang. Exempel på denna kategori skulle inkludera användningen av rudimentär Natural Language Processing (NLP) i frågestil, förenklade delar av maskininlärning (ML), statistiska analysverktyg för förutsägelser av rättsfall, etc.

Nivå 3 består av semi-autonom automatisering för AI-rättsliga resonemang. Exempel på denna kategori skulle inkludera användningen av avancerade kunskapsbaserade system (KBS) för juridiska resonemang, användningen av Machine Learning och Deep Learning (ML/DL) för juridiska resonemang, avancerad NLP, och så vidare.

Nivå 4 består av domänautonoma datorbaserade system för AI-rättsliga resonemang. Denna nivå återanvänder den konceptuella begreppet Operational Design Domains (ODDs), som används för självkörande bilar, men som tillämpas på den juridiska domänen. Juridiska domäner kan klassificeras efter funktionella områden, såsom familjerätt, fastighetsrätt, konkurslagstiftning, miljörätt, skatterätt etc.

Nivå 5 består av helt autonoma datorbaserade system för AI-rättsliga resonemang. På sätt och vis är nivå 5 superuppsättningen av nivå 4 när det gäller att omfatta alla möjliga juridiska domäner. Vänligen inse att det här är en ganska lång order.

Ta en stund att överväga dessa nivåer av autonomi i samband med dina juridiska tjänster och juridiska aktiviteter.

De flesta advokatpraxis idag använder någon form av datorbaserade paket för att hjälpa till med att utföra sitt juridiska arbete. Det populära namnet för dessa applikationer är att de betraktas i rubriken för LegalTech (du kanske vet att det finns MedTech för medicinteknik, FinTech för finansteknik, EdTech för utbildningsteknik, etc.).

Jag får nästan dagligen frågan om LegalTech inkluderar AI eller inte inkluderar AI.

Mitt svar är att detta inte är en på-eller-av-grej. Du måste överväga nivåerna av autonomi.

Vissa LegalTech-paket har lagt till AI-funktioner i sina paket (eller, i vissa fall, använt AI i kärnan, till att börja med), och gör det i varierande grad. Du måste noggrant undersöka vilken AI som har lagts till och vad den åstadkommer. Var försiktig med de ofta använda fräcka och ogrundade påståendena om AI.

En av de mest populära arenorna består av att använda AI för att hantera juridiska kontrakt. Du kanske får ett Contract Life Cycle Management-paket (CLM) för att spåra och flyta dina juridiska kontrakt under den juridiska granskningen. Att lägga till AI kan vara användbart om AI:n till exempel kan identifiera potentiella juridiska brister eller gnäller i utkast till kontrakt, eller kanske sy ihop föreslagna juridiska språk för ett givet kontrakt som håller på att skapas.

Ett annat fokus för AI kommer upp när man gör eDiscovery. Du kan ställas inför en enorm mängd elektroniska dokument under upptäcktsprocessen. Olika typer av AI kan potentiellt användas för att söka igenom korpusen och försöka identifiera relevanta föremål. Dessutom kan AI:n kunna sammanfatta eller på andra sätt analysera värdet av det hittade materialet för det aktuella fallet.

Och så vidare.

Om AI:n endast i minimalt fall gör några materiella juridiska resonemang eller juridisk behandling, skulle du klassificera det som att AI används på min skala på en nivå 2. När AI är mer robust utformad, kan LegalTech använda AI på nivå 3. Generellt sett, nivå 4 finns bara i ganska smala ODDs idag. Nivå 5 är ambitiös, och vi måste fortsätta att slippa för att se om vi kan uppnå det (precis som samma öppna fråga finns i riket av AI självkörande bilar).

Så, ja, vi har AI som används i LegalTech idag och AI:n varierar avsevärt vad gäller vad den gör och vad den inte kan göra.

Samtidigt pågår hårda ansträngningar för att tänja på gränserna för AI och försöka koppla detta till att utföra juridiska uppgifter och utföra olika intervall och djup av juridiska resonemang. I mitt forskningslabb (se länken här), använder vi tillkomsten av stora språkmodeller (LLMs) och tillämpar den senaste nya tekniken på lagen, tillsammans med att sammanföra en rad olika AI-tekniker och tekniker för att försöka synergistiskt och holistiskt knäcka den pågående gåtan om hur man uppnår ökade nivåer av autonomi när det gäller att göra AI-baserade juridiska resonemang.

För att återgå till namnet Robo-advokat (jag vill inte, men jag känner att jag måste för fullständighetens skull häri), här är en fråga om övervägande:

  • Vad innebär en "Robo-advokat" vad gäller omfattning och förmåga?

Det vanliga svaret är att en Robo-advokat är ett AI-baserat juridiskt resonemangssystem som kan göra allt som en mänsklig advokat kan göra. Punkt, punkt. Om så är fallet skulle vi då till synes säga att en Robo-advokat måste vara en nivå 5 på autonomiskalan. Naturligtvis är detta något argumenterande eftersom du kan ifrågasätta om någon valt humant advokat kan verkligen verka fullt ut inom alla rättsområden, vilket inte är särskilt realistiskt. De flesta advokater är vanligtvis inom en viss juridisk domän eller specialitet, i likhet med nivå 4 ODD.

Låt oss titta på Robo-advokaten i ett nivå 4-sammanhang.

Anta att vi tar fram ett AI-system som kan göra "rättsliga resonemang" för att lagligt kämpa med parkeringsböter. AI:n kan utföra en liknande juridisk funktion som en advokat som anlitades för att göra det juridiska bråket om en konventionell parkeringsbot.

Är den här parkeringsboten advokatliknande AI en Robo-advokat eller inte?

I en mening, ja, eftersom det tar på sig en advokatuppgift om än inom en mycket snäv domän eller underdomän av lagen. Å andra sidan, om du jämför detta med en full-on nivå 5 autonom AI-baserad advokatkapacitet (som vi inte har ännu), skulle du förmodligen häftigt säga att detta inte är en Robo-advokat.

Ser du varför jag ogillar namnet på Robo-advokaten?

Det är tvetydigt. Den bär bagage. Det innebär saker som inte nödvändigtvis är artikulerade. Slagordet är bara hemskt och det skulle vara bättre att avstå från det. Tyvärr är frasen catchy och lockande. Den är klibbig och försvinner inte så lätt. Tyvärr finns det annonser från vissa LegalTech-leverantörer som försöker utnyttja Robo-advokat-taggen, och som sådan verkar det tveksamt att namnet snart kommer att löpa ut eller tas bort.

När vi växlar, borde vi undersöka morötterna och pinnarna förknippade med AI som tillämpas på lagen.

Om en advokatpraxis antar ett AI-baserat LegalTech-paket som på grund av AI kan dramatiskt öka produktiviteten hos mänskliga advokater, verkar detta vara en bra sak. Advokatbyråer välkomnar i allmänhet att öka produktiviteten för sitt mänskliga arbete.

Ett motargument är att produktivitetshöjare kommer att minska antalet fakturerbara timmar. Din advokat som skulle ha tagit säg 20 timmar att utföra en viss juridisk uppgift kan nu göra det på 15 timmar. aj! Det innebär att du precis gav upp 5 timmars fakturerbar tid. Naturligtvis är det en snäv syn på situationen och utelämnar det affärsmannaskap som ligger bakom att söka produktivitetshöjare.

Du kanske till exempel kan använda dessa "sparade" timmar genom att använda advokaten för att skaffa nya kunder eller få annat befintligt klientarbete gjort tidigare (förmodligen öka nöjdheten med dessa kunder). Det finns också konkurrensvinkeln att ta hänsyn till. Om din advokatbyrå är mindre produktiv är oddsen att företag som söker juridiska tjänster kommer att få nys om detta. Ska de välja den advokatbyrå som är känd för att vara högeffektiv eller den som är mindre så?

Du bör också gå bortom produktiviteten och titta på andra nyckelmått som t.ex kvalitet av den juridiska rådgivningen.

Om ett AI-baserat juridiskt resonemang ledde till juridiska alternativ eller stimulerade juridisk argumentation, kan den mänskliga advokaten som använder en sådan AI mycket väl identifiera juridiska lösningar av högre kvalitet. På sätt och vis skulle det här vara som att ha en senior partner som agerar mentor. Partners och samarbetspartners kan utnyttja AI, när som helst på dygnet, från vilken plats som helst, vilket får dem att mer medvetet överväga ett mer komplett utbud av juridiska vägar som ska eftersträvas.

Det är några av morötterna.

Pinnarnas sida är kanske uppenbar.

Ett provokativt argument som framförs är att advokater som inte använder sådan AI kommer att tillskansa sig sin plikt gentemot sina klienter. Som advokater använder de inte de bästa möjliga sätten att ge sina klienter råd. De underskrider sin edsvurna skyldighet som juridisk tjänsteleverantör.

Du har förmodligen också sett uppkomsten av så kallade sandlådor på det juridiska området. Vissa tror att detta kan vara det centrala sättet att få AI in i det juridiska spelet. Argumentet är att om konventionella advokatbyråer inte kommer att gå mer ivrig mot AI, kanske en alternativ väg behövs.

Det föreslås att advokater som inte använder AI till synes kommer att vara i underläge jämfört med de som gör det. Detta oroar särskilt vissa juridiska branschorganisationer. Oron är att små advokatbyråer eller soloadvokater inte kommer att ha råd med AI-rättsliga resonemangsverktyg. De kommer att förmörkas ytterligare av Big Law som har degen för att göra sådana investeringar.

Ett motargument är att om kostnaden för de juridiska resonemangsverktygen för AI är tillräckligt låg kan detta göra små advokatbyråer och soloadvokater mer konkurrenskraftiga med Big Law. Klienter som annars ansåg att den lilla advokatbyrån eller solon inte skulle ha tillräckliga juridiska resurser kunde kanske övertygas om annat via AI-förstärkning.

En av de största avslöjandena handlar om antagandet att om AI-rättsliga resonemang av autonom karaktär kunde göras allmänt tillgängliga och till ett överkomligt pris, skulle detta potentiellt hjälpa det överväldigande problemet med A2J (tillgång till rättvisa). Ett stort antal människor har ingen enkel tillgång till advokater och advokatverksamhet. De vet inte hur de ska hantera det juridiska ekosystemet. Föreställ dig vad ett 24×7 AI-baserat juridiskt resonemangssystem kan göra för att demokratisera lagen och förbättra uppfattningen om rättsstatsprincipen.

De sista punkterna berör några av de spännande juridiska pussel eller juridiska utmaningar som väntar dem som kan välja att engagera sig i tillkomsten av AI som tillämpas på lagen.

Några fler teasers är att vi kan använda AI för att hjälpa till med att förbereda eller utarbeta lagar. Här är idén. Ofta är en lag dåligt sammansatt. Det juridiska språkets brister skapar förvirring om lagen. Detta undergräver rättsstatsprincipen. AI används för att analysera föreslagna lagar och försöka identifiera var det finns luckor och problem som annars kanske inte skulle ha varit uppenbara. Förutom att upptäcka dessa problem (ibland kallad lagliga lukter), kan AI föreslå omformulering för att minska otydligheten.

En annan mind-bender åberopar påståendet att lag är kod.

Med andra ord, om man tittar på de flesta lagar så har de en något välbekant likhet med datorkodning. Arbete pågår för att automatiskt översätta lagar till ren programmeringskod eller motsvarande. Detta kan i sin tur tillåta beräknings- och matematiskt orienterade bevis förknippade med våra lagar.

Du kan också nudla på idén om kod som lag.

Om en lag kommer att baseras på någon datoralgoritm kan du då föreslå att programmeringskoden i sig representerar lagen. Koden är lagen. Föreställ dig att gå till domstol för att argumentera om en del av programmeringskoden som juridiskt anses vara den ordagranta indikationen på lagen.

Fundera över dessa lockande frågor:

  • Med vilka medel kan vi bäst utforma AI som mer fullständigt kapslar in juridiska resonemang?
  • Vilken typ av onlineinteraktion mellan mänskliga advokater och AI-rättsliga resonemangssystem kommer att vara mest gynnsam för användning?
  • AI juridiskt resonemang kräver XAI (explainable AI), men hur kan Machine Learning och Deep Learning ge lämplig förklaring?
  • Hur kan vi göra AI-rättsliga resonemang tillgängliga för dem som inte har tillräckligt med A2J?
  • Kan vi ta reda på UPL-frågan när det gäller AI-baserade juridiska resonemang?
  • Kommer våra domstolar också att anta AI och i så fall hur kommer detta att påverka bedömningen över hela linjen?
  • Och så vidare

Vissa advokater anser sig vara entreprenörer i grunden.

Det finns massor av nystartade företag inom LegalTech-området, och av dem är det många som försöker uppfinna eller tillämpa AI i enlighet med juridiska uppgifter. Du kanske har sett den senaste skörden av jobbannonser som efterfrågas Ingenjörer med juridisk kunskap eller helt enkelt listad som Juridiska ingenjörer.

Vissa advokater är tekniker som kommer in i detta utrymme.

Vissa advokater är inte tekniker som går in i AI som tillämpas på juridikarenan, för vilken de tillhandahåller expertis inom juridisk domän för att hjälpa till att utveckla AI-rättsliga resonemangssystem. Jag nämner detta eftersom antagandet av många advokater och juridikstudenter är att de måste vara en tekniker för att komma in i denna värld. Det är inget krav i sig. Viljan att utforska lagen på ett sätt som du tidigare inte hade undersökt och gjort det samtidigt som du arbetar ståndaktigt och samarbetar med tekniker är den senaste stigande vägen.

Slutsats

Du kom hela vägen till slutet av den här avhandlingen.

Bra för dig.

Jag hoppas innerligt att du har funnit den här diskussionen informativ, kanske till och med blygsamt inspirerande.

Varför går inte advokater mot AI & juridik?

Väldigt få vet vad du nu vet.

De flesta advokater har inga eller knappa uppfattningar om vad AI & juridik består av. Det är ett ämne som sällan behandlas i juridikskolor, även om jag har förutspått det en gång AI & juridik tsunamin kommer, kommer vi sannolikt att se en stor förändring i den insikten om var AI & juridik måste täckas.

Jag nämnde också tidigare att det handlar om en höna eller ett ägg AI & juridik. Det vet inte kunderna ännu AI & juridik kommer att bli en viktig juridisk fråga. Advokatbyråer tenderar att vänta tills kunder börjar ropa efter juridiska tjänster. Just nu är det bara vissa advokatbyråer som ser skriften på väggen. Likaså är det bara vissa kunder som ser skriften på väggen. Få i allmänhet är medvetna om jordbävningen, medan färre fortfarande förbereder sig för jordbävningen.

Avbrott kommer.

Jag inser att ordet "störning" används ganska mycket nu för tiden. Trots den överanvändningen tror jag att det juridiska området är på gränsen till en störning i samband med AI. Det blir inte över en natt. Du kommer inte att vakna en morgon och under natten inträffade en radikal förvandling oförklarligt. Jag skulle säga att det kommer att bli en stadig marsch framåt. En fot i taget, ett steg i taget.

En resa på många mil börjar med ett enda steg.

Enligt den berömda kommentaren från William Randolph Hearst: "Du måste hålla ditt sinne på målet, inte på hindret."

Källa: https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai- och-lagen/