Lärdomar från AI etik och autonoma system från det senaste flyget från Alaska Airlines där piloten och andrepiloten inte var överens innan de lyfte och plötsligt valde att taxi tillbaka till terminalen och gå skilda vägar

Flygbolagen har varit i nyheterna ganska mycket på sistone.

Vi befinner oss i sommarens krita av flyg. Trötta och frustrerade passagerare står inför alla typer av flygstörningar och flygplansförvrängningar. Flyg ställs in oväntat. Flyg är försenade. Passagerarna röker. Det har tyvärr förekommit många tillfällen av passagerare som har låtit dessa irritationsmoment bryta ut, och vi har sett bedrövligt många virala videor av konfrontationer head-to-head och ibland knuffande knytnävar.

Mer sällsynt får vi veta om dispyter mellan en pilot och andrapilot som kan uppstå när vi befinner oss i cockpit.

Det är ganska överraskande.

I själva verket blir vi naturligtvis förvånade över att tro att en pilot och en andrapilot skulle ha något sken av en allvarlig oenighet under vilket skede av en flygning som helst. Om oenigheten gäller vilket kaffemärke som är bäst, är vårt antagande att detta inte skulle inkräkta på arbetsinsatsen med att flyga planet. De två skulle helt enkelt rycka av sig sin brist på öga mot öga om ett till synes flyg-irrelevant ämne. Deras professionella uppträdande och långvariga pilotutbildning skulle slå in och de skulle nita tillbaka sitt fokus till flygdetaljerna.

Tänk dock på när en professionell oenighet ingriper.

Jag ska kortfattat dela med dig av en nyhet som har publicerats i stor omfattning om ett nyligen inträffat fall av något som hände under en flygning i USA angående en påstådd professionell oenighet i cockpit.

Detta citeras huvudsakligen här så att vi kan utforska ett relaterat ämne som är av stor betydelse för tillkomsten av artificiell intelligens (AI). Du förstår, det kan finnas en form av ska vi säga professionell oenighet mellan inte bara människor i en oenighet mellan människor, utan vi kan också få något liknande att inträffa mitt i antagandet av AI och därmed resulterande professionella oenighet mellan människa och AI. . Alla typer av AI-etiska överväganden dyker upp. För min omfattande och pågående bevakning av AI-etik och etiska AI-frågor, se länken här och länken här, bara för att nämna några.

Gör dig redo för en fascinerande berättelse.

Som nyligen rapporterats i nyheterna uppstod tydligen ett fall av "professionell oenighet" under ett flyg från Alaska Airline som gick från Washington till San Francisco. Enligt nyhetsrapporterna hade flyget flyttat sig bort från gaten och väntade på asfalten på tillstånd att taxi och flyga. En storm var på gång och ledde till en flygförsening på mer än en och en halv timme. Det visar sig att planet så småningom vände och gick tillbaka till gaten, vilket några av passagerarna normalt kunde ha antagit var helt enkelt en stormrelaterad säkerhetsåtgärd.

Enligt olika tweets verkar det som att piloten och andrapiloten hade någon form av utomsiktsfejd under sin tid där i cockpit och på något sätt kom fram till att det mest försiktiga tillvägagångssättet skulle vara att skrubba flyget och återvända till terminalen . Tweets antydde att kaptenen och förste officeren tydligen inte kunde komma överens med varandra. Flygbolaget utfärdade senare ett uttalande att situationen var olycklig (situationen var inte uttryckligen angiven eller förklarad i sig), de två flygofficerarna utvärderades av ledningen och ansågs lämpliga att flyga, besättningen byttes ut och flygningen slutade med att äga rum och nådde senare San Francisco.

I en mening, om piloten och andrapiloten faktiskt hade en professionell oenighet, såsom om planet var lämpligt redo för flygning eller om risken för att flyga genom en storm låg inom ett lämpligt säkerhetsintervall, borde dessa passagerare avlastas och tacksam för att planet återfördes till gaten. Bättre att vara säker än ledsen. Att ha en extra försening är väl värt den förmodade minskningen av risker som är förknippade med en övervägd tuff eller negativ flygresa.

Vissa människor kan bli förvånade över att en sådan professionell oenighet kan uppstå.

Vi har kanske ett felaktigt intryck av att allt som händer i cockpit är helt exakt och välskrivet. All form av mänskligt omdöme har till synes urraktats ur processen. Baserat på exakta och noggrant beräknade sjökort är en flygning antingen okej att fortsätta eller inte. Det kan inte råda någon oenighet när hela kitet och caboodle tros vara baserad på obestridlig kalkyl av fakta och siffror.

Det är inte hela sanningen i saken. Visst, det finns en uppsjö av protokoll och alla typer av kontroller och avvägningar, men detta pressar inte ut allt av mänskligt omdöme. Piloter och andrapiloter utövar fortfarande mänskligt omdöme. Lyckligtvis är detta mänskliga omdöme finslipat av år av flyg. Oddsen är att en pilot och andrapilot i ett kommersiellt passagerarplan har mängder av tidigare flygerfarenhet och lätt utnyttjar sina många år av djupgående resonemang och omdöme i samband med att vara vid flygkontrollerna.

Med tanke på den anmärkningsvärda roll som mänskligt omdöme spelar, kan vi logiskt sett förutse att en pilot och en andrapilot ibland kommer att ha professionella meningsskiljaktigheter. För det mesta finns det förmodligen väldigt lite sådan oenighet. Piloten och andrapiloten för dagliga flygningar kommer sannolikt att vara väl anpassade till övervägande del av tiden. Först när ett flygscenario kan gå utanför konventionella gränser skulle vi förvänta oss att det skulle uppstå en hårdare friktion.

Om det finns en stark åsiktsskillnad mellan de två skulle jag våga påstå att vi vill att de ska hash ut det.

Föreställ dig en situation där piloten brinnande vill fortsätta men andrapiloten upplever att riskerna är för höga. Att bara ha andrapiloten kowtow till piloten verkar oönskat. Copiloten är en kontroll av vad en pilot kan tänkas göra. För dem som vill att en andrapilot ska hålla käften och enbart agera meningslöst enligt vad piloten dekreterar, ja, det är inte mycket av en trygghet. En andrapilot är inte bara en reservpilot som kommer in i bilden först när piloten är helt oförmögen. Det är en missriktad förståelse av värdet av att ha en pilot och andrapilot i cockpit.

Det finns en annan vinkel på detta.

Tänk på fallet med en pilot som inte tror att en flygning ska fortsätta och under tiden är andrapiloten galen på att komma upp i luften. Vad händer då? Enligt den förväntade hierarkin ska piloten konventionellt råda över copiloten. Den utsedda rollen att vara den primära ansvarig gör piloten till den större av det som annars är något lika. Normalt har piloten mer övergripande flygtidskryddor än andrapiloten och därför är andrapiloten hierarkiskt tänkt att ställa sig efter pilotens önskemål (när det ligger inom rimliga gränser).

I vilket fall som helst tror jag att vi alla kan vara överens om att att välja att inte flyga är ett säkert mindre riskabelt val än att bestämma sig för att flyga. När planet väl är uppe i luften blir risknivåerna enorma i jämförelse med att vara på vilken vanlig stabil mark som helst. En sedvanlig kommersiell flygning som helt enkelt taxis tillbaka till terminalen utan att ha hamnat i luften skulle vara en ganska vänskaplig lösning på varje hetsig bitter debatt om att flyga.

Låt oss växla växel och använda den här spunkiga nyheten för ett helt annat men relaterbart syfte.

Vi har gradvis bland oss ​​en förekomst av AI-baserade autonoma system. Ibland kör AI showen så att säga. AI:n gör allt från A till Ö, och vi kan tolka detta som AI som är helt autonom eller nästan så. I andra fall kan vi ha AI som interagerar med och till viss del är programmerad att vara beroende av att ha en människa-i-slingan.

Jag skulle vilja koncentrera mig på frågan om ett AI-baserat autonomt eller semi-autonomt system som från början har en människa i kretsen. AI:n och människan drivs avsiktligt ihop och ska arbeta tillsammans med varandra. De är kohorter som utför en viss uppgift. AI ensam är inte tänkt att agera på uppgiften. AI:n måste interagera med den utsedda människan-i-slingan.

Jag tar upp denna karaktärisering för att skilja från situationer där människan-i-slingan anses vara en valfri aspekt. I huvudsak ges AI:n fritt spelrum. Om AI väljer att använda sig av människan, så var det att göra det. Det finns inget krav på att AI:n måste röra basen med eller arbeta hand i hand med den utsedda människan. De analyser som jag ska berätta är säkert relevanta för den typen av valfritt interaktionsarrangemang, men det är inte det jag specifikt driver på i den här diskussionen.

Okej, så vi har någon sorts uppgift som en människa och en AI kommer att arbeta tillsammans med, oskiljaktigt från varandra. I abstrakt mening har vi en människa som sitter på en plats och ett AI-system som sitter i den andra medföljande sätet. Jag säger det här fräckt eftersom vi inte begränsar den här diskussionen till till exempel en robot som faktiskt kan sitta i en stol. Jag anspelar metaforiskt på föreställningen att AI någonstans deltar i uppgiften och det är människan också. Fysiskt är deras vistelseort inte särskilt avgörande för diskussionen.

Du kanske är osäker på när en sådan omständighet kan uppstå.

Lätt som en plätt.

Jag kommer senare att diskutera tillkomsten av autonoma fordon och självkörande bilar. På vissa nivåer av autonomi är AI:n och människan tänkt att arbeta tillsammans. AI:n kan köra bilen och begära att människan tar över körkontrollerna. Människan kanske kör bilen och aktiverar AI:n för att ta över kontrollerna. De turas om vid körreglagen.

Dessutom har vissa konstruktioner att AI:n är i huvudsak aktiv hela tiden (eller, om den inte är avstängd), så att AI:n alltid är redo. Dessutom kan AI:n ingripa direkt, även utan att människan frågar, beroende på situationen som utspelar sig. Anta till exempel att människan verkar ha somnat vid ratten. Eftersom människan till synes inte kan aktivera AI:n (eftersom personen sover), kan AI:n vara programmerad att ta över kontrollerna från människan.

Vissa konstruktioner tar med AI och människor till ett dubbelt körsätt. AI:n driver och människan kör. Eller, om du föredrar, det är människan som kör och AI:n driver också. De kör var och en av fordonet. Jag liknar detta vid de där specialriggade bilarna som du kanske använde när du tog förarutbildning och det fanns två uppsättningar körreglage i fordonet, en för elevföraren och en för förarläraren.

Det är bara ett exempel på en miljö där AI och människor kan arbeta tillsammans med en uppgift. Det finns alla möjliga möjligheter. Andra typer av autonoma fordon kan utformas på liknande sätt, såsom flygplan, drönare, dränkbara båtar, ytfartyg, tåg och så vidare. Vi behöver inte bara ta hänsyn till fordons- och transportinställningar. Föreställ dig den medicinska domänen och operationer som utförs gemensamt av en läkare och ett AI-system. Listan är oändlig.

Jag känner nästan för att hänvisa till det klassiskt upprörda skämtet om en människa och en AI som går in i en bar tillsammans. Det är ett stort skratt för dem som gillar AI.

Allvarligt talat, låt oss återgå till fokus för en människa och ett AI-system som arbetar tillsammans på en given uppgift. Först vill jag undvika att antropomorfisera AI, vilket är något jag kommer att betona genomgående. AI:n är inte kännande. Vänligen ha det i åtanke.

Här är något att fundera över: Kommer en utsedd människa-i-slingan alltid att vara helt överens med en AI som samarbetar?

För en komplex uppgift verkar det osannolikt att människan och AI:n helt och alltid kommer att vara helt i lås och steg. Människan kommer vid vissa tillfällen möjligen att inte hålla med AI:n. Vi kan ta det antagandet ända till banken.

Jag skulle vilja att du också överväger denna kanske överraskande möjlighet: Kommer AI alltid att vara helt överens med en utsedd människa-i-slingan?

Återigen, för alla komplexa uppgifter, skulle det verka ganska tänkbart att AI inte kommer att vara överens med människor vid vissa tillfällen. Om du redan lutar mot tanken att AI alltid måste ha fel medan människor alltid måste ha rätt, skulle du göra klokt i att tänka om den förhastade slutsatsen. Föreställ dig en bil som har en människa och AI som tillsammans kör det halvautonoma fordonet. Människan styr mot en tegelvägg. Varför? Vi vet inte, kanske är människan berusad eller har somnat, men vi vet att det inte är en bra idé att krascha in i en tegelvägg, allt annat lika. AI:n kan upptäcka den kommande katastrofen och försöka styra bort från den förestående barriären.

Allt som allt kommer vi att ha den distinkta möjligheten att AI och människan inte håller med varandra. Det andra sättet att säga samma sak är att människor och AI håller inte med varandra. Observera att jag inte vill att sekvenseringen av AI-och-människa kontra människa-och-AI ska antyda något om riktningen eller rimligheten av oenigheten.

De två arbetarna, en människa och en som är AI, håller inte med varandra.

Vi skulle i förväg kunna deklarera att närhelst en oenighet inträffar mellan en given AI och en given människa, förkunnar vi i förväg att människan råder över AI. Som sagt, mitt illustrativa exempel om bilen som är på väg in i en tegelvägg verkar avråda oss från att människan alltid nödvändigtvis kommer att ha rätt.

Vi skulle däremot kunna välja att i förväg deklarera att närhelst en oenighet uppstår kommer vi i förväg att ha fastställt att AI är rätt och människan har fel. Detta är inte heller en förnuftigt generaliserbar bestämmelse. Föreställ dig en bil där AI:n har något inbyggt programvarufel eller bugg, och AI:n försöker styra fordonet av vägen och ner i ett dike. Om man antar att allt annat är lika, borde människan kunna övervinna denna AI-körning och förhindra att fordonet landar i ravinen.

Låt oss göra en snabb sammanfattning av detta:

  • Kommer en människa-i-slingan alltid att vara helt överens med AI? Svar: Nej.
  • Kommer AI alltid att vara helt överens med en människa-i-slingan? Svar: Nej.
  • Kommer en människa-i-slingan alltid att ha rätt i jämförelse med AI? Svar: Inte nödvändigtvis.
  • Kommer AI alltid att ha rätt i jämförelse med människan-i-slingan? Svar: Inte nödvändigtvis.

Du kan säkert ställa in AI:n så att den som standard betraktas som "fel" eller svagare part och därför alltid vända dig till människan när en oenighet uppstår. På samma sätt kan du ställa in AI:n för att anta att AI:n anses vara "rätt" närhelst en människa inte håller med AI:n. Jag vill förtydliga att vi kan göra det programmässigt om vi vill göra det. Jag hävdar dock att det i allmänhet inte alltid kommer att vara fallet. Det finns säkert inställningar där vi inte i förväg vet om AI är "rätt" eller människan har "rätt" när det gäller att välja det ena eller det andra om en oenighet relaterad till en given uppgift.

Jag har lett dig till en mycket viktig och mycket komplicerad fråga.

Vad ska vi göra när en professionell oenighet uppstår mellan människan-i-slingan och AI (eller på motsvarande sätt kan vi formulera detta som att det är mellan AI:n och människan-i-slingan)?

Försök inte undvika frågan.

Vissa kanske hävdar att detta aldrig skulle hända, men som jag har sagt i mitt exempel om bilen, kan det säkert hända. Vissa kanske hävdar att en människa uppenbarligen är överlägsen och måste vara vinnaren av alla oenigheter. Mitt exempel på bilen och tegelväggen slår ner den. Det finns AI-förespråkare som kan insistera på att AI måste vara vinnaren, på grund av att de skenbart övervinner mänskliga känslor och hänsynslöst tänkande av dessa slumpartade luddigt tänkande människor. Återigen, mitt andra exempel som innebär att bilen är på väg ner i diket understryker detta påstående.

I den verkliga världen kommer AI och människor att vara oense, även när de två avsiktligt förs in i en samarbetssituation för att utföra en gemensam uppgift. Det kommer att hända. Vi kan inte stoppa huvudet i sanden och låtsas som att det inte kommer att inträffa.

Vi såg att människorna som styrde planet hamnade i oenighet. Tack och lov gick de med på att inte hålla med, så det verkar. De förde planet tillbaka till terminalen. De hittade ett sätt att hantera oenigheten. Lösningen på deras meningsskiljaktighet fungerade bra, i jämförelse med om de kanske hade gått till knytnäv i cockpit eller kanske flugit upp i luften och fortsatt att strida mot varandra. Det är ett sorgligt scenario som är ohållbart, och vi kan vara tacksamma att det inte inträffade.

Tillåt mig att ge min lista över de olika sätten på vilka meningsskiljaktigheterna mellan AI och människa-i-slingan (eller människa-i-slingan och AI) kan lösas:

  • AI och den förenade människan löser saker (i vänskaplighet eller inte)
  • Människan råder över AI, som standard
  • AI råder över människan, som standard
  • En annan förutbestämd fast upplösning råder som standard
  • Tredjepartsmänniska är inkopplad och deras indikation råder över parterna
  • Tredjeparts AI är inkopplad och dess indikation råder över parterna
  • Tredjepartsmänniskan ersätter den existerande människan, saker fortsätter på nytt
  • Tredjeparts AI ersätter den befintliga AI, saker fortsätter på nytt
  • Tredjepartsmänniska ersätter den befintliga AI, saker fortsätter på nytt (nu människa-till-människa)
  • Tredjeparts AI ersätter den befintliga människan, saker fortsätter på nytt (nu AI-till-AI)
  • Övriga

De är överflöd värda att packas upp.

Innan vi går in på lite mer kött och potatis om de vilda och ulliga överväganden som ligger bakom hur man hanterar AI och mänskliga meningsskiljaktigheter, låt oss lägga ut några ytterligare grunder om djupt viktiga ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etiska principer ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss återgå till vårt fokus på oenighet mellan AI och en människa.

Jag har tidigare angett att dessa är några av strategierna för att lösa meningsskiljaktigheter:

  • AI och den förenade människan löser saker (i vänskaplighet eller inte)
  • Människan råder över AI, som standard
  • AI råder över människan, som standard
  • En annan förutbestämd fast upplösning råder som standard
  • Tredjepartsmänniska är inkopplad och deras indikation råder över parterna
  • Tredjeparts AI är inkopplad och dess indikation råder över parterna
  • Tredjepartsmänniskan ersätter den existerande människan, saker fortsätter på nytt
  • Tredjeparts AI ersätter den befintliga AI, saker fortsätter på nytt
  • Tredjepartsmänniska ersätter den befintliga AI, saker fortsätter på nytt (nu människa-till-människa)
  • Tredjeparts AI ersätter den befintliga människan, saker fortsätter på nytt (nu AI-till-AI)
  • Övriga

Dags att packa upp dessa.

Tänk först på att det här handlar om professionell meningsskiljaktigheter.

En professionell oenighet definieras löst som en oenighet i samband med en arbetsrelaterad uppgift.

Till exempel kan en oenighet som uppstår mellan en pilot och en andrapilot om huruvida man ska fortsätta med en flygning som står inför en storm rimligen betecknas som en professionell oenighet. Däremot kan en stark oenighet om vilket kaffemärke piloten förespråkar kontra märket som copiloten föredrar lätt kategoriseras som en icke-professionell oenighet i detta specifika sammanhang.

Naturligtvis, om en icke-professionell oenighet maskar sig in i en professionell oenighet, kan vi i slutändan vara intresserade av den icke-professionella oenigheten som en förmodad källa eller gnista för den professionella. Föreställ dig att en pilot och andrapilot grälar bittert om vilket kaffemärke som är bäst, vilket sedan tyvärr rinner ut i flygspecifika bekymmer (ordlek!), som om de ska lyfta eller inte.

För det andra måste vi ha i åtanke omfattningen av den professionella oenigheten.

Kanske piloten och andrapiloten eller i mild oenighet om att fortsätta flyga. De är inte i konflikt och funderar bara på för- och nackdelar med att ta av. Detta är inte kalibern eller omfattningen av en professionell oenighet som vi vanligtvis överväger här. Saken är den att det kan vara så att den professionella oenigheten är övergående och att båda parter tar fram en lösning hjärtligt eller åtminstone i tid. I allmänhet är fokus för professionella meningsskiljaktigheter inom räckvidden de som till synes är svåröverskådliga, och de två parterna förblir ständigt oeniga.

För det tredje måste det vanligtvis finnas något seriöst på gång för att dessa riktlinjer ska komma in i bilden.

Att välja att flyga eller inte flyga är ett avgjort beslut på liv eller död om flygningen är i riskzonen på grund av en storm eller om flygplanet inte anses vara helt förberett för en sådan resa. Det här är en seriös affär. Vi kan fortfarande tillämpa riktlinjerna på mindre inverkande professionella meningsskiljaktigheter även om det kan vara mer besvärande än det är värt.

Okej, våra överväganden är att:

  • Oenigheten är i huvudsak professionellt inriktad snarare än om något icke-professionellt
  • Oenigheten är av bestående karaktär och inte bara övergående eller på annat sätt lätt löst
  • Oenigheten förutsäger allvarliga konsekvenser och har vanligtvis ett effektfullt resultat
  • Parterna står i konflikt och de verkar svårlösta

Låt oss nu titta närmare på var och en av mina föreslagna riktlinjer eller tillvägagångssätt angående hur man hanterar sådana professionella meningsskiljaktigheter.

AI och den förenade människan löser saker (i vänskaplighet eller inte)

Jag börjar listan med den enkla möjligheten att AI:n och människan-i-slingan kan lösa den professionella oenigheten sinsemellan. Det verkar som om de två människorna, piloten och andrapiloten, kanske illustrerar denna typ av omständighet. De bestämde sig på något sätt för att återvända till terminalen och gå skilda vägar. Det kan vara så att ett AI-system och en människa kan komma på ett lösande tillvägagångssätt som i allmänhet är tillfredsställande för båda parter och ärendet därmed är tillfredsställande avslutat.

Människan råder över AI, som standard

När vi ställer in AI:n kan vi programmera en regel som säger att människan-i-slingan alltid ska råda när en professionell oenighet uppstår. Detta skulle vara den explicit kodade standarden. Vi kan också tillåta någon form av åsidosättande, för säkerhets skull, även om den stående regeln kommer att vara att det mänskliga segrar.

AI råder över människan, som standard

När vi ställer in AI:n kan vi programmera en regel som säger att AI:n alltid ska råda över människan-i-slingan när en professionell oenighet uppstår. Detta är den explicit kodade standarden. Vi kan också tillåta någon form av åsidosättande, för säkerhets skull, även om den stående regeln kommer att vara att AI:n råder.

En annan förutbestämd fast upplösning råder som standard

När vi ställer in AI kan vi programmera en regel som säger att någon annan förutbestämd fast upplösning kommer att råda när en professionell oenighet uppstår med människan-i-slingan. Människan-i-slingan råder inte som standard. AI:n råder inte som standard. Det finns en annan förutbestämd upplösning. Till exempel kanske det kastas ett mynt som kommer att användas för att avgöra vilken av de två parterna som anses vara rätt väg att ta. Det skulle uppenbarligen verka ganska godtyckligt; ett annat exempel på tillvägagångssätt skulle därför vara att en specialiserad regel startar som beräknar ett värde baserat på input från de två parterna och kommer fram till ett resultat som ett tiebreak.

Tredjepartsmänniska är inkopplad och deras indikation råder över parterna

Vid en professionell oenighet kan en regel vara att en tredje part som är en människa åberopas och loopas in i miljön för att fatta ett beslut om att lösa oenigheten. AI:n är programmerad att skjuta till vad den tredje parten bestämmer. Människan som redan befinner sig i människan-i-slingan har på förhand fått instruktioner om att om en sådan situation uppstår, så ska de också vända sig till den tredje parten. Dessutom kan du antagligen förutse att människan-i-slingan kan ha ångest över att gå med på vad den tredje parten bestämmer sig för om beslutet inte stämmer överens med ställningen för människan-i-slingan.

Tredjeparts AI är inkopplad och dess indikation råder över parterna

Vid en professionell oenighet kan en regel vara att en tredje part som är ett annat AI-system anropas och kopplas in i inställningen för att fatta ett beslut om att lösa oenigheten. Den ursprungliga AI:n är programmerad att avvika från vad tredje parts AI bestämmer. Människan som redan befinner sig i människan-i-slingan har på förhand instruerats om att om en sådan situation uppstår, ska de också vända sig till tredje part AI. Dessutom kan du antagligen förutse att människan-i-slingan kan ha ångest över att gå med på vad den tredje partens AI än beslutar om beslutet inte överensstämmer med ställningen för människan-i-slingan.

Tredjepartsmänniskan ersätter den existerande människan, saker fortsätter på nytt

Vid en professionell oenighet ersätts människan-i-slingan av en tredje part som är en människa och som hädanefter blir människan-i-slingan. Den människa som var den ursprungliga människan-i-slingan för uppgiften anses inte längre vara en del av uppgiften. Det är en öppen aspekt av vad som annars händer med den nu ersatta människan-i-slingan, men vi säger att de säkert inte längre har någon pågående roll i arbetsuppgiften.

Tredjeparts AI ersätter den befintliga AI, saker fortsätter på nytt

Vid en professionell oenighet ersätts AI med en tredjeparts AI och det blir den AI som hädanefter används för den aktuella arbetsuppgiften. Den AI som ursprungligen användes för uppgiften anses inte längre vara en del av uppgiften. Det är en öppen aspekt av vad som annars händer med den nu ersatta AI:n, men vi säger att AI:n förvisso inte längre har någon pågående roll i arbetsuppgiften.

Tredjepartsmänniska ersätter den befintliga AI, saker fortsätter på nytt (nu människa-till-människa)

Vid en professionell oenighet ersätts AI:n av en tredjepartsmänniska för vilken den personen nu blir den anses vara samarbetspartner som kommer att användas för den aktuella arbetsuppgiften. Den AI som ursprungligen användes för uppgiften anses inte längre vara en del av uppgiften. Det är en öppen aspekt av vad som annars händer med den nu ersatta AI:n, men vi säger att AI:n förvisso inte längre har någon pågående roll i arbetsuppgiften. Kort sagt, detta blir nu en tvåpartsuppgift som utförs människa till människa.

Tredjeparts AI ersätter den befintliga människan, saker fortsätter på nytt (nu AI-till-AI)

Vid en professionell oenighet ersätts människan-i-slingan av en tredje parts AI och denna AI blir hädanefter utfyllnaden för den föregående människan-i-slingan. Den människa som var den ursprungliga människan-i-slingan för uppgiften anses inte längre vara en del av uppgiften. Det är en öppen aspekt av vad som annars händer med den nu ersatta människan-i-slingan, men vi säger att de säkert inte längre har någon pågående roll i arbetsuppgiften. Kort sagt, detta blir nu en tvåparts AI-till-AI för att utföra uppgiften.

Övriga

Andra varianter kan utformas för att hantera en professionell oenighet, men vi har här täckt några av nyckelstenarna.

Hur ska vi bestämma vilken av dessa tillvägagångssätt som kommer att vara den rätta för en given situation?

En mängd olika frågor ligger bakom ett sådant val. Det finns tekniska överväganden. Det finns affärsmässiga överväganden. Det finns juridiska och etiska överväganden.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne. AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha ett AI-etik-tänkesätt och göra det integrerat i AI-utveckling och fältarbete är avgörande för att producera lämplig AI, inklusive (kanske överraskande eller ironiskt nog) bedömningen av hur AI-etik antas av företag.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. Faktum är att de varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om lösningar på AI och människors oenighet, och i så fall, vad visar detta?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI-mot-mänsklig oenighet

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

För helt autonoma fordon kanske det inte finns någon chans för en professionell oenighet mellan en människa och AI på grund av möjligheten att det inte finns någon människa-i-slingan att börja med. Ambitionen för många av dagens självkörande biltillverkare är att ta bort den mänskliga föraren helt från köruppgiften. Fordonet kommer inte ens att innehålla körkontroller som är tillgängliga för människor. I så fall kommer en mänsklig förare, om den är närvarande, inte att kunna delta i köruppgiften eftersom de saknar tillgång till några körkontroller.

För vissa helt autonoma fordon tillåter vissa konstruktioner fortfarande en människa att vara i slingan, även om människan inte behöver vara tillgänglig eller delta i körprocessen alls. En människa kan alltså delta i körningen, om personen så önskar. Inte vid något tillfälle är AI dock beroende av människan för att utföra någon av köruppgifterna.

När det gäller semi-autonoma fordon finns det ett hand-i-hand-förhållande mellan den mänskliga föraren och AI. Den mänskliga föraren kan ta över körkontrollerna helt och hållet och i huvudsak stoppa AI:n från att delta i körningen. Om den mänskliga föraren vill återinföra AI:n i förarrollen kan de göra det, även om detta ibland tvingar människan att avstå från körkontrollerna.

En annan form av semi-autonom operation skulle innebära att den mänskliga föraren och AI:n arbetar tillsammans i ett team. AI:n driver och människan kör. De kör tillsammans. AI:n kan avvika från människan. Människan kan avstå från AI.

Vid någon tidpunkt kan AI-körsystemet och den mänskliga föraren i slingan komma till en tidpunkt av en "professionell oenighet" om köruppgiften.

För att illustrera hur några av de ovannämnda reglerna för att hantera en professionell oenighet kan vara utmanande att implementera, överväg fallet att åberopa en tredje part att gå in i ärendet och ge ett beslut för att lösa det olösta problemet.

Anta att en biltillverkare eller självkörande teknikföretag har ordnat så att mänskliga operatörer på distans har tillgång till körkontrollerna för fordon i sin flotta. Den mänskliga operatören sitter på något avlägset kontor eller liknande miljö. Via ett datorsystem kan de se körscenen genom att komma åt kameror och andra sensorenheter som är laddade på den självkörande bilen. För dem är detta nästan som att spela ett videospel online, även om de verkliga omständigheterna naturligtvis har potentiellt svåra konsekvenser.

Ett AI-system och en mänsklig förare inuti bilen kör ett halvautonomt fordon längs en lång motorväg. Helt plötsligt vill AI:n styra ner i ett dike. Den mänskliga föraren vill inte göra detta. De två tjafsar om körreglagen.

Hur kommer detta att lösas?

Vi kunde kanske ha instiftat i förväg att människan alltid vinner. Anta dock att vi valde att inte göra det.

Vi kunde ha instiftat i förväg att AI alltid vinner. Anta att vi valde att inte göra det. Sammantaget antog vi inte någon av dessa regler, förutom att vi beslutade att tillåta en tredje part att ingripa och lösa en professionell oenighet av någon saklig natur.

I det här fallet kämpar AI:n och den mänskliga föraren vid ratten om körkontrollerna. Detta är låt oss säga förmedlas till den mänskliga fjärroperatören (vår tredje parts människa). Den fjärranslutna mänskliga operatören undersöker vad som händer och bestämmer sig för att styra bort från diket, och till synes avvärja det AI:n försökte göra. Anta samtidigt att den fjärranslutna mänskliga operatören styr in i mötande trafik, vilket kanske varken AI:n eller den mänskliga föraren inne i bilen hade velat göra.

Poängen är att sättet på vilket denna regel har implementerats är att den mänskliga operatören från tredje part kan helt åsidosätta både AI:n och människan-i-slingan. Huruvida detta kommer att ge ett bra resultat är förvisso inte säkert.

Jag kommer att använda detta exempel för att lyfta fram några ytterligare insikter om dessa frågor.

Du kan inte göra det fräcka antagandet att bara för att en av dessa regler införs är resultatet av den lösta oenigheten nödvändigtvis ett garanterat gott resultat. Det kanske inte är det. Det finns ingen järnklädd alltid rätt typ av regel som kan väljas.

Därefter kanske vissa av dessa regler inte är genomförbara.

Tänk på exemplet med den mänskliga fjärroperatören som ingriper när AI:n och den mänskliga föraren bråkar över körreglagen. Det kan ta många sekunder för den mänskliga fjärroperatören att ta reda på vad som pågår. Då kan fordonet redan ha hamnat i diket eller fått något annat negativt resultat. Anta också att platsen för fordonet utesluter fjärråtkomst som att vara på någon plats där det inte finns någon elektronisk nätverksanslutning. Eller så kanske fordonets nätverksfunktioner inte fungerar just nu.

Som du kan se kan regeln se snygg ut på papper, även om det kan vara ett mycket svårt eller mycket chansrikt att använda regeln. Se min bevakning med kritiska ögon på fjärroperatören för autonoma fordon och självkörande bilar på länken här.

Jag skulle vilja kortfattat täcka ett annat relaterat ämne som jag kommer att ta upp mer på djupet i en kommande analys.

En av de ökande farhågorna kring autonoma fordon och självkörande bilar som är halvautonoma är s.k. Hot Potato Syndrome.

Såhär är det.

Ett AI-körsystem och en människa samkörer. En fruktansvärd situation uppstår. AI:n har programmerats för att hoppa av köruppgiften och överlämna saker till människan när ett hemskt ögonblick inträffar. Detta verkar kanske "förnuftigt" eftersom vi verkar åberopa regeln om människan som standard "vinnare" i alla potentiella professionella oenigheter.

Men att AI hoppar av kan vara för mer smutsiga eller anses vara lömska syften. Det kan vara så att biltillverkaren eller det självkörande teknikföretaget inte vill att deras AI ska betraktas som "parten som är fel" när en bilolycka inträffar. För att till synes undvika att bli fastklämd på det sättet lämnar AI abrupt över kontrollerna till människan. Voila, människan är nu förmodligen helt ansvarig för fordonet.

Kickaren är att anta att AI gör denna handoff med låt oss säga en sekund kvar innan en krasch inträffar.

Skulle människan verkligen ha någon tillgänglig tid att avvärja kraschen?

Troligen inte.

Anta att AI gör handoff med några millisekunder eller nanosekunder kvar att gå. Jag vågar påstå att människan i princip har noll chans att göra något för att förhindra kraschen.

Ur biltillverkarens eller självkörande bilföretagets perspektiv kan de försöka agera som om deras händer var rena när en sådan bilolycka inträffar. Bilen kördes av en människa. AI:n körde inte bilen. Den enda "logiska" slutsatsen verkar vara att människan måste vara fel och AI:n måste vara helt oklanderlig.

Det är en skurk.

Jag kommer att diskutera detta mer ingående i en kommande krönika.

Slutsats

Professionella meningsskiljaktigheter kommer att uppstå.

Det är svårt att föreställa sig någon komplex uppgift som har två parter som tillsammans utför uppgiften och som det aldrig någonsin skulle uppstå några professionella meningsskiljaktigheter om. Det här verkar vara ett fantasiland eller åtminstone en stor raritet.

Idag har vi massor av människor-till-människa fall av yrkesmässig oenighet, för vilka det dagligen löses fredligt och förnuftigt på ett eller annat sätt. Faktum är att vi ofta ställer upp situationer avsiktligt för att främja och upptäcka professionella oenigheter. Du kanske hävdar att detta visar upp den berömda visdomen att ibland är två huvuden bättre än ett.

När AI blir mer utbredd kommer vi att ha massor av AI-till-människa eller människa-till-AI tvåpartsuppdragsutövare och det kommer att finnas professionella meningsskiljaktigheter som kommer att inträffa. Det lata tillvägagångssättet är att alltid hänvisa till människan. Detta kanske inte är den mest lämpliga metoden. AI kan vara det bättre valet. Eller så kan en av de andra ovannämnda reglerna vara ett sundare tillvägagångssätt.

Det finns den vise-linjen som ofta upprepas att vi alla borde kunna vara överens om att vara oense, men när det kommer till kritan, ibland måste en meningsskiljaktighet lösas otvetydigt, annars kommer den aktuella frågan att leda till otaliga katastrofer. Vi kan inte bara låta en oenighet tyna bort på vinstocken. Tid kan vara av avgörande betydelse och liv kan stå på spel.

Det finns ett tydligt krav på några försiktiga sätt att lösa meningsskiljaktigheter även om det inte nödvändigtvis är bra, inklusive när AI och en människa-i-slingan inte ser öga mot öga eller byte-till-byte.

Jag litar på att du inte kommer att hålla med om det helt angenäma påståendet.

Källa: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- piloten-och-biträdande piloten-höll inte med-för-att-starta-och-plutsligt-valta-taxi-tillbaka-till-terminalen-och-gå-sina-vägar/