AI-etik och AI-lag kan helt enkelt drivas och inriktas på att kräva säkerhetsvarningar för all befintlig och framtida AI

Dina dagliga aktiviteter bombarderas utan tvekan med tusen eller fler försiktighetsvarningar av ett eller annat slag.

Prova dessa för storlek:

  • Skyddsglasögon måste alltid bäras
  • Fara: Farliga kemikalier i närheten
  • Högspänning – Håll ut
  • Varning: Var uppmärksam på din omgivning
  • Objekt i spegeln är närmare än de ser ut
  • Ta bort barnet innan det fälls ihop (som anges på barnvagnar)
  • Varning: Se till att ignorera detta meddelande

De flesta av dessa är praktiska och helt och hållet genomtänkta skyltar eller etiketter som tjänar till att hålla oss förhoppningsvis säkra och säkra.

Var medveten om att jag smög några "avvikande" på listan för att göra några anmärkningsvärda poäng.

En del människor tycker till exempel att det är knäppt att barnvagnar har en etikett som varnar dig för att inte vika ihop vagnen medan barnet fortfarande sitter i redskapet. Även om tecknet förvisso är lämpligt och plikttroget användbart, verkar det som om grundläggande sunt förnuft redan skulle vara tillräckligt.

Vilken person skulle inte av sin egen medvetna vilja inse att de först måste ta bort barnet?

Nåväl, andra betonar att sådana etiketter tjänar ett viktigt syfte. För det första kan någon verkligen vara omedveten om att de behöver ta bort barnet innan de fäller ihop vagnen. Kanske antog personen att vagnen var smart utformad för att säkerställa att hopfällningen inte skulle skada barnet. Eller möjligen finns det inbyggda säkerhetsfunktioner som förhindrar hopfällning när det finns ett barn i vagnen. Etc.

Det kan också vara så att personen var distraherad och sanslöst skulle ha vikt vagnen, med baby och allt, men etiketten fick lyckligtvis personen att inte göra det (vissa skulle hävda att det verkar osannolikt att en sådan person skulle lägga märke till etiketten i alla fall). Det finns också det faktum att någon kan stämma tillverkaren av barnvagnen om en sådan etikett inte fanns. Du kan föreställa dig en av de där rejäla rättegångarna där en bebis skadades och föräldern bestämde sig för att samla in en miljon dollar eftersom vagnen saknade en varningsskylt på den. Barnvagnsföretaget skulle ångra att de inte spenderade de få ören som behövdes för att tillverka och klistra in varningsskyltarna på sina barnvagnar.

Ta också en närmare titt på det sista av varningsmeddelandena som jag hade listat ovan.

Jag valde att placera det smarriga meddelandet om att se till att ignorera meddelandet eftersom det finns många falska varningsetiketter som folk köper eller gör bara för skojs skull nuförtiden. Den här är en riktig filosofisk sinneblandare. Om du läser varningen som säger att du ska ignorera varningen, vad exakt ska du göra när du har läst varningen? Du har redan läst det, så det är tydligen i ditt sinne. Visst, du kan ignorera det, men återigen, du får inte alls råd om vad det är som du ska ignorera. Runt om runt, går det här skämtet.

Naturligtvis är bona fide varningsetiketter vanligtvis inte av skämtande eller humoristisk karaktär.

Vi ska ta varningar på största allvar.

Vanligtvis, om du inte följer en noterad varning, gör du det med en personlig allvarlig risk. Och det kan också vara så att om du inte observerar och följer varningen så kommer du potentiellt att utsätta andra för onödig risk också. Tänk på handlingen att köra bil. I det ögonblick du sitter bakom ratten i en bil kan ditt agerande som förare skada dig själv, plus att du kan skada dina passagerare, och du kan skada andra som människor i andra bilar eller närliggande fotgängare. I den meningen är en varning inte bara till din fördel, den är sannolikt till fördel för andra också.

Varför täcker jag dessa aspekter av varningar och varningsetiketter?

Eftersom vissa hävdar häftigt att vi behöver varnings- och varningsskyltar på dagens artificiella intelligens (AI).

I själva verket är tanken att sätta sådana etiketter på dagens AI och framtida AI också. Sammantaget skulle all AI sluta ha någon form eller variant av en varning eller varningsindikation kopplad till sig.

Bra idé eller dålig idé?

Praktiskt eller opraktiskt?

Låt oss gå vidare och packa upp konceptet och se vad vi kan göra av det.

Jag skulle först vilja lägga en viktig grund om AI och särskilt AI-etik och AI-lag, för att se till att ämnet AI-varningar kommer att vara kontextuellt förnuftigt. För dig som är allmänt intresserad av etisk AI och även AI-rätt, se min omfattande och pågående bevakning på länken här och länken här, bara för att nämna några.

Den ökande medvetenheten om etisk AI och även AI-lag

Den senaste tiden av AI ansågs ursprungligen vara AI For Good, vilket betyder att vi kan använda AI för att förbättra mänskligheten. I hälarna på AI For Good kom insikten att vi också är nedsänkta i AI för dåligt. Detta inkluderar AI som är framtagen eller självförändrad till att vara diskriminerande och gör beräkningsval som genomsyrar onödiga fördomar. Ibland är AI:n byggd på det sättet, medan den i andra fall svänger in i det ogynnsamma territoriet.

Jag vill försäkra mig mycket om att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om sentient AI, skulle den här diskussionen kunna gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Jag skulle starkt föreslå att vi håller saker nere på jorden och överväger dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Var mycket försiktig med att antropomorfiera dagens AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Jag har också nyligen undersökt AI Bill of Rights vilket är den officiella titeln på det amerikanska regeringens officiella dokument med titeln "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årslång insats av Office of Science and Technology Policy (OSTP) ). OSTP är en federal enhet som tjänar till att ge råd till den amerikanske presidenten och US Executive Office om olika tekniska, vetenskapliga och tekniska aspekter av nationell betydelse. I den meningen kan du säga att denna AI Bill of Rights är ett dokument som godkänts av och godkänts av det befintliga amerikanska Vita huset.

I AI Bill of Rights finns det fem nyckelstenskategorier:

  • Säkra och effektiva system
  • Algoritmiskt diskrimineringsskydd
  • Dataintegritet
  • Meddelande och förklaring
  • Mänskliga alternativ, hänsyn och fallback

Jag har noggrant granskat de föreskrifterna, se länken här.

Nu när jag har lagt en användbar grund för dessa relaterade AI-etik- och AI-rättsämnen, är vi redo att hoppa in i det berusande ämnet om huruvida AI borde ha varningsetiketter eller inte.

Gör dig redo för en ögonöppnande informativ resa.

Att sätta varningsetiketter på AI som ett sätt att skydda mänskligheten

Det finns ett växande surr på gång att AI kanske borde komma med en varning av något slag.

Till exempel i en ny artikel i MIT Technology Review som diskuterade det ökande intresset för att göra revisioner av AI, uppstod idén om att tillhandahålla varningsskyltar: "Tillväxten av dessa granskningar tyder på att vi en dag kan se varningar i cigarettförpackningar om att AI-system kan skada din hälsa och säkerhet. Andra sektorer, som kemikalier och livsmedel, har regelbundna revisioner för att säkerställa att produkterna är säkra att använda. Kan något sådant här bli normen inom AI?” (MIT Technology Review, Melissa Heikkilä, 24 oktober 2022).

Låt oss prata lite övergripande om varnings- och varningsskyltar.

Vi är alla redan allmänt bekanta med varnings- och varningsskyltar på många produkter och tjänster av vardagsnatur. Ibland är säkerhetsskyltarna stadgade i lag som obligatoriska, medan det i andra fall finns möjlighet att använda sådana skyltar. Dessutom är vissa säkerhetsskyltar standardiserade, som att de specificeras enligt ANSI Z535-standarden och OSHA 1910.14-standarden. Dessa normer omfattar sådana aspekter som kännetecknets ordalydelse, de färger och typsnitt som används, kännetecknets form och olika andra uppgifter.

Det är vettigt att ha standarder för sådana varningsskyltar. Närhelst du ser ett sådant tecken, om det uppfyller de angivna standarderna, är det mer sannolikt att du tror att tecknet är legitimt, plus att du behöver mindre kognitiv bearbetning för att analysera och förstå tecknet. För tecken som inte är av ett standardiserat tillvägagångssätt måste du ofta mentalt beräkna vad tecknet säger till dig, kanske förlorar dyrbar tid för att vidta åtgärder eller så kan du helt felbedöma tecknet och inte riktigt förstå varningen till hands.

En rad sådana tecken kan finnas, för vilka de ofta klassificeras ungefär så här:

  • Faratecken: Största oro och indikerar en omedelbar fara med sannolikt allvarliga konsekvenser
  • Varningsskylt: Indikerar en fara som är mindre än "fara" men fortfarande ganska allvarlig
  • Varningstecken: Indikerar en potentiell fara som är mindre än "varning" men ändå verkligen allvarlig
  • Meddelandeskylt: Indikerar en informativ heads-up som är mindre än "försiktighet" men som fortfarande innebär oroande aspekter

Med tanke på ovanstående bakgrund om varningar och varningstecken kan vi gå vidare och försöka tillämpa detta kontextuellt på användningen av AI.

För det första kan vi eventuellt på något sätt komma överens om att AI-skyltarna kan vara i en liknande svårighetsgrad som är vanligt med vardagliga tecken, så att:

  • AI Fara tecken: AI av högsta oro och indikerar en omedelbar fara med sannolikt allvarliga konsekvenser
  • AI varningsskylt: AI indikerar en fara som är mindre än "fara" men fortfarande ganska allvarlig
  • AI varningsskylt: AI indikerar en potentiell fara som är mindre än en "varning" men ändå verkligen allvarlig
  • AI-aviseringstecken: AI som indikerar en informationsinformation som är mindre än "försiktighet" men som fortfarande innebär oroande aspekter

Kontentan är att inte all AI kommer att vara lika oroande. Det kan vara så att en AI utgör enorma risker eller bara har marginella risker. Följaktligen bör skyltningen spegla vilken som är vilken. Om alla AI-varningar eller varningstecken helt enkelt visades vara av samma kaliber, skulle vi antagligen inte veta eller vara medvetna om huruvida vi skulle vara mycket oroliga eller endast milt bekymrade över AI. Att använda ett typiskt formuleringsschema kan göra livet lättare när man ser och tolkar AI-relaterade varningsskyltar.

Du kanske undrar vad mer tecknen skulle säga när det gäller detaljerna i det budskap som ska förmedlas.

Det är definitivt en svårare fråga att ta itu med. AI-möjligheterna att göra saker som anses vara osäkra eller oroande skulle vara enormt stora, nästan oändliga. Kan vi koka ner dem till någon rutiniserad uppsättning som stavas med bara en handfull ord vardera? Eller kommer vi att behöva tillåta ett mer fritt förhållningssätt till hur formuleringen kommer att gå?

Jag låter dig fundera över den öppna frågan.

När vi går vidare tenderar vi att se varningsskyltar uppsatta på föremål. Ett AI-system är inte nödvändigtvis ett "objekt" i samma mening som den vanliga anbringandet av skyltar. Detta väcker frågan om var AI-varningsskyltarna kommer att visas.

Det kan vara så att när du kör en app på säg din smartphone att om den använder AI skulle det visas ett meddelande som innehåller den AI-relaterade varningen. Appen skulle varna dig om den underliggande användningen av AI. Detta kan vara ett popup-meddelande eller kan presenteras på en mängd olika visuella och till och med auditiva sätt.

Det finns också situationen att du använder en tjänst som stöds av AI, även om du kanske inte direkt interagerar med AI. Du kan till exempel ha en konversation med en mänsklig agent om att få ett bostadslån, för vilket agenten är tyst bakom kulisserna och använder ett AI-system för att vägleda sina ansträngningar.

Därför bör vi förutse att AI-varningsskyltarna bör finnas i båda AI-användningsfallen, så att:

  • Produktspecifik AI: AI som produkt borde ha direkt AI-varning eller varningstecken
  • Serviceorienterad AI: AI som en tjänst (direkt eller indirekt) borde ha AI-varnings- eller varningsskyltar

Skeptiker skulle säkert vara snabba med att föreslå att AI-varningsskylten kan vara smygt maskerad av apptillverkaren så att varningen inte är särskilt märkbar. Kanske dyker varningen upp ett kort ögonblick och du märker verkligen inte att den visades. Ett annat lömskt knep skulle vara att göra ett slags spel av det, till synes undergräva allvaret i varningen och invagga folk att tro att varningen är oviktig.

Ja, du kan i stort sett satsa på att alla AI-relaterade varningsskyltar kommer att luras ut och användas på ett sätt som inte ligger inom andemeningen och syftet med det varnande meddelandet de ska förmedla.

Alla dessa skepsis hänger samman med huruvida vi skulle använda AI-etiken som "mjuka lagar" för att försöka driva framåt med AI-relaterade varningar och försiktighetsåtgärder, eller om vi skulle använda oss av "hårda lagar" inklusive antagna lagar med domstolsstöd. I teorin skulle den mjuka lagpressen tillåta en större sken av att leka med saken, medan lagar om böckerna skulle komma med potential för statligt verkställande och frambringa större stränghet.

En annan fråga är om AI-skyltningen skulle göra någon skillnad ändå.

Massor av forskning om konsumentbeteende tenderar att visa förvirrade resultat när det gäller att tillhandahålla varningsetiketter för konsumenter. Ibland är varningarna effektiva, ibland inte. Låt oss tillämpa en del av den forskningen på AI-kontexten.

Tänk på dessa aspekter:

  • Upptäckt: Skulle de som använder AI som innehåller en livskraftig AI-varningsskylt aktivt märka eller upptäcka att skylten visas för dem (förutsatt att sådan skyltning inträffade)?
  • Förståelse: För de som märkte det, skulle de förstå eller förstå vad AI-varningsskylten försöker antyda för dem?
  • Handling: För dem som gör det mentala språnget, kommer AI-varningsskylten att uppmana dem till handling eller på annat sätt tjäna till att styra deras beteende i enlighet med detta?

Du kan förutse att om farten ökar för att ha AI-varningssignaler, kommer forskare att noggrant studera saken. Tanken skulle vara att hjälpa till att klargöra under vilka omständigheter varningarna är användbara och när de inte är det. Detta i sin tur relaterar till designen och utseendet och känslan. Vi kan också förvänta oss att allmänheten i stort skulle behöva utbildas eller informeras om uppkomsten av dessa AI-varnings- och varningsskyltar så att de kommer att vänja sig vid dem.

Det finns många vändningar att ta hänsyn till.

Bör AI-varningen eller varningsskylten endast förekomma i början av appen som används? Kanske utgångspunkten inte är tillräcklig i sig. En person kanske vid första anblicken tror att appen bara spelar den på ett säkert sätt genom att använda en varning, och därför inte tar så mycket hänsyn till varningen. När personen är halvvägs in i att använda appen, kanske en ytterligare varning skulle vara motiverad. Vid det tillfället är personen mer medveten om vad appen gör och de kanske redan har glömt det tidigare indikerade varningsmeddelandet.

AI-varningen eller varningen kan då inträffa:

  • Innan du startar appen och precis när appen är på väg att anropas
  • Presenteras när appen har startat och endast vid startpunkten
  • Visas i början och igen halvvägs
  • Visas flera gånger under användningen av AI
  • Ges i slutet av att använda appen
  • Tillhandahåll efter att ha avslutat appen och möjligen till och med minuter, timmar eller dagar senare
  • Annat

Tror du att personen som använder AI behöver bekräfta eller erkänna sådana AI-varningar eller varningstecken?

Vissa skulle insistera på att personen skulle krävas att erkänna att de såg varningarna. Detta skulle potentiellt förhindra de som kan göra påståenden om att det inte fanns något varningsmeddelande. Det kan också få människor att ta meddelandena på större allvar, med tanke på att de uppmanas att bekräfta att de har observerat varningsindikeringen.

Här är en svår fråga till dig.

Om alla AI måste ge en varning eller säkerhetsindikation?

Du kanske hävdar att ja, all AI måste ha detta. Även om AI bara är en marginell säkerhetsrisk bör den fortfarande ha någon form av varningsskylt, möjligen bara en notifikation eller informationsindikation. Andra skulle bestrida detta påstående. De skulle motargumentera att du går överbord. Inte all AI behöver detta. Dessutom, om du tvingar all AI att ha det, kommer du att späda på syftet. Människor kommer att bli bedövade av att se varningsindikationerna. Hela upplägget kommer att bli en fars.

På en relaterad vinkel, överväg vad AI-tillverkarna sannolikt kommer att säga.

En synpunkt skulle vara att detta kommer att vara en smärta i du-vet-vad som ska införas. Att behöva ändra alla dina AI-system och lägga till den här funktionen kan bli kostsamt. Att lägga till det i fortsättningen kan vara mindre kostsamt, men det finns ändå en kostnad förknippad med att inkludera denna bestämmelse.

Diskretheten är ett annat potentiellt klagomål. Vilken typ av meddelande måste visas? Om det inte finns några standarder betyder det att AI-tillverkarna kommer att behöva skapa något nytt. Inte bara kostar denna extra kostnad, det öppnar möjligen dörren för att bli stämd. Du kan föreställa dig att en AI-tillverkare kan tas till uppgiften att deras varning inte var lika bra som något annat AI-system. Advokater kommer att sluta göra en bunt från den resulterande förvirringen.

Det finns också en oro för att människor kommer att bli onödigt rädda av dessa säkerhetsmeddelanden.

En AI-tillverkare kan se en hastig minskning av antalet användare på grund av ett säkerhetsmeddelande som bara är avsett att ge en informationsförsiktighet. Folk kommer inte att veta vad de ska tycka om meddelandet. Om de inte har sett sådana meddelanden tidigare, kan de omedelbart bli skrämda och undvika att använda AI i onödan.

Jag nämner dessa aspekter eftersom vissa redan förkunnar att "det kan inte skada" att börja inkludera AI-varningar eller säkerhetsmeddelanden. För dem är idén lika idealisk som äppelpaj. Ingen kunde på allvar motbevisa fördelarna med att alltid kräva AI-relaterad säkerhet eller varningar. Men det är naturligtvis inte ett verkligt sätt att tänka på saken.

Du kan till och med gå längre och hävda att AI-varningsmeddelandena kan producera någon form av masshysteri. Om vi ​​plötsligt började tvinga AI-system att ha sådana meddelanden, kan folk missuppfatta avsikten. Du förstår, det finns massor av uppmaningar om att vi står inför en existentiell AI-kris, där AI kommer att ta över världen och utplåna mänskligheten, se länken här för min analys av den typen av påståenden.

Användningen av AI-varningsmeddelandet kan "inspirera" vissa människor att tro att slutet är nära. Varför skulle meddelandena annars dyka upp nu? Visst är det en indikation på att AI äntligen gör sig redo att bli våra förtryckande överherrar.

Ett slags förtvivlat dystert resultat av att försöka göra det rätta genom att göra allmänheten medveten om hur AI kan ingjutas med diskriminerande kapacitet eller andra AI för dåligt aspekter.

Slutsats

James Russell Lowell, den berömda amerikanska poeten, sa en gång detta: "En tagg av erfarenhet är värd en hel vildmark av varning."

Jag tar upp den höga kommentaren för att göra några avslutande kommentarer om frågan om AI-varningar eller säkerhetsmeddelanden.

Chansen är stor att tills vi har en något utbredd insikt om att AI gör dåliga handlingar, kommer det inte att finnas mycket rop efter AI-relaterade varningsmeddelanden. De AI-tillverkare som väljer att frivilligt göra det kommer kanske att hyllas, även om de också av misstag kan bli trakasserade på ett orättvist sätt. Vissa förståsigpåare kanske går efter dem för att ha utnyttjat AI som tycks behöva varningar, till att börja med, samtidigt som de försummar att inse att de försökte gå först och att alla dessa andra AI-tillverkare släpar efter.

Förbannat om du gör det, kanske inte förbannat om du inte gör det.

Ett annat övervägande handlar om att omvandla vad som verkar vara en trevlig konceptuell idé till en praktisk och användbar praktik. Det är lätt att vifta med händerna och vagt ropa för vindarna att AI borde ha varnings- och säkerhetsmeddelanden. Den svåra delen kommer när man bestämmer vad dessa meddelanden ska vara, när och var de ska presenteras, om eller i vilken grad deras kostnad ger tillräckliga fördelar, och så vidare.

Vi ska häri ge James Russell Lowell det sista ordet (poetiskt så) i detta ämne för nu: "Kreativitet är inte att hitta en sak, utan att göra något av den efter att den har hittats."

Antar att det är dags att kavla upp ärmarna och börja jobba med detta. Och det är inte bara en varning, det är en handling.

Källa: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- varningar-om-allt-existerande-och-framtid-ai/