"Elon Musks snabbkurs" tar en översiktlig titt på tekniska och regulatoriska misslyckanden

Oavsett hur smart eller visionär någon kan verka på ytan, är det viktigt att komma ihåg att de i slutändan är mänskliga och felaktiga. Bara för att de lyckas på vissa områden betyder det inte att de kan göra detsamma i allt de försöker. Det är därför det är oerhört viktigt att undvika att sätta människor på en för hög piedestal eftersom det kommer att göra ont när de kraschar. En ny dokumentärfilm publicerad av New York Times
NYT
och nu försöker streaming på Hulu ta en titt på Elon Musks ansträngningar att marknadsföra och sälja automatiserad körning på Tesla
TSLA
fordon, men inte vad det kan ha varit.

Vid en speltid på 74 minuter, "Elon Musks snabbkurs” försöker täcka en hel del mark, men det verkar i slutändan som om det spenderar för mycket tid på vissa ämnen och inte tillräckligt på några av de viktigaste. Regissören Emma Schwartz inleder filmen med en titt på Teslas ursprung och ansträngningar för att utveckla automatiserade fordon som går tillbaka till en GM-reklamfilm från 1956 med Firebird II-konceptet och DAR
AR
PA Grand Challenge.

Men där filmen verkar gå fel är att spendera för mycket tid på Joshua Brown. Brown var den före detta marinens bombdeponeringsexpert som var det första kända dödsfallet när han använde Teslas AutoPilot förarassistanssystem. Betydande delar av filmen har överlämnats till att höra från några av Browns vänner om varför han var så förtjust i AutoPilot att han lade mer än 45,000 2016 miles på sin Model S under de nio månaderna mellan släppet av AutoPilot och hans död i maj XNUMX.

Medan New York Times reportrar Neal Baudette och Cade Metz gör ett skickligt jobb med att förklara några av begränsningarna hos AutoPilot, har de flesta som förmodligen borde se en film som denna förmodligen liten eller ingen teknisk kunskap om hur automatiserad körning fungerar. Dessa medlemmar av allmänheten skulle ha stor nytta av en solid primer som skär igenom de många missuppfattningarna kring automatiserad körning, av vilka många har förkunnats av Teslas vd Musk själv under åren.

Tittarna skulle kunna lära sig några viktiga lektioner om vad som faktiskt krävs för att skapa, testa och validera ett automatiserat fordon om filmen hade inkluderat intervjuer med sådana som Carnegie Mellon Universitys datavetenskapsprofessor Phillip Koopman eller Ann Arbor-baserade advokaten Jennifer Dukarski. Istället får vi många ord från vänner till Brown som förklarar hur intresserad han var av teknik och varför han var så stenhård på att testa gränserna för sin bil.

Till äran för filmskaparna som de gjorde inkluderade intervjuer med ett par före detta ingenjörer i AutoPilot-teamet, medlemmar av National Transportation Safety Board (NTSB) inklusive tidigare ordförande Robert Sumwalt och Bryan Thomas, tidigare kommunikationsdirektör för National Highway Traffic Safety Administration (NHT
HT
SA).

Raven Jiang och JT Stukes erkände båda begränsningarna hos AutoPilot. "Vi ville försöka göra AutoPilot säker," sa Jiang.

"Vid tidpunkten för kraschen var jag medveten om att folk litade på att systemet skulle göra saker som det inte var designat eller kapabelt att göra," tillade Stukes. "Det faktum att den sortens olycka inträffade är uppenbarligen tragiskt, men det var något som skulle hända."

En anledning till att det sannolikt skulle hända är att Tesla har bestämt sig för att använda en kamera först och nu endast kamera. "Det fanns ingen djupgående forskningsfas där olika fordon var utrustade med en rad sensorer, många teammedlemmar skulle ha velat det, istället drogs slutsatsen först och sedan började test- och utvecklingsaktiviteterna bevisa att slutsatsen stämmer."

Under de senaste 15 åren har Musk drivit fram många stora utvecklingar inom raketer och popularisering av elbilar och mjukvarudefinierade fordon. Men när det kommer till säkerhetskritiska system finns det inga genvägar. När liv står på spel är det de som skapar teknologier som ansvarar för att ta vederbörlig omsorg. När de misslyckas med att göra det som Musk upprepade gånger har gjort med AutoPilot och Full Self-Driving, är det säkerhetsregulatorernas ansvar att styra dessa människor.

Det är här jag ser filmens största misslyckande. NTSB har ansvaret för att utreda transportolyckor av alla slag, inklusive flyg, järnväg, marina och markfordon. I kölvattnet av Brown-kraschen gav NTSB många utmärkta rekommendationer, inklusive att kräva mer robust förarövervakning för system som fortfarande kräver mänsklig övervakning som Tesla AutoPilot/FSD, GM:s Super Cruise och alla andra system på vägen idag. NTSB rekommenderade också att system bör geofenceras till vägarna där de kan fungera säkert.

NHTSA är den byrå som har tillsyns- och tillsynsbefogenheter över bilindustrin. Under de sex åren som gått sedan Browns död har det förekommit många andra dödsolyckor med missbruk av AutoPilot, men NHTSA har inte gjort någonting alls för att implementera någon av NTSB-bestämmelserna. Först under de senaste 12 månaderna sedan administrationsbytet i Washington har NHTSA till och med börjat göra någon seriös datainsamling på delvis automatiserade system och det är någons gissning om när något konkret kommer att göras.

Filmen släpper helt bollen på att undersöka varför NHTSA inte har gjort något för att säkerställa att partiella automatiseringssystem faktiskt verifieras för att vara säkra och effektiva. Om något så har byrån gjort det möjligt för Tesla att fortsätta gå vidare med att sälja en teknik som faktiskt inte fungerar och marknadsföra den mer än någonsin. För att vara rättvis kan andra statliga myndigheter som Federal Trade Commission också försöka ta itu med åtminstone marknadsföringssidan av detta problem, men filmen undersöker inte bristerna hos några regeringstjänstemän.

I ett kapitalistiskt system är det inte alls ovanligt att företag försöker komma undan med så mycket de kan i jakten på vinst. Det är regeringarnas uppgift att sätta upp de skyddsräcken som behövs för att skydda allmänheten från skrupelfria företag. Det är journalisternas uppgift att hålla ljuset på alla brister i processen så att vi som befolkning kan vara medvetna och hålla alla till svars. Elon Musks Crash Course hade en möjlighet att göra mycket mer runt historien och tappade bollen. Mer måste göras för att berätta sanningen om vad som händer med alla parter som är inblandade i denna tragiska berättelse.

Källa: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/