Aha, man visade en fullstor variant för att man skulle sälja en liten leksak?
Uppfattade det inte så vid presentationen. Ungefär samma grej som “eldkastaren”.
Aha, man visade en fullstor variant för att man skulle sälja en liten leksak?
Uppfattade det inte så vid presentationen. Ungefär samma grej som “eldkastaren”.
Varför tror du det? Det är inte ovanligt att ett företag skapar en barn version av något som är avsedd för vuxna.
Jadu, dom rullar upp den på scen och säger jättemalligt “we created the cyberquad”. Det är uppenbarligen en fullstor fyrhjuling.
Sen kommer en liten leksak ut till försäljning.
Precis som jag skrev tidigare, en ATV som inte har börjat säljas.
Jaha, den lilla kom först och den stora kommer senare? Då fattar jag.
Du likställer ju alla Musks projekt med Tesla. Det funkar ju inte. Tesla bygger inga rymdraketer, Hyperloop eller eldkastare. Jag förstår att det blir svårt att förstå bolaget om du inte hänger med.
Ja, kan kasta in lite Twitter också.
Alla bolag har ändå gemensamt att det står en lögnare och stammar i mitten.
Du och alla som slänger sig med invektiv kan väl källhänvisa lite så blir det lättare att följa resonemanget.
Intressant och balanserat inslag från CNBC om varför amerikanska biltillverkare har det kämpigt i Kina.
Uppenbarligen är självkörandeteknologin som Tesla utvecklar långt ifrån att erbjuda någon som helst nytta. Snake oil!
Jag hoppas att de får ordning på autopiloten, det hade varit episkt.
Men jag tror inte de är där än och jag är starkt skeptisk till att de testar live i den utsträckningen de gör.
https://www.autoweek.com/news/a60745618/nhtsa-tesla-autopilot-recall-query/
När är autopilot bra nog?
Det vore fantastiskt om en bil kunde köra sig själv på ett säkert sätt, men när tycker man att det är bra nog?
Jag har t.ex slutat köra med farthållare eftersom att jag tycker att jag är mer alert utan.
Vad blir reaktionstiden när bilen kört felfritt 10 mil men gör en dundertabbe helt plötsligt?
När man pratar om att AI ska ta över uppgifter där man kan acceptera att utfallet blir galet ibland så räcker det med att AI gör rätt i ungefär lika stor utsträckning som människan.
När kan vi acceptera att en självkörande bil tar livet av ett barn och bara kalla det olycka? Vem bär skulden innan det? Är det rimligt att föraren blir skyldig om bilen gör en tabbe som inte är möjlig att korrigera med en genomsnittlig reaktionstid?
För att vara väldigt konspiratorisk, när ser vi att Teslor kör ihjäl specifika personer i eller utanför bilen och kallar det olyckor? ![]()
![]()
Jag tror du menar FSD eftersom autopilot är endast adaptiv farthållare med styrning inom markerad körfält med några ytterligare enklare funktioner.
Förlåt för att jag använde fel namn på teslas ”autopilot”.
Det jag vill säga är att det är lite tidigt att hävda att tekniken snart är där när det krävs mänsklig input två gånger i filmklippet som delades ovan.
När man kan köra en miljon sådana testkörningar utan att en människa behöver rycka in så skulle jag säga att tekniken är mogen för trafiken. Allt annat är ett spel med okända människors hälsa.
Det imponerande var ju att inputen inte var av säkerhetsskäl. Men visst, det finns en reell chans att Tesla misslyckas helt. Men jag tror att det är mer troligt att vi kommer se tillåtande av FSD som autonoma taxis i geofencade områden ganska snart, god knows när.
Finns en spännande följetong som en snubbe som heter Chuck gör, där han låter FSD svänga vänster över tre filer med mycket trafik. Man kan konstatera att den senaste versionen 12.3.6 inte är redo.
Du menar som Waymo?
Ja, det är rimligt laglighetsmässigt. Enda skillnaden blir att Tesla kommer kunna lansera tjänsten i fler områden snabbare och tjäna pengar på den, till skillnad från waymo.
Waymo är extremt avgränsade.
Ja, och vänta bara tills Optimus börjar säljas, kan på sikt bli större än elbilsmarknaden
Med tanke på den snabba AI-utvecklingen är det inte alls omöjligt.