米国ユーチューバーとして非常に有名なマーク・ロバーは、最近「Can You Fool A Self-Driving Car?(自動運転車を欺けるか?)」というタイトルのビデオを公開しました(以下のYouTube)。もちろん、ビデオで紹介されている車両はテスラ以外にありませんが、このビデオには多くの間違いがあり、それについて解説したいと思います。
私たちはいくつかの調査を行い、この件について主張する前に、ここ数日間の経過を見守りました。マーク・ロバーの動画には致命的な問題点があります。
前提
マーク・ロバーは、さまざまなテストシナリオを用いて、自動運転車を欺くことが可能かどうかを証明しようとしました。これには、道路に見えるように塗られた壁、視界を遮る霧、マネキン、ハリケーン並みの強風雨、明るい逆光などが含まれていました。
これらの個々の「テスト」にはそれぞれ問題がありました。その理由は、マークがテスト方法を遵守していなかったことだけでなく、彼が(あらかじめ想定していた)結果を求めていたこと、そして、確信が持てるまでそのテストを編集していたことなどです。
興味深いことに、Xの多くの人々は、マークが以前GoogleからPixelの使用を支援されていたにもかかわらず、車内での録画にはiPhoneを使用していたこと、そして、何らかの理由でiPhoneがPixelでの動画のように編集されていたことにすぐに気づきました。これに加え、その他の編集やカットのまずさもあり、私たちを含め多くの人々は、マークのテストは編集され、欠陥があると考えました。
問題点1:オートパイロットでFSDではない
最初のレビューの問題点を見てみましょう。 マークがテストしたのはあくまでテスラのオートパイロットで、FSDではありませんでした。 オートパイロットは車線中央維持や速度コントロールを支援する機能であり、自動運転機能ではありません。 車線から逸脱した場合に回避操縦を行うことはできませんが、自動緊急ブレーキ、前方衝突警告、ブラインドスポット衝突警告、車線逸脱回避など、テスラの幅広い機能を利用することができます。
一方、FSDは衝突回避のために車線を逸脱することが許可されており、また実際にも可能です。つまり、オートパイロットが停止を試みたもののできなかった場合には、FSDとは異なり、前方の障害物に衝突することになります。
FSDの議論を続けると、オートパイロットは5年前のソフトウェアスタック上で動作しており、それほどアップデートされていないことを忘れないでください。悲しいことに、これはテスラがオートパイロットスタックを長い間アップデートしていないというのが現実なのです。最終的には、オートパイロットに代わるグレードダウンしたバージョンのFSDが登場する可能性が高いですが、まだ実現していません。
マークは後に、「目的地を入力しなければFSDを起動できない」ため、オートパイロットを使用していたと認めていますが、これも正しくありません。 目的地を入力しなくてもFSDを起動することは可能ですが、FSDは独自のルートを選択します。 目的地を選択するまでは、FSDがどこに向かうかはコントロールできませんが、一般的には前方に向かう方向に道路をナビゲートする傾向があります。
車両にFSDが搭載されていないことや、目的地なしでFSDを起動できることを知らないことなど、全体的な状況から、マークはFSDにあまり詳しくなく、この機能に触れる機会が限られていることが伺えます。
FSDは1か月あたり99ドルしかかからないことを念頭に置いておきましょう。この動画で彼がFSDを使用していないことに対しては、何ら言い訳の余地はありません。
問題点2:オートパイロットのキャンセルとブレーキの踏込
Xの多くの人々も、マークがアクセルペダルを踏んだり、ハンドルを引っ張っていたという報告を続けていました。ブレーキペダルを強く踏んだり、ハンドルを強く動かしたりすると、オートパイロットはその時点で解除されます。マークは、それぞれの「テスト」中、なぜかハンドルをしっかりと握っていました。
これはかなり奇妙に感じられます。マークが自動ブレーキを作動させていた距離は極めて短かったため、通常のオートパイロットのようにハンドル操作を促す警告や運転操作の引き継ぎを促す警告が出るほどの時間的余裕はありませんでした。さらに、複数のテストにおいて「衝突」の前にハンドルを引いている様子が明確に確認できます。
Xでは、techAUがテストごとに詳細に分析しています。マークはいくつかのテストではオートパイロットを使用しておらず、最初のテストではアクセルペダルを使用していた可能性があり、これは自動緊急ブレーキがオーバーライド(機能解除)されたことを意味します。別のテストでは、マークはペダルを使用したことを認めています。
問題点3:ルミナー社がスポンサー
この動画は、米国のLiDARメーカーであるルミナー社がスポンサーとなっている可能性があります。ただマークは、そうではないと主張しています。興味深いことに、ルミナー社はテスラ社向けにLiDAR装置を製造納品しており、テスラ社はFSDの地上精度をテストするためにそれを使用しています。さらに興味深いことに、動画投稿のタイミングで、ルミナー社の決算報告会が開催される予定になっていました。
ルミナー社は自社のホームページのトップにこの動画へのリンクを貼っていましたが、その後いろんな意見が噴出してすぐに削除しました。マークはルミナー社から資金提供を受けていることを認めませんでしたが、マークの慈善財団はルミナー社のCEOから寄付を受けているため、より明確な利害関係があるようです。
ルミナー社にとってポジティブな結果が出たことを考えると、このビデオは、テスラ社に対するネガティブな風潮をうまく利用し、ルミナー社の株価を上昇させるために、タイミングよくうまく設計されたものだったようです。
問題点4:カメラでの奥行き推定
次に挙げる問題点は、人間と機械が視覚を使って奥行きを判断できるという事実です。Xでは、ユーザーのアブドゥが単眼の奥行き推定モデル(DepthAnythingV2)で「見えない壁」を走らせました。これは、単一の角度で単一の画像を使用するモデルです。このかなり単純化されたモデルは、画像内のアイテムの距離と奥行きを推定することができ、偽の壁を周囲から簡単に区別することができました。
テスラのFSDは、以前ははるかに高度なマルチアングル、マルチイメージツールを使用しており、周囲の環境を縫い合わせて3Dモデルを作成し、その結果を分析して意思決定や予測を行っていました。テスラのより洗練された複雑なモデルは、このような障害物をはるかに簡単に検出できるでしょう。そして、これらの技術革新は、5年前のオートパイロットスタックよりもはるかに最近のものです。
単一の画像では距離の検出がより困難ですが、ビデオのように複数の画像があれば、物体が近づくにつれて各ピクセルのサイズを追跡することで、物体間の距離をより簡単に解読することができます。基本的に、すべてのピクセルが一定の割合で大きくなっている場合、それは平らな物体、つまり壁であることを意味します。
事例:中国のFSDテスター
この主張をより強固なものにするために、一部の中国のFSDテスターは街に出て、車両が通過したり近づいたりすることを拒否するセミ・トランスペアレントシートを設置しました。テストが実行されるたびに、車両はすぐに操縦を試み、道路に立っている歩行者がいる場合は前進を拒否しました。
Would FSD hit a transparent film wall?
— Aaron Li (@boolusilan) March 18, 2025
This test showed it just avoids it.
Added English subtitles.
Credit: Douyin 第一智驾 pic.twitter.com/IU8IyuRG01
この動画を制作したDouyinとリー氏に感謝します。この動画は、FSDが実際にこのような状況にどのように対応するのかを示す優れた例となっています。
問題点5:続編動画とインタビュー
コミュニティからの反発を受けて、マークはX上で動画を公開し、コミュニティの懸念を解消しようとしました。しかし、これも裏目に出ました。マークの2つ目の動画は、オリジナル動画とはまったく異なる内容であることが判明しました。これは、速度、アングル、開始時間が異なっていました。
その後、マークはフィリップ・デフランコとのインタビューで、複数のテイクがあり、オートパイロットを使用したのは、目的地を入力せずにFSDが起動できることを知らなかったからだと語りました。また、ルミナー社は、動画全体を通して「LiDAR技術のリーダー」として大きく取り上げられていたにもかかわらず、おそらく動画の報酬を支払っていないと答えました。
まとめ
全体として、マークのビデオはかなり二枚舌的で眉唾なものでした。彼は必要な試験結果を手に入れるために何度もテイクを録り、介入することでテスラのソフトウェアが適切に機能しないようにしたということです。
今後のビデオ
この動画でマーク氏が「試した」ことを再現しようと、すでに他の動画制作者数名が取り組んでいます。
全体像を把握するには、たとえ動画の最後に挿入されているとしても、編集されていないテイクを見る必要があります。また、車両の仕様をすべて開示すべきです。さらに、テスラの最新ハードウェアとソフトウェア、具体的にはFSD v13.2.8を搭載したHW4車両を使用してテストを行うべきです。
マークのビデオでは、衝突のわずか数秒前にオートパイロットが作動しています。しかし、適切な評価を行うためには、FSDをもっと早い段階で起動し、反応する時間を確保すれば、実際には壁に衝突する前に停止できるはずです。
新しいビデオが次々と投稿されるでしょう。今後の展開にご注目ください。
人気記事
新着記事
※免責事項:この記事は主にテクノロジーの動向を紹介するものであり、投資勧誘や法律の助言などではありません。また、記事の正確性を保証するものでもありません。掲載情報によって起きたいかなる直接的及び間接的損害に対しても、筆者・編集者・運営者は一切責任を負いません。また、運営者はテスラ株式のホルダーです。
コメント
どんなに多くの一般人がテスラが人間の前でストップする動画を公開しようが、NHSTAがテスラのFSDの有効性に疑問を抱き、鋭意調査中であること,ならびに中国でのFSDに対する現状を鑑みればその意義はありません。
「米運輸省のトランプ候補、テスラの安全性調査は継続すると発言
2025年1月16日 03:13 GMT+9」
米高速道路交通安全局は10月、2023年の死亡事故を含む4件の衝突事故の報告を受け、フルセルフドライブ(FSD) ソフトウェアを搭載した240万台のテスラ (link) について調査を開始した。
「「テスラFSDの惨敗」一晩で34件の交通法規違反、中国市場で未完成品販売の論争激化」
2025年3月11日
https://jp.tradingview.com/news/reuters.com,2025:newsml_L4N3OB1IX:0/
の報道がある限りにおいて、FSDに対する疑念は晴れません。Robart氏の動画の真偽を問う不毛の議論をするよりも重要で建設的なのは、テスラがテスラ・ビジョンを用いてスペース・マウンテンの形状を再現できる一方で、ルミナーのLiDARではそれが不可能であることを証明することです。この証明により、カメラ主体の技術の優位性を示すことができ、議論をより実りある方向に進めることが可能となります。
「「テスラFSDの惨敗」一晩で34件の交通法規違反、中国市場で未完成品販売の論争激化」
2025年3月11日
https://www.autopostjp.com/auto-news/article/48133/#google_vignette
のURLを貼り忘れました。ごめんなさい。
おめでとうございます!
テスラの車載カメラ、追加費用を払えば「ニセの壁」を見抜く
Autopilotでは盛大に突っ込んだが…
自動運転ラボ編集部 -2025年3月25日 05:55
https://jidounten-lab.com/u_53424
この著者も言及する通りで、テスラのロボタクシーには多くの問題があり、2025年6月中にテスラがロボタクシーを開始するような悲劇があれば、事故を起こして、即時に「無人で公道を走行する」資格が剥奪されるのは日の目を見るよりも明らかだと思います。最新ニュースでは、以下の通りです:
テスラFSD中国で提供中止
交通法規認識問題が浮上した
自律走行激戦地で屈辱
https://newautopost.co.kr/ja/issue-plus/article/165284/#google_vignette
じっくりとあなた様のこの記事に目を通して気になる点を列記いたしました。
問題点1:オートパイロットでFSDではない
業界で最も未熟な自動運転レベル2を提供するのがテスラのFSDであることは、カルフォルニア州DMVの公文書
https://www.dmv.ca.gov/portal/vehicle-industry-services/autonomous-vehicles/autonomous-vehicle-testing-permit-holders/
で明らかです。そして、米規制当局(U.S. regulatory authorities)は、テスラの「オートパイロット」を
・基本的な防止策が十分ではない
そして、米連邦当局(U.S. federal authorities)は、
・テスラは予見できた事故を未然に防ぐための対策も講じない
・テスラの運転自動機能には、競合他社の導入している基本的な防止策もない
ことから
「テスラを業界のはみ出し者」とまで非難しています。
・FSDを疑問視
・注意深いドライバーが回避できる事故が多発
https://wired.jp/article/tesla-autopilot-risky-deaths-crashes-nhtsa-investigation/
さらに、米連邦政府のNHSTAがテスラのFSDを問題視して今現在も鋭意調査中なのです。
https://jp.tradingview.com/news/reuters.com,2025:newsml_L4N3OB1IX:0/
したがって、どんなに多くの専門家がテスラのFSDは偽の壁を認識できることを実証試験したとしても全く意味を成しません。NHSTAは正しくテスラの欠点を指摘しているのです。
問題点2:オートパイロットのキャンセルとブレーキの踏込
FSDも作動していないし、オートパイロットも作動していないというご主張のようです。ならば、CESでルミナーはテスラのFSDとルミナー社のLiDARを搭載した車両でテスラはダミーの子供を跳ねてLiDARは見事に迂回する実証実験をどのように解釈しますか?Dawn Projectの動画も同じです。
問題点3:ルミナー社がスポンサー
真実が疑わしい場合には、主張すべきではないです。「疑わしくは罰せず」という原則は、刑事裁判において非常に重要な法的概念であり、法廷での常識とされています。
問題点4:カメラでの奥行き推定
テスラのカメラが捉えた複数の平面図形は、スーパーコンピュータDojoに送信された後に、継ぎ接ぎされて実物を「推定」します。そして、それらの情報をFSDに学習させます。そこで問題になるのが、Dojoは何日あるいは何時間後にそれらのデータを送信してFSDに学習させているのかということです。全世界で走行するテスラが撮影したデータをDojoはオンタイムで送信しますか?つまり、FSDは過去の実物でもない、推定した実物を学習しているだけです。一方、LiDARはオンタイムで実物を認識します。ルミナーのLiDARは「リアルタイム3Dで実物再現」テスラのカメラは「過去の2Dで実物推定」と克服できないほどの差に目を背けるのはどうしてですか?
事例:中国のFSDテスター
中国でFSDが正しく人間の前で止まったとのご認識は最新の情報ではありません。中国では、テスラが交通事故を乱発している実態から、FSDが未完成品であるとの論争、そしてFSDの提供が緊急停止されています。
https://mobyinfo.com/makers/why-tesla-fsd-paused-in-china-regulatory-insights/?doing_wp_cron=1743648635.4846830368041992187500
https://newautopost.co.kr/ja/issue-plus/article/165284/#google_vignette
今後のビデオ
業界最低レベルの自動運転レベル2しか実現できない、しかも、業界随一の交通事故を乱発している、テスラの最新ハードウェアとソフトウェア、具体的にはFSD v13.2.8を搭載したHW4車両を使用してテストしても既述のように全く無意味です。
参考文献
テスラが2025年6月中に自動運転タクシーを始められないのは確定的!?・・ある科学者からの警告。
https://note.com/jun915/n/n89575f03d50a