「8時間勤務の間、アドレナリン全開状態」、テスラ自動運転テストドライバー

tesla-crash-01 TESLA News
スポンサーリンク

テスラ社内の自動運転チームに所属していた元テストドライバーへのインタビューに基づく新たな報告から、テスラが自動運転技術のテストに際してどのようなことをしているかその恐怖の実態が明らかになってきました。

プロジェクト「ロデオ」

テスラは「監修型」自動運転(FSD)システムと呼ぶものを既に北米では一般道路で展開しているため、テスラの顧客は自動運転のテストドライバーであるという主張もできますが、同社は当然ですが自社内でもテスト車両を運行しています。

以前、テスラが最新の自動運転ソフトウェア「FSD」のアップデートをテストするために、全米でドライバーを雇用していることをお伝えしました。

今回、ビジネスインサイダーは、特定のプロジェクト「ロデオ」に従事する9人のテストドライバーにインタビューを行い、新たなレポートを発表しました。彼らはこのプロジェクトについて次のように説明しています。

「テストドライバーは、特にプロジェクト・ロデオの「クリティカル・インターベンション」チームのドライバーは、危険な状況をナビゲートすることがあると語っています。テスラのエンジニアは、これには理由があると述べています。自動運転を続ける時間が長ければ長いほど、より多くのデータが得られるからです。自動運転技術と安全の専門家は、この種の手法はソフトウェアの開発を加速させる可能性があるものの、テストドライバーや公道の安全性を危険にさらすリスクがあると述べています。」

元テストドライバーの一人は、この状況を「強気なカウボーイのように、あなたはただできる限り長くしがみつこうとしているだけ」と表現しました。これがプログラム名「ロデオ」の由来です。

限界への挑戦

tesla-crash-02

テスラFSDの顧客向けにリリースされていない最新のバージョンを時折使用している以外は、テストドライバーは一般顧客と同様にFSDを使用しており、主な違いは、「限界に挑戦する頻度が高い」ことです。

ビジネスインサイダーは、プロジェクト・ロデオの「クリティカル・インターベンション・チーム」について、さらに詳しく説明しています。

「プロジェクト・ロデオの中でも最も経験豊富なクリティカル・インターベンション・テストドライバーは、自動運転ソフトウェアがミスを犯した後も、ソフトウェアに運転を続けさせます。 彼らは、衝突を回避するためにのみ、つまり「介入」として、「マニュアルで車をコントロールする」ために訓練されています。このように、3人のクリティカル・インターベンション・ドライバーと、チームのミッションに精通した5人のドライバーが語っています。このチームのドライバーや社内文書によると、FSDが作動している間、赤信号を無視したり、他の車線に急ハンドルを切ったり、制限速度を守らなかったりしたとのことです。ドライバーたちは、これらの事故の際には、FSDにコントロールを維持させるのは、上司がなるべく介入を避けるよう促したからだと述べています。」

これらは一般ユーザーの車両でもFSDが実行することが知られている危険な動作ですが、通常はそれ以上状況が悪化する前にドライバーが操作を引き継ぎます。

一方で、このチームの目標は、それを「やり過ぎる」ことにあるのです。

テストドライバーの一人は次のように述べています。

「8時間のシフトの間、相当アドレナリンが分泌されている状態です。何か重大な間違いを起こしそうな瀬戸際にいるような感覚があります。」

別のテストドライバーは、テスラFSDが自転車と衝突寸前まで接近した状況について、次のように説明しています。

「この男性が自転車から飛び降りたのを鮮明に覚えています。彼は恐怖に怯えていました。車が彼に向かって突進し、私がやれることはブレーキを強く踏むことだけでした。」

この出来事にチームは満足したと伝えられています。「彼は私に『完璧だった』と言いました。まさに彼らが私にやらせたかったことでした」とドライバーは語りました。

歩行者や自転車利用者など、一般市民に気づかれないように、チームが非常に危険なことを行っている例をさらに多く紹介しているビジネスインサイダーのレポート全文をここで読むことができます。

「素早く行動し、物事を壊す」

これは、完全自動運転技術を開発している他の企業と比較してどうでしょうか?

自動運転の市場をリードするグーグルのウェイモは、テスラの「ロデオ」の「クリティカル・インターベンション・チーム」と同様の業務を行うチームがあると言われていますが、テスラとの違いは、彼らはダミーを使った閉鎖環境でテストを行っていることです。

これはテスラの「素早く行動し、物事を壊す」というスタートアップ企業としての非常に危険なアプローチであるように見えます。

公平を期すために言っておくと、ビジネス・インサイダーがインタビューした9人のテストドライバーのうち、事故に遭ったと答えた人はいませんでしたが、全員が外部の一般の人が知らぬ間に自動運転のテストに巻き込まれた非常に危険な状況を説明しています。

私は、それは悪い取り組みであり、倫理的に間違っていると思います。イーロン・マスク氏はテスラについてよく「安全第一」と主張していますが、この報告書に挙げられた例は、安全とは程遠いものだからです。

この記事はこのサイトを引用・翻訳・編集して作成しています。

テスラ関連の最新記事を毎日随時アップしていますので、過去のニュースはこちらを参照ください。

▼▼テスラ 紹介コード は以下から▼▼

tesla-referral-program-bannar

※免責事項:この記事は主にテクノロジーの動向を紹介するものであり、投資勧誘や法律の助言などではありません。また、記事の正確性を保証するものでもありません。掲載情報によって起きたいかなる直接的及び間接的損害に対しても、筆者・編集者・運営者は一切責任を負いません。また、運営者はテスラ株式のホルダーです。

コメント

タイトルとURLをコピーしました