スポンサーリンク
Contents
スポンサーリンク
概要
アメリカ合衆国国家道路交通安全局(NHTSA)は、テスラのフルセルフドライビング(FSD)技術に関する調査を開始しました。報告によると、このソフトウェアが赤信号を無視したり、誤った車線に進入するなどの違反を引き起こしたとされています。調査には50件以上の報告があり、そのうち4件が事故を引き起こしたとされています。
この調査は、テスラのFSDドライバーアシスタンスソフトウェアに特化した最初のものの一つで、2024年10月には低視認条件での事故に関する調査も行われていました。2024年4月には、テスラのオートパイロットシステムに関連した13件の致命的事故に関する調査が終了しました。
今回の調査は、テスラが新しいソフトウェアバージョンを発表した週に始まり、この新バージョンにはテスラがアウスティンで行っているロボタクシーパイロットから得たデータが反映されています。
NHTSAは、テスラのFSDソフトウェアが赤信号で停車しない、または進行方向を誤る事例について18件の苦情を受け取ったと報告しています。また、複数の交差点で赤信号の問題が繰り返されていることが確認され、テスラはその問題に対処しています。調査は現在、リコールに向けた最初の段階で進行中です。
ポイント
- テスラの自動運転技術FSDに関する調査がNHTSAにより開かれ、赤信号無視や車線変更ミスが報告された。
- 調査では50件以上の違反が確認され、うち4件で負傷者が出ている。
- NHTSAはFSDの問題が繰り返し発生した交差点で改善策を講じたと報告している。
詳しい記事の内容はこちらから
参照元について
スポンサーリンク
スポンサーリンク


