AI(人工知能)ニュース

自動運転車で事故を起こさないために、私たちができること・まとめ

自動運転車で事故を起こさないために、私たちができること・まとめ

いま、自動車の世界でホットな話題の1つといえば、『自動運転車』が上げられます。人間の手を必要とすることなく、AI(人工知能)がすべてを判断して自動で運転をしてくれる自動運転車の実用に向けて、各社がさまざまな研究や実験を行っています。

AI(人工知能)には、人間のように運転技術や性格、精神状態など不安定な要素はないので、もし自動運転車が実用化されれば事故は減っていくと予想されていました。しかし現在は、その自動運転車による事故がたびたび起こっています。

事故を減らすことができるはずの自動運転車が、なぜ事故を起こしているのでしょうか。そこで今回は、さまざまな会社の自動運転車が起こした事故を紹介するとともに、私たちが自動運転車を利用したとき、事故を起こさないためにできることをまとめてみました。

1.テスラの自動運転車が起こした事故

ステラの事故のイメージ

アメリカの電気自動車メーカーであるテスラは、AI(人工知能)が運転を担う「オートパイロット」の研究も行ってきました。しかし、テスラの自動運転車は、これまで数多くの事故を起こしています。

1つ目の事故は、フロリダ州の幹線道路で左折(日本であれば右折)していたトレーラーの側面に、テスラの自動運転車が突っ込んだという事故です。

当初は白いトレーラーが強い日光を反射したため、自動運転車がトレーラーの存在を認識できなかったとテスラは発表していましたが、その後の調査によって、テストドライバーがハンドルから手を放していたための過失と判明しています。

この事故をきっかけに、自動運転車によるハンドルを握るようにとの警告にドライバーが従わなかった場合、自動運転機能を使用できないようにするとテスラは表明しました。

2つ目の事故は、カリフォルニア州の高速道路で中央分離帯に衝突・炎上したという事故です。テスラによる発表によれば、事故直前の6秒前からテストドライバーがハンドルを握っていませんでした。

しかしドライバーの遺族によれば、以前からテスラ自動運転車のオートパイロットに不具合があり、同じ事故現場付近で誤作動を繰り返していたとテストドライバー自身が漏らしていたと主張し、訴訟問題へと発展しました。

テスラの自動運転車は、他にも停車中の消防車への衝突事故、駐車中のパトカーへの衝突事故を起こしています。

2. Googleの自動運転車が起こした事故

Googleの事故のイメージ

Googleも、自動運転車の研究と実験を行っている企業のひとつです。アメリカのカルフォルニア州はGoogleの本社がある場所で、この付近ではGoogleが開発した自動運転車がテスト走行を行っていました。

そのカリフォルニア州の公道で、Googleの自動運転車が路線バスと接触する事故を起こしています。

路肩に置かれていた砂袋を検知した自動運転車が、砂袋をよけようと左側(日本であれば右側)に移動したところで、後ろから走行してきた路線バスと衝突。さいわいどちらも低速だったため負傷者はいませんでした。

過去にもGoogleの自動運転車の事故はありましたが、ほとんどは他の自動車の過失が原因のもらい事故や、テストドライバーのミスによるものでした。しかし今回はオートパイロットが後方のバスを認識できなかったことが原因であり、Googleも自動運転車側の過失を認めています。

3.Uberの自動運転車が起こした事故

Uberの事故のイメージ

自動運転車による事故でもっとも大きな話題となったのは、Uber(ウーバー)社の自動運転車によるものでしょう。自動運転車による事故としてははじめて、人身死亡事故を起こしたのです。

アメリカのアリゾナ州で、夜中に自転車を押しながら道路を横切る女性に対し、自動運転車が減速することなく突っ込み、女性は病院で死亡しました。

このニュースは世界中で大きく取り上げられ、警察当局も事故当時の車載カメラの映像を公開しています。これらの情報から、事故当時の状況について詳しい分析も行われてきました。

自動運転車のオートパイロットは、事故の6秒前に女性の姿を「未知の障害物」として認識。すぐに「乗り物」「自転車」と判断し、「衝撃を緩和するために緊急ブレーキを踏む必要性あり」と判断していました。

しかしオートパイロット自身に緊急ブレーキを踏む権限がなく、人間のテストドライバーが緊急ブレーキを踏まなければなりません。しかしオートパイロットがテストドライバーにブレーキを踏むよう警告するシステムになっていなかったのです。

さらにテストドライバーは自動運転中、スマホの動画ストリーミングサービスのテレビ番組に気をとられており、前方をまったく確認していなかったことが判明。女性に気づいたのは事故の1秒前で、すでに回避もブレーキも間に合わない状況でした。

この事故はUberだけでなく、自動車メーカーやソフトウェア提供企業をも巻き込んで法的責任の所在が争われ、Uber自身もアメリカやカナダにおける自動運転車の試験走行を中断すると発表しています。

4.過去の自動運転車事故から、私たちができること

私たちにできること

これまで3社の自動運転車による事故の事例についてあげてきましたが、わたしたちがきちんと認識しておかなければならないのは、「自動運転の技術はまだ発展途上である」ということでしょう。

  • 時速60km前後で自動車が走行する道路が、もっとも事故が起こりやすい
  • 自動運転車を過信せず、緊急時に対応できるよう対応しておく
  • 歩行者や自動車側も、相手が自動運転車であることに甘えない

自動運転車の世界では、高速道路よりも時速60km前後で走行する一般道のほうが事故が起こりやすく、対応が難しいといわれています。

低速で走る路地であれば、歩行者や自転車の発見後、スムーズに対応できる時間的余裕がありますし、高速道路であれば歩行者や自転車はそもそも走っていません。それなりの速度で走っているときに、歩行者や自転車が急に飛び出してくる状況がもっとも処理しにくいというわけです。

すべての自動車が自動運転車に置き換わってしまえば、今よりも確実に安全になるでしょう。しかし今はまだ発展途上です。運転する側はそのことを認識し、自動運転車に頼りすぎないよう、普段から安全運転の意識を高めておくことが重要でしょう。

そしてUberの死亡事故でも、原因の発端は歩行者の飛び出しです。自動車のほうが気をつけてくれるとでも思っているのか、危険な飛び出しをする歩行者や自転車は今でも後を絶ちません。しかし、自動車はすぐには止まれないですよね。

たとえ今後、自動運転車が普及したとしても、事故が100%なくなるとは限りません。自分の命を自分で守るのは、交通安全の常識です。自動運転車であるかどうかに関わらず、自動車側も歩行者・自転車側も交通安全意識を高く持っていなければならないでしょう。

自動運転事故のまとめ

さて、今回はさまざまな会社の自動運転車が起こした事故を紹介するとともに、私たちが自動運転車を利用したとき、事故を起こさないためにできることをまとめてきました。

  • テスラの自動運転車は過去に多くの事故を起こしたが、自動運転を過信したドライバーによる過失というケースもあった
  • Googleの自動運転車ももらい事故やドライバーの過失による事故があったが、自動運転車自身の過失による事故も起こった
  • 自動運転車ではじめて人身死亡事故を起こしたUberの自動運転車事故は、歩行者の飛び出し、ドライバーの不注意、自動運転車のシステム上の欠陥のすべてが原因であった
  • これらの自動運転車の事故で私たちができることは、自動運転車を過信することなく安全運転を心がけること、交通安全意識を高め行動していくことである

自動運転車の技術はまだまだ発展途上であり、事故を起こすたびに大きなニュースになって研究が中断することもしばしばです。しかし、自動運転車はいずれ私たちの社会に普及していくでしょう。

渋滞による遅延の緩和やドライバーのストレスの軽減に効果を発揮するでしょうし、何より人間の不注意やモラルの欠如による事故を減らしてくれるはずです。

ただ、たとえ自動運転車が普及したとしても、ちょっとした油断が事故につながりかねません。自動車を運転する側も、歩行者や自転車の側も、交通安全意識を高めて痛ましい事故を起こさないよう気をつけていくことが大切です。

<参考サイト>

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました