米国で完全無人タクシー解禁!完全自動運転でも事故は起きる?ヒューマンエラーの真実

米国で完全無人タクシー解禁!完全自動運転でも事故は起きる?ヒューマンエラーの真実

 自動運転の技術は日々進化していますが、完全に人間の介入を必要としないレベル4の完全自動運転は日本ではまだ実現されていません。しかし、2023年8月10日にて米国で完全無人タクシーが解禁されるというニュースが発表されました。完全無人タクシーとは、運転席に人間が誰も乗っていない完全自動運転車が、実際に顧客を運ぶタクシーのことです。これは、自動運転の技術的な信頼性や安全性が高まったことを示していますが、一方で、完全自動運転でも事故は起きるのではないかという不安もありますよね?この記事では、完全自動運転でも事故が起きる可能性や原因、そして現在の事故原因のほとんどを占めるヒューマンエラーとの関係について情報を整理してみたいと考えます。

目次

新時代の幕開け!完全無人タクシーが米国で解禁!

 米カリフォルニア州当局は10日、米グーグル傘下のウェイモと米ゼネラル・モーターズ(GM)傘下のクルーズの2社に対し、サンフランシスコ市内での自動運転車による『完全無人タクシー』の24時間営業を認めました。普及に向けた大きな一歩ですが、安全面では課題も残るとのこと。

 「今日の認可は、サンフランシスコでの我々の商業運行の本当の始まりです」とウェイモのテケドラ・マワカナ共同最高経営責任者(CEO)は同日の声明で訴えました。同社は今後数週間で、有料の無人タクシーサービスを市内全域で始めるということです。

 クルーズは昨年6月、同州当局から完全無人運転の商用運行の許可を得て、同市の一部地域で深夜から早朝までの間、タクシーサービスを始めました。今回の認可で24時間、市内全域で運行できるようになります。カイル・ボートCEOはSNSの投稿で「自動運転業界にとって大きな節目だ」と述べました。

 全米の主要都市の中でも坂が多く、霧などの悪天候に見舞われるサンフランシスコは、全米屈指の自動運転の「実験場」となってきました。ウェイモとクルーズは同市内で現在、計500台以上の自動運転車を保有しています。自動運転に詳しいオレゴン大学のニコ・ラルコ教授はこの承認について、「これは自動運転の拡大への扉を開く可能性のある重要な決定であり、全米の議論を刺激するだろう」とコメントを残したとのことです。

【ユーザーの体験談】
 7日夜、クルーズの無人タクシーを利用してみました。スマートフォンのアプリを開いて目的地を入力すると、7分ほどで運転手がいない自動運転車が道路脇に止まりました。車内に乗り込みシートベルトを締め、前方画面の「運転開始」のボタンを押すと、ゆっくりと車は走り出しました。

 上記の体験談を読んで想像すると、便利なんだとは思いますが、運転手が誰もいないと思うと、ちょっと恐ろしいというか、驚きというか、複雑な気持ちになります、苦笑。

完全自動運転でも事故は起きなくなるのか?

 では完全自動運転のタクシーに乗れば、事故が起きなくなるのでしょうか?もう少し完全自動運転について、情報を整理してみることにしましょう。

完全自動運転のレベル4とは何か?

 完全自動運転という言葉には様々な意味がありますが、一般的にはレベル4以上の自動運転を指します。レベル4とは、国際標準化機構(ISO)が定めた自動運転のレベル分けの一つで、「特定の環境下で自動運転システムがすべての走行状況を制御し、ドライバーへの介入要求や監視義務がない」ことを意味し、以下のような定義であると整理されています。

【完全自動運転のレベル4の定義】

  • 自動運転システムが、特定の地域や状況(オペレーショナル・デザイン・ドメイン)で、運転に必要なすべての機能を担うこと(ハイオートメーション)
  • 自動運転システムが、システムの故障や限界に遭遇した場合に、人間に介入を要求すること(フォールバック)
  • 人間が、自動運転システムの介入要求に応じる必要はなく、運転に関与しなくてもよいこと(ヒューマン・バックアップ)

 つまり、完全自動運転のレベル4では、自動運転システムが特定の条件下で完全に運転を行い、人間は乗客として搭乗するだけでよいということです。ただし、自動運転システムが対応できない地域や状況では、人間が運転を行わなければなりません。完全自動運転のレベル4は、現在開発や実験が進められている段階であり、実用化にはまだ時間がかかると考えられます。

完全自動運転でも事故が起きる事例

 完全自動運転のレベル4では、自動運転システムがすべての走行状況を制御するとされていますが、それでも事故が起きる可能性はゼロではありません。実際に、ウェイモの自動運転車は、2019年から2021年の間に約3万回の走行中に18回の事故に関与しています。そのうち、12回は他の車や歩行者などが自動運転車に衝突したもので、6回は自動運転車が他の車や物体に衝突したものです。ウェイモは、これらの事故のほとんどは人間のミスや不注意が原因であり、自動運転システムの欠陥ではないと主張しています。しかし、自動運転システムが完璧であっても、周囲の状況や予測不能な事態に対応することは難しいということも事実です。

完全自動運転でも事故が起きる原因

完全自動運転でも事故が起きる原因には、主に以下の3つが考えられます。

【完全自動運転で事故が起きる3つの原因】
原因1:自動運転システムの技術的な不備や故障
原因2:自動運転システムと人間とのコミュニケーションや協調の不足
原因3:自動運転システムに対する人間の信頼や期待の過剰

この3つの原因についてもう少し詳しくみていきましょう。

原因1:自動運転システムの技術的な不備や故障

 まず、自動運転システムの技術的な不備や故障というのは、センサーやカメラなどの機器が正しく機能しなかったり、ソフトウェアがバグやハッキングによって操作されたりすることです。これらは、自動運転システムが周囲の状況を正確に認識したり、適切な判断や操作を行ったりすることを妨げる可能性があります。例えば、2018年に米国アリゾナ州で起きたウーバー(Uber)社の自動運転試験車両が歩行者をはねて死亡させた事故では、自動運転システムが歩行者を検知しなかったり、ブレーキをかけなかったりしたことが原因でした。

原因2:自動運転システムと人間とのコミュニケーションや協調の不足

 次に、自動運転システムと人間とのコミュニケーションや協調の不足というのは、自動運転システムが人間の意図や感情を理解したり、人間が自動運転システムの状態や意図を把握したりすることができないことです。これらは、自動運転システムと人間との間に誤解や衝突を生む可能性があります。例えば、2016年に米国フロリダ州で起きたテスラ(Tesla)社の自動運転車両がトレーラーに衝突してドライバーが死亡した事故では、自動運転システムがトレーラーを白い空と誤認したり、ドライバーが自動運転システムの警告に気づかなかったりしたことが原因でした。

原因3:自動運転システムに対する人間の信頼や期待の過剰

 最後に、自動運転システムに対する人間の信頼や期待の過剰というのは、人間が自動運転システムの能力や限界を正しく評価しなかったり、自動運転システムに責任を委ねすぎたりすることです。これらは、人間が自動運転システムに対して不適切な行動や判断を行う可能性があります。例えば、2019年に米国カリフォルニア州で起きたテスラ社の自動運転車両が分岐点でコンクリート壁に衝突してドライバーが死亡した事故では、ドライバーが自動運転システムに完全に任せてハンドルを握らなかったり、分岐点での操作をしなかったりしたことが原因でした。

ヒューマンエラーの真実

 では、完全自動運転でヒューマンエラーによる事故が防げるのか?その真実を深堀りしていきましょう。

ヒューマンエラーの定義や分類を説明

 ヒューマンエラーとは、人間が目的や期待と異なる行動や判断を行ってしまうことです。ヒューマンエラーは、事故や失敗の原因となることが多く、様々な分野で研究されています。ヒューマンエラーには、大きく分けて以下の3つの種類があります。

  • スキルベースエラー(Skill-based errors):習慣的な操作や反射的な行動の中で起きるエラー。例えば、操作し慣れた機器を誤って操作したり、注意力が散漫になったりすること。
  • ルールベースエラー(Rule-based errors):既存のルールや手順に従って行動する中で起きるエラー。例えば、ルールや手順が不適切だったり、状況に応じて変更する必要があったりすること。
  • 知識ベースエラー(Knowledge-based errors):新しい状況や問題に対して知識や経験をもとに行動する中で起きるエラー。例えば、知識や経験が不足していたり、誤った情報に基づいていたりすること。

ヒューマンエラーは事故をなくすことができるのか?

 ヒューマンエラーは事故や失敗の原因となることが多いので、ヒューマンエラーをなくすことができれば事故もなくすことができると考えられるかもしれません。しかし、実際にはそう簡単ではありません。ヒューマンエラーは、人間の能力や限界、心理や感情、環境や組織など、様々な要因に影響される複雑な現象です。ヒューマンエラーを完全になくすことは不可能であり、むしろヒューマンエラーを受け入れて、その発生を防ぐか、その影響を最小限に抑えるか、その学びを活用するかということが重要です。ヒューマンエラーを減らすためには、以下のような対策が考えられます。

  • 人間の特性やニーズに合わせて、機器やシステム、作業環境や手順を設計すること(ヒューマンファクターズ・エンジニアリング)
  • 人間の能力や知識、スキルを向上させるために、教育や訓練を行うこと(ヒューマンリソース・ディベロップメント)
  • 人間の心理や感情、動機づけを高めるために、コミュニケーションやフィードバック、報酬や評価を行うこと(ヒューマンリレーションズ)
  • 人間の行動や判断に影響する組織や文化を改善するために、リーダーシップやチームワーク、安全文化や倫理規範を行うこと(オーガニゼーショナル・ビヘイビア)

まとめ

 完全自動運転でも事故が起きる理由としては、自動運転システムの技術的な不備や故障、自動運転システムと人間とのコミュニケーションや協調の不足、自動運転システムに対する人間の信頼や期待の過剰などが挙げられます。これらはすべてヒューマンエラーと関係しており、ヒューマンエラーは事故や失敗の原因となることが多いです。しかし、ヒューマンエラーを完全になくすことは不可能であり、むしろヒューマンエラーを受け入れて対策することが重要です。そのためには、機器やシステム、作業環境や手順の設計、教育や訓練、コミュニケーションやフィードバック、リーダーシップやチームワークなどが必要です。

 完全自動運転を身近に感じるニュースがこれからもどんどん増えていくことが予想されますが、過度な期待をせずに先端技術を受け入れていく我々の覚悟が試されているのかもしれませんね。

 今回は完全自動運転とヒューマンエラーの関係を整理した記事でした。
 個人的には興味がある分野ですが、また評判が高ければ取り上げたいと思います、苦笑。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次