はじめに
ITインフラにおける自動化のヒントになるかなと思い、先日「自動運転レベル4 どうしたら社会に受け入れられるか」という本を読みました。
以前、IT インフラ以外の分野だと「人と機械の共生のデザイン」という本で航空機のオートパイロットについて触れることができました。特に自動化レベルの考え方が参考になりました(参考)。
今回の「自動運転レベル4 どうしたら社会に受け入れられるか」という本も同じようにレベルの考え方が気になって手に取ってみました。
自動運転のレベル分け
ひとくちに「自動運転」といっても色々あるだろうなぁとなんとなくは思っていましたが、ちゃんとレベル分けして考えられているそうです。
一番知りたかったレベル分けについてはかなり最初の P10 図1-1 として紹介されていました。
レベル | 概要 | 説明 |
---|---|---|
レベル1 | 運転支援 | システムが前後・左右のいずれかの車両制御を実施 |
レベル2 | 高度な運転支援 | システムが前後及び左右の車両制御を実施 |
レベル3 | 特定条件下における自動運転 | 特定条件下においてシステムが運転を実施(当該条件を外れる等、作業継続が困難な場合は、システムの介入要求等に対してドライバーが適切に対応することが必要) |
レベル4 | 特定条件下における完全自動運転 | 特定条件下においてシステムが運転を実施(作業継続が困難な場合もシステムが対応) |
レベル5 | 完全自動運転 | 常にシステムが運転を実施 |
レベル2と3の間に大きな差があります。レベル2までは「運転支援」とも呼ぶべき領域。一方、レベル3では、一定条件下で「アイズオフ(eyes off)=目を離してもいい」という状態です。目を離していいとなると、いよいよ自動運転感が高まりますね。
なお、「アイズオフ」とセットで覚えておきたいのが「ハンズオフ(hands off)= 手を離してもいい」です。
本書のタイトルに含まれる「レベル4」は更に高度で、「万が一の備え」もドライバーではなくシステムが担当します(P70「表 3-1 自動運転のレベルと内容」での表現)。ここだけフォーカスすると、ITインフラの自動化に照らし合わせて考えやすいポイントだなと思いました。
倫理的な難しさ
本書を読んでいて非常に難しいと思ったのは、倫理との照らし合わせです。
P42からの話で、
- 車を運転中ブレーキ故障になって、そのままだと前方の5人を轢いてしまう
- 横の歩道に入ればそこにいる1人を轢いてしまう
という状況で歩道に入った場合、手動運転なら緊急回避にあたるとのことです。
しかし、自動運転によって、助かる人が多い方へ進路を設定するようにプログラミングした場合、緊急回避の要件のうち「補充性(やむを得ずにした行為)」を満たさないとのことです。なぜかというと、あえて「ジレンマ状況の対処法をプログラミングしない」という他の方法もあるのにプログラミングをしたから、と。
で、同じ状況でも人の運転では緊急回避が成立して無罪になっても、自動運転のプログラマーは有罪になる可能性がある。いやぁ、難しいです・・・。
この辺の事情は国によって違うらしく、ドイツでの上記のようなジレンマ状況におけるプログラミングの考え方が P50 で紹介されています。
※ 法律の解釈が含まれ、表現が難しいので正確には本書をご参照
おわりに
今後も自動車の分野に限らず、他分野の自動化の考え方にも触れていければと思います。