« 2016年6月 | トップページ | 2016年8月 »

2016年7月28日 (木)

ポケモンGOが変えた世界で

『ポケモンGO』は、兄が中学生のころ、夢中になっていた。いまは古くて誰もやらないが、発売当時は、大事件だったらしい。

あのあと、「リアル世界系」ゲームは大きく進化した。

まず、ポケモンみたいなアニメアニメしたキャラクターはなくなって、リアルなキャラクターが主流になった。画面を通すと、リアル人間とキャラクターの見分けなんてできない。

スマホと呼ばれた電話機を両手に持ってゲームしながらゾンビみたいに彷徨う人なんていない。みな、ディスプレイとイヤホンつきのゴーグルをかけて、卵形のコントローラーを手に握ってゲームしている。二つ以上のゲームを一度にやっている人も多い。

一昨年は、『リアルウォーリーを探せ!』がブームになった。初級だと例の縞々を着ているからすぐ分かるけど、クラスが上がると、顔とめがねだけのウォーリーになるので、リアルの人と見分けがつかない。それで本物の外国人男性がウォーリーに間違えられたり、本物の人間がウォーリーに変装してゲーマーを騙したりして、マスコミを賑わせた。

昨年は『リアル鬼ごっこ!』が空前のブームになりかけた。ところが、通行人が突然鬼になって追いかけてきたりするものだから、慌てて道路に飛び出して車に轢かれた人が出て、発売禁止になってしまった。でも来年には、『リアルマトリックス』が発売されるらしい。通行人が突然エージェント・スミスになって撃ってきたら、ちょっと怖い。

ぼくはいま、『リアル金田一少年』にハマっている。探偵として街を歩き、証言を集め、犯人を追い詰めるゲームだ。ゲームをしながら、ミクと二人で路地や繁華街を歩くのは、とても楽しい。ミクとは、2年くらいの付き合いになる。とても可愛い。

今日は、犯人の隠れ家を突き止めた。集めた証拠のおさらいをしながら、ミクとレストランで食事をして、二人で家に帰った。明日は犯人と対決だ。早く寝よう、と言うと、ミクも「わかった。おやすみ」と言った。

「おやすみ」とぼくは言って、ゴーグルを外して、一人で寝た。

 

 

| | コメント (0) | トラックバック (0)

2016年7月25日 (月)

人工知能は人間の仕事を奪うのか?(『洗練された奴隷制』再論)

人工知能やロボットは、人間の仕事を奪うのか?という問題が議論されている。

この問題を考える上で、ムラタシステム株式会社の提案する「手術準備支援システム」は、とても参考になる。

外科手術は、どんな簡単なものでも、数十点の器具を準備する必要がある。従前、この準備は資格を持つ看護師が行っていたし、チューブの口径を1ミリ間違えただけでも人命に直結する、非常に神経を使う仕事であった。

手術準備支援システムは、準備すべき器具を入力するコンピューターと、その情報を受け取るポータブル型PC、ウェアラブルグラスと、バーコードリーダーから構成されている。準備作業を行う職員が、ポータブル型PCを腰に、ウェアラブルグラスを目に、バーコードリーダーを手の甲に装着すると、準備する器具と、その所在する棚の場所がグラスに表示されるので、その場所に行って器具を手に取り、バーコードリーダーをかざして確認する。間違っていなければ、グラスに次の器具が表示される、という仕組みである。

看護師は手術器具の準備から解放され、その負担が一日あたり3時間以上減ったという。NHK『クローズアップ現代』のサイトによれば、看護師長は「一瞬で準備ができるというのは、圧倒的に機械が速い、確実。」と述べる。

また、看護師に替わって準備を行っているのは派遣労働者であるが、「私一人じゃ、絶対に心もとなくて、本当に先生という感じです。」と述べ、コンピューターを「先生」と呼んで頼り切っている。

ビデオを見ると、派遣職員の女性は、棚の隙間の狭い通路を、器用に移動して手術器具を集めている。このような移動は、ロボットにはできない。他方、派遣労働者の女性は、コンピューターに指示された場所に行き、指示された器具を収集するだけで、その器具が何であるか、その器具を使っていかなる手術が行われるかを知らないし、知る必要もない。

とても合理的なシステムだと感心するが、ふと、「どちらがロボットなのか?」と思う瞬間がある。

人工知能やロボットは、今後も職場に進出し、人間の仕事を代替していくだろう。しかし、そのこと自体は、「自動化」「機械化」と呼ばれる旧知の現象であって、人類社会が産業革命以降経験してきたことだし、乗り越えてきたことでもある。人工知能やロボットが職場にどのような影響を与えるかという議論は、産業革命以来の「進化」と質的に異なる変化があるのか、という問題として検討されなければならない。

ムラタシステムの「手術準備支援システム」は、使用するコンピューターのレベルこそ低いが、人工知能の時代に特徴的な職場の変化を垣間見せてくれる。従来の「自動化」や「機械化」によって職場に進出してきた機械は、いずれも人間の操作を受け、人間の指揮命令に従って動作してきた。つまり、職場のヒエラルヒーとしては、人間は機械の上位にいたのである。

これに対して、近未来の職場においては、人工知能が、現場の人間を操作し、指揮命令するようになる。現場の人間は仕事の意味や目的を知らず、知るのは人工知能だ。従来の「自動化」や「機械化」と決定的に異なるのは、現場の人間と人工知能とのヒエラルヒーの順序である。もちろん、人工知能の「上」には人間がいて、高度な意思決定(たとえば、この患者に〇〇という手術を行う)を行っている。したがって、職場全体のヒエラルヒーとしては、人間人工知能人間という順序となる。一言でいうと、「中間管理職の人工知能化」が進むことになる。

私は、人工知能が進出することによって初めて実現する、このような職場の形態を『洗練された奴隷制(Sophisticated Slavery)』と呼んでいる。

洗練された奴隷制は、直ちに現場の人間を不幸にするわけではない。『クローズアップ現代』でインタビューを受けた派遣労働者の女性のように、コンピューターの指示どおりに働けば給料がもらえるし、ミスする心配もしなくてよい。労働時間の管理も人工知能がきっちりやってくれるだろう。

ただし、懸念すべきこともある。この種のシステムは、図や記号、数字や矢印で大概の指示を出せるので、必ずしも言語がいらない。だから、教育のない人間や、言語の異なる外国人であっても、同レベルの仕事を行うことができる。これは、現場の人間の給料を押し下げる要素として働く。結果として、「人工知能の上にいる人間」と「人工知能の下にいる人間」との格差は、広がっていくことになる。

ヒエラルヒーの上位にいる人間も、安穏としてはいられない。人工知能が東大入試にチャレンジする『東ロボくん』プロジェクトのリーダーである新井紀子国立情報学研究所社会共有知研究センター長は、「銀行の窓口業務より、『半沢直樹』がロボットに代替される方が先。与信審査は、膨大なデータをもとに投資の成功率を予測する仕事であり、これを確率的に最適化する能力は、人工知能の方が上」と予言しているし、これは筆者が述べてきたことと同じことである。ただ問題は、『半沢直樹ロボ』は、経営者に対して一定の経営判断を上申することになるし、「上」にいる人間といえども、その上申を争うことが困難になるだろう。

想像してみてほしい。あなたが銀行の部長であるとして、ある会社に100億円を融資すべきかどうかについて、『半沢直樹ロボ』と意見が対立したとする。『半沢直樹ロボ』の判断の的中率が80%であるとき、あなたは、自分の地位や行内での信用をかけて、『半沢直樹ロボ』と対決できるだろうか。

膨大なデータを分析し、「買うべきか、売るべきか」を確率的に最適化する能力が人間より優れているならば、為替相場や株取引は、ほどなく、人工知能がその大半を支配することになるだろう。そのリスクは、十分に検討しておく必要があると思う。株式自動売買システムの暴走がブラックマンデーを引き起こしたように、人工知能の暴走が、為替や株の異常な暴落を引き起こさない保証はない。

| | コメント (0) | トラックバック (0)

2016年7月13日 (水)

社会参加型機械学習について

真っ赤っかの椅子にやたら浅く腰掛ける独特のスタイルでNHKの人気番組TEDのオープニングをつとめるMITメディアラボ所長の伊藤穰一氏が、ブログ『社会参加型(society-in-the-loop機械学習』で、興味深い見解を述べている。

日本語訳が酷くて読みづらいが、テーマは、人工知能の倫理問題だ。

伊藤氏は、ある種の政治的・行政的・司法的決定は、人工知能に決定させた方がよいと考えているようである。たとえば、「裁判官が決める保釈金の額や仮釈放の期間といったものは、人間より機械のほうがずっと正確にできる」し、「人間の専門家は適切に保釈金額を決めたり仮釈放の判断をしたりするのが苦手であって、「仮釈放判定委員会による聴聞が昼ご飯の前か後かで、結果にはかなりの影響が出てしまう」という。そこで、「保釈金額や仮釈放などを裁判官ではなく機械(人工知能)に任せてはどうか」と提案したところ、「哲学者と聖職者数名は、それが効用主義的な観点からは正しく思えても、社会にとっては裁判官が人間だというのが重要」で、「『正しい』答えが出るよりも大事」と回答したという。

そこで伊藤氏が提案するのが、「社会参加型機械学習」という概念である。

これは、人工知能の学習過程に社会が参加する中で人工知能の判断能力を向上させ、その判断が社会の支持を得られるように持っていくことなのだという。現在の機械学習は、エンジニアが人工知能を「訓練」しているが、エンジニア自身はたとえば法律の専門家ではないから、訓練を受けた人工知能が専門分野の現場で「正しい」判断をするかどうか、分からない。そこで、人工知能の訓練に専門家を参加させ、人工知能に専門家をサポートさせる「人間参加型(man-in-the-loop)機械学習」が考えられるが、これだと、「人間が機械の判断を取り消して「間違った判断を通し」たり、逆に、機械の判断を盲目的に信用してしまうという問題がある」。

そこで、人工知能の能力とふるまいを、社会全体として「訓練」するのが「社会参加型機械学習」なのだという。

「社会」がどうやって人工知能を訓練するのか、具体策は分からないが、伊藤氏によれば、「人間が、機械が自分たちの、おおむねおそらくは、多様な価値観を信頼できる形で代弁していると思うような形で訓練」することにより、その機械の「行動に対して自分が最終的に責任を負うと感じる」ようになるだろう、ということである。「たとえば、自動運転車の振る舞いに対して、社会が十分な入力とコントロールを得ていたと感じるならば、その社会は自動運転車のふるまいや潜在的な被害についても、自分やそれを代表する政府に責任があると感じ、自動運転車の開発企業すべてが直面する製造物責任問題を迂回する一助になるんじゃないだろうか」という。

伊藤氏の見解に対して、興味深い点は二点ある。

一つ目は、ある種の社会的問題については必ず「正解」があるから、正解に従った方が良い、という認識を前提とする伊藤氏の「理系くん」的思考過程だ。人工知能の判断はブレないし、間違わない(あるいは、間違う確率が人間より低い)から、社会は人工知能の判断に従った方が「よい」ので、それを妨げる要素はできるだけ排除しよう、という考え方は、政治学や法律学、哲学といった「文系くん」の立場からは、およそ受け入れがたいだろう。伊藤氏の言っていることは、人工知能の政治的決定が正しい(少なくとも、議会や首長の決定より正しいか、正しい確率が高い)場合には、人間は民主主義を放棄して人工知能に政策決定を委ねるべきだし、そうなるだろう、ということである。だが、政治の本質は、その決定が正しいか正しくないかにはない。たとえば、今般英国がEU離脱を決定するのは、その決定が「正しい」からでも、投票者の過半数の支持ゆえ「正しい確率が高い」からでもない(もちろん、間違っているからでも、間違っている確率が高いからでもない)。一定期間議論し、相対多数決で決するとの合意の上になされた国民投票の結果だからである。要は「正当性」と「正統性」は違う、ということなのだが、伊藤氏がこの点を理解しているようには思われない。このような思考過程は、伊藤氏が日本人だからでも、米国で働いているからでもなく、「理系くん」に特徴的な傾向であるように思われる。

二つ目は、伊藤氏らが、「哲学者や聖職者」と議論している点だ。これは、「倫理」の問題である以上当然なのだが、日本では考えられない。実際、多くの大学の工学部には倫理委員会があり、先端技術の実証実験などの際、その当否を審査しているが、そこに哲学者や聖職者が招聘されたという話を聞いたことがない。そもそも、日本のロボット工学や人工知能の分野では、「倫理」という言葉が誤って理解されていて、「倫理」と言いながら、議論しているのは安全性や適法性の有無でしかない。それなら「安全委員会」や「法律委員会」と呼べばよいのだが、医学部に「倫理委員会」があるものだから、意味も分からず組織名だけ移植しているのだ。しかし、新薬の臨床試験における被験者の健康は「倫理」の問題だが、自動運転自動車の走行実験における搭乗者の安全は「倫理」の問題ではない。そのくせ、ロボットや人工知能と倫理の問題を提起すると、「うちの大学には倫理委員会があるから大丈夫」などと言い出すものだから、困ったものである。

では、「社会参加型人工知能」の問題が、なぜ倫理の問題なのか。それは、現代社会制度の基礎をなす近代思想の根本に関わる問題だからであるが、その点についての議論は別の機会にしよう。

以上を要するに、伊藤穰一氏はいかにも「理系くん」的な発想で人工知能と倫理の問題を論じているが、他方、哲学者や聖職者と議論することの必要性を理解し、その機会を持っている点で、日本の同種の研究者に比べ、一日の長がある。学際的な議論は、一見何の役にも立たないように見えることがあるけれど、長い目で見ると、こうやって裾野を広げておいた方が、絶対に強くなると思う。

 

 

| | トラックバック (0)

2016年7月12日 (火)

人工知能が実現するのは「理想の社会主義国家」か

人工知能学会の倫理委員長を務める松尾豊東京大学准教授と、MITメディアラボ所長の伊藤穰一対談が公開されている。その中で松尾教授は、「AI普及の先に、社会主義国家が成功する可能性がある」と述べた。「これまでの社会主義国家は、労働に応じて富を分配していた。しかし、集団作業の中では働かずに報酬を得る、いわゆる『フリーライダー』が発生したため、労働者の間で不公平感が生じ、国家制度としてはうまく機能しなかった国が多い。しかし、AIによって『きちんと働いているか』を認識できるようになれは、努力に応じて報酬が再分配されるようになる。『理想の社会主義国家』が実現する可能性がある」とのことだ。

突っ込みどころが多すぎて、やれやれ、である。

まず、「AIによって『きちんと働いているか』を認識できるようになれは、努力に応じて報酬が再分配されるようになる」との発言から見てみよう。この文では、その前の文章に出てくる「労働」という言葉が「努力」に言い換えられている。いうまでもなく、「努力」と「労働」は違う概念だが、ここは記者のミスかもしれないから、指摘だけにしておこう。そうだとしても、AIが認識(計測)するのが「努力(労働)」なのか、「成果」なのかは、重大な問題だ。真面目な農夫が、一夜の台風で農作物をすべて失ったとき、「努力(労働)に応じて報酬が得られる」のか、「成果に応じて報酬が得られるのか」は、天と地の違いをもたらす。前者だとするなら、台風で農作物を失った農夫が、失わなかった農夫と同じ報酬を得ることが、松尾准教授の言う「理想の社会主義国」のあり方ということになる。

松尾准教授がAIによって「きちんと働いているか」を認識するという趣旨は、おそらく「努力(労働)」の計測なのだろう。「成果」の計測は、多くの場合、AIがなくても可能である(金額に換算できるから)し、成果が計測できたとしても、富の公平な再配分とは結びつかないからだ。そうだとしても、全体として一つの成果を出した組織内で富を配分するに際し、「努力(労働)した割に成果を出せなかった」労働者と、「努力(労働)しなかった割に成果を出した」労働者の、どちらに多く報酬を出すべきかを、AIが決めることができるのだろうか。

それでも、労働者のヒエラルヒーが同列の場合はまだ簡単だ。たとえばある博士が、数人のポスドクを雇って、ある技術の開発に取り組んだとしよう。ポスドクは毎日研究室に泊まり込んで研究漬けの日々を送る一方、博士は最初にアイデアを出し、研究予算を獲得したあとは、全国を飛び回り、ときどき研究室に顔を出しては進捗の指示を出すだけだとする。この研究が10億円の成果を出したとき、その富を博士とポスドクは、どう配分したら公平なのだろうか。いうまでもないが、「努力(労働)」に応じて再配分するなら、博士の取り分はほとんどなくなるが、松尾准教授は、それでよしとするのだろうか。

松尾准教授は、「同一レベルの労働であれば、労働時間を計測して比較すればよい。労働のヒエラルヒーが異なる場合は、労働時間に配分率を乗じればよい。上の博士の例で言えば、博士の労働時間は短くても、高い配分率を乗じることにより、公平な富の再配分が実現できる」と言うかもしれない。だが、その配分率は、誰がどうやって決めるのだろうか。ちなみに、社会主義国がうまくいかなかったのは、「集団作業の中では働かずに報酬を得る、いわゆる『フリーライダー』が発生した」からではない。配分率の決定権限を持つ人間が、自分らだけめちゃくちゃ高い配分率を割り当てて「赤い貴族」になったため、富の配分が不公平になったからである。

それならば、配分率の決定を、人間にやらせず、AIに決定させたらどうか。だが、配分率の決定基準は誰が決めるのか。いうまでもなく、配分率は、人間の労働意欲に決定的な影響を与える。配分率が高ければ、人間はなるべく少ない労働で高い成果を得ようとするし、配分率が低ければ、馬鹿馬鹿しくなって、労働をやめてしまう。

では、AIに任せて、配分率の高低が人間の労働意欲に与える影響を勘案したうえ、集団として最も利益率が高くなるポイントを探し出し、そのポイントから配分率の決定基準を算定するようにしたらどうか。技術的には、10年以内には、可能になるかもしれない。その結果、上の例でいえば、博士とポスドクの取り分は、AI導入以前のそれとは異なる結果となるかもしれない。だがそれには誰も一切文句を言わないこととする。これなら、「理想の社会主義国家」は成立するのではないか。

そうかもしれない。だが、松尾准教授の主張は、そこでさらに高い壁に遭遇することになる。それは、「理想の社会主義国家は、理想の国家なのか?」という問題だ。

政治とは何か、という問題に、たった一言で答えるならば、それは「富の配分権限の奪い合い」である。松尾准教授のいう「理想の社会主義国家」は、富の配分権限をAIに委ね、人間は政治に一切関与しない国家と同義だ。これは、人間が民主主義を手放すことを意味するし、歴史的には、政治的決定を神託に委ねた古代の政治体制に戻ることを意味する。「AIを占いと同視しないでくれ。占いは当たるも八卦だが、AIは常に正しい」と松尾准教授は言うかもしれない。だが。AIの決定が正しいと、いったい誰が保障するのだろうか?

AIの正しさを、人間は誰も保障できないなら、そのAIは神とどこが違うのだろうか。

 

| | コメント (0) | トラックバック (0)

2016年7月11日 (月)

小学校の人文字撮影や企業内運動会等撮影目的のドローン飛行に国土交通省の承認は必要か

 航空法132条の2の第4は、「(無人航空機を)祭礼、縁日、展示会その他の多数の者の集合する催しが行われている場所の上空以外の空域において飛行させる」場合、国土交通大臣の承認を要すると定めている。

 

 では、ドローンを使って小学校の人文字を撮影する場合や、企業内運動会を撮影する場合、国土交通大臣の承認は必要だろうか。

 

 すなわち、「多数の者」の上空ではあるけれども、その「多数の者」が不特定多数ではなく、同一組織に属していて、ドローンの飛行をあらかじめ知っていたりする前提で行われる飛行について、航空法132条の2の第4号の適用があるか、という問題である。

 

 回答を先に述べておくと、国土交通省は、承認不要という運用を行っているらしい。だが、この運用は違法である。したがって、未承認で飛行させれば航空法違反となる。

 

 その理由を述べよう。まず、航空法1322号は、「国土交通省令で定める人又は家屋の密集している地域の上空」における無人航空機の飛行を禁止している。そして、禁止空域外であっても、「祭礼、縁日、展示会その他の多数の者の集合する催しが行われている場所の上空以外の空域において飛行させる」場合には、国土交通大臣の承認を必要と定めている。しかも、承認は「飛行させることが航空機の航行の安全並びに地上及び水上の人及び物件の安全を損なうおそれがないことについて」なされることとなっている。

 

 すなわち、航空法132条の24号の趣旨は、「人口密集地域」の上空ではなくても、「多数の者の集合する催しが行われている場所」の上空であれば、地上の人及び物件の安全が損なわれる危険があるから、国土交通大臣の承認を必要としたものである。

 

 なお、平成271117日(ご指摘により訂正しました)に公表された無人航空機にかかる規制の運用における解釈についても、「多数の者の集合する催しが行われている場所の上空においては、無人航空機を飛行させた場合に故障等により落下すれば、人に危害を及ぼす蓋然性が高いこと」が承認を要する趣旨であるとしている。同意の有無を問うていないことに留意されたい。実際のところ、同意していようがしていまいが、墜落した場合に怪我をする危険に差はない。

 

 では、どの程度の集まりであれば、承認を要するだろうか。人口密集地の基準が国勢調査の結果に基づく人口集中地区(4000人/㎢)とされた(航空法施行規則236条の2)ことと同様の人口密度を計算し、100メートル四方あたり40人以上集まるのであれば、承認を要する人数に該当するというべきであろう。100メートル四方あたり40人というのは、大雑把にたとえると、小学校の校庭に、一クラス分の人数が散らばっている感覚である。これで「多数の者が集合」したといえるのか、といわれてもピンと来ないが、同じ人口密度の人数が屋根の下で暮らしている地域の上空を飛行することが禁止されていることにくらべれば、屋根のない場所にいること自体、危険性が高いといえるから、現行法解釈の統一性をはかる以上は、こう考えるほかないだろう。それで不合理だというなら、そもそも平方キロあたり「たった」4000人を「人口密集地」とみなす航空法施行規則236条の2を改正してもらう必要がある。

 

 その集まりの参加者全員が、ドローンが上空を飛ぶことに同意していた場合は、国土交通大臣の承認は不要だろうか。そんなことはない。航空法は公法なので、私的な同意の有無によって、公法上適法になったり違法になったりすることはない。航空法上適法であっても、空域下の土地所有者の同意がなければ、飛行が違法になる場合もある。同じように、空域下の人の同意があったとしても、航空法上適法になるとは限らない。上述した無人航空機にかかる規制の運用における解釈についても、『多数の者の集合する催し』に該当する例として『祭礼、縁日、展示会のほか、プロスポーツの試合、スポーツ大会、運動会、屋外で開催されるコンサート、町内会の盆踊り大会、デモ(示威行為)等』を挙げている。もとよりこれは、参加者全員がドローンの飛行に同意したとしても、国土交通大臣の承認を要することを意味する。

 

 なお、撮影される参加者が、同一組織に属するとして、承認不要とする見解もあるが誤りである。確かに、無人航空機の操縦者本人や、操縦についてその指揮命令下にある者については、30メートル規制をはじめとする航空法上の規制の適用はないといってよい。しかしこの解釈は、操縦者本人をはじめとして、ドローンの操縦に直接関わる数人ないし、せいぜい十数人に適用されるだけであり、小学校の生徒や、企業の従業員に適用されないことは自明である。校長や社長の指揮命令下にあるからといって、ドローン操縦スタッフと同一視してよいという理屈は存在しない。この理屈が適用されうるのは、たとえば野外コンサートをドローンで撮影するとして、本番には承認を要するが、スタッフだけのリハーサルには承認を要しない、といった程度だろう。

 

 以上からすれば、小学校の人文字撮影や、企業内運動会の撮影のためであっても、ドローンの飛行に国土交通大臣の承認を要することは明らかであろう。

ではなぜ、国土交通省は承認不要という運用をしているのだろうか。答えは簡単で、彼らはサボっているのである。自分で厳しい規制を敷いておきながら、許可・承認申請が殺到して首が回らなくなったので、手を抜き始めているのだ。

「固いこと言わずに、所轄官庁が許可・承認不要と言っているのだから、甘く運用するならさせておけばいいじゃないか」という意見もあろう。だがこの意見は間違っている。確かに航空法に基づく許可・承認の所轄官庁は国土交通省だが、違法を摘発するのは警察だ。したがって、万一人文字撮影中のドローンが墜落して小学生に怪我をさせた場合、操縦者は傷害の罪のほかに、航空法違反の罪をも問われることになる(墜落しなくても、航空法違反の罪を問われる可能性があることは同じだが)。そのリスクを避けるためには、法に則って承認申請を行った上、承認不要という回答をもらい、その回答を記録しておく必要がある。

 

 これが法の支配であり、法律による行政のあるべき姿である。法律を遵守してみて具合が悪ければ、担当官庁がサボるのを容認するのではなく、法律を改正する(させる)。これが、大げさなようだが、民主主義というものである。

 

 

 

| | コメント (0) | トラックバック (0)

2016年7月 3日 (日)

完全自動運転自動車の事故の責任と保険と省益について

2016年5月、Tesla Motorsの電気自動車「モデルS」が自動運転機能「オートパイロット」を使用中にトレーラーと衝突、モデルSのドライバーが死亡したため米運輸省道路交通安全局(NHTSA)は、予備調査に乗り出すことになった、報じられた。イーロン・マスクCEOブログで、「強い日差しがトレーラーの白い車体に反射したせいで、(モデルSの)ドライバーもオートパイロットもその存在に気づかなかった」ことと、「先行するトラックの車高が高く、左折中であったため、トラックの側面に(潜り込むような形で)衝突した」ことが、死亡事故の原因と述べている。

モデルSは、完全自動運転車ではなく、事故当時も、必要に応じドライバーの介入を必要とする「レベルⅡ」の半自動運転状態であり、ドライバーは常時監視が求められていたにもかかわらず、DVD鑑賞中だったという報道もある。そうだとすれば、本件については、ドライバーに(一定割合の)過失があることは明白だ。ただ、同様の事故は完全自動運転自動車においても起きる可能性があるから、責任の所在と被害者救済のあり方を論じることには、意味があろう。

本件事故の原因が、仮にマスク氏のブログの通りであるとした場合、オートパイロットは「過失」の責を免れないように思われる。先行車が光学迷彩を施していた訳でもないのに、「強い日差しが反射した」くらいでその存在を見失うことは、法的に許されない。もし、ハレーションによって前方注視が困難になったのであれば、先行車の有無にかかわらず停止すべきである。そして、オートパイロット自体は責任を問えない物ないしプログラムに過ぎない以上、損害賠償責任を負うのはメーカーであるテスラ社ということになる(上述の通り、本件については死亡したドライバー自身の過失も一定程度ある可能性があるから、その場合には、適切な過失相殺がなされるべきことになる。なお、死亡したドライバーとテスラ社の責任割合はどうあるべきか、という問題はここでは論じない)。

もっとも、完全自動運転自動車の起こす事故において、問題なのは、オートパイロットの「過失」または「欠陥」の有無が明らかでない場合だ。現在の法体系では、被害者が加害者側の過失か製造物の欠陥を立証しない限り、賠償請求できない建前となっているから、被害者がオーナー又は搭乗者の過失または自動車の欠陥を立証できなかった場合、「泣き寝入り」を余儀なくされることになる。しかし、自動運転自動車のオーナーは、自動運転自動車を購入(導入)することによって、自ら運転する労を免れたり、人を雇って運転させる人件費を免れたりしているのに、その起こした事故の損害賠償責任まで免れるというのは、いかにも不公平だし、社会が受け入れないだろう。そこで、完全自動運転自動車の社会実装は、オーナーに事実上の無過失責任を負わせる強制保険制度の実施とワンセットにならざるを得ない。オーナー(の保険会社)は、被害者救済の責を果たした上で、もし自動車に欠陥があれば、メーカーに求償を行うことになる。

オーナーに事実上の無過失責任を負わせる強制保険制度と書くと、いかにもオーナーの負担が増すように聞こえるが、完全自動運転自動車が起こす事故数は、人が運転する自動車が起こす事故数より減るので、現在の任意保険に比べ、保険料は下がる。それどころか、自動車事故の減少は、損害保険市場の縮小をもたらすから、完全自動運転自動車の普及は、損害保険業界の激変をもたらすだろう。

このように、完全自動運転自動車の社会実装と普及には、わが国の保険制度を根本から改変することになる。特にわが国の場合、自賠責保険制度が、完全自動運転自動車の社会普及を妨げることになりかねない。

わが国における自動車損害賠償保険制度は、事実上の無過失責任となっている自賠責保険と、過失責任を前提とする任意保険との2階建てになっている。しかし、この保険制度をそのまま完全自動運転自動車に当てはめたのでは、被害者に不利になってしまうから、上述のとおり、2段目の任意保険も事実上の無過失責任にする必要がある。そうなると、人が運転する自動車の保険制度と、完全自動運転自動車の保険制度が、異なる建て付けになってしまう。しかも、この二つの保険制度は、別々の自動車に適用されるとは限らない。一つの自動車でも、手動または半自動運転モード中の事故と、完全自動運転モード中の事故とでは、異なる保険制度が適用される、という複雑な話になってしまう。

それだけではない。有人運転自動車の場合、2階部部分の保険加入は文字通り任意だが、完全自動運転自動車について、2階部分の保険加入を強制することになれば、被害者側から見ると「自動運転自動車に轢かれた方が得」という不条理な結果が発生してしまう。また、国家の政策が自動運転自動車の普及にあるなら、完全自動運転自動車の強制加入保険料が、有人運転自動車の自賠責保険料より高いという事態は避けるべきである。

このように考えてくると、完全自動点自動車を普及させるには、自賠責保険と任意保険という二階建ての制度自体を抜本的に見直さなければならなくなる。その結果として、自賠責保険制度が存続の危機にさらされることになるが、これは、国交省の権益と真正面から衝突することになりかねない。

ということで、完全自動運転自動車の社会実装と普及には、実は、省益が最大の障壁になるのではないか、というのが、私の考えである。

 

| | コメント (0) | トラックバック (0)

« 2016年6月 | トップページ | 2016年8月 »