2017年9月19日 (火)

電動アシスト付ベビーカーに対する経産省の対応が何重にもひどい

9月14日の讀賣新聞によると、経産省は同日、「保育園児などが乗る外国製の電動アシスト付きベビーカーを『軽車両』にあたるとした見解が、すべてのベビーカーを対象にしたような誤解を招いたとして謝罪」した。

ことの経緯はこういうことらしい。

保育園などでは園児外出させる以上が乗れる乳母車バギーとも呼ばれる使われている。園児には散歩が不可欠だが、歩かせて引率するのは保母さんの負担が大きいし、交通事故の危険もある。この乳母車は本来人力で移動させるものだが、近年、電動補助機能付き乳母車が内外で製作されるようになった。平成27年1月27日、警視庁交通局交通企画課名の通達が出され、翌日には経産省からもグレーゾーン解消制度活用実績として、同様の見解が公表された。

その後、別業者から「グレーゾーン解消制度」に基づき、同業者が発売しようとする電動アシスト機能付き6人乗りベビーカーが道路交通法の定める「小児用の車」に該当するのか、「軽車両」に該当するかの問い合わせがあったので、平成29年9月7日当該ベビーカーについては上記通達の基準を満たさず軽車両該当するから、車道を通行しなければならないと回答した。

ところが、「ネット上ではすべての電動ベビーカーが車道などを通行しなければならないとの誤解が広がりベビーカー車道を通行するなど危険すぎるなどと批判が広がった」。そこで、経産省が「説明が不足しており、誤解を招いた」と謝罪した、という経緯である。

つまり、経産省としては、電動アシスト付ベビーカーが軽車両にあたるか否かの基準は、平成27年1月28日の経産省の公表によって、すでに明らかであり、今回はその基準に当てはまるか否かだけの判断だったのに、既に発表していた基準を国民の皆様が知らなかったので、誤解を招いた、ということのようである。

この経緯をめぐる報道は、経産省の謝罪によって一件落着、という雰囲気だが、とんでもないことだ。この経緯は、何重もの意味で間違っている。

第1に、電動アシスト付ベビーカーが軽車両にあたるか否かの判断基準は、通達であって、法令ではないから、警視庁の見解にすぎず、国民を拘束しない。「小児用の車」であるか「軽車両」であるかを最終的に判断するのは裁判所であって、警察ではない(憲法81条)。もとより、裁判所の判断がでるまでの間、警察が独自の見解で法令を解釈し運用することはできるが、そうであれば、その旨明確にするべきである。

第2に、このとき公表された経産省の見解は、通達ですらない(から当然国民を拘束しない)うえ、警視庁の判断基準を引用しつつ、「…等の条件を満たした場合は、『小児用の車』に該当」するとして、判断基準を全部書かかずに省略し、警視庁通達へのリンクも張っていない。これでは、基準の用をなさない。しかも、今回問題となったベビーカーのどこが判断基準の何に違反するのか、一切記載されていない。これでは、前例にも何にもならない。何が「グレーゾーン解消」なんだか、さっぱり分からない。

第3に、警視庁の通達は、身体障害者用の(電動)車いす(道路交通法2条1項11号の3)に関する道路交通法施行規則1条の4の規定を、ほぼそのまま電動アシスト付ベビーカーに移植したようであるが、車椅子は成長した人一人が乗るものであるのに対して、電動アシスト付ベビーカーは複数の幼児を乗せ、しかも必ず外部に人が付き添っているという違いがあるにもかかわらず、例えばそのサイズの基準(長さ120㎝、幅70㎝、高さ109㎝)が同一でなければならない理由が不明である。

第4に、これが一番ひどい間違いであるが、その理由が何であれ、ベビーカーに車道を走らせてはいけない。ベビーカー全部の問題でないからよかったとか、本件ベビーカーだけの問題だからOKだとか、という問題ではない。ベビーカーである以上は、歩道があるのに、車道を通行させてはならないのだ。さして説得力も、法的拘束力も無い平成27年1月27日の通達と、それによって車道を移動させられる6人の幼児(と一人の保母さん)の命と、いったいどちらが大事なのか。

もし、今回問題となった電動アシスト付ベビーカーが、何らかの理由でわが国の歩道を移動させることができないというなら、「車道ならOK」という見解を出すべきではなく、歩道車道を問わず公道での使用を禁止すべきである。逆に、保母さんの負担を減らし、園児の安全な外出の機会を増やすため、電動アシスト付ベビーカーの普及を広く認めるというなら、平成27年1月の通達をさっさと改廃するべきである。

要するに、今回の問題で、第1番目の優先順位は、幼児と保母さんの生命である。法的拘束力の無い通達や先例の重要性など、二の次だ。経産省の今回の対応は、「他の電動アシスト付ベビーカー一般に適用されるものではないからよかった!」という問題ではない。どんなベビーカーであろうが、ベビーカーに車道を移動しなさいと命じるようなら「日本死ね」という問題なのである。

| | コメント (2) | トラックバック (0)

2017年6月27日 (火)

人間は、人工知能の未来予測に異を唱えられなくなる。

6月25日のNHKスペシャル『人工知能 天使か悪魔か2017』は昨秋に引き続き、大変興味深い番組だった。

 

番組は、佐藤天彦名人と将棋ソフトポナンザとの電王戦を縦軸に、タクシーの配車、再犯・退職予測、株取引など、主として未来を予測する人工知能を紹介し、これらが既に社会のそこかしこに導入されつつある有様を示している。将棋の世界では、既に人間の知力を上回った人工知能だが、日常業務の中でも、その道のベテランですら一目置く存在になっていることが分かる。

 

人工知能は人間を超えるのか?という議論はなされて久しいが、どの分野で人間より優れた能力を備えたらいいのか?という議論はあまり聞かない。しかし、人間より速く走る機械、人間より力の強い機械はとっくの昔に実用化されているし、人間より計算の速いコンピューターや、人間より記憶力の優れたコンピューターも、普通に普及しているが、それをもって、機械やコンピューターが人間を超えたと言う人はいない。だが、コンピューターが人間より確実に未来を予測するようになれば、そのときをもって、人工知能が人間を超えた、と言ってよいのかもしれない。そのときは、分野にもよるが、2045年よりかなり前に訪れるだろう。

 

ところで、未来予測には間違いがつきものだ。人工知能がどれほど優れたものになったとしても、未来予測の間違いは起きるだろう。人工知能が未来予測を間違ったとき、誰が責任を負うのか、という問題が発生する。NHKの特集は、「人間の人生を決める人工知能が再犯率の予測を間違ったら、誰が責任を取るのか?」と疑問を呈する、模範囚でありながら人工知能に仮釈放相当との判断をしてもらえない米国人の言葉を紹介していた。

 

これに対する答えとして、番組は、「最後に決断するのは人間だ」という羽生善治の言葉を紹介している。

 

しかし、この答えは「逃げ」だと思う。人工知能が進化すれば、人間は間違いなく決定権を失うことになる。

 

たとえば、人工知能が進化して、統計的には、8割の的中率で未来予測ができるようになったとする。ある会社の経営会議で、ABいずれの経営方針を採用するかが議題となったとき、A案を支持する人工知能に対して、あなたは、A案を支持するだろうか、それとも、B案を支持するだろうか。なお、あなたは心の中では、A案もB案も的中の確率は五分五分と考えていたとする。

 

正解は「支持する」だ。なぜなら、統計的に見て、その人工知能の意見は的中する可能性が8割ある。もし的中しなくても、悪いのは人工知能であって、支持したあなたではないから、あなたの社内での地位は安泰だ。一方、人工知能に逆らってB案を支持した場合、あなたの意見が的中する可能性は統計上2割しかないうえ、会社がB案を採用して失敗した場合の責任はあなたが負うことになる。つまりクビになる確率は、B案を支持した方が遙かに高い。だから、社員の合理的選択は人工知能の推すA案支持となる。そこには、もはや人間の決定権は存在しない。

 

NHKの特集は、人工知能研究の第一人者ベン・ゲーツェル氏を招聘して政治的意思決定を人工知能に委ねようとしている韓国議会の取り組みを紹介していた。ベン・ゲーツェル氏は、「人工知能は意見を言うだけで、決定するのはあくまで人間だ」と述べていたが、上述したとおり、統計的に「正しい」政治判断を行う人工知能が実現したならば、人間は選択権を失うだろう。

 

人工知能に政治決定を委ねた世界は、統計的には、現代社会よりも平和で幸福になるかもしれない。だが、政治的選択を人工知能に委ねることは、政治的選択を神託に委ねることと、何が異なるのだろう。

| | コメント (1) | トラックバック (0)

2017年1月31日 (火)

テスラ車死亡事故に関する報告書について

2016年5月7日にアメリカ・フロリダ州で起きたテスラモデルSとトレーラーとの衝突死亡事故について、約6カ月間に及ぶ調査を実施していたNHTSAが、「現時点では、安全関連の欠陥は特定されていない」として、調査の打ち切りを公表した。

これを受けて、イーロン・マスクCEOは、「レポートのハイライトは、『テスラ車の事故率がほぼ40%低下したことをデータが示したことだ』」とツイートしたと報じられている。これを受けた1月20日のGigazineは、「テスラのオートパイロットに欠陥はなし、むしろ事故を40%も減らすとの調査結果」との見出しで報じている。

そこで、NHTSA報告書の原典に当たって確認してみた。

NHTSAとは、National Highway Traffic Safety Administrationの略で、直訳すれば「国家高速道路交通安全局」となる。国土交通省の自動車安全担当部署に該当する組織と思われる。

全13ページとなる報告書は、「テスラモデルSは、フロリダ州ウィリストンの西にある道路の信号のない交差点を横断するトレーラーと衝突し、テスラドライバーに致命傷を負わせました」から始まっている。「横断」とあるが、事故現場の見取り図をみると、左折する大型トレーラーの荷車部分に直進するテスラが突っ込んだ形で衝突したことが分かる(米国は右側通行だから、左折車は対向車線を横切ることになる)。報告書によれば、テスラ車から得られたデータより、①衝突時にテスラ車がオートパイロットモードであったこと、②自動緊急ブレーキシステムは警告または自動制御しなかったこと、③運転者は制動その他の事故回避措置を取らなかったこと、④最後に記録された運転者の行動は衝突前2分以内にクルーズコントロールの設定速度を時速74マイル(時速120㎞)に上げていたこと、が分かるという。また、事故当時は晴れで、道路は乾燥していたという。また、NHTSAが行った再現実験によれば、衝突の少なくとも7秒前からは、テスラ車のドライバーからトレーラーが見えたはずだ、ということである。

テスラは、見通しのよい道路の前方を横切るトレーラーが引く荷台の下に潜り込むように衝突した。自動ブレーキシステムはなぜ作動しなかったのか。オートパイロットに問題はなかったのか。報告書は、この2点を中心に分析を行っている。

第一に、自動緊急ブレーキ(AEB=Automatic Emergency Braking)システムについて、報告書は、AEBは前方障害物警告(FCW=Forward Collision Warning)、ダイナミックブレーキ補助(DBS=Dynamic Brake Support)、衝突直前ブレーキ(CIB=Crash Imminent Braking)の3システムによって構成されるとしたうえで、直角交差や左折車・対向車との衝突、木や電柱への衝突は守備範囲外と述べている。そして、本件事故についても、「フロリダの致命的なクラッシュに存在するような交差路衝突のブレーキングは、システムの期待される性能能力の範囲外である」と述べ、テスラ車のAEBシステムには問題がないとの見解を示した。

確かに、AEBの目的は、現在のところ追突防止であり、対向・右折・左折車との衝突や出合頭の衝突防止は、技術的に難易度が高い。そのため、米国の安全基準は本件事故が回避できるレベルでのAEBを求めていないので、テスラ車のAEBには問題がない、との結論になったものと思われる。

第二に、本報告書は、テスラのオートパイロットシステムはTACCTraffic Aware Cruise Control=同一車線内を、先行車と適切な間隔を空けて走行する)とオートステア(Autosteer=車線、標識、周囲の車の位置に基づき、最適な車線の中央を走行する)の二つによって成り立っているとしたうえで、双方について、マニュアル上ドライバーに対して「ハンドルを握り、周囲に注意」することを求める警告が記載されているとしている。また、ドライバーがハンドルから手を離すと、15秒後から警告が鳴り始め、その後10秒間に応答がなければ、その5秒後に減速が始まるよう設定されていると述べる。本件テスラ車のシステムが、これらの設定どおりに働いていたか否かについて、本報告書は具体的に言及していないが、おそらく、問題がなかったということなのだろう。なお、事故後の9月には、ドライバーが警告に対応しなかった場合、再度オートパイロットに変更しようとしてもできないという「ストライクアウト」にシステムがアップデートされたという。

上記2点を中心とする検討を踏まえ、報告書は「フロリダの死亡事故の原因は、少なくとも7秒間という長期の注意散漫によって引き起こされたように見える。7秒間もの注意散漫というのは、(注意散漫によって引き起こされる自動車事故の大半が、3秒程度の注意散漫であることに比べると)珍しいが、あり得ないことではない。」と述べている。このことと、テスラ車のシステムについて政府が定める基準違反が発見されなかったことをもって、「現時点では、安全関連の欠陥は特定されていない」と結論づけたものと思われる。

以下は感想となるが、確かに、直線で見通しが良いとはいえ、時速120キロで走行しながら7秒間以上前方を見ない、というのは、日本の高速道路でさえ、相当危険な行為であろう。まして、今回事故が起きた道路には所々交差点があって、対向車などが進入してくるというのだから、時速120キロで7秒間前方を見ないというのは、自殺行為と言われても仕方あるまい。その意味で、本件事故の主たる原因がドライバーにある、という報告書の結論に異論はない。

また、NHTSAの立場としては、テスラ車に装備されたAEBやオートパイロットのシステムが、国の基準を満たしていることが確認できたならば、それで調査を打ち切るのも当然といえる。

しかし、NHTSAが問題なしという報告書をまとめたのは、単に、現時点での国の基準に照らして問題がないことを認めたに過ぎないことには、注意する必要がある。NHTSAは、与えられた基準の中で当否を判断しているだけであって、その基準が、テスラのような自動運転自動車の(将来)あるべき基準として妥当か否か、という判断はしていない。

不幸なドライバーは、時速120キロで走行しながら少なくとも7秒間前方を見ない、という致命的なミスを犯した。だが、彼がなぜそのような無謀なことをしたかといえば、テスラ車の機能を信頼したからであろう。もし「AEBでは対向車との衝突を避けられない」ことを知っていたら、同じ行動に出ただろうか。AEBの限界はマニュアルに書いてあるのだから、読まない方が悪い、と断言してよいのだろうか。

さらに不幸なことに、衝突したトレーラーの荷台は、道路と床面との間が非常に広かったため、テスラ車は前方に障害物ありと認識しなかったものと思われる(障害物ありと認識してれば、結果的に衝突は避けられなかったかもしれないが、自動的に制動していたはずだ)。しかし、広いとはいえ運転席の屋根が丸ごと吹き飛ぶ程度の空間しかなかったのだから、この程度で障害物なしと認識されたのでは、完全自動運転に移行するのはまだまだ先と言わなければならない。また、イーロン・マスクCEOは、テスラ車が障害物と認識できなかった理由として「白く塗装された荷台が光を反射したため」と述べているが、少なくとも人間が障害物と認識できるものであれば、機械が障害物と認識できなくては困る。

報告書は確かに、オートパイロットシステムを導入したテスラ車の事故はほぼ40%低下したと述べている。だが、単純に事故数を引き算することは間違いだと思う。なぜなら、「4割の減少」は、実は「5割の減少と1割の増加」の結果かもしれないからだ。オートパイロットの導入によって、「いままで起きた事故が起きなくなった」だけなら、無条件に良いことといえるだろう。だが、もしかしたら、「今まで起きなかった事故が、起きるようになった」ことがあるかもしれない。それはたとえば、人間がシステムを信頼したがゆえに、自らハンドルを握っているときにはおよそ起こさなかった事故に巻き込まれる、ということであるかもしれない。「人間のミス」に起因する事故が5割減ったとしても、「機械のミス」に起因する事故が1割増えた場合、社会は「差し引き4割減ったから自動運転車の方がよい」として受け入れるとは限らない。

| | コメント (0) | トラックバック (0)

2017年1月16日 (月)

自動運転自動車に轢かれた方が損、という法解釈は受け入れられるか

法律専門雑誌『ジュリスト』2017年1月号に、藤田友敬東京大学教授が「自動運転と運行供用者の責任」と題する論考を寄せている。このうち、「自動運転自動車の事故に自賠法を適用することが可能か」という論点については、前回のエントリで触れた。今回は、「自賠法がどのような形で適用されるか」についての教授の主張について検討したい。

自賠法は、自動車の「運行供用者」に対して、交通人身事故の損害賠償義務を課している(3条)。ただし、次の三要件を満たす場合には、免責するとしている。民法上の損害賠償責任に比べると、原則と例外が逆転しているのだ。その理由は、被害者保護と、自動車運送の健全な発達(1条)にある。

自賠法が定める免責の三要件は、次のとおりだ。
①自己及び運転者が注意を怠らなかったこと
②被害者又は運転者以外の第三者に故意又は過失があったこと
③自動車に構造上の欠陥又は機能の障害がなかったこと

ちなみに、自賠責保険制度を運営する損害保険料率算出機構が作成した統計情報によると、平成25年度の交通事故死者数は4373人、負傷者数は118万5334人、自賠責保険支払件数は死者について4125件、負傷者について78万1494件とのことである。つまり、自賠責保険の不払件数は死者248件、負傷者40万3840件となっている。負傷者についての不払い件数は年々増加傾向にあるが、死者についてはそうでもない。なお、自賠責保険の収支状況は、平成24年度末で類型5175億円の赤字ということである。

さて、藤田教授によれば、上記3要件のうち②「被害者又は運転者以外の第三者に故意又は過失があったこと」は自動運転自動車だからといって影響を受けるものではない。残りの①③のうち、①の「自己及び運転者が注意を怠らなかったこと」については、完全自動運転自動車については「もはや問題にならず、運行供用者・運転者が何もしなかったとしても注意を怠ったことにはならない」としている。つまり、完全自動運転自動車の場合、②の要件は常に満たされるということだ。

そして③の「自動車に構造上の欠陥又は機能の障害がなかったこと」については、3つの具体的設例を検討しつつ、かかる欠陥または障害がなかったと認められる場合もあろうとしている。たとえば、「前方トラックの荷台の乱反射を障害物と誤解したことにより、突然ブレーキが制動し急停車したため追突された」事例においては、「このような制動が行われる可能性は僅かであり、かつ、そのような制動は設計上避けがたく、しかも平均してみると事故防止あるいは損害軽減の効果が大きいという場合には、構造上の欠陥・機能の障害は認められないと考える余地があるかもしれない」とのことだ。

大変興味深い問題提起だとは思うが、その示唆するところについては、いくつか気になる点がある。

上記の例に即していえば、素朴な疑問として、「同じ事故を人間のドライバーが起こした場合はどうなるのか?」が思い浮かぶ。いうまでもなく、この場合に自賠責保険が免責されるということはあり得ない。同じ事故を起こし、被害者救済のため同じ法律が適用されるにもかかわらず、一般の自動車なら有責、完全自動運転自動車なら免責、という結論を取る解釈論は受け入れられないだろう。

また、上記の例に限らず、藤田教授の論考は、一般の自動車に比べ、自動運転自動車が事故を起こした場合の自賠責保険免責の範囲を広げることを指向しているように見受けられる。しかし、自動運転自動車が社会に受け入れられる一つの根拠は、安全すなわち事故率の低さにある。安全性を謳っておきながら、いざ事故を起こした場合の救済範囲が一般の自動車に比べて狭いということになれば、被害者側から見れば「自動運転自動車に轢かれた方が損」ということになる。そのようなことで、自動運転自動車が社会に受け入れられるのであろうか。

あるいは、藤田教授のご意見は、自賠責保険の免責範囲が広がる部分は、任意保険でカバーするからよい、ということかもしれない。だが、自賠責が免責なら、任意保険は当然免責になる。したがって、任意保険でカバーするということは、任意保険に無過失責任を導入することを意味する。偶然にも、同じ『ジュリスト』の特集で、東京海上日動火災保険株式会社の池田裕輔氏が、ドライバー無過失の場合でも支払われる保険新商品を紹介している。藤田教授も、自動運転自動車の事故について、任意保険を無過失責任化することによって被害者を救済するというお立場であるなら、それも一つのあり方だとは思う。ただし、任意保険である以上、未加入の場合は、被害者は自賠責からも保険金を受け取れなくなる。

藤田教授の考えを推し進めると、結局、自動運転自動車に轢かれた方が損の場合が発生する、という結論になるのではないか。この結論は、自動運転自動車の普及を妨げるベクトルとして働くのではないかと懸念される。

 

| | コメント (0) | トラックバック (0)

2017年1月10日 (火)

完全自動運転自動車と自賠法の適用について

法律専門雑誌『ジュリスト』の2017年1月号が「自動運転と民事責任」の特集記事を組んだ。特集の中で、藤田友敬東京大学教授が「自動運転と運行供用者の責任」と題し、「自動運転が行われた場合に、自賠法を適用することが可能か、またどのような形で適用されるかについて検討」している。

自賠法は、交通事故の人身損害について、「自己のために自動車を運行の用に供する者」(運行供用者)に対して賠償責任を課している(3条)。ここに「運行」とは、「人又は物を運送するとしないとにかかわらず、自動車を当該装置の用い方に従い用いること」(2条2項)だ。そこで藤田教授は、一部自動化された自動車はもちろん、「完全自動運転も、この定義を満たす」から、「自賠法上の「運行」が存在することに疑いがない」と述べている。

全7ページの論考中はじめの1ページなのだが、早くもここで引っかかってしまった。とはいえ、「運行」の解釈については、特段異論はない。引っかかったのは、論考が「完全自動運転自動車は自賠法の『自動車』なのか?」という論点を、完全にスルーした点にある。

自賠法2条1項は、「この法律で『自動車』とは、道路運送車両法第二条第二項 に規定する自動車(農耕作業の用に供することを目的として製作した小型特殊自動車を除く。)及び同条第三項 に規定する原動機付自転車をいう」と定義している。要は、道路運送車両法にいう「自動車」ということだ。そこで道路運送車両法2条2項を見ると、「この法律で『自動車』とは、原動機により陸上を移動させることを目的として製作した用具で軌条若しくは架線を用いないもの又はこれにより牽引して陸上を移動させることを目的として製作した用具であって、次項に規定する原動機付自転車以外のものをいう」と定義している。

この文言だけでは、道路運送車両法にいう「自動車」に完全自動運転自動車が含まれるか否かは分からない。だが、道路運送車両法41条は、「自動車は、次に掲げる装置について、国土交通省令で定める保安上又は公害防止その他の環境保全上の技術基準に適合するものでなければ、運行の用に供してはならない」と定めたうえで、「装置」の具体例として「操縦装置」「制動装置」「前面ガラス」「警音器その他の警報装置」等を列挙している。いずれも、車内に運転者が存在することを前提とする装置だ。

以上からすれば、現行道路運送車両法は、人間の運転者による運転を想定しているから、グーグルカーのごとき、操縦装置をもたない完全自動運転自動車は、道路運送車両法上の定める「自動車」に該当しない、ということになる。もし「自動車」に該当しないということになれば、自賠責保険締結義務(自賠法5条)が発生しないから、事故を起こしても、「運行」の要件を満たすか否か以前の問題として、自賠法の適用がない。

「グーグルカーにハンドルはなくても、人工知能が操作する『操縦装置』は備えているから、自賠法上の自動車と認めるのに何ら問題はない」との反論もあり得よう。だが、昭和26年に制定された同法が、人にあらざるものによる操縦を念頭に置いた条文を規定している、と考えるのは、かなり無理があると思う。百歩譲って、道路運送車両法または自賠法を改正しなくても完全自動運転自動車に適用されうるとの結論を採るとしても、少なくともこの論点についての議論は必要であろうし、法改正による解決の当否に触れるのが筋であろう。それにもかかわらず、「完全自動運転自動車は自賠法上の『自動車』にあたるか」という点を一顧だにせずスルーするというのは、いかがなものであろうか、と思う。

ちなみに私自身は、完全自動運転自動車については、道路運送車両法及び自賠法を改正して、完全自動運転自動車の保有者(オーナー)に自賠責加入を義務づけたうえ、事故が起きた場合には、有人運転の場合に準じて、自賠責保険が支払われる制度設計を行うべきであると考える。

 

| | コメント (0) | トラックバック (0)

2016年12月12日 (月)

人工知能と身体性について

11月8日のNHKニュースによれば、国立情報学研究所の開発する人工知能で東京大学入試合格をめざす「東ロボくん」が東大挑戦をあきらめた理由は、「意味の理解」にあるという。

たとえば、「センター試験の模試で東ロボくんが間違った問題は、『暑いのに歩いたの?』『はい。のどが渇いた、だから…』というやりとりに続く文章を(呈示された単語を並べ替えて)英語で答えるもの」だという。

英語のできる人間なら” (so) I asked something cold to drink”と回答するところだが、東ロボくんは”(so) cold I asked for something to drink”と誤答することがあるという。東ロボくんは、「暑いのに歩いたの?」から始まる会話の流れを無視して、呈示された単語から、使用される確率の高い組合せを回答するため、ときとして文脈を無視した回答をしてしまう。

研究チームを率いる新井紀子教授自身、東ロボくんに限らずどのAIも、基本的に言葉のパターンを見て統計的に妥当そうな答えを返しているに過ぎません言葉の意味を理解しているわけではないのですと述べている。

問題は、AIがなぜ「言葉の意味を理解できないのか」だと思う。上記の例に則していうと、「暑い」の意味が、なぜ理解できないのか。「たとえば気温30度以上を暑い、と教えればいいじゃないか」という問いに、どう答えるか、ということだと思う。

もとより、「気温30度以上を『暑い』と定義する」とAIに教えることは可能だし、同様に「冷たい」言葉について、「気温または物の温度が10度以下」と定義して教えることも、「同一の会話文では、原則として、発話者の意見が対立する意味で言葉を用いない」というルールを教えることも可能だ。そう教えれば、現代のAIも上記の問題で正答できそうに見える。だが、この教え方では、あらゆる単語について複数の意味と膨大な会話パターンを想定して「定義」と「ルール」を教え込まなければならなくなる。教える側の人間に膨大な作業を強いるうえ、コンピューター側の処理能力も足りない。このやり方では、AIが人類を超える日は、永遠にやってこない。

しかも、このやり方には根本的な欠点がある。それは、たとえば「暑い」という言葉を「気温○度以上」と定義することが間違い、ということだ。旭川の人間と、沖縄の人間とでは、「暑い」と感じる気温は違うだろうし、同じ人間でも、運動中であるか、とか、風邪を引いているか、といった状況によって、「暑い」と感じるか否かは異なる。いいかえると、「暑い」という言葉の意味は、きわめて相対的かつ主観的なものであり、温度計のような客観的な尺度によって定義することが不可能なのである。

「ちょっと待てよ。暑いという言葉が『きわめて相対的かつ主観的なもの』だというなら、なぜ違う人間同士で同じ『暑い』という言葉を使って会話が可能になるのか?」という疑問をお持ちになるかもしれない。それは、人間同士の会話だからである。身体の構造や感覚器の精度が基本的に同じであるうえ、基本的な人生経験(両親がいて、社会があって、赤ちゃんから順に成長する、といったもの)を共通にする者同士だから、相対的で主観的な感覚であっても、相手の意味するところを理解できるのである。

言葉の「真の意味」を理解するには、「身体性」と「経験」が必要だ、ということになる。いいかえれば、「身体性」が異なる生物間のコミュニケーションは、とても困難なものになるだろう。オオコウモリ人は「静か」の意味を理解できないだろうし、テナガグモ人は、「かゆいところに手が届く」の意味を理解できないだろう。

問題はAIである。AIには身体がない。ヒューマノイドの体を与えることはできても、人間の感覚を与えることはできない。したがって、AIは、主観的で経験をもとにした言葉の意味を、人間と同様に理解することはできない。

近い将来、技術革新が起きて、AIの知力が飛躍的に進化することはあるかもしれない。だが、人間と同じ身体性を備えないAIの知力が、人間と同じ方向に進化するとは限らない。人間は、進化の頂点と自惚れているが、それは手足が二本ずつで目が二つ、といった「枠」の中で、それなりに進化したに過ぎない。別の身体を持つテナガグモ人は、人間とは別方向の知力で頂点を極めるかもしれない。

人間と同じ身体をもたないAIの知能は、人間と同じ方向に発展するとは限らない。というより、人間とは違う方向に発展することになる。そのAIが、いつか「人格」を備えたとき、人間との会話は成立するのだろうか。

 

| | コメント (0) | トラックバック (0)

2016年11月14日 (月)

判決を予測する人工知能は実用化するか

2016年10月23日のBBCニュースは、人工知能がヨーロッパ人権裁判所の判決を予測し、8割近くの高確率で的中させたと報じた。

将来、人工知能が弁護士や裁判所の仕事を奪うという予測は多い。現に、米国の法律事務所では、裁判例や証拠の分析を行う人工知能が実用化されはじめているという報道もある。だが、少なくともわが国では、人工知能が発達しても、裁判所や弁護士の業務を代替することは当面起きないし、裁判の結果を予測することも(後述する少数の例外を除き)、実現しない。

その理由はとても簡単だ。わが国では、判決を人工知能に読み込ませることが、とても難しいからである。

現代の人工知能は、深層学習(ディープラーニング)技術の実用化により、自ら経験知を高める能力と、経験知に基づき予測を行う能力とを身につけつつある。但し、そのためには、膨大な基礎知識を学ばせなければならない。たとえば、離婚を認める判決が出た場合の慰謝料を人工知能に予測させるためには、数十万件の判決書を読ませなければならない。

人工知能に判決を読み込ませるためには、判決のデジタルデータ化が必要だ。ちなみに裁判統計によると、地方裁判所の民事・行政訴訟新受件数は昭和40年以来年10万件から20万件で推移している、平均年15万件であるとして、約50年で750万件となる。仮にその半分について判決が出ているとすれば約375万件だ。同様に刑事事件の判決数を推定すると50年で350万件、刑事の方は事件が途中で終了することがまずなく、大半の事件について判決が書かれるから、行政と民刑事を合計すると、昭和40年以降約725万件の判決が出ている計算になる。

一方、判例検索ソフトで最大手と思われる第一法規の収録裁裁判例数は平成28年11月現在で24万2060件。推定される上記判決数に比べると3%に過ぎない。この中には離婚や相続、交通事故や特許紛争など、あらゆる事例が含まれることからすれば、離婚など特定のジャンルの裁判例は、せいぜい数百から数千といったレベルだろう。これでは、人工知能に学ばせる事例の数としては、圧倒的に足りない。

しかも、判例雑誌や判例検索ソフトに収録される裁判例は、比較的珍しい事例や、新規性のある事案に偏っている。ごくありふれた事例についての判決文は収録されていない。だが、人工知能に正確な予測をさせるためには、まずもって、ごくありふれた事例を大量に読み込ませなければならない。言い換えると、判例雑誌や判例検索ソフトに掲載されている裁判例ばかり読み込ませてしまうと、人工知能は、間違った予測をしてしまうことになる。

これは推測だが、おそらく米国では、判例法国であることもあって、ごく普通の裁判例を含め、膨大な量の裁判例がデジタル化されて蓄積されているのではないだろうか。そもそも提起される裁判の母数が日本とは桁違いに多いということもある。すべて英語の横書きだから(当たり前だが)、スキャンしてデジタルデータ化するのは比較的容易だろう。しかしわが国では、デジタル化されている裁判例はおそらく全体の数パーセントであり、残りは紙のまま各地の裁判所に保管され、あるいは廃棄されている。生き残った判決書を人工知能に読み込ませるためには、すべてをスキャンしてOCRにかけ、デジタルデータ化しなければならない。

それだけでも大変な手間だが、わが国の場合、さらに困難な問題がある。判決書に記載された個人名の処理も大問題だが、おそらく最も大きな問題は、古い判決書が薄葉紙に和文タイプで打った代物で、しかも罫線があるという点だ。昭和40年代生まれまでなら記憶にあるだろうが、薄葉紙とは、半紙より薄く、向こうが透けて見えるほど薄い紙で、判決書のほか、遺言書や公正証書など、格式の求められる書類に使われていた。非常に薄いから、重ねてスキャンすることができないし、シートフィーダーにかければ破れてしまう。一枚一枚細心の注意を払ってスキャンするしかないが、それを数百万件分行うのは、費用面でも時間面でも、およそ不可能だ。ちなみに、それ以前の判決書は手書きになるので、現在の技術水準では、OCRは不可能となる。

このようなわけで、わが国の過去の裁判例を人工知能に読み込ませるのが不可能である以上、人工知能による判決の予測も不可能、という結論になる。デジタルの世界を論じるとき、忘れられがちだが最も大切なことは、デジタルとアナログの境目に存在するのだ。

もっとも、ごく限られた領域、たとえば交通事故における過失相殺割合や、損害賠償額については、ここ2~30年だけでも相当数の判決の集積があるし、事例のバリエーションも限定されているから、労を惜しまずスキャンして人工知能に教え込めば、判決の予測は可能になるだろう。商標や音楽の類似性についても、人工知能による判決予測が可能になると思われる。ただし、これらの限定された分野では、市場が限られているから、人工知能を育てるコストは、高止まりするだろう。コスト的に弁護士に対抗しうるほどの人工知能が登場するのは、難しいかもしれない。いいかえるなら、判決を予測する人工知能を開発するのであれば、今後日本中の裁判所で出される判決を、効率的にデジタルデータに変換しておく仕組みの整備が必要である。

| | コメント (0) | トラックバック (0)

2016年10月17日 (月)

人工知能による法律相談は実現するか?

「実は、外に子どもがいるんです。」

いまから20年ほど前の12月の朝。弁護士会館の相談室を訪れた中年の男性は、こう切り出した。

このとき、弁護士になってまだ1、2年だった私の脳裏には、暖房のない廊下で一人待つ子どものイメージが浮かんだ。私はこう答えた。

「それなら、中に入れてくださって結構です。」

だが、これは誤解だった。男性はすこし苛立って、「妻ではないの女性との間に、子どもがいるのです」と言い直した。私の顔は赤くなったと思う。このとき、男性の横に座っていた女性の顔に浮かんだ落胆と不信の表情は、忘れられない。

今なら、こんな恥はかかない。まず確認するのは、同席した女性が妻か否かだ。妻なら、この男性は、平日の昼間に仕事を休んで自ら(妻に代理を頼まず)相談に来る必要があったことを意味する。妻が同席しているのは、妻にも付き添うべき理由がある(それどころか、実質的な利害関係は妻にある)ことを意味する。だから、「実は」と聞いただけで、相談の中身はおおむね想像できる。また、二人の年齢や健康状態、身なりや所持品から分かる経済状態や社会的地位、二人の間に漂う空気から関係を読みとれば、何が回答のポイントかも分かる。「すごい」と思う人がいるかもしれないが、弁護士としては、ごく普通のことだ。当時の私が、あまりに未熟だっただけである。

ところで、10月10日の日本経済新聞は、弁護士ドットコムが、人工知能(AI)を使った法律相談サービスの開発を検討していると報じた。弁護士でもある元榮太一郎社長は、法律面の課題を指摘しているという。弁護士法72条は、弁護士以外が有償で法律業務をすることを禁じているからだ。元榮社長は、「AIが有償で顧客の相談に乗る場合、(弁護士法72条に照らし)どういう扱いになるか分からない」と述べたという。

だが、元榮社長の危惧は杞憂である。少なくともいま、人工知能の法律相談の合法性を検討する必要性は全くない。

人間同士のコミュニケーションは、膨大な「言外情報」(それまでの文脈、常識や基礎学力、当事者の関係や性別、社会的身分や経済力など、あらゆる周辺事情)によって成り立っている。いいかえれば、「言語情報」だけでは、真意が伝わらず、誤解が発生するのだ。「外に子どもがいる」の「外に」は、「部屋の外に」を意味すると考えても、辞書的には誤りではないが、冒頭の状況下では、明らかに誤りとなる。

現在の人工知能にとって、「言外情報」を学ぶことは至難の業であるため、多くの研究者がこの問題に挑んでいる。たとえば、人工知能に東大入試を突破させようというロボくんプロジェクトは、試験問題文から出題者の意図を正確に推定する人工知能を開発する試みであるともいえる。試験問題はその性質上、出題意図に誤解が発生しないよう、一意的に意味が通じるよう作成されているので、人工知能に「言外情報」を学ばせる「とっかかり」としては、最適の分野なのだ。それでも、たとえば「1時間に2分進む時計があります。いま、時計が1時0分を指しているとき、1時間後に何時何分を指しているでしょうか?」という問題が出たら、初期の人工知能は「1時2分」と答えただろう。これは、アナログ時計の針の運行という「基礎知識」や、「時計は狂うことがある」という「常識」といった「言外情報」を人工知能が知らないことが原因だ。

ディープラーニングの実用化は、人工知能の進化に大きく貢献した。しかし、人工知能が法律相談に対応できるようになるためには、あと数個のブレークスルーが必要だろう。それまで何年かかるか分からないが、人工知能による法律相談が2、3年後に実用化することはないと断言してよい。

 

| | コメント (0) | トラックバック (0)

2016年8月29日 (月)

完全自動運転自動車が想定すべき「乗降時の転倒」について

7月25日の日本経済新聞によると、経済産業省と国土交通省は2018年に、自動運転車を使った送迎サービスの実証実験を始めると発表した。運転できない高齢者が通院や買い物ができるように、高齢者の自宅と病院や商店街の間に自動運転車用の道路を整備する。公共交通網が十分でない地方での実用化の可能性を探る、という。

自動運転自動車には、Google Carなどの完全自動運転自動車と、Teslaのような不完全自動運転自動車がある。このうち、わが国において、完全自動運転自動車の早期実装が求められているのは、高齢者の送迎サービスだ。

昭和30年、40年代、都市近郊に多くの新興住宅地が開発され、一戸建てを求める多数の若夫婦が入居した。彼らは一斉に年を取るので、新興住宅地はいま、急激な高齢化を迎えている。多くの新興住宅地は駅から遠いので、自動車は必需品だが、高齢者の運転には事故の危険がつきまとう。また、多くの場合夫が先発つので、運転免許を持たない妻が遺される。現在はミニバスを巡回させるなどの公共サービスが対応しているが、運転手の確保と人件費が行政の負担となっている。しかも、高齢者が亡くなったり、施設に入ったりして空き家ができても、人口減少中のわが国では、子どもが家を継がない。そのため過疎化が進行し、行政サービスすら維持できなくなってくる。かといって、移動が困難になった高齢者を都心に転居させたり、施設に収容したりする財政的余力はない。

新興住宅地における、完全自動運転自動車による送迎サービスの需要がここに存在する。具体的には、各家庭にコンソールボックスを置き、住人が行きたい場所のボタンを押すと、数分後には迎えの自動車が来る。複数の住人が同じ場所のボタンを押せば、配車役の人工知能が最適ルートを考えて相乗りしてもらう。これをたとえるなら、ビルのエレベーターは「上下」という一次元の世界における、相乗りを前提とする公共交通システムといえるが、完全自動運転自動車の送迎サービスシステムは、住宅地という二次元世界のエレベータシステムといえる。

高齢化した新興住宅地はもともと自動車が少ないうえ、幹線道路とのみ接続する「閉じた」地域であって、外部自動車の進入がまれなので、自動車同士が衝突するリスクは低い。高齢者の送迎が主目的だから、運行速度は時速20㎞程度でよい。車体も、ゴルフカートよりはましという程度でよいから、コストも安い。完全自動運転自動車を社会実装するうえでは、理想的な環境であるともいえる。

もちろん、課題もある。最大のリスクは、「乗降時の転倒」とりわけ「降車時の転倒」だ。新興住宅地の多くは山を削って作ったので坂が多い。道路の舗装も古くなっている。そのため、坂に停車した自動車に乗降しようとする高齢者が、小さな段差につまずいて転倒する事故が想定される。些細な転倒でも、余生を寝たきりで過ごすきっかけになりうるので、軽視できない。

技術的な解決策としては、自動車の人工知能に路面の状態を観察させ、安全な場所に停車させることが考えられる。気の利いたタクシー運転手などは普通に行っているサービスだが、現在の技術水準では、かなり難しい。確実かつ安価な方法としては、安全な乗降場所にRFIDやマーカーを埋め込んでおく方法もある。だが、この方法では、これらのない場所での乗降に対応できない。また、乗降時の転倒、特に降車後の転倒を検知するシステムも必要だ。高齢者が降車したあと転んだのに、送迎した自動運転自動車が走り去ったため死亡したというような事件が起これば、運営主体の法的責任が問われうると同時に、自動運転自動車の普及に対する大きな障害となりうる。

法律家は、自動運転自動車の事故というと、トロッコ問題にばかり目を向けがちであるが、実際には、このような地味なリスクを指摘していくことが大事かもしれない。

 

| | コメント (0) | トラックバック (0)

2016年7月25日 (月)

人工知能は人間の仕事を奪うのか?(『洗練された奴隷制』再論)

人工知能やロボットは、人間の仕事を奪うのか?という問題が議論されている。

この問題を考える上で、ムラタシステム株式会社の提案する「手術準備支援システム」は、とても参考になる。

外科手術は、どんな簡単なものでも、数十点の器具を準備する必要がある。従前、この準備は資格を持つ看護師が行っていたし、チューブの口径を1ミリ間違えただけでも人命に直結する、非常に神経を使う仕事であった。

手術準備支援システムは、準備すべき器具を入力するコンピューターと、その情報を受け取るポータブル型PC、ウェアラブルグラスと、バーコードリーダーから構成されている。準備作業を行う職員が、ポータブル型PCを腰に、ウェアラブルグラスを目に、バーコードリーダーを手の甲に装着すると、準備する器具と、その所在する棚の場所がグラスに表示されるので、その場所に行って器具を手に取り、バーコードリーダーをかざして確認する。間違っていなければ、グラスに次の器具が表示される、という仕組みである。

看護師は手術器具の準備から解放され、その負担が一日あたり3時間以上減ったという。NHK『クローズアップ現代』のサイトによれば、看護師長は「一瞬で準備ができるというのは、圧倒的に機械が速い、確実。」と述べる。

また、看護師に替わって準備を行っているのは派遣労働者であるが、「私一人じゃ、絶対に心もとなくて、本当に先生という感じです。」と述べ、コンピューターを「先生」と呼んで頼り切っている。

ビデオを見ると、派遣職員の女性は、棚の隙間の狭い通路を、器用に移動して手術器具を集めている。このような移動は、ロボットにはできない。他方、派遣労働者の女性は、コンピューターに指示された場所に行き、指示された器具を収集するだけで、その器具が何であるか、その器具を使っていかなる手術が行われるかを知らないし、知る必要もない。

とても合理的なシステムだと感心するが、ふと、「どちらがロボットなのか?」と思う瞬間がある。

人工知能やロボットは、今後も職場に進出し、人間の仕事を代替していくだろう。しかし、そのこと自体は、「自動化」「機械化」と呼ばれる旧知の現象であって、人類社会が産業革命以降経験してきたことだし、乗り越えてきたことでもある。人工知能やロボットが職場にどのような影響を与えるかという議論は、産業革命以来の「進化」と質的に異なる変化があるのか、という問題として検討されなければならない。

ムラタシステムの「手術準備支援システム」は、使用するコンピューターのレベルこそ低いが、人工知能の時代に特徴的な職場の変化を垣間見せてくれる。従来の「自動化」や「機械化」によって職場に進出してきた機械は、いずれも人間の操作を受け、人間の指揮命令に従って動作してきた。つまり、職場のヒエラルヒーとしては、人間は機械の上位にいたのである。

これに対して、近未来の職場においては、人工知能が、現場の人間を操作し、指揮命令するようになる。現場の人間は仕事の意味や目的を知らず、知るのは人工知能だ。従来の「自動化」や「機械化」と決定的に異なるのは、現場の人間と人工知能とのヒエラルヒーの順序である。もちろん、人工知能の「上」には人間がいて、高度な意思決定(たとえば、この患者に〇〇という手術を行う)を行っている。したがって、職場全体のヒエラルヒーとしては、人間人工知能人間という順序となる。一言でいうと、「中間管理職の人工知能化」が進むことになる。

私は、人工知能が進出することによって初めて実現する、このような職場の形態を『洗練された奴隷制(Sophisticated Slavery)』と呼んでいる。

洗練された奴隷制は、直ちに現場の人間を不幸にするわけではない。『クローズアップ現代』でインタビューを受けた派遣労働者の女性のように、コンピューターの指示どおりに働けば給料がもらえるし、ミスする心配もしなくてよい。労働時間の管理も人工知能がきっちりやってくれるだろう。

ただし、懸念すべきこともある。この種のシステムは、図や記号、数字や矢印で大概の指示を出せるので、必ずしも言語がいらない。だから、教育のない人間や、言語の異なる外国人であっても、同レベルの仕事を行うことができる。これは、現場の人間の給料を押し下げる要素として働く。結果として、「人工知能の上にいる人間」と「人工知能の下にいる人間」との格差は、広がっていくことになる。

ヒエラルヒーの上位にいる人間も、安穏としてはいられない。人工知能が東大入試にチャレンジする『東ロボくん』プロジェクトのリーダーである新井紀子国立情報学研究所社会共有知研究センター長は、「銀行の窓口業務より、『半沢直樹』がロボットに代替される方が先。与信審査は、膨大なデータをもとに投資の成功率を予測する仕事であり、これを確率的に最適化する能力は、人工知能の方が上」と予言しているし、これは筆者が述べてきたことと同じことである。ただ問題は、『半沢直樹ロボ』は、経営者に対して一定の経営判断を上申することになるし、「上」にいる人間といえども、その上申を争うことが困難になるだろう。

想像してみてほしい。あなたが銀行の部長であるとして、ある会社に100億円を融資すべきかどうかについて、『半沢直樹ロボ』と意見が対立したとする。『半沢直樹ロボ』の判断の的中率が80%であるとき、あなたは、自分の地位や行内での信用をかけて、『半沢直樹ロボ』と対決できるだろうか。

膨大なデータを分析し、「買うべきか、売るべきか」を確率的に最適化する能力が人間より優れているならば、為替相場や株取引は、ほどなく、人工知能がその大半を支配することになるだろう。そのリスクは、十分に検討しておく必要があると思う。株式自動売買システムの暴走がブラックマンデーを引き起こしたように、人工知能の暴走が、為替や株の異常な暴落を引き起こさない保証はない。

| | コメント (0) | トラックバック (0)

より以前の記事一覧