« 2016年5月 | トップページ | 2016年7月 »

2016年6月30日 (木)

テレビを見ながら発話するコミュニケーション・ロボットについて

人間と会話するロボットを、コミュニケーション・ロボットという。

コミュニケーション・ロボット研究の目下の課題は、高齢者の話相手を育成することだ。

高齢者の話を聞いてあげることは、QOLの向上につながるし、認知症の防止にも役立つ。だが、高齢者の話は一般に長くて要領を得ないし、同じ話を何回も繰り返すから、話相手を務めることは大変で、介護職員の大きな負担となっている。また、高齢化に伴い急速に増えている独居老人の多くが、一日の大半を誰とも話さず過ごすようになっていて、認知症予備軍ともいわれている。

そこで、高齢者の話に対して、一定のタイミングでうなずいたり、相の手を入れたりするロボットは、すでに開発されていて、介護施設などに導入されている。しかし、自分から話をきりだしたり、やや高度な受け答えをしたりするコミュニケーション・ロボットは、まだ研究途上だ。

奈良先端大学の神原誠之准教授は、会話の切り口に、twitterなどのSNSを利用する手法を提案している(電子情報通信学会誌平成286月号)。具体的には、高齢者と一緒に見る特定のテレビ番組についてのtweetをハッシュタグで検索し、そのつぶやきを発話する、というやり方だ。たとえば、独居の高齢者とともに大相撲中継を見ながら、「稀勢の里がんばれよ。綱取りがかかっているんだからな。がんばれ!ああ、負けちゃった」などと、ロボットがつぶやく。このつぶやきに高齢者が反応した場合には、対話モードに切り替わる。「稀勢の里を応援しているのかい?」「応援しています」「なぜ応援しているの?」「だって横綱になれば、久しぶりの日本人横綱だから」といった具合だ。ちなみに、稀勢の里についての知識は、wikipediaなどから検索して答えるわけである。

よいアイデアだと思うが、実用段階を考えたとき、いくつか法的な問題もある。

一つは、SNSでの書き込みをロボットが話すことは、書き込んだ人やSNS運営者の著作権等を侵害しないか、という問題だ。

Tweetの著作物性については、たとえば福井健策弁護士が詳細な解説を行っている。要は「著作物になる場合もあるし、ならない場合もある」。確かにtweet1通は最大140字にすぎないが、たった17文字でも立派な著作物になりうる。他方、創作性が全くないもの、たとえば「スタバでコーヒーなう」は、100字を超えても著作物ではない。しかし、現時点の技術水準では、ロボットに「著作物性のあるつぶやき」と「著作物性のないつぶやき」を判別させることは困難だ。また、tweetするユーザーは、自分のつぶやきがretweetされることをあらかじめ承諾しているといってよいと思われるが、だからといって、ロボットがまるで自らの思いつきのように話すことまで承諾があるとはいえない。結局のところ、ロボットがtweetをハッシュタグで検索し、ヒットしたものを発話するというシステムでは、著作権等を侵害する可能性が否定できない(というか、いつかは侵害してしまう)ということになる。

もう一つの問題は、特定のハッシュタグで検索しヒットしたつぶやきを発声する、という方法では、複数人による脈絡のない、あるいは相矛盾したつぶやきを、一台のロボットが発話することになるが、それは時として人格分裂の様相を呈することになり、話し相手の高齢者を混乱させる、という点だ。「マスゾエ早く辞めろ」「そうだな。マスゾエは辞めた方がいいな」「辞める必要なんかないでしょう」「いま辞めろと言ったじゃないか」「言ったよ」「じゃなんで辞める必要がないと?」「次の都知事は橋下かな?」「何を言っているんだ」と、まるで筒井康隆の短編「最悪の接触(ワースト・コンタクト)」のようなシュールな世界が出現してしまう。

このほか、マイクロソフト社のAIを陥れたように、SNSを悪用し、わざと罵詈雑言を投稿してロボットにしゃべらせようとする輩や、高齢者に対する攻撃的または犯罪的言葉をロボットにしゃべらせようとする輩もでてくるだろう。コミュニケーション・ロボットを使った振り込め詐欺が現実化すれば、ロボットのメーカーや運用者も責任を問われかねない。

結局のところ、コミュニケーション・ロボットがテレビを見ながら会話をきりだすには、人力を介するしかないと考える。具体的には、一番組あたり一人のスタッフが、番組を見ながら、高齢者の興味を引きそうな話題を入力すると、それが各家庭のロボットを通じて発話される、という仕組みだ。高齢者が応答すれば、各家庭のロボットは自律応答モードに切り替わる一方、高齢者の音声を直ちにテキスト変換して、テレビ局に送信する。スタッフはこれを見て、次の話題を入力することになる。このようにして、「コミュニケーション・ロボット用の会話素材」は、デジタル放送の副音声や、テレビ画面に流れるハッシュタグ付きツイートのような、テレビ局が提供するサービスの一つとして提供されるようになるだろう。

テレビ局の一室で、番組を見ながら、見も知らぬ数万人の高齢者に向けて、ロボットの台詞を発信する人間のスタッフ。モニターには、テキスト化された高齢者の言葉が、ニコニコ動画のコメントのように流れていく。こういう仕事が生まれる日は、案外、近いかもしれない。

 

 

| | コメント (0) | トラックバック (0)

2016年6月20日 (月)

ドローン産業化と物流について

627日、大阪弁護士会の研修で、ドローンの将来について少し話す機会があった。

そこで話したことを記しておく。

 

「空の産業革命」と言われ、華々しく登場したドローンですが、今のところ、ホビーと撮影用途に使われているだけであり、「産業革命」というには、いささか寂しいといわざるを得ません。

インプレス社は、ドローンの市場規模は2020年度に1138億円に拡大すると予測しています。これは、他社の予測に比べ、甘い数字のようです。しかし、1000億円強の市場規模というのは、宅配水や競輪、Jリーグと同レベルに過ぎません。ちなみに、わが国で最大規模なのは、自動車・同付属品製造業の62.5兆円です。1000億円は大きいですが、到底「産業革命」とはいえません。

ドローンが「空の産業革命」の名に恥じぬためには、物流を担うことが必須です。日本の物流市場は、19.7兆円とされています。このうち1兆円程度をドローンが担うのであれば、「空の産業革命」と言っても過言ではないと思います。1兆円などあり得ないとの意見もあると思います。しかし、アマゾンとグーグルが本気で挑戦しようとしていると聞けば、あながちあり得ないともいえないでしょう。

ドローンが物流を担うためには、現在の技術水準を飛躍的に伸ばす必要があります。特に、要素技術として、可搬重量、航続距離、全天候性、自律性、安全性が飛躍的に向上する必要があります。この点について、内外の研究者が開発にしのぎを削っていますが、5年後には、おおむね実用レベルに達していると予想されます。

米国では、要素技術の成熟を前提として、すでに、社会的インフラの整備に取り組み始めています。その一つは「空域の分離」です。この図面はアマゾン社の提案する「ドローンハイウェイ構想」を表していますが、地上150メートル以上を飛行機の飛ぶ空域、地上60メートルから120メートルを物流用土ローンの飛ぶドローンハイウェイ、地上60メートル未満を、ホビードローンや低距離用物流ドローンの飛ぶ空域としています。

次に「ドローンによる分業」です。長距離用には、無人の貨物飛行機が検討されています。ドローンハイウェイを飛行するドローンとしては、翼を持つドローンが、配達用ドローンとしては、マルチコプター型が予定されています。無人の貨物飛行機については、日本でも検討が始まっています。

三つめは、「航空管制」です。ドローンが普及すれば、都道府県あたり数千機以上のドローンが同時に飛び交うことになりますから、航空管制が必須となります。しかも、ドローンは無人なので、人間の管制官が呼びかけても答えてくれません。したがって、ドローンの航空管制はコンピューターシステムが担うことになります。ちなみに小池良次氏のレポートによれば、アメリカでは、低空での管制には携帯電話用の電波とアンテナが有用として、基地局の取り合いが始まっているとのことです。

ところで、わが国のドローン開発の第一人者である千葉大学の野波健蔵教授は、ドローンが墜落する確率「1万分の1以下」を目指すとしています。しかし、ドローンが本格的に実用化すれば、都道府県あたり数千機以上のドローンが飛び交うことになりますから、「1万分の1」の確率では、毎日1機は墜落する計算になります。したがって、ドローンについては、墜落する前提で、制度設計や機械設計を行わなければならない、というのが私の考えです。たとえば墜落時の安全装置については、パラシュートではなく、エアバッグが有効と考えています。

わが国の場合、狭い地域に人口が密集しており、ドローンが墜落した場合のリスクが大きいですから、高空を飛ばす「ドローンハイウェイ構想」にはなじまないのではないかと、私は考えています。むしろ、川の上や海岸沿いの海上など、墜落しても被害の少ない場所に空路を設けてドローンを飛ばす方が合理的です。また、小さな家や集合住宅の多い日本では、当面、戸別宅配は難しいでしょう。したがってドローンは、物流拠点間の輸送を担当することになると予想します。

千葉市では、特区を設けたドローンの宅配実験を進めようとしています。航空法の関係は国土交通省の包括的許可が得られる見通しなのでしょうが、問題なのは警察です。海上を飛ぶといっても、橋の上空を通過するためには、警察に対する道路使用許可申請が必要と言われる可能性があるからです。私などは、「橋の下をくぐればよい」と言っているのですが、技術的にはそう簡単でもないようです。

話はかわりますが、今年の秋、ソニーからプレイステーション用ヘッドマウントディスプレイ(HMD)が発売されます。いよいよわが国にもVR(バーチャルリアリティ)元年が訪れることになります。このHMDは、ドローン搭載カメラと連動させることにより、自ら空を飛んでいるような没入感をもたらすことができます。現行航空法では、承認無くHMDを利用した目視外飛行を行うことは禁止されていますが、解禁されるのは時間の問題だと考えます。なぜなら、鳥になることは人類の本能的な夢ですし、諸外国で解禁されれば、産業育成の必要上、日本で解禁せざるを得なくなるからです。そして、HMDで操作するドローンが普及すれば、女湯を覗いたり、高層ホテルの寝室を覗いたりする輩が必ず現れます。ドローンとプライバシーの問題は、すぐそこまで来ているといえます。

ドローンとプライバシーの問題に関しては、監視社会化のツールとして使われるのではないか、という意見もあります。実際、警察庁は、東京オリンピックの警備にドローンを使用するとしています。しかし、現在のところ、監視用ドローンを運用するためには、最低3人必要です(操縦士、機器操作担当、連絡担当)。多数の高性能ドローンを導入する費用や、人材育成の費用、運用コストや墜落の危険を考えると、街頭監視カメラを増やす方がずっと安上がりで確実ですから、私は、ドローンによる監視社会が直ちに訪れることはないと考えています。もっとも、ドローンの市場規模が大きくなれば、進化のスピードも上がりますから、自動的に障害物を回避して飛行しつつ特定の人を追跡するような機能を備えたドローンが登場する日が来れば、ドローンによる監視社会が訪れるのかもしれません。

| | コメント (1) | トラックバック (0)

2016年6月13日 (月)

ロボット法学がトロッコ問題を論じるとき気をつけるべきことについて

A.I.(人工知能)や自動運転自動車を論じるとき、法律家が好んで取り上げる題材に、トロッコ問題がある。521日に慶応大学で開催された情報ネットワーク法学会特別講演会「ロボット法研究会」設立記念シンポジウムにおいても、平野晋中央大学教授がトロッコ問題を取り上げたところ、パネルに同席したドイツ人法学者を含む内外の法律家が議論の応酬をはじめ、盛り上がっていた。

トロッコ問題とは、本来、倫理学上の思考実験である。ごく簡単に言うと、線路を走っていたトロッコが制動不能になったとき、そのまま進めば5人の線路作業員を轢き殺すが、分岐器を操作して別路線に誘導すれば一人の線路作業員を轢き殺す場合、分岐器を操作することが許される可否か、といった問題だ。

トロッコを自動運転自動車に置き換えたときどう考えるべきかが、法律家が好んで取り上げるトロッコ問題である。「5人と一人」ではなく「少年と老人」だったらどうか、「犯罪者と善人」だったらどうか、という問題に派生することもある。

トロッコ問題は、自動運転自動車に限らず、人工知能全般に及ぼすことができるかもしれない。たとえば、妊婦が母子ともに危険な状態になったとき、診断を委ねられた人工知能は、いかなる治療方針を選択すべきか、といった問題である。

私も、講演ブログでトロッコ問題を取り上げることがある。だが、人工知能がいかなる選択をするべきか、という点については、故意に曖昧に論じることにしている。その理由は、「ロボット法学は、トロッコ問題を論じるべきだが、軽々に論じるべきではない」という、ある意味ややこしい信念を持っているからだ。軽々しく論じることは、研究者や技術者との間に、誤解の溝を生む危険があるというのが、私の考えである。

繰り返しになるが、トロッコ問題は、倫理学上の『思考実験』である。そこでは、「一方に進めばこうなる、他方に進めばこうなる」という結論が、動かしがたい前提として与えられている。しかし、『現実世界』を走行する自動運転自動車にとって、このような結論は、動かしがたい前提ではない。そもそも、「右に行けば5人を轢き、左に行けば一人を轢く」と言われても、右に5人いるのか、左に一人しかいないのかを、自動運転自動車が確信をもって判別することはできない。しかも線路ではなく道路である以上、速度とハンドルとブレーキと路面状況等の組合せによって、少しずつ違う方向に進むから、「右に行けば5人を轢き、左に行けば一人を轢く」とは限らないし、仮に轢いたとしても、殺してしまう轢き方になるとは限らない。まして、「少年と老人」を確実に見分けることは非常に難しいし、「犯罪者と善人」を見分けるに至っては不可能である。先のシンポジウムでは、ドイツ人法学者が、「人間の命の価値の優劣を人工知能に判断させること自体が間違い」と発言していた。これは、法律学の観点からは満点だが、人工知能の研究者や技術者が聞いたら不愉快に思うだろう。センサーや人工知能の実際を無視し、研究者や技術者が回答できない問題をもてあそんでいるに過ぎないからである。この部分について、法律家は、研究者や技術者の説明に耳を傾けなければならない。

他方、それではおよそトロッコ問題を論じるべきではないかと言えば、そうともいえない。トロッコ問題は、人工知能と人間社会との関係のありかたについて、有益な視座を提供してくれるからである。たとえば先の妊婦の事例において、母体と胎児に関するあらゆる情報が正確に漏れなく入力されたことを前提にした場合、過去の十分な数の同種事例を経験知としている人工知能は、「最善の」治療方針を提案することが可能になるだろう。それはあたかも、囲碁の世界チャンピオンを破ったGoogle社のalpha-Goが、数千万の選択肢の中から最善の一手を選び出すように。

だが、その「最善の」治療法を、当事者が受け入れるべきか否かは、別問題として検討しなければならない。また、その提案が、何らかの理由で結果的には「最善」でなかった場合や、「最善」ではあったけれども結果的に失敗した場合の責任の法的所在についても、検討しなければならない。何をもって「最善」というかという判断基準も議論する必要がある。さらに、そもそも、この種の「最善の治療法」を人工知能に提案させることそれ自体の是非も、問われなければならない。この種の検討は、やはり研究者や技術者を不愉快にさせる部分を含む。しかし、法的あるいは社会的・倫理的な「正しさ」と、技術的な「正しさ」はしばしば対立するし、この点についてはむしろ、法律家が技術者に向かって発言しなければならないと思う。ただ、私の経験に照らすと、「相対的正義」の概念とか、「近代人権思想の系譜」みたいな話について、研究者・技術者はわりと謙虚に聞いてくれているように感じる。むしろ、研究者・技術者の前でトロッコ問題を論じる法律家の方が傲慢に見える。

そろそろ字数も超過してきたし、そもそも二千字で論じられる問題でもないが、要は、法律家と研究者・技術者は、お互いに謙虚に相手の主張に耳を傾けなければならないし、トロッコ問題を論じることが必要だからといって、軽々に断定的な論陣を張ってはいけない、ということである。

| | コメント (1) | トラックバック (0)

« 2016年5月 | トップページ | 2016年7月 »