人工知能と身体性について
11月8日のNHKニュース9によれば、国立情報学研究所の開発する人工知能で東京大学入試合格をめざす「東ロボくん」が東大挑戦をあきらめた理由は、「意味の理解」にあるという。
たとえば、「センター試験の模試で東ロボくんが間違った問題は、『暑いのに歩いたの?』『はい。のどが渇いた、だから…』というやりとりに続く文章を(呈示された単語を並べ替えて)英語で答えるもの」だという。
英語のできる人間なら” (so) I asked something cold to drink”と回答するところだが、東ロボくんは”(so) cold I asked for something to drink”と誤答することがあるという。東ロボくんは、「暑いのに歩いたの?」から始まる会話の流れを無視して、呈示された単語から、使用される確率の高い組合せを回答するため、ときとして文脈を無視した回答をしてしまう。
研究チームを率いる新井紀子教授自身、「東ロボくんに限らず、どのAIも、基本的に言葉のパターンを見て、統計的に妥当そうな答えを返しているに過ぎません。言葉の意味を理解しているわけではないのです」と述べている。
問題は、AIがなぜ「言葉の意味を理解できないのか」だと思う。上記の例に則していうと、「暑い」の意味が、なぜ理解できないのか。「たとえば気温30度以上を暑い、と教えればいいじゃないか」という問いに、どう答えるか、ということだと思う。
もとより、「気温30度以上を『暑い』と定義する」とAIに教えることは可能だし、同様に「冷たい」言葉について、「気温または物の温度が10度以下」と定義して教えることも、「同一の会話文では、原則として、発話者の意見が対立する意味で言葉を用いない」というルールを教えることも可能だ。そう教えれば、現代のAIも上記の問題で正答できそうに見える。だが、この教え方では、あらゆる単語について複数の意味と膨大な会話パターンを想定して「定義」と「ルール」を教え込まなければならなくなる。教える側の人間に膨大な作業を強いるうえ、コンピューター側の処理能力も足りない。このやり方では、AIが人類を超える日は、永遠にやってこない。
しかも、このやり方には根本的な欠点がある。それは、たとえば「暑い」という言葉を「気温○度以上」と定義することが間違い、ということだ。旭川の人間と、沖縄の人間とでは、「暑い」と感じる気温は違うだろうし、同じ人間でも、運動中であるか、とか、風邪を引いているか、といった状況によって、「暑い」と感じるか否かは異なる。いいかえると、「暑い」という言葉の意味は、きわめて相対的かつ主観的なものであり、温度計のような客観的な尺度によって定義することが不可能なのである。
「ちょっと待てよ。暑いという言葉が『きわめて相対的かつ主観的なもの』だというなら、なぜ違う人間同士で同じ『暑い』という言葉を使って会話が可能になるのか?」という疑問をお持ちになるかもしれない。それは、人間同士の会話だからである。身体の構造や感覚器の精度が基本的に同じであるうえ、基本的な人生経験(両親がいて、社会があって、赤ちゃんから順に成長する、といったもの)を共通にする者同士だから、相対的で主観的な感覚であっても、相手の意味するところを理解できるのである。
言葉の「真の意味」を理解するには、「身体性」と「経験」が必要だ、ということになる。いいかえれば、「身体性」が異なる生物間のコミュニケーションは、とても困難なものになるだろう。オオコウモリ人は「静か」の意味を理解できないだろうし、テナガグモ人は、「かゆいところに手が届く」の意味を理解できないだろう。
問題はAIである。AIには身体がない。ヒューマノイドの体を与えることはできても、人間の感覚を与えることはできない。したがって、AIは、主観的で経験をもとにした言葉の意味を、人間と同様に理解することはできない。
近い将来、技術革新が起きて、AIの知力が飛躍的に進化することはあるかもしれない。だが、人間と同じ身体性を備えないAIの知力が、人間と同じ方向に進化するとは限らない。人間は、進化の頂点と自惚れているが、それは手足が二本ずつで目が二つ、といった「枠」の中で、それなりに進化したに過ぎない。別の身体を持つテナガグモ人は、人間とは別方向の知力で頂点を極めるかもしれない。
人間と同じ身体をもたないAIの知能は、人間と同じ方向に発展するとは限らない。というより、人間とは違う方向に発展することになる。そのAIが、いつか「人格」を備えたとき、人間との会話は成立するのだろうか。
| 固定リンク
この記事へのコメントは終了しました。
コメント