人工無脳は考える
キーノート

明日のチャットボットを探して

2018/10/04

Chapter 1. チャットボット製作者

会話の相手になるロボット。心を持った人工物。

神話の時代からずっと、私たちはそんな存在が登場するのを渇望しているのかもしれません。 日本では古くから、長年使われた器物に魂が宿ると考えられており、それらは付喪神と呼ばれていました。 西洋の言い伝えでは泥から作られて動くというゴーレムが有名です。 映画やアニメでは、意思を持った魅力的なAIやロボットが毎年のように創り出され、時には人間の俳優以上に観客をひきつけています。

チャットボットもそれらの例にもれず、真空管からトランジスタへの過渡期に作られた最初期のメインフレーム "IBM 7094" の登場が1962年、 そのわずか4年後である1966年に最初の作品であるElizaが公開されました1。 それから個人向けのPCが日本で急速に普及しネットワークの整備が進んだ1990年代にさまざまなチャットボット(当時は人工無能や人工無脳と呼ばれていました)が作られました2。 映画の中の人工知能とは違い、当時のチャットボットはとても単純なプログラムと小さな辞書しか持たず、ユーザの言葉尻をとらえて予め用意したセリフの中から対応したものを選んで再生しているに過ぎませんでした。 にもかかわらず、人間は彼らとの会話を面白いと感じ、時に愛着や怒り、悲しみを感じたりします。 これは筆者がサイト開設時からずっと惹きつけられ、不思議に思っていることです。

Fig. 1 チャットボットの不思議

2010年のあたりからAIは再びブームになっており、その技術はとても進んだと言われていますが、 人工知能を使ったチャットボットというのはどれくらい会話の相手ができるようになってきたのでしょうか。

「人工知能の」チャットボット

街角ではsoftbankのペッパーが店に立っているのを見かけます。 解説記事3によればペッパーには感情を理解する機能が備わっている・・・ということですが、 しゃべりかけてみても決まった返事が返ってくることが多いですし、街をゆく人々からもなんとなく遠巻きに避けられているように思います。

2015年、Ashley Madisonという出会い系不倫サイトがハッキングを受け、その女性会員のうちの何割かが実はチャットボットであったことが暴露されました4。 男性会員は画面の向こうの女性がチャットボットとは気が付かないまま、なんとかあんなことやこんなことをしようと必死に会話していたわけです。

2016年にはmicrosoftがTayというチャットボットをTwitter上に公開しましたが、24時間も立たないうちにTayは閉鎖されてしまいました。 公開直後から、様々なユーザがTayに向かって人種差別を始めとしたあらゆる不適切な発言を行い、Tayがそれを学習してしまったからです5

同じく2016年には「罵倒少女」6と呼ばれるチャットボットが期間限定で公開されていました。 これは名前の通りひたすらユーザを罵倒するチャットボットで、 ユーザは話をしているうちにだんだん腹が立ってきて時には罵倒の応酬になるという会話を行いましたが、 開発者によればこのチャットボットに対して好意を抱いたユーザも数多くいました。一見矛盾するようなこの状況は何故生じたのでしょうか。

この罵倒少女には豊富で大きい画像が用意されており、描かれている表情はそれほど厳しくなく、その佇まいや姿勢からはオープンで無防備な印象を与え、リラックスや親しみを感じさせます。 それに対して彼女のセリフは強いネガティブな印象を与えています。 つまりこのチャットボットは言語的には敵対的ですが非言語的には親密というコミュニケーションをするようにデザインされているようです。 人は言語よりも非言語の影響を受けやすいので、

「チャットボットの本心ではユーザに対し好意を持っているけれど、それを素直に表現できない不器用さんなのかも」

というような印象をユーザに感じさせているのかもしれません。 一方、会話的にはユーザに共感したり尊重するのにはユーザの理解が必要だったり関係の修復が必要になりますが、 罵倒は相手のことを尊重する必要がないため、比較的成立させやすい会話のモードだと言えます。 チャットボット製作者の視点から見ると罵倒少女は会話機能としてはシンプルなものを、 キャラクタ設定の秀逸なアイデアでカバーしたものだと考えることができます。

業務用のチャットボット

2015年あたりから業務用に様々なチャットボットが市販されるようになりました。こんにちではさまざまな企業のwebページ上で チャットボットがユーザの問い合わせに答えてくれるようになっています。雑談するチャットボットが苦戦している一方で、 より具体的かつ間違いの許されないコンシェルジュとしての機能が求められる業務用チャットボットは急速に普及しています。 つまり企業からもそれなりに使い物になっていると評価されているわけですが、これはなぜでしょうか?

業務用のチャットボットを設置するより前、同じ業務は人間のオペレータが行っていました。 この時に作られた一問一答のQ&A集が業務用チャットボットの辞書のもとになっていて、 チャットボットは人間のオペレータによるやり取りを再現していることになります。 実際に導入した企業の話を聞くとユーザからの質問の8割は定番であり、単純にテキスト検索でユーザ入力に最も近い質問文を見つけ、 それに対応する回答を表示するという作戦でもまずまずの返答ができたわけです。また残り2割は難しくてチャットボットが答えられない質問ですが、 その場合は人間のオペレータに転送することも可能です。このような運用であってもコストメリットが大きいケースがたくさんあったわけです。

自然言語の分析

これまで見てきた例はどれも特殊な状況下でのみ会話が成立しているようで、そこに自然な交流が成立していたとはとても感じられません。 チャットボットや人工知能は、本当のところ言葉の意味をわかっているのでしょうか?

コンピュータが日本語を扱うとき、その出発点になるのが自然言語解析です。 その中でも最初に行われるのが形態素解析でしょう。形態素解析ツールの代表であるmecab7を使うと、 日本語は分解され、一つ一つが動詞や名詞などに分類されます。 ところが、日本語の会話では主語も述語もはっきりしないセリフがいくらでも現れます。

~$ mecab
りんごは甘酸っぱくて美味しいよね
りんご	名詞,普通名詞,*,*,りんご,りんご,代表表記:林檎/りんご カテゴリ:植物;人工物-食べ物 ドメイン:料理・食事
は	助詞,副助詞,*,*,は,は,*
甘酸っぱくて	形容詞,*,イ形容詞アウオ段,タ系連用テ形,甘酸っぱい,甘酸っぱくて,自動獲得:テキスト
美味しい	形容詞,*,イ形容詞イ段,基本形,美味しい,おいしい,代表表記:美味しい/おいしい ドメイン:料理・食事 反義:形容詞:まずい/まずい
よ	助詞,終助詞,*,*,よ,よ,*
ね	助詞,終助詞,*,*,ね,ね,*
EOS

例えば、「リンゴは甘酸っぱくて美味しいよね」の主語はリンゴではないでしょう。本当の主語や述語を知ろうとしたら文脈の中から推測する必要があります。 そこまではできたとしても、もっと重要な問題があります。主語や述語を補ってもフレッシュなりんごをかじったときの音、甘酸っぱいという味覚や外観、食感、香りの体感、 りんごに対する知識や経験が伴わなければこの文の意味がわかったことにはなりません。これは私たちであっても同じです。

「わっしはすぐそこで降ります。わっしは、鳥をつかまえる商売でね。」
「何鳥ですか。」
「鶴や雁です。さぎも白鳥もです。」
「鷺はおいしいんですか。」
「ええ、毎日注文があります。しかし雁の方が、もっと売れます。 雁の方がずっと柄がいいし、第一手数がありませんからな。そら。」鳥捕りは、また別の方の包みを解きました。 すると黄と青じろとまだらになって、なにかのあかりのようにひかる雁が、ちょうどさっきの鷺のように、 くちばしを揃えて、少し扁べったくなって、ならんでいました。

「こっちはすぐ喰べられます。どうです、少しおあがりなさい。」鳥捕りは、黄いろな雁の足を、軽くひっぱりました。 するとそれは、チョコレートででもできているように、すっときれいにはなれました。

「どうです。すこしたべてごらんなさい。」鳥捕りは、それを二つにちぎってわたしました。

宮沢賢治「銀河鉄道の夜」より

これは話し手の考える「雁」の概念と聞き手の「雁」の概念が異なっていたことが、次第に明らかになってくるくだりです。 会話の両者は日本語を話してはいるのですが、聞き手はどう反応していいかわからず、混乱し始めているのです。

コミュニケーションは話し手が聞き手に何らかの変化やアクションを引き起こすことを目的としていて、 話し手は自分の言ったことが意図したとおりに聞き手に理解されると期待していますが、 実際には話し手、聞き手双方の生い立ちや経験が同一でない以上、頭にある概念が全く同一ということはありえません。 聞き手は自分が受け取ったように変化やアクションを起こすしかないわけで、コミュニケーションでは聞き手が情報をどう受け取ったかが100%であると言えます。

これを踏まえると、前述のチャットボット関連の様々な事案はいずれもちょっと違ったものに見えてくるのではないでしょうか。

さらに考えを進めてみましょう。小さい女の子は人形遊びをするとき、人形とおしゃべりをします。 彼らの間で会話が成立しているわけですが、人形に日本語を理解する能力があるわけではありません。 一方で、私たちは喧嘩している相手とは雑談はできません。それが仕事仲間でも家族でも、相手は言語を理解しているはずです。 にもかかわらず、お互いに言っていることは理解できないし、会話したいとも思いません。

つまり、言葉は良いコミュニケーションにとって必要条件でも十分条件でもないのです。

ここから、次のような式を立てることができます。 雑談 - 言語 = ?

雑談から言語を引いた残りは、一体なんでしょうか。それは言語と比べて大きいでしょうか、小さいでしょうか。 そこにはいくつの成分が含まれているでしょうか。 筆者は、これらの疑問について議論を深めることが雑談を行うチャットボットの考察で最も大切な部分だと考えています。

人工知能の未解決課題

さて最近の人工知能技術は、これまで述べてきた疑問に対して何か解決策を示しているのでしょうか?

日本語を形態素解析し、主語や述語を決めて構文解析をするという従来のテキスト分析処理の流れに対し、 ニューラルネットや深層学習を使った方法ではニューラルネットに入力文字列と出力文字列のペアを大量に学習させます。 こうして得られた学習モデルに入力文字列を与えると学習の内容に応じて何らかの出力文字列が得られるのですが、 入力文字列には品詞情報はなくてもよく、入力文字列と出力文字列の言語が違っていても問題にならないので、 この技術は機械翻訳などで実用化されつつあります8

言い換えればニューラルネットを用いる手法が注力しているのは対訳のように入力に対して出力が一つ決まるもので、 従来法と比べて入力文字列が変動しても柔軟に対応できる代わりに、どのように出力が選ばれたのかがブラックボックス化しやすい特徴があります。 つまり近年普及したAI技術は、巨大な辞書を扱えるようになった一方意味を理解しないまま言葉尻をとらえる点で昔のチャットボットと何ら変わりがないのです。

なお、リンゴの美味しさを理解するために現実のリンゴについて様々な知識や体験が必要になるという指摘は「記号接地問題」と呼ばれています。 こちらは研究の途上にあるようで、フレーム問題と合わせて「AIの未解決問題」に数えられているようです9

雑談するチャットボット

これまでの議論で、"雑談 - 言語 = ?"の質問に人工知能の技術はあまり役立たないことが明らかになりました。 ひとつ指摘しておくべき重要なことは、"?"の部分は科学的であってもよいし、非科学的であってもよいということです。 非科学的でいいとはどういう意味でしょうか?例えば善悪美醜の判断は誰の心にもありますが、これは科学というわけではありません。 リンゴが美味しいと感じる心も、誰かと一緒にいたいと思う気持ちも、科学にはちょっとどいていてもらったほうがいい部分です。 科学で説明したいと思う科学者の、その欲求そのものは科学で説明されるものなのでしょうか。そして科学で説明する必要があるのでしょうか。

雑談を目指すチャットボットは人工知能の技術を活用することはあっても、人工知能技術でない何かに解決策を探さなければなりません。

でも、それが心の自然な姿なのではないでしょうか。

1
J. Weizenbaum, "ELIZA - a computer program for the study of natural language communication between man and machine", Communications of ACM 1966,9(1),36-45
2
加藤真一, "夢みるプログラム", ラトルズ社, 2015
3
進藤智則,"Pepperの感情生成エンジン、実装はRNNを利用 7種類の仮想的ホルモンを模擬して喜怒哀楽",日経ロボティクス 2015, No.11, 14-15
4
“Ashley Madison事件が紐解く人間の業” Kaspersky Lab DAILY, 20168/4
5
James Vincent, "Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day",THE VERGE, 2016/3/24
6
片渕陽平, 「エロい目で見んじゃねよ、このクズ」 26万人を罵倒したAI「罵倒少女」から考える「飽きない対話AI」の作り方, ITMedia NEWS, 2018/9/21
7
工藤拓,http://taku910.github.io/mecab/
8
小町守, "深層ニューラルネットワークを用いた日本語処理",人工知能学第71回人工知能セミナー, 2016/6/30
9
松尾豊, "AIの未解決問題とDeep Leaening" .sourceforge.jp/.
9
今井拓司. 毎日、進歩が加速している 脳の理論が2016年末にも完成. 日経エレクトロニクス 2016, No. 6, 44-47.

HOME

人工無脳は考える by 加藤真一 2016-2018