#contents *処理手順 [#o72b4f38] 「質問の解析」→「解候補の生成」→「解答の根拠探し」→「確信度の計算」 **「質問の解析」 [#w8375995] 構文解析の上,照応解析も行っているとのこと. **「解候補の生成」 [#f2f73b69] 質問に含まれる語との共起語などを,解候補にしているよう.一般には,Aprioriアルゴリズムが使われるが,組み合わせ数が多くなると,組み合わせ爆発を起こしてしまう.どの程度の組み合わせまで見て,解候補を選んでいるのか興味のあるところ.また,単に共起だけを見ているのか,係り受けまで見て,重みを設定したりしているのかも興味のあるところ **「根拠探し」 [#k9a0f9e6] 解候補の語句を問題文の該当箇所に埋め込んだものと同じ内容が,情報源のどこかに書かれているかを探すとのこと.ベクトル空間モデル?合致のさせ方を「観点」と呼んでおり,この観点を複数用意している.ここが研究開発の核であったとのこと.後の例では,「型が同じである(県とか市とか)」や,「条件の一部が一致(最も西にある)」などが観点として紹介されていたが,ややドメイン依存である上,正確な構文解析も必要そうで,ちょっと疑問.ここで,Power7アーキテクチャの2,880コアを用いた並列処理を行ったとのこと. **「確信度の計算」 [#zb30c365] 「観点」に重みを付け,確信度を求める.重みは,機械学習(ロジスティック回帰)で行ったとのこと.回答ボタンは,最大の確信度を持った解候補が,閾値を越えたときとなるとのこと. **情報源 [#d0495d06] ニュース記事,百科事典,シェイクスピアの戯曲,聖書,歌の歌詞など シェイクスピアの戯曲,聖書ってところが,いかにも欧米人らしい. 最終的には70GBとのこと.メモリに載せられる量と書いてあるところが,うらやましい. うちも大量にメモリの乗ったマシンを保有しているが,64GB超というのはさすがに... **前処理 [#t68c58d1] 事前に構文解析し関係抽出を行っておく.さすがに,リアルタイムで生のテキストを解析するようなことは行ってないらしい.私の研究も,この処理(情報抽出)を行っており,それゆえワトソンには非常に関心がある. **情報元 [#m2bedc25] http://e-biz.cocolog-nifty.com/blog/2011/06/ibm-watson-4da7.html **参考文 [#n9a36f06] ・金山 博,武田浩一:Watson:クイズ番組に挑戦する質問応答システム,情報処理,Vol.52, No.7, pp.840-849, 2011. ・S.K. Card: The Psychology of Human Computer Interaction, Lawrence Erlbaum Associates, 1983