2018/06/09

意味を読み取る

有名な人工知能(AI)のプロジェクトに「東ロボくん」というのがあるよね。
国立情報学研究所でやっているやつ。
AIは東大入試を突破できる学力を身につけられるか、というプロジェクトだったのだ。
で、結果としては、現在のAIではおそらく東大に合格できるほどの学力を身につけることは無理、というのがわかったんだよね。
その原因は、データをとにかく詰め込むことで知識量はあるんだけど、「文章の意味」が理解できないので、正答になかなかたどり着けない、ということだったのだ。
しかも、このプロジェクトを進めていく中で、圧倒的に読解力が低く、暗記や計算だけで問題を解いている子供たちがけっこうな割合でいることがわかったのだ。
今では、研究リーダーだった新井紀子博士は、子供たちのリーディング・スキルをどうやったら上げられるか、という研究に移行しているらしいよ。

で、ここでいう「文章の意味」とか「読解力」とは何なのか?
わかりやすい例で言えば、その言葉の発せられた状況やその文章の前後関係から「それらしい意味」を読み取る、ということなんだよね。
話し言葉だと同音異義語の意味の取り方がまさにそうなのだ。
海にいる「蛸」と、お正月に上げる「凧」は両方とも「タコ」という音だけど、食べ物の話をしているときは「蛸」を意味することが普通だよね。
でも、AIはそれが判別できないので、シチュエーションや前後関係も含めて大量の「例文」を記憶させ、その場に最も近いと思われる事例を参照してどちらの意味で使われているかを判断するのだ。
統計的な処理なので、こういうワードと一緒に出てくるときは「蛸」を意味することが多い、という結論を導き出すわけ。
音声認識はこれが非常に難しいんだよね。
イントネーションが違えば区別できるんだけど。

で、これが書き言葉ベースでも同じようなことが起きるのだ。
単語単語の意味はそれぞれりかいできても、それがつながって文章になったとき、「何が言いたいのか」がわからない、ということが起こるんだって。
「必ずしもないわけではない」といった二重否定や、「○○であろうか、いやない」のような反語は、単語の意味だけつなげてもその意味はわからないことが多いんだよね。
こういう複雑なものでなくても、特定の単語にだけ反応してしまって、文章全体の意味を取り損ねる、なんてのもあるみたい。
ツイッターでのわけのわからないリプは、全体が理解できていないまま、特定のワードにだけ反応して発せられていることが多い、というのもわかっているようなのだ。

さらに、人の書いた文章が読めない人は、当然自分で文章を書くのも不得意なんだよね・・・。
修飾語が長すぎて文章のつながりがわかりにくい、並列関係や順接・逆接がくずれている、主語・述語の対応がおかしい、などなど。
おそらく、自分ではあまり変だとは思っていないんだけど、他人から見ると、「何が言いたいのかわからない」というものになっているのだ。
話し言葉だとそこまで気にならず流せるようなものでも、書き言葉になるととたんにつらくなるんだよね。
言いたいことを正確に伝えるために文字で書き起こしているはずなのに・・・。

こういう話を聞くと不安になってくるよね・・・。
AIに限界があって、完全に人間に置き換えられない、というのはいいんだけど、人間の方でAI的な思考回路に近づいているというのは大問題なのだ。
コミュニケーションを取ることで社会性を保つのが生物種としてのヒトの特徴のはずだからね。
こういうのって、本を読まなくなったこととも関係しているのかな?
逆に、読んでも意味がわからないから読まなくなっているだけかもしれないのだけど。

0 件のコメント: