自然言語理解とそのモデリング

はじめに

 さいきん自然言語処理分野では「自然言語理解」なるものをどう考えるかについて議論があったりします。膨大なパラメータを大量のコーパスで訓練したシステム( GPT-3 とか)を用いると言語理解が関わるようなさまざまなタスクで高い性能が達成できることがわかってきた今日このごろ、そうしたシステムが本当に「言語理解」なるものを実現しているのかということが焦点です。これは言語理解である、言語理解ではない、そもそも言語理解ってなんやねん……などなど、考えさせられる議論が論文やブログ記事などで展開されています。読んでいても何もわからん……状態になったので、ともかく自分の理解を整理してみようというのがこの記事を書き始めた動機です。

 こうした議論から得られる帰結(あるいは教訓)のひとつは、結局は理想的な言語理解なるものを定義しようと試みても決着しないので、具体的にどういった振る舞いがそれに含まれるのかを適切に切り出してタスクとして評価可能にする、という方針です。そこで上記議論を追ったのち、「言語理解にはどのような振る舞いが含まれるか」について分類の方法論の可能性を書き出してみようと思います。こうした分類は振る舞いを評価する仕方について直接的な検討を与えることになります。

 他方で私たちはひとつの営為としてそうした振る舞いを実現する機構を何らかの形でモデル化します。モデルは言語理解についてのある種の理論として機能するわけですが(厳密ではない)、モデルの作り方や作ったモデルの種類などによって得られる知見はおそらく異なります。そこで最後に「私たちはモデルの構築を通じてどのように対象についての納得を深めることができるのか」について考えます。

1. 言語理解についての最近の議論

 議論の発端となったのは 2018 年の Twitter 上での議論 のようです(おそらく GPT の直後?)。非常に長いスレッドが生まれているのですが、本記事では後続の議論の嚆矢になった Bender & Koller (ACL 2020, 以降 B & K) の論文を見ていくことにします。

 この論文のおもな主張は、「 形式 (form) のみで学習したシステムは意味を理解することができない」というものです。ここで形式は「(文字や発話など)言語的な情報が何らかの形で表現されたもの」であり、意味の理解は「形式から伝達意図 (communicative intent) を取り出すこと」、伝達意図は「その形式を産出した主体が伝えようとしている情報」と定義されています。かなり抽象度が高くぼやっとした印象がありますが、とりあえず進めます。

 「形式のみで学習したシステム」というのは、ありていに言えば最近流行っているテキストデータのみで事前訓練した言語モデルベースの深層学習モデルのことを指しています。こうしたモデルは伝達意図を捉えることができない、というのが B & K の主張です。こうした主張を説明する道具として、彼らは論文のなかで octopus test という思考実験を提案しています:

英語話者 A と B がおり、それぞれ別の無人島に漂着した。無人島には通信機があり、海底ケーブルでつながっていて互いに通信できる。海底にはタコがいて、英語はわからないがケーブルの通信を傍受してふたりの会話から統計的なパターンを見つけることができ、一定の期間を経て B が A に対してどう応答するかを高精度で予測できるようになった。あるときタコはケーブルを切断し、 B のふりをして A に応答することを試みた。タコは A に疑われないように応答を続けることができるだろうか?

 タコが A を欺けるかどうかは、 A がどのような話題を出すかに依存するように思われます。A と B は普段から日常的な会話を続けており、必ずしも発話内容が話者や無人島の状態と適切に結びついている必要はありません(検証できないため)。したがってタコは日常会話くらいなら普通にこなせるかもしれません。しかしあるとき A はクマに襲われてしまい、通信先の B (実際はタコ)に対処のための助言を求めたとします。でもタコは A の発話内容と物理的な対象を結びつけることができないので、その場の A の状況に応じた助言ができないかもしれません。このように伝達意図を理解することが要求される状況では、形式的な情報しか学習していないタコは適切な応答ができないかもしれません。

 この思考実験の意図は、タコの得られる情報が形式的なもの(ここでは発話)のみであり、それを実世界に grounding するための情報は何も得ていないために伝達意図の理解ができないということを指摘するという点にあります。のちに Michael (2020) が指摘するように、これは Turing test のような評価タスクというよりも一種の直観ポンプ*1であり、あくまで読み手に要点を掴ませるための設定であると捉えるのが良さそうです。

 さて B & K の主張ですが、本当にタコは言語理解ができないと言えるのか考えてみましょう。Michael (2020)ACL 2020 会議中の議論をまとめてくれているのでそれをざっくり追うことにします。まずこの実験設定にはタコの出力が形式のみであるという制約が存在するため、タコががんばって A を助けに行かなければならないような話ではありません。したがって、(評価タスクではなく思考実験にすぎないとはいえ)B ならこう話して A を助けることができるという想定解があると考えるのが自然でしょうし、とても賢いタコがその想定解を出力できる可能性はゼロではないかもしれません(言語モデルで同じ実験を考えると、インターネットのどこかに「クマに襲われたらこうしよう!」という文章が存在し、それが偶然 A の状況に合致したアドバイスになっていた、ということがありえます)。もちろん B & K の主張は特定の設定に依存したものにしたいわけではないでしょうから、一般化すると「形式のみを学習したシステムと人間(意味理解ができるエージェント)を区別できるような何らかのテストが常に存在する」と言い換えることができるかもしれません。しかしこう捉えてもなかなか決定不可能な主張のようにも感じられてよくわかりません。というのはこの主張の構成要素はさまざまに変わりうるようにも思えるからです。たとえば「そのテストに関するどのような事前知識が学習対象の形式に含まれているのか」が気になります。もちろん任意の事前知識を含めることは困難ではあるので、コーパスに存在しないような何らかの新奇な例を入れてみるのがよいかもしれません。自分がいつも出している例は Levesque (2013) の「ワニは障害物競走ができるか」で、こうした新奇な例を集めたデータセットが出ていたりします(StrategyQA, Geva (2021) )。しかしまたいたちごっこにこうしたテストをパスしてしまうかもしれないシステムを想像することは可能であり、究極的にはあらゆるテストはパス可能かもしれません(これは中国語の部屋がそもそも実現可能なのかという疑問に関わる気がします)。ただもちろん形式的なデータのみを使わなければならないというルールがあるわけではないので、 B & K の本来の主張のように形式以外のシグナルを含めたシステムを作るのが現実的には素直なようには思えます(Potts (2020) も似たことを言っています)。GPT-3 から DALL-E の話はまさにそんな感じでしょうか。

 では「形式のみ」の状況設定から少しだけ外れて何らかのシグナルを入れてもよいとするとどうなるでしょうか。形式のみの学習でもモデルによっては何らかの潜在表現を獲得していると考えられます。その潜在表現の空間が適切に知覚情報の意味空間にマッピングされるのであれば、実は形式以外にほんの少しのシグナルがあるだけでその全体の対応付けを構成できるかもしれません。たとえば色について、すべての色の語彙がそのスペクトラムのどこに位置しているかを知っているとすれば、少数の色さえ grounding できればすべての色を grounding できるかもしれません。そのために必要な最低限の情報(議論の中では toehold や prior と呼ばれています)は、機械学習システムなら inductive bias として含めることができるかもしれませんし(ここは自分が少し勘違いしているかもしれませんが、タスクとしてのシグナルなら訓練データですが、そこから得られるであろう一般的なシグナル自体をシステムに入れることも可能だと思います)、動物がすでに持っているようなものかもしれません。たとえば octopus test で登場するのがタコではなく人間 C であり、C は A と B が使っている言語を知らないとしたらどうでしょうか。最終的に C は自分の持っている知識に照らし合わせて A と B のやりとりを理解できるようになるかもしれません。だとすると、A と B のやり取りを理解するために C が持っているべき事前知識の量はどこまで小さくしていくことができるでしょうか。C が非常に賢ければ最初から完全な言語を獲得している必要はないかもしれません。その賢さはどのような類のモデルで実現しうるのか、モデルに必要な事前知識は何であるのか、私たちはそれらを実際に構成できるのか、というのがここまでの議論から出てくる実践的な問いになるのかなと思います。

 ここまで踏まえると B & K が最初に提示していた主張はかなり雑に言うと「すでにかなり賢いと思っていたタコがそれよりもさらにめちゃくちゃ賢い可能性がある」という指摘で否定されてしまったかのようにも見えるのですが、ひとつ気をつけたいことがあります。それは彼らはあくまで「人間らしい (human analogous) 言語理解」を要請しているという点です。この前提だとたとえば「人間はそういう汎化はしないだろう」といったような汎化能力(人間よりも膨大に事例を覚えてそれを組み合わせるなど)は想定できないということになります。現にタスクベースの分析だと含意関係認識や読解で「そういう解き方はしないだろう or これは解けなきゃダメだろう」と stress testing や probing をする論文は数多く存在します(自分のこれまでのデータセット分析をする研究もここに位置付けられます)。これ自体が妥当な要請かどうかはさておき(規範的な主張なので)、そうなるとなるべく人間らしい言語獲得をしてもらうにはどうすればいいかという話になります。 B & K の論文中では、人間は形式のみから言語獲得はできないという研究が引用されています。さらに言えば、知覚情報だけでなく身体性や社会的な環境における共同注意 (joint attention) や志向性の共有 (shared intentionality) がおそらく必要でしょう(このあたりは Tomasello (2003) Constructing a Language (辻ほか訳 (2008)『ことばをつくる』)や Tomasello (2014) A Natural History of Human Thinking ( 橋彌訳 (2021)『思考の自然誌』)が詳しいです)。同様の指摘は Bisk et al. (EMNLP 2020) でもなされています(後述)。この方向性の研究もこれからどんどん増えてくると思いますが、一方で言語獲得を評価する方法をどうデザインするかは難しいことも多い気がするので一筋縄ではいかないかもしれません。

 長くなりましたが、ここで一旦話を冒頭に戻してみましょう。かなり抽象的な議論を続けていましたが、実際のところ「言語を理解する」という振る舞いに厳密に正しい定義を与えることは困難ですし(抽象度が高すぎて究極的には規範的言明にならざるをえないと思います。そうなると No true Scotsman fallacy *2は避けられないかもしれません)、その内実には多様な振る舞いが含まれます(Sahlgren & Carlsson (2021) は Singleton fallacy という名前をつけて指摘しています)。そしてそれを評価するためにタスクを作らなければならないとなれば、言語理解なるものをトップダウン*3に掘り下げていって個別の振る舞いを切り出してじわじわ着実に進めていくしかありません(タスクによる評価を積み重ねることで理論(モデル)自体の反証可能性を高めていくという捉え方をします)。これは Dietterich (2019) も指摘していました*4。ということで、その切り出しをやるためにはどういうことに気をつけるのがよさそうか、を次の節で触れたいと思います。

2. 言語理解とは何か、どう分解していくか

 私たちは言語理解という振る舞いに対してどのような説明を与えることができるでしょうか。まず規範的には、つまりその振る舞いはどういったものであるべきかという観点からは、ある言語的な入力が与えられたときに共同体における自分の生存のために不利益にならないように振る舞うことなどと説明する考え方があります (目的論的意味論や起源論的な説明に自分がある程度納得している、ということの表明だとご理解ください)。その言語的な入力あるいはより一般に記号は(厳密には志向的表象は)、その記号の生産者や消費者がそうした記号をやりとりすることによって自然選択において有利だったようなものとして説明されます(系統発生的には、ヒトの記号のやりとりが言語という文化と呼べるようになるのは志向性の共有から起きたものであるという(Tomasello の)説明があり、自分はこれは確かにそうかもなあと思っています)。ただしかしこれはあくまで規範的な説明ないし定義であり、いくらでも変容しえます(「真の言語理解」問題)*5。この手の話が気になる人は 戸田山 (2014)『哲学入門』Millikan (2004) Varieties of Meaning信原訳 (2007)『意味と目的の世界』) を読むとよいかもしれません(恥ずかしながら自分の知識はここから前進していません。最近どうなっているのか知りたい。たとえば Millikan (2017) Beyond Concepts が比較的新しいですが、自力で読み通す能力と時間がありません)。

 したがって実践的には言語理解にはどのような振る舞いが含まれているか具体的に記述していく方針がよさそうです。たとえば普通私たちは言語的なコミュニケーションを経て必要な行動ができます。文章を読んで必要な情報を入手し、自分の行動のために活用したり知識として蓄えたりすることができます。これはみんな大好き David Marr のいう 3 つの記述のレベル における計算のレベルに相当します(何がどのレベルかというのはあくまで相対的な気もしますが)。タスクで振る舞いを観測する・評価するという観点からこの区別を見ると、他の2つのレベル、つまり振る舞いがどのような内部的な情報処理で起きるのか(アルゴリズム・表現のレベル)、その内部的な情報処理が物理的にどのように実現されているのか(実装のレベル)、といったことはタスクの遂行可能性とは基本的に独立であるということになります。もちろん「どのようにモデリングするか」という論点としては非常に大事ですので、次の節で触れます。

 さて、振る舞いとしての言語理解を噛み砕いていくとき、 まず入出力のメディアを考えるのが簡単かもしれません。いろいろありえますが、さしあたり Bisk et al. (2020) を下敷きにすると次の3つの分類がありそうです:

  1. 形式(コーパス・インターネット)
  2. 知覚情報(形式による指示や相互の変換など)
  3. 環境情報(身体性・行動・社会的環境における知覚情報・形式情報の処理)

 ただこの分類はあくまで便宜的なもので、たとえばメタファーのような形式を理解するために知覚情報や身体的な感覚を経由するほうが便利な場合など、下位のデータを理解するのに上位の情報を必要とすることは往々にしてありえます(どっちが上とか下とかいう話でもないのですが)。ただし前節の議論で言われていたように、出力が下位のデータのみに留まる限りは「膨大なテキストデータ」から正しい振る舞いを導くことができる可能性が常に存在します(少なくともそのようなモデルは存在可能である、くらいの意味です)。たとえばメタファー表現は身体性を伴う場合がありますが、たとえばメタファー表現を理解する(適切な対応を選択する)ことを身体的な情報なしで行った場合(そのようなモデルを想像することは可能です)、これは起源的には理解しているとは言えないかもしれませんが、テキストデータのみの入出力でそれを区別する意味はあまりないかもしれません*6*7

 文章の処理において心理学では surface structure / textbase / situation model の区別があります(たとえば Kintsch (1998) とか、 Construction--integration model あたりを探すと出てきます)。それぞれ、入力情報から変換された言語的な表現(分節性の認識も含む)、その表現から構成された命題、命題が知覚情報なども含めて相互に関連付けられた心的表象、を指します。 NLP では parsing や tagging レベルの処理、文関係の認識や知識推論、要約や(高度な)読解(利用可能ならマルチモーダルな情報を含む)や対話履歴などのみを文脈情報とする対話タスクもありえます。Situation model そのものは「文章を読んだときに心的表象として何を思い浮かべるか」を規定する概念だと思われるためここに書いていますが、これをもとに「与えられた文脈情報をもっとも良く説明する situation model を構成すること」を読解の定義として与えている人もいます(Zwaan (1998)Hernández Orallo (2017) の流れ)。Fauconnier の Mental space みたいな話も近いと思います*8

 この3層の区別は理解における強さや深さのような性質として取り扱えるような気もします。たとえば認識論や科学哲学にまたがる領域では こういう論文 があったりしますが、この議論では理解の種類として次のようなものが挙げられています(かなり圧縮しています):

  • 個別的な事物や概念にかかわる世界知識、言語知識で構成されるもの(記号の単純な指示など)。
  • 単一の事象について主体や客体を認識するもの(事象内の関係)。
  • 事象に関わる因果関係や歴史的経緯、含意、帰結等を把握するもの(関係の集合)。

これは前述した心理学的な計算モデルが措定するものに似ています。前者は「人間の情報処理がそうなっている(表象に分節性・階層性・合成性がある)」ということを言うための概念でしたが、後者のこの分類は「より一般に主体が何らかの理解する際に取り扱われる情報にもそういう構造がある」と言えなくもなく、とりあえずはこういうものに行き着くよなあという印象があります。

 また、命題の理解という言い方をする際にはその命題の factuality が問題になることもあります(これは前節の Michael (2020) の議論でも触れられていました。言語モデルから知識を取り出せるかどうかの研究も最近は盛んですね)。命題の真理条件(と言っていいのかわかりませんが)はそれを認識するスコープ(あるいはフレーム、ドメイン、準拠領域)が何かということに大きく依存しますが、特定の振る舞い・技術を単一のタスクで評価するという方法論の枠内ではあまり明示的に意識されることは少ないかもしれません。 Factuality が問題にすることはつまり、ある情報を一定のスコープで表象できるとき「わかっている」ことにするか、あるいはその情報の事実性がスコープによって異なりうること(たとえば言語学的な分析は Carlson & Pelletier (1995) など)を考慮できるところまで含めて「わかっている」ことにするか、という論点になりそうです。

 断片的な記述になってしまいましたが、要点をまとめておきます。言語理解なるものを語るときには、少なくとも以下が考慮されるとよいかもしれません。

  • 定義の仕方:規範的(あるいはかなり抽象的)か、記述的か
  • 記述のレベル:外部から観測可能な振る舞い、内部的な情報処理、その物理的な実現
  • 入出力のメディア:テキストデータ、知覚情報、身体性、社会性
  • 内容の分節性・合成性:単一の概念、命題、より広い状況
  • スコープ:命題の真理条件を与えるもの、その任意性

3. 理解のモデル化と納得について

 自然言語処理・計算言語学の営みの形態のひとつのあり方はおそらく「人間の言語を何らかの形で処理するモデルを作り、用意したタスクでその振る舞いを評価する」だろうということを 以前の記事 で述べました。その考えは大きく変わっているわけではなく、タスクのデザインについては前節のようにこういうことをがんばるのが良さそうということが少しずつ得られているかもしれないのですが(怪しい)、一方で「モデルをつくること・シミュレーションをすること」を通して私たちはどういう情報が得られれば納得できるか・最終的に目指すものがなんなのか、というもやもやがずっとあり、それをもう少し解消したい気持ちがあります(個人的な気持ちです)。

 科学哲学と呼ばれる分野では、科学者がその研究の過程で作り出すモデルに着目した議論があります。モデルにはどういう種類があり、存在論的・認識論的な立ち位置は何であり、どのような役割を果たしているのか、といったことを考えるみたいです(概説は Models in Science (Stanford Encyclopedia of Philosophy) がよいと思います)。ここでとくに Weisberg (2013) Simluation and Similarity: Using Models to Understand the World松王訳 (2018) 『科学とモデル』*9を参考にしながら、この分野で論じられていることを下敷きにして自然言語処理・計算言語学におけるモデリングについて考えてみます。あまり関係しなさそうな内容は省きますので、気になる人は本を参照してください。

 非常にざっくりまとめます(この段落は飛ばしてもよいです)。まずモデルには具象的なもの (concrete) 、数理的なもの (mathematical) 、計算論的なもの (computational) の3種類があります*10。それぞれのモデルは構造 (structure) と解釈 (construal) からなり、モデルの分類によって異なる構造が与えられます(数理的なものと計算論的なものの決定的な違いは無いようですが、手続き的な処理が中心となるモデルを計算論的なものとして別のくくりにしているみたいです)。モデルの解釈は割り当て(assignment; 構造の部分が現象の何と対応するか)、意図された範囲(intended scope; 対象となる現象のどの範囲を表現するか)、忠実度基準(fidelity criteria; モデルが現象とどれだけ類似しているか)という 3 つの部分からなります。忠実度基準には動的なもの(dynamical; モデルの出力が現象にどれだけ類似しているか)と表現的なもの (representational; モデルの構造が現象の因果的構造とどれだけ類似しているか) があります。またモデルは作成者によって現実から何らかの形で現象を理想化 (idealization) しており、対象となる現象は(単純化や要素の捨象を経て)歪められた形でモデルに表現されることになります。この理想化を経ているため、モデルが信頼できる予測に資することを評価するためには頑健性の分析 (robustness analysis) を行う必要があります。分析の対象としてはパラメータ・構造・表現が考えられ、モデルを記述するパラメータの変化、モデルの構造の変化(たとえ変数の追加や手続きの変更)、モデルがある特性を表現する方法の変化などを通して「モデルの部分が意図した現象の再現に結びついているか」を検証します*11。これは「科学者はこうやっているだろう」(あるいは「こうするのがよいだろう」)という科学的営為に対する Weisberg の解釈です(たぶん)。

 さて、ふだん自然言語処理・計算言語学で作っているものはおそらく計算論的なモデルです。計算論的なモデルはデータとしての入力を何らかのアルゴリズム的な手続きによって変形して出力します。構造と解釈の区別ができるという観点に立てば、モデルの作り方には 2 つのやり方があると言えるかもしれません。ひとつは構造の部分に対して解釈を与えながらモデルの全体を作成し、それを振る舞わせる方法(解釈優先)。もうひとつはモデルの全体的な構造を先に与えてからそれを振る舞わせ、あとから構造の部分に対して解釈(個々の振る舞いへの割り当て)を与える方法(構造優先)。ボトムアップトップダウンと呼んでもよいかもしれませんが(いずれにせよ相対的な呼び方ですが)、 前者の解釈優先な方法が特徴をあれこれして明示的に定義された手続きの総体としてタスクを実現する古き良き言語処理、後者の構造優先な方法が深層学習全盛で end-to-end に全体的な構造を与えてぐりっとタスクを実現するナウな言語処理とも言えるかもしれません。この解釈優先・構造優先のそれぞれの良し悪しについてもう少し考えてみます。

 解釈優先の方法では、対象としている現象(振る舞い)はこのように再現できるだろうという仮説を立て、それを何らかの手続きや数値計算に落としこむ(構造化する)ことでモデルを作ります。そのため手続きはある程度の粒度で意図的なものであり、その手続きをこう変更したら振る舞いはこう変わる、ということがある程度期待できます(ここが重要です)。一方でその手続きの意図を外れた事象には対応できず表現力は限定的になります。対して構造優先の方法、とくにニューラルネットのように表現力の高いモデルを用いる場合は、その全体の構造を与えることはさほど難しくないかもしれませんが、モデルの部分構造(あるいは表現そのもの)がどのような振る舞いに対応しているかを特定することがそこそこ困難です(もちろんたくさん研究がありますが)。これにより、タスクで要求されるような粗い粒度(あるいはデータセットの分布の範囲内)ではうまくモデルの振る舞いが予測できたとしても、自然言語が備えている合成性・創造性に基づいて多様に細かく入力が変化した際にどのように振る舞うかを予測するのは困難になります*12。ということで振る舞いの予測ができない・部分構造に解釈を与えられない、というのが「納得感の欠落」の要因かもしれません。

 少し繰り返しになりますが、理想化や頑健性の分析とも話をつなげてみましょう。自然言語処理によくある「タスクを定義してその枠内でモデルを評価する」という方法論においては、たとえば理想化は「入力として受け取れるのはテキストデータのみ」「理想的には無限に入力があってほしいがそれは無理なのでデータセットの範囲の入力で汎化を目指してもらう」「理解という振る舞いを含意関係の認識や文章の質問応答で評価する」などに相当し、本当はもっと違う理想的なやり方があるかもしれないものを現実的な制約から妥協したり部分問題に落としたりして定式化しています。そうした制約(理想化)のなかでそれでも理想的に振る舞うことを期待するためには、そのモデルの頑健性を調べることが必要になりそうです(統計や機械学習の文脈における頑健性よりもぼやっとした意味だと思います)。頑健性の分析は、モデルのパラメータや部分構造、表現形式に何らかの変化を与えたとき(=介入したとき)に期待する振る舞いの変化が得られるか(=因果関係が見いだせるか)どうかを評価するわけですが、ここで構造優先でモデルを組んでいると振る舞いの部分的な解釈をモデルに帰属させた形で分析を進めることができなくなります。このままでは、モデルを通して得られた説明を信頼することができず、理論的な強度を上げることが難しくなります*13。繰り返しになってしまいますが、これが自分の「わからんなあ」感の一因になっているように感じます*14

 では、以上の話をタスクとモデルのそれぞれの観点からまとめてみます。

  • タスク:言語理解なるものはそれを構成するより細かい振る舞いの単位に分割することができるかもしれません。そこで周期的に・規則的に発生する振る舞いについて予測したりその因果関係について説明したりすることが(学術的にも実用的にも)ひとつの意義のあることになりそうです。そのためには、振る舞いの総体だけでなくその細かい単位(これは自分が今まで「能力」と読んでいたものや、言語知識・世界知識まで含みます)まで検証できるようなタスクであることが求められるかもしれません。

  • モデル:まずどのようなアルゴリズム・(内部)表現がそのような細かな振る舞いの単位を実現するかについて仮説を立てるということをします。その仮説は、解釈優先の場合は対応する個々の手続きとして実現されるか、構造優先の場合には構造の部分に割り当てを与えることになります。そして特定された手続きや部分構造を変化させたときに意図した振る舞いが得られるか検証することでその割り当ての信頼度を高める、ということが行われるべきかもしれません。

 ということで、結局のところ「モデルの内部構造」と「タスク上の細かな振る舞い」がより密接に対応して評価されること(理想的な振る舞いの総体に対してたくさんの割り当てが得られること)が自分が納得するためのひとつの手段なのかな、と思いました。

おわりに

 最後にいくつか所感を述べたいと思います。ここまで書いて改めて実感したことは、当たり前のことなのかもしれませんが、どうにも自然言語処理・計算言語学の人たちだけでできることには限りがあり、他の分野の人たちと協力しなれば分野を進展させるのはかなり大変そうである、ということです。本記事の最初の節の議論を見ていても認識論の思考実験や議論に詳しい人が交通整理をすることは可能かもしれませんし、理解と呼んでいる振る舞いを適切に分割していくためにはもっと言語学的・認知心理学的知見に依拠して言語現象レベルの共通項を抜き出していく必要があるでしょう。モデリングの区別や解釈については認知科学で特にモデリングをしている人やもちろん科学哲学でそのあたりを重点的にやっている人が近くにいたりすれば自分たちの立ち位置や方向性をより明確にすることができるかもしれません。シミュレーション環境での視覚・言語・身体性を織り交ぜた研究をするのに人間の言語獲得(認知心理学発達心理学;もちろん生成文法認知言語学も)に詳しい人に話を聞くことは仮に完全に人間を模倣するわけでないとしても対照のために必要でしょう。といっても日々のけんきゅ〜という観点からは「目の前にある今できることを粛々とやれ」ということしか言えないのですが、だんだんともうちょっと広い視点のことも言わなければならない場面もあったりなかったりしたりしなかったりという感じになってきている気がしないわけでもないわけです(本当か?)*15。より端的には「あんたら何やってんの?」と聞かれたときにその人たちにわかってもらえる言葉でなるべく伝えたいわけで、そのための語彙を持たねばなあという感じです(ちょっと媚びたことを書きすぎな気がするのですが、あまりにも知らないことが多すぎて困ったなあと強く思っていることは事実です。素人がこんな感じでまとめを書いただけではどうしてもただのパッチワークのように感じてしまいます)。ちなみに、自分がこのように「対象の全体像をなるべく把握しておきたい」と感じるのは学部を卒業する頃に van Gelder (1998) The Roles of Philosophy in Cognitive Science を読んだことに由来しています*16

 最後に最近のことについて。いま自分はおもに次の 2 つのことに取り組んでいます。

  • 自然言語理解が関わりそうなタスクのデザインとデータセット構築。現状の強いシステムにまだできないような振る舞いを洗い出して、それを評価指標が整った品質の高いタスクとして提示します。このテーマは幸いにも JST さきがけ「信頼される AI 」領域 に採択されて取り組んでいます。2020年度は断続的にクラウドソーシングをするためのツールを書いたりしていて(タスク内容や作業者を管理するためにサーバを立てて MTurk API を叩きまくり ます)、現状ようやく「とりあえずタスク投げてみるか」のループが早く回せるようになってきています。このあたりの背景は 自分の過去の記事 などがもう少し詳しいです。
  • 機械による自然言語理解のモデリング(を人間)の(言語理解と接続する)ための理論的基盤づくり。生成文法認知言語学の理論面からの研究を把握したり、認知心理学で文章理解がどう取り扱われているかを追ったり(再現性の危機*17 が叫ばれるなか、計算論的なモデルを作る人たちにこちらから貢献できることがあったりしないのかなあと思ったりします)、哲学的な話が絡む議論を整理したり、あるいはここ一ヶ月くらいでかなりモデルやデータセットのもうちょっと数理的な取扱いについて手を動かす気が湧いてきています(Perez et al. (2021) とか。ミーハーすぎるな……)。これに連なって、自然言語理解の研究するうえで心理学の状況モデルの考え方や妥当性概念から学べることがあったりしそうだね〜と 議論する論文 は EACL 2021 に採択されました。査読では抽象的すぎてわからんって言われまくりました(Accept 出してくれた査読者が丁寧に誘導してくれて内容が充実しました、本当にありがたい。議論メインの内容を良い会議に通すのは英語が激下手なのもありかなり無謀な試みでしたが、よい経験になりました)。こういった探索を通じて、タスクデザイン・モデル構築に対してどういったアプローチがありえて、何が有望そうかということにあたりをつけるということをやりたい気がしています。どう見ても風呂敷を広げすぎですが、半年〜1年くらいでいったん収束させたいと思います。

上記それぞれについて、共同研究などご興味のある方はぜひご連絡ください。よろしくお願いします。

*1:Dennett が作った言葉で、哲学的な議論で読み手に要点を掴ませるための思考実験のこと

*2:真のスコットランド人が定義できない状況で「真のスコットランド人は……をしない」と反証不可能な意見を述べる詭弁・誤謬。Michael (2020) で初めて知りました。

*3:B & K が論文中で主張していたことでもあります

*4:Dietterich は(科学)哲学的な議論にも触れつつ書いています。彼のおすすめに従って、たとえば Chinese room argument の SEP の記事 を読んで議論の類型を知っておくのも悪くないかもしれません。

*5:書いていて気が付きましたが、自分は規範的な説明と抽象度の高い記述的な説明をあまりしっかり区別していなかった気がします。

*6:ある因果連鎖の始点と終点を直接結ぶ知識を(形式的情報のみから)獲得することによって中間項を短縮できる、というのがどこでもありえるというのがこの手の話の難しいところです。これは志向的表象の入れ子構造・埋め込みの話に近いよな、と思ったりします(戸田山 (2014) 参照)。

*7:理解という振る舞いをその主体の何に帰属させるかという話になりそうですが、これはもう哲学的ゾンビやスワンプマンの話と同じな気もしてしまいます(どういった議論があるのかあまり詳しくないですが)。

*8:Tayler (2012) Mental Corpus で知った

*9:よい本だと思います。計算論的なモデル(後述)については The Scientific Imagination (2019) というアンソロジーの Chapter 8 でも詳しく述べられています。

*10:松王訳は computational = 数値計算 だったのですが、個人的な嗜好でこう呼んでいます

*11:自分の解釈ですが、忠実度基準が単純な類似度の指標であるのに対して、頑健性の分析は割り当ての信頼度に関わるものなのかなと思いました。微妙にわかりきっていませんが。

*12:機械学習モデル的な意味での頑健性や、取り扱う分布にシフトがある際の振る舞いの保証の問題に近いかなと思います。もちろんモデルの部分構造(ないし表現)に解釈を与えなくても良く振る舞うようにできるかもしれませんし、その振る舞いを予測できるようになる道具立てはあるかもしれません(できればそれで納得したい)。あまり突っ込んで書いても仕方ないですが、結局はいろいろ上手くいってしまったものを後から解釈するということを繰り返していくのだと思います(人間に対してもそうでしょうし)。

*13:怪しい言明

*14:じゃあ具体的にどのような理論(と仰々しく表現するのがよくないんですよね、説明と言えばいいんです)が得られたら嬉しいのか、どれくらいの解像度があるとよいのか、について決定的なことは(本来的に)言えないのですが、このあたりはもうちょっと勉強して出直そうと思います。

*15:手近な研究ネタをやるのも人生大事なのですが、目を背けたくなるあれこれ(?)を進めるにはそういう言語化もたぶんたまに必要……。

*16:この論文を知ったのは 戸田山 (2002) がきっかけです。

*17:自分の関心に近いことをやっているところの Zwaan さんが書いているのを見つけたので貼りましたが、よいレビューだと思います。日本語の解説で勉強になったのは 日心若手シンポスライド とか(ちょっとズレますが)。機械学習分野だと Bouthillier et al. (NeurIPS 2019) が記憶に新しいでしょうか。

自然言語処理の研究に悩む 卒業編

前置き

 2020年3月に博士課程を修了しました。ちょうどよいタイミングなので、自分がここまでやってきたことと・これからやっていったほうがよさそうなことの簡単なまとめを書こうと思います。関心の核心は 自然言語処理の研究に悩む その3 - Reproc.pnz からあまり変わっておらず、恥ずかしながら特に新しい内容を書いているわけではありません。どちらかと言うと年に一度くらいこういう考え直しを繰り返して自分の立ち位置を振り返る、という感覚かもしれません。

理解を説明するということ

 「言語を理解している」という状態について形式的な定義を与えることは簡単ではありません。それを観測する人によって「これはわかっているでしょ」「これはわかっているとは言えないでしょ」と解釈が異なることがありえます。したがって、社会的に必要な場合は何らかのタスクを用意してある一定の基準をクリアしているときに「わかっている」と言ったりするかもしれません。たとえば国語の試験や失語症の検査などでは「これがクリアできたらわかっていると言うことにしよう」と決めて利用しているように思えます。より即時的な会話では会話の内容が伝わって必要な行動を起こしてもらえたら・対話が破綻せずに続いたら「わかっている」と言うかもしれません。状況に応じた理解の度合いがあり、かなり抽象的には「その記号のやりとりを成立させることが共同体の存続に寄与する」ときに「理解している」と言う、という考え方もあります。蛇足ですが、この考え方の延長では「機械が言語を理解している」はあるタスクの上で人間の意図した振る舞いをして人間の生活が便利になってくれるような状態を指すかもしれません(人間目線では)。 SF 風に機械目線で言うなら、機械同士でやりとりする自然言語に限らない記号列で彼らの集団の存続がうまくいくのであればそれが「言語を理解している」ことだと言えそうです(そのような記号の体系が言語の定義と言えるかもしれません)。それはそれ。

 自然言語処理あるいは広く人工知能分野のひとつの目標は「言語を理解するシステムを作る」ことだと思われます(最近は断定するのも憚られる気持ちになっています)。機械の「わかっている」を測る手段のひとつに読解問題を解かせるタスクがあり、クラウドソーシングで集めた大規模なデータセット上で昨今の機械学習モデルを訓練・評価するということが行われています。ここで研究上の課題になるのは、あるデータセットで良い成績を示したシステムが具体的にどのような点で優れているのかを説明することです。そのような説明は、新規な状況でそのシステムがどのように振る舞うかを予測する材料になります。そのためには読解の仕方や対象について一般性をもつ単位を説明のために探す必要があります。たとえば「このトピックの話だったらちゃんと読める」「常識的な推論が必要な問題に答えることができる」などです。このような特徴付けは学術的な理論化においても実応用の性能保証においても重要になります(「解けるなら別に説明がなくてもよいという考え方もあるのでは?」のようなことを博士論文の審査で質問されましたが、特に中身がわからず動くものに対して何らの説明も与えないのは研究者・開発者の倫理としてマズいのではないか、という返答をした記憶があります。わからん)。最近のデータセットは大規模(10K-100K くらいのオーダーです)ですが、すべての問題が限定的なトピックだったり特定の処理に偏っていたり簡単だったりしたらそれ以外の問題については何も言えないわけです。言語理解についての説明が欠落していることによる「なにもわからん」感が自分の研究的な関心の中心にあります。

これまでの取り組み

 言語を処理する過程では様々なことが行われます。それを基礎的なタスクとして切り出したのが自然言語処理における構文解析や文関係の認識、知識推論などだと言えます(たぶん)。そうした基礎的処理が読解問題を解く過程で具体的にどのように必要になっているかを確認していって評価の結果(説明)の単位にすればよさそう、というのが(修士2年の頃の)最初の取り組みでした。理解の過程をなるべく分解して分類するというイメージです。ひとつの問題にラベルを貼っていくような雰囲気で人手で見ていきましたが、いまいち納得感が得られませんでした。その後、実際に人間が解く際に使う情報が必ずしも機械が解く際に使う情報と一致していないのではという話が出てきます。人間が意図したとおりに解いてくれなければ、良い成績が出せた場合でもそのシステムの性能について何も言えなくなってしまいます。それを防ぐためには「意図した解き方でしか解けない」となるべく言えるような問題を作る必要があるわけですが、あまりその方法は自明ではありません。そこで博士課程ではデータセットの分析手法に取り組んで、既存の問題について人間では解けなくなってしまいかねない変形を加えて(問題文を 5W1H だけにするとか、課題文の語順をシャッフルするとか)、システムがそれでも解けてしまうのは「意図した解き方でしか解けない」とは言えないよね、という指摘をするような話をしました。実際にデータセットを作るところまでは間に合わなかったので、これから取り組もうとしているところです(この1年は実際に手を動かすような仕事がほとんどできませんでした。情けないです)。

就職活動と博士論文

 せっかくなので書きます。就職活動。海外のポジションにチャレンジしてみようかなと考えてはいたのですが、まず国内のポジションに内定をもらってからだなと思い、アルバイトに行っていた研究所に研究員として入れないか交渉しました(2019年(D3)の5月中旬くらい)。しかしなかなか雲行きが怪しいらしく、すぐに内定をもらうのは無理っぽいという話をされました(油断していた)。このままだとアカデミックなポジションで最終的にどこにも通らない可能性がありえるので(公募の時期も一般的に遅いので)、先に企業の研究職を受けようということで人づてにウェブ系?の国内企業の選考を1社受けました。6月上旬くらいから話をして3回くらい面接をして8月上旬に内定をもらいました(でもテーマ的に大学でがんばったほうが良いのではと心配していただきました)。他の企業も考えましたが、どうにも難しそうだったので結局受けませんでした。アカデミックなポジションについては、条件としては現職の研究所が国内ではもっとも良いように見えたのですが、それゆえ非常に選考が厳しいらしく期待していませんでした。6月下旬に応募締切で8月上旬に面接があり、最終的に内定が確定したのは11月の頭くらいでした。その他は大学の助教や別の研究所の研究員なども公募を教えていただきましたが、結局応募はしない形で終わりました(様々な方に親身に相談に乗っていただきました。ありがとうございました)。それでも国内だけで燻ぶったりせずにがんばろうということで、その後アメリカの研究者と夏に共同研究やろうという話も立ってビザの申請を始めていたところだったのですが、この情勢で渡航中止になってしまいました。しょうがないけど残念。

 博士論文。イントロを書き、関連研究パートは2017年後半に書いて失敗したサーベイ論文を再利用、修論で微妙にまとまりきらなかった1本と博士課程中の2本の論文がメインで、最後に議論パート( position paper としてまとめて ACL2020 に投稿しましたが rejected でした。どうしようかな)を書いて足しました。気持ちとしてはロングペーパー5本分くらい(そのうちちゃんとどこかに採択されているのは3本分)で構成されている感じです。基本的に同じテーマを執拗に続けていたので、一貫した起承転結にまとめるのはそこまで大変ではなかった気がします。いやどうなんだろう、意味もなく苦しかった気はする。少なくともエピグラフを考える心の余裕はありませんでした。論文の提出は12月頭で、そこからいろいろ発表したり審査のスライドを作ったりして、12月末〜1月上旬に審査の先生に個別に説明に行き、1月中旬に本審査という感じでした。 論文スライドです。本審査が終わってすぐに PS4 を買い、国際会議に発表に行った以外は3月中旬くらいまで基本的にずっと家でゲームをしていました(気付いたら世界が滅んでいた)。

ちゃんと説明するために

 博士論文の議論パートでは、読解とは何であるか・それをどのように測るべきか(測定の妥当性をどう確保するか)、について勉強したことをまとめました。「何であるか」については心理学における text comprehension 、とくに situation model の話。「どう測るか」は心理測定学における validity の話を勉強しました。話題そのものはふわっとしており、自然言語処理の文脈で実証的に研究を進めることに直接の示唆を与えるものではないのですが(だから査読で不評だったようで……)、なるほどこういうことを考えるよねという勉強になりました。たとえば後者について、 Messick (1989) の construct validity の議論では妥当性を構成する側面を6種類挙げて論じています(それぞれが読解のタスクの何に相当するかなどを書きました)。そういえば、さいきん因果推論(効果検証)の話を少しだけ読んでみて思ったのですが、 randomized controlled trial は機械学習モデルへの介入の検証には使えるんですよね(特に推論時の入力の特徴の部分集合の寄与)。同じ気持ちで学習データの影響について解釈を試みる話はここ数年で出てきていると思いますが、どれくらい推定がうまくいくのかちょっとよくわかっていません([1703.04730] Understanding Black-box Predictions via Influence Functions とか)。また instance レベルで入力の部分集合の重要度を推定する話もありますが([1802.07814] Learning to Explain: An Information-Theoretic Perspective on Model Interpretation とか)、言語理解のタスクの文脈でどれほど使える話なのかもまだ考えきれていません。

 いずれにせよこの「自然言語理解における説明」については、自然言語処理的には(人間相手に取り組むよりも)もうすこし形式的な話ができるはずだと思っています。今まで自分は「何であるか」について能力を単位とする分類で見通しを良くすることを提案していました。この能力の定義は厳密でなく気持ちが強いので、入出力の情報の型や最低限必要な処理で形式的な分類を与えたい気がします。ただ内部的にどのような処理を行うかについては立ち入らないようにしたいのと、形式的な表現が難しい処理も存在するように思われるので、言うは易しで一筋縄ではいきません。「どう測るか」については、そもそも入力の情報のどの部分が真に正答を導くかについて特定しなければ「何であるか」を確定させることができません。しかしその特定は簡単ではなく、理想的には入力情報の部分集合のすべての介入を検証しなければならないかもしれません。しかも正答から誤答へのある種の counterfactual も考える必要がありそうなので、単純なクラウドソーシングのデザインではうまくいかないように思えます。対して、昨年の記事(再掲)でも触れたのですが、問題形式を工夫することで理解をなるべく細かく説明できるようにする手段もありえます。アイディアとしてはそっちのほうがストレートなので、今後はそのような方針のデータセットが増えると思われます。そうした精緻化を経て初めてシステムができることについてある程度の説明を与えることができ、振る舞いの検証や未知のデータに対する予測が可能になりそう、という感じです(タスク的な観点からのデータセット間の距離を測れたらよさそう、というのはずっと考えています)。しかしよくよく考えてみると未知のデータについて形式的な分析ができるならその時点で「解ける」気もするので、未知のデータについて〜のくだりは転倒している気がしなくもないです。「解けない」問いについて「解けない理由」が説明できるならほぼ答えがわかっているようなものな気がしますが、「何がわかれば解けるか」という意味での知識の補完をやる話は知識ベース的な semantic parsing / question rewriting みたいな文脈では存在するはずなので、 unstructured text から問いに答える流れと合流していって進展があるかもしれないです。その他もうちょっと真面目な議論と関連研究に興味のある方は議論の論文(再掲)を眺めていただければ嬉しいです。

気持ち

 自分は自然言語理解について理論と呼べるものがちゃんと立ってほしいと思っています。それは何かなるべく意義のあるものが残ってほしいという高慢な願いなわけですが、しかし何についての理論が立ち得るのかいまいち判然としません。そもそも自分がこれまで取り組んできたのは「言語理解とは具体的に何であるか」というよりも「複雑で多様な過程を含む振る舞いの評価をどのように行うか」である気がしてなりません。言語理解と呼んでいるものの内実に踏み込めていない・どのような踏み込み方をするのが自分の納得につながるのかわからない、というのが現状の自分の(おそらく致命的な)課題です。「具体的に何であるか」の説明はひとまず人間の認知的な機構に対応付けたほうがよいと思っていますが、どのレイヤーの何にどう対応付けるのが良さそうかもわかりません。少なくとも感じているのは、(これも博士論文の審査で答えて印象に残っていることなのですが、)その理論が何らかの公理から数理的な体系を積み上げるようなものになりえない以上(言い回しは適切ではない)、それらしい概念を組み合わせて共同体の構成員の合意のもとで練り上げる形になりそうだということです。強迫的かもしれませんが、それを目指さなければ「わかっていることの総量」という観点から自分に何が残せるのだろうかと感じます。

最後に

 このような記事を書くのはこれで最後にしようかなと思っていますが、引き続き自分がやったことの発信を論文だけではない何らかの形でしていくつもりでいます。粛々とやっていきますが、任期もありますし、生き残れるかすごく不安です(このご時世ですし)。共同研究などのお誘いもお気軽にお願いします。

自然言語処理の研究に悩む その3

前置き

 最近やっていたことが一段落したので、博論に向けて考えをまとめたいと思います。ここ半年で取り組んでいた論文は投稿中・準備中という感じで今年はまだ結果が出ていないのですが、テーマ的にだんだん思想バトル感が出てきており、あまりすんなり論文が通る・業績が増えるような雰囲気ではなくなっています(言い訳です)。もう少し目線を下げたほうがよいかもしれないです。

あらすじ

 ここに至るまでの細かい話は前回や前々回の記事をご覧いただければと思うのですが、以下に簡単にまとめます。おそらく本質的には大きな変化があるわけではないので読み飛ばしていただいてもたぶん大丈夫です。

 自然言語処理におけるひとつの目標として「言語を理解するシステムを作る」ことが挙げられると自分は考えています。そうしたシステムの振る舞いをテキスト上で評価するタスクのひとつに「機械読解(machine reading comprehension)」があります。2019年の言語処理学会の年次大会でチュートリアルがあったりもして、国内での知名度もだんだん上がっているのかなと思います。このタスクは国語の文章題のような形式をしており、文脈文について問いに(選択肢か抜き出しで)答えてもらうことで言語理解を評価するものです。たとえば2016年に発表された SQuAD というデータセットは、Wikipedia のパラグラフをもとにクラウドソーシングで問題を作成し、 10 万問の規模で機械学習的なシステムを訓練し解かせます。いろんな大学・企業の人たちがこぞってシステムを提案して、ついに2018年(だったかな?)には人間の精度をシステムが超えました。しかしその一方で「それってちゃんと言語がわかったことになっているの?」と疑問を呈する研究が同時期に出てくるようになりました。「入力をこう変えても解けてほしいよね」という状況を作るとシステムが途端に解けなくなってしまったり、「入力をこう変えたら解けなくなってほしいよね」という状況でもシステムがうまく解けてしまったりなど、「思ったよりもちゃんと理解しているわけではないのでは?」と言えてしまいそうな状況が指摘されています。既存の多くのデータセットで要求される言語理解は人間らしい理想的な意味での理解と比べるとおそらく簡単だと言いたくなるのですが、それがどう簡単なのか定量化する手段はまだ確立していませんし、「人間らしい・難しい言語理解」を評価するためのデータセットを作ったりシステムとして実現したりするためにどうすればよいのかは自明ではありません。

 本記事ではタスク設計やデータセットについて考えをまとめてみることにします(ちなみに「データセット」は「タスク」のインスタンスの意味で書いています)。システムよりもタスクに注目する理由は、現状の言語理解まわりのタスクでは「そのデータセットでよい性能が出せることで何ができるようになったのか」を説明することがあまり強く意識されていないように思われるからです(個人の意見です)。仮説を立てて(=システムを作って)検証する(データセットで評価する)という構図で見たとき、本来やられるべきなのは「X というシステムで Y という振る舞い・能力を実現させたい。 Z というデータセットを使うことで Y を適切に評価できる。というわけで X を Z で評価する」ということです。しかしここで Y についてあまり何も考えないと、最後の「X を Z で評価しました!」しか主張されないことになります。いま私たちは(少なくとも私は)あと付けの解釈として「ここにおける Y は何だったのか」を考えていることになります。もちろん一度できれいに Y が析出されるわけではないので、「X を Z で評価する」と「Y は何だったのか」を交互にやらざるを得ないでしょう。今回はその後者の話です。

 ちなみにこのあたりの「評価」の一般論として『測りすぎ』(原題: The Tyranny of Metrics のセンスが好み)という最近出た本が読み物としておすすめです( https://www.amazon.co.jp/dp/4622087936 )。

タスクを作る目的とその評価

 まずタスクの目的についてどのような区別がありうるか述べます。基本的には、既存の多くのデータセットは上で述べたように「言語理解を実現・評価すること」を目的としたタスクのインスタンスとして提案されることが多いように見えます。ただ現実には「出来上がったものをこういうアプリケーションで使いたい」という明示的な目的もかなりありえます。その目的における振る舞いを網羅できるようなデータセットを作り、そのデータセット上でよい性能が出るのであれば、前者のような理想的な意味での言語理解とは関係なく目的が達成されたと言えることになります。たとえばもし SQuAD の目的が「Wikipedia のパラグラフについて(インターネット上で)人間に出してもらった問いに答えてもらうシステムを作る」だったのであれば、 すでに人間並みの精度が出てしまっているので目的達成ということになります(論文を読む限りたぶん実際はそういう目的ではないわけですが……)。一方で Chen+ (2017) https://arxiv.org/abs/1704.00051 のように文脈文を( Wikipedia 上の特定のパラグラフではなくすべてのパラグラフという)オープンドメインなタスクにするとわりかし現実味があるアプリケーションになりそうです。この場合も同様に、実際に使いたい状況を模して集めたデータセットで良い性能が出てくれれば目的の達成に近づいていると言えることになります。ただしこの例だと、単なるシステムの出力と与えられた答えとの一致よりはユーザーが満足できる情報に到達できたかを評価基準にすべきように感じるので(答えの与え方が一通りではないかもしれないし、需要にも依存する)、情報抽出における評価の問題と同様の議論が必要になりそうです(詳しくないのでここでは言及できません)。つまるところそういった現実のアプリケーションが想像でき、そのアプリケーションが「言語理解をしているような振る舞いを部分的に要求する」だけなのであれば、とくに「正確に理解した」と言えるようなシステムでなくても構わないわけです(ここでは「正確な理解」を定義していないので話としてちょっとぼやけていますが……)。

 もちろんこれは一例で、他にも様々にアプリケーションを考えることができると思います(たとえば対話システムや機械翻訳でも根本的なところはおそらく同じであると考えています)。より多様なユーザー・入力がありえるとき、運用上システムをどう評価して性能保証をするかということは容易に起こりうる課題だと感じます。これは社会へのコミットメントが大きければ大きくなるほど重要性が上がるものだと思っています。そのときにただデータを闇雲に集めるだけでは「汎用的な評価ができます!」と保証することはできないでしょうし、システムのエラーやデータの不備を説明することは難しいままだと思われます(これは研究者・開発者にとっての説明(再現性・解釈性の向上)であり、ユーザーに対しての説明(コミュニケーション?)とは目的が異なるのではないかなと考えています。要検討ですが……)。

 したがって、理想的な言語理解を評価するための適切なタスクにおいて何らかの形での説明性が重要になるのと同様に、アプリケーション的な利用を考えるにあたっても説明性の問題は避けられない気がしています。ということで、目的が言語理解の学術的な研究であっても社会的な応用であっても、言語理解についてある程度細分化された説明の単位が必要っぽい、という話になります。(ここで「説明」とは、言語理解っぽいものについて情報を増やした・反証可能性の上がった記述を作ることの意味で使っています。)読み直してちょっと天下り的かなぁという気がするのですが、そんなに変な話ではないと信じたいです。

複雑な振る舞いを説明するための単位

 中身がわかりづらいものについて説明を与える、というのは機械学習分野でも最近よく耳にする話題です。その中の解釈性の文脈( https://arxiv.org/abs/1702.08608 )では cognitive chunks という概念が提示されており、モデルの振る舞いを説明するための認知的な単位の重要性が議論されています。では読解に対してはその説明の単位として何を使うのがよいでしょうか。自然言語処理の言語理解系のタスクとしては含意関係認識(今は natural language inference (NLI)と呼ばれることのほうが多いです)のほうがもう少し歴史が長く、言語現象を分類してデータセット・モデルを分析している研究がいくつかあります( https://aclweb.org/anthology/papers/P/P10/P10-1122/ とか)。同じような仕方で機械読解のデータセットについても分析できるはず、という感覚で取り組んでいたのが私自身の2017年頃の論文( https://aaai.org/ocs/index.php/AAAI/AAAI17/paper/view/14614/14802https://www.aclweb.org/anthology/P/P17/P17-1075 )で、読解に必要になるような能力を定義して分析の単位にするということをしていました。ここでの能力は処理としてなるべく想像しやすく合意が得られるものが良いと考えていたので、自然言語処理の既存の基礎的なタスク(たとえば照応解析、談話関係認識)に対応させる形で提示しました。ただしこれらの個々のタスク自体はさらに人間の文章理解の部分的な振る舞いと対応付けができるはずという気持ちはあり、しかし結局のところ人間の振る舞いについてもここまでの議論と同質の話を踏んでいくことになる気がしています(最終的には認知科学における Marr’s tri-level analysis みたいな感覚が必要になるのかな、と思います(正確な引用先を知らず単に教訓として書いています)。どのレベルの分析が実践的に良いのかを考えることはできると思いますが、いずれにせよ研究としてはすべてを考える必要がありそうです)。そうして「この問いを解くことでこの能力やこの能力が評価できる」と言えるように(読解の、あるいは言語理解一般の)タスクを設計することで、評価対象のシステムについて能力の単位で良し悪しが言えるようになるわけです。このあたりの話は cognitive diagnostic model や Q-matrix の利用とモチベーションが近いと思います。不勉強ですが……。

 だた話はそんなに単純ではなく、ひとつ大きな課題がありました。ある読解の問いについて「この問いはこの能力で解ける」と人間が思ってアノテーションしたとしても、必ずしもシステムが同じように解いているとは限らず、システムにとって見つけやすいような別解が存在する可能性がそこそこありそう、という点です。これはあらすじの段落の「思ったよりもちゃんとわかっているわけではないのでは?」のくだりに対応します。 Jia and Liang (2017) https://arxiv.org/abs/1707.07328 や自分の2018年の論文 http://aclweb.org/anthology/D18-1453 がその話でした。 NLI 系のタスクについても同様の分析があります(後述)。最近だと HotpotQA https://hotpotqa.github.io/ について「そんなに multi-hop reasoning 必要じゃなくない?」と言ってる分析の論文がありました( https://arxiv.org/abs/1904.12106 / https://arxiv.org/abs/1906.02900 )。つまるところ、評価したい能力を使わなくても良い成績が取れてしまうのなら評価としては意味をなさないわけです。ではそうした「意図しない解法」を避け、「意図した解法」を導くには、どうすればよいのでしょうか。

どうやって「意図した振る舞い」を導くのか

 タスクの形式とデータの質というふたつの側面から考えられそうです。まずタスクの形式について。意図しない解法の存在を許してしまう理由として、タスクの形式が「答え」のみを出力させることをシステムに要求していることが挙げられるかもしれません。つまり、出力として答えだけでなく推論の過程まで求めることにして、その両方が意図した通りであれば正解、とするタスク形式を定義することが考えられます。たとえば上で言及した HotpotQA については、正答に至るための根拠となる文を出力させるというサブタスクがあります。もちろん根拠となる文だけだと推論過程の妥当性を評価するには弱いかもしれないので(正答の導出と文選択がどの程度結びついているかわからない)、文よりも細かい情報を出力させる形式のほうがより正確な評価になると思います。

 ただしこのアプローチには今思いつく限りでふたつの課題があります。ひとつは推論過程そのものを評価する方法が自明ではないこと。その推論過程をどのような表現で与えて評価するか・どの程度の粒度で記述するかという形式と内容のそれぞれを決める必要があります(逆にここをうまくできれば良い話になりそう)(でも形式を絞ってしまうとモデルの汎用性がなくなりそう)。もうひとつはデータを集めるコストが大きくなること。これは想像に難くないですが、しかし評価タスクとして質の高いものを作るならそれくらい手間をかけるべきなのかもしれません(ただし形式の特殊さから訓練データを作ることまで考えるともう少し大変かもしれないです)。メリットとしてはやはり目で見てわかる根拠が出てくるように誘導できるのが大きいと思います。

 一方のデータの質の話です。解き方を明示させることで制約を作るような形式の工夫に対して、問いそのものがなるべく別解を許さない・意図した通りの解法のみを許すようにデータセットを構築するというわりと愚直な方針がありえます。簡単な heuristics の使用やバイアスを探知で解けるものを簡単なモデルを使ってフィルタしつつ、意図した能力がないと解けない・能力を使ったときにのみ解けるような問いを作ることになります。そのためには、ちょっと飛躍があるのですが、 (1) 「意図した能力に対応する言語現象が欠落している状況」では人間にもシステムにもその問いは解けない (2) 「意図した能力に対応する言語現象が欠落していない状況」で人間に解け、システムに解けない(解けてもよいが、解けない問いを集めたい)というふたつの要件が満たされなければならない気がしています。ここで「能力に対応する言語現象」とはその能力を特徴づける表現や関係のことを指しています。たとえば代名詞の照応先がわからないと解けないよ!という問いについて「対応する言語現象が欠落している状況」は「その代名詞が隠されている or ダミーの照応先が代入されている」を意味します。多段階の推論ができないと解けないよ!という問いなら「中間の結果に到達できないように情報を隠してしまう」などがありえます。こういった工夫をすることで「意図した能力が必要になる」ことを保証して質を高めていく、という方針です。

 もちろんそんなに簡単にいく話ではなく、たとえばその「対応する言語現象」がうまく決められないこともありえる気がします。知識推論・常識推論で「能力に対応する言語現象」は何でしょうか。ある特定のクラスの表現に限定できない語彙依存な推論に対して、その情報を欠落させることはできるでしょうか。もう少し考えないといけませんが、すべてがわかりやすく落ちる気はあまりしません。「必要な情報を落とす」過程で逆に新しいバイアスを作ってしまう可能性もあります。また形式の話と同様に (1) (2) を満たすように問いを作るにはそれなりに大変なコストがかかりそうです(これも説明性のためには仕方ないのかなという気はするのですが)。なお愚直に「強いモデルで解けない問いだけを集める」という方針もありえるのですが(たとえば https://arxiv.org/abs/1905.07830 )、こうして出来上がったものに対する特徴付けがモデル依存でよくわからないままになってしまう気がしており、もうちょっと説明性の高さを期待したい気がします(でも論文冒頭の例は非ネイティブにはだんだんつらそうな難易度になっており説得力が微妙にある)。

 ここで触れたふたつの方針は、どちらかだけを選ばなければならないというわけではなく、両立する話です。もちろん利用可能な言語資源や予算に応じて決めていくことになるでしょう。いずれにせよきっちりやるのはそんなに簡単ではなさそうだなというのが感想です。

評価だけを行うデータセットであるということについて

 最近の NLI 界隈では、かなり統制された評価用のデータセットがいくつか提案されています(たとえば https://arxiv.org/abs/1904.11544 / https://arxiv.org/abs/1902.01007 / https://arxiv.org/abs/1806.00692 )。これらは「みんな使っているデータセットで訓練したモデルは実はこんな簡単な例でも解けなかったりするんだよ」と検証する目的で使用され、この評価用のデータセットそれ自体は何らかのバイアスが含まれていても構わない(新たにそこから学習するわけではないので)というスタンスです(たぶん)。こうした評価用データセットで良い性能が出ない解釈としては次が考えられます。まず「評価用データセットで意図されている能力を訓練元のデータセットが問えていない(異なる分布のデータである)ないし特定の heuristics に偏っている」こと。さらにその評価用データで訓練しても解けるようにならない場合は「評価用データそのものが難しく、モデルの性能が足りない」と言えることになります(これを指摘しているのは https://arxiv.org/abs/1904.02668 という論文です(それはそう感は強いのですが))。

 自分が気になっているのは、こうした評価用のデータセットの扱いを結局どう考えるべきなのかという点です。こうしたデータセットは直感的で簡単なテンプレートで作られたものが多く、バイアスが大きいため訓練データとして使うことはあまり望ましくないように思います。となるとこれらを評価時に解けるようにするためには、また新しいデータセットを作る際に工夫するか、既存のデータセットのままでも inductive bias のようなもの(使い方合ってるでしょうか……)をうまくモデルに入れるか、というふたつの手段がありそうです。と言っても後者のようにモデルにがりがり制約を入れていくのはあまり現実的ではないでしょうから、やはりデータセット側の工夫、つまりなるべく自然な分布のままバイアスが強くない形でさまざまな能力が問えるようにすること、が重要になるように思われます。

 ついでに言うと、よく言われる「データの分布」という概念も正直よくわかっていません。機械学習的に言えばデータセットの理想的な分布があって個々のインスタンスがそこから出てくる確率分布という感覚なのだと思うのですが、これについてもう少しコーパス・タスク的な観点から特徴付けをしたいなぁと思い続けています(でないと reproducibility of findings ( http://proceedings.mlr.press/v97/bouthillier19a.html )が確保できない……?)。もう少しデータセット間・タスク間の「距離」みたいなものについてどういう手段がありうるのか知りたいところです。自然言語処理というコーパス・データセットを基軸とせざるをえない分野においてはこの点はなかなかクリティカルではないでしょうか。

 蛇足ですが、 NLI ではなく読解というタスクにしている意義は「読解で要求される能力」を対象とする点にあると言えると思います。それを言語理解一般の評価用タスクとして据えるのであれば、 NLI についてこの節の冒頭で引用したような論文で指摘されているような言語知識や文単位の理解を読解にも含める必要がでてくるかもしれません。統合することを考えないなら、両者が別のタスクとしてどのように棲み分けるべきかをきっちり線引きしていくことが望ましいように感じます。

言語理解(読解)をテキスト上でちゃんと評価するためにデータセットが備えるべき要件

 Levesque (2013) https://www.cs.toronto.edu/~hector/Papers/ijcai-13-paper.pdf の議論では、「Google proof であること」「単純なパターンマッチでは解けないこと」「問いや答えにバイアスが含まれないこと」のみっつが言語理解評価のための要件として挙げられていました。これに沿ってここまでの議論を要件の形で整理したいと思います。

 まず「Google-proof であること」は「外部知識を使えば文脈文を見なくても答えられるような問いが存在しないこと」です。これが満たされないと文脈文を使って答えてもらうことで評価するというタスクの趣旨が損なわれてしまうので仕方なさそうです。あまりすっきりした単語が見つからないので文脈依存性と呼ぶことにします(紛らわしいかしら)。2点目の「パターンマッチで解けないこと」は、説明の単位として能力云々を言っていたのでそう読み替えて「人間の読解で必要になるような能力で解けること」とします。最後の「問いや答えにバイアスが含まれないこと」は直前の要件を受けて「人間の読解で必要になるような能力を適切に要求すること」と言うことにします(あまり意図しない解かれ方を許したくない、というくだりです)。ということで次の3点が大事そうだなというまとめです。

  1. 文脈依存性があること  究極的には、文脈文が創作であったり匿名化されていたりすることで世界知識が使えない状況であるほうがよいかもしれません。たぶん心理学では言語理解に関わる実験でこのあたりをきっちりさせているものがあった気がします。

  2. 能力を説明の単位とすること  個々の能力は自然言語処理の基礎的なタスクに対応させるのが基本的な思想ですが、あまり単純ではないのでちょっとどうなのかわかりません。

  3. 意図された能力を適切に要求すること  推論過程まで出力することを要求する形式にするか、能力に対応する言語現象を同定してそれが正答に必ず寄与するような問いであるように保証するか、などが手段として考えられます。

結局なにが難しいのか

 気持ちとしてはやっぱり「うまくタスク・データセットを作るのが難しい」という気がしています。最近はデータセットが多すぎてよくわからなくなっていますが、今まで書いてきたことを踏まえて「これだ!」と思えるものはまだ出ていない印象です(ハードルが高すぎる?)(じゃあやってみろという話ではあるんですが、だいたいどのデータセットについても早々に性能がサチってしまいそうな気がする)。単独のデータセットについて「モデルを変えたら・データを増やしたら精度が上がりました!」という結果を見たとしても、得られる知見は弱いままという問題もあります。機械学習モデルを考えるならやはり汎化性能として transfer learning とか domain adaptation とか考えることになるのだと思いますが、やっぱりデータセット側に説明可能な特徴付けが入らないと知見として腑に落ちない気がどうしてもしてしまう感じです(あまり関係ないですがEMNLP-IJCNLP2019 のワークショップは楽しみですね https://mrqa.github.io/ shared task がデータセットたくさんの話なので、気になる人は覗いてみてください)。

持続的な研究活動にするために

 自分は卒業したらどこに行くのかまだ決まっていないのでこんなことを書いても仕方ないかもしれないのですが、上のようなことを研究者として持続的にやっていくには何を考える必要があるでしょうか。時代的に完全に社会的に接点を持たずにやっていくのは難しいですし、そうするつもりもあまりないので、私たちの研究はこういうことに使えるよとなにかしら言えたほうがおそらく良いでしょう。

 この記事で書いてきたのはおそらく言語理解を評価するための一種の方法論です(知性的な主体についてのより一般的な論としては The Measure of All Minds https://www.amazon.com/dp/1107153018 あたりが有名?)。それが完全なものからまだまだ程遠いとしても、そうした方法論を応用することで巷の自然言語をインターフェースとするシステムについて「今できること・できないこと」を分析する手段が提供できるかもしれません。ただシステムによって入出力の形式もドメインも目的も違うでしょうから、「このツールを使ってください!」と大々的に提示して使ってもらうのはなかなか難しいかもしれません。個人の生存戦略レベルで言えば、そうしたシステムを研究開発する人と関わりを持って何か力添えできないか考える立場を目指すことが考えられそうです(自分が必ずしもそうしたいというわけではなく、一例として)。研究に寄ったことをするなら、より一般性のある形で能力の定義をまじめに考える・その能力に応じてタスクを組み立てる・データセットの効率的な構築方法を考える・データセットの特徴付けについて知見を増やす、などやらなければならないことがたくさんあります(静的なテキストのみというのもある程度のところでやめたほうがよく、対話システムなりロボティクスなりとの動的な文脈での言語理解にも目を向けなければなりません)。ちょっとまとまりがなくなってきたので、とりあえずこのあたりで終わりにします。ありがとうございました。ご意見ご感想等なんでもどうぞという感じでよろしくお願いします。

自然言語処理の研究に悩む その2

前置き

あらすじ

 自分の研究的なトピックは「機械による読解 machine reading comprehension 」です。雑に言うと、言語理解のモデル化のひとつの手段として「国語の文章題が解けるようなシステムを作る」のがこのトピックの目標です。ここ2,3年でそれなりな流行を見せており、大規模(問いが数万個、の単位)なデータセットが数多く出てきて、それを解くようなニューラルなシステムがたくさん提案されています。中には人間の精度に匹敵する性能を出せたものもあります。

 しかしこのような進展を見ても、システムに人間と同等の文章読解力があるとは到底思えない感じがします。システムを評価する側のデータセットが簡単そうに見える、というのが大きな理由としてあります(そして難しそうに見えるものは案の定解けません)。大規模なデータセットを作ろうとするとどうしてもクラウドワーカー等に依頼することになり、いわゆるちゃんとした国語の試験問題のような難易度になってくれないことが往々にしてあります。ではどうやったら難しそうな問題が作れるのでしょう。そもそも難しい問題とは何が難しくて、簡単な(という印象を受ける)問題は何が簡単なのでしょう。わかりません。ということで悩んでいました。

この1年くらい何をしていたか

 前の記事が2017年11月でした。2017年の末から2月末くらいまでは、 ACL2018 に何か論文を書こうと思って作業していました。ひとつの方針として、「読解の問いの難易度」を「ベースラインのシステムの正答率」だとみなして、それを予測するというタスクを考えてみました。「この特徴を使ったらシステムが正当するかどうか当てられるよ」と言えるような特徴をうまく見つけられれば、それが(少なくともシステムにとっての)難易度を決定づけるような要素だと言えそうかなと思いました。しかし色々試してみてもさほど綺麗に予測できる感じでもなく、効くような特徴がさほど面白くもなく、という感じで、弱気に short paper を書いたものの上手くまとめきれず、綺麗に不採択でした。

 上記の論文の査読が返ってきた時点でこれはダメだと思ったので、切り口を変えて EMNLP2018 に向けて何か考え直そうという気持ちになりました。その頃ちょうど NAACL2018 の論文が出始めていて、 [1803.02324] Annotation Artifacts in Natural Language Inference Data という論文が印象に残っていました。内容としては、 SNLI / MultiNLI という最近あれこれ取り組まれている含意関係認識(のことだと認識しています。詳細は省きますが、 X と Y という2つの命題が与えられて、 X が真のときに Y が真になるか(entail)・何とも言えないか(neutral)・偽になるか(contradiction)を当てる、というタスクです。例は論文の図を参照してください)のデータセットで「 X を見ずに Y の情報だけ使っても正答できる」ような問いが結構たくさんあって全然ダメよね、と指摘するような話です。同様の指摘をする論文は同時期に複数出ています。

 じゃあ同じようなことを読解のデータセットでもやれば良さそう、ということで新たな方針がおおよそ固まり、あとはその「こんな簡単に解ける」的トリックの部分を(これで大丈夫なのかと心配になりながら)考えて、調査対象のデータセットは多ければ多いほど良いだろうとなるべく増やして、結果をまとめてアノテーションで裏付けも取って(ここは査読でツッコミ対象だったのですが、急いでいてそこまで丁寧な作業ではなかったので、継続する予定です)、書いて投稿して、インターンに行きました。5月末までの話です。

 インターンについては別途記事にするかどうか迷っていますが、ひとまずここに経緯だけまとめます。2018年6-9月でカナダのモントリオールMicrosoft Research に行きました。ここは2017年の頭に Maluuba というスタートアップが買収されてできた研究所で、主要なメンバーはその時代からの人たちです。当時からの会社的なテーマは(たぶん) literate machine を作るぞという感じで、そのための主要な話題のひとつとして機械による読解云々を据えています。でそこの偉い人が昨年の ACL2017 の自分の論文を会議直前に見てくれたらしく、連絡をもらって現地で挨拶して、まあ来なよと言っていただけたので行きました(人事の方の連絡がルーズで最終的に行けたのが翌年夏になったわけですが、時期的な感覚はよくわかりませんでした)。モントリオールでの生活は特に家を探す部分が大変でした。日本食もそこまで充実していないのでちょっと食事に困ることもありました。あと思ったよりも暑かった。ただオフィスの環境がかなり良かったのでなんとか生きていけました。取り組んだテーマは自分で決めて、まだ着地しておらず、たぶんあと数ヶ月はかかりますが、きちんと形にしたいと思っています。

 話を戻します。 EMNLP2018 に出した論文の査読結果は意外とそれなりに良く、気持ち的にはあっさりと通ってしまいました。ただこれ自体が進展かと言われるとそうではない気がしています。この論文を含め、今まで自分が取り組んだ論文では既存のデータセットを批評する話しかできておらず、つまるところ何も積み上げられていない気持ちが強いです。何かをちゃんと作る側にまったく回れてないよドラえも〜んみたいな感じです。(インターンでやった内容はそのための次の一手ではあるものの、独立な取り組みかつ未完成なのでちょっと脇に置くとして、)次はどうすればいいのだろう、ということを考えたい気持ちです。

最近の業界の動向

 現状を把握するところから始めましょう。まず、読解のトピックに限らず、言語理解に関わるデータセットのうち、最近提案されたものを見てみることにします。列挙しようと試みたら数が多かったので、2018年が初出のものに限定し、新しいものが上になるようにして、特に気になることがない場合は一言だけ説明をつけるに留めました。コメントがたくさん書いてある論文はこの記事を書く際に改めて読み直した(比較的新しい)ものです。およそ箇条書きの1点目がデータセットの説明です(2点目以降は細かい話で、おそらく論文を見ながらでないとわからないです。記事の流れからは逸れるので読み飛ばしてください。長くてすみません)。図表などはコピーしていないので、興味がある場合は論文を直接参照していただけると助かります。一覧を github のレポジトリ に作りました。

  • CoQA (A Conversational Question Answering Challenge) https://stanfordnlp.github.io/coqa/ (TACL??)
    • 文章と対話形式の質問応答のデータセットクラウドワーカーのペアに何らかの記事を見せてそれについての質問応答を会話形式で連続でやってもらって集めた感じ。特徴としては、会話形式なので問いに出てくる表現がそれ以前の会話内容に依存する(照応や pragmatic な表現が入る)こと、回答の際に答えの根拠をまず抜き出させてから答えをその rewrite として自由記述させていること(正当の信頼度・一致度を上げるため)、記事の題材がいろいろあること(ドメイン7つ)。
    • 説明的な記事の内容ベースでワーカーに問いを作らせるとき、回答の候補が複数保証されるような問いがちゃんと作れない可能性がある。それをケアしようとは試みていて、 we select passages with multiple entities, events and pronominal references と書いている。どれくらい効くのかはわからないけどこういうのに気をつけているのは好印象。
    • 自由記述とは書いているけど、そのままの表現が文中に出てくるような答え(extractive と呼んでいる)は依然として 66.8% あるらしい。対して abstractive な答えである 33.2% の内訳は何かなと思って表を見てみると yes/no が全体の 20% ほどらしいのだけど、どれくらい重複があるんだろう(つまり、文中に yes/no が出てきてそれが答えになる問いの割合)。ある程度の重複があるなら abstractive のうち半分くらいは yes/no なのかも、という気もする。
    • Linguistic phenomena の分類はもうちょっと掘れた気がする。 explicit coref が記事中への coref も可能ならあまり context dependent とは言えなさそう。そうなると注目すべきは implicit coref で、割合的には 20% なので、どうやってこれを増やすかが future direction のひとつになるのだと思う。あと気になるのは、 Table 7 で question type ごとの正答率を出しているけど、 no coref (対話履歴を見ずにその問い単体で回答可能なもの)よりも implicit coref の問いの方がベースラインの精度が高い点。これだと「implitic coref がいまのモデルに解かれていなくて、これから解くべき課題だ」という主張がしづらそうな……。
    • Lexical match / paraphrasing / pragmatics という分類をすると pragmatics の問いが(人間にとってもベースラインのモデルにとっても)難しいということがわかる。これが conversation history にどれくらい関わっているのかわからないけど、問いのタイプとしては(lexical match & paraphrasing の補集合なので)知識推論みたいなところに落ちるはず。対話形式にしても implicit coref がそこまで面白くなさそう(つまるところ履歴の直前を見れば解けるような話になってしまっている?)っぽいので、こういう推論させる問いをどうやって増やすかという方針に進むのもいいのかなと思う。
    • 次に挙げている QuAC というデータセットとモチベーションはほとんど同じだけど、全体的に CoQA のほうがまとまりがよい気がする。
  • QuAC (Question Answering in Context) https://quac.ai (EMNLP2018)
    • 文章と対話形式の質問応答のデータセットクラウドワーカーのペア(甲と乙)がいて、 Wikipedia の記事の中の一項目が甲に与えられて、乙が相手に質問を投げまくる(乙は記事の内容を見られず、その項目のタイトルのみ与えられる)。甲は乙の質問に(記事の抜き出しで)答える他に、これ以上会話が続けられそうな内容かどうか、回答不可能な問いかどうか、抜き出しではなく Yes/No 、などの情報を乙に伝えることができる。甲乙の会話は連続したやりとり(最大で質問12回)で、会話の履歴に文脈的に依存することになるのでたとえば照応解析が必要になる問いが発生する。
    • 論文自体はちゃんと書いてあるけど、どうにも面白くない気がする。まず乙の応答が記事の抜き出しに制限されている(評価が難しいからというのが理由。同意するが超えなければならない点ではある)。データセット収集に使われたのが wikipedia で、かつ「人物」についての記事に限定されている。 Dialogue acts が含まれると主張しているものの本来的な意味で act なのは質問しかない気がする。評価に出てくる human equivalence score というのがどれくらい意味があるのかよくわからない。Yes/No の選択肢は正確には yes,no,neither だったらしく、 neither が majority になっていて human performance と 10% しか差がない(残念)。 gold sentence + no answer の upper bound で human performance と 8% しかない(大丈夫かな)。「もっとも近そうな sentence を予測してから範囲選択 + 回答不能判定」の組み合わせで工夫したら簡単に human performance に到達しそうな気がする。 context の参照が必要と書いているけど、必要な距離についての分析がない気がする(見落としてたらすみません)。この分析がないと、 BiDAF++ (w/ 2-ctx) が最も良い成績だったという結果を見たときに、問いの直前の 2 QA pairs だけ使うので十分な問いがほとんどなのか、本当はもっと遠くを見る必要があるけど BiDAF がそれに失敗しているのか、の区別がつかない(たぶん前者だと思うけど論文中では後者のように書いてある)。あと些細だけど論文中の図の参照の仕方がところどころ悪くて論文が読みづらい。
    • など、気になる点がちょっと多い。CoQA と共に発展の方向性としてはかなり自然で、対話にも興味がある人も見ることになると思う。重要な特徴として挙げられるのは問いが少し文脈依存になっている点と解無しの問いがある点の2つだと思うけど、それぞれ CoQA と SQuAD2.0 の方が良い気がするのでこのデータセット独自の強みが見えづらくて残念。
  • HotpotQA https://hotpotqa.github.io/ (EMNLP2018)
    • Multi-hop reasoning をテーマにした質問応答のデータセット。 multi-hop というのは例えば "When was the singer and songwriter of Radiohead born?" という問いに答えるには "the singer and songwriter of Radiohead" が "Thom Yorke" であることを見つけてから "When was Thom Yorke born?" の答えを探す、というような二段階の推論が必要とされることを指す。 Wikipedia 上でリンクがある2つの記事の1段落目同士をうまくくっつけてからクラウドワーカーに問いを作らせている。さらに comparison question というのも作らせていて、 Wikipedia 上で「〜〜のリスト」として整理されている記事を2つ持ってきてそれらを比較させるような問いも作らせている。さらに、記事中の「問いに答えるために必要な情報」を文単位でクラウドワーカーに選択させる、という作業も経て説明可能性を保証している。
    • test set は distractor と full wiki という設定に分けている。前者は正解となる two gold paragraphs に加えて問いとの bigram tf-idf が高い top eight paragraphs を含めて10個の paragraphs から答えを見つける。後者はすべての Wikipedia の記事の1段落目が与えられる(とても多くて答えがどの段落に入っているかわからない)ので information retrieval のタスクを含むことになる。
    • 単に回答を抜き出す以外に「問いに答えるために必要な情報」の選択もタスクに含めている。ただしこれは回答の選択よりは主観的なので人間の一致度がそこまで高くないと言及されている。こっちがタスクとして面白いかどうかはちょっとわからない。
    • distractor の QA のベースラインは全体で F1=0.58 くらい。対して人間の精度は(たぶん distractor なしの gold paragraphs だけで)サンプルされた1000題に対して F1=0.91 くらい(同じ1000題に対してのベースラインの精度は F1=0.69 くらい)。上限の数字も出しているけど信頼できるかどうかは微妙だと思う。人間とシステムで今のところ F1 が 0.2 くらい開いているので一応はおっけーなデータセットだと言えそう。一方の「必要な情報の選択」のタスクは gold paragraphs のみの精度が人間とほとんど同じなのでよくわからない(いずれにせよ distractor の精度を比較するなら人間の設定も揃えるべきだと思う)。
    • multi-hop のタイプを分類しているけどタイプ別の精度が見たかった。 Table 3 で出されている例はほとんど回答の候補を multi-hop なしで絞れると思うので、タイプ別で精度の差が出るかどうか怪しい気がする(そもそもアノテーションが少なくて有意な差が出ないかも)(comparison との比較は Table 6 で出ており良いと思う)。
    • なぜ hotpot なのか気になったけど脚注に "The name comes from the first three authors' arriving atthe main idea during a discussion at a hot pot restaurant." と書いてあって良さがある。 retrieval のタスクっぽく置いた方針はあまり自分の好みではないけど、問いの集め方などは面白いと思うし問いのフィルタリングや回答の候補の保証などをもうちょっと工夫できたら更に良かったかなと感じた。
  • SWAG (Situations With Adversarial Generations) https://rowanzellers.com/swag/ (EMNLP2018)
    • 動画のキャプションから取った連続した2文の、2文目の動詞句を選択肢で当てるタスク(textual な event prediction みたいな感じ。著者は situational commonsense reasoning と言っている)。選択肢の候補は、言語モデルでたくさん作ってから、(annotation artifact を避ける目的で) stylistic features を利用するモデルが間違えやすいものを選ぶようなフィルタリングをして、最後にクラウドワーカーに verification してもらっている。
    • 全体的に完成度が高い。今後はデータセットを作るときに簡単なモデルでフィルタリングするというのが増えると思う(この研究は選択肢を作るときにそれをやってる点でわりかし新しい気がする)。
    • 考えさせられたのは、「続く2文目を選ぶ」というタスク設定について。著者はイントロで here we focus on whether a (multiple-choice) ending describes a possible (future) world that can be anticipated from the situation described in the premise, even when it is not strictly entailed. と書いていて、わかっていらっしゃるという感じで文句が言えないのだけど、どうやったら今回の手法を他の種類の常識推論のためのデータセット構築に使えるかなという今後の発展がなかなか気になる。今回のデータセットを解くのに必要な知識は具体的にどのような種類の知識なんだろう、ぱっと見ではわからない。
    • 選択肢を作るのに使った book corpus や caption のコーパスで pretrain したベースラインがあってもいいのかなと思った。実はそうだったらすみません(ちゃんと読んでない)。
  • DNC (Diverse Natural Language Inference Collection) https://arxiv.org/abs/1804.08207 (EMNLP2018)
    • 自然言語処理のいろんなタスクを natural language inference のタスクに recast して統合したデータセットWhite et al. (2017) Inference is Everything の拡大版という感じ。
    • 他のデータセットで pre-training しない場合の hypothesis-only (前述した Y のみで推論する解き方)のベースラインと普通(X と Y の両方使う解き方)のベースラインでほとんど精度に差がないのが気になる(NLI のデータセットにする意義がよくわからない)。対して pre-training すると元々 hypothesis-only と普通のベースラインに差がないデータセットでも精度に差が出るということは text (上述の X )の方にバイアスが入っているということになる?
    • よくわからないけど、単一の NLI のデータセットとして見るには疑問が多い。たとえば半分近くが NER の問いなのに既に 92.5% の精度が出ているわけだし(Y のみで 91.5% だし)。どう使えばよいのかわからない。タスク同士の transferability みたいなものを見たいなら DNC というひとつのパッケージとしてまとめて pre-training する意味もないと思う。 GLUE みたいに使いたいのかと思ったけど "probe" するためにと書いてあるので違うニュアンスを与えたいみたい。そうだとしても個別のタスクそれ自体の質の保証が弱い気がする。うまく読めない。
  • OpenBookQA https://arxiv.org/abs/1809.02789 (EMNLP2018)
    • 理科の知識をもとにクラウドソーシングで選択式の問題を作ったデータセット。問いと選択肢に加えて作問に使われた知識(scientific fact)が与えられる(あるいはその知識を回答者から隠してしまえば、それ自体を外部知識として要求するデータセットと見ることができる)。論文は全体的に丁寧に書かれていて好印象(印象はあまり重要ではないですね)。
    • データセット構築の段階で「元となる理科知識に加えて何を知っていなければならないか」という常識知識をクラウドワーカーに記述させたが、あまり質の良いものではなかったと報告されている。やはり「問いを解くのに必要な常識を記述してもらうのは難しい」という感じ。
    • 分析として100問取り出したらそのうち21問は「作問に使われた知識を直接要求するような問い」ではなかったと報告されている。作問の打率が8割と考えれば聞こえはいいけど、この知識を使って訓練したベースラインの精度(4.4節)が6割前後(直前に書いた「常識知識」を使うと8割前後)あるので、「提示された知識をどう使うか」という能力を評価するデータセットとしては信頼度が少し損なわれている気がする(まあ人間の精度と3割違えば十分かもしれないけど)。
    • となると作問知識を隠して「外部知識を要求する」データセットとしての利用を考えることになる(結局 AI2 の既存のデータセットと何が違うのかという感じにはなってしまう気がするけど。知識が align されている点は大きな貢献だと思う)。著者は実際に、既存の読解のデータセットのほとんどが self-contained であるのに対して、我々のデータセットは not self-contained だと主張している。そう見るとおそらく良いデータセットになっている気がして(4.3節のベースライン)、このあたりの「自分たちのやっていることの位置づけ」に関わる議論が丁寧な論文なので好印象という感じです。
    • ただ「外部知識を要求する」としても「知識が得られてしまえばかなりの割合の問いが解ける」ようなデータセットであるから、「その知識をどうやって得るか」を中心的に要求する形に落ち着いていることになる。これはどちらかというと information retrieval のタスクなのではと思うのだけど、じゃあ(著者がそれを目指しているわけではないものの)読解タスクは information retrieval とどう違うのか、何をもって読解タスクの identity とするのかは議論の発展先としておそらく重要。自分としては narrative comprehension のような形で situation model を評価するものとしてのタスクが大事だと思うのだけど、ちょっと話が長くなりそうなのでここで切ります。
  • RecipeQA https://arxiv.org/abs/1809.00812 (EMNLP2018)
    • 読解と画像を混ぜて multi modal に問うという趣旨のデータセット。立ち位置は TextbookQAFigureQA あたりに近い。手順を説明するテキストと、その各ステップごとに対応する画像があるので、そこからタスクを作っている。問いは自動で作っている選択式(4択)みたいなのでちゃんと解けるものになっているかどうかがちょっと心配。特に cloze task の方、ベースラインが 27-29% なので。ちゃんと正当の選択肢に必然性があるのかとかが気になる。人間の精度を付けてほしかった(自動生成した問いでこれをやらないのは致命的だと思う。自動生成した問いの回答可能性を高めるのは結構大変っぽく、大変そうだなぁと過去に思ったのはたとえば Who did What とか QAngaroo とか)。
    • レシピの勉強になる論文だぁおいしそうだぁ(bacon sushi というよくわからないレシピが例示されている)と読み流そうとしていたら1段落目で自分の論文が引用されていたので真面目に読みました。
  • CLOTH https://arxiv.org/abs/1711.03225 (EMNLP2018)
    • 英語の試験問題の穴埋め(英語では fill-in-blank ないし cloze と呼ばれていると思います)のデータセット。選択式にして回答可能性を保証している。問いのタイプとして short-term か long-term の reasoning か grammar か matching かで4種類に分けている(matching を long-term に含めた主張をしているのはよくわからない)。長距離の推論と著者が呼んでいるのは multi-sentence reasoning のことで、それは全体の 18% ということらしい。そこまで多くない。ベースラインで最も良かったのは言語モデルの手法。
    • ICLR2018 の review で言われている問題はそのまま残ってると思う(けど、7-4-4 で 4 を最後に付けてる人の査読はあまりに雑でちょっとひどい。一方の 4 の人はまあそうだなぁという感じ)。ただし、 言語モデルを使ったベースラインが妥当でないという査読の主張については懐疑的。現に後続の研究で言語モデルで pre-training して finetunung したら色んなタスクで良くなったというのがあるし(Improving Language Understanding with Unsupervised Learning)、言語モデルだけで winograd schema challenge で SOTA を出した研究もある([1806.02847] A Simple Method for Commonsense Reasoning)。
    • RACE と元のコーパスが一緒っぽい。 CMU の同じチームからの論文。
  • DuoRC http://aclweb.org/anthology/P18-1156 (ACL2018)
    • NarrativeQA にアイディアが近い(初出はほとんど同時期だったはず)。ある映画を説明する二種類のプロット同士で問いを跨がせることで良い感じになってくれることを期待している。 Commonsense や multiple sentence reasnoing が多く問えるとも書いているけれどそれを裏付ける分析がない。どうでもいいですが abstract が長い。
  • SQuAD 2.0 http://aclweb.org/anthology/P18-2124 (ACL2018)
    • SQuAD に "no answer" な問いを追加したそうです。
  • CliCR (A Dataset of Clinical Case Reports) http://www.aclweb.org/anthology/N18-1140 NAACL2018
    • 医療文書の読解。穴埋め。必要な能力のアノテーションまで丁寧にやっているので個人的な好感度が高い。
  • FEVER (Fact Extraction and Verification) http://aclweb.org/anthology/N18-1074 NAACL2018
    • Fact verification というのは形式としては textual entailment の premise (前件)を長くしたもの。そのためのデータセットを大規模に作りましたという話。 EMNLP2018 でワークショップをやっていたらしい。
  • MultiRC (Multiple Sentence Reading Comprehension) https://cogcomp.org/multirc/ (NAACL2018)
    • 複数文に跨った読解。「あるひとつの文だけでその問いが解けるかどうか」の検証をデータセット構築の過程に含めている。 6K questions くらいなので少し小さい。文を跨ぐのは coreference と paraphrase で6割弱という感じ。
  • ProPara http://aclweb.org/anthology/N18-1144 (NAACL2018)
  • ARC http://data.allenai.org/arc/
    • AI2 のお家芸。小学生の理科の問題を読解形式にしたもの。ただし外部知識を要求する割合が高くて、「与えられた文章を読まないと解けない」ような問いは少ないと感じる(という分析を自分の EMNLP の論文でしました)。データセットは Challenge の方で 2-3K くらいの規模なので小さめ。
(追記)見落としていたもの:

最近のデータセットのまとめ

 長くなってしまいましたが、発展の方向性でまとめると以下のような感じでしょうか。

  • 問いの文脈的な依存(CoQA, QuAC)
  • 文間の照応や推論(HotpotQA, SWAG, MultiRC)
  • 外部知識(OpenbookQA, ARC)
  • ドメイン特化や画像入り(CliCR, RecipeQA)
  • 手続き的な文章(ProPara, RecipeQA)
  • 解答可能性の配慮(SQuAD2.0, QuAC)

 一方で、多くのデータセットに共通する課題もあります。「ある言語現象や知識に特化し、そのような能力を問うようなデータセットを目指した」と書いているものの、それについての分析が深くないように見える点です。データセットを提案する論文が査読に通る最低限の要件は「ベースラインのシステムの精度と人間の精度に乖離があり、取り組む価値がある」と主張できることなので、そこはたいていクリアされています。しかし、提案するデータセットに新規な特徴が含まれているとしても、それがそのデータセットの難易度に本当に寄与していると説明できなければ、「これを解けるシステムはその特徴を捉えることができる」という主張をすることができません。つまり「このデータセットが解けるようなシステムが作れたとき何が明らかになるのか・何が嬉しいのか」がわからないままになってしまう、ということです。

 という感じでデータセットの意義まで細かい分析を付けてくれるとありがたいなぁと思うのですが、なかなか狙い通りにならないでしょうし難しいですね。文句を言うことはできますが、実際に取り組むことで明らかになる課題もありますし、やらないより全然マシです。そもそも有名な研究室から出たデータセットなら、挑戦する人がたくさん期待できるし、他の人が勝手に分析してくれるかもしれないですしね(言い方が悪くてすみません)。ただしコストの問題があり、大きな研究室から出ているデータセットを見るとクラウドソーシングに数百万円のオーダーでお金がかかっていることがわかります。場末の学生が同じように頑張ろうとしてもちょっと難しいですね(しかし批評家は止めたいので困っている)。

データセットを作る?

 自分は次に何をするのが良さそうでしょうか。わからない。取り組み方として大きく分けると、「データセットを作る」「システムを作る」の2通りあるっぽい、ということを以前述べました(ここで「データセット」は「タスクのインスタンス」の意味で書いています)。自分としてはそろそろデータセットを作ることをやりたいなとも思っていますが、これまで見たようにあまり簡単ではない雰囲気が漂っています。

 いろいろとデータセットを見てきた中で、(難しい問いを作るのはさておき)読解のタスクで易しい問いを作らないためには次の要件が満たされているべきだと観察されます。

  1. それらしい回答の候補を複数持っている(multiple candidate answers)
  2. 回答の候補自体にバイアスが存在しない(avoiding annotation artifacts)
  3. 「問い+正答」に似た内容が文脈の文章内に直接出現しない(context-question simlarity)

 例えば上で見た SWAG というデータセットは1,2点目をわりかし綺麗にクリアしています。ただ確認したようにこれは「2連続の event の前者が与えられて後者を当てる」という event prediction 的なタスクなので、問いも文脈となる文章も持ちません。しかし文章から問いを書いてもらうと3点目が配慮されづらく、「深く考えなくても解ける」ようなものばかりになってしまう例がほとんどです。

 回答の形式についても考慮が必要です。現状で主に利用されているのは、文脈の文章からの抜き出し・多岐選択式(およそ4択)・自由記述、の三者です。まず抜き出しは上記の1点目をクリアするのが大変です。個人的には選択式のほうが多様な回答が作れるのではないかと思っていますが、同様に偽の「それらしい」回答候補を作るのが大変です。自由記述は評価が難しいので、 NG とは言わないまでも今のところは見送るべきでしょう(生成や翻訳の評価と同質の問題があります)。

 ここまで見てきて、実のところは「それらしい回答の候補を複数持たせる」ことを目指すのがもっとも重要かつ大変なのではないか、という気がしてきました(上記の1点目のクオリティを上げると2,3点目も同時に解決されそう)。個人的な経験では、国語の文章題だと「選択肢のどちらか正しいか迷う」のが難しい問いだったかなぁという思い出がないこともないです(センター試験の選択式の問題が苦手だった)。つまり「与えられた文章の内容に照らしてどちらの回答の候補がもっともらしいか」を考えさせるのがより洗練された(?)言語理解を問うことに繋がるのではないでしょうか(わからないけど)。 可能世界の多さが〜とかこの世界との近さが〜とかいう話をしてもよいのかもしれなかったのですが、いまいちピンとくる話をまとめられなかったので止めます。

 次いでもうひとつ重要になるのは、「それが解けるようになると何ができるようになったと言えるのか」を説明できるようなデータセットであるようにすべき、という点です。この手の説明可能性や解釈可能性みたいなものは機械学習が入るとより強めの問題になりますが(依然として「訓練データって何を訓練するの??」という気持ちは絶えません)、それはともかく最近のデータセットはここが弱すぎます。問いを解くという行為がどのように分解されていくかについてもうちょっと知見を深められたらいいのになあと思っています。

 という感じでもし自分がデータセットを作るなら上記の2点が大事な気がするなぁということを思いました。ではシステムを作るならどういう方向性になるのかもちょっと触れてみます。

システムを作る?

 読解のタスクでは、Bi-directional Attention Flow が出てから本質的にはその variant しか登場していない、という話を結構聞きますが、およそそれ以外は self-attention (self-attention って何?)があったり convolution があったり別のデータセットや別のタスクや augumentation で pre-training したり transfer learning したりの組み合わせだったりする場合がほとんどな気がします。なんかこう、いろんな既存手法を持ってきて組み合わせてパラメータを合わせるのが上手い・手が速い人が勝つという感じがしています(自分はそういうの下手だし手が遅いのでつらいです。修行したい)。それだけだとあまり面白くないので、解いたらこういう知見が得られるよ〜というアプローチで解きたい気持ちがあり、上記のインターンではそういうのを上手く思いつけたかなぁと一瞬期待したのですが、実際はなかなか話が立ちませんでした。そもそも SOTA の数値を出すのすら難しい場合が増えてきており(実装が公開されていないとか、GPU がたくさん必要とか)、「1GPUでそこそこ速く訓練できる」「実装が公開されている」の2点が満たされているような話はもうあまり見ません(メジャーなデータセットで SOTA を出しているのはだいたい強い企業の研究所が多かったりします)。かくいう私もインターンでは実験のために GPU をたくさん使わせてもらって、それが終わったいま自分の大学の研究室では同等の環境を用意できないので、(少なくとも自分の力だけでは)実験を続けられなくなってしまいました。頭が悪い。

 というわけで、最近の読解のタスクでは(含意関係認識のタスクでも)古き良き時代の symbolic な semantic representation の上で knowledge reasoining や logical reasoning をして解きました、みたいな話はほとんど聞かないです(ゼロではないです。たとえば AAAI2018 の Question Answering as Global Reasoning over Semantic Abstractions あたりの人たちは結構好きです。ルールが多すぎてもうちょっと何とかならないかなとは思うのですが)。自分はこっちがいいと言いたいわけではないのですが、 もうちょっと地に足の着いた感じがいいなとは思っています。じゃあどうするねん、そもそも attention ってなんやねん……。

わからない

 わかりません。データセットを作るのもシステムを作るのも大変そうです。土俵を変えたほうが良い気がする。しかし土俵を作ることにおいては知名度的に強い人たちが有利なんですよね。参った。何も解決していません。この調子だとまた分析をする論文を書いてしまいそうです。

 うーん本当は situation model をやりたかったんです。心理学における言語理解の計算論的なモデルのひとつです。著名な論文は Zwaan (1998) Situation Models in Language Comprehension and Memorypubmed のリンクを貼りましたがググれば論文は見つかります)で、最近のまとめは Zwaan (2016) Situation models, mental simulations, and abstract concepts in discourse comprehension などです。不勉強なのでここでは詳しく説明できませんが、自分としてはそれなりに面白いと思っています。しかしこれが現状の自然言語処理で必要になる話かといえばおそらくそうではないでしょう(必要になることがある、ということすら断言できません)。

 ここからは集中力が切れた文章末尾の放言です。前回の記事の最後で、「自然言語処理が何を積み上げてきたのかよくわからない」ということを書きました。かなり乱暴な言い方になってしまい反省しているのですが、気持ち的には今でもあまり変わっていません。自分としては何らかの仮説や理論の積み上げがあってほしいのですが、何もわからないままです。これには自然言語処理分野に特有の理由がいくつかあると考えています(あくまで素人の意見であることをご承知おきください。この段落を読んだら忘れてください)。まず、どんなタスクでもコーパスを評価の基軸としている以上、ぶれ・ノイズが大きくて汎用的な知見として確立するところまでいかない、というのがあると思います(伝統的なタスクほどデータセットの数が少ないと思います)。次いで、言語という様々な性質・特徴を含んだものが対象であるにもかかわらず、評価指標を精度などの一元的なものに落としているために「この手法はこのタスクに有用である」以上の知見が出てこない、というのがあります。タスクが複雑であればあるほど得られる知見がぼやける、ということになります。例えば構文解析ならまだわかりやすいですが、翻訳・対話・QA などの多段階・多種類の処理が必要になりそうなタスクで一元的な指標に落とすのは大変な気がします。いくつかあると書いたけどこの2点かなぁ。ただ、「何を積み上げているのかよくわからない」とは言っても、技術もタスク(コーパス)も積み上がっていて、それは非常に重要なことだという気がしています。言語というなんかよくわからんものに取り組む以上、持っている道具の総体として解釈していくしかないのです、たぶん……(他に手段がない)。

 あと1年と少しで博論が書き上がっていなければならないのですが、どうなるんだろう……。そろそろ就活もせねばなりません。人生。

自然言語処理の研究に悩む

背景

  • 自然言語処理分野の博士課程の学生です。何もわからないのが得意
  • 研究テーマないし進め方に悩んでいます。その考えごとを書きます
  • 何もわからん

ここに何を書きたいか

 研究が進められていない気がする。論文が書けない気がする。何も考えていないわけではないと思うが、自分の研究をどのように進めればよいのか混乱している。自分の目的・条件・研究分野の性質等を整理して、手がかりを得たい。という感じです。本当は(訓練のためにも)英語で書くべきですが、やはり日本語で考えたほうが脳内の通りがよいので(たとえばこういう表現自体を英語にできない)このまま日本語で書きます。

個人的な目的・目標

  • 自然言語処理や計算言語学(以下 NLP/CL)と呼ばれるものの定義は様々ですが、個人的には「人間がどのように言語を獲得・理解・産出(以下まとめて処理とします)するのかを計算可能な仕方でモデル化し、言語資源・知識資源・視覚や音声など利用可能な情報の分析・学習を通して検証する」という雰囲気で位置づけています。よくある「人工知能っぽい意味で言語が処理できるエージェントを作るのであれば、人間の模倣は必要条件ではない」という指摘には同意しますが、人間が扱う言語についてあれこれさせるためには何らかの形で人間に漸近するような機能が備わっているべきだとは考えています。このあたりは個人の嗜好だと思うので、「どちらかと言えば機械より人間に興味がある」くらいに考えていただければと。
  • 上記の背景のもとで、とくに言語理解に興味があります。
  • やったことを博士論文くらいの単位の成果にまとめなければなりません。その後の生存戦略を考えると、できれば目立った業績が伴うことが望ましいです(しかし意識しすぎると頭が回らなくなるのであまり考えないようにする)。

研究のスタイル

 上に書いた NLP/CL の個人的定義から、どのような研究の単位があり得るかを考えてみます。研究全体の流れを整理しましょう。研究はそこで提示された内容がどれくらい妥当か吟味される必要があります(本当か?)。したがって上記定義にしたがえば、「何らかの言語を処理するモデルを作り、そのモデルを何らかのタスクに基づいて評価して信用してもらう」のがおそらく「みんなでやっていること」になります。

 これも個人的な区別ですが、「モデル」と「タスク」の2つが NLP/CL の研究では中心的な構成要素になると考えています。モデルを作ったりタスクを作ったり、モデルの改善をしたりタスクの改善をしたり、が研究の単位になります。ということで大きく2つにスタイルを分けると次のようになりそうです。

  1. 言語を処理するモデルを作り、何らかのタスクで評価する。
  2. モデルを評価するためのタスクを定義する。

 順にどのような細分化がなされるかを書いていきます。まず 1. について。上では、獲得・理解・産出を処理と呼んでいました。もちろんこの区別は厳密ではありません。人間は言語をどのように処理するでしょうか。全体としての(認知神経科学的な)流れはよくわかりませんが、「少なくとも振る舞いとしてこういうのはできるだろう」というのがあります。これには複数のレイヤーが考えられます。もっとも基礎的なものには形態素解析構文解析、意味役割の認識などが含まれそうです。もっとも応用的なものには翻訳や対話が含まれるでしょう。以上のようにNLP/CL の研究では言語処理の部分的な振る舞いをモデル化します。たぶん。モデル化のためには「内部的にどうなっていてそのように振る舞っているか」に関する何らかの仮説を立てます。「こうすれば上手く振る舞ってくれるだろう」という仮説です。実際に上手くいったのであれば、評価に用いたデータセットの範囲内でその仮説が(その上手くいった程度に応じて)妥当なものだと見なされます。

 2. についてです。タスクの意義は、モデルの振る舞いを評価して何らかの仮説の妥当性を裏付けることにあります。しかし重要なのは、仮説の妥当性がその「評価に用いたタスク」の範囲内でしか裏付けられないという点です。あるタスクで良い振る舞いをしたからといって、別の同種のタスクでも良い振る舞いができないのであればその有用性は限定的になってしまいます。したがって、あるタスクで用いるデータやその評価方法は同種の課題に対してなるべく汎用的であるほうがよいですし、モデルの評価はなるべく多種のデータに対して行われたほうがよいでしょう(ここには「理論は広く有用であるべき」という規範が入っていますが、学術的価値や技術的価値にとっておそらく必要なことだと思います)。また、ある振る舞い(だいたいは言語的な出力)をどのように観察すれば妥当な評価が行えるのかは簡単でない場合があります。たとえば機械翻訳の結果を評価するのは難しいですね。対話システムも特に雑談の場合はしんどいという話を聞きます。タスクのデザインはモデルの設計と同等かそれ以上に難しいと個人的には思います。

 以上の両者をバランスよくやっていくのが研究分野全体として必要だと思います(参考: ベンチマークの功罪 – CTRL+x CTRL+s )。

言語理解の研究について

 自分の興味は言語理解とかそのあたりにあります。言語理解と端的に言っても定義は非常に難しいです。まずその定義には正解がなく、人によって「〜だったら言語が理解できてると言える」の「〜」に入るものが違ったりします。話を進めるために、何か暫定的なものを決めましょう。一説には「ある言語入力に対してその言語が使われている共同体の規範や慣習に沿った振る舞いができること」という定義があり、これを採用してみます(ここで規範や慣習と書いたのは人間の言語に話を限定しているからですが、他の動物がやりとりする記号や表象も含めて定義したいね、という話は案の定ですがミリカン『意味と目的の世界』などを読んでください)。さて、そこでは「言語を理解しているときの適切な振る舞い」というのをどうやって(なるべく一般的な社会規範として)決めていくかが問題となります。

 人間について考えてみます。まず言語を行使する能力がそもそもあるかどうか、という点で見ると失語症のテストが考えられます("aphasia test" あたりで検索するとそれっぽいのが出てきます)。また「言語を理解する能力」の段階的な評価として、教育的な観点からの調査が考えられます。たとえば OECD の教育部門は PISA (The Programme for International Student Assessment) と呼ばれる調査を行っており、読解力・数学的知識・科学的知識という分類を作っています。ここで言う読解力というのは単なる文章を読む能力から、文字を含んだ図表の理解まで対象にしています(詳しい解説はたとえば 平成23年度 追加分析報告書:文部科学省東北大学の成果報告書1の pp.26-32 など)。

 機械についてはどうでしょう。まず思い出されるのはチューリングテストです。しかし「対話」だと実はそれっぽい鸚鵡返しや相づち、話題転換で誤魔化せてしまうという指摘があります(ELIZA はその一例かもしれません)。このあたりは Levesque さんの On Our Best Behaviour [paper] [slide] という2013年の IJCAI の発表(と翌年の論文)で議論されており、振る舞いとして誤魔化しのきかない形式を考えるべきだと指摘しています。次いで彼は「選択式のクイズでいいのでは?」(意訳)とみたいなことを言っており、最終的に提案されているのが Winograd Schema Challenge でした。これは background knowledge を問うタスクですが、問題数も少ないのであまり流行ってはいない気がします(でも難しいです)。

 さて最近の界隈では、質問応答のひとつの延長として読解タスク(machine reading comprehension)というのが流行っている気がします。端的に言えば文章題です。これを「言語理解の能力を振る舞いから評価する」ためのひとつの枠組みだと考えて、そのためのモデルやタスクの構築について考えてみます。先に引いた人間の読解力の調査として使われている手段に近しいのと、 Levesque さんの言う「対話ではなく選択式のクイズでも十分に振る舞いが評価できる」という話に乗っかってみる感じです。

読解の研究をどうする?

 先程と同じようにモデル・タスクに分けて考えてみます。まず読解をするモデルについて。人間の読解のモデルについての研究は、たとえば心理学では Kintsch さんによる Construction and Integration Model があります(1980年代後半くらい)。これを基礎にしていくつかモデルが出ていますが、あくまで理論的な話で、あまり「実際に作る」という話には至っておらず、(そりゃそうですが)こうした理論的な仮説を心理学的な実験で検証するというのが彼らのやり方です。そのモデルにおける個々のコンポーネントやその関わりがどうなっているかを神経科学的に見ようとすると一気に難しくなり、知識(というか記憶)がどこから湧いてくるか、読んだものが逐次的にどのように処理されるか、など諸々の振る舞いに対する仮説を解剖学的な部位や時間的位置を特定したりしながら検証していきます。これを計算論的に仮説を立てて再現して処理できるかどうかやってみればよいのでは? という感じになりますが、ハードルがあまりにも多くて心の底からよくわかりません。一方で読解のタスクに対して提案されている NLP/CL の側のモデルは、たとえば [1611.01603] Bidirectional Attention Flow for Machine Comprehension[1711.04289] Natural Language Inference with External Knowledge のような(図を見てみてください)それっぽい気もするようなしないような構造をしています。人間についてのモデルとの大きな差異のひとつは読解における知識の保持・利用の仕方だと思いますが、知識がちゃんと必要になるようなタスクが少ないのでしっかりとした正答率が出せている印象です。そうです、一部のデータセットではけっこう人間に肉薄した性能が出ちゃったりしています。うーんでもじゃあこれで人間っぽい読解力が持てるようになったのか、と聞かれると全く肯定できません。どうしてでしょう。

 どうして納得できないのか。流行りのタスクが悪い気がします。上で述べた表現を使えば、「同種の課題に対する汎用性が全然なさそう」だと感じます。あるいは「問題が簡単すぎる」気もします。しかしそれをきっちり浮かび上がらせて定量的に示すのはなかなか難しいです(自分のこれまでの研究はここを何とかしようとする試みでした)。Levesque さんは同じ議論の中で、選択式のクイズが適切に振る舞いを評価するに足るための要件を挙げています。「Google-proof (検索が無効)であること」「典型的なパターンマッチでは解けないこと」「語順や文法などにバイアスが含まれていないこと」の3つです。うーん本当にそうだなあという感じです。いまデータセットとして流行っている The Stanford Question Answering Dataset (SQuAD) について Goldberg さんが「ちょっと凝ったパターンマッチじゃん」と言っていたのが記憶に新しいです(スライド)。つまり流行りのタスクは、単なるパターンマッチ+バイアスの発見で解けるような問題じゃないかな、という気がするわけです(そしてモデルはまさにそうした情報を掴むための構造になっています)。

タスクを作る?

 モデルの方は本当によくわからない・理想的なものを考えても評価する手段がないので、タスクをより改善していったほうがよいかもしれません。Levesque さんの挙げた要件を守りつつ、難易度が高そうな問いがたくさん作れるのがよさそうです。でもそれってどうするの?? というのが現在時点での悩みです(やっとここまで説明できました……長くてすみません)。質のよいクイズを作るというのはなかなかに骨の折れる作業です。人間が解く試験問題を作るのが大変なのと同じだと思います。しかもそれがなるべくたくさん欲しいわけです(最近は大規模なデータセットでないと注目してもらえないのがよくない風潮だと思います。もちろん少なければ少ないほどバイアスが発見しやすかったりするのかもしれませんが(本当か?))。どうすればいいんだろう、何を調べる・考えるべきか……。というところで詰まっています。

 もちろん既存のタスクが何もかもダメという感じでもなく、2017年のEMNLP で発表された RACE のような人間の試験問題そのままのデータセットもあったりします。これをしっかり解けるようなモデルを考えるのも面白そうです。また、 SNLIMulti NLI のような比較的大きな含意関係認識のデータセットも出てきました。ただこれらの含意関係認識のデータセットはベースラインが高く、すでに state of the art も9割近い精度が出てるので、今から取り組むべきかというと微妙な気もします。精度で勝っても有意な差にならないでしょうし、そもそも人間の精度が9割くらいだったりするとあとの1割は一体何なんだという感じになります(エラーなのか真に難しいのかがわからない)。じゃあやっぱりタスク作りをすべきでしょうか。しかしどうやって問いを立てるのでしょう。

 あとは「読解や含意関係認識のデータセットで学習する」と言ったときにモデルが一体何を学習しているのかというのが気になります。他のタスクに応用可能な知識を得ているのでしょうか。それとも、似たような問題形式でのみ使えるマッチングやバイアスの発見の仕方を学習しているのでしょうか。ここまで書くと批判したいだけに見えてしまうのですが、そもそも我々が知識と呼ぶものとそうしたヒューリスティックっぽいものに明確な境界はあるのでしょうか。

結局何ができそうか

 何もわからなくなってきました。厳しい。ここでちょっと「研究として可能そうなこと」を列挙してみます。このあたりは話がまとまってきたら後で消すかも。

  • タスク側
    • 「マッチングやバイアスの発見」を定量的に扱うための何かを考える(そもそもこれが外部知識なしのベースラインなのでは?)
    • 既存のデータセットの有用な変形。その過程で前項についての示唆を得る
    • 新しいデータセットを考える。「情報の関係(知識を含む)」を捉えることができないと解けない問題が望ましい(抽象的に書きすぎですが、要は「ちゃんと難しい」問題が作りたい気がします)
    • 問いの分析。自分がこれまで提案した能力は一体何だったのか。どのような問いにどのような能力が出てくるか。あるいはある能力を専門的に問うためにはどのような問いが必要か
    • 前項に関係して、質問ベースの翻訳評価のためのイベント粒度など
    • 読解のための能力っぽいものだけでなく、言語知識への拡張
  • モデル側(あまり考えていないので気になることだけ)

うーん、いろんなことを同時に考えすぎてどれも論文が書ける程度まで成熟していないのかもしれません(いずれにせよ何もわかっていないのですが)。論文の単位としては(自分の経験では)「何らかの仮説を立てる(モデルでなくてもよい)・何らかの定量的な評価や分析を行う・仮説の信頼度について結論を与える」という感じなわけで、その仮説の粒度は「これが言語理解のモデルだぜ!」という大きさでなくとも「いや読解の能力と文章の読みやすさってあまり関係なさそうじゃね」くらいの細かさで十分な話題になります。それが「タスクを立ててモデルを作って評価する」と一連の流れのどこか部分的にでも貢献できればよいのです。しかし……しかし、「仮説」は何かの積み重ねで成り立っているわけですが、 NLP/CL はこれまで何を積み上げてきたのでしょう。論文を読んでも「何もわからん!!!」となることが多いのはまさにこの「積み重ねのわかりづらさ」にある気がします(私が何もわかっていない・わかろうとしていない・この記事を書くにあたって認識を誇張している、などの可能性があります)。仮説検証のプロセスが暗黙のうちに為されていたり、検証のスキーム自体を数値で簡素化しているために論文の貢献が何なのか見えづらいのです(規範がばりばりに入っており、あくまで個人的な嗜好であることに留意いただければと思います)(あと論文一本が短すぎる)。

 あとはそうした思いつきを速い周期で回していくことが大事です。複数の試案を同時に考えていると各々が飽和するまでの時間が長くなってしまうので、やっぱりどれかに絞ってがっと進めたほうがよいかもしれません。自分は手を動かすのが遅いので(普段から書いているわけではないのでコードを書くのは特に時間がかかりますし、full paper の論文を書くのもまるまる1ヶ月は欲しい)、ひとつの周期をより速く回せるように意識していく必要がありそうです。

 焦っても仕方ないですし、じっくりやりましょう(って言ってると無限に時間が溶けるので、進行管理をきっちりせねば……)。たまにこんな話で雑談をしていただける方が現れると喜ぶかもしれないです。終わり。

beamer, rowcolor, columncolor, line breaks in cell, and overlay

f:id:liephia:20171102143234p:plain

\documentclass[12pt,xcolor={dvipsnames,table}]{beamer}
\usepackage{booktabs}

\makeatletter
% columncolor > rowcolor https://tex.stackexchange.com/questions/80135
\def\tmpp#1\@addtopreamble#2#3!{%
    \tmp#2!{#1}{#3}}
\def\tmp#1\CT@column@color\CT@row@color#2!#3#4{%
\def\@classz{#3\@addtopreamble{#1\CT@row@color\CT@column@color#2}#4}}
\expandafter\tmpp\@classz!
% get overlaynumber
\newcommand*{\overlaynumber}{\number\beamer@slideinframe}
\makeatother

\begin{document}

% tabular in cell for line break
\newcommand{\cellstack}[2][0]{
  \ifnum\overlaynumber=#1\newcolumntype{x}{>{\columncolor{red!20}}c}
  \else\newcolumntype{x}{c}\fi
  \def\arraystretch{0.9}\begin{tabular}[c]{@{}x@{}} #2 \end{tabular}
}
% change each column color
\newcommand{\onct}[2]{\newcolumntype{#1}{c}\only<#2>{\newcolumntype{#1}{>{\columncolor{red!20}}c}}}

\begin{frame}{Table}
  \centering
  \def\arraystretch{2.0}
  \onct{A}{2}\onct{B}{3}\onct{C}{4}\onct{D}{5}
  \rowcolors{2}{}{gray!20}
  \begin{tabular}{ABCD}
    \toprule
    Column1 & \cellstack{Column2 \\ Cat1} & \cellstack{Column3 \\ Cat2} & Column4 \\ \midrule
    \cellstack[2]{Row1 \\ Col1} & Row1 & Row1 & Row1 \\
    Row2 & \cellstack[3]{Row2 \\ Col2} & Row2 & \cellstack{Row2 \\ Col4} \\
    Row3 & Row3 & \cellstack[4]{Row3 \\ Col3} & \cellstack[5]{Row3 \\ Col4 \\ Row3inRow3} \\ \bottomrule
  \end{tabular}
\end{frame}

\end{document}

Please let me know if you know a better way...

beamer, presenter notes, pgfpages, splitshow

やること
  • beamer で作ったスライドで発表する(環境は OSX
  • 発表者ノート的なものも使いたい
手順
  • tex に仕込むコード
\usepackage{pgfpages}
\setbeamertemplate{note page}[plain] % or [default], [compress]
\setbeameroption{show notes on second screen=right} % or bottom, ...
\newcommand{\pdfnote}[1]{\note{#1}} % as you like
  • で、 \pdfnote{あれこれ} を frame と frame の間に書く(どこでもいいっぽいけど)

    • itemize が使えたり、フォントも自由にできる(便利)
  • Splitshow https://github.com/mpflanzer/splitshow で pdf を開く

    • presentation mode = split
    • main display とか helper display とか指定するとウィンドウを開いてくれる
    • 矢印キーが同期されるのでふつーに発表可能
  • 同時に note page が無い slide も出力しておきたいとき(配布用とか)

\usepackage{pgfpages}
\setbeamertemplate{note page}[plain] % or [default], [compress]
\ifdefined\ispresentation
\setbeameroption{show notes on second screen=right} % or bottom, ...
\fi
\newcommand{\pdfnote}[1]{\note{#1}} % as you like

などとしておいて(引数の入れ方はもちろん逆でもいいです(ここでは slide.pdf が note 付きになるようにしている))、

with note pages
$ lualatex "\def\ispresentation{1} \input{slide.tex}"

without note pages
$ lualatex -output-directory=org -jobname="slide_original" slide.tex

みたいな。 Makefile に適当に書いておく。最初 platex+dvipdfmx でやっていたけど table などが表示されなくて詰まったので lualatex に切り替えた。

反省
  • beamer でスライド作るのを卒業したほうがいいのではないか