filename
stringlengths 1
10
| text
stringlengths 33
111k
| category
stringclasses 9
values | license
stringclasses 1
value | credit
stringclasses 5
values |
---|---|---|---|---|
D2-4.pdf | # 逆接の推論関係に着目した日本語談話関係アノテーション
窪田愛 ${ }^{1}$ 佐藤拓真 ${ }^{1}$ 天本貴之 ${ }^{1}$ 秋吉亮太 ${ }^{1}$ 峯島宏次 ${ }^{1}$
1 慶應義塾大学
ai.kubota.m@gmail.com takuma.sato.keio@gmail.com
amamoto@keio.jp georg.logic@gmail.com
minesima@abelard.flet.keio.ac.jp
## 概要
本研究では、逆接の談話関係で前提される推論に着目し、同時進行と逆接の二つの用法を持つ接続詞「ながら」「つつ」に対して談話関係アノテーションを試みる。逆接を含む談話関係コーパス自体はすでに存在するが、前提される推論を実際に書き出し、逆接の推論関係を特定しようとする点に本研究の特色がある。本稿ではアノテーション手法とその結果、ならびに、アノテーションの際に判明した逆接の特徴について報告する。
## 1 はじめに
テキストの談話関係を適切に認識することは、人間の言語理解の重要な側面であり、自然言語処理でも重要な課題の一つである。しかし、談話関係を分類する基準、その関係を担う談話単位を設定する基準を明確にすることは必ずしも容易ではなく、言語学・言語処理で様々な試みが続いている。一つの有力なアプローチは、明示的な接続表現(談話標識) に着目して談話関係を判別するもの $[1,2]$ であるが、同一の接続表現が複数の談話関係を担う場合、その談話関係の判別は容易ではない。
このような背景から、本研究では逆接の意味をもつ接続表現に着目し、詳細な統語情報が付与されたツリーバンクを利用した談話関係アノテーションを試みる。具体的には、同時進行と逆接の二つの用法をもつ「ながら」「つつ」をとりあげ、「前提される推論」という観点から談話関係の分類を試みる。
## 2 関連研究
## 2.1 逆接・譲歩
ここでいう逆接(あるいは逆接・譲歩)とは、「何らかの含意関係の否定」[3]、あるいは、“denial of expectation” $[4,5]$ を伴う接続関係のことであり、以下の二種類があると言われている。(例文は [4](37) より抜粋。)
(1) 直接型 (Direct concessive) Although John is poor, he is happy.
(2) 間接型 (Indirect concessive)
The car is stylish and spacious, but it is expensive.
直接型と間接型の違いは、前提される推論の違いにある。間接型では「P (= John is poor) ならば、大抵 $\mathrm{Q}(=$ he is happy) ではない」という情報が前提されているのに対して、間接型では「P (= The car is stylish and spacious) ならば、大抵 $\mathrm{Q}(=\mathrm{it}$ is expensive) ではない」という情報が前提されているとは考えにくい。間接型の場合、「P (= The car is stylish and spacious) ならば R (= we should buy it)、Q (= it is expensive) ならば R でなはい」といったように第三の項 (R) が隠れている点に特徴がある $[6,7,8,4,5]^{1)}$ 。
## 2.2 「ながら」「つつ」
「ながら」は動詞の語基、非過去のイ形容詞、ナ形容詞の語幹に、また名詞及び副詞には直接後続し、「同時進行(付帯状況)」を表す用法と「逆接」を表す用法があるとされる $[9,10]^{2)}$ 。「つつ」は動詞の語基に後続し、やはり「同時/付帯状況」と「逆接」 の二つの用法がある [9]。
典型的には、「食べる」「走る」など動的述語の場合は「同時進行」「思う」「狭い」などの静的述語の場合は「逆接」の用法になることが多いものの、述語の種類だけで「同時進行」か「逆接」かが決まるわけではなく、以下の例([9]の 3.4 節より抜粋)が示すように主節との意味的な関係や文脈により解釈
が影響される $[9,10] 。$
(3) a. さびしいと思いながら毎日を過ごした。
(同時進行)
b. さびしいと思いながらそれを口にしなかった。
(逆接)
(4) a. 3 時間、英語を勉強しながら、音楽を聞いた。 (同時進行)
b. 12 年間も英語をながら、日常会話もろくにできない。
(逆接)
そのため、以下の例([10](31))のように「同時進行」か「逆接」かの判断が難しいケースもある。
(5)加藤文太郎は秋の海を見ながら、思いは日本海に飛んでいた。
どのような要因により「同時進行」か「逆接」かの解釈が決まり、特にどのような場合に「逆接」の推論を読み取って解釈しているのかという問いが、本稿での焦点である。
## 2.3 談話関係コーパス
英語の談話関係コーパスの研究として代表的なものに、Penn Discourse Treebank (PDTB) [1,11] がある。 PDTB-3 [12] では、明示的な談話関係と非明示的な談話関係が区別され、明示的な談話関係については接続表現(談話標識)ごとに談話関係の単位 (Arg1, Arg2) と談話関係ラベルが付与されている。譲歩・逆接に対応する談話関係としては、CONCESSIONと CONTRAST が区別され、COMPARISON 関係の下位クラスに分類されている。この CONCESSION と CONTRAST の判別は容易ではないことが報告されている [12]。
日本語の談話関係コーパスとしては、Web ページの冒頭 3 文を収集したコーパス(京都大学ウェブ文書リードコーパス)に対して、PDTB の方針を参考とし、談話関係タグを付与したものがある [2]。談話関係タグとしては、「対比」と「逆接」が区別されているが、「が」のように同一の接続表現が対比と逆接の用法をもつ場合、その判別基準は必ずしも明確ではない。また、談話単位 $(\mathrm{Arg} 1, \mathrm{Arg} 2)$ は自動認識によって設定されているため、言語学的な節単位とは必ずしも対応していない。
本研究は、詳細な統語情報が付与された既存のツリーバンクを利用することで、談話単位の認定という問題を回避し、より言語学的に妥当な談話関係ラ
ベルの設計に向けて、逆接の談話関係アノテーションを試みる。
## 3 アノテーションの方針
## 3.1 使用したデータ
今回使用した文は全て Kainoki Treebank [13] から抽出した。ツリーの例を付録の図 1 に示す。Kainoki Treebank は品詞タグ及び統語構造が付与されており、単に「ながら」「つつ」の文字列を含む文を抽出するだけでなく、接続詞「ながら」「つつ」が取る二つの項(これを $\operatorname{Arg} 1, \operatorname{Arg} 2$ と呼ぶ)が、埋め込み節を含むような複雑な文でも正確に自動的に特定できることからこのコーパスを使用した。例えば、図 1 の例では Arg1と Arg2はそれぞれ「(女性が)事務能力を事務能力を発揮し」「女性が一家の中心となって働く」であるが、Arg1 は「つつ」直上の IPノー ド、 $\operatorname{Arg} 2$ は「つつ」節を直接支配する IP ノードに支配される部分となっている。
## 3.2 談話関係ラベルと判断基準
接続詞「ながら」「つつ」を含む文 (それぞれ 1,325 文、239 文)について筆者ら含め 11 名で下記の通りラベル付けを行った。各例に 2 名のアノテータがラベルを付与した。
(6) a. 逆接・譲歩(同時進行の意味を伴っていても逆接・譲歩の意味もあれば逆接・譲歩のラベル付けを優先する)例:(3a), (4a)
b. 同時進行(逆接・譲歩の意味を伴わないもの)例:(3b), (4b)
c. イディオム(慣用句的表現)例 : 残念ながら/今更ながら
d. 対象外(後件が省略されているもの)例:窓の外を見ながら
「ながらも」「つつも」は全て逆接・譲歩とし、「ながら」「つつ」を「ながらも」「つつも」で置き換えて文意が変わらない場合も逆接・譲歩とした。更に、 より正確に逆接・譲歩の意味を特定するために、前提される推論 (2.1 節参照) を以下のように書き出す作業を行った。
(7) $\left[{ }_{A r g 1}\right.$ たばこは体によくないと分かり]つつ [Arg2なかなかやめられない。]
(480_textbook_djg_intermediate;page_543)
表 1 アノテーション結果
前提される推論:たばこは体によくないと分かっているなら、なかなかやめられないことはない(やめられるはず)だろう。
## 4 アノテーション結果と考察
各分類ラベルの件数を表 1 に示す。 2 名のアノテータの判定ラベルが異なる場合、第 3 のアノテー タがチェックし、ラベルを決定した。それでも決定できない曖昧なケースは $\mathrm{A} / \mathrm{B}$ と分類した。2 名のアノテーション一致率は Kappa 值で、それぞれ、「ながら」は 0.72、「つつ」は 0.36 であった。
## 4.1 逆接・譲歩の特徵
「ながら」「つつ」が逆接を表すのは、典型的には述語が動的か静的かが関与するものの、例外もある (2.2 節)。ここでは今回のアノテーションで逆接・譲歩とラベル付されたものに共通してみられる傾向があるかどうかについて考察する。
「ながら」「つつ」の用法に影響を及ぼしうると考えられる以下の特徴について、ラベルごとにそれぞれ当てはまるものの件数を数え、表にまとめた (付録の表 2)。なお、それぞれの特徴は Kainoki Treebank から自動的に抽出してカウントした3)。
(8) a. 状態性アスペクト (ASP) : Arg1の述部が $\Gamma(\sim \tau)$ いる」「(〜て) ある」「〜ておく」
b. 否定 (NEG):Arg2 が否定を含む
c. モーダル $($ MOD $): \operatorname{Arg} 2$ が「はず」「べき」等モーダル要素を含む
d. 接続詞 $(\mathbf{C N J}): \operatorname{Arg} 2$ が「しかし」「一方」 などの接続詞を含む
3)例えば、ASP の特徴をもつ「ながら」文の場合、Kainoki Treebank のウェブサイトにある検索インターフェイスで P-CONN く(ながら,おきけいあり) という検索式を用いて抽出できる。 e. 取り立て詞(TOR):Arg2が「も」「は」「さえ」などの取り立て詞を含む
f. 疑問文 (QUE): $\operatorname{Arg} 2$ が疑問文
g. 命令文(IMP):Arg2 が命令文
まず、 $\operatorname{Arg} 1$ の述部が「(〜て) いる」「(〜て) ある」「〜ておく」など静的状態を表すものである場合、逆接の用法である傾向が強いことが分かる (31/146 対 3/1046) $)^{4}$ 。また、 $\operatorname{Arg} 2$ に否定が現れる場合も、比較的逆接の用法になりやすい傾向が見られる $(21 / 146$対 13/1046)。その他には特に目立った特徴は見られないが、疑問(QUE)に関しては、逆接・譲歩の場合ほとんど全てが以下のような修辞(反語的)疑問文であった点が特徴的である。
(9)[Arg1 敵軍撃滅という偽情報を国民に流し続けて煽動し]ながら [Arg2 何をいうか] と怒りをおさえがたいが、国民(女も) が戦意に燃えていたのは事実であろう。 (1037_fiction_onna_to_senso)
「つつ」に関しては全体件数も少なく、目立った特徴は見られなかった。
## 4.2 前提される推論が書き出しにくい例
逆接・譲歩とは前提される推論(直接型の場合 $\lceil P$ ならば $\neg Q \perp$ 、間接型の場合「 $P$ ならば $R$ 、かつ $Q$ ならば $\neg R\rfloor)$ が書き出せるものとした (2.1 節)。しかし、実際に実例を見ていくと、判定が難しいものや、一見すると逆接と思われるもののいざ前提される推論を書き出そうとすると難しいものなど、興味深い例が見られた。
A. 前提のモーダルの種類前提される推論を考える際、明示的には表れていない隠れたモーダルを補いながら考えなくてはならない場合がある。例えば、以下の例で、機械的に「 $P$ ならば $\neg Q\lrcorner$ というテンプレートに当てはめて前提される推論を書き出そうとすると (10a)となるが、「大抵〜」というような物事の典型的な起こり方を示す (stereotypical) モダリティというよりは、(10b)のような義務的 (deontic) なモダリティの意味合いが強い。
4) 今回、典型的な動作動詞ではない「思う」「知る」など思考や認識を表す動詞についてはカウントしなかったが、これらの動詞は「(〜て) いる」の形をとらなくても静的状態を表しているとも考えられるため、それらの動詞についても 「逆接」「同時進行」のいずれかになりやすいなどの傾向を調べる必要がある。動詞の種類の詳細に関しては今後の課題とする。
(10)[Arg1 遺家族とあれば一層保護を加うべき任にあり] ながら、[Arg2 色と慾の二筋道をかける〕など実に言語道断です。(454_aozora_Oda1976-2)
a. 一層保護を加うべき任にあるならば、大抵色と慾の二筋道をかけない。
b. 一層保護を加うべき任にあるならば、色と慾の二筋道をかけるべきではない。
## B. 同時進行と逆接の二分類の妥当性 「同時進行」 と「逆接」は相互排他的なものではなく、「同時進行」でもあり「逆接」でもあるケースもある。例え ば、以下の例では「ながら」に「も」が後続する逆接用法であるが、叫んだのは逃げ終わったあ後では なく逃げている最中とも解釈可能である。
(11)[Arg1 逃げていき] ながらも、[Arg2「ひゃあ!」 と叫んだ。]
(421_aozora_Harada-1960)
典型的には「ながら」は同時進行と逆接のいずれかであるものの、「ながら」の時間性(同時か継起か)と表現主体の判断(順接か逆接か)はそれぞれ独立した軸であるため、それらの組み合わせの結果、(ア)「同時・順接」(イ)「同時・逆接」(ウ)「継起・順接」(エ)「継起・逆接」の4 パターンあるとの見方 [10] もある。今回のアノテーションにおいても、上記のような例が見つかることから、同時進行と逆接という二分類が単純な相互排他的な二つのカテゴリーではないということが窥える。
c. 対比逆接は対比の意味も伴っていることが多く、その二つを切り分けるのは容易ではない(2.3 節)。PDTB-3 においては CONCESSION と CONTRAST のラベル付けに関する判断基準が決められており、 CONCESSION でもあり CONTRAST でもある場合は、前者を優先してラベル付けすることになっている [14]。
今回のアノテーションにおいても、そのような逆接と対比の切り分けの難しさが窥えた。例えば、以下の例では $\Gamma P$ ならば $Q \perp$ というテンプレートに当てはめて前提を書き出すと (12a)のようになるが、 そもそも「おだてる」が本心から相手を尊敬して褒め称えるというよりは、何か下心があってことさらに褒めて相手をいい気分にさせるというニュアンスがあることから、前提は不自然に感じられる。
(12)「本土の人って、[Arg1 沖縄をおだて] ながら、 [Arg2 ほんとうはお人好しのバカだと思ってるでしょ]」(494_fiction_onna_to_senso) a. 沖縄をおだてるなら、大抵はほんとうはお人好しのバカだと思わない。
b.(表面的には)沖縄をおだて、ほんとうはお人好しのバカだと思っている。
これを純粋な対比であるとすれば、(12b)のよう
に「表面的には」vs.「ほんとうは」、「おだてる」vs.「お人好しのバカだと思っている」という二点において対立する対比の関係と見ることができる。
D. 累加最後に累加の例を挙げる。
(13)東北大大学院工学研究科の風間基樹教授 (地盤工学・地震工学)は「[ ${ }_{\text {Arg } 1}$ 行政が作る防災マップを参考にし]つつも、[Arg2 普段から地域の地形的特性を把握して、非常時の対策を考える必要がある]」と指摘する。
(27_news_KAHOKU_184;K201406140A0T10XX00001)
a. 行政が作る防災マップを参考にするなら、大抵は普段から地域の地形的特性を把握して、非常時の対策を考える必要がない。
b. 行政が作る防災マップを参考にして、そしてそれだけではなく普段から地域の地形的特性を把握して、非常時の対策を考える必要がある。
上記の例では、テンプレートに当てはめただけの前提 (13a) は不自然であり、(13b) のように累加の意味があると考えたほうが自然に解釈できる。
逆接と累加の関係については、例えば、英語の接続詞 butで接続された節の後件に累加的表現の $t o o$ が現れうることが知られており、tooの持つ前提がどのように but の表す前提や前件の意味と相互的に作用するのかについての研究がある [5]。今回のアノテーションでも、逆接と累加とが言語学的に興味深い関係を示す例が見られた。
## 5 おわりに
本研究では、前提される推論という観点から、談話関係が曖昧である「ながら」「つつ」という接続表現に着目し、逆接の談話関係アノテーションを行った。前提される推論を明示的に書き出すことで、逆接の談話関係とその用法の広がりが明らかになった。今後の課題としては、「が」「のに」など様々な逆接・譲歩の意味を伴う接続表現を対象としたアノテーションを行うことなどが考えられる。
## 謝辞
本研究は、JST CREST、JP-MJCR2114 の支援を受
けたものである。
## 参考文献
[1] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
[2] 岸本裕大, 村脇有吾, 河原大輔, 黒橋禎夫. 日本語談話関係解析:タスク設計・談話標識の自動認識・コー パスアノテーション. 自然言語処理, Vol. 27, No. 4, pp. 889-931, 2020.
[3] 衣畑智秀. 日本語の「逆接」の接続助詞について: 情報の質と処理単位を軸に. 日本語科学, Vol. 17, pp. 47-64, 2005 .
[4] Mitsuko Narita Izutsu. Contrast, concessive, and corrective: Toward a comprehensive study of opposition relations. Journal of Pragmatics, Vol. 40, pp. 646-675, 2008.
[5] Grégoire Winterstein. What but-sentences argue for: An argumentative analysis of but. Lingua, Vol. 122, No. 15, pp. 1864-1885, 2012.
[6] 野矢茂樹.「しかし」の論理. 言語, Vol. 32, No. 3, 2003.
[7] 坂原茂. 日常言語の推論. 東京大学出版会, 1985.
[8] 小泉保. 譲歩文について. 言語研究, Vol. 91, pp. 1-14, 1987.
[9] 日本語記述文法研究会. 現代日本語文法 6. くろしお出版, 2008.
[10] 村木新次郎. 語彙論と文法論と.ひつじ書房, 2019.
[11] Rashmi Prasad, Bonnie Webber, and Aravind Joshi. Reflections on the Penn Discourse Treebank, comparable corpora, and complementary annotation. Computational Linguistics, Vol. 40, No. 4, pp. 921-950, 2014.
[12] Bonnie Webber, Rashmi Prasad, Alan Lee, and Aravind Joshi. The Penn Discourse Treebank 3.0 annotation manual, 2019. University of Pennsylvania.
[13] Ed Kainoki. The Kainoki Treebank - a parsed corpus of contemporary Japanese, 2022. https://kainoki. gi thub. io (accessed September 2022).
[14] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
## 付録
Kainoki Treebank のツリーの例を以下に示す。
ID@Kainoki_185_essay_Hepburn_no_shoogai_to_nihongo2
女性が事務能力を発揮しつつ、一家の中心となって働くさまは、日本の少年少女たちを驚かせた。
図 1 Kainoki Treebank のツリーの例
各分類ラベルが付与された言語的特徴の統計情報を以下に示す。
表 2 アノテーション結果の言語的特徴
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D2-5.pdf | # Automatic Classification of Japanese Formality
Pin-Chen Wang ${ }^{1}$ Edison Marrese-Taylor ${ }^{1,2}$ Machel Reid $^{1,3}$ Yutaka Matsuo $^{1}$
${ }^{1}$ The University of Tokyo, ${ }^{2}$ AIST, ${ }^{3}$ Google Research
\{wangpinchen, emarrese, matsuo\}@weblab.t.u-tokyo.ac.jp
machelreid@google.com
## 概要
In this paper we propose a novel approach to automatically classify the level of formality in Japanese text, using three categories (formal, polite, and informal). We introduce new datasets that combine manually annotated sentences from existing resources, and a great number of formal sentences scrapped from the Japanese Congress. Based on our data, we propose a Transformer-based classification model for Japanese formality which obtains stateof-the-art results in benchmark datasets, as well as on our newly-introduced corpus, showing the effectiveness of our proposed approach.
## 1 Introduction
Formality or honorifics refers to the level of politeness and respect indicated by the contents, which is a core part of natural language as it indirectly shows how critical the current situation is, one's social rank and status, and also the relation of the people involved in that conversation or any written tasks. However, while many other major languages, including but not limited to English, French, and Mandarin Chinese emphasize formality through the use of standard grammar, more complicated sentence structures (active, passive, use of clauses, etc.), or more advanced and complex choice of vocabulary and phrases, as a society that respects and values etiquette, the Japanese language has its own formality system in order to create specified honorific expressions. This Japanese formality system or Keigo (敬語) is strict and follows a standard grammar format to convert all sentences from one style to another while maintaining the original meaning, word choice, and sentence structure.
Unlike English or other European languages, Japanese formality requires users to identify the status or the relationship with the interlocutor. Japanese honorifics indicate the level of social rank and the hierarchy of the interlocutor or the intimacy one is with that certain person [1]. The crucial point that makes the Japanese formality system stand out from many other major languages is that it allows the users to change the formality level of a sentence from informal to a superiorly high level by merely adjusting the tense of the verb [2]. Generally, Japanese formality can be divided into four different categories [2],
- Regular (jyotai, 常体): a form that is often used in but not limited to a daily conversation with only people one is familiar with or people who are in the equivalent social status.
- Polite (teineigo, 丁寧語): a form that is generally used throughout the whole Japanese society to create some distance between one another. Although this form does not indicate the amount of respect one holds toward others, it helps deliver messages in a polite way that will not be offensive on any occasion.
- Respectful (sonnkeigo, 尊敬語): a form that shows extensive respect, which is used to maximize the preeminence of the interlocutor.
- Humble (sonnkeigo, 謙譲語): a form that specifies humbleness, which is used by the Japanese speakers to minimize their own value in order to highlight the greatness of the interlocutor.
Although grammatically, all the sentences in Japanese can be converted from one formality class to another, the Japanese formality system follows the additional rule [2], where one can always mix the four forms together in one paragraph. The more respectful form one uses in a sentence or a paragraph, the more courtesy one states toward one's interlocutor. Similarly, the more humble form one uses, the more modest one is in the conversation. However, it is also emphasized that when containing too many formal terms in a sentence, the sentence will become annoying and
considered inappropriate regarding the Japanese social rule [2]. Nevertheless, the limitation of the number of formal terms that can be used in a single sentence is so vague that it is impossible to clearly draw a line. The restriction varies depending on the content, length of the sentence, and also the situation of the conversation.
Even if formality control has become a popular task in machine translation, the language models trained for generating appropriate formal sentences are mainly in English or other European languages [3]. To be more specific, although there are numerous English-Japanese parallel corpora for translation tasks as well as formality-classified datasets for some major languages (especially in English), we find a lack of existing resources related to Japanese formality. Moreover, we notice that as generative systems get better at producing sentences in Japanese, we lack mechanisms to automatically determine how well such models can do in terms of adequately generating sentences according to formality levels.
In light of this issue, in this paper, we focus on evaluating and developing resources to work toward a potential solution. We begin by uncovering several flaws, including broken pieces and mislabeling in existing corpora, and introduce a new dataset for Japanese formality that consists of manually labeled sentences (informal, polite, and formal) with examples gathered from some existing sources (IWSLT2022 Special Task on Formality Control for Spoken Language Translation [4] and KeiCO [5]) and also with data extracted from meeting minutes from different committees of the House of Representatives of Japan and the House of Councilors of Japan ${ }^{1)}$ from the year 1947 to 2022 . Then, based on our data, we proposed a Transformer-based classification model for Japanese formality which outperforms any existing classification model for Japanese formality. The models and the corpus are released in this repository ${ }^{2)}$.
## 2 Related Work
Communication by way of natural language often includes indicators for respect, sometimes shown via explicit controls for formality. Consequently, for the task of machine translation where the goal is to accurately translate an input sequence into a target language, Formality-Sensitive
1) https://kokkai.ndl.go.jp/\#/
2) https://github.com/gg21-aping/Japanese-Formality-Corpus
Machine Translation Model (FSMT) [6], which explicitly takes an expected level of formality as input was introduced as a form of control to make the formality levels consistent. Despite this, research on this task is still limited.
To the best of our knowledge, one of the existing corpora for Japanese formality (the annotated contrastive reference translation dataset) was released as a shared task on Formality Control for Spoken Language Translation announced by the International Conference on Spoken language Translation (IWSLT) in 2022 [4]. This dataset released 1,000 parallel English-Japanese sentences for training and 600 parallel sentences for testing. Another recent paper introduces a corpus only for Japanese formality, where 40 native Japanese volunteers were asked to regenerate and annotate new Japanese sentences based on 3,000 original sentences [5]. The KeiCO corpus contains 10,007 examples and consists of the four forms of the Japanese formality system.
Moreover, current studies rely on human assessment or simple models to verify the performance of formality control of a machine translation model. For example, the FSMT for English-French translation [6] conducted a human study in which they assigned translation pairs for human annotators. Neural Machine Translation (NMT) models for Japanese-English translation [7] and EnglishGerman translation [8] depends on rule-based classifiers where they list grammatical rules for the language and classify the input sentence by matching certain syntaxes. In addition, based on the two datasets mentioned above, a BERT-based classifier is proposed with the KeiCO corpus [5] and an XLM-R-based [9] classifier is created for measuring the performance of Pre-trained Multilingual Language Models [10].
## 3 Proposed Approach
We divide the Japanese language into three categories based on the four formality terms and their corresponding applied situations: (1) Informal (for regular tense), (2) Polite (for polite tense), and (3) Formal (for respectful and humble tenses) - we show examples in Appendix A.
## 3.1 Datasets
The size and quality of the datasets are vital requisites to maximize the performance of the machine learning models [11]. Therefore, this study uses datasets from three criteria,
(1) existing corpus, (2) existing corpus with reannotation, and (3) newly introduced corpus. For annotation for the datasets in (2) and (3), we asked 20 to 30 native Japanese (born and raised in Japan) with ages in the range of 20 to 30 years old to annotate the examples into three classes, informal, polite, and formal. All annotators are currently undergraduate or graduate students of the University of Tokyo, Japan. Furthermore, all the annotations are then doublechecked with the Japanese dictionaries by another 3 native Japanese who are also students of the University of Tokyo.
Therefore, we prepare two training sets and two testing sets for all models based on the following dataset mentioned in this section. TrainVI consists of 1,200 examples collected from ReIWSLT2022FC, DAILY, and KoKai with 426 informal sentences, 501 polite sentences, and 273 formal sentences, where testVI has 300 informal sentences, 330 polite sentences, and 370 formal sentences also collected from the same sources. TrainV2 consists of 3,500 examples with 1,200 examples from TrainV1 and another 2,300 examples from the KeiCO corpus, with 989, 1,138, and 1,373 sentences for informal, polite, and formal, respectively. test $V 2$ consists of 2,001 examples randomly seleceted from the KeiCO corpus, with 531, 503, and 967 sentences for informal, polite, and formal, respectively.
KeiCO [5] We randomly selected $20 \%$ of the examples from the original $\mathrm{KeiCO}$ corpus as a test set following the original paper [5] and sample 2,300 examples for training purposes.
ReIWSLT2022FC We reannotate a total of 1,000 examples from the dataset introduced by IWSLT for formality control in 2022 [4] as we realized that the Japanese content is considered not reliable. Some of them are broken sentences, and some of them do not carry an understandable Japanese meaning. Besides, the provided dataset is binary classified, which is not as accurate as this paper expected. Also, we discovered after careful reannotation that 44 out of 1,000 examples are mislabeled. After reannotation, 520 sentences are informal, 464 sentences are polite, and 12 sentences are formal.
DAILY In DAILY, this paper randomly collected Japanese sentences from Japanese news, novels, textbooks, business letters, academic documents, etc. The dataset carries well-balanced three classes with 65,67 , and 68 sentences for the informal, polite, and formal classes, respectively. This dataset provides us with a quick glance at how the formality system works in Japanese and helps make up the classification models in the beginning stage of this research.
KoKai Because of the lack of formal sentences in the early stage of the research, this paper has dedicated itself to finding extremely formal examples. As we noticed that politicians in Japan speak in a superior formal way, this paper collected all the meeting minutes from the Japanese Congress from 1947 to 2022. The sentences and phrases used in the committees are considered formal, or at least polite, with very little informal syntax. There are in total 64,630 sentences with 23,672 paragraphs, excluding 11,805 broken sentences which are mostly the names, dates, or titles of the committees or the list of participants. We also assume that the broken sentences and some of the informal sentences scrapped from the meeting minutes are likely to be interrupted sentences, unfinished sentences, or questions during the interpolation. In order to utilize the KoKai corpus, we randomly selected 1,360 examples of the entire 64,630 examples, and have the annotators give labels to the sentences. As a result, we have 137 informal examples, 760 polite examples, and 463 formal examples.
## 3.2 Models
This paper constructs a rule-based classifier for Japanese formality as the baseline of the study. Then, we built models based on algorithms of logistic regression, naive Bayes, and support vector machine (SVM). Also, as BERT [12] achieved excellent performance in many tasks, we also use our dataset to finetune the BERT base Japanese proposed by Tohoku University [13]. We used AdamW as the optimizer and set the learning rate to $1 \mathrm{e} 5$. While we use nagisa tokenizer [14] for the machine learning classifiers, the transformer model uses the IPA dictionary and tokenizes sequences by the MeCab morphological parser [15].
## 4 Experimental Setup
Since the performance of machine learning models highly depends on the contents of the training data [11], we questioned the results of the models, suspecting whether the model truly learns the terms of the Japanese formality, or whether the model merely learns to draw a line between the situation implied in the contents.
Therefore, we trained our model with two training sets and tested them on another two testing sets. Formal
sentences in TrainVl mainly come from the Japanese Congress, where contents are highly related to politics, education, military, economics, development, etc. On the other hand, formal sentences from TrainV2 consist of both political text and content from diverse situations. Then, we calculate F1 scores for each model to compare their performances. Besides, we also suspect that batch sizes and the number of epochs may affect the result of the performance. Therefore, for the transformer model, we would also like to try training it with different parameters. Lastly, in order to know whether the models truly work, we then compared the accuracy scores of our models with the performances of the Japanese formality classification models so far.
## 5 Results
Here, Transformer VI represents the transformer-based model which is trained on the training set TrainV1, while Transformer V2 is the transformer-based model trained on the training set TrainV2. This paper applies the setup of batch size $=16$ and epochs $=20$ for transformer-based models as this setup proposed a better performance compared to the others. Full results of the parameter studies are displayed in Appendix B. Almost all the models result in performance greater than the baseline, while the transformerbased model reaches an $\mathrm{F} 1$ score of 0.91 for test $\mathrm{Vl}$ and 0.81 for testV2. Results of the performance for all the models have been stated in Appendix C
## 5.1 Perfomance Comparison
To prove that our model is reliable, this thesis compares our performance results with existing Japanese formality classifiers. Table 1 displays the result of comparing the performances tested on the TEST set provided by IWSLT 2022 [4] between our model and the binary classifier tested on the TRAIN set used for pre-trained models [10]. To also convert our model from a multi-class model to a binary class model, we consider the polite class in our model to become formal. Furthermore, table 2 demonstrates the performance comparison between our model and the classifier based on the KeiCO corpus [5]. The F1 score of both models is calculated based on their performance on the test $V 2$. The table suggests that without feeding any examples from the KeiCO corpus to the model during the training process, Transformer $V 1$ is unable to handle sentences created in the $\mathrm{KeiCO}$ corpus. However, after feeding some ex-表 1 Comparison of the Performance of the Models testing on IWSLT test set. (The performance given by the original paper [10] is the performance on the TRAIN set.)
表 2 Comparison of the Performance of the Models testing on KeiCO test set. The "formal" column refers to the accuracy of the model to detect the formal term while the "level" column indicates the performance of detecting the level of honorifics.
amples (apart from the testing set) to the training process, Transformer V2 outperforms the KeiCO classifier with an F1 score of 0.810 over 0.727 .
## 6 Conclusions
Briefly, this paper introduces 2 new datasets (DAILY and KoKai) and a reannotated dataset (ReIWSLT2022) for Japanese formality. Also, we discovered some flaws in the existing dataset that results in unreliable performance. Based on our data, we then report results on mainly 5 models consisting of the knowledge base (rules), algorithms, and neural networks, namely, a rule-based model, logistic regression-based models, naive Bayes-based models, SVM-based models, and transformer-based models. These models carry a state-of-the-art performance that outperforms all the other existing classifiers.
In short, the lack of ability to recognize formal terms, the inaccurate choice of vocabulary and phrases to generate, and the doubtful usage of accurate sentence structure still make it perplexing to achieve the goal of translating appropriate natural languages. Therefore, in light of specifying obstacles in the Japanese formality system, this paper aims to provide detailed and critical instructions to guide further researchers in considering honorifics in Asian societies where etiquette is highly valued.
## 参考文献
[1] Atsushi Fukada and Noriko Asato. Universal politeness theory: application to the use of japanese honorifics. Journal of Pragmatics, Vol. 36, No. 11, pp. 1991-2002, 2004.
[2] 文化審議会. Instruction to japanese formality (敬語の指針). Technical report, Commissioner for Cultural Affairs, Japan, February 2007.
[3] Xing Niu and Marine Carpuat. Controlling neural machine translation formality with synthetic supervision. Aaai Conference On Artificial Intelligence, 2019.
[4] Maria Nădejde, Anna Currey, Benjamin Hsu, Xing Niu, Marcello Federico, and Georgiana Dinu. CoCoA-MT: A dataset and benchmark for Contrastive Controlled MT with application to formality. In Findings of the Association for Computational Linguistics: NAACL 2022, Seattle, USA, July 2022. Association for Computational Linguistics.
[5] Muxuan Liu and Ichiro Kobayashi. Construction and validation of a Japanese honorific corpus based on systemic functional linguistics. In Proceedings of the Workshop on Dataset Creation for Lower-Resourced Languages within the 13th Language Resources and Evaluation Conference, pp. 19-26, Marseille, France, June 2022. European Language Resources Association.
[6] Xing Niu, Marianna Martindale, and Marine Carpuat. A study of style in machine translation: Controlling the formality of machine translation output. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2814-2819, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[7] Weston Feely, Eva Hasler, and Adrià de Gispert. Controlling Japanese honorifics in English-to-Japanese neural machine translation. In Proceedings of the 6th Workshop on Asian Translation, pp. 45-53, Hong Kong, China, November 2019. Association for Computational Linguistics.
[8] Rico Sennrich, Barry Haddow, and Alexandra Birch. Controlling politeness in neural machine translation via side constraints. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 35-40, San Diego, California, June 2016. Association for Computational Linguistics.
[9] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco GuzmÄA ${ }_{i}$, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. arXiv preprint arXiv: Arxiv-1911.02116, 2019.
[10] Elijah Rippeth, Sweta Agrawal, and Marine Carpuat. Controlling translation formality using pre-trained multilingual language models. In Proceedings of the 19th International Conference on Spoken Language TransIation (IWSLT 2022), pp.327-340, Dublin, Ireland (inperson and online), May 2022. Association for Computa- tional Linguistics.
[11] Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar. Foundations of Machine Learning. Adaptive Computation and Machine Learning. MIT Press, Cambridge, MA, 2 edition, 2018.
[12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019.
[13] Tohoku University,. Bert base japanese. https:// huggingface.co/cl-tohoku/bert-base-japanese, 2019.
[14] 池田大志. nagisa: Rnnによる日本語単語分割・品詞タグ付けツール. https://qiita.com/taishi-i/items/ 5b9275a606b392f7f58e, 2018.
[15] Takumitsu Kudo. Mecab : Yet another part-of-speech and morphological analyzer. 2005.
## A Classification Classes
For example, given an original English sentence " $I$ would like to inquire about the schedule of the final exam. We had this conversation earlier that the schedule for my thesis defense overlapped with the exam. I would like to know if there is a possibility that I can take the exam one week after the official exam date.", “期末試験の日程を聞きたい。修論発表の日程が試験と被っている話を前したのだが、正式な試験日の一週間後に受ける形で対応してもらいたい。よろしく。” is considered informal, “期末試験の日程について聞きたいです。修論発表の日程が試験と被っている件について以前話したのですが、正式な試験日の一週間後に受験するという形で対応してもらえますか。よろしくお願いします。” is considered polite, and “期末試験の日程について伺いたいことがございます。修論発表の日程が試験と被っている件について以前お話しさせていただいたのですが、正式な試験日の一週間後に受験させていただくという形で対応していただくことは可能でしょうか。ご検討よろしくお願いいたします。” is considered formal. Colored phrases refer to the tense of the verb for the different categories.
## B Hyper-Parameter Tuning
表 3 Performance on Transformer V1 with different batches and epochs.
& $\mathbf{0 . 9 5}$ & $\mathbf{0 . 8 9}$ & $\mathbf{0 . 8 7}$ & $\mathbf{0 . 9 0}$ \\
In the case of finding out if adjusting parameters affect the performance result on our dataset when finetuning the transformer-based model, different parameters were fed when training Transformer V1. Table 3 shows the results on the performance of models with different batch sizes and epochs. The size of the training set might be a core factor that results in such F1 scores for each setup. However, a simple hypothesis can be made that compared to polite and formal sentences, it is considerably easier for a model to recognize the informal tense of the Japanese language compared to other honorific levels.
表 4 Performance on all models trained by different versions of the training set.
## C Different Models
Table 4 displays the accuracy achieved by each model with different training sets and being tested with different testing sets. The results demonstrate that overall, all models perform better than the baseline model. However, the average F1 scores on different testing set significantly diverge, for test $\mathrm{VI}$, the $\mathrm{F} 1$ scores moderately increase when TrainV2 is used. When it comes to testV2, the accuracy scores remarkably rocket when training on TrainV2. Recall that almost all the formal sentences in TrainVl come from the Japanese Congress, formal examples are highly politics-related. Hence, this thesis makes the assumption that Transformer VI learns how to determine whether a given input is of a formal content rather than with a formal Japanese term. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-1.pdf | # 言語モデルの第二言語獲得
大羽未悠 ${ }^{1}$ 栗林樹生 ${ }^{2,3}$ 大内啓樹 1,4 渡辺太郎 1
}
1 奈良先端科学技術大学院大学 ${ }^{2}$ 東北大学 ${ }^{3}$ Langsmith 株式会社 4 理化学研究所
\{oba.miyu.ol2, hiroki.ouchi, taro\}@is.naist.jp
tatsuki.kuribayashi.e8@tohoku.ac.jp
## 概要
言語モデルの成功を踏まえ,モデルの第一言語 (L1)獲得について,人間の言語獲得を踏まえた分析が行われている. 本研究では第二言語 (L2) 獲得にスコープを広げた調査を行う,単言語の事前学習済みモデルを L1 話者と見立て,L2コーパスを用いた言語間の転移学習により言語転移をシミュレートし,モデルの文法能力について明らかにする. 実験では, L1 やその提示方法の違いによって, 第二言語の文法獲得が異なる影響を受けることを観察した。
## 1 はじめに
近年,言語モデルの言語転移能力に高い関心が寄せられている。例えば超大規模な英語の言語モデルは,学習データに少量しか存在しない英語以外の言語においても,ある程度知的な振る舞いを示しており, 英語から他言語へ効率的に言語転移していることを示唆している $[1,2]$. このような言語モデルの言語転移能力について, 既存研究では, パープレキシティなどの抽象度の高い指標や応用タスクでの性能に基ついいた調査, 特定の学習済み超多言語モデルを対象とした分析などが行われてきた $[3,4,5]$. 一方で,文法知識の獲得・転移や,言語ごとの転移傾向の違いといった言語学的な観点からの統制された分析は限られている.
本研究では,言語モデルの言語転移について,第一言語での学習が第二言語の文法獲得にどのように影響するかを言語横断的に調査する. 具体的には,類型や学習難易度の異なる 4 つの言語(第一言語; L1)を用いて各言語モデルを事前学習した後に,第二言語(英語; L2)を用いて追加の学習を行う. 最後に,モデルの L2 の文法能力に関して文法性判断ベンチマークを用いて分析する.
自然言語処理的な視点からは, 言語モデルの言語獲得・転移能力について洞察を深める試みと見るこ
L1がL2の文法獲得に影響を与えるか?
図 1 実験手順. 初めに,第一言語(L1)を用いて単言語の穴埋め言語モデリングを学習する (L1 獲得). 次に L1 とL2を両方用いて既存研究に従った穴埋め言語モデリングを学習する(L2 獲得) [6]. 最後に,文法性判断ベンチマーク BLiMP を用いてモデルの文法能力を評価し,L1 が L2 獲得にどのように影響するか調査する。
とができ,計算心理言語学的な視点からは,母語干渉についてシミュレーション的な検証をしているとみなせる.後者について,人間を直接観察する方法とは相補的な長所がある。例えばあらゆる言語対について,それらを $\mathrm{L} 1 \cdot \mathrm{L} 2$ とする人間を集め,彼らの言語能力について統制的に分析をすることには限界があるが,言語モデルでは言語対を増やす・学習の規模を揃えるといった統制・分析が容易に行える。
まず事前実験にて,追学習における L2 の提示方法を比較し,L2 の文法獲得に適した学習設定を調査する.その後, 本実験では, L1を用いた事前学習が L2 の文法獲得に及ぼす影響について,言語の異なりや文法項目の観点から分析する.
実験結果から,人間の言語学習における英語との乘離が小さい言語での事前学習の方が,英語のモデルの文法獲得に良い影響をもたらす傾向や,特定の言語や文法項目については負の転移を引き起こす場
合があることを確認した.例えば,L2 に特有の文
表 $1 \mathrm{~L} 1$ ・L2として実験で用いる言語の性質. FSI は FSI カテゴリを示し, 值が大きいほど言語学習において英語との乘離が大きいと想定している。IE はインド・ヨー ロッパ語族を,N-IE はそれ以外の語族を指す。
& & 文字 & FSI \\
法項目については,L1での事前学習の効果が低く,時に悪影響を与えることが観察された。
また,人間の L2 習得に準えるといくつか直感に反する観察も得られ,必ずしも人間の L2 獲得のアナロジーが通用しないことが示唆された. 例えば,言語モデルの L2 の学習時に, L1 と L2 の対訳を提示する設定では,対訳関係を崩したぺアを提示する設定よりも,L2 の文法獲得効果が低いことが示された. 対訳が提示される場合,語彙的な対応関係を根拠に言語モデリング問題を解けることも多く,この学習負荷の低さが L2 文法獲得効果を下げている可能性がある。一方,人間の言語学習シナリオを踏まえると,母語との対応関係を提示しないほうが L2 文法獲得が促されるというのは直感とは相違する.
## 2 実験手順
実験手順を図 1 に示す.まず L1 獲得を想定し,言語モデルを L1 の単言語コーパスで事前学習する。次に,L2 獲得を想定し,事前学習済みモデルを L2 (英語)を含むコーパスで追学習する. 最終的に,言語モデルの文法性判断ベンチマーク(BLiMP)[7]を用いて,L2 におけるモデルの文法能力を評価する. この大枠を基に, L2 学習時の設定の違いや, L1 の異なり,L1 による事前学習の有無などが,L2 の文法獲得に及ぼす影響について実験を行う(3,4 節)。
L2 には英語を使用し,L1 はフランス語,ドイツ語,ロシア語,日本語の 4 言語を調査対象とする(表 1)。これら 4 言語は,アメリカ外交官養成局が報告する英語母語話者にとっての習得難易度 (FSI カテゴリ)の観点で異なり,設定の多様性の観点から,各カテゴリにつき 1 言語ずつ採用している. ${ }^{1)}$ フランス語, ドイツ語, ロシア語, 日本語の
順で習得が難しくなる。また,既存研究に従い [6], Transformer ベースの双方向言語モデルを採用し,八イパーパラメータを定めた(付録参照;表 4)。
## 2.1 L1 獲得
マスク穴埋め言語モデリング(MLM; Masked Language Modeling)[6,8]で学習を行う. 各言語について,CC-100 からサンプルしたおよそ 100M 語の単言語コーパスを用いた $[9,10]$. 人間の言語獲得に準え,人間がおよそ 10 歳までに読む単語数 $(100 \mathrm{M}$語)と規模を揃えている.
## 2.2 L2 獲得
多言語を扱うモデルの既存研究 [6] を参考に,L1 と L2 のコーパスを両方用いる設定を想定する. MLM に加え, TLM(Translation Language Model)も使用する.事前実験(3節)では,MLM や TLM を用いた学習設定の文法獲得への影響を調査する。
コーパスとして, Tatoeba ${ }^{2)}$ の仏英,独英,露英,日英ペアを使用する。Tatoeba は外国語学習者向けの例文とその翻訳からなる多言語対訳コーパスである. 各言語ぺアのうち最も文数が少ない言語ぺアに合わせて 211,714 ペアを用いた。
## 2.3 評価
モデルの文法能力を測定するデータセットとして BLiMP [7]を用いる.BLiMP は英語の文法能力を評価対象とし,文法項目ごとに 12 の中分類,67 の小分類からなる. 小分類ごとに文法的に容認可能な文と不可能な文のペアが 1000 ペアずつ含まれており,本研究では中分類(以降は文法項目と記す)ごとのスコアとそれらのマクロ平均を報告する.以下は 「照応の一致」という項目のぺアの例である。(1a) は容認可能な文であるが,(1b)は herself の参照先が存在せず容認不可能な文である.
(1a) Many teenagers were helping themselves.
(1b)* Many teenagers were helping herself.
各文の単語を 1 単語ずつマスクして言語モデルに入力し, 各単語の確率の相乗平均を求め, 容認可能な文と不可能な文のペア全体のうち,前者に高い確率が付与されたぺアの割合を計算することで文法性判断スコアを得る.
して転移元・先の対称性を一旦仮定し,該当言語から英語への転移の難しさの議論に持ち出している.
2) https://opus.nlpl.eu/Tatoeba.php
表 2 L2 の学習設定の異なりが文法能力の獲得に及ぼす影響.值は文法性判断スコアを示す。対訳の、は,対訳関係のあるコーパスを用いたことを示す。切替における $\checkmark$ は,L1 側の文を使用するか否かをエポックごとに切り替えて入力したことを表す。
## 3 事前実験: L2 の提示方法
初めに,L2 の学習設定による帰納バイアスを調查する. 既存研究では, 多言語モデルの学習時に対訳を入力しているが,この設定が文法性判断能力の獲得に与える影響を事前に確認する.具体的には,追学習時に,対訳を入力する設定(TLM のみ [6]),対訳関係を崩して入力する設定(MLM のみ $[6,8]$ ), L2 の文に対し,対訳関係のある L1 の文を連結する・しないをエポックごとに切り替えて,TLM と MLM を組み合わせる設定(MLM+TLM)の3つを試す.実験設定の詳細は付録 A に記す。
対訳関係の有無の比較(表 2, 1 行目と 2 行目の比較)から,TLM のみの設定では MLM のみの設定時よりも L2 の文法獲得の効果が低いことがわかった.TLM の学習では,対訳関係を使用できるため, ソース言語のマスクした単語に紐づくターゲット言語の単語の訳を出力するだけで問題が解ける場合も多い。一方,MLM の学習では,対訳関係を使用できないので,より高負荷な問題を解かせていることに相当し,L2 の文法的理解を促した可能性がある.
また,MLM+TLM設定においてモデルの文法獲得が最も促された. MLM とTLMが相補的に良い影響を与えた可能性のほか,L2 の文法能力を評価する際は L2 の文を単体で入力しており,学習時にも L2 の文が単体で入力される設定を採用することで,学習と推論の設定の乘離を縮められた可能性がある.以降の実験では,MLM+TLM の設定を採用する。
## 4 実験: L1 の影響
事前学習で用いた L1 の違いがモデルの L2 獲得に与える影響を調査する. 各L1の単言語コーパスを用いた事前学習を行うか否かで文法能力を比較する. 追学習終了時の文法能力を表 3 に示す.全ての言語に見られる傾向: 表 3 はL1の事前学習が L2 の文法獲得に与える傾向を示している,各文法項目におけるスコアのマクロ平均 OVERALL の事前学習の有無によるスコア差 $\Delta$ から, 4 言語全てにおいて,L1 での事前学習により文法能力が向上していることがわかる。言語間で差はあるが,L1 での事前学習は L2 の文法獲得に好影響を促すことが示唆された。
各文法項目におけるスコアの変化に着目すると, IRR. FORM(動詞の不規則活用)については,相対的に事前学習が悪影響を及ぼしていることが分かる. IRR. FORM では,例えば以下の(6a)は容認可能な文で,(6b)は容認不可能な文となる.
(6a) The forgotten newspaper article was bad.
(6b)* The forgot newspaper article was bad.
この例では動詞 “forget”の過去分詞形が “forgotten”であることなどが問われている. 正しい判断のためには英語固有の動詞の活用を覚える必要があり, 英語以外の言語での事前学習が良い影響を与えないという結果は直観的であると言える。なぜドイツ語の設定においてより強い悪影響が観察されたかに関しては,今後の分析課題としたい.
言語の異なりがもたらす傾向: 表 3 の各文法項目におけるスコアのマクロ平均 OVERALLを言語間で比較すると,フランス語が最も高く,ドイツ語が僅差で続き,日本語,ロシア語はこれら 2 言語とは大きく差が開いている. フランス語とドイツ語での事前学習は, 日本語とロシア語よりもはるかに英語の文法獲得に効果的であることがわかった. このような結果は,言語間の文字体系(表 1 を参照)の類似と関わる可能性がある。また,表 1 の FSIを参照すると,人間の習得はフランス語,ドイツ語,ロシア語, 日本語の順に難しくなることから, FSI の傾向がある程度は言語モデルでも観察された. L1 における L2 習得の難しさは,言語モデルと人間でおおよそ類似していることが示唆される。
文法項目ごとのスコアから, L1 ごとに得意・不得意な文法項目が異なることが分かる。例えば,フィラー・ギャップ依存関係 (FILLER-GAP) では, 同じ SOV 語順の言語間でも,ドイツ語と日本語モデルで 3.7 ポイントの差が生じており,言語現象の類似・相違性と一貫している. フィラー・ギャップ依存関係は,例えば以下の(2a)は容認可能な文で(2b)
表 3 L1 の事前学習や言語の異なりが L2 の文法獲得に与える傾向. OVERALL は各文法項目のスコアのマクロ平均を表す.L1の、は,L1の単言語コーパスを用いて事前学習したことを示す. $\Delta$ は事前学習の有無によるスコア差である.値が大きいほど,事前学習が文法獲得に対してより良い影響を与えたことを示す.
は容認不可能な文といった判断を課す問題設定に対応している.
(2a) Joel discovered the vase that Patricia took.
(2b)* Joel discovered what Patricia took the vase.
例えば,(3a)から(3b)のように格要素を移動して従属節を作る際,英語ではギャップ(移動前の位置,記号「_-_の箇所)がフィラー(移動先,[the student])の後ろに位置することが多い.
(3a) The teacher advised [the student].
(3b) [The student] the teacher advised .-- were smart. ドイツ語でも同様の位置関係になるが,日本語では (4a-b)のように逆となる.
(4a)先生が [学生に] アドバイスした.
(4b)先生が__-アドバイスした [学生は] 賢かった. このように, 日本語-英語間で各要素の移動先に違いがあり, 日本語で事前学習したモデルが英語のフィラー・ギャップ依存関係の学習に苦戦する理由のひとつになっていると考えられる。
## 5 関連研究
「ニューラルモデルはテキストデータのみから人間の言語獲得を模倣できるのか」. この問いに取り組んだ研究は 1980 年台に始まり, 先天的な知識なしに言語獲得は可能かという問いや,コネクショニズムの可能性・限界の観点から,議論が繰り広げられてきた $[11,12]$. 当初は簡易的なニューラルモデルを用いて議論が広げられたが,近年ニューラルモデルを用いた自然言語処理が目覚ましい進展を遂げ [13],ニューラルネットワーク黎明期に認知科学分野が掲げた問いへ再訪する動きが高まっている $[14,15]$. 近年盛んに行われているニューラルモデルの言語知識の分析(プロービング)は,そのような一連の議論の延長線上にある $[16,17]$. 既存研究では L1 の獲得に注目が置かれてきたが,本研究ではニューラル言語モデルの第二言語獲得の傾向を分析しており,多言語モデリングという工学的道具立ての性質の理解と共に, 人間の言語転移・第二言語獲得における母語干渉などへの計算機的なアプローチを見据えている.
言語転移については, 言語間の転移学習により構文知識や文法誤り知識を転移することで,構文解析 [18] や文法誤り訂正 [19] などの下流タスクに活用する研究がなされている. 人工言語を用いた言語転移の研究も行われてきており,楽譜や括弧からなる系列といった言語以外の系列からの転移や $[3,20]$,自然言語を規則的に編集することで得られた言語からの転移なども分析されている [4]. 本研究は,より人間の学習に条件を近づけた設定で,言語モデルのL1のL2への影響やその過程を調査し,言語間の転移能力について分析している.
## 6 おわりに
本研究では,言語モデルの言語転移について,第二言語における文法獲得への影響という観点から調査を行った. その結果として, L1 は L2 の文法獲得に対し全体的には好影響を与えるが,言語や文法項目に依存し,負の転移を引き起こす場合もあることがわかった. 今回得られた結果に対する言語学的観点からの考察の充実化や,より多くの言語を用いた検証を今後の課題としたい.
## 謝辞
本研究は JSPS 科研費 JP19K20351 の助成を受けたものです.
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[2] Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, et al. Language models are multilingual chainof-thought reasoners. arXiv preprint arXiv:2210.03057, 2022.
[3] Isabel Papadimitriou and Dan Jurafsky. Learning Music Helps You Read: Using transfer to study linguistic structure in language models. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6829-6839, Online, November 2020. Association for Computational Linguistics.
[4] Ameet Deshpande, Partha Talukdar, and Karthik Narasimhan. When is BERT multilingual? isolating crucial ingredients for cross-lingual transfer. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3610-3623, Seattle, United States, July 2022. Association for Computational Linguistics.
[5] Terra Blevins, Hila Gonen, and Luke Zettlemoyer. Analyzing the mono- and cross-lingual pretraining dynamics of multilingual language models. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 3575-3590, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics.
[6] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019.
[7] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R. Bowman. BLiMP: The benchmark of linguistic minimal pairs for English. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, 2020.
[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[9] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for
Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics.
[10] Guillaume Wenzek. Ccnet: Extracting high quality monolingual datasets from web crawl data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 40034012, Marseille, France, May 2020. European Language Resources Association.
[11] David E Rumelhart and James L McClelland. On learning the past tenses of english verbs. In Parallel distributed processing: Explorations in the microstructure of cognition, pp. 216-271. MIT Press, Cambridge, MA, 1986.
[12] Steven Pinker and Alan Prince. On language and connectionism: Analysis of a parallel distributed processing model of language acquisition. Cognition, Vol. 28, No. 1, pp. 73-193, 1988.
[13] Christopher D. Manning. Last words: Computational linguistics and deep learning. Computational Linguistics, Vol. 41, No. 4, pp. 701-707, December 2015.
[14] Christo Kirov and Ryan Cotterell. Recurrent neural networks in linguistic theory: Revisiting pinker and prince (1988) and the past tense debate. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 651-665, 2018.
[15] R Thomas McCoy, Robert Frank, and Tal Linzen. Revisiting the poverty of the stimulus: hierarchical generalization without a hierarchical bias in recurrent neural networks. In In Proceedings of the 40th Annual Conference of theCognitiveScienceSociety, pp. 2093-2098, Madison, WI, 2018.
[16] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016.
[17] Alex Warstadt and Samuel R. Bowman. Can neural networks acquire a structural bias from raw linguistic data? In In Proceedings of the 42nd Annual Meeting of the Cognitive Science Society, 2020 .
[18] Wasi Ahmad, Haoran Li, Kai-Wei Chang, and Yashar Mehdad. Syntax-augmented multilingual BERT for cross-lingual transfer. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4538-4554, Online, August 2021. Association for Computational Linguistics.
[19] Ikumi Yamashita, Masahiro Kaneko, Masato Mita, Satoru Katsumata, Imankulova Aizhan, and Mamoru Komachi. Grammatical error correction with pre-trained model and multilingual learner corpus for cross-lingual transfer learning. Natural Language Processing, Vol. 29, No. 2, pp. 314-343, 2022.
[20] Ryokan Ri and Yoshimasa Tsuruoka. Pretraining with artificial language: Studying transferable knowledge in language models. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7302-7315, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[21] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics.
[22] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5523-5539, Online, July 2020. Association for Computational Linguistics.
表 4 ハイパーパラメータ
## A 実験設定
L1 獲得トークナイザとして日本語は kytea3)を,フランス語とドイツ語とロシア語は mosesdecoder [21] を使用し, fastBPE ${ }^{4}$ でサブワード分割を行った. 語彙数は 14,000 を設定した。ハイパーパラメータは表4 記載している。
L2 獲得3 節の TLM は対訳コーパスをそのまま用いた対訳関係のある設定,MLM はコーパスの片方の言語をシャッフルして対訳関係を崩した設定,MLM+TLM は L2 側の文へ対訳関係のある L1 側の文を連結する・しないをエポックごとに切り替える設定である。これらのモデルの MLM は, Conneau ら [6] の提案モデルを使用している (図 2 上部),言語埋め込みを使用し,入力文を全て連結し 256 トークンごとに切断した文を入力する. ただし 2 文を用いた設定の場合は文対を入力する.TLM は Conneau らが提案した MLM の一種である (図 2 下部). MLM とは入力の際に対訳関係のある 2 文を連結する点で異なる. 単言語コーパスを用いたモデルの BPE の学習コードと語彙は, 単言語コーパスで使用したものに対訳コーパスの英語のものを追加し,重複したトークンや語彙を除く方法で作成した. 用いていないモデルでは,対訳コーパスの両方の言語から BPE の学習コードと語彙を作成した. 埋め込み層を語彙数方向に増やしたことに伴い,最終層の重み・バイアスも増やしている。サブワー ド分割のためのトークナイザは,英語は mosesdecoder [21] を使用し,他の言語は事前学習と同じ設定である. ランダムシードを 3 つ用いて,スコアはその平均を計算した。
図 2 conneau らの提案モデル
図 $3 \mathrm{~L} 2$ 学習中の各エポックにおける文法能力(抜粋)
図4 L2 学習中の各エポックにおける L1 の文法能力
## B 学習過程の分析
## B. 1 L2 の文法獲得過程
L2 学習の過程を分析するため, 追学習時の各エポックにおける文法能力を評価(図 3)した. ${ }^{5}$ OVERALL から,学習を重ねることによりおおむね文法能力が向上することが示唆される.L1 の異なりの影響について,例えば IRREGULAR(動詞の不規則活用)では,追学習初期段階では L1 ごとに性能が大きく異なるが,L2 の継続的な学習によりそれらの差異は縮まっている。一方で,BINDING (束縛)のように,どの言語もスコアが横ばいまたは低下傾向のある項目も存在する。
## B. 2 L2 の文法獲得の L1 への影響
L2 文法の獲得時における L1 の文法能力の変化について調査を行う. L2 学習時の B. 1 節と同様のエポックにおけるL1(フランス語,ドイツ語,ロシア語)の文法能力を評価した (図 4 上部). 文法能力を測るために, CLAMS [22] という多言語の文法能力評価データセットを用いる.L2を含む追学習をおこなった場合,フランス, ドイツ語では一時的に好影響,ロシア語では悪影響を受けた,どの言語も文法能力が減少する傾向にある。
アブレーションとして,L1のみで追学習を行う実験も試した (図 4 下部). 全体の傾向として,スコアはある程度向上した後に横ばいとなる。
これらの傾向は,学習の後半では L2 の学習による L1 の忘却の発生を示唆している. 正則化項の設計などの忘却を緩和するような方法の考案は今後の課題となる。
5) エポック数 $1,2,3,4,5,10,20,30,40,50,100$ の場合をそれぞれ評価した。
3) http://www. phontron.com/kytea/
4) https://github.com/glample/fastBPE | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-2.pdf | # 範疇文法導出を用いた創発言語の構成性の評価
1 東京大学 2 フリー
\{ryoryoueda, taigarana, yusuke\}@is.s.u-tokyo.ac.jp kkwashio3333@gmail.com
## 概要
本稿では、範疇文法導出 (CGI)を用いて、創発言語の構成性を測る方法を提案する。創発言語は、シミュレーション上でエージェント間で発生するコミュニケーションプロトコルであり、その構造的性質は重要な研究テーマである。しかし、文法構造や文法と意味との体系的な関係 (非自明な構成性) についてはあまり研究されていない。NLP 分野における CGI に関する先行研究から着想を得て、我々は創発言語に CGIを適用し、更にそれに基づいた構成性の評価を試みる。CGI は、文と意味のペアのデータセットに対して、範疇文法と意味解析器を導出するアルゴリズムである。実験により、CGI に基づく指標が実際に構成性を測定できることが示唆された。
## 1 はじめに
ある現象の仕組みを解明したいとき、現象そのものを観察する標準的な方法の他に、その現象の模倣物を作ることで間接的な解明を試みる構成論的アプローチがあり得る。創発言語 (創発コミュニケーション) [1] は、シミュレーション上のエー ジェント間で生じるコミュニケーションプロトコル、又はそれを対象とする研究分野を指し、NLP ・計算言語学分野における構成論的アプローチといえる。近年では、深層学習や強化学習の恩恵を受け再び注目を集めつつある。創発言語と自然言語の間には、しばしば構造上の乘離が指摘されており、創発言語の構造理解や自然言語とのギャップの解消が重要な課題である $[2,3]$ 。特に、構成性原理の観点から創発言語の構造を評価することが重要視され、構成性の度合いを測る指標も提案されている。 ここで、構成性とは「単純な意味が組み合わさることによって複雑な意味が構成される」という自然言語の性質である。創発言語の構成性を測る指標としては、例えば Topograhic Similarity (TopSim) [4, 5] や
Tree Reconstruction Error (TRE) [6] などがある。しかしながら、既存の構成性評価指標の殆どは、創発言語に平坦な構造を暗に仮定している。即ち、構成的な創発言語とは、あくまで平坦な単語の羅列に過ぎず、文法構造のような階層的な構造をもつわけではないと仮定してしまっている。創発言語分野においては、平坦な構成性は自明な構成性、階層的な構成性は非自明な構成性と呼ばれる [7]。
本稿では、創発言語の非自明な構成性を評価することを目標とする。NLP 分野における範疇文法導出 (CGI) [8] の先行研究から着想を得た我々は、創発言語に CGIを適用し、これに基づく新たな構成性指標を提案する。CGI は、文と論理式のペアから成る (自然言語の) データセットに対して、範疇文法と意味解析器を導出するアルゴリズムである。言語創発分野の標準的な設定である Lewis シグナリングゲー ム [9] では、創発言語はメッセージと意味のペアからなる集合として定義されるため、CGI アルゴリズムをそのまま適用できる。また、CGIには構成性の度合いを測るのに役立つ良い性質がある。例えば、意味解析における $\mathrm{F}$ スコアや範疇文法の語彙サイズなどが挙げられ、それぞれ CGF C CGL という名前の評価指標として提案する。実験の結果、我々の提案指標は既存の代表的な構成性指標と有意な相関を示し、実際に構成性指標として機能していることが示唆された。他方で、いくつかの具体例から伺えるように、我々の指標は創発言語の文法構造 (非自明な構成性) についてょり深い洞察を与えることができるものである。より複雑な設定における創発言語を対象に CGIを適用し、提案指標の有用性を明確にしていくのが今後の課題である。
## 2 背景: 創発言語
言語の創発をシミュレーションするためには、 エージェントを取り巻く環境を定義する必要がある。当分野では、Lewis シグナリングゲーム [9] あるいはその派生形が頻繁に用いられる。
## 2.1 環境設定: シグナリングゲーム
シグナリングゲームには、送信者 $S$ と受信者 $R$ と呼ばれる 2 人のエージェントのみが登場し、 $S$ から $R への一$ 方向通信のみが許される。各プレイにおいて、 $S$ は大力 $i$ を 1 つ受け取り、メッセージ $m$ に変換する。続いて $m$ を受け取った $R$ は、元の $i$ が何であったかを推測する。この推測が当たっていればゲームは成功である。より形式的には、以下のように表せる。シグナリングゲームとは、(有限の) 入力集合 $I$ 、(有限の) メッセージ集合 $\mathcal{M}$ 、送信者 $S: \mathcal{I} \rightarrow \mathcal{M}$ 、受信者 $R: \mathcal{M} \rightarrow I$ から成る 4 つ組 $(I, \mathcal{M}, S, R)$ であり、ゲームの目標は全ての $i \in I$ について $i=R(S(i))$ を成り立たせることである。 $S, R$ は殆どの場合ニューラルネットワークで表現され、最適化の対象となる。I は画像データから抽象的な人工データまで様々あり得る。从はしばしば固定長離散系列の集合として表現される:
$
\mathcal{M}:=\left.\{a_{1} \cdots a_{L} \mid a_{i} \in \mathcal{A}\right.\}
$
ここで $\mathcal{A}$ は有限アルファベット、 $L$ は長さである。
## 2.2 創発言語の構成性指標: TopSim
創発言語と自然言語の類似や乘離を考える上で、構成性は特に重要視されている性質である。これまでに創発言語の構成性を測るための指標がいくつか提案されてきた。ここでは最も代表的な指標である Topographic Similarity (TopSim) [4, 5] を紹介する。
$(\mathcal{I}, \mathcal{M}, S, R)$ をシグナリングゲームとする。便宜上各 $i, j \in \mathcal{I}$ には順序 $i<j$ が定まっているとする。 さらに、入力集合 $I$ とメッセージ集合 $\mathcal{M}$ には、それぞれ距離 $d_{I}: \mathcal{I} \times \mathcal{I} \rightarrow \mathbb{R}_{\geq 0}, d_{\mathcal{M}}: \mathcal{M} \times \mathcal{M} \rightarrow \mathbb{R}_{\geq 0}$ が定まっているとする。このとき、TopSim は以下の (多重) 集合上のスピアマン相関係数として定義される:
$
\left.\{\left(d_{\mathcal{I}}(i, j), d_{\mathcal{M}}(S(i), S(j))\right) \mid i, j \in \mathcal{I}, i<j\right.\} .
$
TopSim の直感はこうである:もし (創発) 言語が構成的ならば、相異なる 2 つの意味 $i, j$ が類似していれば対応するメッセージ $S(i), S(j)$ も類似しているはずであるし、意味が類似していなければ対応するメッセージも類似していないはずである。
## 3 背景: 範疇文法導出
本稿で用いる文法形式は範疇文法 (CG) $[10,11,12]$ と呼ばれるものである。CG は語彙化文法の一種で
あり、語彙項目と順・逆適用規則と呼ばれる最小限の文法規則によって文法構造を説明できるという仮定の下に成り立っている点に特徵がある。
## 3.1 文法形式: 範疇文法
語彙項目とは、単語 $w$ ・カテゴリ $X$ ・論理式 $\psi$ から成る 3 つ組 $w \vdash X: \psi$ である。カテゴリは構文の型を表す概念であり、原始的なカテゴリ $\mathrm{N}, \mathrm{S} 、$ あるいは $X, Y$ をカテゴリとして複合的なカテゴリ $X / Y, X \backslash Y$ のいずれかの形を取る。文脈自由文法における非終端記号に対応するような概念である。ここで、Nは名詞、Sは文に対応する構文型である。1)順・逆適用規則は以下のように定義される:
$
\begin{array}{lll}
X / Y: f \quad Y: a & \Rightarrow & X: f(a) \\
Y: a \quad X \backslash Y: f & \Rightarrow \quad X: f(a)
\end{array}
$
一例として以下の文と論理式の組について考える:
"John likes Mary" \& LIKE(MARY, JOHN)
これに対応する語彙項目は以下のように表せる:
John $\vdash \mathrm{N}:$ JOHN, Mary $\vdash \mathrm{N}$ : MARY,
& \\
likes $\vdash \mathrm{S} \backslash \mathrm{N} / \mathrm{N}: \lambda x . \lambda y . \operatorname{LIKE}(x, y)$.
これらの語彙項目と順・逆適用規則を用いることで、以下のような導出木が得られる:
$\mathrm{CG}$ による導出は意味解析器としても使えるのが特徵である。上の例では、“John likes Mary” の構文木が作られると同時に、論理式 LIKE(MARY, JOHN) が導かれている。
## 3.2 範疇文法導出
語彙項目の集合 $\Lambda$ が与えられたとき、 1 つの文 $m$ に対する導出木 $\tau$ や論理式 $\psi$ は複数通りあり得る。 そこで、素性関数 $\boldsymbol{\phi}(m, \tau, \psi)$ と学習可能なパラメー タベクトル $\boldsymbol{\theta}$ を用いて、CG の対数線形モデルを考える。即ち、文 $m$ が与えられたとき、導出木 $\tau$ と論理式 $\psi$ の同時確率を以下のように定義する:
$
P(\tau, \psi \mid m ; \boldsymbol{\theta}, \Lambda):=\frac{e^{\boldsymbol{\theta}^{\top} \boldsymbol{\phi}(m, \tau, \psi)}}{\sum_{\left(\tau^{\prime}, \psi^{\prime}\right)} e^{\boldsymbol{\theta}^{\top} \boldsymbol{\phi}\left(m, \tau^{\prime}, \psi^{\prime}\right)}} .
$
1)名詞句のカテゴリ NP も頻出するが、タスク (文法導出) 及び対象 (創発言語) に鑑み、本論文では使用しない。
このとき、文・論理式のペアから成るデータセット $\mathcal{E}:=\left.\{\left(m^{j}, \psi^{j}\right)\right.\}_{j=1}^{N}$ を入力として受け取って、語彙目録 $\Lambda$ やパラメータベクトル $\boldsymbol{\theta}$ を推定するのが範疇文法導出 (CGI) と呼ばれるタスクないしはアルゴリズムである。2) Zettlemoyer ら [8] が最初に CGI を定式化して以来、提案されてきた CGI アルゴリズムにはいくつかバリエーション $[13,14,15,16,17]$ があるが、概ね以下の疑似コードのような共通構造をもつ:
疑似コードに示したように、CGI アルゴリズムにおける主な計算過程は以下の 5 つである:
1. InItLEx: 最初の語彙項目の集合 $\Lambda_{0}$ を求める。
2. InItPARam: 初期パラメータ $\theta_{0}$ を求める。
3. UpdateLex: 新たな語彙項目を追加。
4. UpdateParam: SGD 等でパラメータを更新。
5. PrunELex: 不要な語彙項目を削除。
## 4 構成性指標としての範疇文法導出
本節では、CGIに基づいた、創発言語の新たな構成性指標 CGF と CGL を提案する。CGI には、創発言語の構成性を測るのに役立つ良い性質が備わつている。特に、2つの性質に着目し、それらに基づき CGF・CGLを定義する。1つ目は、CGベースの意味解析を実行した際に得られる $\mathrm{F}$ スコアである。 これは言語の systematicity や productivity [18]、つまり、既存の語彙項目を組み合わせて新規の意味表現を生み出す能力をどの程度備えているかを示す指標になると期待できる。2つ目は、導出された CGの語彙項目の数 (語彙サイズ) である。これは言語が CG によってどの程度簡潔に記述可能かを示し得る。
即ち、CGL は少数の要素から如何に多様な表現を生み出せるかを間接的に測るものであり、 systematicity や productivity に関連する指標であるといえる。
## 4.1 CGF と CGL の定義
$\mathcal{E}_{\text {train }}, \mathcal{E}_{\text {dev }}, \mathcal{E}_{\text {test }}$ をそれぞれ CGI アルゴリズムにおける訓練・検証・評価用データセットとする。 $\mathcal{E}_{\text {train }}, \mathcal{E}_{\mathrm{dev}}$ を用いて語彙目録 $\Lambda$ とパラメータ $\boldsymbol{\theta}$ を推定し、 $\mathcal{E}_{\text {test }}$ を用いて F スコアを計算するものとする。このとき、 $\mathrm{CGF}$ ・CGLを以下のように定義する:
$
\mathrm{CGF}:=\mathrm{F} \text { スコア }, \quad \mathrm{CGL}:=|\Lambda| /\left|\mathcal{E}_{\text {train }}\right| \text {. }
$
定義から $0 \leq \mathrm{CGF} \leq 1$ であり、CGF は 1 に近いほど構成性を高く評価し、 0 に近いほど低く評価していることになる。逆に、CGLは 0 に近いほど構成性を高く評価し、大きい值を取るほど構成性を低く評価していることになる。なお、CGLは $\Lambda$ を $\left|\mathcal{E}_{\text {train }}\right|$ で割った形で定義されているが、これは訓練データが大きいほど語彙サイズもそれに合わせて大きくなる傾向にあるためである。
## 4.2 創発言語に CGI を用いる際の留意点
CGI アルゴリズムにはいくつか亜種があるが、どれを用いるべきかはそれほど自明でない。シミュレーション上で成り行き任せに創発する言語に対して、我々には構造に関する事前知識もなく、文法構造に関する教師データもない。それどころか、そもそも創発した言語に (自然言語的な意味での) 文法構造が存在するかどうかすら事前には分からない。従って、単に自然言語に対して高性能を発揮する複雑で新しい CGIアルゴリズムを用いればよいというわけではなく、アドホックさをできる限り除去したシンプルなアルゴリズムを採用することが望ましい。具体的には、以下の点に留意する:
1. 対数線形モデルにおける素性関数 $\phi$ はできるだけシンプルな形であるべきである。
2. UpdateLex で追加される語彙項目は、人手で設計されたテンプレートに基づくものではなく、自動的に生成されたものであるべきである。
3. 語彙サイズ $|\Lambda|$ は PruneLex によって最小限の大きさに抑えられるべきである。
これらを同時に満たす手法は我々の知る限りでは存在しない。そこで、1つ目の要請に対しては ZC05 [8] の素性関数を、2つ目の要請に対しては KZGS10 [14]の InitLex, UpdateLex を、3つ目の要請に対して
図 1 CGF-TopSim 間の散布図。各パラメータの組合せ $(\mathcal{I},|\mathcal{A}|, L) \in\left.\{\mathcal{D}_{2}, \mathcal{D}_{3}\right.\} \times\{8,16,32\} \times\{4,8\}$ について 8 回異なる random seed でエージェントを訓練した。
は ADP14 [17] の PRUNELEX を用いることにした。なお、InitPARAm は KGZS10 に従い、UPdateParam は殆どの手法で共通して用いられる SGD を用いる。
## 5 シグナリングゲームの設定
シグナリングゲームは 4 つ組 $(\mathcal{I}, \mathcal{M}, S, R)$ のことであった。CGI を適用しやすくするため入力集合 $\mathcal{I}$ は人工的な論理式の集合 $\mathcal{D}_{k}(k=2,3)$ として定義する。まず集合 $\mathcal{D}$ を以下のように帰納的に定義する:
1. CIRCLE, TRIANGLE, SQUARE, STAR $\in \mathcal{D}$.
2. $x, y \in \mathcal{D}$ ならば、 $\operatorname{AND}(x, y) \in \mathcal{D}$.
ここで、 $\mathcal{D}_{k}:=\{x \in \mathcal{D} \mid x$ に AND が $k$ 回出現する $\}$ と定義する。メッセージ集合 $\mathcal{M}$ は、有限アルファベット $\mathcal{A}$ 上の長さ $L$ の離散系列の集合とする。本論文では $|\mathcal{A}| \in\{8,16,32\}, L \in\{4,8\}$ とする。送信者 $S$ ・受信者 $R$ ともに、GRU [19] ベースの注意機構 [20] 付き encoder-decoder モデルとして表現する。また、 $S$ の入力 $i \in \mathcal{I}$ は、ポーランド記法で平坦化する。最適化の目的関数は入力 $i \in \mathcal{I}$ と受信者の出力 $o \in \mathcal{I}(o \sim R(m), m \sim S(i))$ との Hamming 距離の期待值とし、REINFORCE [21]を用いる。また、TopSim に関しては $d_{I}, d_{\mathcal{M}}$ ともに Levenshtein 距離とする。
## 6 結果
CGF-TopSim 間、CGL-TopSim 間の散布図を図 1、図 2 に示す。図から分かるように、CGF・CGL と TopSim の間には有意な相関関係があり、提案指標が創発言語の構成性指標として十分機能していることを示唆している。同時に、CGF・CGL が TopSim よりも“厳しい”指標であることが伺える。CGF・ CGL が構成性を高く評価していれば TopSim も構成性を高く評価する傾向にあるが、逆の傾向は弱い。 CGI の帰納バイアスによって、TopSim が比較的高い
図 2 CGL-TopSim 間の散布図。各パラメータの組合せ $(\mathcal{I},|\mathcal{A}|, L) \in\left.\{\mathcal{D}_{2}, \mathcal{D}_{3}\right.\} \times\{8,16,32\} \times\{4,8\}$ について 8 回異なる random seed でエージェントを訓練した。
ものの中でも取分け構成性の度合いの高い言語が識別されている可能性がある。3)また、ある創発言語から得られた導出木の具体例を図 3 、図 4 に示す。導出木から、例えば “2” は SQUARE に関連した記号であることが伺える。対照的に、“3”や“6”は AND のみを含む抽象的な記号であることが伺える。このように、導出木を観察することで何かしらの示唆を得られるのが、TopSim のような既存指標にはない CGI の興味深い特徴であるといえる。
& $: \lambda x$ S\N & & \\
図 3 メッセージ“7 23 2”の導出木。
} & & & \\
図 4 メッセージ“1568”の導出木。
## 7 結論と将来の展望
本稿では、創発言語に範疇文法導出 $(\mathrm{CGI})$ を適用し、それに基づく新たな構成性の指標を提案した。 これは所謂非自明な構成性に関するより深い示唆を与えるものであるといえる。しかし、本論文では既存指標との有意な相関といくつかの具体例を示したに過ぎず、提案指標の有用性・優位性を十分に示したとは言い難い。今後、既存指標が機能しないような、より複雑な設定の創発言語を対象にし、提案指標の有用性を明確にする必要がある。
3)ただし、単に CGI が最適解を発見できていない可能性も否定できない。
## 参考文献
[1] Angeliki Lazaridou and Marco Baroni. Emergent multiagent communication in the deep learning era. CoRR, Vol. abs/2006.02419, , 2020.
[2] Rahma Chaabouni, Eugene Kharitonov, Emmanuel Dupoux, and Marco Baroni. Anti-efficient encoding in emergent communication. In Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, December 8-14, 2019, Vancouver, BC, Canada, pp. 6290-6300, 2019.
[3] Satwik Kottur, José M. F. Moura, Stefan Lee, and Dhruv Batra. Natural language does not emerge 'naturally' in multi-agent dialog. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, EMNLP 2017, Copenhagen, Denmark, September 9-11, 2017, pp. 2962-2967. Association for Computational Linguistics, 2017.
[4] Henry Brighton and Simon Kirby. Understanding linguistic evolution by visualizing the emergence of topographic mappings. Artif. Life, Vol. 12, No. 2, pp. 229-242, 2006.
[5] Angeliki Lazaridou, Karl Moritz Hermann, Karl Tuyls, and Stephen Clark. Emergence of linguistic communication from referential games with symbolic and pixel input. In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30 - May 3, 2018, Conference Track Proceedings. OpenReview.net, 2018.
[6] Jacob Andreas. Measuring compositionality in representation learning. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019.
[7] Shane Steinert-Threlkeld. Towards the emergence of nontrivial compositionality, December 2019. Forthcoming in the journal _Philosophy of Science..
[8] Luke S. Zettlemoyer and Michael Collins. Learning to map sentences to logical form: Structured classification with probabilistic categorial grammars. In UAI '05, Proceedings of the 21st Conference in Uncertainty in Artificial Intelligence, Edinburgh, Scotland, July 26-29, 2005, pp. 658-666. AUAI Press, 2005.
[9] David K. Lewis. Convention: A Philosophical Study. Wiley-Blackwell, 1969.
[10] Mark Steedman. Surface structure and interpretation, Vol. 30 of Linguistic inquiry. MIT Press, 1996.
[11] Mark Steedman. The syntactic process. Language, speech, and communication. MIT Press, 2000.
[12] 尸次大介. 日本語文法の形式理論-活用体系・統語構造・意味合成- 日本語研究叢書 (フロンティアシリーズ).くろしお出版, 2010.
[13] Luke S. Zettlemoyer and Michael Collins. Online learning of relaxed CCG grammars for parsing to logical form. In EMNLP-CoNLL 2007, Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, June 28-30, 2007, Prague, Czech Republic, pp. 678-687. ACL, 2007.
[14] Tom Kwiatkowski, Luke S. Zettlemoyer, Sharon Goldwater, and Mark Steedman. Inducing probabilistic CCG grammars from logical form with higher-order unification. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, EMNLP 2010, 9-11 October 2010, MIT Stata Center, Massachusetts, USA, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1223-1233. ACL, 2010.
[15] Tom Kwiatkowski, Luke S. Zettlemoyer, Sharon Goldwater, and Mark Steedman. Lexical generalization in CCG grammar induction for semantic parsing. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, EMNLP 2011, 27-31 July 2011, John McIntyre Conference Centre, Edinburgh, UK, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1512-1523. ACL, 2011.
[16] Yoav Artzi and Luke Zettlemoyer. Weakly supervised learning of semantic parsers for mapping instructions to actions. Trans. Assoc. Comput. Linguistics, Vol. 1, pp. 49-62, 2013.
[17] Yoav Artzi, Dipanjan Das, and Slav Petrov. Learning compact lexicons for CCG semantic parsing. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1273-1283. ACL, 2014.
[18] Dieuwke Hupkes, Verna Dankers, Mathijs Mul, and Elia Bruni. Compositionality decomposed: How do neural networks generalise? J. Artif. Intell. Res., Vol. 67, pp. 757-795, 2020 .
[19] Kyunghyun Cho, Bart van Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1724-1734. ACL, 2014.
[20] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015.
[21] Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Mach. Learn., Vol. 8, pp. 229-256, 1992 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-3.pdf | # 対話型擬人化エージェントの言語的配慮に対する 受容性の 6 か国異文化比較に関する研究 -クラウドソーシングによる大規模印象調査 3 -
松尾篤 ${ }^{1}$ 宮本友樹 2 片上大輔 1
1 東京工芸大学 2 電気通信大学
e1913122@st.t-kougei.ac.jp miyamoto@uec.ac.jp
katagami@t-kougei.ac.jp
## 概要
本研究では,対話型擬人化エージェントとの対話において,言語的配慮による受容性の文化差について考察することを目的とする. Brown ら [1] によれば,ある発話行為によるフェイス侵害度は,話者同士の社会的距離(Distance),相対的な力の差 (Power), 当該文化における負担度(Rank of impositions)によって求まるとされている。つまり, $\mathrm{AI}$ や擬人化システムに対する考え方の違いなども含めて, ある文化圏では適切に選択された発話方略も, 別の文化圏では親和性の低い発話になる可能性がある. 従って, 本研究では擬人化エージェントとの対話において文化による受容性の違いを調査するために,文化圏や言語が異なる日本,アメリカ,中国,フランス,イギリス,オーストラリアの 6 か国を対象とした大規模な調査を行う. 調査の結果,国間による受容性の違いが認められ,国によって性別や年齢による影響の度合いに大きな違いが見られた。
## 1 はじめに
昨今の人工知能技術の発展により,様々な知的対話システムが開発されている.身近なところではスマートフォンの音声応答アプリケーションである米 Apple 社の Siri をはじめ, Google 社の Google アシスタント,NTT ドコモ社のしゃべってコンシェルなど,様々な場面において人間とシステム間の対話が行われている。それに伴い,対話システムに関する研究も盛んになっている [2][3][4]. 心理的距離や立場を考慮した対話システムの研究として,Brown らによるポライトネス理論 [1] の発話方略を用いた研究がある.心理的距離や立場を考慮した対話システムとして,ポライトネス理論 [1] の発話方略を対話システ么の発話設計に応用し,その受容性を実験的に検証する取り組みとして,例えば Srinivasan らの研究 [2] においては,ロボットがユーザに対して助けを求めるシチュエーションで,対話相手との心理的な距離を縮めるポジティブ・ポライトネス・ストラテジー (PPS)を用いる実験条件と対話相手との心理的な距離を維持するためのネガティブ・ポライトネス・ストラテジー(NPS)を用いる実験条件を設定し印象評価を行った. 実験の結果,PPS が有意に高評価であった. このように,従来研究ではエージェントによる言語的配慮が受容性に影響を及ぼすことが示されている。
また,これらの言語的配慮に,文化による受容性の違いを調査した研究がある. 先行研究として片上らの研究 [3] では,運転支援,家庭内,旅行代理店の 3 シチュエーションにおいて,PPS と NPS の日米間の印象評価を行った。実験の結果,日米間のエー ジェントを利用しようと思う意向を示す Intention to Use(ITU)における評価の違いが大きく,発話条件の違いが異文化間の受容性の違いに影響していることが示された。また,片上らの研究 [3] を 6 か国について分析した研究 [4] では擬人化エージェントとの対話に対して日本の印象評価が低く,中国の印象評価が高かった。
本稿では,片上らの研究 [3] を発展させ,6か国について分析した研究 [4] についてより深い分析と考察を行っていく.6 か国の異なる文化的背景を持つ実験参加者を対象として以下 2 つの調査を実施した.
・調査 1 : 社会に進出するロボットとの対話に関する受容性の質問紙調査
・調査 2 : マルチモーダル情報を備えた対話型擬人化エージェントとの対話を想定した印象評価.
調査の方法として,クラウドソーシングサービスを用いて実験参加者を募り,オンライン上で質問紙調査を実施する. 本研究では,エージェントによる言語的配慮に対する受容性の異文化比較研究とし $\tau$, 先行研究 [3] の日本語母語話者とアメリカ英語母語話者に加え,イギリス英語母語話者,オーストラリア英語母語話者,フランス語母語話者,中国語母語話者の 6 か国を対象とする。 それぞれ募集には SurveyMonkeyを用いる.
## 2 異文化比較調査実験
本研究で行った異文化比較調査実験 [4] の概要について説明する。
## 2.1 実験目的と概要
本実験の目的は, 1 章で述べた調査 1 及び調査 2 を通して対話型擬人化エージェントにおける受容性の文化差について考察することである.以下に各調査の概要を述べる. なお本調査は, 東京工芸大学研究倫理委員会の承認 (倫理承認番号: 2020-06) を得て行った.
## 2.1.1 調査 1 :社会に進出するロボットとの対話に 関する受容性の質問紙調査
固有の擬人化エージェントを指定せずに,社会に参画するロボット全体に対して抱いている不安印象を実験参加者に評価してもらう.評価尺度としてロボット不安尺度(Robot Anxiety Scale:RAS)[5]を使用する。 RAS はロボット会話能力不安 (3 項目), ロボット行動特性不安 (4 項目), ロボット対話不安 (4 項目)の3つの下位尺度から構成される. 各項目は 6 件法(1:全く不安に思わない,2:ほとんど不安に思わない,3:あまり不安に思わない,4: 少し不安に思う,5:かなり不安に思う,6:非常に不安に思う)で評価される。
## 2.1.2 調査 2:マルチモーダル情報を備えた対話型擬人化エージェントとの対話を想定した印象評価
対話型擬人化エージェントと対話する想定の動画を参加者に視聴してもらい,その印象を評価しても
らう。評価には Texhnology Acceptance Model (TAM) [6][7]を使用する。TAM はエージェントが人々に受け入れられる・拒否される要因を予測することを目的として提案された 5 段階のリッカート法 ( 1 : 全くそう思わない,2あまりそう思わない,3:どちらとも言えない,4:ややそう思う,5:とてもそう思う)で評価する心理尺度である.
## 2.1.3 調査に関しての自由記述
調査 1 と調査 2 が終わった後に, 人型エージェントとの対話について感じたこと, 本調査について感じたことについて自由記述してもらった。
・設問 1 :「人型エージェントとの対話について感じたことがあれば自由にお書きください」
・設問 2 :「本調査について感じたことがあれば記入してください」
## 2.2 実験参加者
調査 1 及び調査 2 には, 1 か国あたり 300 人,計 1800 人を募集した. その中から,実験に同意した参加者の中で,回答に不備があった場合や募集した国籍と異なっていた場合は分析の対象から除いた結果,アメリカ人参加者 179 人,イギリス人参加者 230 人,オーストラリア人参加者 225 人,フランス人参加者 229 人,日本人参加者 267 人,中国人参加者 242 人, 計 1372 人となった.
調査に関しての自由記述では,空欄や特に意見がないものを分析の対象から除いた結果,アメリカ人参加者 124 人,イギリス人参加者 156 人,オーストラリア人参加者 145 人,フランス人参加者 151 人,日本人参加者 149 人,中国人参加者 208 人,計 933 人となった.
## 2.3 実験動画について
調査 2 で使用する実験動画について, 先行研究 [3] の動画をもとに, 6 か国の調査向けに作り直した. また, 発話内容の英語,フランス語,中国語への翻訳は,翻訳業者に発話意図が変わらないように翻訳を依頼した.動画の内容はマルチモーダル情報を備えた対話型擬人化エージェントとのやり取りの再現動画となる. シチュエーションによる印象の違いに対応するために異なるシチュエーションを用意している.シチュエーションの違いとして挙げられるのは,「タスク指向か非タスク指向か」と「エージェン
(a) 運転支援エージェント
(b) 家庭内エージェント
(c) 旅行代理店エージェント
図 1: 各シチュエーション動画におけるエージェントの様子
トとユーザの関係」の違いである。また,それぞれのシチュエーションに合わせたシナリオを用意し,発話内容に合わせて擬人化エージェントの表情を動かす. シチュエーションごとのエージェントの様子を図 1 に示す. シチュエーションによるタスクの違いだけでなく,エージェントの用いる言葉遣いで印象は変化する. それぞれのシチュエーションに適した言葉遣いを比較するために,エージェントの発話シナリオも NPS 的敬体条件,PPS 条件の 2 通り用意した. エージェントの発話設計のために, 社会言語学, 語用論の知見であるポライトネス理論 [1]を活用する。
## 2.4 実験結果
本稿では, 調査 2 亿ついての結果を述べる.また, Technology Acceptance Model との相関関係を探る手段として数量化理論 1 類を行った. この理由と
して,国以外に性別や年齢による違いの影響を考慮する必要があるためである.また,説明要因とする項目には質的データが多く含まれており,各々の説明変数をカテゴリー化することによって,カテゴリー別の目的変数に対する影響の方向と大きさを考察することが可能である.
## 2.4.1 調査 2 について
Technology Acceptance Model についての結果を表 1~表 4 に示す. 本研究では,各カテゴリー内容のスコアの最小值と最大値の差をレンジとする. 従って国のレンジが最も大きいので,国による違いは 1 番影響度の高い要素である。全体を通して中国のスコアが高いことが示された. つまり, 中国は擬人化エージェントとの対話への印象評価が高かったと言うことができる. ITU (Intention to Use : 利用しようとする意向)(表 1)では,日本の評価が低く,次点でアメリカやイギリスの評価が低くなっている. PENJ (Perceved Enjoyment : 使用する際の楽しさの知覚)(表 2)では,日本の評価が低く,次点でアメリカ,イギリス,フランスの評価が低くなっている. SP(Social Presence:対話の際の社会的存在の有無) (表 3)と Trust(技術の信頼性)(表 4)では,日本, アメリカの評価が低く,次点でイギリス,フランスの評価が低くなっている.また,性別に比べて年齢による影響が大きいことが分かる.
## 2.5 考察
表 1〜表 4 の結果より, 調査 2 の結果には国間による違いが大きく影響している. つまり, 国の文化によって擬人化エージェントとの対話への印象に違いが示されている. ITU の項目においてはレンジが 1.445 と他の項目より高いことから, 利用しようとする意向に関してより国の文化差が出やすいと言える. さらに,ITUの項目ではシチュエーションと発話条件の影響度が逆転している. このことより,他の印象評価と比べて利用しようとする意向においては発話条件による違いがより影響していることが分かる. ただし,発話条件の違いは,全体で見ると国間による違いや性別による違い,年齢層による違いに比べて,影響力は小さいと言える.従って,発話方略による違いよりも,概要や 1 章で述べた Brown らの発話行為によるフェイスの侵害度の要因の 1 つである「相対的な力の差(Power)」による影響が大きいことが示された. つまり, Brown らのポライト
表 1: ITU(Intention to Use)の分析結果
} & driving & 962 & 0.004 & \multirow{3}{*}{0.014} & \multirow{3}{*}{5} \\
注:重相関係数は 0.405
表 2: PENJ(Perceived Enjoyment)の分析結果
} & driving & 962 & -0.000 & \multirow{3}{*}{0.075} & \multirow{3}{*}{4} \\
注:重相関係数は 0.350
ネス理論における言語的配慮の発話方略である NPS と PPS については,発話方略の選択ミスによる相手への印象の変化は比較的少なく,相手との関係性による違いが大きいことから,相手との関係性によって相手への印象への影響がある程度決定していることが示唆される。
レンジの値に着目すると,国に対するレンジの大きさに対し,それ以外の要因のレンジが圧倒的に少ない。つまり,文化による受容性の違いを生む要因として,性別と年齢だけではなく国ごとの違いの影響が大きいと推測する.表 3: SP(Social Presence)の分析結果
& \multirow{6}{*}{0.805} & \multirow{6}{*}{1} \\
注:重相関係数は 0.354
表 4: Trust の分析結果
& \multirow{6}{*}{0.920} & \multirow{6}{*}{1} \\
注:重相関係数は 0.340
## 3 おわりに
本研究では擬人化エージェントの対話において,国ごとの文化による受容性の違いを調査し,明確な違いが示された。また,その違いを生む要因として性差,年齢,発話条件,シチュエーションなどについて検討した.その結果,国ごとに性別や年齢による受容性の違いが見られた。擬人化エージェントとの対話の受容性を高めるにあたって,性別や年齢など,国ごとの文化による受容性の違いになる要因を探すことが今後の研究の課題になるだろう.
## 謝辞
本研究は科研費(課題番号:22H04869)の支援を受けました. 記して感謝いたします.
## 参考文献
[1] Penelope Brown, Stephen C Levinson, and Stephen C Levinson. Politeness: Some universals in language usage, Vol. 4. Cambridge university press, , 1987.
[2] Vasant Srinivasan and Leila Takayama. Help me please: Robot politeness strategies for soliciting help from humans. In Proceedings of the $2016 \mathrm{CHI}$ conference on human factors in computing systems, pp. 4945-4955, , 2016.
[3] 片上大輔, 山本隆太郎, 宮本友樹, 宇佐美まゆみ. 対話型擬人化エージェントの言語的配慮に対する受容性の 6 か国異文化比較に関する研究 - クラウドソー シングによる大規模印象調査 - . HAI シンポジウム 2021, 032021.
[4] 松尾篤, 宮本友樹, 片上大輔, 宇佐美まゆみ. 対話型擬人化エージェントの言語的配慮に対する受容性の 6 か国異文化比較に関する研究 -クラウドソーシングによる大規模印象調査 2 - . ファジィシステムシンポジウム講演論文集, Vol. 38, pp. 244-249, 092022.
[5] Tatsuya Nomura, Tomohiro Suzuki, Takayuki Kanda, and Kensuke Kato. Measurement of anxiety toward robots. In ROMAN 2006-The 15th IEEE International Symposium on Robot and Human Interactive Communication, pp. 372-377. IEEE, , 2006.
[6] Fred D Davis. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS quarterly, pp. 319-340, 1989.
[7] Marcel Heerink, Ben Kröse, Vanessa Evers, and Bob Wielinga. Assessing acceptance of assistive social agent technology by older adults: the almere model. International journal of social robotics, Vol. 2, No. 4, pp. 361375,2010 .
## 4 付録
表 5: RAS(ロボット不安尺度)[5] より抜粋した下位尺度と質問項目
RAS-S1:ロボット会話能力不安
ロボットが会話中に的外れなことを話すのではないか.
ロボットとの会話は融通が利かないのではないか.
ロボットは難しい話が理解できないのではないか.
RAS-S2:ロボット行動特性不安
ロボットがどのような動きをするのか.
ロボットが何をしてくるのか.
ロボットがどれくらいの力を持っているのか.
ロボットがどのくらいの速さで動くのか.
RAS-S3:ロボット対話不安
ロボットにどう話しかけたらいいのか.
ロボットから話しかけられた時にどう答えたらいいのか.
ロボットに自分のした話の内容が理解されているのか.
ロボットから話しかけられた内容が自分には理解できないのではないか.
表 6: TAM[6][7] より抜粋した下位尺度と質問項目
利用しようとする意向 (Intention to Use:ITU)
近い将来,私はこのロボットを使うだろうと思う.
近い将来,私はこのロボットを使うことになると思う.
近い将来,私はこのロボットを使うつもりである.
使用する際の楽しさの知覚
(Perceived Enjoyment : PENJ)
このロボットに話しかけられるのは楽しい.
このロボットと一緒に何かをするのは楽しい.
このロボットは楽しいと思う。
このロボットは魅惑的だと思う。
このロボットはつまらないと思う.
このロボットと対話していた時,本当の人間と話しているかのように感じた.
ときどき,このロボットが本当に私の方を見ているかのように感じた.
このロボットが生き物であると想像できる.
このロボットが実在の人間ではないと思う.
ときどき,このロボットが本音を出しているように見える.
技術の信頼性(Trust)
このロボットがアドバイスをくれたら,私はこのロボットを信頼するだろう.
私はこのロボットがくれたアドバイスに従うだろう。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-4.pdf | # 創発言語はなぜ Zipf 短縮に従わないのか?暗黙の事前分布に基づく再解釈
上田亮
東京大学
ryoryoueda@is.s.u-tokyo.ac.jp
## 概要
本稿の目的は、シグナリングゲームにおいて生じる創発言語が Zipf 短縮に従わないという知見に着目し、その原因の一端を解明することにある。これまで、創発言語が Zipf 短縮に従わないのは、エージェントの帰納バイアスせいだろうと考えられてきた。 それに対し、本稿では新たな解釈を提示する。シグナリングゲームの目的関数の中で暗黙に仮定されている事前分布に着目し、それが反 Zipf 短縮の一因となっている可能性を示唆する。
## 1 はじめに
創発言語は、シミュレーション上においてエー ジェント同士でコミュニケーションを取らせたときに生じる、言語のようなプロトコルのことを指し、近年研究対象として注目されつつある [1]。創発言語の構造を理解し、それが自然言語とどの程度類似・乘離しているのかを知り、乘離をどのようにして埋めていけばよいのかを考えることが、当分野で重要なテーマの 1 つである。
Chaabouni ら [2] は、自然言語の普遍性質である Zipf 短縮 $[3,4,5]$ を取り上げ、シグナリングゲーム [6]において創発する言語が、Zipf 短縮に従うか検証した。Zipf 短縮とは「頻出する単語ほど、単語長が短い傾向にある」という自然言語に普遍的にみられる性質である。例えば、英単語 “of” や “he” は高頻出であり、かつ短い。また、シグナリングゲームはシンプルなコミュニケーションモデルであり、言語創発分野で頻繁に用いられる。シグナリングゲームには、送信者・受信者と呼ばれる 2 人のエージェントが登場し、送信者から受信者への単方向通信のみが許される。各プレイにおいて、送信者は入カ $i \in I$ を 1 つ受け取り、メッセージ $m \in \mathcal{M}$ を生成する。続いて、受信者はそのメッセージ $m$ を受け取り、元
の入力が何であったのかを推測する。この推測が当たっていればゲームは成功である。このとき、送信者と受信者をつなぐメッセージ (の集合) は、何かしらの意味を伝達する言語のようなものであると考えることができる。[2]は、1メッセージがちょうど 1 単語を成すと見做せる設定の下、創発言語が Zipf 短縮に従うか検証した。ところが、標準的な設定のシグナリングゲームにおいて生じる創発言語は、Zipf 短縮に従わないことが示された。具体的には、メッセージが明らかに不必要に長くなってしまうばかりでなく、頻度の高いメッセージほど長くなるという、反 Zipf 短縮とでもいうべき傾向が示された。これまで、創発言語が Zipf 短縮に従わないのは、エー ジェントの元となるニューラルネットワーク (NN) アーキテクチャ (e.g., LSTM [7]) の帰納バイアスに問題があるからであろうと考えられてきた $[2,8,9]$ 。
それに対して、本稿では、反 Zipf 短縮が起こる原因について新たな解釈を提示する。シグナリングゲームの学習の際に用いられる目的関数の中で、暗黙に仮定されているメッセージの事前分布 $P(m)$ に着目し、その事前分布が反 Zipf 短縮の一因となっている可能性を示唆する。
## 2 背景
## 2.1 Zipf 短縮
Zipf 短縮 (Zipf's law of abbreviation) [3, 4, 5] は、言語学者 Gerge K. Zipf によって唱えられた自然言語の法則である。 ${ }^{12)}$ Zipf によれば、高頻度で出現する単語ほど長さが短くなる傾向にあるという。
## 2.2 シグナリングゲーム
言語創発では、シグナリングゲーム [6] (以降、単にゲームと呼ぶ) が頻繁に用いられる。ここでは
1) 所謂 Zipf 則 [10] とは異なる概念であることに注意。
2)日本語訳は [5] に準拠。
特に [2] による設定を紹介する。ゲームには、有限の入力集合 $I$ 、有限のメッセージ集合 $\mathcal{M}$ 、送信者 $P_{\boldsymbol{\theta}_{s}}(M=m \mid I=i)$ と受信者 $P_{\boldsymbol{\theta}_{r}}(I=i \mid M=m)$ が登場する。送・受信者エージェントはLSTM [7] 等の NN に基づいて定義され、各々学習可能なパラメータ $\boldsymbol{\theta}_{s}, \boldsymbol{\theta}_{r}$ をもつ。 $\mathcal{I}:=\{1,2, \ldots,|\mathcal{I}|\}$ とし、各 $i \in I$ は one-hot ベクトルで表現する。メッセージ集合 $\mathcal{M}$ は可変長メッセージの集合とする: $\mathcal{M}:=\left.\{a_{1} \ldots a_{t-1} \operatorname{eos} \mid a_{i} \in \mathcal{A} \backslash\{\right.$ eos $\left.\}, 1 \leq t \leq T\right.\}$. ただし、 $\mathcal{A}$ は有限アルファベット、eos $\in \mathcal{A}$ は EOS 記号、 $T$ は最大長である。ゲームの流れは以下のようになる:
1. 入力 $i \in I$ をサンプリングする。ただし、 $i$ は幕分布に従うものとする: $i \sim P_{I}(i) \propto i^{-1}$.
2. 送信者からメッセージ $m$ をサンプリングする: $m \sim P_{\boldsymbol{\theta}_{s}}(m \mid i)$.
3. 受信者による復元の程度を表す対数尤度 $\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)$ を最大化することを目標とする。
$i \in I$ は one-hot ベクトルで表されるうえ、幕分布 $P_{I}($ i に従う (Zipf 則に従う) ので、一般的な NLP 分野でいうところの単語 ID と思うことができる。故に各 $i$ に対応するメッセージ $m$ は単語と見做せる。
## 2.3 ゲームの目的関数
本稿では、最適化は勾配法で行うものとして議論を進める。ゲームの最適化は、以下の目的関数 $\mathcal{J}_{\text {game }}$ を勾配法で最大化することで行われる:
$
\mathcal{J}_{\text {game }}:=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}(i \mid m)\right] .
$
直観的には、受信者 $R$ による復元の正確さを平均的に最大化するのを目的としていると理解できる。 $\mathcal{J}_{\text {game }}$ の微分は以下の形で得られる $\left.[2,11]:{ }^{3}\right)$
$
\begin{aligned}
& \nabla \mathcal{J}_{\text {game }}=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{s}}(m \mid i)}[ \\
& \quad \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m) \\
& \left.\quad+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{s}}(m \mid i)\right]
\end{aligned}
$
ここで、 $b: I \rightarrow \mathbb{R}$ は任意のベースライン関数である。式 2 は受信者を通常の誤差逆伝播によって、送信者を方策勾配 [12]によって最適化している。しかし、 $\mathcal{J}_{\text {game }}$ で創発する言語は Zipf 短縮とは真逆の傾向 (反 Zipf 短縮) に従うことが知られている。そこで、メッセージ長に関する罰則項を設け、メッセー ジが不必要に長くなるのを防ぐ場合がある:
$
\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha):=\mathbb{E}_{\boldsymbol{P}_{I}(i), \boldsymbol{P}_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}(i \mid m)-\alpha|m|\right]
$
_{s}, \boldsymbol{\theta}_{r}}$ の略記。以降でもこの略記を用いる。
}
ここで、 $\alpha \in \mathbb{R}_{\geq 0}$ は罰則項の強度を制御する超パラメータ、 $|m|$ はメッセージ $m$ の長さを表す。 $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ の微分は以下である:
$
\begin{aligned}
& \nabla \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}}(m \mid i)}[ \\
& \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m) \\
&\left.\quad+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)-\alpha|m|-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{s}}(m \mid i)\right]
\end{aligned}
$
式 2 と比較すると、送信者の報酬が修正されたような形をしている。この罰則項により、Zipf 短縮が創発することが知られている $[2,8]$ 。
## 3 ゲームの目的関数の分析
これまで、 $\mathcal{J}_{\text {game }}$ を最適化して得られる創発言語が Zipf 短縮に従わないのは、エージェントに適切な帰納バイアスがないからだと考えられてきた。例えば [8] は、送信者には laziness が欠けており、受信者には impatience が欠けていると主張している。しかし、エージェントのバイアスだけが原因ではないように思われる。本節では、目的関数 $\mathcal{J}_{\mathrm{game}}$ の内に暗黙に仮定されている事前分布に着目し、それが反 Zipf 短縮の一因になっているのではないかと考える。以降の節にてそれを示唆する議論を展開する。
## 3.1 ゲームには暗黙の事前分布が存在する
ここで、やや唐突だが、一様メッセージ分布 $P^{\mathrm{uni}}(m)=|\mathcal{M}|^{-1}$ を考元、受信者 $P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)$ と合わせて、以下のような $i, m$ の同時分布を定義する:
$
P_{\boldsymbol{\theta}_{r}}^{\mathrm{uni}}(i, m):=P_{\boldsymbol{\theta}_{r}}(i \mid m) P^{\mathrm{uni}}(m) .
$
このとき、次の等式が成り立つ (証明は付録 $\mathrm{A}$ 参照):
$
\nabla \mathcal{J}_{\text {game }}=\nabla \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{s}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{uni}}(i, m)\right]
$
即ち、 $\mathcal{J}_{\text {game }}$ の最大化は、同時分布 $P_{\boldsymbol{\theta}_{r}}^{\mathrm{uni}}(i, m)$ の対数尤度の期待値を最大化するのと同じである。従って、 $\mathcal{J}_{\text {game }}$ という目的関数は $P^{\text {uni }}(m)$ をメッセージの事前分布として暗黙のうちに仮定していることになる。
次に、モンキータイピング・メッセージ分布 $P^{\mathrm{mon}}(m)=\frac{1}{Z}|\mathcal{A}|^{-|m|}(Z$ は適当な正則化項)を考え、受信者 $P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)$ と合わせて、以下の $i, m$ の同時分布を定義する:
$
P_{\boldsymbol{\theta}_{\boldsymbol{r}}}^{\mathrm{mon}}(i, m):=P_{\boldsymbol{\theta}_{r}}(i \mid m) P^{\mathrm{mon}}(m) .
$
このとき次の等式が成り立つ (証明は付録 $\mathrm{A}$ 参照):
$
\nabla \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\log |\mathcal{A}|)=\nabla \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{S}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}^{\mathrm{mon}}(i, m)\right]
$
即ち、 $\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{mon}}(i, m)$ の期待値の最大化は、メッセー ジ長に関する罰則項の重みを $\alpha=\log |\mathcal{A}|$ としたときの $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ の最大化と同じである。更に一般化して、 $P^{\text {mon }}(m)$ と $P^{\text {uni }}(m)$ の中間的なメッセージ分布 $P^{\text {int }}(m ; \eta)(0 \leq \eta \leq|\mathcal{A}|-1)$ を考える:
$
P^{\mathrm{int}}(m ; \eta)=\frac{1}{Z^{\prime}}(|\mathcal{A}|-\eta)^{-|m|}
$
$Z^{\prime}$ は適当な正則化項である。 $P^{\mathrm{int}}(m ; \eta=0)=$ $P^{\mathrm{mon}}(m)$ 及び $P^{\text {int }}(m ; \eta=|\mathcal{A}|-1)=P^{\text {uni }}(m)$ が成立するので、 $P^{\text {int }}$ は中間的な分布といえる。これまでの議論と同様に、受信者 $P_{\boldsymbol{\theta}_{r}}(i \mid m)$ と合わせて、 $i, m$ の同時分布 $P_{\boldsymbol{\theta}_{r}}^{\text {int }}(i, m ; \eta):=P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m) P^{\mathrm{int}}(m ; \eta)$ を定義する。このとき、次式が成り立つ (証明は付録 $\mathrm{A}$ 参照):
$
\begin{aligned}
& \nabla \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\log \{|\mathcal{A}|-\eta\}) \\
= & \nabla \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)\right]
\end{aligned}
$
即ち、 $\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)$ の期待値の最大化は、罰則項の重みを $\alpha=\log \{|\mathcal{A}|-\eta\}$ としたときの $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ の最大化と同じである。逆に言えば、 $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ の最大化は、 $\eta=|\mathcal{A}|-\exp (\alpha)$ としたときの $\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)$ の期待值の最大化と同じである。吕) $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ は、メッセージに関する事前分布 $P^{\text {int }}(m ; \eta=|\mathcal{A}|-\exp (\alpha))$ を暗黙に仮定していることになる。なお、 $P^{\text {int }}(m ; \eta=$ $|\mathcal{A}|-1)=P^{\operatorname{mon}}(m)$ より、 $\mathcal{J}_{\text {game }}$ の暗黙の事前分布を $P^{\text {int }}(m ; \eta=|\mathcal{A}|-1)$ と言い直すこともできる。
## 3.2 暗黙の事前分布と反 Zipf 短縮
では、ゲームの目的関数の暗黙の事前分布はどのような形状をしているのだろうか。本節では事前分布の形状について議論し、そこから反 Zipf 短縮が生じる一因を垣間見る。事前分布 $P^{\text {uni }}(m), P^{\text {mon }}(m), P^{\text {int }}(m)$ はそのままでは可視化しづらいため、代わりに、対応するメッセージ長 $1 \leq l \leq T$ の分布を考える:
$
P^{\mathrm{int}}(l ; \eta):=\sum_{m \in \mathcal{M}} P^{\mathrm{int}}(m ; \eta) \mathbb{1}_{l=|m|}
$
$P^{\mathrm{uni}}(l), P^{\mathrm{mon}}(l)$ についても同様に定義する。5) ここで、 $(T,|\mathcal{A}|)=(30,4)$ としたときの分布の様子を図 1 に示す。図 1 から分かるように、 $P^{\text {uni }}(l)$ はかなり右に偏った形状をしている。つまり、 $P^{\text {uni }}(m)$ からメッセージ $m$ をサンプリングしてきたとき、
4) $\eta$ が $0 \leq \eta \leq|\mathcal{A}|-1$ を満たさなくとも式 9 は確率分布になるが、先行研究 $[2,8]$ の $\alpha$ は必ず $\log |\mathcal{A}| \geq \alpha \geq 0$ に収まっているため、 $\eta$ の範囲を限定しても特に問題はない。
5)ただし、自然言語の単語長の分布はガンマ分布に近いとされる [13]。逆に、 $l$ の分布をガンマ分布と仮定してゲームの目的関数を逆算したらどうなるかについては付録 B 参照。
図 1 メッセージ長の分布 $((T,|\mathcal{A}|)=(30,4))$.
$m$ の長さは高い確率で最大長 $T$ かその付近になる。 ゲームの目的関数 $\mathcal{J}_{\text {game }}$ の暗黙の事前分布が $P^{\mathrm{uni}}$ であったことを踏まえると、 $\mathcal{J}_{\text {game }}$ の最適化で創発するメッセージが不必要に長くなってしまうのは、今や当然のことのように思える。一方、 $P^{\operatorname{mon}}(l)$ は左に偏った分布になっていて、 $P^{\text {mon }}(m)$ それ自体が Zipf 短縮に従うメッセージ分布になっていることが分かる。6) $P^{\text {int }}(l ; \eta)$ は、 $\eta$ の值によって $P^{\mathrm{mon}}(l)$ と $P^{\text {uni }}(l)$ の間をつなぐような形状になっている。 $P^{\text {int }}(l ; \eta)$ が、メッセージ長に関する罰則項を設けたゲームの目的関数 $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ における暗黙の事前分布になっていたことを踏まえると、罰則項の重み $\alpha$ を調整することは、分布 $P^{\mathrm{uni}}(l)$ の極端な右への偏りを緩和することに対応しているのだと理解することができる。
次に、 $(T,|\mathcal{A}|)=(30,40)$ としたときの、長さに関する分布の様子を図 2 に示す。 $(T,|\mathcal{A}|)=(30,40)$ と
図 2 メッセージ長の分布 $((T,|\mathcal{A}|)=(30,40))$.
いう超パラメータは、先行研究において典型的に選択されているものであり $[2,8,9]$ 、この分野の実態により近い。図 2 から分かるように、 $P^{\text {uni }}(l)$ は更に右側に偏っている。 $P^{\mathrm{mon}}(l)$ は平坦な形状に見えるが、実際には依然として左側に偏っていて、右肩下がりの形状をしている。図 2 における $\eta=38.35$ は、メッセージ長罰則項の重み $\alpha=0.5$ に概ね対応している。これは [2] が選択した値と同じであり、この值で Zipf 短縮の創発に成功している。 $P^{\text {int }}(l ; \eta=38.35)$ が尚も右側に著しく偏っていることを踏まえると、
6)モンキータイピング系列が Zipf 則や Zipf 短縮に従うことは既に知られており $[14,5]$ 、同様のことが起きている。
[2] が $\alpha=0.5$ という重みで Zipf 短縮の創発に成功したという事実は驚くべきことである。これまで、創発言語の反 Zipf 短縮性はバイアスのせいであると考えられてきたが、 $P^{\text {uni }}(l)$ よりもわずかに偏りが緩和されただけの分布で Zipf 短縮を創発できるのなら、むしろエージェントは短いメッセージを選好する望ましいバイアスをもっているのではないかとさえ思える。ただし、あるメッセージ $m_{1}$ が $P^{\text {int }}(m ; \eta)$ からサンプリングされる確率は、あるメッセージ $m_{2}$ が $P^{\mathrm{int}}(m ; \eta)$ からサンプリングされる確率の $(|\mathcal{A}|-\eta)^{\left|m_{2}\right|-\left|m_{1}\right|}$ 倍である。つまり、個々のメッセージ同士を比較する限りにおいては、 $P^{\text {int }}(m ; \eta)$ は短いメッセージを選好する分布であるともいえる。
## 3.3 beta-VAE の目的関数との類似性
ゲームの目的関数に暗黙の事前分布が存在するということは、ゲームの最適化は、ある種の生成モデルに関する変分推論と見做せるかもしれない。 この発想に基づき、本節ではゲームの目的関数と beta-VAE [15] の目的関数との類似性について議論する。入力 $i$ を観測変数 $x$ 、メッセージ $m$ を潜在変数 $z$ 、送信者 $P_{\theta_{s}}(m \mid i)$ を符号化器 $q_{\phi}(z \mid x)$ 、受信者 $P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)$ を復号化器 $p_{\theta}(x \mid z)$ 、事前分布 $P^{\text {int }}(m ; \eta)$ を潜在変数の事前分布 $p_{\theta}(z)$ だと思うことにすれば、シグナリングゲームの構造は VAE [16] のそれに類似している。そこで、シグナリングゲームの記法で以下のような beta-VAE の目的関数を考える:
$
\begin{aligned}
& \mathcal{J}_{\mathrm{vae}}(\beta):=\mathbb{E}_{P_{I}(i)}\left[\mathbb{E}_{\boldsymbol{P}_{\boldsymbol{\theta}_{s}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}(i \mid m)\right]\right. \\
&\left.-\beta \operatorname{KL}\left(P_{\boldsymbol{\theta}_{s}}(m \mid i) \| P^{\mathrm{int}}(m ; \eta)\right)\right] .
\end{aligned}
$
beta-VAE では通常の VAE の目的関数を拡張し、KL ダイバージェンス項を $\beta$ で重み付けする。 $\mathcal{J}_{\text {vae }}(\beta)$ は以下のように変形できる (証明は付録 A 参照):
$
\begin{aligned}
\mathcal{J}_{\text {vae }}(\beta)= & \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\beta \log \{|\mathcal{A}|-\eta\}) \\
& +\beta \mathbb{E}_{P_{I}(i)}\left[\mathcal{H}\left(P_{\boldsymbol{\theta}_{s}}(m \mid i)\right)\right]+\mathrm{const}
\end{aligned}
$
式 13 の第 1 項は、メッセージ長罰則項の重みを $\alpha=\beta \log \{|\mathcal{A}|-\eta\}$ としたときのゲームの目的関数 $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ に一致している。第 2 項は送信者 $P_{\boldsymbol{\theta}_{s}}$ のエントロピー最大化項になっている。このような、 ゲームの報酬の期待値とエントロピー最大化項が合わさった目的関数を用いる設定は、しばしば最大エントロピー強化学習と呼ばれる。7) 実は、創発言語
7)変分推論と最大エントロピー強化学習が同一視できることは control-as-inference [17] の一例としても理解できる。
の研究でもエントロピー正則化項 [18] という補助目的関数が頻繁に用いられる。エントロピー正則化項は、エントロピー最大化項と同様の効果を持つ。ただし、ややアドホックな手法であり、エントロピー 最大化項とは一般には一致しない。以上のことから、ゲームはアドホックな補助関数を伴いつつ、暗に変分推論をしていると思われる。8)
## 3.4 以上の結果から得られる示唆
3 節では、まずゲームの目的関数 $\mathcal{J}_{\text {game }}, \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ が特定の事前メッセージ分布 $P_{\text {int }}(m ; \eta)$ を仮定していることを示した。続いて、事前メッセージ分布の形状に着目し、その形状から反 Zipf 短縮の一因を垣間見た。9)最後にVAE との類似性に触れ、ゲームが (アドホックな形で) 暗に生成モデルの変分推論をしていることが示唆された。本稿では、Zipf 短縮という特定の性質を取り上げて議論したが、ここでの考え方は、シグナリングゲームを用いる研究一般に適用可能なものである。従って、ゲームを用いる際には、暗に想定されている事前分布と、それがもたらし得る影響を意識することが重要になるだろう。
## 4 最後に
本稿の目的は、シグナリングゲームにおいて創発する言語が Zipf 短縮に従わないという知見に着目し、その原因の一端を示唆することであった。具体的には、目的関数が暗にもつ事前メッセージ分布に着目し、それが反 Zipf 短縮の一因になり得ることを示唆した。ゲームにおいて可変長メッセージを用いるのはごく自然に思える。しかし実は、先行研究の殆どは固定長メッセージを用いている。素朴に可変長にしても不自然にメッセージが長くなること、 メッセージ長罰則項は学習を不安定にし得ること、罰則化項の (進化) 言語学的な意味が不明瞭なこと等が可変長が忌避される要因ではないかと推測している。ゲームの最適化に潜むアーティファクトを 1 つずつ洗い出して解決していくことが、今後の言語創発研究を豊かなものにしていくだろう。
8)また、beta-VAE と情報ボトルネック法 (IB) [19]の目的関数にも密接な関係があることが知られている $[20,21]$ 。IB を用いた言語創発研究としては $[22,23]$ などがある。ただし、これらは 1 メッセージ 1 記号の設定を用いているため、今回のような Zipf 短縮関連の議論を適用できない。
9)ただし、 $P^{\mathrm{uni}}(m)$ が創発言語を“余計に長くする”ことが分かっても、“反” Zipf 短縮になる理由はそれほど自明でない。恐らく、NN のバイアスやエントロピー正則化のアドホックさなど、様々な要因が絡み合い反 Zipf 短縮が生じる。このことについて、より厳密に議論するのが今後の課題である。
## 謝辞
執筆に際してコメントを寄せてくださった宮尾祐介先生、李凌寒さんに感謝申し上げます。
## 参考文献
[1] Angeliki Lazaridou and Marco Baroni. Emergent multiagent communication in the deep learning era. CoRR, Vol. abs/2006.02419, , 2020.
[2] Rahma Chaabouni, Eugene Kharitonov, Emmanuel Dupoux, and Marco Baroni. Anti-efficient encoding in emergent communication. In Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, December 8-14, 2019, Vancouver, BC, Canada, pp. 6290-6300, 2019.
[3] George K. Zipf. The psycho-biology of language. Houghton Mifflin, 1935.
[4] Jasmeen Kanwal, Kenny Smith, Jennifer Culbertson, and Simon Kirby. Zipf' $\mathrm{s}$ law of abbreviation and the principle of least effort: Language users optimise a miniature lexicon for efficient communication. Cognition, Vol. 165, pp. 4552, 2017
[5] 田中久美子. 言語とフラクタル. 東京大学出版会, 2021 .
[6] David K. Lewis. Convention: A Philosophical Study. Wiley-Blackwell, 1969.
[7] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Comput., Vol. 9, No. 8, pp. 17351780, 1997.
[8] Mathieu Rita, Rahma Chaabouni, and Emmanuel Dupoux. "lazimpa": Lazy and impatient neural agents learn to communicate efficiently. In Proceedings of the 24th Conference on Computational Natural Language Learning, CoNLL 2020, Online, November 19-20, 2020, pp. 335343. Association for Computational Linguistics, 2020.
[9] Ryo Ueda and Koki Washio. On the relationship between zipf's law of abbreviation and interfering noise in emergent languages. In Proceedings of the ACL-IJCNLP 2021 Student Research Workshop, ACL 2021, Online, JUli 5-10, 2021, pp. 60-70. Association for Computational Linguistics, 2021.
[10] George K. Zipf. Human Behaviour and the Principle of Least Effort. Addison-Wesley, 1949.
[11] John Schulman, Nicolas Heess, Theophane Weber, and Pieter Abbeel. Gradient estimation using stochastic computation graphs. In Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 7-12, 2015, Montreal, Quebec, Canada, pp. 35283536, 2015.
[12] Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Mach. Learn., Vol. 8, pp. 229-256, 1992.
[13] Bengt Sigurd, Mats Eeg-Olofsson, and Joost Van Weijer. Word length, sentence length and frequency - zipf revisited. Studia Linguistica, Vol. 58, No. 1, pp. 37-52, 2004.
[14] George A. Miller. Some effects of intermittent silence. The American Journal of Psychology, Vol. 70, No. 2, pp. 311-314, 1957.
[15] Irina Higgins, Loïc Matthey, Arka Pal, Christopher P. Burgess, Xavier Glorot, Matthew M. Botvinick, Shakir Mohamed, and Alexander Lerchner. beta-vae: Learning basic visual concepts with a constrained variational framework. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017.
[16] Diederik P. Kingma and Max Welling. Auto-encoding variational bayes. In 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 14-16, 2014, Conference Track Proceedings, 2014.
[17] Sergey Levine. Reinforcement learning and control as probabilistic inference: Tutorial and review. CoRR, Vol. abs/1805.00909, , 2018.
[18] Ronald J. Williams and Jing Peng. Function optimization using connectionist reinforcement learning algorithms. Connection Science, Vol. 3, No. 3, pp. 241-268, 1991.
[19] Naftali Tishby, Fernando C. N. Pereira, and William Bialek. The information bottleneck method. CoRR, Vol. physics/0004057, , 2000.
[20] Alessandro Achille and Stefano Soatto. Information dropout: Learning optimal representations through noisy computation. IEEE Trans. Pattern Anal. Mach. Intell., Vol. 40, No. 12, pp. 2897-2905, 2018.
[21] Alexander A. Alemi, Ian Fischer, Joshua V. Dillon, and Kevin Murphy. Deep variational information bottleneck. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 2426, 2017, Conference Track Proceedings. OpenReview.net, 2017.
[22] Rahma Chaabouni, Eugene Kharitonov, Emmanuel Dupoux, and Marco Baroni. Communicating artificial neural networks develop efficient color-naming systems. Proceedings of the National Academy of Sciences, Vol. 118, No. 12, p. e2016569118, 2021.
[23] Mycal Tucker, Roger P. Levy, Julie Shah, and Noga Zaslavsky. Trading off utility, informativeness, and complexity in emergent communication. In Advances in Neural Information Processing Systems, 2022.
## A 証明
本節では、スペースの都合で本文には掲載できなかった証明を示す。
式 6 ・式 8 ・式 10 の証明. 本文で述べたように、 $P^{\mathrm{int}}(m ; \eta)$ は $P^{\mathrm{uni}}(m)$ 及び $P^{\mathrm{mon}}(m)$ を包含している。また、 $\alpha=0$ のとき $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)=\mathcal{J}_{\text {game }}$ であるから、 $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ は $\mathcal{J}_{\text {game }}$ を含む。従って、式 10 のみを示せばよい。
$
\begin{aligned}
& \nabla \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)\right] \\
= & \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\nabla \log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)+\left.\{\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{int}}(i, m ; \eta)-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{s}}(m \mid i)\right] \\
= & \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}}(m \mid i)\left[\nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\nabla \log P^{\mathrm{int}}(m ; \eta)+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\log P^{\mathrm{int}}(m ; \eta)-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)\right] \\
= & \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\log P^{\mathrm{int}}(m ; \eta)-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)\right] \\
= & \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}}(m \mid i)\left[\nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\left.\{\log P_{\boldsymbol{\theta}_{r}}(i \mid m)-|m| \log (|\mathcal{A}|-\eta)-\log Z^{\prime}-b(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)\right] \\
= & \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)-|m| \log (|\mathcal{A}|-\eta)-b^{\prime}(i)\right.\} \nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)\right] \\
= & \nabla \mathcal{J}_{\text {game }}^{\mathrm{LP}}(\log \{|\mathcal{A}|-\eta\}) .
\end{aligned}
$
1 つ目の等式は式 2 と同様の式変形によって得られ、 2 つ目の等式は $P_{\theta_{r}}^{\text {int }}(i, m ; \eta)$ の定義から従い、3つ目の等式は $\nabla P^{\mathrm{int}}(m ; \eta)=\mathbf{0}$ であることから従い、4つ目の等式は $P^{\mathrm{int}}(m ; \eta)$ の定義から従い、5つ目の等式は新たなベースライン関数 $b^{\prime}(i)=b(i)+\log Z^{\prime}$ を置くことで得られ、最後の等式は式 4 と同様の式変形によって得られる。
式 13 の証明. 式 13 は以下のように証明できる。
$
\begin{aligned}
& \mathcal{J}_{\mathrm{vae}}(\beta)=\mathbb{E}_{P_{I}(i)}\left[\mathbb{E}_{\boldsymbol{P}_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)\right]-\beta \operatorname{KL}\left(P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i) \| P^{\mathrm{int}}(m ; \eta)\right)\right] \\
& \left.=\mathbb{E}_{P_{I}(i)}\left[\mathbb{E}_{\boldsymbol{P}_{\boldsymbol{\theta}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)\right]-\beta \mathbb{E}_{\boldsymbol{P}_{\boldsymbol{\theta}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)-\log P^{\operatorname{int}}(m ; \eta)\right)\right]\right] \\
& \left.=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}(i \mid m)-\beta \log P_{\boldsymbol{\theta}_{s}}(m \mid i)+\beta \log P^{\mathrm{int}}(m ; \eta)\right)\right] \\
& \left.=\mathbb{E}_{\boldsymbol{P}_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}(i \mid m)+\beta \log P^{\mathrm{int}}(m ; \eta)\right)\right]-\beta \mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{s}}(m \mid i)\right] \\
& \left.=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{S}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\beta \log P^{\mathrm{int}}(m ; \eta)\right)\right]+\beta \mathbb{E}_{P_{I}(i)}\left[\mathcal{H}\left(P_{\boldsymbol{\theta}_{s}}(m \mid i)\right)\right] \\
& =\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{s}}(m \mid i)}\left[\log \boldsymbol{P}_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)-\beta|m| \log (|\mathcal{A}|-\eta)\right]-\mathbb{E}_{P_{I}(i), p_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\log Z^{\prime}\right]+\beta \mathbb{E}_{P_{I}(i)}\left[\mathcal{H}\left(P_{\boldsymbol{\theta}_{s}}(m \mid i)\right)\right] \\
& =\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\beta \log \{|\mathcal{A}|-\eta\})+\beta \mathbb{E}_{P_{I}(i)}\left[\mathcal{H}\left(P_{\boldsymbol{\theta}_{s}}(m \mid i)\right)\right]+\text { const. }
\end{aligned}
$
1 つ目の等式は $\mathcal{J}_{\mathrm{vae}}(\beta)$ の定義 (式 12 ) そのものであり、2つ目の等式は KL ダイバージェンスの定義から従い、3つ目・4つ目の等式は期待値の線形性から従い、5つ目の等式はエントロピーの定義から従い、6つ目の等式は $P^{\mathrm{int}}(m ; \eta)$ の定義から従い、7つ目の等式は $\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ の定義及び $\nabla \mathbb{E}\left[\log Z^{\prime}\right]=\nabla \log Z^{\prime}=\mathbf{0}$ から従う。
## B メッセージ長分布をガンマ分布としてゲームの目的関数を逆算した場合
自然言語における単語長分布はガンマ分布に従うことが知られている [13]。では、メッセージ長をガンマ分布として、そこからゲームの目的関数を逆算したらどのような形になるのであろうか。まず、メッセージ長がガンマ分布に従うと仮定する: $P^{\mathrm{gam}}(l ; k, \lambda):=\frac{1}{Z^{\prime \prime}} l^{k-1} \exp (-\lambda l) . k>0, \lambda>0$ は超パラメータであり、 $Z^{\prime \prime}$ は適当な正則化項である。このとき、 $P^{g a m}(l ; k, \lambda)$ に無矛盾なメッセージ分布として、以下が挙げられる:
$
P^{\text {gam }}(m ; k, \lambda):=\frac{1}{Z^{\prime \prime \prime}}|m|^{k-1} \exp (-\{\lambda-\log (|\mathcal{A}|-1)\}|m|) .
$
ただし、 $Z^{\prime \prime \prime}=\frac{Z^{\prime \prime}}{\log (|\mathcal{A}|-1)}$ である。 $P^{\mathrm{gam}}(m ; k, \lambda)$ と受信者 $P_{\boldsymbol{\theta}_{r}}(i \mid m)$ を合わせて、 $i, m$ の同時分布 $P_{\boldsymbol{\theta}_{r}}^{\mathrm{gam}}(i, m):=$ $P_{\boldsymbol{\theta}_{r}}(i \mid m) P^{\mathrm{gam}}(m ; k, \lambda)$ を定義し、新たなゲームの目的関数 $\mathcal{J}_{\mathrm{game}}^{\mathrm{gam}}(k, \lambda)$ を考える:
$
\mathcal{J}_{\text {game }}^{\text {gam }}(k, \lambda):=\mathbb{E}_{P_{I}(i), P_{\boldsymbol{\theta}_{\boldsymbol{s}}}(m \mid i)}\left[\log P_{\boldsymbol{\theta}_{r}}^{\mathrm{gam}}(i, m)\right] .
$
ここで、 $\mathcal{J}_{\mathrm{game}}^{\mathrm{gam}}(k, \lambda)$ の微分は以下の形で得られる:
$
\nabla \mathcal{J}_{\text {game }}^{\text {gam }}(k, \lambda)=\mathbb{E}\left[\nabla \log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+\left.\{\log P_{\boldsymbol{\theta}_{\boldsymbol{r}}}(i \mid m)+(k-1) \log (|m|)-(\lambda+\log (|\mathcal{A}|-1))|m|\right.\} \nabla \log P_{\boldsymbol{\theta}_{s}}(m \mid i)\right]
$
$\mathcal{J}_{\text {game }}^{\mathrm{LP}}(\alpha)$ 同様の長さに比例する罰則に加え、長さの対数に比例する報酬が追加されたような形になる。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D3-5.pdf | # 統語的構成や自己注意を持つ言語モデルは 「人間らしい」のか?
吉田遼 大関洋平
東京大学
\{yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
本研究では、統語的構成と自己注意をアーキテクチャに持つ/持たない言語モデルの、人間の眼球運動・脳波のモデリングの精度を評価することで、それぞれの構成要素の「人間らしさ」を統一的に検証する。具体的には、それぞれの構成要素を持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルを、first pass reading time と P600 振幅で評価する。結果、統語的構成と自己注意は共に眼球運動はよく予測するが、脳波を上手く予測するのは統語的構成のみであった。これは、統語的構成は間接的な認知データの説明力に留まらず人間のオンライン言語処理における高次処理に対応するが、自己注意は高次処理とは乘離している可能性を示唆する。
## 1 はじめに
近年の自然言語処理で用いられる大規模事前学習可能な言語モデルは、アーキテクチャ自体も「人間らしい」のだろうか。これらの言語モデルは、様々なタスクで人間を超える精度を達成している (e.g., [1]) が、言語獲得のデータ効率の悪さなど、人間との乘離もしばしば指摘されている [2]。これに対比されるように、「人間らしい」アーキテクチャであるとして挙げられる言語モデルの代表が、再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammar, RNNG; [3]) である。RNNG は、統語的教示が統合された再帰的ニューラルネットワー ク (Recurrent Neural Network, RNN; [4]) であり、その確率的予測が、人間のオフライン言語処理を反映する容認性判断 $[5,6,7]$ や、オンライン言語処理を反映する眼球運動・脳活動データ $[8,9,10]$ と高い一致を示すことが知られている。ここで、RNNG の最大の特徴は、句構造を階層的に一つのベクトル
へと構成する統語的構成であり、統語的構成なしでは RNNG の性能が損なわれることが知られている $[6,8]$ 。
一方で、近年の自然言語処理では、Transformer [11] が RNN を様々なタスクで上回り [12]、過去の情報に選択的に注意できる自己注意の自己回帰に対する優位性が示されている。より近年では、Transformer が、単語毎提示の読み時間や脳波に限れば RNN よりも上手く予測できること [13] から、認知モデリングの文脈においても自己注意の「人間らしさ」が主張され始めている。これらを受け、先行研究 [14] では、RNNG の統語的構成と Transformer の自己注意を統合したモデルである構成注意文法 (Composition Attention Grammar, CAG) が提案され、人間のオフライン容認性判断に対して RNNG や Transformer よりも高い一致率を示すことが明らかにされた。しかし、この統語的構成と自己注意を併せ持つモデルが、人間のオンライン言語処理とも高い一致率を示すかどうかは、未だ明らかにされていない。
さらに、これらの認知モデリングの先行研究では、RNN ベースのモデルにおける統語的構成の効果と、統語的教示を持たないモデルにおける自己注意の効果が、それぞれ独立に検証されるに留まり、統語的構成・自己注意それぞれの要素が、他方の要素の影響を受けずに、普遍的に認知的妥当性が高いかどうか、は統一的に検証されてきていない。
そこで、本研究では、統語的構成と自己注意をアーキテクチャに持つ/持たない言語モデルの、人間の眼球運動・脳波のモデリングの精度を評価することで、それぞれの構成要素の「人間らしさ」を統一的に検証する。具体的には、それぞれの構成要素を持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルを、first pass reading time と P600 振幅で評価する。
表 1 本研究で評価する、統語的構成と自己注意をアーキテクチャに持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない2つの統語的教示なしべースライン言語モデル。
## 2 実験
## 2.1 オンライン文処理のモデリング
人間のオンライン言語処理は予測処理を伴い、各単語が文脈に基づいた予測が難しい時には、処理負荷が向上し、視線停留時間が上昇したり、事象関連電位が励起されたりすると言われる。サプライザル理論 $[15,16]$ は、この「予測の難しさ」をサプライザル $-\log p$ (単語|文脈) として定式化した。認知モデリングの分野では、この值が言語モデルの予測確率と人間の眼球運動や脳波などとの橋渡し仮説として用いられ、どのような言語モデルが「人間らしい」予測をするのかが、アーキテクチャ・学習デー タなどの観点から検証されてきた (e.g., [17])。本研究でも、サプライザル理論を橋渡し仮説として用い、統語的構成と自己注意をアーキテクチャに持つ/持たない言語モデルの認知的な妥当性を検証する。
## 2.2 言語モデル
本研究で評価する、統語的構成と自己注意をアー キテクチャに持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルを、表 1 に示した。全ての言語モデルは、先行研究 [14] により Brown Laboratory for Linguistic Information Processing 1987-89 Corpus Release 1(BLLIP、LG、約 1.8M 文) [18] で学習されたパラメータ数約 $16.6 \mathrm{M}$ のモデルを用いた。各モデルは 3 つの異なるシードで学習されている。
LSTM RNN ゙ースの、自己注意を持たない、純正言語モデル [19]。自己注意なしのモデルの、統語的教示なしべースラインである。
ActionLSTM RNN ベースの、自己注意を持たない、統語的教示を統合された言語モデル $[20]$ 。ただし、統語的構成は行わない。
RNNGRNNベースの、自己注意を持たない、統語的教示を統合された言語モデル [3]。統語的構成を行う。
図 1 本研究で検証する P600(後頭部電極の、各単語の最初の視線停留から 600-700ms の間の振幅平均)のトポグラフィ。電極と時間空の選択は先行研究 [8] を踏襲した。図は同先行研究より抜粋。
Transformer Transformer ベースの、自己注意を持つ、純正言語モデル [21]。自己注意ありのモデルの、統語的教示なしべースラインである。
PLM Transformer ベースの、自己注意を持つ、統語的教示を統合された言語モデル [22]。ただし、統語的構成は行わない。
CAG Transformerベースの、自己注意を持つ、統語的教示を統合された言語モデル [14]。統語的構成を行う。
## 2.3 眼球運動・脳波データ
英語母語話者 12 人分の、眼球運動と脳波の同時計測データである、Zurich Cognitive Language Processing Corpus (ZuCo; [23]) を用いた。先行研究 [24] を踏襲し、自然な読みのデータの 700 文を用いる。
眼球運動データ先行研究を踏襲し、first pass reading time を用いた。付録 A に示す前処理を施し、 160,603 中 93,782 のデータポイント(単語)が統計分析の対象となった。
図 2 統語的構成と自己注意をアーキテクチャに持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルの、心理学的予測精度 (PPP) の結果。縦軸が PPP を、横軸が各言語モデルを表す。棒グラフはシードの異なる 3 つのモデルの PPP の平均値を表し、それぞれの点は各シードの PPP を表す。
脳波データ統語的処理に関連する [25] とされる、P600 振幅(後頭部電極の、各単語の最初の視線停留から 600-700ms の間の振幅平均)を用いた。電極と時間窓の選択は先行研究 [8] を踏襲した (図 1)。付録 B に示す前処理を施し、160,603 中 86,070のデータポイント (単語) が統計分析の対象となった。
## 2.4 評価指標
各言語モデルの予測確率 $p$ (単語| 文脈) に基づくサプライザル $-\log p$ (単語|文脈) の、眼球運動・脳波のモデリング精度を評価する。評価指標としては、心理学的予測精度 (Psychometric Predictive Power, PPP):眼球運動・脳波をモデル化するベースライン回帰モデルに、各言語モデルのサプライザルを加えた際の対数尤度の増加分 $(\Delta \operatorname{LogLik})$ を用いる。1) 先行研究 $[26,10]$ を踏襲し、眼球運動 (ET) のベースライン回帰モデルには以下の線形混合モデルを用いる:2)
$
\begin{aligned}
\log (\mathrm{ET}) & \sim \text { length + prev_length } \\
& + \text { freq }+ \text { prev_freq } \\
& + \text { is_first + is_last + is_second_last } \\
& + \text { lineN + segmentN }+(1 \mid \text { subj }) .
\end{aligned}
$
また、先行研究 $[13,8]$ を考慮し、脳波 (EEG) のべー スライン回帰モデルには以下の線形混合モデルを用
いる:
$
\begin{aligned}
\log (\mathrm{EEG}) & \sim \text { sent_order + word_order } \\
& + \text { baseline_activity }+(1 \mid \text { subj }) .
\end{aligned}
$
各特徵量の詳細は付録 $\mathrm{C}$ に記す。数値型の特徵量は全て中心化を行なった。最初に一度モデル化した上で 3 標準偏差を超えるデータポイントを除外した。 これにより、眼球運動、脳波のそれぞれで、92,246、及び 85,628 、のデータポイントが最終的な分析対象となった。また、各言語モデルの PPP ( $\Delta$ LogLik $)$ の差が有意であるかどうかについては、各言語モデルで最も性能が良かったシードの結果について、ネストしたモデル比較を行い確かめた:比較対象となる言語モデルのサプライザルを共に含んだ回帰モデルから、着目している言語モデルのサプライザルを除いたときの逸脱度の増加分を $\chi^{2}$ 検定 $(p \leq 0.05)$ により検定した。
## 3 結果と考察
統語的構成と自己注意をアーキテクチャに持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルの、PPP の結果を、図 2 に示した。縦軸が PPPを、横軸が各言語モデルを表す。棒グラフはシードの異なる 3 つのモデルの PPP の平均値を表し、それぞれの点は各シードの PPP を表す。また、 PPP の有意差を検定するための、ネストしたモデル比較の結果を、表 2 に示した。統語的教示/統語的構成/自己注意を持つ言語モデルが、持たない言語モデルより PPPが高いかどうかを、その他の構成要素を持つ/持たない条件別に比較している。
表 2 心理学的予測精度 (PPP) の有意差を検定するための、ネストしたモデル比較の結果。統語的教示/統語的構成/自己注意を持つ言語モデルが、持たない言語モデルより PPPが高いかどうかを、その他の構成要素を持つ/持たない条件別に比較している。
眼球運動 First pass reading time の PPP の結果と、 ネストしたモデル比較の結果は、それぞれ、図 2、表 2 の左に示されている。また、事前にベースライン回帰モデルとのネストしたモデル比較を行い、全ての言語モデルの PPP が有意であり、眼球運動のモデリングに効果があることを確かめた。図 2 より、統語的構成と自己注意の両者を持つ CAG が最も高いPPPを達成しており、統語的構成と自己注意の両者が、眼球運動という、人間のオンライン文処理から得られる間接的認知データの説明に、一定程度有効であることが示唆されている。さらに、表 2 より、統語的構成・自己注意の両者が、条件間で普遍的に有効であることが統計的に確かめられた。ベー スライン言語モデルとの比較による、統語的教示の有効性については、条件間で統一した結論は得られていないが、これは統語的教示を与えることは必要十分ではなく、統語的構成のようなそれを扱うアー キテクチャを先天的にモデルに組み込むことが重要であることを示唆している $[6,8]$ 。
脳波 P600 振幅の PPP の結果と、ネストしたモデル比較の結果は、それぞれ、図 2、表 2 の右に示されている。事前にベースライン回帰モデルとのネストしたモデル比較を行い、統語的構成を持つ RNNG と CAG の PPP のみが有意であり、その他の言語モデルは脳波のモデリングに効果がないことが確かめられた。図 2 より、それら RNNG と CAG 間では、 RNNG がより高い PPP を達成しており、統語的構成は脳波に反映される高次処理に対応する可能性が高い (cf. [8]) が、自己注意はそれらの高次処理には対応しない可能性が高いことが示唆されている。さら
に、表 2 より、統語的構成は条件間で普遍的に有効であることが統計的に確かめられた。自己注意や、統語的教示については、いずれの条件でも有効性が確かめられなかった。
総合考察本研究の結果を総合すると、以下のような示唆が得られる。まず、文法的構成は、眼球運動のような間接的な認知データの説明力に留まらず、人間のオンライン文処理における高次処理に対応する可能性が高い。一方で、自己注意は、眼球運動に対する説明力はあるが、オンライン文処理における高次処理とは対応していない可能性がある。また、統語的教示自体は眼球運動・脳波の予測に必ずしも有効でなく、認知的妥当性の向上にはそれを扱うアーキテクチャ (i.e., 統語的構成) が必要である。
## 4 おわりに
本研究では、統語的構成と自己注意をアーキテクチャに持つ/持たない言語モデルの、人間の眼球運動・脳波のモデリングの精度を評価することで、それぞれの構成要素の「人間らしさ」を統一的に検証した。具体的には、それぞれの構成要素を持つ/持たない 4 つの統語的言語モデルと、自己注意を持つ/持たない 2 つの統語的教示なしべースライン言語モデルを、first pass reading time と P600 振幅で評価した。結果、統語的構成と自己注意は共に眼球運動はよく予測したが、脳波を上手く予測するのは統語的構成のみであった。これは、統語的構成は間接的な認知データの説明力に留まらず人間のオンライン言語処理における高次処理に対応するが、自己注意は高次処理とは乘離している可能性を示唆する。
## 謝辞
本研究は本研究は、JST さきがけ JPMJPR21C2 の
支援を受けたものです。
## 参考文献
[1] Charlotte Caucheteux and Jean-Rémi King. Brains and algorithms partially converge in natural language processing. Communications Biology, Vol. 5, No. 1, pp. 1-10, February 2022.
[2] Tal Linzen. How Can We Accelerate Progress Towards Human-like Linguistic Generalization? In ACL 2020, pp. 5210-5217, Online, July 2020. Association for Computational Linguistics.
[3] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent Neural Network Grammars. In NAACL 2016, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics.
[4] Jeffrey L. Elman. Finding structure in time. Cognitive Science, Vol. 14, No. 2, pp. 179-211, April 1990.
[5] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs Can Learn Syntax-Sensitive Dependencies Well, But Modeling Structure Makes Them Better. In ACL 2018, pp. 14261436, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[6] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural Supervision Improves Learning of Non-Local Grammatical Dependencies. In NAACL 2019, pp. 3302-3312, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[7] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A Systematic Assessment of Syntactic Generalization in Neural Language Models. In ACL 2020, pp. 1725-1744, Online, July 2020. Association for Computational Linguistics.
[8] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In ACL 20018, pp. 2727-2736, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[9] Jonathan R. Brennan, Chris Dyer, Adhiguna Kuncoro, and John T. Hale. Localizing syntactic predictions using recurrent neural network grammars. Neuropsychologia, Vol. 146, p. 107479, September 2020.
[10] Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars. In EMNLP 2021, pp. 29642973, Online and Punta Cana, Dominican Republic, January 2021. Association for Computational Linguistics.
[11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL
2019, pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[13] Danny Merkx and Stefan L. Frank. Human Sentence Processing: Recurrence or Attention? In CMCL 2021, pp. 12-22, Online, June 2021. Association for Computational Linguistics.
[14] Ryo Yoshida and Yohei Oseki. Composition, Attention, or Both? In Findings of EMNLP 2022, Online and Abu Dhabi, the United Arab Emirates, December 2022. Association for Computational Linguistics.
[15] John Hale. A Probabilistic Earley Parser as a Psycholinguistic Model. In NAACL 2001, pp. 159-166, 2001.
[16] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, pp. 1126-1177, March 2008.
[17] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower Perplexity is Not Always Human-Like. In ACL-IJCNLP 2021, pp. 5203-5217, Online, August 2021. Association for Computational Linguistics.
[18] Eugene Charniak, Don Blaheta, Niyu Ge, Keith Hall, John Hale, and Mark Johnson. BLLIP 1987-89 WSJ Corpus Release 1, 2000.
[19] Sepp Hochreiter and Jürgen Schmidhuber. Long Shortterm Memory. Neural computation, Vol. 9, No. 8, pp. 1735-80, December 1997.
[20] Transition-Based Dependency Parsing with Stack Long Short-Term Memory. In ACL-IJCNLP 2015, pp. 334-343, Beijing, China, July 2015. Association for Computational Linguistics.
[21] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving Language Understanding by Generative Pre-Training. p. 12, 2018.
[22] Peng Qian, Tahira Naseem, Roger Levy, and Ramón Fernandez Astudillo. Structural Guidance for Transformer Language Models. In ACL-IJCNLP 2021, pp. 3735-3745, Online, August 2021. Association for Computational Linguistics.
[23] Nora Hollenstein, Jonathan Rotsztejn, Marius Troendle, Andreas Pedroni, Ce Zhang, and Nicolas Langer. ZuCo, a simultaneous EEG and eye-tracking resource for natural sentence reading. Scientific Data, Vol. 5, No. 1, p. 180291, December 2018.
[24] Nora Hollenstein, Federico Pirovano, Ce Zhang, Lena Jäger, and Lisa Beinborn. Multilingual Language Models Predict Human Reading Behavior. In NAACL 2021, pp. 106-123, Online, June 2021. Association for Computational Linguistics.
[25] Lee Osterhout and Phillip J Holcomb. Event-related brain potentials elicited by syntactic anomaly. Journal of Memory and Language, Vol. 31, No. 6, pp. 785-806, December 1992.
[26] Masayuki Asahara, Hajime Ono, and Edson T. Miyamoto. Reading-Time Annotations for "Balanced Corpus of Contemporary Written Japanese". In COLING 2016, pp. 684694, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee.
[27] Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. Pointer Sentinel Mixture Models. In ICLR 2017, 2017.
表 3 本研究で用いた特徴量。
## A 眼球運動データの前処理
眼球運動データについては、データセットの提案論文 [23] で施されている前処理に加えて、先行研究 [10] を踏襲し、(i) 視線停留がゼロの単語、(ii) 大規模コーパス (Wikitext-2, [27]) の語彙に含まれない単語、(iii) 語彙に含まれない語に後続する単語、を除いた。
## B 脳波データの前処理
脳波データについては、データセットの提案論文 [23] で施されている前処理に加えて、先行研究 [8] を踏襲し、 $40 \mathrm{~Hz}$ のローパスフィルタを適用し、さらに、平均再参照を行なった。また、視線停留後 $0-100 \mathrm{~ms}$ の平均振幅に対してべースライン補正を行なった。また、(i) 視線停留がゼロの単語、(ii)大規模コーパス (Wikitext-2) の語彙に含まれない単語、(iii) 文の最初及び最後に現れる単語、を除いた。
P600 の電極位置については、先行研究 [8] とはモンタージュが異なるため、厳密に同じではないが、後頭部電極を用いた。
## C 回帰モデルの特徵量
本研究のベースライン回帰モデルに用いた特徴量を、表 3 に示した。頻度情報は大規模コーパス (Wikitext-2)より算出した。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-1.pdf | # 日本語有害表現スキーマの提案と評価
小林 滉河 ${ }^{1}$ 山崎 天 ${ }^{1}$ 吉川 克正 ${ }^{1}$ 牧田 光晴 1
中町 礼文 ${ }^{1}$ 佐藤 京也 ${ }^{1,2}$ 浅原 正幸 ${ }^{3}$ 佐藤 敏紀 ${ }^{1}$
${ }^{1}$ LINE 株式会社 2 東京都立大学 ${ }^{3}$ 国立国語研究所
\{koga.kobayashi, takato.yamazaki, katsumasa.yoshikawa, makita.mitsuharu,
akifumi.nakamachi, keiya.sato, toshinori.sato\}@linecorp.com
masayu-a@ninjal.ac.jp
## 概要
本研究では、言語モデルや人が生成した有害表現の検知を目的としたラベリングスキーマを考案し、日本語有害表現データセットの構築と評価に取り組んだ。まず、提案したスキーマを用いてデータセットを構築し、アノテーションに関する定量的な分析を行った。次に、構築したデータセットを利用して有害表現検知器を作成した。作成した有害表現検知器は既存の有害表現検知システムに比べ、少ないデータ数で同等の性能を達成し、様々な種類の有害表現を捉えられる可能性を示した。また、対話システムが生成した応答に対して、有害表現検知器を適用したところ、有害な発話を高精度で検知できることを確認した。
## 1 はじめに
大規模な Webテキストコーパスによって構築された言語モデルが、有害な文章を生成するリスクが問題視されている $[1,2]$ 。この問題に対して、言語モデルによって生成されたテキストをフィルタリングすることで、有害表現を抑制する取り組みが行われている [3]。しかし有害/非有害といった単純なラベルで構築したフィルターだけでは、図 1 に示すような対話システムの個性を表現するために差別的な表現のみを抑制したいといった複雑なユースケースには利用できない。
また、インターネットの普及により、YouTube や Twitterのようなソーシャルプラットフォームは人々の生活に欠かせない存在になっている。一方で、プラットフォーム上でのへイトスピーチや嫌がらせといった有害表現が急増している [4]。この問題に対処するため、有害表現データセットの構築に関する研究が英語 [5]、韓国語 [6]、ポルトガル語 [7] などの
図 1 同じ発話でもシステムによって、適切なフィルタリングは異なる。例えば、攻撃的な性格を持つ対話システムを構築したい場合、暴力的な文章を全てフィルターすると適切な応答を得られない場合がある。
多様な言語で行われている。しかし、日本語の大規模なデータに対する有害表現ラベルのアノテーションは、限定的にしか行われていない。
本研究では、言語モデルが生成した文章や人が書いた文章を対象として、有害表現1)を詳細に分類できる有害表現スキーマを提案する。さらに、提案したスキーマを元にデータセット2)を構築した。また、構築したデータセットを用いて、有害レベル予測モデルと有害カテゴリ予測モデルの 2 つの有害表現検知器を構築し、評価した。実験の結果、作成した有害レベル予測モデルは公開されている多言語有害表現検知システムと同等の ROC-AUC が得られることを日本語において確認した。また有害レベル予測モデルが実運用に耐えうるか確認するため、対話
1)本稿では有害表現について説明するため、気分を害する可能性がある文が含まれています。
2)有害表現スキーマとデータセットの一部は https: //github.com/inspection-ai/japanese-toxic-datasetにて公開している。
システムに対する性能を測定した。その結果、構築したモデルは対話システムの有害発話を防ぐのに有効であることを確認した。有害カテゴリ予測モデルでは、 4 つのカテゴリについて ROC-AUC が 0.6 を超え、有害表現をより詳細に分類できる可能性を示した。
## 2 関連研究
事前学習済みモデルの発展により、言語モデルが生成する有害表現の制御に関する研究が近年盛んになっている [1]。ConvAbuse データセット [8]では、対話モデルを対象とした有害表現スキーマを提案し、 5 段階の有害レベルによるラベリング、 8 種類の有害タイプ、ターゲットや直接性といった様々な観点からアノテーションスキーマを定義し、ラベル付きデータセットを公開した。
ソーシャルプラットフォーム上の有害表現研究として、Twitter[9]、YouTube[10]、Reddit[11]、 Wikipedia[12] で構築された有害表現データセットが公開されている。このような有害表現に関する研究では、共通して利用される分類スキーマは存在せず、各研究が対象にするカテゴリについて焦点が置かれた、独自のアノテーションスキーマを利用していることが多い。
また日本語に対応している有害表現検知器に Perspective API[13] がある。これは 100 万文以上から構成される多言語有害表現データセットを学習したモデルの推論結果を提供するサービスである。このモデルの学習に利用したデータセットは公開されておらず、単一言語で学習したときの性能について明記されていない。そのため実験結果を再現するためには多言語での大量のアノテーションが必要となり、非常に高いコストが要求される。
日本語圏においては、インターネット上のいじめ $[14,15]$ やソーシャルメディアにおけるへイトスピーチ検出 [16] を対象とした類似研究が存在する。本研究では、いじめやへイトスピーチだけではなく、言語モデルや人による有害表現全体を対象とした、アノテーションスキーマの提案を行った。
## 3 データセット構築手法
## 3.1 データ収集
5ch、ガールズちゃんねる、Twitter といった日本語圏で利用者数が多いソーシャルプラットフォーム
をデータ収集元とし、アノテーション対象サンプルを 1,000 万件以上収集した。その後、得られたデー タに対して、文が短すぎるものや長すぎるもの、個人情報が含まれる文章を除去する等の前処理を行った。データを確認したところ、有害表現は非有害表現に比べ、出現頻度が少ない。そのためランダムサンプリングによってアノテーションする文章を選択するとアノテーション効率が低くなることが想定された。そこで文章の多様性を持たせつつ、アノテー ションの効率を高める方法として、既存研究 [17] を参考に、ランダムサンプリングの他、日本語有害表現を集めた辞書や能動学習による文章選定をした。 これらの手法によって収集された計 12,647 文に対して、アノテーションを行った。
## 3.2 スキーマの設計
本研究で提案するアノテーションスキーマは有害レベルと有害カテゴリの 2 つのアノテーションタスクから構成される。有害レベルには既存データセット3)を参考に、表 1 に示す 4 段階からなる順序尺度を用いた。有害カテゴリについては MAMA サイクル [18] を適用し、最終的に表 2 に示す 7 つのメインカテゴリから構成される 41 のサブカテゴリ、倫理的観点を持つ階層的なラベリングスキーマを構築した。サブカテゴリを含めた有害カテゴリの詳細は付録の表 7 に追記する。
## 3.3 アノテーション
本研究では、 5 人の自然言語処理に関わる開発者を含めた計 8 人の日本語母語話者をアノテータとした。また、全文に対して少なくとも 2 人によるラべリングが行われるようにアノテータを割り当てた。一貫性のあるアノテーションを実現するために、アノテーションスキーマの説明、いくつかの例文を添えたガイドライン、アノテーション時の注意事項、 パイロットタスクをアノテータに提供した。さらに、アノテーション時に出現した判断が難しい文章については、定期的に議論を行い、アノテーションの質の向上に努めた。
## 4 構築済みデータセットの分析
各ラベル定義と構築したデータセット 12,647 文のアノテーション分布を表 1,2 に記す。有害レベル
3) https://www.kaggle.com/c/jigsaw-unintended-bias-intoxicity-classification/data
表 1 有害レベルの定義とアノテーション分布。文章数でないことに注意。
* 四捨五入による端数を調整のため、割合の内訳と計は一致していない。
表 2 有害カテゴリにおけるメインカテゴリの定義とアノテーション分布。正例割合は全アノテーションに対して各力テゴリが付与された割合であり、マルチクラス分類のため合計は $100 \%$ にならないことに注意。
について、アノテーションの半数以上が Not Toxic であり、様々な方法で文の取捨選択を行ったにも関わらず、収集された多くのテキストがアノテータにとって非有害であることを確認した。
また有害カテゴリでは多くの正例を得られたカテゴリとそうでないカテゴリが存在している。例えば、迷惑行為カテゴリが付与されたアノテーションは全体の $27.8 \%$ に達していた。一方で出会い・プライバシー侵害や偏向表現カテゴリが付与されたアノテーションは全体の $1 \%$ 以下である。これはサンプリング時にカテゴリが偏った可能性や収集先のプラットフォームにて投稿されている文章に偏りが生じている可能性が考えられる。
アノテータ間の合意について、有害(Toxic・Very Toxic)と非有害(Not Toxic)の二值に丸めた有害/非有害、Not Toxic, Hard to Say, Toxic, Very Toxic の四値分類、各有害カテゴリにおけるクリッペンドルフの $\alpha$ 係数 [19] の算出を行った結果が表 4 になる。有害レベルについて、有害/非有害の二値で $\alpha$ 係数を算出したところ、 0.78 と高い一致率を確認できた。しかし四値分類での $\alpha$ 係数は 0.40 と二值の $\alpha$ 係数に比べ、值が低い。つまり、有害/非有害という二值でのアノテーションより遥かに四段階による有害レベルのアノテーションはアノテータの間で合意形成が難しいことが分かる。また有害カテゴリは、カテゴリによって $\alpha$ 係数に大きなばらつきがある。これはカテゴリごとにアノテーションの難易度が異なると表 3 各ラベルのクリッペンドルフの $\alpha$ 係数
解釈できる。
## 4.1 有害表現検知器の構築
構築した日本語有害表現データセットを用いて、有害レベル予測モデルと有害カテゴリ予測モデルの 2 つ有害表現検知器を作成する。モデルには日本語 $\mathrm{BERT}^{4}$ )を利用した。またファインチューニングの際には、構築したデータを訓練用、検証用、評価用データ $(80 \%: 10 \%: 10 \%)$ に分割し、訓練用データを学習に、検証用データをハイパーパラメータの探索に用いた。
自然言語処理における分類タスクでは、アノテー タによって付与されたラベルを多数決や統計的手法を用いて、ゴールドスタンダードを定めることが一般的である。しかし、有害性のような個人や文化
4) https://huggingface.co/cl-tohoku/bert-basejapanese-v2/
表 4 LINENLP チームのシステムが対話コンペ 4 にて生成した有害文章とそれに対する各モデルの有害スコア
& .825 & .985 \\
によって感じ方が大きく異なるトピックについて、唯一の正解を定めることは正当ではない。そこで本研究では、文章に対してアノテータが正例と付与した割合を予測する確率回帰モデルを構築した。このモデルがある文章に対して、出力したスコアが 0.9 だった場合、10人中 9 人がその文章を見たとき有害とラベリングすると解釈できる。
作成したモデルの評価指標には ROC-AUC、MAE (平均絶対値誤差)、MSE(平均二乗誤差)を利用した。まずは有害レベル予測モデルと比較対象である Perspective API[13] による実験結果を表 5 に示す。我々のモデルは、訓練用データが約 10,000 文と少ない。それにも関わらず、Perspective API と比べ、評価用データにおいて AUC が高く、MAE、MSE は低い。つまり、同等程度の有害表現検知性能を有していることを確認できる。
有害カテゴリ予測モデルの結果を表 6 に示す。これら有害カテゴリ予測モデルは有害レベル予測モデルに比べ、全体的に ROC-AUC は低い。しかし、 データが十分に集まった 4 つのカテゴリにおいて ROC-AUC が 0.6 を超えていることが確認できた。
## 4.2 対話システムへの適用
本節では有害レベル予測モデルが言語モデルの応用タスクにおいて有効であることを対話システムを用いて確認する。評価用データとして、対話システムライブコンペティション 4[20](以降、対話コンペ 4)にて行われた発話データを使用する。対話コンペ 4 では、任意の話題について話すオープントラックと定められた状況に合った発話が求められるシチュエーショントラックの二種類のトラックがある。本研究では、LINENLP チーム $[21,22]$ が表 6 評価用データによる有害カテゴリモデルの評価
*学習データが 300 件以下であるカテゴリについては、モデル構築をしていない。
開発した対話システムによる両トラックでの発話 1,025 文を人手で確認し、その中から有害だと思われる 4 つの文章を抽出した。これらの文章に対する、Perspective API と我々が構築したモデルによる有害度スコアを表 4 に示す。対話コンペ 4 で生成された有害文章において、我々の有害レベル予測モデルは全て 0.8 以上のスコアを算出し、対話システムが生成した有害表現の検知が可能なことを確認した。また、Perspective API と構築したモデルの ROC-AUC は $99.90 \%$ と $99.93 \%$ であり、両者とも非常に高い値を出した。
## 5 結論と今後の課題
本研究では、日本語有害表現検出スキーマの提案を行った。このスキーマを用いて、計 12,647 文からなる日本語有害表現データセットを構築したところ、一定水準のアノテータ間の一致率を確認できた。また、構築したデータを用いて、有害レベルと有害カテゴリを予測するモデルを作成し、評価を行った。その結果、提案したスキーマを利用することで、有害レベル予測において既存システムより少ない訓練データ数で同程度の性能を達成できた。更に有害カテゴリを用いることで、柔軟なフィルタリングシステムを構築できる可能性を示した。
今後は更にアノテーションデータを増やし、有害カテゴリに関する深い分析や全ての有害カテゴリの分類器について調査を行いたい。
## 謝辞
本研究のデータセット構築を手伝ってくださった全ての方に感謝します。
## 参考文献
[1] Samuel Gehman, Suchin Gururangan, Maarten Sap, Yejin Choi, and Noah A. Smith. RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language Models. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 3356-3369, 2020.
[2] Laura Weidinger, Jonathan Uesato, Maribeth Rauh, Conor Griffin, Po-Sen Huang, John Mellor, Amelia Glaese, Myra Cheng, Borja Balle, Atoosa Kasirzadeh, Courtney Biles, Sasha Brown, Zac Kenton, Will Hawkins, Tom Stepleton, Abeba Birhane, Lisa Anne Hendricks, Laura Rimell, William Isaac, Julia Haas, Sean Legassick, Geoffrey Irving, and Iason Gabriel. Taxonomy of Risks Posed by Language Models. In 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 214-229, 2022.
[3] Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, and Emily Dinan. Recipes for safety in open-domain chatbots. arXiv preprint arXiv:2010.07079, 2020.
[4] Matthew Williams. Hatred Behind the Screens: A Report on the Rise of Online Hate Speech. 2019.
[5] Ellery Wulczyn, Nithum Thain, and Lucas Dixon. Ex Machina: Personal Attacks Seen at Scale. In Proceedings of the 26th International Conference on World Wide Web, pp. 1391-1399, 2017.
[6] Jihyung Moon, Won Ik Cho, and Junbum Lee. BEEP! Korean Corpus of Online News Comments for Toxic Speech Detection. In Proceedings of the Eighth International Workshop on Natural Language Processing for Social Media, pp. 25-31, 2020.
[7] Paula Fortuna, João Rocha da Silva, Juan Soler-Company, Leo Wanner, and Sérgio Nunes. A Hierarchically-Labeled Portuguese Hate Speech Dataset. In Proceedings of the Third Workshop on Abusive Language Online, pp. 94-104, 2019.
[8] Amanda Cercas Curry, Gavin Abercrombie, and Verena Rieser. ConvAbuse: Data, Analysis, and Benchmarks for Nuanced Abuse Detection in Conversational AI. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7388-7403, 2021.
[9] Antigoni Founta, Constantinos Djouvas, Despoina Chatzakou, Ilias Leontiadis, Jeremy Blackburn, Gianluca Stringhini, Athena Vakali, Michael Sirivianos, and Nicolas Kourtellis. Large Scale Crowdsourcing and Characterization of Twitter Abusive Behavior. Proceedings of the International AAAI Conference on Web and Social Media, Vol. 12, No. 1, pp. 491-500, 2018.
[10] Rupak Sarkar and Ashiqur R. KhudaBukhsh. Are Chess Discussions Racist? An Adversarial Hate Speech Data Set (Student Abstract). Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 18, pp. 15881-15882, 2021.
[11] Ioannis Mollas, Zoe Chrysopoulou, Stamatis Karlos, and Grigorios Tsoumakas. ETHOS: A Multi-label Hate Speech Detection Dataset. Complex \& Intelligent Systems, pp. 4663-4678, 2022.
[12] Ellery Wulczyn, Nithum Thain, and Lucas Dixon. Ex Machina: Personal Attacks Seen at Scale. In Proceedings of the 26th International Conference on World Wide Web, pp. 1391-1399, 2017.
[13] Alyssa Lees, Vinh Q. Tran, Yi Tay, Jeffrey Sorensen, Jai Gupta, Donald Metzler, and Lucy Vasserman. A New Generation of Perspective API: Efficient Multilingual Character-Level Transformers. In Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, pp. 3197-3207, 2022.
[14] 松葉達明, 栘井文人, 河合敦夫, 井須尚紀. 学校非公式サイトにおける有害情報検出を目的とした極性判定モデルに関する研究. 言語処理学会第 17 回年次大会発表論文集, pp. 388-391, 2011.
[15] 新田大征, 桝井文人, 木村泰知, 荒木健治. カテゴリ別関連度最大化手法に基づく学校非公式サイトの有害書込み検出. 人工知能学会全国大会論文集第 27 回 (2013), pp. 2039-2039, 2013.
[16] 荒井ひろみ, 和泉悠, 朱喜哲, 仲宗根勝仁, 谷中瞳. ソーシャルメディアにおけるへイトスピーチ検出に向けた日本語データセット構築の試案. 言語処理学会第 27 回年次大会発表論文集, pp. 466-470, 2021.
[17] Nedjma Ousidhoum, Zizheng Lin, Hongming Zhang, Yangqiu Song, and Dit-Yan Yeung. Multilingual and Multi-Aspect Hate Speech Analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4675-4684, 2019.
[18] James Pustejovsky, Harry Bunt, and Annie Zaenen. Designing annotation schemes: From theory to model. In Handbook of Linguistic Annotation, pp. 21-72. 2017.
[19] Klaus Krippendorff. Computing Krippendorff's AlphaReliability. 2011.
[20] 東中竜一郎, 船越孝太郎, 高橋哲朗, 稲葉通将, 赤間怜奈, 佐藤志貴, 堀内颯太, ドルサテヨルス, 小室允人,西川寛之, 宇佐美まゆみ. 対話システムライブコンペティション 4. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 92-100, 2021.
[21] 川本稔己, 山崎天, 坂田亘, 佐藤敏紀. HyperCLOVA を利用したプロンプトプログラミングによるシチュエーションに適した応答生成. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 131-136, 2021.
[22] 山崎天, 坂田亘, 川本稔己, 小林滉河, 上村卓史, 中町礼文, 李聖哲, 佐藤敏紀. ペルソナ一貫性の考慮と知識ベースを統合した HyperCLOVA を用いた雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 113-118, 2021.
## A 詳細なカテゴリ
表 7 有害カテゴリの詳細
\\
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-2.pdf | # 地方議会における議案への賛否に関する発言の分析 -NTCIR-17 QA Lab-Polilnfo4 Stance Classification-2 タスクに向けて一
高丸圭一 ${ }^{1}$ 内田ゆず 2 木村泰知 ${ }^{3}$ 秋葉友良 4
1 宇都宮共和大学 2 北海学園大学 3 小樽商科大学 4 豊橋技術科学大学
takamaruekyowa-u.ac.jp yuzuehgu.jp
kimura@res.otaru-uc.ac.jp akiba@cs.tut.ac.jp
## 概要
地方議会会議録は,議員がどのような理由(立場) で議案に賛成または反対したのかを示す一次情報である. NTCIR-17 で実施している QA Lab-PoliInfo4 では,地方議会会議録をもとに議員による議案への賛否を推定する Stance Classification-2 (SC2) タスクを実施する. 本稿では,タスクの概要について述べた上で,データセット構築の過程で得られた知見に基づき,討論発言における議案への賛否と「賛成」「反対」の文字列の出現について分析した結果を述べる.
## 1 はじめに
地方議会では,予算案や条例案等の議案の審議や,議員から首長に対する質問(代表質問・一般質問)が行われる。議会における発言はすべて議会会議録に記録される. 2022 年現在,すべての都道府県および市・東京特別区が議会(本会議)の会議録を Web公開にしている.
地方議会会議録は,議員がどのような理由(立場)で議案に賛成または反対したのかを示す一次情報であるといえる.筆者らは地方政治に関わる言語資源として地方議会会議録コーパスの整備に取り組んでいる ${ }^{1)}$. 収集,整備した議会会議録コーパスを活用して,議論の要約や,発言内容と根拠となる一次情報との結びつけ,発言者の態度(賛否)の推定といった研究を進めることを検討している。これらの研究の推進に向けて 2018 年から, 評価型ワークショップ NTCIR において QA Lab-PoliInfo タスクを開催している.
2022〜2023 年にかけて行われている NTCIR-17 QA Lab-PoliInfo-4[1] ${ }^{2}$ では, 地方議会における議案に
1) http://local-politics.jp/
2) https://sites.google.com/view/poliinfo4
図 1 Stance Classification-2 タスクのイメージ
対する議員の賛否を推定する Stance Classification-2 (SC2) タスクを実施している。このタスクはある議員のある議案に対する明示的な賛否を含まない発言を入力として,議案への賛否を推定し出力するものである(図 1).
2 節に議員による議案への賛否表明の前提となる定例会の議事の構造および NTCIR-15 で実施した Stance Classification (SC1) タスクにおいて得られた知見について述べる。 3 節に,現在 NTCIR-17 で実施している Stance Classification-2 のタスク設計について述べる. 最後に 4 節で,タスクのためのデータセット構築の過程で得られた知見に基づき,討論発言における議案への賛否と賛否を直接表明する文字列(「賛成」「反対」)の出現の関係について述べる.
## 2 議会における賛否の表明
## 2.1 議事の構造
本節では地方議会の定例会における議事の構造について述べる. 図 2 は東京都議会における定例会の流れを示したものである。自治体によって,進め方に多少の違いはあるが,概ね以下の手順で進められる。
定例会で審議される議案,請願,陳情等は委員会に付託される.委員会では,付託された議案等を審
図 2 定例会の流れ(東京都議会)
議し,委員会としての賛否を決定する。この間本会議では,行政全般に対する質疑応答が行われる. 本会議の最終日に,委員会での議案の審議結果が本会議に報告される。議案に対する討論が行われた後,採決が行われる. 従って, 議員が当該定例会で審議される議案についての意見を発言する機会は,委員会での議案に対する審議と,本会議での採決の際に行われる討論の 2 回である.
## 2.2 QA Lab-Polilnfo 2 における Stance Classification タスク
筆者らは 2019 年後半から 2020 年にかけて開催された NTCIR-15 の QA Lab-PoliInfo2において Stance Classification タスクを実施した [2].これは東京都議会を対象に,議会会議録から議案に対する各会派の立場(賛成または反対)を回答するタスクであった.
参加チームの多くが,賛否を推定する手法として, 図 3 に示すような討論発言冒頭における「議案名」と「賛成」「反対」の表記に着目した.正規表現などを用いて賛否を抽出することで,すべてのチー ムが 90\%を超える精度を得た。 [3].
会議録から議案への賛否を抽出するという当初の目的を達成したといえるものの,特定の議会(東京都議会)において賛否を直接的に言及する定型表現を見つけるにとどまっており,地方議会会議録から議案に対する賛否を抽出する汎用的な方法になり得るかは疑問が残る。
そこで賛否を直接的に言及する定型表現を手がかりとしない手法を開発することを目的として,新たなタスクを検討することとした。次節に,Stance
1. 私は、都民ファーストの会東京都議団を代表し、知事提出の全議案に賛成し、議員提出議案第十号、第十一号、第十二号、第十三号に反対の立場から討論を行います。
2. 都議会公明党を代表し、知事提出の全議案に賛成し、議員提出議案第十号、第十一号、第十二号及び第十三号に反対の立場から討論をいたします。
3. 日本共産党都議団を代表して、独立行政法人に関わる専決処分及び第百九十二号議案に反対、我が党提出の三つの条例案に賛成の立場から討論を行います。
4. 私は、東京都議会立憲民主党を代表して、知事提出の全議案に賛成、議員提出議案のうち第十一号議案に賛成、その他の議員提出議案に反対の立場から討論を行います。
図 3 東京都議会における討論の冒頭部分の例
Classification-2 タスクの概要について述べる.
## 3 Stance Classification-2 タスク
Stance Classification-2 タスクでは,ある議題に対する明示的な賛否表現を含まない議員の発言から,議員の議題に対する立場(賛成または反対)を推定する問題に取り組む. 発言に明示的な賛否表現が含まれることを避けるために,発言中に現れる「賛成」「反対」といった賛否を直接表す句をマスクする. マスクした議員発言の例を図 4 に示す.
本タスクの入出力は以下の通りである。
入力賛否表現をマスクした議員発言
出力 2 值ラベル (賛成,または反対)
## 4 討論における賛否表現
本節では,地方議会会議録本会議の討論発言に含まれる「賛成」「反対」文字列と実際の賛否との関係について述べる。
## 4.1 「賛成」「反対」の文字列と賛否の関係
北海道北広島市議会本会議(2003 年から 2019 年間での 17 年分)の討論の発言を対象として,「賛成」「反対」の文字列の出現と実際の賛否の関係について考察する。対象の会議録には「賛成」または「反対」が含まれている討論発言が 119 件存在する. 討論の対象は議案(予算案を含む)が 90 件,陳情が 9 件,請願が 20 件である。このうち,賛成の討論が 55 件,反対の討論が 64 件である. 1 討論あたりの発言量は書き起こされた文字数の換算で,平均 917 文字,最大 2,838 文字,最小 66 文字であった.
1. 議案第 38 号「大府市空家等対策の推進に関する条例の制定について」、自民クラブを代表し、 [STANCE] の立場で討論をさせていただきます。近年、人口減少や少子高齢化等を背景に、全国的に空き家等の増加が社会問題となっている中、...(中略)...として、持続可能な社会が実現されることを期待し、[STANCE] 討論とさせていただきます。
2. それでは、日本共産党議員団を代表いたしまして、議案第 6 号に [STANCE] する討論をします。 この議案は、市会議員のボーナスを年間 3.25 カ月から 3. 30 カ月と引き上げるものとなっています。...(中略)...とても認めることができませんので、私ども日本共産党議員団は、議案第 6 号に [STANCE] をいたします。
3. ただいま議題となっております第 4 号議案に [STANCE] の立場で討論をします。縦割りの弊害が言われている役所組織に新たに部を 2 部増やすということになりますと、その弊害をますます増やす可能性があると考えています。...(中略)... 以上を考えていきますと、新たな新城市の負担を呼び起こすような部、課の新設をせず、総合計画にも表れています地域循環型、環境に軸足を置いた、この中での産業育成に最重点の職員の配置を行うべきと考え、[STANCE] 討論といたします。
4. ただいま議案となっております委員会提出第 1 号議案新城市肥料等の大量な施用等の防止に関する条例の制定についてでありますが、やはり農畜産物というのか、特に肥料については先ほどもお話を申し上げたと思うんですが、1つは連作障害というような問題、...(中略)...ので、この本条例につきましては、有機質の堆肥の部分、それから施行令に定める污泥の部分ということで、その適切な肥料というものの大量施用についての条例でありますので、よって本条例について [STANCE] の立場で討論いたします。以上です。
図4 賛否をマスクした議員発言
「賛成」「反対」の文字列の出現と賛否の関係を表 1 に示す. 賛成の討論のうち 46 例には「賛成」のみが含まれるが,6例には「反対」のみが含まれる。反対の討論のうち 59 例には「反対」のみが含まれるが,2 例には「賛成」の文字列のみが含まれる. 発言中に「賛成」と「反対」が両方とも含まれる発言は 6 例あり,このうち 4 例は賛成, 2 例は反対の討論である. このように,全体の $88 \%$ は発言中の文字列と賛否が一致しているが,発言者の賛否と発言文中の「賛成」「反対」の文字列の出現はかならずしも一意に対応するわけではない.
表 2 賛否を直接表明する定型表現の例
## 4.2 賛否表明の定型表現
賛否と「賛成」「反対」の文字列の出現が一致している例では,表 2 に示すような表現で,発言の冒頭または末尾で立場を直接的に表明される。具体例を図 5 に示す.このうち 3 は討論末尾における賛否表明の例である. 119 例のうち 99 例(83\%)には,表 5 の定型表現のいずれかが使われている.
## 4.3 賛否と文字列が一致しない例
## 4.3.1 議会の用語
議会における議決は,地方自治法の規定に基づき,議案の可決(否決),決算の認定(不認定),請願の採択(不採択)といった語で表される. 横浜市議会が作成した議会用語集の ${ }^{3}$ 「議決」の項に記された一覧を図 6 に示す.
議決の種類を問わず「賛成」「反対」という表現を用いて賛否の表明が行われることがあるが,図 7 に示すように,「採択すべき立場」といった表現で,賛否が表明されることもある.
1. 議案第 4 号医療費助成に関する条例の整備に関する条例について、賛成の立場から討論いたします。
2.「最低賃金の大幅な引き上げと地域間格差の是正を求める意見書」の提出を求める請願について、賛成する立場から討論いたします。
3.この制度が無策な行政の隙間だけに利用されることを懸念し、賛成討論といたします。
4. 北広島市税条例の一部を改正する条例について、反対の立場で意見を述べさせていただきます。
5. 発議第 1 号について反対討論をいたします。
図 5 直接表現の例
3) https://www.city.yokohama.lg.jp/shikai/shikumi/ sonota/yougo.html
1. 可決・否決 (予算, 条例, 契約, 意見書, 決議など)
2. 認定・不認定(決算)
3. 承認・不承認(専決処分)
4. 同意・不同意 (人事案件)
5. 採択・不採択(請願)
6. 異議ない旨回答(諮問)
図 6 議决に関する議会用語
1. 私は、この 3 件の陳情を採択すべきという立場から討論をいたします。
2. 請願第 1 号を採択すべきという立場から意見を申し上げます。
3. それでは、私は陳情第 1 号を採択すべきという立場で討論いたします。
4. 憲法違反の公務員賃金削減に反対する陳情書を不採択すべきとの立場から討論を行いたいと思います。
図 7 「採択(不採択)」による賛否表明の例
## 4.3.2 委員会での議決が否決であった場合
2 節に述べたように,本会議に先立って委員会において議案の審議が行われる. 本会議では,まず委員会における議決が報告された上で,討論が行われる.このため, 討論では委員会の議決への賛成・反対が述べられる. 委員会での議決が否決(不採択など)であった場合,図 8 の例のように議案への賛否と賛否表現が逆になる。
## 4.3.3 その他の表現
このほか議会に見られるやや複雑な賛否表現の具体例を図 9 に示す. 1 は「反対する理由がなくなった」という表現で,賛成を表明している. 2 は「賛成し得ない立場」という表現で,反対を表明している.また, 3 は賛成を表明しているが,やむを得ないという心情をあわせて表明している例である.
## 5 おわりに
本稿では,NTCIR-17 QA Lab-PoliInfo-4における Stance Classification-2 タスクの目的と概要について述べた. タスクにおける正解データとなる発言者の賛否と,タスクの入力ではマスクする「賛成」「反対」の文字列の出現の関係について基礎的な分析を行った.
討論発言の大多数は賛否を定型的な表現で表明している. しかし, 4.3 節に示したような例が存在するため, 発言者の賛否は人手によって確認する必要
1. 陳情第 2 号、委員長報告は多数をもって不採択すべきもの。この委員長報告に対して賛成討論をいたします。
2. 選択的夫婦別姓制度の法制化に反対する意見書の不採択とすることに反対の立場で討論いたします。
図 8 委員会での審議結果が不採択であった例
1. 私は委員会では反対をいたしましたけれども、ただいまの議会で学校統廃合が決まりましたので、反対する理由がなくなったことを申し添えます。
2. 私は、本陳情に賛成し得ない立場から討論をさせていただきます。
3. 議案第 9 号、北広島市介護保険条例の一部を改正する条例について、改革フロンティアを代表し、保険料の引き上げやむなしの立場で討論を行います。
図 9 その他の賛否表現の例
がある.また,入力データにおいてマスクする賛否表現について,「賛成」「反対」の 2 語が妥当であるか,類義語を幅広くマスクするべきであるかについてはデータセット構築における検討課題である. これらの点については,本テスト(Formal Run)に向けて,タスク参加者を交えて継続して議論して行きたい.
討論発言の抽出および正解となる賛否ラベル付与の自動化について研究を進め [4], 本稿執筆時点では愛知県および北海道の地方議会のうち,討論発言を一括ではなく議案別に行っている 21 自治体の会議録から,6,517 件のデータを作成した. これらはタスクの予備テスト(Dry Run)のデータセットの一部として 2023 年 1 月より公開する予定である.今後, Dry Run および Formal Run(2023 年 6 月頃実施予定)に向けて,順次データを拡張していく予定である。
## 謝辞
本研究は JSPS 科研費 20K00576 21H03769 の助成を受けたものである.
## 参考文献
[1] 小川泰弘, 木村泰知, 渋木英潔, 乙武北斗, 内田汝ず,高丸圭一, 門脇一真, 秋葉友良, 佐々木稔, 小林暁雄. Ntcir-17 qa lab-poliinfo-4 のタスク設計. 言語処理学会第 29 回年次大会, 2023.
[2] 高丸圭一, 木村泰知, 内田ゆず, 佐々木稔, 吉岡真治, 秋葉友良, 渋木英潔. 東京都議会会議録における議案への賛否を表明する発言の分析. 人工知能学会全国大会論文集, Vol. JSAI2020, pp. 4Q3GS901-4Q3GS901, 2020.
[3] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyosi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir-15 qa lab-poliinfo-2 task. In Proceedings of the 15th NTCIR Conference on Evaluation of Information Access Technologies, pp. 101-112, 2020.
[4] 我藤勇樹, 秋葉友良, 内田ゆず, 木村泰知, 高丸圭一. 地方議会議事録を対象としたスタンス分類データセットの自動構築とベースライン分類器の評価. 言語処理学会第 29 回年次大会, 2023 . | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-3.pdf | # チャットボットとの雑談対話に対する印象評価と 評価者の性格特性・コミュニケーションスキルとの関連
山本 茉莉 $^{1}$ 上 秋予 1 伊藤 紀子 ${ }^{2}$
1 同志社大学大学院 文化情報学研究科 2 同志社大学 文化情報学部
\{ctmh0001,ctmh0011\}@mail4.doshisha.ac.jp nito@mail.doshisha.ac.jp
## 概要
従来の雑談対話システムには,いくつかの問題が存在し,ユーザが円滑に対話を継続することができない,すなわち対話が破綻してしまうことがある。 しかし, ユーザによって, システムの破綻発話に対する許容度は異なると考えられる。そこで, 本調查では,雑談対話におけるシステムの破綻発話に対する不快感の度合いが,ユーザの性格特性・コミュニケーションスキルと関連すると仮説を立て, 調査を実施した. その結果, ユーザの「神経症傾向」の特性が高いほど,システムの破綻発話に対するユーザの許容度が低くなり,「自己統制性」の特性が高いほど, システムの破綻発話に対するユーザの許容度は高くなることが分かった。
## 1 はじめに
近年, Microsoft 社の Cortana, Apple 社の Siri, Google 社の Google Assistant など, 各社からさまざまな対話システムが提供されている. これらは主にユーザからの指示や課題を実行・解決することを目的としているが,rinna 株式会社の「りんな」のように雑談ができる対話システムも存在する. 従来の雑談対話システムは,いくつかの問題を内包しており,対話の破綻を完全に回避することは困難な段階である.このような対話の破綻は, ユーザに不快感を与え,システムの使用率の低下に繋がる恐れがある。
雑談対話システム発話への評価がユーザの個人特性の違いにより異なりうることが先行研究で示唆されている. 東中ら [1]や叶内ら [2]では破綻の判定がアノテーター間で一致しないことが少なくないことが報告されている. また宮本ら [3]は,「ユーザのパ ーソナリティ特性が心理的近接発話を行う雑談対話システムの受容性にどのような影響を及ぼすか」と 「心理的近接発話の戦略の違いが雑談対話システム
の受容性にどのような影響を及ぼすか」という点に着目し,ユーザの雑談対話システムに対する受容性について検討した. その結果,システムが攻撃的㔯談を発した際の好感度について, 開放性や外向性といった性格特性については正の相関を示したが,神経症傾向については負の相関を示すなど,ユーザの性格特性と関連があることが報告されている。この研究では,雑談対話の終盤のシステム発話を変化させることで受容度にどのような違いが見られるかを調查したものであり,対話中のシステム発話一つ一つに対するユーザの印象評価については調査されていない.
そこで,本調査では,評価者の個人特性の内,性格特性とコミュニケーションスキルに焦点を当て,雑談対話の破綻応答文に対する不快感の度合いの分析を実施する。本調査によって性格特性・コミュニケーションスキルと破綻応答文に対する許容度に一定の規則性を見出すことができれば,それを雑談対話システムに組み込むことにより,ユーザの特性に合わせた対話の展開が可能となり,対話継続欲求の低下を防ぐ効果が期待できる。
## 2 調査内容
## 2. 1 雑談対話コーパス
システム発話に対する破綻アノテーションを行ってもらうために,岩下 [5]のチャットボットとの対話コーパスから 12 件を抽出した。この対話コーパスは, LINE を通じてインターメディアプランニング株式会社のチャットボット「かたらい」と,以下の 3 つのテーマに則し雑談した際の対話データである.
-「新しいクラスで初めて知り合った隣の席の学生と始めて会話する感じで」
- 「好きな○○について」
- 「小学校の時の思い出」
1 人が 3 つのテーマを合わせて約 10 分間チャットしたもので, 12 人分の対話データにシステム発話は 2156 件含まれている.
## 2.2 破綻アノテーション実験
実験参加者は 20 代の日本語母語話者の男女 10 名である。実験課題は以下の通りである.
1. 直感に従ってシステム発話を $\bigcirc, \triangle, \times の 3$ 種類で評価
2. $\triangle$ もくは $\times$ と評価した発話については, 5 件法のリッカート尺度を用いて, どの程度不快に感じるかについて評価
○, $\triangle , \times$ の基準は,東中ら [1]を参考に,システムの発話を破綻の度合いに応じて, 以下の 3 種類に分類するよう指示した。
- $\bigcirc$ :「破綻ではない」…当該システム発話のあと対話を問題無く継続できる.
- $\triangle$ : 「破綻と言い切れないが,違和感を感じる
ズに継続することが困難.
- $\times$ :「あきらかにおかしいと思う発話(破綻)」 ‥当該システム発話のあと対話を継続することが困難.
不快感は 5 件リッカート尺度(1.全く不快ではない〜5. 非常に不快である) で回答してもらい, $\triangle, \times$ のシステム発話数で除することで標準化を行った.
不快感の得点 $=([1$ の個数 $] * 1+[2$ の個数 $] * 2$ $+[3$ の個数 $] * 3+[4$ の個数 $] * 4+[5$ の個数 $]$
*5) $/[\triangle, \times$ の個数 $]$
## 2.3 事後アンケート
実験参加者自身の性格特性・コミュニケーションスキルに関する質問に回答してもらった。性格特性については,小塩ら [6]の日本語版 TIPI-Jを使って,全 10 項目を 7 件法のリッカート尺度で回答してもらい, 「外向性」, 「協調性」, 「勤勉性」, 「神経症傾向」,「開放性」の 5 因子の得点を計測した。 コミュニケーションスキルについては, 藤本ら [7] の ENDCORE を使って, 全 6 項目を 7 件法のリッカ一ト尺度で回答してもらい,「自己統制」,「表現力」,「解読力」,「自己主張」,「他者受容」,「関係調整」の 6 因子の得点を計測した。
## 2. 4 分析方法
性格特性・コミュニケーションスキルと破綻発話への不快感の関係を明らかにするために,TIPI-J と ENDCORE の各得点を予測変数, 標準化済みの不快感得点を目的変数として重回帰分析を行った.
## 3 分析結果
調査によって得られた数値を表 1-3 にまとめた.
表 1 破綻アハテーションに関する基本統計量
& & & \\
表 2 性格特性の得点の基本統計量
& 開放性 \\
表 3 コミュニケーションスキルの基本統計量
& & & & & \\
## 3.1 性格特性と不快感の関連
性格特性 5 因子の得点からシステム発話への不快感の得点を予測するために,強制投入法の重回帰分析を行った(表 4).
表 4 性格特性を予測変数とした重回帰分析の結果
分析の結果, 「神経症傾向」の標準偏回帰係数にのみ有意傾向が見られ, 不快感に影響を与えていることが分かった。
## 3.2 コミュニケーションスキルと不快感の
## 関連
ENDCORE 各因子の得点からシステム発話への不快感の得点を予測するために,強制投入法の重回帰分析を行った.「他者受容」と「関係調整」については VIF が 10 を超えたため分析から除外した(表 5).
表 5 コミュニケーションスキルを予測変数とした重回帰分析の結果
調整済み $R^{2}=0.81,{ }^{*} p<0.05$
分析の結果, 「自己統制」の標準偏回帰係数のみ統計的に有意であり,不快感に影響を与えていることが分かった。
## 4 考察
分析結果から,TIPI-J における「神経症傾向」の得点が高い評価者は破綻発話への不快感の度合いが高くなることが分かった. 小塩 [5] らによると, 神経症傾向の得点が高いとは「心配性で,う万たえやすく」「冷静で, 気分が安定し」ない特性を持つ人物である。また,ENDCORE における「自己統制」の得点が高い評価者は破綻発話への不快感の度合いが低くなることがわかった. 藤本ら [7]によると, 自己統制の得点が高いとは「自分の感情や行動をうまくコントロールする」特性を持つ人物である.
これらを踏まえると,「神経症傾向」が強い評価者は正直に不快感を示したが,「自己統制」が強い評価者は実は不快に思っているけれどもそれをそのまま回答しなかった可能性がある。もしそうだとすれば,アンケート調査のような意識的,主観的な方法ではなく皮膚電位や心拍などの生体信号データから不快感を計るような工夫が必要かもしれない.
## 5. おわりに
本研究は, さまざまある個人特性の中から性格特性とコミュニケーションスキルに着目し, 破綻に対する許容度が予測可能かどうかを検証した. その結果, TIPI-J の「神経症傾向」と ENDCORE の「自己統制」が破綻発話への不快感の予測に有効であることが示唆された. しかし, 現時点で実験参加者が 10 名と少ないため, より多くのデータを収集し, 精度の高い分析を目指すことを今後の課題とする.
## 謝辞
本研究は JSPS 科研費 JP19K12191「雑談対話システムへの個性の付与とそのコミュニケーションへの影響について」の助成を受けて行われたものである。 また, 同志社大学と東京工科大学の方々に実験にご協力いただいた。ここに記して感謝いたします.
## 参考文献
1.東中竜一郎,船越孝太郎,荒木雅弘,塚原裕史,小林優佳, 水上雅博. テキストチャットを用いた雑談対話コーパスの構築と対話破綻の分析. 自然言語処理 23(1), pp.59-86, 2016.
2. 叶内晨, 赤崎智, 堀江伸太朗, 小亀俊太郎. Capex 雑談対話コーパスの構築とその分析. 言語処理学会第 28 回年次大会発表論文集 pp.1090-1094, 2022.
3. 宮本友樹, 磐下大樹, 遠藤水紀, 永井望, 片上大輔. 雑談対話システムにおける心理的近接発話の戦略が対話の評価に及ぼす影響. 人工知能学会論文誌, 36(5), AG21-I_1-14, 2021.
4. 菊池浩史, 楊潔, 菊池英明. 雑談対話システムにおけるユーザの許容範囲を考慮した多様な同調応答の検討. 人工知能学会全国大会論文集第 35 回,4E2-OS-11b-02, 2021.
5. 岩下志乃. チャットボットとの対話コーパスと性格特性・社会的スキルのデータ公開.
2021.
6. 小塩真司, 阿部晋吾, カトローニピノ. 日本語版 Ten Item Personality Inventory (TIPI-J) 作成の試み. パ ーソナリティ研究, 21(1), pp.40-52, 2012.
7. 藤本学・大坊郁夫. コミュニケーション・スキルに関する諸因子の階層構造への統合の試み. パーソナリティ研究, 15(3), pp.347-361, 2007. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-4.pdf | # 回答者の生年に基づく語の意味変化の検出
峯尾海成 ${ }^{1}$ 門戸巧 ${ }^{2}$ 佐藤道大 ${ }^{2}$ 山岸祐己 ${ }^{2}$ 谷口ジョイ ${ }^{2}$
1 静岡理工科大学大学院理工学研究科 2 静岡理工科大学情報学部
\{2221027.mk, 2018119.mt, 1918061.sm, yamagishi.yuki, taniguchi.joy\}@sist.ac.jp
## 概要
本研究は,静岡県全域で用いられる方言「まめったい」の使用・理解に関する大規模調査から得られた時系列データを分析することで,意味やイメージにどのような変化が生じているのか,またその生成時期を推定することを主な目的としている.多項分布型レジームスイッチングおよび多群出現順位統計量によって分析を行った結果,「体を動かしてよく働く」という意味での使用・理解は衰退傾向にあり,代わって「性格的に几帳面だ」という意味での使用が増加していることが明らかになった。また,語のイメージは,肯定的なものから否定的なものへと変化していた。
## 1 語の意味変化
本稿は, 静岡方言「まめったい」という語の意味がどのように変化しているかを問う意味変化論に関するものである. 語の意味やイメージが変化する過程にはさまざまな要因が関わっており, 進行中の変化を捉えることは不可能であるとされていた [1]. そのため,これまでの研究においては「既に意味変化が完了した語」が扱われてきた。本研究において筆者らが進行中の意味変化を可視化するために焦点を当てたのが,静岡全域で用いられる「まめったい」という形容詞である.「まめったい」という語は,(1) 体を動かしてよく働く (2) 健康だ (3) 落ち着きがない (4) 性格的に几帳面だ,のように複数の意味をもち [2], 多義性が認められる上, 複数の語義が併存している. 加えて, 静岡方言研究会 [3] の調査によれば,「まめったい」は,共通語の「まめだ」 と競合関係にあることが指摘されており, 共通語が 「まめったい」の意味領域に影響を与えている可能性がある. 本研究は, 静岡方言の「まめったい」という語をひとつの事例とし, 時系列データを扱うことを想定した手法を応用することにより,過去に生じた意味やイメージの変化のみならず,進行中の変化についても明らかにすることを目的としている.本研究では以下 2 点の仮説を検証する.
1. 静岡方言「まめったい」は過去に意味および語のイメージに変化が生じており,その変化は現在も進行中である.
2. 提案手法である多項分布型レジームスイッチングおよび多群出現順位統計量によって,これまで困難であった進行中の意味変化の可視化が可能である.
## 2 提案手法
## 2.1 多項分布型レジームスイッチング検出
多項分布型レジームスイッチング検出は,タイムラインを生成することで,複雑に変化するデータを単純化する手法である. 本研究では, データが多項分布に従うと仮定し, 多項分布型レジームスイッチング検出をデータの単純化手法として用いることで,静岡方言「まめったい」において,過去に生じた意味変化とその時期を推定する。代表的な変化点検出手法 $[4,5]$ では, 単一情報の傾向変化を可視化することに特化しているが,多項分布を仮定したレジームスイッチング手法 [6] においては, 複数情報を扱うことを前提としており,変化が生じた時期の把握が容易であることが示されている.ここでは, その基本技術を応用し, 自動でレジーム数を決定する方法についても述べる。
ある調査データを $\mathcal{D}=\left.\{\left(s_{1}, t_{1}\right), \cdots,\left(s_{N}, t_{N}\right)\right.\}$ とする.ここで,$s_{n}$ と $t_{n}$ は,$J$ カテゴリの状態と $n$ 番目の観測時刻,すなわち,各回答における選択肢と回答者の生年をそれぞれ表す. $|\mathcal{D}|=N$ を観測数とすると, $t_{1} \leq \cdots \leq t_{n} \leq \cdots \leq t_{N}$ となる. $n$ はタイムステップとし, $\mathcal{N}=\{1,2, \cdots, N\}$ をタイムステップ集合とする。また, $k$ 番目のレジームの開始時刻を $T_{k} \in \mathcal{N}, \mathcal{T}_{K}=\left.\{T_{0}, \cdots, T_{k}, \cdots, T_{K+1}\right.\}$ をスイッチングタイムステップ集合とし,便宜上
$T_{0}=1 , \quad T_{K+1}=N+1$ とする. すなわち, $T_{1}, \cdots, T_{K}$ は推定される個々のスイッチングタイムステップであり, $T_{k}<T_{k+1}$ を満たすとする。そして, $N_{k}$ を $k$ 番目のレジーム内のタイムステップ集合とし,各 $k \in\{0, \cdots, K\}$ に対して $\mathcal{N}_{k}=\left.\{n \in \mathcal{N} ; T_{k} \leq n<T_{K+1}\right.\}$ のように定義する. なお, $\mathcal{N}=\mathcal{N}_{0} \cup \cdots \cup \mathcal{N}_{K}$ である.
いま,各レジームの状態分布が $J$ カテゴリの多項分布に従うと仮定する, $\boldsymbol{p}_{k}$ を $k$ 番目のレジームにおける多項分布の確率べクトルとし, $\mathcal{P}_{K}$ はそれら確率ベクトルの集合,つまり $\mathcal{P}_{K}=\left.\{\boldsymbol{p}_{0}, \cdots, \boldsymbol{p}_{K}\right.\}$ とすると, $\mathcal{T}_{K}$ が与えられたときの対数尤度関数は以下のように定義できる.
$
L\left(\mathcal{D} ; \mathcal{P}_{K}, \mathcal{T}_{K}\right)=\sum_{k=0}^{K} \sum_{n \in \mathcal{N}_{k}} \sum_{j=1}^{J} s_{n, j} \log p_{k, j}
$
ここで, $s_{n, j}$ は $s_{n} \in\{1, \cdots, J\}$ を
$
s_{n, j}=\left.\{\begin{array}{l}
1 \text { if } s_{n}=j \\
0 \text { otherwise. }
\end{array}\right.
$
のように変換したダミ一変数である. 各レジーム $k=0, \cdots, K$ と各状態 $j=1, \cdots, J$ に対する式 (1)の最尤推定量は $\hat{p}_{k, j}=\sum_{n \in \mathcal{N}_{k}} s_{n, j} /\left|\mathcal{N}_{k}\right|$ のように与えられる.これらの推定量を式 (1) に代入すると以下の式が導ける.
$
L\left(\mathcal{D} ; \hat{\mathcal{P}}_{K}, \mathcal{T}_{K}\right)=\sum_{k=0}^{K} \sum_{n \in \mathcal{N}_{k}} \sum_{j=1}^{J} s_{n, j} \log \hat{p}_{k, j}
$
したがって,スイッチングタイムステップの検出問題は,式 (3)を最大化する $\tau_{K}$ の探索問題に帰着できる.
適当な条件下で式 (3)を最大化しょうとすると,最適解を求めるための計算量が $O\left(N^{K}\right)$ となってしまうため,ある程度大きい $N$ に対して $K \geq 3$ となってしまうと,実用的な計算時間で解くことができない.したがって,任意の $K$ について解くために,貪欲法と局所探索法を組み合わせた方法 [6] を用いる. なお,本実験では貪欲法アルゴリズムの終了条件として最小記述長原理 (MDL) [7]を採用し,事前にレジーム数を設定することなく自動で終了させる.
## 2.2 多群出現順位統計量に基づく時系列 データの変換
データカテゴリの時系列的変化を明示し,それらを複数カテゴリ間で比較するため, 出現順位を用いた統計量によるデータ変換を行う。この手法は, Mann-Whitney の U 検定 [8] を基盤とし,多群を扱え
るよう拡張したものであり,データの出現頻度の傾向変化を z-score として表現する. 静的な分析手法による指標を,動的な視点で捉えられるよう可視化するため,長期的な変化が捉えやすいと言える。また,各カテゴリの z-score は,他のカテゴリすべてを基準としているため,複数間のカテゴリにおける比較が容易である。
多項分布レジームスイッチングの問題設定と同様に,ある調査データのタイムステップ(回答者の生年)集合と,それらが有するカテゴリ(選択肢)集合をそれぞれ $N$ と $\mathcal{J}$ とする。つまり,それぞれの要素数は $N=|\mathcal{N}|$ と $J=|\mathcal{J}|$ とし, 各要素は整数と同一視されるとする。すなわち, $\mathcal{N}=\{1, \cdots, n, \cdots, N\}$ および $\mathcal{J}=\{1, \cdots, j, \cdots, J\}$ である.なお,オブジェクト $n$ は最古のものが 1 , 最新のものが $N$ となるよう,出現順に並んでいるものとする.このとき,タイムステップ $n$ がカテゴリ $j$ を有する場合は 1 , それ以外の場合は 0 となっている $J$ 行 $N$ 列の行列を $Q\left(q_{j, n} \in\{0,1\}\right)$ とすると, オブジェクト $n$ が有するカテゴリ数は $d_{n}=\sum_{i=1}^{J} q_{i, n}$, タイムステップ $n$ までのカテゴリ $j$ の出現数は $I_{j, n}=\sum_{i=1}^{n} q_{j, i}$ のように表せる。いま,オブジェクトに付随してカテゴリが出現するとし,以降では,オブジェクト出現からカテゴリ出現へと視点を変える. このとき,才ブジェクト $n$ が唯一のカテゴリのみ有する $d_{n}=1$ の場合では,オブジェクト $n$ に付随して出現したカテゴリ $j$ の出現順位は $r_{n}=I_{n-1}+1$ であるが,複数のカテゴリを有する $d_{n}>1$ の場合では,平均順位を考えなければならないため,その出現順位は $r_{n}=I_{n-1}+\left(1+d_{n}\right) / 2$ となる. ここでの目的は,タイムステップとカテゴリの集合が与えられたとき,出現順位の値が大きい(新しい),または逆に小さい (古い)タイムステップが有意に多く含まれるカテゴリを定量的に評価する指標の構築である.
Mann-Whitney の二群順位統計量 [8]を多群に拡張し,カテゴリの出現順位に適用する方法について述ベる. いま,カテゴリ $j$ に着目すれば,このカテゴリに属するタイムステップ集合 $\left.\{n \in \mathcal{N}: q_{j, n}=1\right.\}$ と,このカテゴリに属さないタイムステップ集合 $\left.\{n \in \mathcal{N}: q_{j, n}=0\right.\}$ の二群に分割することができる. よって, Mann-Whitney の二群順位統計量に従い, 次式により,タイムステップ $n$ までのカテゴリ $j$ に対し $\mathrm{z}$-score $z_{j, n}$ を求めることができる.
$
z_{j, n}=\frac{u_{j, n}-\mu_{j, n}}{\sigma_{j, n}} .
$
ここで,統計量 $u_{j, n}$, 出現順位の平均 $\mu_{j, n}$, および, その分散 $\sigma_{j, n}^{2}$ は次のように計算される.
$
\begin{aligned}
u_{j, n} & =\sum_{i=1}^{n} n q_{j, i}-\frac{I_{j, n}\left(I_{j, n}+1\right)}{2} \\
\mu_{j, n} & =\frac{I_{j, n}\left(n-I_{j, n}\right)}{2} \\
\sigma_{j, n}^{2} & =\frac{I_{j, n}\left(I_{n}-I_{j, n}\right)}{12}\left(\left(I_{n}+1\right)-\sum_{i=1}^{n} \frac{d_{i}^{3}-d_{i}}{I_{n}\left(I_{n}-1\right)}\right)
\end{aligned}
$
先程と同様, 各オブジェクトが複数のカテゴリを有し得ないケースでは,式 (7)の $d_{i}$ を含む項,すなわち平均順位を扱うための補正値の計算は不要である.この多群順位統計量は, 基本的には 2 クラス分類器の SVM (Support Vector Machine) [9]を多クラス分類器に拡張するときに利用される one-against-all と類似した考え方となる。
以上より,式 (4)で求まる z-score $z_{j, n}$ により,才ブジェクト $k$ までの各カテゴリ $j$ が, 出現順位の値が大きい(新しい),または逆に小さい(古い)オブジェクトを有意に多く含むかを定量的に評価することができる. すなわち, この $z_{j, n}$ が正の方向に大きければ大きいほど,タイムステップ $n$ の直近での出現が有意に多いということであり,カテゴリ $j$ の勢力が伸びていることになる. 逆に, $z_{j, n}$ が負の方向に大きいということは,過去に比べて勢力が衰えていることになる. また, 式 (4) で求まる z-score $z_{j, n}$ の計算量は全てのオブジェクトと全てのカテゴリについて算出した場合でも $O(N J)$ と高速であり,才ンライン処理においても新たに追加されたオブジェクトごとに $O(J)$ の計算量しかかからない.
## 3 調査概要
本調查は,静岡方言を母方言話とする 1,544 名を対象としている。調査は,質問紙,あるいはウェブ調査により行い,性別,生年,出身地域,家庭内における方言使用の有無といった基本情報を収集した. 冒頭に「まめったい」という語の使用・理解についての設問を設け,「使用する」「使用しないが理解できる」と回答した 1,195 名については,1 節で述べた 4 つの意味についてそれぞれの用例を示し、 その使用、理解について回答を依頼した。
最後に「「まったい」を用いた短文作成を依頼し(852 名が回答),上記に基づく意味分類を行った上で,肯定的な意味で使用されているか,あるいは否定的に用いられているか,という観点から分類を行った.
## 4 実験結果とまとめ
以下は,「まめったい」の使用・理解に関する調査結果を,上記の 2 手法で可視化したものである.多項分布型レジームスイッチングにより「まめったい」の使用・理解に見られる変化を単純化・可視化した結果,1956 年,1980 年,1995 年(調査協力者の生年)でデータ構造の変化が見られ,その使用は全体として減少傾向にあることが判明した (図 1).また,この傾向は 1950 年生まれから見られ,1970 年生まれから顕著なものになっていることが示唆された (図2).また,「まめったい」の使用・理解の低下については, z-score の最終值 $z_{j, N}$ の絶対値の大きさから,今後も継続する可能性が高いと思われる.
図 1 多項レジームスイッチング検出 (使用・理解)
図 2 多群出現順位統計量 (使用・理解)
図 3 は,「まめったい」を用いた短文作成に基づく意味分類における多項分布型レジームスイッチングの検出結果であり, 1980 年代半ば生まれにデー 夕構造が変化していることが示されている. 短文作成に基づく意味分類においては「体を動かしてよく働く」という意味での使用が減少傾向にあり,「性
格的に几帳面だ」という意味での使用が増加傾向にあることが明らかとなった(図 3).また,「健康だ」 および「落ち着きがない」という意味については,検出されたスイッチング以降ほぼ出現していないことがわかる. 多群出現順位統計量の結果から, この変化傾向は 1970 年生まれから際立っていることが明らかとなった(図 4).
図 3 多項レジームスイッチング検出 (意味分類)
図 4 多群出現順位統計量 (意味分類)
最後に「「めったい」を用いて作成された短文が肯定的な意味,あるいは否定的な意味で使用されているかについて分析を行ったところ,レジームスイッチングの結果からは,スイッチングが検出されなかった(図 5).そのため,年代全体を通した分布に大きな変化はないと推察される。一方,多群出現順位統計量の結果(図 6)からは, 出現傾向の変化が確認でき,特に 1970 年代半ば生まれからは, 肯定的な意味から否定的な意味で使用されるようになっている.
意味変化の要因は複雑かつ多層的であるため,特定することは困難であるが,競合する共通語「まめだ」が,方言形「まめったい」の意味領域に影響を与えている可能性は排除できない。共通語「まめだ」 が「まめったい」の主要な意味(=体を動かしてよ
図 5 多項レジームスイッチング検出 (語イメージ)
図 6 多群出現順位統計量 (語イメージ)
く働く)を侵食するような形で意味変化を引き起こしていることが今回の分析によって示唆された.
## 5 終わりに
本研究では,共通語「まめだ」と競合関係にある静岡方言「まめったい」の意味および語イメージの変化について,2つの提案手法を用いて単純化及び可視化を行った.
分析の結果「まめったい」の使用・理解については低下傾向にあり,変化は今後も続くことが示唆された,語の意味については,「体を動かしてよく働く」という意味から「性格的に几帳面だ」という意味へと変化していた.これに伴い, 語イメージも肯定的なものから否定的なものへと変化していた. また,同手法によりこうした変化の生成時期についても推定が可能であった. 以上,本研究で用いたレジームスイッチング検出,および,多群出現順位統計量という 2 つ提案手法によって,これまで捉えることが困難であった「進行中の意味変化」の推定が可能であることがわかった.
## 謝辞
本調査にご協力いただいた方々に感謝いたします. 本研究は, 静岡理工科大学グループ研究推進支援費の助成を受けています。
## 参考文献
[1] Leonard Bloomfield. Language. H. Holt and Company, 1933.
[2] 東条操 (編). 全国方言辞典. 東京堂, 1951.
[3] 静岡方言研究会. 図節静岡県方言辞典. 吉見書店, 1951.
[4] J. Kleinberg. Bursty and hierarchical structure in streams. In Proceedings of the 8th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD-2002), pp. 91-101, 2002.
[5] Rebecca Killick, Paul Fearnhead, and I.A. Eckley. Optimal detection of changepoints with a linear computational cost. Journal of the American Statistical Association, Vol. 107, pp. 1590-1598, 122012.
[6] Yuki Yamagishi and Kazumi Saito. Visualizing switching regimes based on multinomial distribution in buzz marketing sites. In Foundations of Intelligent Systems 23rd International Symposium, ISMIS 2017, Vol. 10352 of Lecture Notes in Computer Science, pp. 385-395. Springer, 2017.
[7] J. Rissanen. Modeling by shortest data description. Automatica, Vol. 14, No. 5, pp. 465-471, September 1978.
[8] H. B. Mann and D. R. Whitney. On a test of whether one of two random variables is stochastically larger than the other. Ann. Math. Statist., Vol. 18, No. 1, pp. 50-60, 031947.
[9] Vladimir N. Vapnik. The Nature of Statistical Learning Theory. Springer-Verlag New York, Inc., New York, NY, USA, 1995. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D4-5.pdf | # 極小主義に動機づけられた統語的教示に基づく言語モデル
磯野真之介*梶川康平*吉田遼*大関洋平
東京大学
}
\{isono-shinnosuke, kohei-kajikawa, yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
近年、階層的な統語構造を明示的に扱う言語モデルである再帰的ニューラルネットワーク文法 (RNNG)が、高い文法汎化能力を持ちうることが示されている。本研究は、RNNGをべースに、有力な言語理論である極小主義の見地からより妥当な統語構造を用いた新しい言語モデル(極小主義 (Minimalism) に動機づけられた RNNG, M-RNNG) を提案する。M-RNNGでは、音形のない痕跡や機能範疇が加わる一方、非終端記号はなく、また木は全て二分木である。SyntaxGym による評価では、一部の文法タスクで M-RNNG の精度が RNNG を上回り、音形のない要素と極小主義的な木構造がそれぞれ精度に貢献し得ることが示唆された。
## 1 はじめに
理論言語学では、人間の文法知識は離散的で再帰的な階層構造によって特徴づけられると主張されてきた $[1,2]$ 。近年主流の大規模な言語モデルにはそのような階層的な構造を明示的に扱わないものも多い(e.g., [3])が、階層構造を明示的に扱う(統語的教示がある)ことの重要性は今日に至るまで盛んに議論されている $[4,5,6,7]$ 。例えば、それら統語的教示のある言語モデルの代表の一つである再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammar, RNNG) [8] は統語的教示のない純粋な再帰的ニューラルネットワーク (Recurrent Neural Network, RNN) [9] に比べて高い文法汎化能力 $[10,11,12]$ や心理言語学的評価 $[13,14]$ を達成できることが示されており、「人間らしい」言語モデルとして注目されている [15]。
しかし、RNNG をはじめとする統語的言語モデルが扱う統語構造と、人間の言語知識についての有力な理論である主流生成文法、特に極小主義 $[2,16]$ で想定されている統語構造との間には開きがある。主
流生成文法では、移動の痕跡や機能範疇として音形を持たない要素が存在し、人間の言語知識の説明に重要であることが主張されている。しかし、こうした音形のない要素は、主流なツリーバンク $[17,18]$ のアノテーションに含まれているにも関わらず、統語的言語モデルに与えられる教示では一般に取り去られてしまっている [19]。そこで本研究では、 RNNG をべースに、主流生成文法・極小主義の見地からより妥当な統語構造を用いた新しい言語モデル (極小主義 (Minimalism) に動機づけられた RNNG, M-RNNG)を提案する。M-RNNG は、音形のない要素の生成 NULL (*x) をアクションに含むことで、解析対象の文字列に含まれていない要素を推測できる。これを利用し、主流生成文法で広く受け入れられているいくつかの音形のない要素が、文法汎化能力に貢献するかを検証する。
また極小主義では、階層構造を生成する操作である併合 (Merge) は、常に 2 つの要素をとり、そのラベルはそれらの要素を元に決まるとされている [2]。 これらを踏まえ、M-RNNG が扱う木は全て二分木とし、明示的な非終端記号を取り去った。これにより、RNNG などの既存の統語的言語モデルにおける非終端接点を開くアクションNT (X) は不要となり、併合に相当する REDUCE アクションが常にスタックの上位 2 個の要素を参照してそれらを合成することになる。
このように、M-RNNG は、理論言語学で有力視されている構造を統語的教示として用いた言語モデルであり、本研究は人間らしい言語モデルの開発へ向けて、人間の文法知識を探求してきた理論言語学の知見が生かせるかを検証するものである。
## 2 提案手法
## 2.1 構文木の変換
主流生成文法、特に極小主義の見地からある程度妥当な構文木は、Penn Treebank (PTB) [17] 形式の構
図 1 実際の木変換の例。三点リーダ部分は省略。
文木を一定のアルゴリズムに基づいて変換することで得られる。本研究で行った変換の例を図 1 に示す。変換は音形のない要素に関するものと、二分木化に関するものに大別される。音形のない要素のうち、PTB のアノテーションに存在するものについては、表記をアステリスクャから始まるように統一し、移動の痕跡 $\star t$ 、補文標識 $\star c 、$ 削除の痕跡 $x e$ に整理した。句読点および単位記号の解釈位置 $(* U *)$ は削除した。さらに、時制の機能範疇を挿入した。具体的には、 $S$ に直接支配され、一般動詞の活用形を主要部とするVPがあれば、それに被せる形で時制を示す要素(動詞の活用形に応じて、過去形*tns_pst、現在形 3 人称単数 $*$ tns_pres_3s、それ以外の現在形×tns_pres)を插入した。時制の機能範疇を挿入したのは、その存在が主流生成文法において広く受け入れられており、かつ PTB のアノテーションを元に挿入することが容易だからである。
二分木化に際しては、PTB で三分木以上となっている木を、その品詞タグから判断できる限り言語学的に妥当になるように二分木に自動変換した。たとえば、図 1 の the authority to ... のように決定詞と名詞、それに後続する句を持つ三分木は、句を名詞の姉妹要素として付け替えることで二分木とした。また、giveのような三項動詞については、動詞に後続する 2 つの項を 1 つの構成素にまとめた [20,21]。
こうした変換を終えたあと、残った三分木以上の木を右枝分かれの二分木に変換し、枝分かれのない木を取り除き、非終端記号を取り去った。
## 2.2 極小主義に動機づけられた RNNG
提案モデルである極小主義 (Minimalism) に動機づけられた RNNG (M-RNNG) のアーキテクチャを図 2 に示す。スタックのみの RNNG $[22,10]$ をべー スとしつつ、2.1 項の変換アルゴリズムにより得られた、主流生成文法・極小主義の見地からより妥当な統語構造を教示とすることが可能になっている。 M-RNNG は、スタックデータ構造を用い、以下の 3 つのアクションによってその状態を更新していく:
$\cdot$ $\operatorname{GEN}(\mathrm{x})$ : 単語 $\mathrm{x}$ を生成する。生成単語 $\mathrm{x}$ を表すベクトル $e_{x}$ をスタックの先頭に追加する。
・NULL (*x):音形のない要素* $\mathrm{x}$ を生成する。生成要素* $\mathrm{x}$ を表すべクトル $e_{* x}$ をスタックの先頭に追加する。
・REDUCE:併合に相当する。スタックの上位 $2 \supset$ の要素を双方向 LSTM [23] を用いて合成する。
非終端記号を取り去った二分木を扱うため、RNNG などの既存の統語的言語モデルにおける非終端記号を開くアクション NT (X) は不要となり、また、 REDUCE アクションは常にスタックの上位 2 個の要素のみを参照すればよいことになる(cf. [24])。各アクションの後には、スタックの状態がスタック LSTM [25] により単方向にエンコードされ、それに基づき次のアクションの確率分布が算出される。各アクションの後、スタック内に単一のベクトルが残された際のみ、生成の終了を表す STOP アクション [10] に対しても確率が付与できるようになる。
## 3 実験設定
## 3.1 音形のない要素の有無
M-RNNG の学習データには、PTB 形式のツリーバンクの一つである Brown Laboratory for Linguistic Information Processing 1987-89 Corpus Release 1 (BLLIP、 LG、約 1.8M 文、約 42M トークン) [18] の各文に 2.1 項の変換アルゴリズムを適用したものを用いた。さらに本研究では、音形のない要素がモデルの文法汎化能力に貢献するかを検証するため、そうした要素を以下の 2 つのグループに分け、それぞれの有無だけが異なる 4 つの実験用のデータを用意した。
$\cdot$痕跡(移動の痕跡×t および削除の痕跡 $x \mathrm{e} )$
- 機能範疇 (時制×tns_pst、*tns_pres、
*tns_pres_3s および補文標識×c)
各実験用データを用い、入力・隠れ層の次元数 256 の 2 層 M-RNNG を学習した。また、ベースラインとして、2.1 項の変換アルゴリズムを適用しないかつ従来通り音形のない要素を取り去った BLLIP で
図 2 極小主義 (Minimalism) に動機づけられた RNNG (M-RNNG) のアーキテクチャ。GEN(x)、NULL(*x) アクションにより、それぞれ、単語、音形のない要素、を生成する。非終端記号を取り去った二分木を扱うため、非終端記号を開くアクションNT (X) は不要となり、併合に相当する REDUCE アクションは常にスタックの上位 2 個の要素を合成する。
学習した、入力・隠れ層の次元数 256 の 2 層 RNNG を学習した。M-RNNG と RNNG は共に並列化した実装 [4]を用いた。1) 各 M-RNNG 及び RNNG について、ランダムシードの異なる 3 つのモデルを学習した。学習の詳細は付録 $\mathrm{A}$ に示した。
## 3.2 SyntaxGym
本研究では、音形のない要素の有無が異なる 4 つのデータで学習された M-RNNG 及び RNNG を、統語的汎化能力の観点から評価する。評価データとしては、SyntaxGym ベンチマーク [26] における 5 つのテストサーキット [12]を用いた。各サーキットは、以下のそれぞれの言語現象を対象とする: Agreement, Licensing, Garden-Path Effects、 Center Embedding、Long-Distance Dependencies。ただし、 Garden-Path Effects はNP/Z 及び主動詞/縮約関係節ガーデンパス文の扱いをテストするものであるが、このうち NP/Z ガーデンパス文は二分木化の際に取り除かれた「カンマ (,)」を手がかりとしないと解けないデザインとなっているため本研究では対象外とした。SyntaxGym における残り 1 つのサーキットであるGross Syntactic Stateを本研究で用いないのも同様の理由による。
SyntaxGym において、言語モデルの統語的汎化能力は、統制された複数文の間での確率的予測の違いによって測られる。例えば、Agreement における、前置詞句を含む主語と述語の一致のテストでは、言語モデルは正文である (1a)の下線部に非文である
1)M-RNNGの実装は構文木の変換コードと共に後日公開予定である。RNNG の実装は以下を利用した: https://github.com/aistairc/rnng-pytorch。 (1b) の下線部よりも高い確率を付与していれば正解となる:
(1) a. The author next to the senators is good.
b. *The author next to the senators are good.
M-RNNG 及び RNNG を単語列に対する推論のモデルとして使うために、単語同期型ビームサー チ [27]を用いた。単語同期型ビームサーチは、各アクション毎の足切りとは別に、各単語の生成を行うアクション $\operatorname{GEN}(\mathrm{x})$ 毎にも足切りを行う。本研究で新たに導入した、音形のない要素の生成 NULL $(* x)$ アクションを持つ M-RNNG にも直接適用可能である。先行研究 [4] に従い、アクションビーム幅を 100、単語ビーム幅を 10、ファストトラック幅を 1 に設定した。
## 4 結果と考察
4 種類のデータで学習した M-RNNG およびRNNG の、サーキットごとの結果を、図 3 に示す。棒グラフはシードの異なる 3 つのモデルの結果の平均値を表し、それぞれの点は各シードの結果を表す。
まず、音形のない要素の有無による M-RNNG 間の精度の違いを見ると、 5 つのサーキットのうち Licensing を除く4つで、機能範疇と痕跡の両方を含めたデータで学習したモデルの精度が最も高かった。これらの音形のない要素が、統語構造の適切な分析に貢献したと考えられる。たとえば、Agreement では、機能範疇と痕跡の両方を含めることで初めて高い精度が出ており、時制の機能範疇が一致素性を明示していること(tns_pres と
図 34 種類のデータで学習した M-RNNG および RNNG の、サーキットごとの結果。棒グラフはシードの異なる 3 つのモデルの結果の平均值を表し、それぞれの点は各シードの結果を表す。
tns_pres_3s の区別がある)と、移動の痕跡があることでサーキットに用いられている関係節が解析しやすくなっていることが寄与していると推測される。(2)の文に対する同一シードでの結果を比較すると、機能範疇と痕跡ありの M-RNNG が正文の構文解析を正しくできており、文法性も正しく判断している一方、これらのない M-RNNG は解析ができておらず文法性判断も誤っている。それぞれの解析結果を(3a, b) に示す。なお、RNNG も、(3c) に示すように解析を失敗している。
(2) The consultants that the secretary doubted $\{$ are/*is $\}$ good.
(3) a. ((The (consultants (that ((the secretary) $(*$ tns_pst $($ doubted $* t))))))($ are good) $)$
b. (The (consultants (that ((the secretary) doubted) (are good)))))
c. (S (NP (NP The consultants) (SBAR (WHNP that) (S (NP the secretary) (VP doubted (SBAR (S (VP are (ADJP good))))))))))
また、M-RNNG と RNNGを比較すると、 Agreement, Center embedding、Garden-Path $の 3 \supset の$ サーキットで、機能範疇と痕跡を含めた M-RNNG、 およびどちらも含めない M-RNNG が RNNG の精度を上回った。これらのサーキットでは二分木ないし非終端記号の除去という M-RNNG の極小主義的な設計自体が精度を高めたと考えられる。
一方、Licensing と Long-Distance Dependency では全ての M-RNNG の精度が RNNG を下回った。 Licensing では、M-RNNG が RNNG に比べて特に苦手とするのが (4) のような herself を含む問題であっ
た。非終端記号の除去により、主語名詞句を構造的に抽象化する効果が薄れ、主語に対するジェンダー バイアス [28] が RNNG より残存しやすかった可能性が考えられる。
(4) The pilot that the teachers met injured \{herself/*themselves \}.
最後に、本研究の中心的課題ではないが、MRNNG は RNNG よりも計算効率の面で優れている。32GB の NVIDIA V100 GPU $\times 1$ を用いた BLLIP (LG、約 1.8M 文、約 42M トークン)の 15 エポックの学習に、RNNG は約 13 時間を要したが、M-RNNG は最も学習時間がかかった機能範疇と痕跡ありの条件でも約 6 時間の学習時間しか要さなかった。
## 5 おわりに
本研究は、有力な言語理論である極小主義に動機づけられた統語構造を用いた新しい言語モデルとして M-RNNG を提案した。SyntaxGym による評価では、一部の文法タスクで、M-RNNG の精度が RNNG を上回った。本実験の結果は、音形のない要素の存在と、全て二分木で非終端記号のない極小主義的な木構造がいずれも言語モデルの文法汎化能力に寄与し得ることを示唆している。提案手法はその他の統語的言語モデル (e.g., Transformer Grammar [6]) にも応用可能であり、理論言語学の知見を生かした人間らしい言語モデルの開発を後押しすると考えられる。
## 謝辞
本研究は、JST さきがけ JPMJPR21C2 の支援を受けたものです。
## 参考文献
[1] Noam Chomsky. Aspects of the theory of syntax. MIT Press, Cambridge, MA, 1965.
[2] Noam Chomsky. The Minimalist Program. MIT Press, Cambridge, MA, 1995.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL 2019, pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[4] Hiroshi Noji and Yohei Oseki. Effective batching for recurrent neural network grammars. In Findings of ACL 2021, pp. 4340-4352, Online, August 2021. Association for Computational Linguistics.
[5] Peng Qian, Tahira Naseem, Roger Levy, and Ramón Fernandez Astudillo. Structural guidance for transformer language models. In ACL-IJCNLP 2021, pp. 3735-3745, Online, August 2021. Association for Computational Linguistics.
[6] Laurent Sartran, Samuel Barrett, Adhiguna Kuncoro, Miloš Stanojević, Phil Blunsom, and Chris Dyer. Transformer Grammars: Augmenting Transformer Language Models with Syntactic Inductive Biases at Scale. TACL 2022, Vol. 10, pp. 1423-1439, 12 2022.
[7] Ryo Yoshida and Yohei Oseki. Composition, attention, or both? In Findings of EMNLP 2022, pp. 5851-5863, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics.
[8] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In NAACL 2016, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics.
[9] Jeffrey L. Elman. Finding structure in time. Cognitive Science, Vol. 14, No. 2, pp. 179-211, 1990.
[10] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs can learn syntaxsensitive dependencies well, but modeling structure makes them better. In ACL 2018, pp. 1426-1436, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[11] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural supervision improves learning of non-local grammatical dependencies. In NAACL 2019, pp. 3302-3312, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[12] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A systematic assessment of syntactic generalization in neural language models. In ACL 2020, pp. 1725-1744, Online, July 2020. Association for Computational Linguistics.
[13] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In ACL 2018, pp. 2727-2736, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[14] Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling human sentence processing with left-corner recurrent neural network grammars. In EMNLP 2021, pp. 2964-2973, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[15] Tal Linzen. How can we accelerate progress towards human-like linguistic generalization? In ACL 2020, pp. 5210-5217, Online, July 2020. Association for Computational Linguistics.
[16] David Adger. Core Syntax: A Minimalist Approach. Oxford
University Press, 2003
[17] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a large annotated corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993
[18] Eugene Charniak, Don Blaheta, Niyu Ge, Keith Hall, John Hale, and Mark Johnson. BLLIP 1987-89 WSJ Corpus Release 1 LDC2000T43, 2000.
[19] C.D. Manning and H. Schutze. Foundations of Statistical Natural Language Processing. MIT Press, Cambridge, MA, 1999.
[20] Richard K. Larson. On the double object construction. Linguistic Inquiry, Vol. 19, No. 3, pp. 335-391, 1988.
[21] Kenneth Hale and Samuel Jay Keyser. On argument structure and the lexical expression of syntactic relations. In Kenneth Hale and Samuel Jay Keyser, editors, The view from Building 20, pp. 53-109. MIT Press, Cambridge, MA, 1993.
[22] Adhiguna Kuncoro, Miguel Ballesteros, Lingpeng Kong, Chris Dyer, Graham Neubig, and Noah A. Smith. What do recurrent neural network grammars learn about syntax? In EACL 2017, pp. 1249-1258, Valencia, Spain, April 2017. Association for Computational Linguistics.
[23] Mike Schuster and Kuldip K. Paliwal. Bidirectional recurrent neural networks. IEEE 1997, Vol. 45, pp. 2673-2681, November 1997.
[24] Yoon Kim, Alexander Rush, Lei Yu, Adhiguna Kuncoro, Chris Dyer, and Gábor Melis. Unsupervised recurrent neural network grammars. In NAACL 2019, pp. 1105-1117, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[25] Chris Dyer, Miguel Ballesteros, Wang Ling, Austin Matthews, and Noah A. Smith. Transition-based dependency parsing with stack long short-term memory. In ACL 2015, pp. 334-343, Beijing, China, July 2015. Association for Computational Linguistics.
[26] Jon Gauthier, Jennifer Hu, Ethan Wilcox, Peng Qian, and Roger Levy. SyntaxGym: An online platform for targeted evaluation of language models. In ACL 2020, pp. 70-76, Online, July 2020. Association for Computational Linguistics.
[27] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In EMNLP 2017, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[28] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In EMNLP 2018, pp. 1192-1202, Brussels, Belgium, October-November 2018. Association for Computational Linguistics.
[29] Slav Petrov, Leon Barrett, Romain Thibaux, and Dan Klein. Learning accurate, compact, and interpretable tree annotation. In COLING-ACL 2006, pp. 433-440, Sydney, Australia, July 2006. Association for Computational Linguistics.
[30] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR 2015, San Diego, CA, USA, 2015. Conference Track Proceedings.
## A 学習の詳細
前処理学習、開発、およびテストセットの分割は先行研究 [12] に従った。先行研究 [4] を踏襲し、学習データの頻出語上位 50,000 語を語彙に含め、残りは Berkeley parser's surface feature rule [29] に則って未知語化した。ただし、M-RNNG が REDUCE の際に常にスタックの上位 2 個の要素を対象として合成できるよう、サブワード化は行わなかった。
ハイパーパラメータ $\quad$ M-RNNG 及び RNNG の学習時のハイパーパラメータは先行研究 [4] を踏襲した。最適化には学習率を 0.001 に設定した Adam [30] を用いた。ドロップアウト率は 0.1、バッチサイズは 512 に設定した。また、 15 エポックの学習を行い、各モデルの評価の際には、BLLIP の開発セットで最も損失が小さかったチェックポイントを用いた。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-1.pdf | # 環境税をめぐる言説空間に関する一検討一 国会議事録を活用した関連用語の分析 一
吉岡詩織* 早川敦士* レー武興
株式会社DATAFLUCT
\{shiori. yoshioka, atsushi. hayakawa, takeoki.le\}@datafluct.com
*共同第一著者
## 概要
近年,気候変動に対する危機感は世界全体で高まっている。気候変動政策は今後, 主に先進国で重要な政治的争点の一つとなることが考えられる. 具体的な政策の代表例に環境税がある. 本研究では, 環境税の導入に対する各政策主体のスタンスを明確にし,議論の進展を促すために,国会議事録で「環境税」を含む発言およびこれに対する返答に含まれる関連用語をロジスティック回帰で抽出し, 政党および委員会 (省庁)の意見の違いについて可視化した. また,定量的に抽出された用語を含む発言と返答の内容を確認し, 定性的に分析を行った. 結果, 傾向として自由民主党 (以下, 自民党)および経済産業委員会 (以下,経産委員会) は, 民主党・無所属クラブ (以下, 民主党)および環境委員会に比べ環境税導入に消極的であるという仮説に関する示唆を得た。
## 1 はじめに
近年,気候変動に対する危機感は世界全体で高まっており,2050 年にカーボンニュートラルを掲げる国は 125 力国 1 地域にのぼる[1]. 日本では 2030 年に国全体の温室効果ガス排出量を 2013 年対比で 46\%削減, 2050 年にカーボンニュートラルの達成を掲げている[2]. 気候変動政策の代表に,環境税がある。環境税とは,広義には「環境に負荷を与える財・ サービス全般を課税の対象にし,それらを抑制して環境保全に役立てようとする発想」のもと, 設定される税制である[3]. 狭義には,「二酸化炭素(以下 $\left.\lceil\mathrm{CO}_{2} \downharpoonleft\right)$ の排出量に応じ, 工場や企業, 家庭などから幅広く負担を求めることにより,広く国民に対し温暖化対策の重要性についての認識を促し, 排出量の削減を推し進めるもの」であり [4], 後者は炭素税と呼ばれる.以下, 当税制の歴史的背景を記述する.環境税は 1920 年代,イギリスの経済学者 Arthur Cecil Pigou が提唱したピグー税に起源がある.ピグ一税とは,元来環境に限らず経済活動において市場を通さずに便益を享受し損失を被ること,すなわち 「外部不経済」に対して,正の効果をもたらすものには補助金の提供を,負の効果をもたらすものには課税をするという概念である[5]. この「外部不経済の内部経済化」は環境問題と良い相性である. 大気・水質の污染物質や廃棄物一の課税は,それらの発生の抑制効果を持つとされている.中でも $\mathrm{CO}_{2}$ の課税は,気候変動の世界的な解決策として期待されるが,他の環境問題と比べ課税対象者を誰にするか,削減に有効な価格は 1 トンの $\mathrm{CO}_{2}$ でどれくらいか (カーボンプライシング),課税による経済的損失との比較はどう行うか,などの論点がある. 2018 年ノ一ベル経済学賞を受賞したアメリカの経済学者 William Dawbney Nordhaus は, Dynamic Integrated Climate-Economy モデル(以下,DICE モデル)と呼ばれるマクロ経済と気候変動の統合評価モデルを発明した. この DICE モデルでは,炭素の社会的費用, すなわち追加的な炭素排出 1 単位が経済に与える影響の大きさとして,適切な炭素価格を計算できる [6]. 1990 年代に開発された DICE モデルだが,基本的なコンセプトを変えず改良され続けており,今日の IPCC レポート等でも援用されている.
現実の制度としての環境税は欧州を中心にはじまったが,その背景にはスイスの経済学者 Hans Christoph Binswanger がいる. Binswanger は「エネルギー税を引き上げて大気污染を減らし, 社会保険料を引き下げて雇用をしやすくする,さらに,エネルギー税収入で年金保険料収入の減少を補填するという考え方」を示し,欧州の環境税制改革の理論的バックグラウンドとなった[7]. 1990 年代にフィンランド,スウェーデン,オランダ,ドイツといった国々
で環境税制改革が行われ, 所得税や法人税などの減額処置と同時に化石燃料に対する付加税, 電力消費に対する課税強化, 鉱物油税等が導入された [8].
日本では, 環境税は「地球温暖化対策のための税」 (以下「温対税」)として 2012 年に導入され, 2016 年に導入当初に予定されていた最終税率への引上げが完了した. 本税制は石油, ガス, 石炭に対して課税され, 納税義務者は化石燃料の採取者または保税地域からの引取者 (輸入者)である. 家計への影響は年額 1,200 円程度と試算されており, 1 トン- $\mathrm{CO}_{2}$ eq あたりの税率は 289 円と, 欧州や北米といった環境税が導入された先進国の水準 (日本円で 1 トン- $\mathrm{CO}_{2} \mathrm{eq}$ 1,000 円 16,000 円)よりとても低い. よって, 削減のための十分なインセンティブにならないという懸念もある。また, 政府予算では諸外国では一般会計への計上が多い中, 特別会計へ繰り入れられており,使途は「省エネ対策,再生可能エネルギー普及,化石燃料クリーン化等のエネルギー起源 $\mathrm{CO}_{2}$ 排出抑制. に限定されている[9]. つまり, 欧州が志向した Binswanger $の$ 環境税制改革の理論は下敷きにされておらず,温対税はあくまで気候変動政策の枠組みの中で完結しているという体裁である.
このように,環境税は他の気候変動政策と比べて影響範囲が広く効果があると言われている反面, 削減効果の担保の難しさや, 特定産業の負担増による産業の衰退, 所得の低い層ほど税負担が大きくなる逆進性の問題がある[10]. また, 既存産業への経済的負荷と気候変動による社会的費用のバランスをどう取るか, 財政赤字をどのように立て直すか, 税制改革として景気刺激策と気候変動政策が両立する形は実現可能かなど, 環境問題を超えた論点を包含する. よって環境税に対しては様々な政策主体の思惑が絡むと思われるため, 本研究では上記のような論点やそれに対する意見, 対立構造について, 国会議事録を活用した言説空間の分析という形で調査を行う.
## 2 関連研究
環境税をめぐる言説空間の研究事例は少ない. 気候変動政策全般に関する言説やネットワーク分析は, Comparing Climate Change Policy Networks(以下「COMPON」) という研究プロジェクトが中心的役割を果たしている[11]. COMPONにおける日本を対象とした研究では, 2050 年カーボンニュートラル宣言をしている自治体を対象とした気候変動政策に関する調査票調査[12], 環境政策におけるドイツと日本の言説ネットワークの比較[13]などがある.個別の制度に着目した研究では,再生可能エネルギーの
「固定価格買取制度」に関する政府・政党・利益団体の間の政策ネットワークの研究がある[14]. ただし, COMPON は社会学分野の研究が主流であり, 方法論としては質問紙調查や統計的手法が取られているが,国会議事録などの大量のデータを対象としたものは少ない.
機械学習の分野では,文書をあらかじめ与えられたカテゴリに分類するテキスト分類の研究が行われてきたが政治領域のテキストを機械学習に基づき分類する研究は,ごく僅かに見られる程度である。一例としては,気候変動の「適応策」についての記述を政策文書から特定し, 適応, 緩和,非気候のいずれかに分類するために ANN モデルを利用している [14]. 当該研究では, 分類結果を用いて経年での政策変化を分析している.
国会議事録に着目した研究として, 猫本らは議員が議案に対するスタンスを 2 値(賛成 or 反対)に判定する BERT ベースの分類器を構築した. 提案手法の分類精度はベースライン手法より高く得られた [15]. 中川らの研究では, イデオロギーの区分として政党を用い, 国会における議員の発言について, 政党を特徴付ける要素の検討を行った. ランダムフォレストによる議員の発言を分析した結果, 感動詞の比率と語彙の多様性について政党間の差異が大きい傾向が示唆された[16]. 小柴らの研究では, 議会と行政の相互作用を広範かつ定量的に分析する手法を検討した. 具体的には, 各議事録から機械的に抽出された代表語の類似性と時間的前後関係のみで, 影響の有無を推定する粗い指標である[17].
## 3 分析仮説
本研究では,二つの仮説を設定する。
仮説(1) 自民党は, 政権与党として, 国民の負担増や経済停滞,その他気候変動以外の国内外の課題も考慮し政策を決定する必要があるため, 環境税導入に消極的な傾向がある.
仮説(2) 経産委員会は, 国民の負担増や経済停滞を懸念し環境税導入に消極的な傾向がある。一方で環境委員会は,実効的な環境政策を推進する観点で積極的な傾向がある.
これらの仮説は, COMPON の関連研究や過去の政策立案の経緯, メディア報道の傾向から導き出した.民主党については, 主要政党の解党により明確な仮
説の設定が難しいが,民主党員からの発言を対象に,仮説(1)で想定する自民党のスタンスとの比較分析を行う. 仮説(1)と仮説(2)双方について, カーボンプライシングの具体策として環境税と並列で言及される排出量取引制度[18]に関する発言およびこれに対する返答のデータも取得し,比較分析を行う。
## 4 データセット
国会議事録検索システムより,「環境税」(ただし, $\mathrm{CO}_{2}$ 排出に対して課税することを意味しない,「森林環境税」を除く) または「炭素税」を含む発言およびこれに対する返答を取得した(データ A)。また,「排出量取引」または「排出権取引」(以下「排出量取引」に用語を統一する)を含む発言およびこれに対する返答も取得した(データ B).これらのデータは 1987 年から 202 2 年の期間に発言された記録である. データ $\mathrm{A} およ$ びデータ B に関するデータセットの件数を表 1 に記載した.
表 1 分析用データセット
## 5 分析手法
データ $\mathrm{A}$, データ $\mathrm{B}$ に対して, 同様の方法で特徴量を作成し,モデルを構築した。
## 5.1 特徴量の作成
$\mathrm{MeCab}$ を用いて, 名詞に該当する形態素を抽出した.この際, 平仮名のみ, 2 文字以下のカタカナのみ, 1 文字のみのいずれかに該当する場合は除外した. 発言に各形態素が含まれるか否かの 2 值となる Bag Of Words で特徴量を作成した。学習データにおける発言数より特徴量の次元数 (2864 次元) が大きいため次元削減を行った. データ $\mathrm{A}$ および $\mathrm{B}$ を合わせたデータに対して,分散 $\operatorname{Var}[\mathrm{X}]=p(1-p)$ について $p=0.08$ の時の分散より小さい特徴量を除外し 179 次元にした[19].
## 5.2 モデル
スパースモデリングの文脈で広く知られている
L1 正則化項付きのロジスティック回帰を適用した.以下の式を最小化することでパラメータを推定した。 ここで, $X_{i}$ は $i$ 番目の特徴量, $w$ は推定するパラメー 夕で偏回帰係数, $y_{i}$ は $i$ 番目の目的変数である.
$
\hat{p}\left(X_{i}\right)=\frac{1}{1+\exp \left(-X_{i} w-w_{0}\right)}
$
$
f\left(X_{i}\right)=-y_{i} \log \left(\hat{p}\left(X_{i}\right)\right)-\left(1-y_{i}\right) \log \left(1-\hat{p}\left(X_{i}\right)\right)
$
$
\min _{w} \prod_{i=1}^{n} f\left(X_{i}\right)+\|w\|_{1}
$
上記のモデルを用いて,4 つのモデルを作成する. モデル名とデータの対応を表 2 に示した.
表 2 モデル名とデータの対応
## 6 結果
## 6. 1 モデルによる予測精度
5 分割のクロスバリデーションによる予測精度を表 3 にまとめた.
## 6.2 モデルにより抽出した関連用語
モデル 1 からモデル 4 で推定結果を付録表 4 にまとめた. モデル 1 およびモデル 3 の構築時に,「自民党」を 1 ,「民主党」を 0 として目的変数を扱っているので,正の值にある形態素は自民党らしさを表す。一方で,負の値にある形態素は民主党らしさを表す. 同様に,モデル 2 およびモデル 4 の構築時に,「経産委員会」を 1 ,「環境委員会」を 0 として目的変数を処理しているので,正の値にある形態素は経産委員会らしさを表す。一方で,負の値にある形態素は環境委員会らしさを表す。
## 7 考察
## 7. 1 所属の違いによる発言傾向の分析
分析結果は仮説(1)を部分的に支持するものであっ
た. 具体的には,自民党による発言は,気候変動に対して, 経済成長や食糧・海上等の安全保障等, 他の重要課題と並列で言及し,いずれの課題も等しく対策を講じなければならないことを主張するものが散見された.こうした傾向は統計的に有意な「我々」,
「我が国」,「現在」,「必要」などの用語に現れている。また, 自民党に特徴的な点としては, 発言の導入部分で「先生のおっしゃる通り」といった専門家の見解を重視する傾向も見られた. なお, 全ての発言が環境税に否定的ではなく, 現在ある温対税の整理等と合わせて, 導入すべきであるという発言も,特に環境省に属する環境大臣等から少なからず見られた. 比較分析を行った排出量取引については,発言の内容に自民党に特徴的な用語はなかったが,
環境税と同じく専門家の意見を重視する傾向があり,
「先生」のみが統計的に有意な用語となった.
環境税に対する「民主党」の発言としては,「再生可能エネルギー」の比率上昇など, エネルギー政策とセットで環境税に言及するものが最も多かった。 その他統計的に有意な単語としては「拡大」や「部分」などがあるが,いずれも用語の使われ方は文脈に応じて様々である。環境政策の文脈では,例えばエコポイント対象品目の「拡大」やエコ設備等の需要「拡大」, ガソリン税の「部分」と組み合わせた環境税導入のためのグリーン税制改革の提案といったものが見受けられた。
## 7.2 委員会の違いによる発言傾向の分析
分析結果は仮説(2)を支持するものであった.環境税に対する経産委員会の発言では, 「省エネ」や「影響」,「負担」などの用語が統計的に有意かつ特徴的である。「省エネ」は省エネ法や省エネ税制への言及と並んで, 省エネ設備に対する需要喚起や投資による景気刺激を期待する発言が散見された。「影響」は,環境税導入による国民経済や産業・雇用に対する「影響」についての言及,「負担」は環境税導入によるエネルギー事業者や低所得世帯, 中小企業に対する「負担」増を懸念する発言が多く,この二つが経産委員会の環境税に対するスタンスを顕著に示す用語であった。
環境税に対する環境委員会での発言では, 気候変動対策を民間に任せず「行政」が行っていくという姿勢を示すものが多かった。「環境行政」という単語で言及されることが多く, 小さい政府や事業仕分けが注目された時勢においても,環境政策について
は行政が行うべきだという姿勢を示す文脈で同用語が散見された.また,色々な文脈があるが,環境税については国民の「理解」や「協力」が必要であるという趣旨の発言も見られた.
比較分析を行った排出量取引については, 経産委員会における発言では,「産業」や「エネルギー」 といった用語が統計的に有意となり,対環境税ほど消極的な姿勢を示す発言は少なかった。また,エネルギー政策と一緒に言及されることが多いという傾向があった. 環境委員会における発言では,「吸収」 という用語が上位にあるように,エネルギー政策というよりむしろ森林や海洋の $\mathrm{CO}_{2}$ 吸収源を重視した姿勢が経産委員会のスタンスと対照的であった. また, 制度的な複雑さ・難しさの懸念を示す「段階」,
「説明」などの発言が一部あったが,文脈によって様々で統一的な特徵は見出せなかった。
## 8 おわりに
本論文ではロジスティック回帰を用いた国会議事録の分析で,環境税および比較対象としての排出量取引制度に対する,政党および委員会の発言傾向の違いを偏回帰係数に着目して分析し, 各政策主体のスタンスの違いに関する仮説に対して検討した。
モデル構築の観点では,パラメータチューニングや異なるモデルを利用することで新たな関連用語を導き, 比較対象の違いの理解を深める効果が期待される. 今回のモデルは分析データの件数に比べて特徴量が多いため, ロジスティック回帰に適用する前に変数選択をしており, L1 正則化ロジスティック回帰のみで構築していた. 発言件数が限られているため, これらの違いを分析するには制限があるが, 政治家の公約や政策活動費などの異なる記録を扱うことで, 政党ごとの違いをより詳細に評価することができると考えている.
定性分析の観点では,今回は二つの政党と二つの委員会に限定して分析を行ったが,分析対象以外の政党や会議体で,環境税に親和的な政策主体が見られるか,それはなぜか等の観点での追加分析を行うことで, 環境税をめぐる言説空間をより正確に把握できるだろう。また,モデルの精度向上の観点で言及した, 政治家の公約や政策活動費などの国会議事録以外の記録に加え,新聞報道等も分析対象に加えることで,政策主体の発信するシグナルを,世間がどのように受け止めているかという視点で, 拡大された言説空間を導くことができると考える。
## 参考文献
1. 令和 2 年度エネルギーに関する年次報告 (エネルギー白書 2021) “第 2 節諸外国における脱炭素化の動向”,経済産業省資源エネルギー庁: htt ps://www.enecho.meti.go.jp/about/whitepaper/2021/ html/1-2-2.html, 2022-11 閲覧
2. 日本の $\mathrm{NDC}$ (国が決定する貢献). 地球温暖化対策推進本部: https://www.mofa.go.jp/mofaj/files/1 00285591.pdf, 2022-10 閲覧.
3. 環境税の課税根拠(一), 伊藤嘉規, 富山大学紀要. 富大経済論集, 第 59 巻第 3 号, 2014.03, pp. 435-465.
4. 環境税の具体案. 環境省: https://www.env.go.jp/policy/tax/051025/01.html, 2022-11 閲覧
5. 環境税(地球温暖化対策税)とエネルギー関係諸税について, 篠原克岳, 税大論叢 61 号, 2009 年 6 月 25 日
6. "DICE 2013R: Introduction and User's Manual," Nordhaus, W.D., and Sztore, P., 2013.
7. 新たなエネルギー税のあり方一電気やガスの消費に対する課税一, 柴由花, 税大ジャーナル 25 2015.4.
8. 諸外国における炭素税等の導入状況, 環境省: $h$ ttps://www.env.go.jp/policy/tax/misc_jokyo/attach/i ntro_situation.pdf, 2022-11 閲覧
9. 地球温暖化対策のための税の導入. 環境省: http s://www.env.go.jp/policy/tax/about.html, 2022-11 閲覧
10. カーボンプライシングの活用に関する小委員会 (第 13 回)議事次第・配付資料, 資料 2“炭素税について”環境省: https://www.env.go.jp/council/06 earth/13_3.html, 2022-11 閲覧
11. Climate change policy networks: Why and how to compare them across countries, TuomasYlä-A nttilaa, et al., 2018
12. 地方自治体の 2050 年二酸化炭素排出実質ゼロ宣言 : 気候変動政策に関する自治体調査から,辰巳智行ら, 静岡大学情報学研究, 26 巻, p. 1 22, 2021-03-28
13. Analysis of the Policy Network for the "Feed-in Tariff Law" in Japan: Evidence from the GEP ON Survey, Okura, Sae et al., Journal of Cont emporary Eastern Asia, Volume 15, Issue 1, Pa ges.41-63, 2016
14. Machine learning for research on climate change adaptation policy integration: an exploratory $\mathrm{U}$ $\mathrm{K}$ case study. Biesbroek, R. et al., Reg Enviro n Change 20, 85 (2020).
15. 議会における明示的な賛否表現を含まない議員発言を対象としたスタンス分類データセットの構築と評価,猫本隆哲,秋葉友良,増山繁,言語処理学会第 28 回年次大会発表論文集, 2022 年.
16. ランダムフォレストを用いた国会会議録のイデオロギー分析, 中川侑, 武田拓也, 吉元涼介,芳鐘冬樹, 第 15 回情報科学技術フォーラム( $\mathrm{F}$ IT2016).
17. 議事録を用いた我が国における議会・行政の関係性分析手法, 小柴著, 森川想, 人工知能学会論文誌, 2019.
18. カーボンプライシング. 環境省: https://www.env. go.jp/earth/ondanka/cp/index.html,2022-12 閲覧.
19. scikit-learn User Guide 1.13. Feature selecton $\mathrm{h}$ ttps://scikit-learn.org/stable/modules/feature_selecti on.html, 2022-12 閲覧.
## A 付録
表 3:モデル 1 からモデル 4 の ROC-AUC
表 4:モデルにより推定された偏回帰係数の正負と $5 \%$ 有意水準を満たす形態素
& 形態素 (偏回帰係数の絶対値が大きい順に記載) \\
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-2.pdf | # 自己相互情報量と単語群一致度を組み合わせた 臨床研究関連法規の類似性評価の検討
大城絢子 1 岡崎威生 2 植田真一郎 3
1 沖縄国際大学 経済学部 2 琉球大学 工学部
3 琉球大学 医学部 臨床薬理学講座
a.ohshiro@okiu.ac.jp okazaki@ie.u-ryukyu.ac.jp
blessyou@med.u-ryukyu.ac.jp
## 概要
臨床研究は現在 3 つの指針・省令・法に則っておこなわれている.これらの類似関係を可視化することで、臨床研究の研究者は多忙な診療業務をこなしながらも複数の法令の関係を解釈することができる. 本研究では、これらの法令の条文間の類似性を定量的に評価するために、相互情報量と複数の単語 (単語群) の一致度・一致単語群の発生頻度・そしてこれらを組み合わせた類似尺度を提案した. 類似性推定精度の性能比較実験の結果、既存の尺度に比べ推定精度が改善された組み合わせがあったことを確認した。
## 1 はじめに
治療法改善や診断ガイドライン検討といった医療の質の向上には、診療現場で生じた臨床的疑問を解決する「臨床研究」が必要である. またその結果は、診療はもちろん患者の予後に影響するため、適切に実施することが重要である. そのため、臨床研究の実施においては既に定められた省令や法令、指針に沿うことが求められる。
例えば 1997 年には「医薬品の臨床試験の実施の基準に関する省令 [1]」(Good Clinical Practice、以後 GCP 省令とする) が施行され、その内容は多くの研究者に定着していると考えられる。一方で、過去 10 年においてデータ操作や利益相反に関する問題が発生し、その不適正事案に対する対策として、2015 年には「人を対象とする医学系研究に関する倫理指針 [2] (以後、倫理指針とする)」の見直し、2018 年には「臨床研究法 [3]」が施行されたことで臨床研究は法律化され、現在 3 つの指針・基準・法令のもとにある. そのため臨床研究を実施する研究者はこ
れらの法規に沿った研究を害施することを求められている、しかし、多忙な臨床業務をこなしながら、 これらの法規を完全に理解することは容易ではないため、これらの法令を扱う関連部署の支援を受けることも多い. またこのような状況は臨床研究関連の法対応に限ったものではなく、例えば地方自治体で定められる条例など、内容は類似するものの地域により異なる点などは法務の専門家の手作業により比較されている [4]. これらの作業に対し、コンピュータを用いた言語処理のアプローチを導入することにより、作業コストの軽減が期待されている [5][6][7][8]. 特に近年では、BERT[9] の文書ベクトル機能やDoc2vec[10] などの Deep Learning を用いた法令間の条文比較などの取り組みも盛んになっている. それにより類似した法律の対応づけなどの取り組みも行われている [11][12]. 臨床研究関連の法令においても既述の 3 つの指針・基準・法令間の関係を可視化することで、診療多忙な臨床研究の研究者が複数の法規の関係を把握することができると期待できる。
本研究では臨床研究関連法規間の関係を可視化するために、各法規の各条文間の全ての組み合わせについての類似性予測の精度を向上させることを目的としている.これまでに、word2vec や topic model を用いて関連法規の解釈や法令間の関連性解釈の可能性について考察してきた [13][14]. さらに含まれる共通単語数が多い文章は類似度が高いという仮説のもと、「単語一致度」をもとにこれら 3 法令の各条文間の類似度を予測した [15]. 正誤検証の結果、意味的に「類似性が高い一致」である組み合わせが正しく獲得された一方で、「類似性が低い/不一致」である組み合わせの条文の類似度が高いとされたケースもあり、課題が残った。
そこで次に、単一の単語ではなく、複数の単語である「単語群」の一致度と複数の単語の同時出現確率を示す自己相互情報量 (Pointwise Mutual Information)を組み合わせて用いることで、各条文間の類似性を予測する尺度を提案した. 本稿ではその内容と、既存の類似尺度との性能比較実験の結果について報告する.
## 2 条文間類似性の定義
本研究の目的は図 1 のように、臨床研究を対象とした既述の法令である $L_{1}$ 倫理指針、 $L_{2} \mathrm{GCP}$ 省令、 $L_{3}$ 臨床研究法の各条文間の類似性を求めることである.
図 1 臨床研究関連法令の条文間の類似性を示した例
図 1 では、例えば $L_{1}$ 倫理指針の第 12 条と $L_{3} \mathrm{GCP}$省令の第 10 条の類似性が高いことを意味している.本稿では、条文間の類似性について複数の仮説を設定した. 複数の単語の組み合わせ (以後、単語群とする) の一致度が高い場合、条文同士の類似性は高くなると考えられる. また一致度に加え、同時に出現する確率 (PMI) の高い単語の組み合わせがある場合、条文同士の類似性は高いと考えることもできる。 さらに一致する単語群の発生頻度が高いほど、条文同士の類似性は高いと考えられる。ここで単語群の発生頻度は条文の長さに比例するため、単語群の発生総数 $F\{x, y\}$ における比率を配慮する必要がある。以上より、これらの仮説を組み合わせ整理すると以下のようになる。
仮説 1 単語群 (2 組)の一致度が高いほど条文間の類似度は高い (Word Group Match:WGM とする)
仮説 2 「単語群の一致度+PMI」が高いほど条文間の類似度は高い (WGM+PMI)
仮説 3 一致した単語群の発生頻度が高いほど条文間の類似度は高い (Frequency Of Word Group Match:FWG とする)
法令 $L_{a}$ の $i$ 条、法令 $L_{b}$ の $j$ 条において 2 つ単語 (単語群) $w_{x, y}$ が出現する場合、その相互情報量 $P M I(x, y)$ は式 (1)のように定式化できる.
$
P M I(x, y)=\log \frac{P(x, y)}{P(x) P(y)}
$
また法令 $L_{a}$ の $i$ 条、法令 $L_{b}$ の $j$ 条における単語群 $w_{x, y}$ の一致度を $W G M\left.\{w_{L_{a}}(x, y), w_{L_{b}}(x, y)\right.\}$ 、とすると、条文間の類似度 $S\left.\{L_{a}^{i}, L_{b}^{j}\right.\}$ は単語群の発生総数 $F\{x, y\}$ を用いて式 (2)のようにも定式化できる.
$
S\left.\{L_{a}^{i}, L_{b}^{j}\right.\}=\frac{W G M\left.\{w_{L_{a}}(x, y), w_{L_{b}}(x, y)\right.\}}{F\{x, y\}}
$
以上より、本稿では、これらの 3 つの仮説に基づき、条文間の類似度 $S\left.\{L_{a}^{i}, L_{b}^{j}\right.\}$ について 3 つの類似尺度を定義した。
$
\begin{gathered}
P M I=\frac{P M I(x, y)}{F\{x, y\}} \\
P M I+W G M=\frac{P M I(x, y)+W G M\left.\{w_{L_{a}}(x, y), w_{L_{b}}(x, y)\right.\}}{F\{x, y\}} \\
F W G=\frac{W G M\left.\{w_{L_{a}}(x, y), w_{L_{b}}(x, y)\right.\}}{F\{x, y\}}
\end{gathered}
$
本研究では臨床研究を対象とした法令 3 つ取り上げ、全条文の全ての組み合わせについて類似度を算出した. 具体的な手順を以下に示す.
1. 全条文間の全ての組み合わせについて類似度を算出
2. 全類似度の分布をもとに 4 段階の順序尺度「一致/高い類似性/低い類似性/不一致」に変換
3. ベンチマークデータとの順序相関係数を算出し推定精度とする
## 3 精度比較実験
## 3.1 用いる法令データ
臨床研究を対象とした法令である倫理指針 $L_{1}$ (全 23 条)、臨床研究法 $L_{2}$ (全 43 条)、GCP 省令 $L_{3}$ (全 59 条) の各法令の全条文の組み合わせ数は、 $\left.\{L_{1}, L_{2}\right.\}+\left.\{L_{1}, L_{3}\right.\}+\left.\{L_{2}, L_{3}\right.\}=23 * 43+23 * 59+43 * 59=4883$ となる. 本研究ではこれらのうち、各法令組み合わせより 30 組選択し、 $30 * 3=90$ の組み合わせについて臨床研究の専門家に評価を依頼しベンチマークデー タを獲得した。
## 3.2 評価指標
提案手法を用いて算出した類似度の精度を、ベンチマークデータを用いて評価した。各条文間の類似
性を評価したベンチマークデータは、臨床研究の専門家にあらかじめ「一致/高い類似性/低い類似性/不一致」の 4 段階による尺度で評価を依頼し表 1 のように獲得した。 3 法令の条文の全組み合わせのうち 30 組について評価を依頼した。性能比較には、既存の手法として Doc2 Vec、単語一致度、Simpson 係数を用いた。
類似度の推定精度は、ベンチマークデータとの順序相関係数を用いて $[0,1]$ で評価した。
## 3.3 比較結果
既存の文章類似度推定手法として単語一致度 ・ Doc2vec・Simpson 係数を挙げ、これらに対して本稿にて提案した類似度尺度である WGM+PMI、PMI、 FWG との推定精度を比較した. Simpsons 係数と似た考え方の類似尺度に Jaccard 係数や Dice 係数があるが、本稿では事前実験の結果、精度が高かった Simpson 係数の結果を採用している. 3 つの法令の組み合わせ $\left.\{L_{1}\right.$ 倫理指針、 $L_{2}$ 臨床研究法\}、 $\left.\{L_{2}\right.$ 臨床研究法、 $L_{3} \mathrm{GCP}$ 省令 $\} 、\left.\{L_{1}\right.$ 倫理指針、 $L_{3} \mathrm{GCP}$ 省令 $\}$ の比較結果を表 2 に示す.
はじめに結果の解釈について述べる. 推定精度として用いている順序相関係数が 1 に近いほどベンチマークデータと正の相関関係にあることを意味し、推定精度が高いと解釈できる. 負の値をとりかつ-1 に近い場合、類似度がベンチマークデータと負の相関関係になっていることを意味する。これは例えばベンチマークデータにおいて「一致/高い類似性」と判定されている組み合わせに対して「低い類似性/不一致」と推定したことを意味する。
単語一致度を用いた場合、相関係数が負の値や低い正の値をとっていることから、推定精度が低いことを示しており、単語の一致数のみで類似度を求めることが困難であることを示している. Doc2vec も同様のパターンの結果となっている. 一致した単語群の発生頻度を類似尺度に適用した FWG を用いた場合、他の手法と比べ推定精度が低く頻度情報のみ用いた場合だと類似性を評価することが困難である
ことを示している. $\left.\{L_{1}\right.$ 倫理指針・ $L_{2}$ 臨床研究法 $\}$ の組み合わせにおいては単語一致群と PMI を組み合わせた「WGM+PMI」や「PMI」を用いた場合、上記の既存の尺度や Simpson 係数の適用時より精度が改善さたことがわかった. また $\left.\{L_{2}\right.$ 倫理指針・ $L_{3} \mathrm{GCP}$省令了の組み合わせについては他の組み合わせに比べ推定精度が悪いこともわかった. Simpson 係数とのハイブリッド適用などにより、類似尺度の推定精度をさらに改善させる必要があることがわかった。
## 4 おわりに
自己相互情報量と単語群一致度・単語群発生頻度とそれらを組み合わせた類似尺度を提案し、臨床研究を対象とした 3 つの指針・省令・法間の条文の類似性を数値化した. 性能比較実験の結果、既存の類似尺度より類似度推定精度が改善された組み合わせがあること・既存の尺度との組み合わせによりさらに改善が期待できることを確認した. また性能としてはまだ改善の余地があり、実際の適用レベルを目指すにはまだ改善が必要である. 今後の課題として BERT の文書ベクトルや固有表現抽出機能を用いたパターンとの性能比較もおこない、Deep learning や既存の類似尺度とのハイブリッドな手法の構築も試みていく.
表 2 各類似尺度による推定精度の比較結果
## 謝辞
本研究は科学研究費補助金 $20 K 18854$ の助成を受けたものである.
## 参考文献
[1] 医薬品の臨床試験の実施の基準に関する省令 (平成 9 年厚生省令第二十八号) "医薬品の臨床試験の実施の基準に関する省令 | e-Gov 法令検索", (accessed 2020-09-03)
[2] 文部科学省. 厚生労働省. 人を対象とする医学系研究に関する倫理指針 (平成 26 年 12 月 22 日. 平成 29 年 2 月 28 日一部改正) [https://www.mhlw.go.jp/file/06Seisakujouhou-10600000- Daijinkanboukouseikagakuka/0000153339.pdf (accessed 2020-09-03)]
[3] 臨床研究法 (平成 29 年法律第 16 号) "臨床研究法| e-Gov 法令検索", (accessed 2020-09-03)
[4] 藤井真知子, “市町村合併における自治体法務の現状と課題 : 甲賀市の条例整備を手がかりとして” 龍谷大学大学院法学研究紀要論文, 9 号, pp. 181-214, 2007.
[5] 角野篤泰. スーパーコンピュータを用いた自治体例規の類似度分析と例規データベースへの応用. 名古屋大學法政論集, Vol. 246, pp. 91-69, 2012.
[6] 竹中要一, 若尾岳志, “地方自治体の例規比較に用いる条文対応表の作成支援” 自然言語処理, Vol. 19 No. 3, pp.194-212, 2012.
[7] 小山凱丈, 佐野智也, 竹中要一, “明治民法制定時における日仏民法条文の参照関係再推定”言語処理学会第 25 回年次大会発表論文集, pp.398-401, 2019.
[8] 小山凱丈, 佐野智也, 竹中要一, "明治民法と各国民法との条文類似関係にもとづく立脚点の解析" 言語処理学会第 26 回年次大会発表論文集, pp93-96, 2020
[9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, "Bidirectional Encoder Representations from Transformers",
[10] Quoc V. Le, Tomas Mikolov, "Distributed Representations of Sentences and Documents", proceedings of the 31st International Conference on Machine Learning, PMLR 32(2):1188-1196, 2014.
[11] 長裕樹, 中村誠, "BERT を用いた比較法研究における類似条項の対応付け", 言語処理学会第 28 回年次大会発表論文集, pp948-951, 2022
[12] Kaito Koyama, Tomoya Sano, Yoichi, "The legislative study on Meiji civil code by machine learning", Fifteenth International Workshop on Juris-informatics (JURISIN
## 2021)
[13] 大城絢子, 植田真一郎, “臨床研究を対象とする各法令の特徴抽出とそれらの関連”, 電子情報通信学会総合大会, D-5-4, 3 月, 2019.
[14] 大城絢子, 植田真一郎, "テキストマイニングによる臨床研究関連法令の特徴と関連性解釈の可能性", 電子情報通信学会,pp35-pp,2019
[15] 大城絢子, 岡崎威生, 植田真一郎, "単語一致度を用いた臨床研究関連法規の関係可視化の検討", 臨床薬理. 2023; 54(1): (in press) | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-3.pdf | # マスク言語モデルにおける重点的なマスク選択での 追加的学習を用いた法律文書による人物役割語の推測
翁長駿光 ${ }^{1}$ 藤田真伎 ${ }^{2}$ 狩野芳伸 ${ }^{1,2}$
静岡大学 情報学部 ${ }^{2}$ 静岡大学 総合科学技術研究科情報学専攻
\{tonaga, mfujita, kano\} @kanolab.net
## 概要
人物の文中での役割の把握は,自然言語処理において広く重要な課題であり, 特に法律分野の文書の処理では,その分析と利用のために必須と言える。本研究では, 日本語の事前学習済み BERT モデルに対し,あらかじめ設定した人物語を重点的にマスクしたMasked Language Modelによる追加的な学習を,法律分野の文書を用いて行った. 司法試験の問題文における人物役割語の推論に適用した結果, 提案手法による性能向上を確認できた.
## 1. はじめに
人物の文中での役割の把握は,自然言語処理において広く重要な課題であるが, 役割間の関係性や階層など背後にある複雑な知識を反映させる必要があり,難易度の高いタスクといえる。
法律分野は自然言語処理技術の利用が大きく期待されている応用分野の一つであり, そこでの人物役割把握は必須要素である. 法律分野の文書処理では, こうした人物関係および役割の把握や専門性の高い用語といった難しい処理が重要になるが,そのための自然言語処理技術の性能は未だ不十分である.
人物役割の先行研究にはたとえば物語テキストを対象とした登場人物の関係抽出 [1]などがある。日本語法律文書を対象にした研究には, 日本語法律 BERT [2]を用いた重要箇所抽出 [3] や司法試験自動解答を題材にした BERT による法律分野の含意関係認識 $[4]$ があるが,人物役割を推測するものは見当たらない.
本研究では, 法律分野の文章における人物関係および人物の役割の推測を目標とする。そのために,日本語事前学習済み BERT に対して, あらかじめ設定した人物役割語を他の語よりもマスクされやすくした処理を追加した Masked Language Mode1 (MLM) による追加学習を, 日本語の法律文書を用いて行っ
た. 我が国の司法試験自動解答を題材とする COLIEE Task4 で提供された問題を用いて, 問題文中の人物役割語を推測する人物推論タスクを実行し,提案手法による性能向上を確認した。
<問題番号 :H18-32-5, 正解ラベル:No >
<関連条文〉
第百九十二条取引行為によって,平穏に,かつ,
公然と動産の占有を始めた者は, 善意であり,か
つ,過失がないときは,即時にその動産について行
使する権利を取得する.
<問題文〉
強迫を受けてした動産売買契約を取り消した売主
は, 取消し前に買主から当該動産を善意かつ無過
失で買い受けた者に対して,所有権に基づいて,当
該動産の返還を求めることができる.
図 1 COLIEE Task4 の提供データ例
## 2. 関連研究
法律分野の自然言語処理技術の性能向上とコミュニティ構築を図るため, 国際コンテスト型ワークシヨップ COLIEE (Competition on Legal Information Extraction and Entailment)[5[6] [7][8が毎年開催されている. COLIEE にはいくつかのサブタスクがあるが,そのうち Task 3,4 は日本の司法試験民法短答式問題を題材にした自動解答タスクである. Task4 は図 1 のように, 司法試験に過去に出題された問題とその問題を解く上で手掛かりとなる関連民法条文の二つが与えられ,その関連する民法条文に対して問題文が含意関係にあるかを二値で判定するタスクである。
COLIEE 参加者の自動解答器には,BERT [9]をはじめ深層学習ベースの解答器が多数みられる.このような深層学習を用いた司法試験の自動解答について,清田ら [10]は人手の問題分類を通して深層学習モデルが司法試験を解けているかを分析している.分類の一つは, 図 2 のような問題文中における $\mathrm{A}$ や $\mathrm{B}$
といったアルファベットで表された人物語の関係性や,それぞれの人物が関連する民法条文中におけるどの役割にあてはまるのかが回答に必要なタイプの問題である.このような, 人物関係や人物がどのような役割を担うか明らかにする必要がある問題の推測は,既存の回答では不十分であることが示唆されている.
## 3. 提案手法
提案するマスク手法と従来手法との比較を容易にするため, 深層学習モデルとして BERT を用いる. 事前学習済みの日本語 BERT モデルを前提に, Masked Language Mode1 (MLM)による追加的な学習を行う.
その追加学習時に, より重点的に学習させたい語句をマスクして学習させる. 本研究で利用するトークナイザはこの事前学習済みモデルのもので統一する.
重点的に学習させたい語句は, 本研究では, 法律分野における人物役割語とし,民法条文に記載されている「人, 者, 主」で終わる漢字で構成される単語と「相手方」を合わせて 74 語を人手で列挙した (74 語の詳細については付録を参照).
## 3.1 事前学習モデルへの追加的学習
追加的な学習では, 以下の 3 つの前処理に応じたモデルを作成する. それぞれの前処理で得られるト ークン列について, [MASK]トークンを推測させる学習によりモデルを訓練する。
ランダム $15 \%$ マスクモデル $(15 \%$ ) 従来の BERT の MLM と同様に,トークン全体の $15 \%$ ランダムで選択する.ランダムに選択されたトークンのうち, $80 \%$ を[MASK]トークンに, $10 \%$ はランダムに選ばれた別のトークンに置きかえ, 残りの $10 \%$ は元のトークンのままモデルに与える.
## ランダムマスク+人物語マスクモデル $(15 \%+$ 人
物語) 入力にあらかじめ定めた人物役割語が含まれている場合,それらのトークンを[MASK]トークンに置き換える. 次に前述のランダム $15 \%$ マスクモデルと同様の処理を行うが,選ばれたトークンが人物役割語に対応するものであった場合は, [MASK]のままにし,何もしない。
人物語マスクモデル (人物語) 人物役割語のトークンのみを[MASK]トークンに置き換える. 人物役割語が含まれていないサンプルについては学習に使用しない.
上の 3 つのモデルと, 追加学習をしていない日本語事前学習済み BERT モデルの 4 つを, 次節の人物役割語推測タスクによって比較する.
## 3.2 人物役割語の推測
人物役割語の推測は $[\mathrm{MASK}]$ を言語モデルにより推測して実行するため, 前節で説明した以上の学習は行わない.
人物役割語は語によって 2 トークン以上のサブワ
一ドに分割されることがある.このため,単にトー クン単位で[MASK]に置き換えると,[MASK]トークンの連続する数が人物語を予測するヒントになる可能性がある。人物役割語の推論にあたっては, 推測対象の役割語についてマスク前のトークン数を既知として固定する場合と,トークン数を未知として任意のトークン数で推測するより実用的な設定の 2 種類を試みる。
人物役割語あたりのトークン数固定人物役割語に該当するトークンをひとつずつ[MASK]トークンに置き換え,その[MASK]トークンにあてはまるトー クンを予測させる.
人物役割語あたりのトークン数可変各人物語ごとに, 1 から 4 までの [MASK]トークンの連続数それぞれで連続する [MASK] トークンを推測する。たとえば,人物語が 1 つの場合は[MASK]トークンの数が異なる 4 パターン, 人物語が 2 つの場合は 8 パター ンの推測を行う。それぞれの推測結果について, [MASK] を推測結果で置換したうえで, MLMScoring [11]により各文章のスコアを計算し, その値が最も大きいものを最終的な予測結果とする.
いずれの場合でも,予測したトークン列が元の文章で該当する人物役割語と同じであるかどうかを,元の人物役割語の単位でカウントして評価する。
〈問題番号: R02-9-U,正解ラベル:Yes〉
〈関連条文〉
第二百条占有者がその占有を奪われたときは,占有回収の訴えにより,その物の返還及び損害の賠償を請求することができる.
〈問題文〉
A は自己の所有する工作機械を B に賃貸していたが,B は,工作機械の賃貸借契約継続中に工作機械を C に窃取された。この場合, B は, A から独立して,C に対して占有回収の訴えを提起することができる.
図 2 人物を表すアルフアベットを含む問題例
## 4. 実験
## 4. 1 追加学習用訓練データセット
訓練データとして,日本語の法律関連文書をいくつか用意し,十分なデータ量が得られるようにした。具体的には, 民法の全条文テキスト, 最高裁判所の裁判例検索システム ${ }^{i}$ より収集した日本の民事事件判例, 并護士ドットコムのデータセット [12]の 3 種類である.それぞれ以下の前処理を適用した。
民法条文 「第一篇,第一章,第一条,第一節,第一項」といった条や項の番号, および見出しは削除した。結果, 1, 381 件の条文を得た.
民事判例事件名と判決日, ページ番号, 空白および空白行は削除した. また, 文頭にある見出し番号のカタカナやアルファベット, 数字も削除した. また, 1 文をトークナイズした際に,512 トークンを超えるような文は除外した. 結果, 23,854 件の民事事件判例を得た。
弁護士ドットコム弁護士ドットコムのデータは,質問者による質問文と弁護士による質問への回答文で構成されている. このうち, 弁護士による回答の文章のみを抽出した後, その文章内に前述の人手で列挙した人物役割語のうちのいずれかが 1 つでも含まれている回答のみを残し,含まれていない回答文は除外した. また, 民法条文の処理と同様に, 1 文が 512 トークンを超えるような文は削除した.結果,38,127 件の回答を得た,
## 4. 2 人物推論用データセット
関連研究の章で紹介したCOLIEE 2022 Task4では,民法分野短答式問題の問題文とその問題を解くために必要な関連条文群のぺアが与えられた(図 1).このデータの分量は他のデータセットよりも少ないが,文章が最も整っているうえ, 関連条文とぺアになっており法律上の役割と紐づけされている。さらにその紐づけにより人間にも与えられたぺアのみで解くことができるため, テストデータに適している. まずこれらの問題文のうち, 図 2 のように問題文中に A P B といったアルファベットで表された人物が登場する問題と含まれない問題とに,アルファベットが出現するかどうかで自動分類した。次に,人
物役割語を含むデータを増やすため,アルファベッ卜を人物役割語に置換した。すなわち,「〜である
「〜」にリストの単語がマッチする場合, その問題文中にあるアルファベットを対応する人物語に置き換えた。置き換えられないアルフアベットが残った場合は除外した. 全て置き換えられた場合, テストデータの一部とする.
アルファベット人物が含まれない問題において, あらかじめ定めた人物役割語が一つでも含まれる問題をテストデータとして利用する.
テストデータについて, 関連する民法条文と問題文を $[\mathrm{SEP}]$ トークンでつなぎ, 文章をトークナイズした際に(512 - 置き換えた人物語の数 $* 4$ トークン)を超えてしまうものは最大トークン数の制約のため除外する。
最後に,問題文中に含まれる人物役割語を [MASK] トークンに置き換え, 計 458 件(置き換えた人物役割語数:1,082)のテストデータを作成した.この作成過程と例を図 3 に示す.
## 4.3 学習
日本語事前学習済み BERT モデルとして, 東北大学の bert-base-japanese-whole-word-masking ${ }^{\mathrm{ii}}$ モデルを用いた.学習時のパラメータ設定は付録に記載する.
## 5. 実験結果
表 1 に評価結果を示す. トークン数固定の場合,人物役割語を中心にマスクさせたモデルの方がより高い性能が得られた。トークン数可変(未知)の場合, トークン数固定よりも難易度の高い設定になるため全体的に性能は低いが,トークン数固定の場合と同様に, 人物語を追加でマスクするようにして学習したモデルの方が高い性能が得られた。
表 1 人物役割語推論の評価結果(正答率)
〈問題番号 :H18-27-U,正解ラベル:No〉
〈関連条文〉
弁済の費用について別段の意思表示がないときは, その費用は,債務者の負担とする。ただし,債権者が住所の移転その他の行為によって弁済の費用を増加させたときは,その増加額は,債権者の負担とする.
〈問題文>
持参債務の債権者が履行期前に遠方に転居した場合,目的物の運送費は債務者の負担となる。
1. 関連条文と問題文を $[\mathrm{SEP}]$ トークンでつなげる。
(以下,問題文のみ表記する)
2. 関連条文と問題文の組をトークナイズする
[ 持参, 債務, の, 債権, 者, が, 履行, 期, 前, に,遠方,に,転居,し,た,場合,,目的,物,の,運送,費,は, , , 債務,者,の,負担,と,なる,.]
3.「債権者」「債務者」に該当するトークンを [MASK] トークンに置き換える。
〈置き換え後の問題文〉
[ 持参,債務,の,[MASK],[MASK],が,履行,期,前,に,遠方,に,転居,し,た,場合,,目的,物,の,運送,費,は, [MASK],[MASK],の,負担,と,なる,。]
図 3 テストデータの作成過程
## 6. 考察
人物語を追加でマスクする追加学習を行ったモデ
ル $(15 \%+$ 人物語) は, 追加学習を行っていないモデル (15\%やベースライン) よりも, 関連条文をはじめとする周囲の文脈情報をもとにした人物役割語の予測がより正解できるようになった. 例を図 4 に示す.
一方で, 登場する人物役割語が複数になった場合,複数の人物間の関係性を明確にする必要があるが, このような人物役割語の予測はできていない傾向にあった. 図 5 は, 予測する際に債務者と債権者の関係性を捉える必要があるが,全てのモデルが「債権者」が正解となる部分に「債務者」を予測してしまった例を示している.
人物役割語を重点的にマスクすることで,周囲の文脈情報から人物役割語の推測は比較的にできるよらになったと考えられるが,複数の人物間における関係性の把握は依然として課題であると考えられる. また, 図 5 の予測に見られるように,本来は「第三者」が正解であるが,「者」であっても文章は自然
であり間違いとはいえない。単純な文字列比較だけでなく意味的な評価指標も検討する必要がある.
<問題番号 : H21-3-2, 正解ラベル : Yes >
<関連条文>
まだ引き渡されていない売買の目的物が果実を生じたときは, その果実は, 売主に帰属する。買主は,引渡しの日から,代金の利息を支払う義務を負う.ただし,代金の支払について期限があるときは,その期限が到来するまでは,利息を支払うことを要しない.
<問題文>
【売主】は, 目的物の引渡しを遅滞している場合でも,引渡しまで果実を収取することができる。 ※【】がマスクされていた人物役割語を表す.
<予測結果>
ベース BERT:買主
$15 \%$ のみ:買主
$15 \%+$ 人物語 : 売主
人物語のみ : 売主
図 4 正しく予測できるようになった例
〈問題番号:H28-20-1,正解ラベル:Yes〉
〈関連条文〉
債務者のために弁済をした者は,債権者に代位する.
〈問題文〉
【債務者】の意思に反することなく有効に弁済した【第三者】は,弁済によって当然に【債権者】 に代位する。
※【】がマスクされていた人物役割語を表し, 予測の 1,2, 3 は問題文の登場順に対応している.〈予測結果〉
BERT :1. 債務者,2. 者 ,3.債務者 15\%のみ :1. 債務者,2.者 ,3.債権者 $15 \%+$ 人物語 : 1 . 債務者, 2 . 者 ,3. 債務者人物語のみ : 1 . 債務者, 2 . 第三者, 3 . 債務者
## 図 5 正しく予測できていない例
## 7. おわりに
本研究では, MLM の追加学習を行った BERTによる,法律文書における人物役割語予測を行った。追加で学習させたい語を重点的にマスクすることで,人物役割語推測の性能が向上した。今後は,人物役割語だけではなく,法律分野における専門語への適応や追加学習モデルを用いた司法試験の自動解答への活用にも取り組んでいきたい。
## 謝辞
本研究では, 国立情報学研究所の IDR データセット提供サービスにより弁護士ドットコム株式会社から提供を受けた「弁護士ドットコムデータセット」を利用した。本研究は JSPS 科研費 JP22H00804,
JP21K18115, JP20K20509, JST AIP 加速課題 JPMJCR22U4, およびセコム科学技術財団特定領域研究助成の支援をうけた.
## 参考文献
1. 西原弘真, 白井清昭. 物語テキストを対象とした登場人物の関係抽出. 言語処理学会第 21 回年次大会, 2015 .
2. 宮崎桂輔, 菅原祐太, 山田寛章, 徳永健伸.日本語法律分野文書に特化した BERT の構築. 言語処理学会第 28 回年次大会, 2022.
3. 宮崎桂輔,菅原祐太,山田寛章,徳永健伸.日本語法律 BERT を用いた重要箇所抽出. 言語処理学会第 28 回年次大会, 2022 .
4. 星野玲那, 狩野芳伸. 司法試験自動解答を題材にした BERT による法律分野の含意関係認識. 言語処理学会第 26 回年次大会, 2020 .
5. Mi-Young Kim, Juliano Rabelo, Randy Goebel, Masaharu Yoshioka, Yoshinobu Kano, and Ken
Satoh. COLIEE 2022 Summary: Methods for Legal Document Retrieval and Entailment. In Proceedings of the Sixteenth International Workshop on Jurisinformatics (JURISIN 2022), 2022.
6. J. Rabelo, R. Goebel, M.-Y. Kim, Y. Kano, M.
Yoshioka, and K.Satoh, Summary of the Competition on Legal Information Extraction/Entailment (COLIEE) 2021. In Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021), 2021, pp.1-7. 7. J. Rabelo, M.-Y. Kim, R. Goebel, M. Yoshioka, Y. Kano, and K. Satoh, COLIEE 2020: Methods for Legal Document Retrieval and Entailment. In Proceedings of the Fourteenth International Workshop on Jurisinformatics (JURISIN 2020), 2020, pp. 1-15.
8. R. Goebel, Y. Kano, M.-Y. Kim, J. Rabelo, K. Satoh, and M. Yoshioka, COLIEE 2019 Overview. In
Proceedings of the Competition on Legal Information Retrieval and Entailment Workshop (COLIEE 2019) in association with the 17th International Conference on Artificial Intelligence and Law, Jun. 2019, pp. 1-9. 9. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, 2019. Association for Computational Linguistics.
10. 清田直樹, 狩野芳伸, 藤田真伎. 深層学習モデルは司法試験をどこまで解いているのか:問題分類とそれに基づく分析. 言語処理学会第 28 回年次大会, 2022 .
11. Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked Language Model Scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 26992712, Online. 2020. Association for Computational Linguistics.
12. 弁護士ドットコム株式会社. 并護士ドットコムデータセット. 国立情報学研究所情報学研究データリポジトリ. (データセット).
https://doi.org/10.32130/idr.12.1, 2020.
## A 付録
## A. 1 人手で選定した人物役割語のリスト
自然人,法人,本人,相手方,他人,当事者,第三者,表意者,譲受人,占有者,
譲渡人, 所有者, 地上権者, 地役権者, 永小作人, 管理人, 不在者, 債権者, 留置権者, 先取特権者,質権者,根抵当権者,抵当権者,債務者,質権設定者,根抵当権設定者,抵当権設定者,物上保証人,連帯保証人,保証人,連帯債務者,申込人,売主,買主,贈与者,受贈者,貸主,借主,賃貸人,賃借人,使用者, 労働者, 注文者, 請負人,委任者,受任者,受寄者,受託者,未成年者,成年者,成年後見人,成年被後見人,未成年被後見人,後見監督人,被後見人,後見人,保佐監督人,被保佐人,保佐人,補助監督人, 被補助人, 補助人, 被相続人, 相続人, 法定代理人, 復代理人, 無権代理人, 代理人,監督人,共有者,承継人,利害関係人,組合員,代位権者
## A. 2 BERT 学習時のパラメータ設定
max_position_embeddings : 512,
batch_size : 32 ,
hidden_size : 768 ,
hidden_dropout_prob : 0.1,
learning_rate : $1 \mathrm{e}-5$
max_epochs : 10 (early_stoppingによる早期終了あり) | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-4.pdf | # AdGLUE: 広告言語理解ベンチマーク
張 培楠 ${ }^{1}$ 坂井優介 ${ }^{2}$ 三田 雅人 1 大内 啓樹 2,3 渡辺 太郎 ${ }^{2}$
1 株式会社サイバーエージェント 2 奈良先端科学技術大学院大学 3 理化学研究所
\{zhang_peinan,mita_masato\}@cyberagent.co.jp
\{sakai.yusuke.sr9, hiroki.ouchi, taro\}@is.naist.jp
## 概要
近年、インターネット広告における自然言語処理技術の応用が盛んに行われている。広告分野では、学術的によく使われるデータセットでは出現しない表現も多く、文法的に誤った非文が許容されることもある。このような広告特有の言語現象に対処する技術が必要とされるが、共通のタスクやデータセットがないため、分野全体の研究発展が妨げられている。そこで本研究では、広告特有の言語現象や性質に対する言語理解を促進するため、5つのタスクから構成される広告分野特化の言語理解ベンチマーク AdGLUE を提案する。また、一般的な言語タスクやデータセットとの違いを分析するため、主要な既存手法でベースライン実験も行った。
## 1 はじめに
近年、検索連動型広告(図 1)を含むインターネッ卜広告市場の著しい成長 [1] に伴い、テキスト分類モデルを使ったクリック率予測 [2] やニューラル生成モデルを使った広告文生成 $[3,4,5]$ など、自然言語処理技術の多くが広告分野で応用され始めている [6]。広告分野では、短文でユーザに商品の特徵と魅力を伝え、購買行動などに繋げるよう訴求する必要がある。そのため、使用される言語表現は一般的な文章とは異なることが多い。例えば、機能語や部分的な内容語の省略や強調のために記号の使用、場合によっては文法的な誤りを含んだ非文が許容されることもある。例として、「マンションを売却したい方は、今すぐ○○で無料で査定しませんか?」 という汎用的な表現は、広告特有の表現に言い換えると「マンション売却/今すぐ無料査定」になる。 このような広告特有の表現は人間の理解を妨げるどころか、注意を引くことに繋がることが広告心理学分野で報告されている [7]。
以上のような一般的な言語資源では存在しない
図 1 検索連動型広告に関連する要素と遷移の例
特徴を有しながらも、機械翻訳や自動要約などの分野と比較して、広告における自然言語処理の研究や分析は少ない。その一因として考えられるのは、共通するタスクやデータセット、そしてそれらで構成されるべンチマークの欠如である。共通ベンチマー クがあることによって、手法の比較が容易になり、実験の手順が明確化するため、研究の活発化が期待できる。英語の一般的な言語理解を目指したべンチマークとして GLUE [8] や SuperGLUE [9] などが挙げられ、JGLUE [10] を始めとする多くの言語でも構築が進んでいる $[11,12,13,14]$ 。また、特定の分野に特化したベンチマークも存在し、PLUE [15] はプライバシーポリシーのための言語理解ベンチマークであり、BLURB [16] は生物医学分野におけるべンチマークである。しかし広告分野には特化したベンチマークが現状存在せず、一貫したデータセットなども公開されていない。そのため、広告分野での研究の多くは独自のデータと指標で評価されており、横断的な比較が難しい状況になっている。また、広告データは配信プラットフォームを保有している一部の企業にしか所持していないこともあり、それ以外の企業や学術機関からの利用が困難である。
以上のことから、我々は広告分野に特化した言語理解ベンチマーク AdGLUE (AdvertisinG Language Understanding Evaluation)を提案する。このベンチマークでは、広告運用の手順を踏まえて、広告において重要視される容認性や一貫性、魅力度などの理
表 2 広告容認性、広告一貫性、訴求表現認識タスクのデータ例。LPテキストは広告一貫性タスクでのみ使用される。 なお acceptable / not_acceptable と consistent/not_consistent はそれぞれ容認・非容認と一貫・非一貫を指している。
解に着眼して作られている。我々は一般的な言語理解と異なる広告特有の観点で 5 つのタスクを規定し、対応するデータセットを構築した。データは実際にインターネット上で掲載された広告であり、 それらに対して人手によるアノテーションを行った。また、一般的な言語タスクとの違いを分析するため、提案ベンチマークに対して主要な既存手法でベースラインで実験・分析を行った。1)
## 2 AdGLUE
AdGLUE は、表 1 のとおり広告容認性、広告一貫性、訴求表現認識、広告類似性、そして広告効果予測の 5 つのタスクから構成されている。本研究で使用される広告データはすべて実際にインターネット上で掲載された検索連動型広告である。なお、広告効果予測以外の全データセット構築において、人手によるアノテーションが行われている。アノテー ション作業者はいずれも日本語母語話者であり、ガイドラインの説明を受けた上で最大 2 回の訓練アノテーションを経験している。より詳細なデータセッ卜情報は付録に示す。
## 2.1 広告容認性
広告容認性タスクは、表 2 に示すように、ある文を広告としてみた際に容認できる表現か、容認・非容認の 2 值ラベルを推定するタスクである。なお、推定結果は正解ラベルとの Accuracy で評価する。インターネット広告において、ほとんどの媒体は表示領域を確保するための文字長制限が設けられている2)ため、広告文は限られたスペースや少ない
1)作成されたデータセットは一般公開し、オンラインからアクセスできる評価プラットフォームを提供する予定である。
2)例えば Google レスポンシブ広告ではタイトルに全角で最大 15 文字の制限を設けている。文字数で読者に印象付ける必要がある。そのため、広告文を制作する際には、人間が読み取れる範囲であえて文法を崩したり圧縮したりすることがある。一方で、過度な圧縮は読者の誤解を招いたり、意味理解を妨げる可能性もある。これは CoLA [17] など文法的に正しいかどうかを判断する一般的な言語容認性の考え方とは異なる。このように、読者の正確な意味理解の可否を広告容認性として定め、広告運用の現場においても人手で確認するステップが存在する。そこで我々は広告自動生成モデルによって生成された広告文に対して、広告運用と同じ基準で広告容認性のアノテーションを行った。アノテーション結果の一部を表 2 に示す。例えば 1 行目の「マンション売却/今すぐ無料査定」は述べている意図を問題なく読み取れるため「容認される」が、2 行目の「エンジニアの転職/土日の求人多数」は「土日の求人多数」の意味が不明なため「容認されない」結果となっている。
## 2.2 広告一貫性
広告一貫性タスクは、表 2 に示すように、広告文と広告文に紐づくランディングページ(LP)テキストが一貫しているか、一貫・非一貫の 2 值ラベルを推定するタスクである。なお推定結果は正解ラべルとの Accuracy で評価する。検索連動型広告には URLが紐づいており、図 19ようにクリックすることでその URL 先の Web ページである LP に遷移する。LPには広告文で言及した商品の詳細情報が掲載されているが、その情報と広告文で述べられている内容に齯䶣が生じる場合は顧客の信用を失うなど大きな損害が発生する。そのため、LPにある商品内容と広告文内での表現の一貫性は重要である。我々は LP テキストとして Webページの HTMLにあ
表 3 広告類似性タスクのデータ例
入力文 1 すっぽん黒酢にセラミド䩀沢配合
例 1 入力文 2 すっぽん黒酢に贅沢セラミドまで類似度 5.00
入力文 1 ご予算に合わせて贈り物を検索
例 2 入カ文 2 お得な割引商品は最大 $40 \% \mathrm{OFF}$類似度 2.33
る meta タグの description 要素を使用し、紐付いている広告文と矛盾が存在するかどうかを人手でアノテーションした。アノテーション結果の一部を表 2 に示す。例えば 1 行目の広告文は「マンション売却/今すぐ無料査定」だが、対応する LP テキストは「一户建ての査定は○○におまかせ!」で、「マンション」ではなく「一戸建て」について言及しているため「一貫していない」と判断できる。
## 2.3 訴求表現認識
訴求表現認識タスクは、表 2 に示すように、広告文がどのような訴求軸を含んでいるのか、該当する訴求ラベルをすべて推定するタスクである。なお推定結果は正解ラベルとの $\mathrm{F}$ 值で評価する。訴求とは、広告読者に対して、対象商品のメリットや魅力を訴えかけるような表現のことである。商品によって関心を持つ人が異なるため、適切に訴求できるかが広告効果に大きく影響する。このタスクでは、村上ら [18] の訴求表現データセットを使用しており、 21 種類の訴求ラベルが 2,731 件の広告文に付与されていある。3) データ例として、表 2 の 1 行目の広告文「マンション売却/今すぐ無料査定」に対しては、「無料査定」から訴求ラベルの「無料」「利便性」が、 2 行目の広告文「エンジニアの転職/土日の求人多数」に対しては、「求人多数」から訴求ラベルの「品揃え」が付与されている。本研究では村上らの研究の doc-base タスクにならって、span ではなく文全体を入力として考え、該当する全ての訴求ラベルを推定しその $\mathrm{F}$ 値を評価する。
## 2.4 広告類似性
広告類似性タスクは、表 3 に示すような広告文ぺアがどれくらい広告的に類似しているのか、 $[1,5]$ の範囲を持つ実数値を類似度として推定するタスクである。類似度は 1 に近づくほど低く 5 に近づくほど高く、推定結果は正解類似度とのピアソン相関係数およびスピアマン相関係数 [19] で評価する。
3)先行研究では大分類と小分類からなる構造だが、本タスクでは小分類のみを使用する。表 4 広告効果予測タスクのデータ例
$\begin{array}{ll}\text { 業種 } & \text { 金融 } \\ \text { キーワードローン }\end{array}$
タイトル 1 【No.1】カードローン比較サイト
タイトル 2 とにかく急ぎで借りたい方必見
タイトル 3 即日融資安心カードローン
説明文 1 周囲に内緒で借りるカードローン。24 時間スマホ完結カードローンランキング。免許証のみで申込 OK
説明文 2 初めての方も安心・コンビニATM で借入 OK なの品質スコア 82.3 で便利・22 時迄の申込で最短即日融資が可能。
STS-B [20] などの一般的な文間類似度は意味の近さを評価するが、広告類似度では言及対象の商品の同一性(商品のカテゴリ、商品内容)と訴求の同一性 (訴求軸、訴求内容)に関する評価を行う。例えば表 3 の例 1 の文ぺアはどちらも同じ商品について言及しており、かつ訴求も同じであることから類似度は最も高い 5.00 である。一方で、例 2 では商品については同じカテゴリについて言及している可能性を持つが、訴求が異なるため類似度は 2.33 と低いことがわかる。より詳細なアノテーション方法については付録に示す。
## 2.5 広告効果予測
広告効果予測タスクは、表 4 に示すように、キー ワードや広告文などの情報から広告そのものの品質スコアを推定し、その結果を正解スコアとのピアソン相関係数およびスピアマン相関係数で評価する夕スクである。入力となる情報は大きく分けて 3 種類あり、「業種」「広告文」そして「キーワード」である。「業種」は株式会社サイバーエージェント内で定めた広告の業界種別であり、合計で 4 カテゴリ存在する。「広告文」は広告そのものを異なる表現や文長で述べたテキストであり、「タイトル」と「説明文」の 2 種類存在する。4)「キーワード」は当該広告に関連する検索キーワードのことであり、同一広告文に対して複数存在することもある。表 4 の例では 「カードローン」がキーワードとして設定されているが、同じ広告文で「カードローン比較」といったキーワードの例も他に存在する。「品質スコア」は広告配信実績値をもとに算出した 1 から 100 の範囲を取る実数値で、高いほど高品質である。また、公開にあたって一部の情報を秘匿化加工している。秘匿化処理の詳細については付録で述べる。
4)「タイトル」は全角で最大 15 文字で「説明文」は全角で最大 30 文字である。なお、「タイトル 3 」と「説明文 $2 」 は$空であることも許容されている。
表 5 学習済み言語モデルによる AdGLUE の評価結果
## 3 AdGLUE を用いたモデル評価
本節では、自然言語処理における代表的な分類・回帰モデルを用いて、構築したベンチマークの評価実験を行う。実験結果を通して、提案ベンチマークの有用性や今後の課題について分析する。
## 3.1 実験設定
ベースラインモデルは日本語版 BERT [21]、 RoBERTa [22]、多言語モデルとしてXLMRoBERTa [23] を用いて、以下のようにタスクの種類に応じて fine-tuningを行った。
- 広告容認性、広告一貫性特殊トークン [SEP] で広告文とLPを接続した文字列を入力として [CLS]トークンに対する分類問題を解く。
- 訴求表現認識村上ら [18] の Doc-Based Model と同じく広告文でマルチラベリング問題を解く。
- 広告類似性、広告効果予測広告類似性タスクでは文ぺアを、広告効果予測タスクでは業種・ キーワード・広告文を [SEP] で接続し、[CLS] トークンに対する回帰問題を解く。なお、広告効果予測タスクの秘匿化に使用された [MASK_*] トークンは語彙に追加して学習を行った。
検証用データが配布されていないデータセットは学習用データの 2 割を検証用データとした。八イパーパラメータ等の実験の詳細は付録に示す。
## 3.2 結果と分析
表 5 に各言語モデルによる AdGLUE の実験結果を示す。モデルごとの性能評価を以下にまとめる。
・広告一貫性タスクでは東北大 BERT $_{\text {BASE }}$ が最高值であったが、他との差は軽微であった。
- 全体的に RoBERTa、XLM-RoBERTa モデルが高い值である。要因として両モデルは大規模 Web クロールデータ CommonCrawl [24]を用いて学習している。CommonCrawl には砕けた表現の文章や広告文が多く含まれているため、広告文の特徴をうまく捉えることができ、結果的に Wikipedia のみで学習している BERT モデルよりも高い値となったと考えられる。
- 東北大 BERT $_{\text {BASE }}$ (char) は全体的に低く、広告文に対して文字単位の処理が不適切とわかる。
- 全体的に BASE モデルよりパラメータの大きい LARGE モデルのほうが值が高いことから、パラメータ数の増加は有効であることがわかる。
・広告類似性タスクは AdGLUE 内では高いものの、日本語の文間類似度タスクである JSTS [10] と比べると低い。単純な比較はできないが、広告ドメインでの表現と一般的に使用される表現が異なることを示唆しており、より詳細な分析を必要である。
- 広告効果予測タスクでは Wikipedia のみで学習された東北大 BERT $_{\text {LARGE }}$ が最も高い值であり、 CommonCrawl で学習された他モデルを上回っている。この原因まだ特定できておらず、これからの課題としたい。
また、今回実験に用いた学習済み言語モデル群は、学習データや単語分割などの条件が統一されていない。そのため、条件を統一した実験を行い、広告理解に最適な単語分割の粒度を明らかにすることが望ましいが、この点は今後の課題とする。
## 4 おわりに
本稿では広告言語理解ベンチマーク AdGLUE を提案し、タスク設計とデータセット構築について説明した。また、各タスクの性質や一般的な言語理解との違いを分析するため、構築ベンチマークで現在主要なアプローチでベースラインで実験した。実験結果から現状で調查不足な点や未網羅な課題点が発見され、それらを今後の改善につなげていきたい。
## 謝辞
本研究は株式会社サイバーエージェントと奈良先端科学技術大学院大学の共同研究により実施した。
## 参考文献
[1] 株式会社 CARTACOMMUNICATIONS, 株式会社 D2C, 株式会社電通, 株式会社電通デジタル. 2021 年日本の広告費インターネット広告媒体費詳細分析, 2022. https://www. dentsu.co.jp/news/release/2022/0309-010503.html.
[2] Yanwu Yang and Zhai Panyu. Click-Through Rate Prediction in Online Advertising: A Literature Review. Information Processing \& Management, Vol. 59, No. 2, p. 102853, 2022.
[3] Konstantin Golobokov, Junyi Chai, Victor Ye Dong, Mandy Gu, Bingyu Chi, Jie Cao, Yulan Yan, and Yi Liu. DeepGen: Diverse Search Ad Generation and Real-Time Customization. In EMNLP 2022: Industry Track, 2022.
[4] Haonan Li, Yameng Huang, Yeyun Gong, Jian Jiao, Ruofei Zhang, Timothy Baldwin, and Nan Duan. CULG: Commercial Universal Language Generation. In NAACL-HLT 2022: Industry Track, 2022.
[5] Hidetaka Kamigaito, Peinan Zhang, Hiroya Takamura, and Manabu Okumura. An empirical study of generating texts for search engine advertising. In NAACL-HLT 2021: Industry Papers, pp. 255-262, 2021
[6] 村上聡一朗, 星野翔, 張培楠. 広告文自動生成に関する最近の研究動向. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 1P5GS601-1P5GS601, 2022.
[7] Taifeng Wang, Jiang Bian, Shusen Liu, Yuyu Zhang, and Tie-Yan Liu. Psychological advertising: Exploring user psychology for click prediction in sponsored search. In KDD 2013, p. 563-571, 2013.
[8] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In ICLR 2019, 2019.
[9] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. Superglue: A stickier benchmark for general-purpose language understanding systems. Advances in neural information processing systems, Vol. 32, , 2019.
[10] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In LREC 2022, 2022
[11] Sungjoon Park, Jihyung Moon, Sungdong Kim, Won Ik Cho, Ji Yoon Han, Jangwon Park, Chisung Song, Junseong Kim, Youngsook Song, Taehwan Oh, Joohong Lee, Juhyun Oh, Sungwon Lyu, Younghoon Jeong, Inkwon Lee, Sangwoo Seo, Dongjun Lee, Hyunwoo Kim, Myeonghwa Lee, Seongbo Jang, Seungwon Do, Sunkyoung Kim, Kyungtae Lim, Jongwon Lee, Kyumin Park, Jamin Shin, Seonghyun Kim, Lucy Park, Alice Oh, Jung-Woo Ha, and Kyunghyun Cho. KLUE: Korean Language Understanding Evaluation. In NeurIPS 2021: Systems Datasets and Benchmarks Track, 2021.
[12] Liang Xu, Hai Hu, Xuanwei Zhang, Lu Li, Chenjie Cao, Yudong Li, Yechen Xu, Kai Sun, Dian Yu, Cong Yu, Yin Tian, Qianqian Dong, Weitang Liu, Bo Shi, Yiming Cui, Junyi Li, Jun Zeng, Rongzhao Wang, Weijian Xie, Yanting Li, Yina Patterson, Zuoyu Tian, Yiwen Zhang, He Zhou, Shaoweihua Liu, Zhe Zhao, Qipeng Zhao, Cong Yue, Xinrui Zhang, Zhengliang Yang, Kyle Richardson, and Zhenzhong Lan. CLUE: A Chinese language understanding evaluation benchmark. In COLING 2020, pp. 4762-4772, 2020.
[13] Hang Le, Loïc Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, Benjamin Lecouteux, Alexandre Allauzen, Benoit
Crabbé, Laurent Besacier, and Didier Schwab. FlauBERT: Unsupervised language model pre-training for French. In LREC 2020, pp. 2479-2490, 2020.
[14] Yaobo Liang, Nan Duan, Yeyun Gong, Ning Wu, Fenfei Guo, Weizhen Qi, Ming Gong, Linjun Shou, Daxin Jiang, Guihong Cao, Xiaodong Fan, Ruofei Zhang, Rahul Agrawal, Edward Cui, Sining Wei, Taroon Bharti, Ying Qiao, Jiun-Hung Chen, Winnie Wu, Shuguang Liu, Fan Yang, Daniel Campos, Rangan Majumder, and Ming Zhou. XGLUE: A new benchmark datasetfor cross-lingual pre-training, understanding and generation. In EMNLP 2020, pp. 6008-6018, 2020.
[15] Jianfeng Chi, Wasi Uddin Ahmad, Yuan Tian, and Kai-Wei Chang. PLUE: Language Understanding Evaluation Benchmark for Privacy Policies in English. arXiv preprint arXiv:2212.10011, 2022.
[16] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare (HEALTH), Vol. 3, No. 1, pp. 1-23, 2021.
[17] Alex Warstadt and Samuel R. Bowman. Grammatical analysis of pretrained sentence encoders with acceptability judgments. CoRR, Vol. abs/1901.03438, , 2019.
[18] Soichiro Murakami, Peinan Zhang, Sho Hoshino, Hidetaka Kamigaito, Hiroya Takamura, and Manabu Okumura. Aspect-based analysis of advertising appeals for search engine advertising. In NAACL-HLT 2022: Industry Track, pp. 69-78. ACL 2022, 2022.
[19] David Freedman, Robert Pisani, and Roger Purves. Statistics (international student edition). Pisani, R. Purves, 4th edn. WW Norton \& Company, New York, 2007
[20] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo Lopez-Gazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In SemEval2017, pp. 1-14, 2017.
[21] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT 2019, pp. 4171-4186, 2019.
[22] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
[23] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In ACL 2020, pp. 8440-8451, 2020.
[24] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In LREC 2020, pp. 4003-4012, 2020.
[25] Joseph L. Fleiss. Measuring nominal scale agreement among many raters. Psychological Bulletin, Vol. 76, No. 5, pp. 378-382, 1971.
[26] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In ACL 2020: System Demonstrations, pp. $38-45,2020$.
図 2 広告効果予測タスクの品質スコアの分布密度
表 7 広告容認性と広告一貫性のラベル分布
& 15,099 & 850 & 15,949 & 8,708 & 620 & 9,328 \\
表 8 広告類似性のラベル分布。 $x$ は各値を表す。
表 9 訴求表現認識のラベル付与数
表 10 実験に使用したハイパーパラメータ。複数值があるものは最適値を学習データのみで探索し選択している。
## A 付録
アノテーションガイドラインアノテーションは図 3 のように商材と訴求の 2 軸での一致度合いで判断される。村上ら [18] の訴求タイプの定義に基づいたアノテーションを依頼した。仕様書には各訴求タイプごとに説明文と例文を提示している。商材や訴求表現が一部存在しない広告文は、それ以降の要素が広告文に含まれていれば該当表現が存在したとして扱い、含まれていなければ存在しなかったとして扱う。広告文内の固有名詞などについて不明の場合は適宜 Web 検索を許可した。また、データセットは 3 人の非専門家のアノテータによって作成されており、 2 回の訓練フェーズを経て本番データでアノテートし、アノテー タ間の一致度合いは fleiss' kappa [25] で $\kappa=0.51$ であった。
図 3 アノテーションの方法。左の要素から順に一致しているごとにスコアが 1 段階ずつ上がっていく。
広告効果予測のマスキング処理直接的なクライアント名・ サービス名のマスキングを行うことを条件に広告主からデータセットとして公開することを許可された。例文「[MASK_3] の仕事紹介サイト」ではクライアント名が [MASK_3] に置き換えられている。マスキング処理は 2 人のアノテータが手分けして行った。マスキング対象となったクライアント・サービス名は 24 個であり、それぞれ [MASK_0] から [MASK_23] に置換した。
各データセットのラベル分布表 7 に広告容認性、広告一貫性のラベル分布、表 8 に広告類似性のラベル分布、表 9 に訴求表現認識のラベル付与数、図 2 に広告効果予測の品質スコアの分布密度を示す。
実験設定の詳細各学習済み言語モデルの詳細を表 6、実験に用いたハイパーパラメータを表 10 に示す。表 10 に記載されていないパラメータは各言語モデルまたは Transformers の標準設定を使用している。実験は Hugging Face 社の Transformers [26] を使用し $た^{5)}$ 。
5)実装は Transformers の AutoModelForSequenceClassification に修正を加えている。Transformers のバージョンは 4.25.1。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D5-5.pdf | # 要件に対する効果の生成を経由した法律分野の自然言語推論
チェジョンミン 1,2 本多右京 $1,2,3$ 渡辺太郎 1 乾健太郎 2,4
1 奈良先端科学技術大学院大学 2 理化学研究所
3 株式会社サイバーエージェント 4 東北大学
choi.jungmin.ce6@is.naist.jp, honda_ukyo@cyberagent.co.jp
taro@is.naist.jp, kentaro.inui@tohoku.ac.jp,
## 概要
法律分野における自然言語推論(NLI)は,前提 (法律)と仮説(法的問題に関する記述)の間の含意関係を予測するタスクである。一般的な NLIに対する現在の state-of-the-art である,事前学習済みの言語モデルを用いた手法は,法律分野においてはそれほど有効でない。これは、前提と仮説の抽象度の違い,ならびに法律文の特殊性によるものと考えられる. 本研究では,法律文が,原則として要件と効果によって構成されるという特性に着目し,NLI のタスクをより容易なサブタスクに分解することによってこの問題に対処し,既存手法を上回る性能を得た.
## 1 はじめに
自然言語推論 (NLI) とは,前提文と仮説文のペアが与えられたとき,それらの関係を,前提が仮説を包含する場合は含意, 仮説が前提に反する場合は矛盾,どちらの関係も成立しない場合は中立 (neutral) に分類するものであり, 自然言語処理の中心的な課題の一つであるといえる。法律分野における,このタスクの最も自然な形態は,「法律問題に関するある言明が法律に照らして正しいかどうかを判定する」というものであるが,これは法曹資格を審査する司法試験の一部を構成するものであり,法律家の仕事を自動化するシステムの開発のためには不可欠といえる.法律分野に特有の NLI の難しさは,アノテーションのコストが高いためにデータが不足しがちで,モデルに法的概念の意味や具体例を学習させにくいというところにある.
最近の研究では, Transformerベースの事前学習済み言語モデルによって,前提と仮説のベクトル表現を求め,これを線形変換によって分類するものが主流になっている $[1,2]$.
われわれは,法律分野の文章の特性を利用した,根本的に異なるアプローチを提案する。まず,法律文は要件と効果で構成される,という点に注目する. 法律に関する仮説も,要件に対応する箇所(以下,単に要件部という)と効果に対応する箇所(以下,単に効果部という)で構成される. 人間が法律文を現実の状況に適用する際には,1)事実に適合する要件を法律文から選び,2) その効果を特定し,事実にあてはめて具体的な効果部を導出する,という過程を辿る。そこでわれわれは,モデルの学習においても,このように多段階の手順を踏むことで学習が容易になるという仮説を立てた。すなわち,タスクを,1) 仮説の要件部に対応する法律要件を特定, 2) 法律効果を仮説の設定にあてはめて,仮説が前提に含意されるような効果部を生成,3) 生成された効果部と仮説の効果部を比較,というサブタスクに分割して解く.
また,要件と効果の区別を考慮したデータ拡張も行う.
提案手法が有効であると考えられる根拠は,以下のようにまとめられる.11)生成された効果部と仮説の効果部に焦点を絞ることで比較が容易になる,2)条文の論理構造に基づいた擬似データ作成によって, 複数のルールから, 状況に適合するルールを選ぶという問題にモデルを習熟させることができる, 3) 事前学習済みの言語モデルが保有している世界知識(腕時計は動産にあたる,など抽象的な概念と具体物の関係)を使うことができる。
さらに,生成された結果部は,モデルの予測の説明ととらえることもできる。なぜなら,モデルは仮説の要件部を受けて,法律に照らして適切と考えられる効果部を出力するよう学習しているからである。
本研究では, 日本の司法試験問題を元に作成され
[前提] 占有者がその占有を奪われたときは、占有回収の訴えにより、その物の返還及び損害の賠償を請求することができる。占有回収の訴えは、占有を侵奪した者の特定承継人に対して提起することができない。ただし、その承継人が侵奪の事実を知っていたときは、この限りでない。 [仮説] B が海外出張のため 1 週間大学を留守にしていた間に,C が甲を盗み出して現に所持している場合, Bは,Cに対し,占有回収の訴えにより甲の返還を求めることができる。 [Label] 1 (含意)
図 1 法律 NLI の例. COLIEE[3] タスク 4 より抜粋. 要件は太字+青字,効果は下線+赤字で示している。
た日本語の法律 NLI データセットで実験を行った. その結果, 最先端の手法やベースラインと比較して,大幅な性能の向上を確認した。
## 2 先行研究
法律分野の NLIにおいては,前提は法律、たとえば条文の部分集合であり,仮説はその法律に関連する状況を記述し, その状況の法的帰結について述べるものである.仮説が前提によって含意されているかどうか,すなわち,仮説が法律に照らして正しいかどうかを予測することが具体的なタスクとなる。
一般的な NLI に関して大きな成功を収めた, BERT[4] など事前学習モデルによるベクトル表現を分類するという手法は,そのままでは,法律分野のデータに関してそれほどの性能を示さないことが報告されている [3]. その原因は, 法律文書に使われる抽象的な語彙と,一般的な語彙の乘離により,モデルが事前学習した知識を適用することが難しいこと, 法律分野のデータが不足していることにあると考えられる. 近年の法律分野の NLI 研究においては,ベクトル表現の分類という一般的な枠組みを踏襲しつつ,上述の問題を解決するための補助的な工夫を行った手法が主流になっている. 現時点での state-of-the-art である [1] は,ドメインデータを補うため,条文をそれ自身とぺアとして擬似正例,条文とその否定形をぺアとして擬似負例を作成する。 [2] は,シソーラスを用い,各単語に対応する意味的力テゴリ情報を付与し, 抽象的な概念と具体物の関連をモデルに明示的に与えることで,前提と仮説の抽象度の差を緩和している. これらの手法は,いずれも一定の有効性を示しているものの, 正解率は一般的な NLI データには遠く及ばず,改善の余地が大きいものとみられる.
図 2 提案手法の概要. (1) 前提 (一つまたは複数の条文) に含まれる要件から, 仮説の要件部と合致するものを同定する。(2) その要件に対応する効果を,仮説の設定に合わせて書き換え,出力する。(2) 生成された効果と,仮説の効果部を比較し,含意例か矛盾例に分類する.
図 3 手法の手順. (1) 仮説を, 要件部と効果部に分ける. (2) encoder-decoder モデルを, 前提と仮説の要件部から導かれる順当な効果部を出力するよう訓練する。 (3) encoder モデルと分類器を, 生成された効果と仮説の効果部を入力したとき,含意例であれば 1 を,矛盾例であれば 0 を出力するよう訓練する.
## 3 提案手法
われわれは,効果部の生成と分類という二段階から成る手法を提案する。 提案手法の概要を図 2 に示す.まず,仮説の要件部を受けて,前提から導かれる順当な効果部を生成する。すなわち,もし含意例であれば仮説の効果部となるべき系列を出力する. そして,生成された効果部が,実際の仮説の効果部と一致するか否かを分類する。具体的には,以下のようにモデルを学習させることを目指す.1)前提に含まれる複数の要件から,仮説の要件部に合致するものを見つける,2)前提の中から対応する効果を見つけ、仮説の状況に当てはめて具体的な効果を生成する、3)実際の仮説の効果と比較する. 手法の詳細な手順については、図 3 を参照されたい.
## 3.1 効果部の生成
生成モデル $P(c \mid p, h)$ は, 前提 $p$ と仮説の要件部 $h$ を与えれ,そこから導かれる効果部 $\hat{c}$ を生成する.まず、各仮説を要件部と効果部に分割する. 厳
密な分割のルールを同定することはできないが,検証データでは、ほとんどの場合、最後のカンマの後のどこかで分割されていることがわかる. そこで、最後のカンマ以降の全てのトークンで分割し, それぞれを例として扱う,というヒューリスティックを用いる. 仮説中にカンマが存在しない少数の場合においては, 最後から 8 番目のトークンから分割を開始する。
## 3.2 分類
生成の学習が終わった後, 全ての例に関してモデルに効果部を生成させる. そして, 生成された効果部と仮説の効果部を連結して一つの系列とし, べクトル表現に変換したものを,線形変換による分類器で含意と矛盾に分類する.より形式的にいえば, $\hat{c}$ と $c$ という 2 つの入力が与えられたとき, 分類モデル $P(y \mid c, c)$ によってラベル $y$ を予測する. これが可能であると考えられる根拠は次のようにまとめられる. モデルは, 生成の学習の際, 含意例のみを用いているため, どのような例についても,「含意例として妥当な効果部」を生成するはずである. したがって,実際に含意例であれば生成された効果部と仮説の効果部が類似し, 矛盾例であれば相違していると期待される. 短い系列である効果部同士を比較するだけで分類できるため, 問題をより簡単な形に落とし込めているといえる。
## 3.3 データ拡張
提案手法は,事前学習済み言語モデルの知識を利用することで,データ不足の影響を緩和することを想定しているが, 法律分野で使用される語彙は通常の語彙とは大きく異なるため,ドメインデータをなるべく多く学習しなければならないことに変わりはない. そこで,条文から擬似的な事例を作成する。 [1] は,各条文を個別の規範に分割し、各規範を前提,それ自身を仮説にして含意例を作成し,他方で各規範を前提,その否定を仮説として矛盾を作成する.この擬似データの目的は, モデルに文とその否定の違いを理解させることにあるが,われわれはさらに,モデルに複数の規範から仮説に対応する一つの規範を選んで効果部を生成させるように擬似デー タを設計する. ここでは,2つの要件効果ペアが接続詞によって連結された条文に注目する.1の例で説明する.前提中の条文の一つは,「占有回収の訴えは、 $[. .$.$] 提起することができない。」と,「その承$継人が [...] この限りでない。」という二つの規範から成る.この条文を前提とし,規範の内の一つ,たとえば,「占有回収の訴えは、 $[. .$.$] 提起することがで$ きない。」を仮説として含意例ができる. 他方で,この条文と,規範の効果「占有を侵奪した者の特定承継人に対して提起することができない。」と「占有を侵奪した者の特定承継人に対して提起することができる。(「この限りでない」を書き下した1) $)$ 」を入れ替え,「占有回収の訴えは、占有を侵奪した者の特定承継人に対して提起することができる。」とした偽の規範は矛盾例を成す.もう一方の規範を使っても同様のことがいえる.2)
## 4 実験
COLIEE ワークショップ [3] において提供された法律 NLI データセットを使用する. ${ }^{3)}$ 4) . 図 1 のように,前提は一つまたは複数の民法の条文であり,仮説は前提に照らして真偽が定まる一つの言明である. ラベルは含意または矛盾の二值であり,中立は存在しないことに注意されたい. 元の訓練データとテストデータは,それぞれ 806 例と 81 例から成る.本実験では,元の訓練データを 81 例の検証データと 725 例の訓練データにランダムに分割した. 回答欄の指示などのノイズを除去すると,前提および仮説を連結した平均の文長は約 120 トークンである. 680 例の擬似データは,テキスト生成と分類学習の両方に使用する。
COLIEE にしたがい,正解率を主たる評価指標として採用する.また,分析のために精度,再現率, F1 スコアも併記する。
生成モデルとして,一般的な日本語コーパスで事前学習した T5 モデル゙)を使用する。
以下の手法を試す。まず,これまでの state-of-theart である [1]を再現し,これを“Aoki”と表記する。
1)この書き下しは,[1] の提供する辞書を使用して行った.
2)われわれの手法では,このように,「ただし」を含む条文しかデータ拡張に使用しないため,作成される擬似例の数は 680 となり,[1]の 3,351 例を大きく下回る.しかし,前提中に複数の規範が含まれ,仮説に直接関係するのはそのうちの一つ,という性質は法律 NLI特有であり,このような例を集中的に学習することが特に重要であると考えられることから,本研究ではこれを採用した.
3)データセットは 2021 年度コンペティションのタスク 4 に使用されたものである
4) COLIEE データセットでは,人物は A,B のように記号で表されている,日本語の T5 トークナイザはこの記号を語彙として持っていないため,人物名をよくある日本の姓に置き換えた。
5) https://github.com/sonoisa/t5-japanese
表 1 テストデータにおける手法別のスコア. スコアは 10 回の試行の平均. カッコ内は標準偏差. Aoki は [1] の報告, Aoki† は本論文著者らによる再現
また,[1] と同じアーキテクチャで,擬似データのみ提案手法に置き換えた実験を行い,これを“Aoki w our aug"とする. “T5 baseline 1” は, [5] の手法にしたがい,前提と仮説を単に連結して T5 に入力し,含意であれば「はい」,矛盾であれば「いいえ」 を出力するように訓練するという手法である。“T5 baseline 2" は, 生成の学習をスキップし, 前提と仮説を直接 T5 の encoder に入力することを除けば,提案手法と同じである. “T5 baseline 1,2 ” に関しても, われわれのデータ拡張手法と [1] のデータ拡張手法を試し,それぞれ,“w Aoki’s aug”, “w our aug”を付け加えて示す. 最後に, 提案手法とほぼ同じだが,分類段階のエンコーダーとして, T5 ではなくBERT を用いる手法である “TG w BERT” の実験を行う.
提案手法は “TG (Ours)” と表記し,データ拡張を全く行わないものを “TG w $\backslash$ o aug”, [1] の擬似デー タを使ったものを “TG w Aoki's aug”と表記する。 ハイパーパラメータについての詳細は B に示す.
## 4.1 結果
表 1 は 10 回の試行の平均値と標準偏差を示す.提案手法は, 他の手法と比較して, 最も高い精度と正解率を達成した。“T" と “T5 baseline 2”では提案手法のデータ拡張の方が効果が高く, “Aoki”では [1] のデータ拡張の方が高かった. “T5 baseline 1” ではデータ拡張による有意な差は見られなかった. 提案手法のデータ拡張は, 要件と効果という法律文書の論理構造をモデルが学習するよう設計されてい
るため,要件に対する効果の生成を行う提案手法のアーキテクチャと組み合わさったとき最も効果を発揮するのは期待通りの結果である。他の手法では,前提に含まれる規範のうちどれが仮説に関連しているかを明示的には学習しないため,提案手法のデー 夕拡張が奏功しなかったと考えられる。
いずれのデータ拡張を採用するにせよ,提案手法は “T5 baseline 1” と“2”を上回る性能を見せ,提案手法の成功が $\mathrm{T} 5$ に負うものではないことを示した. “T5 w BERT” は “Aoki” より高い性能を示している.前者が後者と違う点は, 前提・仮説の代わりに生成された効果部と仮説の効果部を BERT に入力することのみであり, このことから, 生成によって効果部の比較に問題を収斂させることが有効であることが確認できる.
## 4.2 分析
表 2 に示した例のように, 提案手法の生成は期待に沿った挙動を見せている. 38 件の含意例のうち,細部まで仮説と意味的に等しい効果部を生成することに成功した例は 27 件であった. 失敗した 11 件においては,1)前提と仮説の間の概念をの関連性を認識するために外部知識を必要とする,例えば,所有物を贈り物として受け取った人は「特別承継人」である等,2) 仮説中に 3 人以上の人物が登場する,という特徴が見られた. 43 件の矛盾例のうち, モデルが仮説の効果部と明らかに相違する効果部を生成することに成功した例は 35 件あった. 失敗した 8 件においては,1) 法律用語としても日常用語としても使われるがその意味が全く異なる語彙が含まれる, 2) 要件部が,逆接または順接の接続詞で終わっており,接続詞に正しく続くような効果部を生成するよう誘導されてしまう, という特徵が見られた。
## 5 おわりに
本研究では,仮説を要件部と効果部に分割し,前提に基づき,要件部に対する効果部を生成することを経由して,含意関係を予測する手法を開発した。 これは予測の性能を向上させるとともに,予測のための説明を提供するものであり,NLIにとどまらず,質問応答タスクへの発展の可能性を示している.
## 謝辞
貴重なデータを提供していただいた COLIEE 運営者の皆様に感謝いたします. 実験に関しては Tohoku NLP グループの皆様に有益な助言をいただきました. 感謝いたします.
## 参考文献
[1] Yasuhiro Aoki, Masaharu Yoshioka, and Youta Suzuki. Data-augmentation method for bert-based legal textual entailment systems in coliee statute law task. The Review of Socionetwork Strategies, Vol. 16, pp. 175-196, 2022.
[2] Mi-Young Kim and Juliano Rabelo. Bm 25 and transformerbased legal information extraction and entailment. In ICAIL/COLIEE, 2021.
[3] Juliano Rabelo, Randy Goebel, Yoshinobu Kano, Mi-Young Kim, Masaharu Yoshioka, and Ken Satoh. Summary of the competition on legal information extraction/entailment (coliee) 2021. In ICAIL/COLIEE, 2021.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[6] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015.
## A 生成の結果
& Fの承諾が必要である。 & 矛盾 \\
## B ハイパーパラメータ
TG, TGw $\backslash$ o aug, TG w Aoki’s aug に関しては,最適化手法として Adam[6],損失関数として cross-entropy loss を用いる. 学習率は,生成では 1e-4,分類では 1e-5 と設定する。 バッチサイズは生成では 16, 分類では 32 である.
T5 baseline 1 に関しては,最適化手法として Adam,損失関数として cross-entropy lossを用いる。学習率は,1e-4. バッチサイズは 64.
T5 baseline 2,T5+BERT に関しては,最適化手法としては Adam,損失関数として cross-entropy loss を用いる. 学習率は,生成では 1e-4,分類では 1e-5 と設定する。 バッチサイズは,生成では 16,分類では 32 である.
[1] の再現では, [1] で報告されている通りのハイパーパラメータを用いた. 最適化手法は Adam, 損失関数は cross-entropy loss, 学習率は 1e-5, バッチサイズは 12 である.
## C アンサンブルによる予測
[1] はアンサンブルでの予測の結果を報告しているため, 本研究でも同様のアンサンブルを行う. 10 回の試行を行い, その全ての組み合わせに関して,ロジットの算術平均を取ることでアンサンブルを作る。検証データで予測の正解率が上位 3 位のアンサンブルを ensemble $1 , 2 , 3$ と名づけ,テストデータでの正解率を示す. アンサンブルに関しても TG が最も高い性能を示している.
表 3
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-1.pdf | # Test-time Augmentation for Factual Probing
Go Kamoda $^{1}$ Benjamin Heinzerling ${ }^{2,1}$ Keisuke Sakaguchi $^{1,2} \quad$ Kentaro Inui $^{1,2}$
${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN
go.kamoda@dc.tohoku.ac.jp benjamin.heinzerling@riken.jp
\{keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp
## Abstract
Factual probing is a method for checking if a language model "knows" certain world knowledge facts. A problem in factual probing is that small changes to prompts can result in large output changes. Previous work aimed to alleviate this problem by optimizing prompts via text mining or finetuning. However, such approaches are relationspecific and do not generalize to unseen relations types. Here, we propose to use test-time augmentation (TTA) as a relation-agnostic method for reducing sensitivity to prompt variations by automatically augmenting and ensembling prompts at test time. Experiments show that, while TTA reduces overconfidence in incorrect generations, accuracy increases only in few cases. Error analysis reveals the difficulty of producing high-quality prompt variations as the main challenge for TTA.
## 1 Introduction
Pre-trained language models (LMs) such as BERT [1] and T5 [2] implicitly encode world knowledge from the training corpus in their parameters. Petroni et al. [3] demonstrated that world knowledge can be retrieved from a masked LM via cloze-style prompts, e.g., "The capital city of Alaska is [MASK]."
However, since small changes to the prompt can lead to drastic output changes [4] it is difficult to distinguish whether the model did not learn a fact during pre-training or if it did, but does not output the correct answer with the given prompt. Subsequent work aimed at finding better prompts for factual probing, typically by employing supervised learning to find an optimal input token sequence of tokens for a given relation $[5,6,7]$. Since these approaches require supervision for each relation, they do not generalize to unseen relation types, and hence are not practically appealing.
Figure 1 With (right) and without (left) TTA for factual probing. The orange components are added in our method. The Augmenter automatically augments the original prompt. The aggregator takes the generations from all prompts as input and outputs one generation with the highest score.
In this paper, we apply the idea of test time augmentation (TTA) to the factual probing task. TTA is a method used in the field of computer vision, which augments input images through simple operations (flipping the image, changing the contrast, etc.) at test time. The augmentations are helpful in covering overconfident and incorrect outputs. Krizhevsky et al. [8] used test-time augmentation for ImageNet classification, and subsequent work in the field of computer vision $[9,10,11]$ utilizes test-time augmentation to get better performance in accuracy or robustness. The motivations are common with factual probing tasks; we also want language models to be robust to wordings and be less overconfident. To apply TTA to the task, an augmenter and an aggregator are added to the stream of the model prediction (Figure 1). First, the input prompt is automatically augmented by the augmenter. The augmented prompts are then individually fed to a model. The aggregator will aggregate the model's output to determine the final result. We 1) evaluated the result's exact match accuracy and investigated the impact of the number of augmented prompts on the accuracy and 2) inspected the change in the
confidence of the generations.
Our results showed that the greater the number of augmented prompts, the better the performance when implementing TTA. TTA was also effective at reducing the number of overconfident and incorrect outputs. In terms of accuracy, TTA was only effective in a few cases. We analyzed the cause of this to be the poor quality of augmented prompts declines the accuracy of the model without TTA. ${ }^{1)}$
## 2 Setup
## 2.1 Dataset
We constructed a dataset of 12,500 relational facts from wikidata. Each fact is composed of a subject, a relation, and an object. We filtered out facts with multiple objects to collect unique facts. To reduce the bias of the distribution of objects, we adopted truncated sampling to select 500 instances per predicate. We provided a human-made prompt template for each relation (e.g., "What is the capital city of \{subject $\}$ ?”).
## 2.2 Augmenter
We used three types of prompt augmentations. The first type is synonym replacement, which replaces words in the input prompt with a synonym. For instance, the word "buried" was replaced with "inhumed" by this type of augmentation ${ }^{2)}$. Candidate synonyms are provided from GloVe [12] embedding or WordNet [13]. The second augmentation method we used is back-translation. We used French, Russian, German, Spanish, and Japanese as the target language. The third augmentation method is stopwords-filtering.
From a single original input, 1 prompt is augmented by stopwords-filtering, and 4 prompts are augmented by each of the other methods, providing a maximum total of 29 augmented prompts.
## 2.3 Model
We ran experiments on the following pre-trained language models: Google's T5 for Closed Book Question Answering (small, large, 3b, 11b)[14], Google's FLAN models (small, xl)[15], and T0_3B model from Big Science[16].
Models decode with beam-search where the beam size
1) https://github.com/cl-tohoku/TTA4FactualProbing
2) Prompt \#7 in table 5 in appendix
Figure 2 The relation between the number of prompts and the average relative effect of TTA. A relative effect of 1.0 means no change in accuracy between with and without TTA.
is fixed to 10 and return generated sequences with scores. Scores are in the order of log-likelihood (negative), and the exponentiated scores are in the order of probability.
## 2.4 Aggregator
We aggregate generations by taking the sum of generation probability.
$
\begin{gathered}
s\left(y^{\prime} \mid x, r\right)=\sum_{i=1}^{K} P_{\mathrm{LM}}\left(y^{\prime} \mid p_{i}\right) \\
y=\operatorname{argmax}(s(\cdot \mid x, r))_{y^{\prime}}
\end{gathered}
$
The model output with generation probabilities $\left(P_{\mathrm{LM}}\right)$ for all augmented prompts $\left(p_{i}\right)$ will be fed into the aggregator to choose one final prediction. The aggregator recalculates the generation score $(s)$ by taking the sum of the generation probabilities of identical generations (Eq.1). The final prediction of an object ( $y$ ) for the fact with subject $x$ and relation $r$ is the one with the highest score (Eq.2).
## 2.5 Evaluation Metric
We measure the effect of TTA by the relative difference of exact match accuracy. To prevent division by zero, a constant of 1 is added to both the numerator and the denominator (Eq.3). The metric judges correct only if the final generation outputted is identical to the gold label provided in the dataset. Evaluation on flan models is an exception, and we adopt case-insensitive match accuracy.
$
\text { relative effect }=\frac{(\# \text { corrects w } / \text { TTA })+1}{(\# \text { corrects w/o TTA })+1}
$
## 3 Results
By augmenting prompts, we got 9 types of prompts (1 original, 1 stopwords-filtering, 2 synonym replacement, 5
Table 1
} \\
& & Incorrect \\
\cline { 2 - 4 } TTA & Incorrect & 2.5 & 89 \\
Table 2 Confusion matrix of accuracy. (model: t5-11b)
back-translation). We evaluated all $511\left(=2^{9}-1\right)$ combinations of the 9 augmentation types for each model. Figure 2 shows relationships between the number of prompts and the average relative effect of TTA. As the number of prompts increases, the accuracy converges to a particular value, suggesting that the more augmentation we provide, the greater the accuracy gets. On the 15 -small model, TTA raised the model accuracy as expected. There was a small improvement on the T0_3b and t5-3b models. In other models, TTA could not increase the accuracy even when the original prompt is augmented into 30 prompts.
Table 1 and Table 2 shows the confusion matrix of the t5small model, which had the greatest increase in accuracy when applied TTA, and the t5-11b model which has the largest number of parameters out of all models we investigated. The tables compare the number of corrects/incorrect with and without TTA. Data for "with TTA" is the accuracy after aggregating all 30 prompts.
## 3.1 Positive Effects
Table 3 shows one example of TTA increasing the accuracy on the t5-11b model. The model generated an incorrect label from the original prompt but was able to cover it up by generating the gold label from some of the augmented prompts. This is an ideal behavior when applying TTA to the factual probing task.
Confidence One of the aims to apply TTA was to reduce the number of overconfident and incorrect generations. In this section, we investigate the effect of TTA on the confidence of the model.
In our method, the aggregator re-ranks generations by calculating the sum of generation probability for all identical generations for each fact instance. The confidence of
Figure 3 Precision-recall curve when changed confidence threshold (model: t5-11b). Low recall means a high confidence threshold.
the aggregator can be expressed by the ratio of the score to the final output and the sum of the calculated scores (Eq.4).
$
\text { confidence }=\frac{\text { score }_{\text {final output }}}{\sum_{\text {candidates }} \text { score }}
$
After we calculated the confidence, we put the rankings of the confidence into bins of size 50 without considering whether the generation was correct or incorrect. We express $\operatorname{bin}_{i}(1<i<250, i \in \mathbb{N})$ as the bin with the $i^{t h}$ highest confidence, \#corrects $i$ as the number of correct generation in $\operatorname{bin}_{i}$, and \#incorrects ${ }_{i}$ as the number of incorrect generation in $\operatorname{bin}_{i}$. When we treat $i$ as a confidence threshold, precision and recall can be defined by Eq. 5 and Eq.6.
$
\begin{array}{r}
\text { Precision }_{i}=\frac{\sum_{j=1}^{i} \#^{i} \text { corrects }_{j}}{\sum_{j=1}^{i} \text { \#corrects }_{j}+\sum_{j=1}^{i} \text { \#incorrects }_{j}} \\
\operatorname{Recall}_{i}=\frac{\sum_{j=1}^{i} \# \text { corrects }_{j}}{\sum_{j=1}^{250} \# \text { incorrects }_{j}}
\end{array}
$
Figure 3 shows the calculated precision-recall curve for $i$ in the range $1-250$. Without TTA, the model precision was relatively low when the confidence threshold was high (= when the recall was small). This means that the model is outputting incorrect generations with high confidence. After applying TTA, the precision of the left side of the figure improved, indicating that TTA effectively reduced overconfident incorrect generations. In addition, the precision rose monotonically as the confidence threshold increased. This suggests that confidence can work as a convenient parameter to control model precision.
## 3.2 Negative Effects
When the original prompt elicited the gold label but the aggregation result outputs the incorrect label, the ac-
Table 3 Example of TTA improving performance. The gold label for this fact instance is "South America", and the aggregator returned " South America".
Table 4 Example of TTA degrading performance. The gold label for this fact instance is " Heidelberg ", but the aggregator returned
"Erlanden, Germany". The results of other prompts are in the appendix.
curacy declines. Table 4 shows an example of instances that caused the accuracy to decline. Only 9 out of 30 prompts are on the table, and others are in the appendix. The 30 prompts generated 18 unique generations as the generation with the highest score. 7 prompts generated "Erlanden, Germany", and 4 prompts generated "Heidelberg", the gold label.
When we look at the prompts in table 4 , not all augmented prompts keep the semantics of the original prompt. For example, prompt \#1 in the table replaced the word "Where" with "Accordingly", which is not a natural synonym. Prompt \#7 uses the word "inhume", which is a synonym of "bury", but the use is grammatically incorrect. Prompt \#15 is asking about a person whose name is "Hans-George Gadmer" and not "Hans-Georg Gadamer". The augmented prompt by back-translation with Japanese as the target language is hardly a paraphrase of the original prompt. Although the purpose of implementing TTA is to cover up incorrect generations by some prompts, expecting the behavior using numerous augmented prompts with low quality is a harsh setting. The augmented prompts are expected to maintain the semantic components of the original prompts while varying the syntactic structure or vocabulary. It is a crucial issue to produce paraphrases with high quality.
## 4 Conclusion
We applied the idea of test-time augmentation to the factual probing task on pre-trained language models to increase the model's accuracy and robustness. We used synonym replacement, back-translation, and stopwordsfiltering to create augmented prompts automatically. Out of the 7 models we investigated, TTA had a significant effect only on the t5-small model. On other models, TTA had a negative effect in terms of accuracy. The unsound effect of TTA is anticipated to result from the poor quality of automatically augmented prompts. We want to examine deeper into the quality of augmented prompts. Searching for a better method to produce high-quality paraphrases would also be indispensable.
In terms of confidence of the model, our results showed that TTA effectively reduced the number of incorrect outputs. In addition, results indicated that TTA enables confidence to be the parameter that could conveniently control the model precision.
## Acknowledgements
This work was supported by JST CREST Grant Number JPMJCR20D2, Japan, and JSPS KAKENHI Grant Numbers $21 \mathrm{~K} 17814,21 \mathrm{~K} 21343$, and $22 \mathrm{H} 00524$. We would like to thank the members of the Tohoku NLP for their frequent participation in discussions during the course of this research.
## References
[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018.
[2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[3] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander Miller. Language models as knowledge bases? In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2463-2473, Hong Kong, China, November 2019. Association for Computational Linguistics.
[4] Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, and Le Sun. Can prompt probe pretrained language models? understanding the invisible risks from a causal view. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5796-5808, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[5] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4222-4235, Online, November 2020. Association for Computational Linguistics.
[6] Zhengbao Jiang, Frank F. Xu, Jun Araki, and Graham Neubig. How Can We Know What Language Models Know? Transactions of the Association for Computational Linguistics, Vol. 8, pp. 423-438, 072020.
[7] Zexuan Zhong, Dan Friedman, and Danqi Chen. Factual probing is [mask]: Learning vs. learning to recall. In North American Association for Computational Linguistics (NAACL), 2021.
[8] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. In Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1, NIPS'12, pp. "1097-1105”, Red Hook, NY,
USA, 2012. Curran Associates Inc.
[9] Guotai Wang, Wenqi Li, Michael Aertsen, Jan Deprest, Sebastien Ourselin, and Tom Vercauteren. Test-time augmentation with uncertainty estimation for deep learningbased medical image segmentation, 2018.
[10] Fábio Perez, Cristina Vasconcelos, Sandra Avila, and Eduardo Valle. Data augmentation for skin lesion analysis. 082018.
[11] Kazuhisa Matsunaga, Akira Hamada, Akane Minagawa, and Hiroshi Koga. Image classification of melanoma, nevus and seborrheic keratosis by deep neural network ensemble. 032017.
[12] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, Doha, Qatar, October 2014. Association for Computational Linguistics.
[13] Chakaveh Saedi, António Branco, João António Rodrigues, and João Silva. WordNet embeddings. In Proceedings of the Third Workshop on Representation Learning for NLP, pp. 122-131, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[14] Adam Roberts, Colin Raffel, and Noam Shazeer. How much knowledge can you pack into the parameters of a language model? In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5418-5426, Online, November 2020. Association for Computational Linguistics.
[15] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned language models are zeroshot learners. In International Conference on Learning Representations, 2022.
[16] Victor Sanh, Albert Webson, Colin Raffel, Stephen Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen, Abheesht Sharma, Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Teven Le Scao, Stella Biderman, Leo Gao, Thomas Wolf, and Alexander M Rush. Multitask prompted training enables zero-shot task generalization. In International Conference on Learning Representations, 2022.
Table 5 Example of TTA declining the accuracy. The gold label for this fact instance is " Heidelberg ", but the aggregator returned
"Erlangen, Germany ". The results of other prompts are in the appendix.
## Appendix
## Augmentation Methods
Synonym Replacement We use a python library "TextAttack". For synonym replacement using wordnet, we use WordNetAugmenter provided in the library. For synonym replacement using GloVe embedding, we use the transformation method WordSwapEmbedding to create an augmenter.
Back-translation We first translate the original prompt to 8 candidates in the target language. Each candidate is then translated back into 8 candidates in the source language, getting 64 back-translated prompt candidates in total. We adopt the round-trip probability as the score of the backtranslated prompt candidates and select 4 candidates using the aggregation method mentioned in section 2.4. For translations, we used Marian MT models ${ }^{3}$ ). The Marian MT models occupy roughly the same memory size as the t5-small model.
Stopwords-filtering This method drops stopwords and diacritics from the original prompt. We use a python library "Texthero" for the processing.
## Aggregator
Counting the number of appearances in the generations is one method of aggregation. We did not use count-based aggregation because the possibility of having multiple generations with the same counts is high. The phenomenon is predicted to occur more when we make the model output more sequences for each prompt. In addition, this method cannot take confidence into account as all generations by beam-search are equally weighted.
## Result
Table 5 shows the result of augmented prompts that we did not display on table 4.
3) https://github.com/Helsinki-NLP/Opus-MT | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-2.pdf | # 共想法による話し言葉・書き言葉における修辞機能の特徵 ーテーマとの関係に着目して一
田中 弥生 ${ }^{1}$ 小磯 花絵 1 大武 美保子 ${ }^{2}$
1 国立国語研究所 2 理化学研究所
\{yayoi,koiso\}@ninjal.ac.jp mihoko.otake@ riken.jp
## 概要
高齢者の認知的健康につながる会話支援手法である「共想法」による談話を対象とした分析から,談話のテーマによって用いられやすい修辞機能の種類に差が見られたことを受け,本研究では,同テーマの小作文においても同種の偏りが見られるかを検討した. 分析の結果,テーマに深く関わる修辞機能については談話と小作文に共通した偏りが見られたのに対し,語る/書く状況の違いに起因すると見られる修辞機能の使用の違いも観察された。このことは結果として共想法にもとづく言語使用により多様な修辞機能の使用につながる可能性を示唆する.
## 1 はじめに
本発表は,「共想法」における話し言葉と書き言葉での修辞機能の使用の様相をテーマごとに確認し,これまで話し言葉を対象として行ってきた検討を書き言葉にも広げて異同を確認するものである。共想法は,高齢者の認知的健康につながる会話を確実に発生させることができるよう工夫を加えた会話支援手法 [1],[2] で, 1 対 1 や少人数のグループで行う. 設定されたテーマに沿って,準備した写真などを持ち寄り,参加者全員のもち時間を均等に決めて,話題提供する時間 (独話)(以下「話題提供」) と,質疑応答する時間 (会話)(以下「質疑応答」)に分けるという 2 つのルールに沿って行われる. このように「話す」だけでなく「聞く」「質問する」「答える」をバランスよく行うという環境において,言語機能を多角的に活用する効果があると考えられている。また,複数のテーマで共想法を重ねる中で,特定の修辞機能に偏らないバランスのとれた発話がなされることも重要であると考えられる。
修辞機能の確認には,修辞機能分析の分類法 [3] を用いる。修辞という語は技巧的な意味合いで用い
られるが,本研究では修辞機能を「話し手書き手が発信する際に,言及する対象である事態や事物,人物等を捉え表現する様態を分類し概念化したもの」 と定義する。修辞機能分析では,修辞機能とともに,脱文脈度が特定される.文脈や脱文脈という用語は研究分野によって使われる意味が異なるが,本研究では脱文脈度を,「発話がコミュニケーションの場「いま・ここ・わたし」にどの程度依存しているか」の程度を表す概念とする。
これまで,共想法の中核ともいえる「話題提供」 と「質疑応答」の談話を修辞機能と脱文脈化の観点から分析してきた [4][5][6]. このうち田中ほか [6] では,「話題提供」と「質疑応答」の分析から,テー マによって修辞機能の使用に特徴があり,設定するテーマを調整することで特定の修辞機能に偏らず多様な修辞機能の使用につながる可能性のあることが分かった。しかし共想法では,帰宅後にそのテーマについて 200 字程度の要旨(以下「小作文」)にまとめるという課題を実施する場合がある。
そこで本発表では,同じテーマの書き言葉である 「小作文」でも話し言葉と同様の修辞機能が用いられるか否かを確認する。共想法は,単なる雑談とは異なる点で認知的健康につながる活動とされている. 多様な修辞機能の使用が認知的健康によりつながるとすれば,グループで実施する「話題提供」等の談話後に書く「小作文」の修辞機能の使用が「話題提供」などと同じか否かを確認することは,共想法における小作文活動の役割を確認するとともに, テーマ設定の検討への知見となると考えられる。
## 2 分析対象と分析方法
## 2.1 分析対象
本発表では,共想法の 1 グループ 4 名のメンバー による「好きなもの」「近所の名所」「新しく始める
こと」の 3 テーマについての「小作文」と独話の 「話題提供」を分析の対象とする。
## 2.2 分析方法
修辞機能分析の分類法によって,1. 分析単位となるメッセージ (概ね節) に分割してその種類から分析対象を特定し, 2. 発話機能, 時間要素, 空間要素を認定し,その組み合わせから,3. 修辞機能の特定と脱文脈度の確認を行う。
## 2.3 分析対象の特定
分析単位の「メッセージ」は,概放に相当し,「主節」(単文と主節),「並列」(主節以外で節の順番を変更することが可能な並列節,従属度の低い従属節),「従属」(従属度の高い従属節),「定型句類」(相桘や定型句,述部がなく復元ができないものや挨拶など) に分類する.基本的に「主節」と「並列」をこの後の分類対象とする.
## 2.4 発話機能・時間要素・空間要素の認定
「主節」及び「並列」と認定されたメッセージについて, 発話機能 (提言・命題) ・時間要素 (述部の時制: 現在 - 過去 - 未来意志的 -未来非意志的 - 仮定 .習慣恒久) ・空間要素 (述部に対する主体や主題: 参加 - 状況内 - 状況外・定義)を認定する. 表 1 に示したように, これらの組み合わせから, 修辞機能と脱文脈化指数が特定される.時間要素は「いま」からの時間的距離を,空間要素は「ここ・わたし」からの空間的距離を示す.いまここわたしに近い修辞機能【行動】の脱文脈化指数が [01] で最も低く, 空間的にも時間的にも遠い【一般化】 [14] が最も高い.
表 1 発話機能・時間要素・空間要素からの修辞機能と脱文脈化指数の特定
\\
2 名の作業者によってアノテーションを行い,判断が分かれたものは筆者の 1 人が決定した.
## 2.5 予想される特徴
「話題提供」は話し言葉で「小作文」は書き言葉であるが,聞き手,読み手を想定したものである点は共通しており,基本的にはテーマに特徴的な修辞機能が共通して用いられることが予想される。その一方で,話し言葉と書き言葉というモードの違いにより,「話題提供」と「小作文」とでは異なる修辞機能の使用が見られる可能性も考えられる.
## 3 分析結果
表 2 に,「話題提供」と「小作文」のテーマごとの修辞機能の出現頻度を示す.
表 2 各テーマの修辞機能と脱文脈化指数の出現頻度
テーマと修辞機能との関係を調べるために,対応分析を行った ${ }^{1)}$. 分析には R の corresp 関数を用いた.「話題提供」の結果を図 1 に「小作文」の結果を図 2 に示す。
図 1 から「話題提供」の特徴として以下のことがわかる.
・3つのテーマの間に【説明】[13]が位置しており,いずれのテーマも共起している.
・テーマ「好きなもの」では【自己記述】[07]および【観測】 [08] と共起している.
・テーマ「近所の名所」では【状況外回想】[10] と共起している.
・テーマ「新しく始めること」では【状況内回想】[03] と【計画】[04] と共起している.
図 2 から「小作文」の特徴として以下のことがわ
1)出現頻度がほとんど出現しない修辞機能は除外した(「話題提供」では 10 以下,「小作文」では 5 以下).
図 1 「話題提供」の修辞機能の対応分析結果 (図ではテーマを略して<名所>のように表示) かる.
・テーマ「好きなもの」では【状況内回想】[03] と【自己記述】[07] と共起している.
・テーマ「近所の名所」では【説明】 [13] と【状況外回想】[10] が共起している.
・テーマ「新しく始めること」では【観測】[08] と共起し,【計画】[04]とも関わりが見られる.
## 4 考察
本節では,テーマによる修辞機能の使用の特徴と, 話し言葉書き言葉というモードによる違いの有無を検討する. 3 節でわかった各テーマの話し言葉・書き言葉に特徴的な修辞機能を表 3 にまとめた.
表 3 から,どのテーマにおいても,話し言葉である「話題提供」と書き言葉である「小作文」に共通する修辞機能が見られることが分かる. このことは,テーマに特徴的な修辞機能がモードによらず見られることを意味している。その一方で,話し言葉のみ,あるいは書き言葉のみに見られる機能も存在していることが分かる. このことは, 共想法の中核
図 2 「小作文」の修辞機能の対応分析結果 (図ではテーマを略して<名所>のように表示)
ともいえる「話題提供」等の話し言葉とは異なる修辞機能が「小作文」で用いられ,結果として多様な修辞機能の使用につながる可能性を示唆する.
以下では,「話題提供」と「小作文」における修辞機能使用の異同について見ていく.
## 4.1 モード共通の修辞機能
いずれのテーマでも,モードに関わらず共通してみられた修辞機能は,そのテーマとの親和性の高いものであった. 例えばテーマ「好きなもの」では,自分の好きなものを伝えるために自然に使われるであろう【自己記述】[07]がモードに共通してみられた。
1)(話題提供)あの,常に持ち歩いてる感じですね.
〔発話機能:命題 \& 時間要素:習慣恒久(常に持ち歩いてる感じですね) \&空間要素 : 参加 ( $\phi=$ 私は) ] $\rightarrow$ 【自己記述】[07]
2)(小作文)どこに行くにも自家用車を利用している.
〔発話機能: 命題 \& 時間要素: 習慣恒久 (利用している) \&空間要素 : 参加 $(\phi=$ 私は $)] \rightarrow$ 【自己記述】[07]
「近所の名所」では,【状況外回想】 [10]と【説明】 [13] が共通してみられた. 名所という個人的ではないものを表現し,説明する修辞機能である。
3) (話題提供) 近所の方が皆さん, 清正公さんっ
ていってまして,
〔発話機能:命題 \& 時間要素 : 習慣恒久(いってまし
て) \& 空間要素 : 状況外 (近所の方が)】 $\rightarrow$ 【説明】
[13]
4) (小作文)文京区役所のそばに小石川源覚寺と言うお寺があります.
〔発話機能: 命題 \& 時間要素: 習慣恒久(あります) \&空間要素 : 状況外 (お寺が)】 $\rightarrow$ 【説明】[13]
5)(話題提供)お化け屋敷みたいのがありましたけど,
〔発話機能:命題 \& 時間要素 : 過去 (ありました) \&空間要素: 状況外 (お化け屋敷みたいのが)】 $\rightarrow$ 【状況外回想】[10]
6) (小作文) 3 歳ごろまで水戸藩邸で暮らしていた
〔発話機能: 命題 \& 時間要素: 過去 (暮らしていた) \&空間要素: 状況外 $(\phi=$ 徳川慶善公は) $] \rightarrow$【状況外回想】[10]
「新しく始めること」では,決意や予定を表現する修辞機能として【計画】[04] がモードに関わらず共通してみられた。
7) (話題提供) 行けるとこは行ってみたいなと思って,思ってます。
〔発話機能: 命題 \& 時間要素: 未来意志的 (行ってみたいな) \&空間要素 : 参加 $(\phi=$ 私は) $\rightarrow$ 【計画】 [04]
8) (小作文) 最近始めたボーリングを体力の続く限り続けようと思いました.
〔発話機能 : 命題 $\&$ 時間要素 : 未来意志的 (続けよう) \&空間要素 : 参加 $(\phi=$ 私は) $\rightarrow$ 【計画】[04] このように,モードに関わらずテーマによって使用される修辞機能に偏りがあることがわかった.共想法によりできるだけ多様な修辞機能の使用を促すためには,修辞機能との親和性を想定してテーマを選ぶことも重要であろう.
## 4.2 「小作文」に特徵的な修辞機能
「小作文」に特徴的であったのは,テーマ「好きなもの」における【状況内回想】 [03] と「新しく始めること」における【観測】[08] である.「新しく始めること」の【観測】 [08] は出現頻度は高くないため,「好きなもの」の【状況内回想】[03]について確認していく.以下がその例である。
9) (小作文) 同級生の従兄弟と一緒に作ったのがオーディオの始まりだった.〔発話機能:命題 \& 時間要素:過去(始まりだった) \&空間要素 : 状況内 (作ったのが) 〕 $\rightarrow$ 【状況内回想】[03]
10) (小作文)父親の形見として約 20 年間金時計を使っていましたが,
〔発話機能 : 命題 \& 時間要素 : 過去 (使っていました) \& 空間要素 : 参加 $(\phi=$ 私は) 〕 $\rightarrow$ 【状況内回想】[03]
自分の好きなものについて述べる際に,そのものとの出会いや,過去の思い出などを語るようである.ここで例にあげた「小作文」の筆者の「話題提供」での修辞機能を確認すると,次のように【観測】[08]を使用していることが分かる.
11) (話題提供)この写真はですね,今,毎日使ってる,えー,ラジオなんですけども,。
〔発話機能:命題 \& 時間要素:習慣恒久(ラジオなんですけども) \&空間要素 : 状況内 (この写真は) ]
$\rightarrow$ 【観測】[08]
12)(話題提供)まずこちらが腕,腕時計なんですけど,
〔発話機能:命題 \& 時間要素 : 習慣恒久(腕時計なんです) \&空間要素 : 状況内 (こちらが) 〕 $\rightarrow$ 【観測】 [08]
この事例から,「好きなもの」というテーマにおいては,「話題提供」では目の前で示している写真にうつっているものについて語ることが特徴的で,「小作文」はその目の前の写真という文脈から離れた時空を語ることが特徴的であると言えるだろう。.このことは,「話題提供」が話し言葉で,「小作文」が書き言葉であるというモードの違いに関わることではあるが,グループで写真を見ながら行われる「話題提供」という場の性質と,活動後に帰宅して一人で書くという場の性質によるものとも考えられる。
## 5 おわりに
共想法における「話題提供」と「小作文」では, モードによらずテーマに共通して使用される修辞機能がある一方,異なるものもあることがわかった. このことは,共想法において話し言葉のみならず書き言葉の活動も行う事によって多様な修辞機能の使用につながる可能性を示唆している. 本発表では 1 グループ 4 名の 3 テーマによる分析であった. 今後他のグループや他のテーマでの分析を行い,修辞機能の観点からの検討を加えていく予定である.
## 謝辞
本研究は JSPS 科研費 JP19K00588, JP18KT0035, JP20H05022, JP20H05574,JP22H00544,JP22H04872 JST 研究費 JPMJCR20G1, JPMJPF2101, JPMJMS2237 の助成を受けたものです. 共想法に参加頂いた方に感謝申し上げます。また,国立国語研究所のプロジェクト「多世代会話コーパスに基づく話し言葉の総合的研究」によるものです.
## 参考文献
[1] M. Otake-Matsuura, S. Tokunaga, K. Watanabe, M. S. Abe, T. Sekiguchi, H Sugimoto, T Kishimoto, and T Kudo. Cognitive Intervention Through Photo-Integrated Conversation Moderated by Robots (PICMOR) Program: A Randomized Controlled Trial. Frontiers in Robotics and AI, Vol. 8, , 2021. Publisher: Frontiers.
[2] 大武美保子. 介護に役立つ共想法: 認知症の予防と回復のための新しいコミュニケーション. 中央法規出版, 2012.
[3] 田中弥生. 修辞機能と脱文脈化の観点からの日本語談話分析. 博士論文, 東京大学大学院総合文化研究科, 2022.
[4] 田中弥生 - 小磯花絵 - 大武美保子. 共想法談話の脱文脈化観点からの検討. 言語処理学会第 27 回年次大会発表論文集, pp. 569-573, 2021.
[5] 田中弥生・小磯花絵 ・ 大武美保子. 脱文脈化の観点から見た共想法に基づく高齢者談話の分析. 国立国語研究所論集, Vol. 22, pp. 137-155, 2022.
[6] 田中弥生・小磯花絵・大武美保子. 共想法談話のテー マと修辞機能の関連についての分析. 言語処理学会第 28 回年次大会発表論文集, pp. 1439-1443, 2022. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-3.pdf | # A Statistical Analysis of English in Contemporary J-pop: Time Series of Lyrics and Identity, 2012-2021
David Calica Mariko Takahashi ${ }^{1}$
${ }^{1}$ Faculty of International Studies, Setsunan University
ddcalica@gmail.com mariko.takahashi@ilc.setsunan.ac.jp
}
\begin{abstract}
This paper analyzes the amount and variety of English within contemporary Japanese popular music (J-pop) over time and across a variety of artist identity factors. First, this study identified the quantity and variety of English tokens in the annual top 50 best-selling J-pop singles from 2012-2022. Over 70\% of songs analyzed contained English lyrics, but songs on average had only 15\% of total tokens in English. The average yearly amount of English increased by 6 percentage points from 2012 to 2022. Artist gender, K-pop affiliation, and group/solo status were all statistically significant with respect to amount of English in the songs.
\end{abstract
## 1 Introduction and Background
Mixing English in the lyrics of songs in the local language is a phenomenon that has been widely observed in many countries (Moody, 2020). This use of English has been considered as an indication of bilingual creativity, and various functions have been identified. For example, Chan (2009) pointed out that mixing English in Cantonese popular songs achieved functions such as highlighting part of the lyrics and producing rhyming. Luk (2013) added that English in the lyrics was also used for language play through phonological and semantic crossover between English and Cantonese. Indeed, researchers have claimed that code ambiguation, or the construction of messages in two languages at the same time, is a prime example of creative use of English in popular songs of Asia including Korea (Lee, 2022) and Japan (Moody \& Matsumoto, 2003; Moody, 2006). Another function of using English in popular songs has been to construct and project the intended identities of the singers (Benson, 2013; Kachru, 2006; Jin \& Ryoo,
2014; Stanlaw, 2021).
Previous studies on this issue have primarily taken a qualitative approach to analysis. As such, Takahashi and Calica (2015) integrated a quantitative aspect and conducted an analysis of $100 \mathrm{CD}$ singles that sold the most in Japan in 2013. The study selected gender, which had been one of the topics discussed in relation to Japanese popular music (e.g., Cogan \& Cogan, 2006; Toth, 2008), as a potential factor contributing to the use of English. The analysis showed that more than $70 \%$ of the songs contained English in their lyrics and that male performers used English statistically at a higher proportion than female performers. In addition, younger male performers used more English in their lyrics compared to older male performers. The study then pointed out that English in Japanese popular songs (J-pop) fulfilled both referential and affective functions.
However, it remains to be seen if the use of English in J-pop has fluctuated over time. There is limited research tracing the change of the lyrics of popular songs from a quantitative perspective. One such example includes a study by Anglada-Tort, Krause, and North (2021), which utilized machine learning techniques to analyze the transition of gender distribution of popular songs and its relation to the content of the lyrics, but did so within a native-English UK context. As statistical research on English within musical contexts where English is not an official language is even more limited, this study aims to describe and analyze the use of English in top Japanese popular songs in the period of 2012 to 2021 by using a statistical approach.
## 2 Methodology
First, the 50 best-selling CD singles were identified for each year from 2012 to 2021 based on the Oricon
annual chart . Second, for each of the 500 songs, lyrics were prepared in the text file format. Third, MeCab was used for dividing lyrics into tokens (http://taku910.github.io/mecab/). Each file was then checked manually to correct errors resulting from sentence fragments, colloquial expressions, and unique use of words. Fourth, AntConc (Anthony, 2020) was used for generating a word list and counting the number of tokens and types for each song. Finally, the number of English and Japanese tokens and types were calculated based on the word list.
Each song was tagged with its Oricon list year, what Oricon rank the song was listed at, whether the song was performed by a male or female lead singer, whether the song was performed by a group or solo artist, and whether the song was produced by a Korean company (K-pop). For purposes of this paper, Korean-based songs as published in Japan and listed on the Oricon top 50 are tagged as "K-pop".
For statistical analysis, each song's token, type, year, and artist factor data was input into Excel and $\mathrm{R}$ and analyzed for summary statistics. Finally, a multi-factored linear regression model was created using percent of each song's tokens as the dependent variable and artist factors and year as the independent variables.
## 3 Results and Analysis
We analyzed a total of 500 songs, spanning 10 years. $61 \%$ of songs were performed by a male-lead, $94 \%$ of songs were sung by a group of $2+$ members, and $8 \%$ of songs were categorized as K-pop.
Most of the songs contained some English, but overall English was low within each song when compared with native Japanese (see also Figure 10 in Appendix).
73\% of the 500 songs contained English tokens. On average, $15 \%$ of tokens per song were English and 11\% of types per song were English. Songs ranged from 0 to $100 \%$ English, with $27 \%$ of songs containing 0\% English and $0.6 \%$ of songs containing $100 \%$ English.
Figure 3 shows a distribution of the songs based on the percentage of song tokens in English. Nearly two-thirds (61\%) of songs analyzed contain between $0 \%$ and $10 \%$ English, with the vast majority (94\%) containing less than 50\% English. Although English continues to play a significant role in conveying messages and musicality in contemporary J-pop, it overall remains a predominately minor language compared to native Japanese.
## 3.1 Trends over Time
Compared with Takahashi and Calica (2015) this paper tasked to answer how the use of English in J-pop has changed over time. To do so, we developed a time series calculating the average English usage year-over-year (see also Figure 11 in Appendix for \% of types over time).
Over the past 10 years, the amount and variety of English has increased over time. Both tokens per song and types per song increased, as denoted by the significantly positive slope trendline. In 2012, songs on average had $12 \%$ of tokens as English, while in 2021, songs on average had $18 \%$ of tokens as English.
There is a $+6-7$ percentage points ( $\mathrm{pp}$ ) increase of English tokens and types between 2019 and 2020, which represents the largest year-over-year increase in the data. 2020 was a notable year for the music industry due to COVID-19 effects on global cultures and markets. In the next section, we note other localized effects such as gender and group factors in 2020 that also played a role in this English increase.
## 3.2 Gender as Related to English
In Takahashi and Calica (2015), performer gender was found to be a significant factor in understanding the use of English in 2013 songs. This trend continues when looking across the 2012-21 timeframe.
Male performers used a higher percentage and higher variety of English in their songs, with the average male song having +10 pp more English and +8pp more types. It was theorized in Takahashi and Calica (2015) that a prototypical J-pop male image is constructed through a variety of factors, potentially including heavier English usage. Given a higher statistical usage, it does appear that the modern J-pop male image remains more strongly tied with English usage.
The relationship between male gender and English is relatively consistent over time, as in Figure 6. Both genders have increased their English usage over time.
There is variation for the gender-English distribution, particularly in 2018-2020. 2018 is the first year observed where the female average usage was equal to or higher than the male average usage. This is primarily due to the increase in female K-pop groups, such as TWICE, appearing in the Oricon top 50 for the first time. As will be noted in the next section, Korean-based groups provide a significant increase of English usage in
Japanese music. For example, if TWICE were excluded from the data, the average female Japanese English token percentage in 2018 would drop from $13.5 \%$ to $10.3 \%$, which would be lower than the male average of $12.8 \%$.
As noted in section 3.1, 2020 provided major changes to the J-pop landscape. In addition to global COVID-19 effects, many new male groups entered the top lists with increased English usage. For example, new male groups such as SixTONES, Snow Man, and JO1 debuted and reached the top 50 with 6 songs, with a combined average of $51 \%$ English tokens. These new songs replaced staple female groups such as the " 48 -groups" (AKB48, NMB48, etc.), which had a drop from the top 50 lists, going from an average of 11 songs in the top 50 between 2012-2019 to 8 in 2020.
## 3.3 Korean and Groups Factors
K-pop has had a significant effect on English usage in Japanese music, with many Korean-based groups hitting the top 50 charts. As noted in section 3.2, TWICE for example helped increase the amount of English in Japanese music in 2018. K-pop groups, while they hold a minority of top 50 song slots, do provide a significant increase in English usage and variety.
The average Oricon listed Korean-based song has +19pp more English tokens and +14pp more types than a Japanese-based song. Similarly, being part of a group versus being an individual performer is linked to English usage. The average group has +10pp more English usage and +6 pp more English types.
## 3.4 Factor Significance
To statistically test each factor's significance with respect to English usage, we utilized a multi-factored linear regression model and tested whether each factor has statistically significant predictive effects. For this model, we regressed each song's English token percentage with respect to the song's year, performer gender, group/solo category, K-pop category, and 1-50 rank.
& K-pop + Rank \\
Year, gender (male), group, and K-pop flags all had a positive and statistically significant effect with respect to English usage by song. Rank was a factor which had no statistical effect, meaning that English is not correlated with how highly the song was ranked in the top 1-50 (See Appendix for details).
Based on the independent linear regression model, the significant linear estimates are greater than 0 and can be additive. For example, all else equal, a male K-pop group song will on average have +39pp more English than a female, non-K-pop solo artist song.
## 4. Discussion
English continues to carry significant purpose for lyrical construction within Japanese popular music, as it is statistically significant and remains the highest non-Japanese language to appear in top 50 Oricon for 2012-2021. Over time, English slowly has begun to increase in usage and variety, making it an even stronger portion of the Japanese music scene. Like many other fields, 2020 in particular had a pronounced effect on J-pop and English in J-pop, including the debut of high English-using groups.
English usage is also significantly linked to the musical performer identity, as it is associated with gender, group/solo distinction, and being Korean-based vs. non-Korean-based. However, this statistical identity based on lyrics is a constructed or presented image from the artist. Further research, such as audience testing, could help understand how such a language-based image is perceived from the audience's perspective.
## 5. Conclusion
Within this study, we statistically analyzed the use and variety of English in Japanese popular music lyrics. While English had broad usage across songs and was present in $73 \%$ of songs, it remained limited in terms of average amount (15\% of tokens per song) and average variety (11\% of types per song).
English has increased in usage from 2012 to 2021, with the average tokens per song increasing by 6 percentage points. English was also on average higher in songs from male artists, group performers (vs solo), and K-pop artists.
We look forward to further monitoring English in J-pop, especially as we encounter new structural changes. For example, new groups like Snow Man, which uses an average of over 50\% English per song, have helped increase usage overall. We could potentially see English grow from a strong minority language presence to an even more pronounced and integral unit of Japanese musical communication.
## References
Anglada-Tort, M., Krause, A. E., \& North, A. C. (2021). Popular music lyrics and musicians' gender over time: A computational approach. Psychology of Music, 49(3), 426-444. https://doi.org/10.1177/0305735619871602
Anthony, L. (2020). AntConc (Version 3.5.9) [Computer Software]. Tokyo, Japan: Waseda University. Available from https://www.laurenceanthony.net/software
Benson, P. (2013). English and identity in East Asian popular music. Popular music, 32(1), 23-33.
https://doi.org/10.1017/S0261143012000529
Chan, B. H. S. (2009). English in Hong Kong Cantopop: language choice, code-switching and genre. World Englishes, 28(1), 107-129.
https://doi.org/10.1111/j.1467-971X.2008.01572.x
Cogan, B., \& Cogan, G. (2006). Gender and authenticity in Japanese popular music: 1980-2000. Popular Music and Society, 29(1), 69-90.
https://doi.org/10.1080/03007760500167313
Jin, D. Y., \& Ryoo, W. (2014). Critical interpretation of hybrid K-pop: The global-local paradigm of English mixing in lyrics. Popular Music and Society, 37(2), 113-131.
https://doi.org/10.1080/03007766.2012.731721
Kachru, Y. (2006). Mixers lyricing in Hinglish: Blending and fusion in Indian pop culture. World Englishes, 25(2), 223-233.
https://doi.org/10.1111/j.0083-2919.2006.00461.x
Lee, S. (2022). Typology of English-Korean code ambiguation: Bilingual creativity in the Korean context. English Today. Advance online publication. https://doi.org/10.1017/S0266078422000116
Luk, J. (2013). Bilingual language play and local creativity in Hong Kong. International Journal of Multilingualism, 10(3), 236-250.
https://doi.org/10.1080/14790718.2013.808200
Moody, A. J. (2006). English in Japanese popular culture and J-Pop music. World Englishes, 25(2), 209-222.
https://doi.org/10.1111/j.0083-2919.2006.00460.x
Moody, A. (2020). English in Asian popular culture. In K. Bolgon, W. Botha, \& A. Kirkpatrick (Eds.), The handbook of Asian Englishes (pp. 763-786).
Wiley-Blackwell.
https://doi.org/10.1002/9781118791882
Moody, A., \& Matsumoto, Y. (2003). "Don't touch my moustache": Language blending and code ambiguation by two J-pop artists. Asian Englishes, 6(1), 4-33.
https://doi.org/10.1080/13488678.2003.10801106
Stanlaw, J. (2021). Using English as identity markers in Japanese popular music: J-pop and beyond. In E. L. Low \& A. Pakir (Eds.), English in East and South Asia (pp. 198-211). Routledge.
https://doi.org/10.4324/9780429433467
Takahashi, M., \& Calica, D. (2015). The significance of English in Japanese popular music: English as a means of message, play, and character. Proceedings of the 21st Annual Meeting of the Association for Natural Language Processing, 868-871.
https://www.anlp.jp/proceedings/annual_meeting/2015/in dex.html
Toth, C. (2008). J-Pop and performances of young female identity: Music, gender and urban space in Tokyo. Young, 16(2), 111-129.
https://doi.org/10.1177/110330880801600201
## Appendix
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-4.pdf | # 新型コロナウイルスに関する新聞報道
## の時系列変化の日中米比較
\author{
童樺 ${ }^{1}$. 森川美幸 ${ }^{2}$ $\cdot$ 榎本美香 ${ }^{2}$
}
## 概 要
本研究では、日中米三国の新型コロナウイルスに関する新聞報道が時系列的な変化を明らかにする。分析 1 では、諸国いずれも報道数はコロナの蔓延状況と密接な関係があることを示す。分析 2 では、諸国各時期のキーワードの出現頻度を算出し、各時期で取り上げられるトピックを自国内、国際、経済三つに分けて分析する。分析 3 では諸国各時期で報道内容の情感の違いを明らかにする。これらの分析を通じて、中日米三国の新型コロナウイルスに関する報道量や中心的な話題の変化を示し、それらが時間の経過に伴ってどのように変遷するかを明らかにする。
1 はじめに
2019 年末, 中国武漢市から報告された原因不明肺炎は, 新たなコロナウイルス(以下コロナ)が原因であることが判明した。2021 年 1 月 30 日、 WH 0 は「国際的に懸念される公衆衛生上の緊急事態」を、3 月 11 日には「パンデミック」の宣言をした $[1]$ 。各国がコロナの流行に影響を受ける中、社会の不確実性は増加し、国民の情報欲求は高まる[2]。諸国の報道機関はコロナに関することを大きく取り上げるようになる。本研究では、各国の報道の関心の中心とその時系列的変化を明らかにする。
## 2 先 行研究
酒(2001)は、コロナ報道中に、中国への差別的報道、たとえば人種的差別、情報格差、経済格差、教育格差に関する報道が含まれていたとする[3]
また、星野((2022)は日本国内の新聞社間でコロナに関する新聞社説を構成するトピックの時系列変化や新聞社ごとのトピックの偏りを分析し、新聞は多様な側面に言及していることを明らかにした[4]。
は Twitter で日本国内の 1 例目の感染者が確認された 9 週間でコロナに関する投稿を関連語や共起ネットワークを分析した。SNS 投稿内容から,コロナの感染拡大は人々のウイルス感染への不安に加え、報道内容や社会情勢の不安定さによる不安や疲労感、 ストレスを生じさせていた実態を示唆している。 ただし、これらの研究はコロナに関する日本国内の報道だけを分析しており、日本以外の諸国でどのような報道がなされたのかは分からない。
## 3 方 法
本研究は各国を代表すると考えられる新聞紙を対象とする。次に、本論文では、日本、中国、米国を対象とするっこれは、この三つの国は世界三大経済大国であり、経済的にも政治的にも世界に与える影響力が大きいと考えられる。新聞紙の選択には対象国から『 NEW YORK T IMES』、『読売新聞』、『人民日報』を選択した。データべースに基づいて、2020 年 1 月 1 日から 2022 年 6 月 30 日まで、コロナ関連の記事を収集する。日本語では「新型コロナウイルス」をキーワードとしてデータベースの検索を行
う。中国は「新冠肺炎」、米国は’coronavirus,というキーワードで検索する。
次に、日本の新聞紙の特性を鑑みて、中立性を保つている『読売新聞』を用いる。中国は『人民日報』、米国は『 NEW Y O R K T I E S』が全国紙であるためこれらを用いる。取得した記事のテキストを Excel でデータベース化する。次に、自然言語処理を用い、それぞれの新聞紙のトピック解析を行う。
## 4 分 析 1
2020 年 1 月 1 日から 2022 年 6 月 30 日まで、各データベースでキーワード検索を行った記事数を抽出する
各国いずれも2020 年の報道量は感染の蔓延に伴い増加している。日本は分析した全期間を通じて、この傾向にある。一方、中国と米国は、その後感染者数の増加やロックダウンが生じても、報道が減少する。このことは、中国や米国においいては、時間の経過とともにコロナに対する関心が薄れていったことを伺わせる。
## 5 分 析 2
抽出した関連記事を形態素解析する。日本語専用の MECAB、中国語専用の JIEBA、英語専用のNLTKを用いてそれぞれ形態素解析を行う。
これらのツールを用い形態素解析し、各時期の単語出現頻度を求める。単語の出現頻度数が多くても、 あまり意味が無い単語(たとえば、接続助詞など) は、重み付けを行い除外する。重み付けは「 $\mathrm{t} \mathrm{fidf}$」という計算式を用いる。この計算式は主に文書検索やレコメンデーションに使われている(一色政彦 2021 )[9]。単語ランクの並び順は頻度と重み付け両方とも前 10 位で表示される。
図 4 読売新聞トピック
図 5 人民日報トピック
city
図 6 NYTトピック
日中米いずれも 2020 年初めの段階では、中国に関するトピックが取り上げられている。2021 年になるとワクチンに関するトピックが盛り上がる。
日本の新聞報道の特徴は、初めの段階で中国の感染状況に対するトピックが多く、少し経つと、自国内の国民生活や社会保障などに関するトピックが増える。一方で、国際社会に関する言及は少ない。
中国の新聞報道の特徴は、WHO や他の国に関する国際連携のトピックが多い。時間が経過すると、感染状況より経済面に関する言及が増える。一方で、自
国内の国民生活に関するトピックは見られない。米国の新聞報道は初期段階で中国とその政府機関に対する関心が多く、自国内の感染状況より他国に注目している。後期では、国民生活や国際旅行に関することに関心が高くなっていく。一方で、経済面に関する言及は見られない。
## 6 結 論
本研究を通じて、日中米の新型コロナウイルスに関する新聞報道は様々な違いがあることが分かった、各国のマスメディアは初期の段階では感染者数やロックダウンなどに関する話題が多くなるという共通点がある。しかし、時間の経過とともに、政治 ・経済・国際情勢など各国間の関心の有りようが変わっていくことが明らかになった。
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D6-5.pdf | # ニューラル分類器の予測の解釈に基づく 集団に特徴的なテキスト表現の抽出: アメリカ人を例に
渡邊 幸暉 村脇有吾 黒橋禎夫
京都大学大学院情報学研究科
\{k-watanabe, murawaki, kuro\}@nlp.ist.i.kyoto-u.ac.jp
## 概要
本研究では、ある集団に特徴的なテキスト表現をその他の集団との比較により抽出する手法を提案する。提案手法は、 2 種類のテキストを識別する分類器を訓練したうえで、ニューラルネットの説明手法に基づいて、分類器の予測に貢献する入力テキスト中の表現を特定する。具体例としてアメリカの文化や歴史を背景とした表現に取り組み、データセットの構築や評価実験を行う。
## 1 はじめに
人々の言語使用は、国や社会階層といった自身が属する集団の文化を反映していると考えられる。その性質を解明することで、例えば異文化コミュニケーションの支援といった応用が期待できる。
この研究課題への有力な取り組みは、異なる集団が産出したテキスト同士の比較を通じて差異を解明するというもので、対照研究あるいは比較研究とよばれる [1]。こうした対照研究は、主に社会言語学を中心としたいわゆる文系の研究者によって進められてきた。例えば、ウェブ、新聞記事、聖書といった様々な言語資料を比較することで、異なる集団が用いるテキスト表現の違いを明らかにできる [2]。
従来研究のうち人手による事例分析は、客観性を担保するのが難しい。また、対象テキストが数十件から数百件程度にとどまるなど、規模にも限界がある [3]。コーパスに基づく分析は客観性の問題を改善するが、人手によるアノテーションを必要とする場合はやはり規模に限界がある。自動分析を行う場合も、単語のような断片的で言語的に表層的な手がかりしか扱えないという課題が残る。
本研究ではこれらの対照研究の課題を解決するために、説明可能な AIを応用した手法を提案する。
(3) r/NoStupidQuestions $\cdot$ Posted by u/MossLover6465 22 days ago Guys, who is Uncle Sam?
I ain't American and kinda hear about him a lot. Is he a fictional character or he existed at some point?
MrLongJeans $\cdot 22$ days ago
Uncle Sam means the government, like I owe Uncle Sam a third of my paycheck in taxes. He is usually personified in the I Want You recruiting poster from WW2:
図 1 Reddit でのやりとりの一部
出典 : https://www.reddit.com/r/NoStupidQuestions/ comments/z7h6fs/guys_who_is_uncle_sam/
提案手法はデータ駆動型の取り組みにより客観性と規模性を確保するとともに、近年のニューラルネットの強力な文脈処理能力を活用することで、従来の自動分析では扱うのが難しかったような長いテキス卜表現を探索的に抽出する。ニューラルネットは高い性能の代償としてその振る舞いがブラックボックス化することが問題視されているが [4]、その解決策として説明可能な AI の研究が盛んに進められている [5][6]。本研究のキーアイデアは、その成果を応用し、ニューラルネットが異なる集団による 2 種類のテキストをどのような手がかりを用いて識別したかを解釈することを通じて、テキスト間の差異の原因を表現レベルにまで絞り込むことである。
提案手法の具体的な適用事例としてアメリカ人に着目する。アメリカは第二次世界大戦以来超大国とされ [7]、特に冷戦後は唯一の超大国であるとされている [8]。国際社会におけるアメリカの存在感は著しく、文化、経済、科学技術などの分野で他の国々がアメリカを追随する形で世界が発展している。
こうした背景のもと、アメリカ国内のコンセンサスが世界のコンセンサスであるかのような言動が見られることがある。具体的には、アメリカ以外の国の人がいる場でも、アメリカ人にしか理解できないような表現が使われてしまう。図 1 は、英語圏の才
ンライン掲示板 Redditで、アメリカ人ではないという投稿者がよく耳にするという“Uncle Sam”という人物について尋ねている様子を示す。この例では、 “Uncle Sam” は特定の人物を指す言葉ではなく、アメリカ合衆国政府を意味する熟語であることが説明されている。
このようにアメリカの文化や歴史を背景とする表現を本研究ではアメリカニズムとよぶ (表 A.1)。アメリカニズムを抽出して提示することにより、アメリカ以外の国の人に対して意図せずアメリカニズムを使用してしまう事態を回避し、より円滑なコミュニケーションが可能になることが期待される。
本研究では、アメリカ人が書いた文と他の英語圈の国の人が書いた文を比較することで、アメリカニズムを抽出する。クローリングによるデータセット構築、Reddit が SNS であることを利用した対象の効果的な絞り込み、BERT に基づく強力なニューラル分類器の訓練を行ったうえで、説明手法の適用により表現の抽出を行う。抽出例を人手で分析したところ、実際にアメリカニズムが抽出できていることが確認できた。
## 2 関連研究
提案手法の基本的なアイデアは Harust ら [9] に由来する。Harust らは英語表現のなかには母語話者に特徴的なものがあると仮定し、英語母語話者によるテキストと第二言語話者によるテキストを比較することでそのような表現を抽出した。まず、Reddit の投稿から作成した話者国籍別の英文データセット [10]を利用して、入力されたテキストが英語母語話者のものか第二言語話者のものかを識別する分類器を作成した。この分類器に対して、説明手法の1つである contextual decomposition [11]を適用し、分類器の出力スコアに対する入力テキスト中の各表現の貢献を近似的に求めた。このスコアを当該フレーズの母語話者らしさとみなし、スコアの高いフレーズを母語話者に特徵的な英語表現の候補としている。この分類器の訓練には complementary-label learning [12]を応用した手法が使われており、通常の2つのラベルに加え、「どちらとも言えない」という特殊ラベルが導入されている。
Harust らは言語的な興味から英語母語話者と第二言語話者を比較したのに対し、本研究は文化的な観点からアメリカ人とその他の英語圈の人を対照する。また、Harust らは分類器をLSTM を用いて構築
MortimerDongle $\cdot 26$ days ago
媐United States of America
Is testing homes for radon and installing vent fans for it uncommon?
\ $\oiint$ Reply Give Award Share Report Save Follow
図 2 Reddit で国籍を表明するタグが使用されている例投稿者がアメリカ国籍であることが表明されている出典 : https://www.reddit.com/r/AskEurope/comments/ z81amu/comment/iycx57x/
表 1 構築したデータセットの国籍の内訳
したのに対して、本研究はより強力な BERTを用いるなど、様々な点で手法に改良を加えている。
## 3 データセットの構築と絞り込み
## 3.1 データセットの構築
Harust ら [9] は話者国籍別の英語テキストとして Reddit に由来するデータセット [10]を用いた。このデータセットは、Reddit 内の一部のコミュニティで投稿者が自らの国籍をタグ (flair、図 2)で表明していることを国籍判別の手がかりとして利用している。原著者らの目的は、母語識別タスク (例えば英文の書き手がドイツ人であることを判別するなど) だが、アメリカやその他の英語圈の国が収録されており、本研究の目的にも利用できる。
このデータセットには投稿本文とその国籍ラベルのみが収録されている。しかし、例えば、Redditが SNS であり、投稿者同士が関係を持っていることを利用すれば、より高品質にアメリカニズムが抽出できるかもしれない。こうした動機に基づき、本研究では独自に Reddit のクローリングを行った。
本研究では、アメリカと、比較対象として英語圏のその他の 3 力国を対象とした。先行研究 [10] と比較すると、国籍判別の手がかりをを拡大している。投稿者が用いるタグは自由記述だが、先行研究は国名のみに着目していた。これに対し、本研究ではアメリカ国内の州名やその他の地名1)も利用した。こうしたタグの使用者はより内向きでアメリカニズムを表出する可能性が高いと期待できる。 データセット構築結果を表 1 に示す。州名や地名
というものもあった。
図 3 分析対象の絞り込みの手順
のタグも利用してことにより、アメリカ国籍の投稿者の投稿を多く収集できていることが分かる。
## 3.2 分析対象の絞り込み
一般に、ある集団の話者が産出したテキストに必ずその集団に特徵的な表現が出現するとは限らない。この問題に対処するために、Harust ら [9] は、母語話者と第二言語話者という 2 つのラベルに加えて、「どちらとも言えない」という特殊ラベルを導入し、特徴的な表現が出現しないテキストを吸収させていた。この目的のために complementary-label learning という機械学習手法を応用していた。
Harust ら [9] はこの 3 值分類器に説明手法を直接適用していたが、本研究ではまず 3 值分類器を使って分析対象となるデータを絞り込んだうえで、改めて 2 值分類器を訓練する (図 3)。処理段階を段階的に行うことで、例えば次節で示すように、Reddit の特性を利用したデータの質の改善が容易になる。
## 3.3 投稿者同士の関係の利用
Reddit の SNS としての特性は、データの質の改善に貢献し得る。例えば、アメリカ人同士での交流が中心の投稿者は、他の国の人との交流が多いアメリカ人よりもアメリカニズムを表出する可能性が高い。そこで、投稿者が自分と異なる国籍の投稿者に対する返信の割合を手がかりとして利用する。具体的には、投稿者に対して国際性スコアを付与する。
投稿者の国際性スコア $=$
その投稿者が自身と異なる国籍の人に返信した数返信先のうち、タグによって国籍が分かっている数この国際性スコアは、絞り込み用の分類器に追加の特徵量として与える。
実験では、表 1 のアメリカと、アメリカ以外の国をまとめたその他の国の識別を行った。分類器としては BERT [13]を用い、各ラベル 900 万文ずつを
図 4 sampling and occlusion algorithm $の$ 実行例四角で囲われた部分がランダムに変更された文中の語を表す。
ここでは簡単のため 3 文に対する出力の平均としている。
使って訓練を行った。結果を表 A. 2 に示す。国際性スコアを付加することで、「どちらとも言えない」 に分類された割合が減った2)にも関わらず、正しく分類できた割合が増えている。したがって、国際性スコアは絞り込みの精度向上に貢献していると判断できる。
図 1 や表 A. 1 で示したアメリカニズムの具体例について、絞り达み前後での登場頻度の変化を表 A. 3 に示す。特に登場回数が数千程度の例については、絞り込みにより、アメリカラベルのテキストにより偏って出現するようになったことが確認できる。
## 4 分類器の説明手法を使った各表現 のアメリカらしさの評価
## 4.1 分類器の説明手法の利用
本研究で用いる分類器の説明手法は、分類器の出力に対して、入力テキストのどの部分が強く貢献したかを明らかにする。本研究では、絞り込み後のデータを用いて、アメリカとその他の国を識別する 2 値分類器を訓練している。したがって、分類器がアメリカラベルを予測した際、その予測に強く貢献した大力文中の表現が、アメリカらしい表現、すなわちアメリカニズムであるとみなせる。
テキストの分類器の説明手法は複数提案されているが、本研究では sampling and occlusion (SOC) algorithm [14]を利用する。ある表現を分析対象としたとき、原文中のその表現をパディングトークンで置き換えて再分類を行うと、もとの出力スコアからの差分をその表現の貢献と見なせる。ただし、このスコアの差分はその表現の前後の文脈によって変化する。SOC は、この文脈依存性を取り除くために、文脈中の語をランダムに変更した場合を考慮して、当該表現の評価値を求める (図 4)。実験では、1つ
の大力に対して 20 文のサンプリングを行った。
## 4.2 分析対象となる表現の取り出し
分類器の説明手法を利用するためには、分析対象となる表現を指定する必要がある。Harust らは入力文中ののすべての 5-gram までを分析の対象としていたが、これでは明らかに意味をなさない表現が対象に含まれる、長さが 6 以上の表現は分析の対象にできないなどの問題点がある。
そこで、本研究では文に対する句構造解析を適用し、その結果を用いて表現を取り出す。具体的には、句構造解析によって得られた構文木の各頂点について、その子孫となる単語列を一つの表現として利用する。Harust らの手法と比べて、明らかに意味をなさない表現が含まれない、長さが 6 以上のものも取り出せるなどの利点がある3)。
## 4.3 既知のアメリカニズムを用いた分析
アメリカニズムの抽出は探索的なタスクであり、定量的な評価自体が挑戦的な課題である。そのため、まずは簡易的な評価として、既知のアメリカニズムを含む文に対する提案手法の振る舞いを調査した。
説明手法を適用する 2 值分類器としては BERTを用い、アメリカとその他の国の各ラベル 900 万文を用いて訓練した。注目する表現に対して、そのアメリカラベルへの貢献度から他の国のラベルへの貢献度を引いたものを評価値として用いる。この評価値が正であればアメリカらしい表現、負であれば他の国らしい表現であると評価されたことになる。
結果を表 A. 4 に示す。上の 3 例は図 1 や表 A. 1 で見たアメリカニズムの例、一番下は他の国のラベルに含まれるイギリスに特徴的な表現の例である。実際の評価値はアメリカニズムの例に対して正、イギリスに特徴的な表現で負となっていることが確認できる。
## 4.4 抽出結果の人手評価
次に、提案手法が抽出した表現を人手で評価した。 3.2 節で説明したデータセットのうち 250 万文に対して、4.2 節で述べた手順で分析対象表現を列挙し、各表現に対して説明手法を適用して評価値を求めた。各表現の頻度を集計し、10 回以上出現す
3)例えば "I owe Uncle Sam a third of my paycheck in taxes." という文の場合、5-gram までで表現を取り出した際の候補は 45 個になるのに対し、句構造解析を用いると 19 個となる。
る表現を対象としたところ、約 127,800 個の表現を得た。このうち頻度上位 $1 \%$ から 100 個の表現をランダムに選んで人手で評価した。長い表現のうちどの部分を抽出すべきかは判断が難しいため、アメリカらしい表現が含まれていれば正解と判定した。なお、本論文の著者は全員が日本に住む日本語話者であるため、見逃したアメリカニズムがある可能性は否定できない。
調査の結果、100 個中 51 個がアメリカらしい表現であった。このうち、アメリカ国内の固有名詞が 2 個 (Buick や Grunhub)、アメリカ英語の綴り (イギリス英語の favour や honour に対する favor や honor など)を含む表現やアメリカ的な言い回し (home improvement store や、イギリス英語の grocery shop に対する grocery store) が 35 個であった。小切手の意味の check にはアメリカ英語であり、イギリス英語では cheque と綴るが、check という単語自体はイギリス英語でも用いられる。提案手法は writing a check という、check の語義が特定できる形の表現を抽出しており、ニューラルネットの高い文脈処理能力がうかがえる。 51 個のうち残り 14 個が、アメリカの文化や歴史を色濃く反映した、狭義のアメリカニズムと判断できるものであった (表 A.5)。この結果は、探索的用途において提案手法がアメリカニズムの効率的発見に利用可能であることを示唆する。
正解と判定しなかった 49 個のうち 7 個は college を含む表現だった。college とよばれる機関自体は英語圏に広く存在するが、Reddit 上ではアメリカの機関の存在感が大きく、他の国での用法を頻度上圧倒した可能性がある。
## 5 おわりに
本研究では、ある集団に特徴的なテキスト表現をテキストの分類器の説明手法を活用して抽出する手法を提案し、その具体な適用事例として、アメリカ人に特徴的な表現であるアメリカニズムを抽出した。分析対象をアメリカに特徴的な表現が含まれるものに絞り込むことで、アメリカニズムの出現頻度に大きな偏りが発生して分析がしやすくなることを示し、実際の説明手法の適用で良好な結果が得られることを確認した。また、提案手法を実行した結果、評価值が高かったものからアメリカニズムを発見することに成功した。今後は、別の対象研究への提案手法の適用などについても検討したい。
## 参考文献
[1] 井上優. 対照研究について考えておくべきこと. 一橋日本語教育研究, Vol. 3, pp. 1-12, 2015.
[2] 河正一. 社会言語学的調査の状況一言語行動に関する日韓対照研究を中心に一. 計量国語学, Vol. 31, No. 8, pp. 572-588, 2019.
[3] 佐々木倫子. 言語の対照研究と言語教育. 日本語科学, Vol. 3, pp. 127-134, 1998.
[4] Yavar Bathaee. The artificial intelligence black box and the failure of intent and causation. Harvard Journal of Law \& Technology, Vol. 31, No. 2, pp. 890-938, 2018.
[5] Riccardo Guidotti, Anna Monreale, Salvatore Ruggieri, Franco Turini, Fosca Giannotti, and Dino Pedreschi. A survey of methods for explaining black box models. ACM Comput. Surv., Vol. 51, No. 5, pp. 1-42, 2018.
[6] Venessa Buhrmester, David Münch, and Michael Arens. Analysis of explainers of black box deep neural networks for computer vision: A survey. Mahine Learning and knowledge extraction 2021, pp. 966-989, 2021.
[7] William T. R. Fox. The Super-Powers; The United States, Britain, and the Soviet Union- Their Responsibility for Peace. New York: Harcourt, Brace and Company., 1944.
[8] Ian Bremmer. These are the 5 reasons why the U.S. remains the world's only superpower, 2015. https://time.com/ 3899972/us-superpower-status-military/.
[9] Oleksandr Harust, Yugo Murawaki, and Sadao Kurohashi. Native-like expression identification by contrasting native and proficient second language speakers. In Proceedings of the 28th International Conference on Computational Linguistics, 2020.
[10] Ella Rabinovich, Yulia Tsvetkov, and Shuly Wintner. Native language cognate effects on second language lexical choice. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 329-342, 2018.
[11] W. James Murdoch, Peter J. Liu, and Bin Yu. Beyond word importance: Contextual decomposition to extract interactions from LSTMs. In International Conference on Learning Representations, 2018.
[12] Takashi Ishida, Gang Niu, Weihua Hu, and Masashi Sugiyama. Learning from complementary labels. In Advances in Neural Information Processing Systems, 2017.
[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019.
[14] Xisen Jin, Zhongyu Wei, Junyi Du, Xiangyang Xue, and Xiang Ren. Towards hierarchical importance attribution: Explaining compositional semantics for neural sequence models. In International Conference on Learning Representations, 2020 .
## A 参考情報
表 A. 1 アメリカニズムの例
& 形勢が逆転する様 \\
表 A. 2 絞り込み分類器の学習結果
& \\
表 A. 3 データの絞り込みによる、データ中のアメリカニズムの登場回数の変化 (括弧内は残存率)
表 A. 4 Reddit 上の実際の投稿文に対する、説明手法の適用結果
表 A. 5 分類器の説明手法による評価値が高かった表現から発見されたアメリカニズム
& & \\
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-1.pdf | # 深層学習モデルを用いた双方向形態屈折の検証
深津聡世*原田宥都*大関洋平
東京大学大学院 総合文化研究科言語情報科学専攻
\{akiyofukatsu, harada-yuto, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
人間が形態処理を行うにあたって必要な知識は,規則か類推か,あるいはその両方かという議論は,言語学の形態論において現在も続いている.この議論は「過去時制論争 (Past Tense Debate)」と呼ばれ,近年ではニューラルネットワークを用いた形態処理のモデル化による検証が行われている. 本研究では,その形態的な複雑さから過去時制論争において重要とされる日本語動詞の屈折について,類推のモデルである深層学習モデルを用いて,時制について双方向の形態屈折の学習を行った. どちらの時制方向の処理にモデルがより適するかを検証した結果,訓練データのサイズや性質が結果に大きく影響することが示唆された.
## 1 はじめに
人間が形態処理を行う際に用いられているのは,規則的な処理なのか,類推的な処理なのか,あるいはその両方を用いた処理なのかということについて, 言語学の形態論において長く議論されており, この議論は過去時制論争 (Past Tense Debate) と呼ばれる。その中でも重要な現象の一つとして, 日本語母語話者が実在語にある屈折パターンと同じように非実在語を屈折させることができない,というものがあり,これは多くの研究で観察されている $[1,2,3,4]$. もし形態屈折の処理が規則的なものであるならば,非実在語に対しても同じ屈折パターンを適用できるはずであるということから,この現象は,形態処理が類推的であることの一つの証左として言及されてきた。これに対して Oseki ら [5]では,現在形から過去形の方向へ規則が派生する,ということがそもそも自明ではなく, 日本語においては過去形から現在形への方向で規則が派生しているのではないかとの仮説を,自身の獲得研究での観察をもとに提案した. その仮説に基づき,規則べースのモ * 共同第一著者.
デルを用いて,非実在語の屈折を双方向(現在一過去,過去 $\rightarrow$ 現在)に検証したところ,規則べースのモデルは過去形から現在形への方向により適していることが様々な評価尺度から示された.この結果は, 日本語動詞の屈折処理は, 過去形から現在形への方向においては規則的である,ということを示唆する.
そこで本研究では,類推に基づくモデルである深層学習モデルを用いて,日本語動詞の屈折を双方向 (現在 $\rightarrow$ 過去,過去 $\rightarrow$ 現在)に学習させた. 複数の実験設定を用意することで,類推べースの深層学習モデルがどちらの時制方向の処理により適しているのかを複数の実験設定で検証した。
## 2 先行研究
過去時制論争は, Rumelhart ら [6] が類推ベースのモデルを提案し, 彼らのモデルに対し Pinker ら [7] が問題点を指摘したことで始まった. 最近では,Kirov ら [8] が当時最先端のモデルであったアテンション付きリカレントニューラルネットワーク (RNN)を形態屈折課題に応用したことで議論が再燃している $[9,10]$.
一方で,日本語研究においては,母語話者は規則を用いないとする立場が一般的である。表 1 は,動詞の屈折パラダイムを示したものである.現在形の語幹末音には 11 個の子音と母音が存在し,それぞれが異なる屈折パターンをもつ. 先行研究では,日本語母語話者がこの屈折パターンに則って動詞を屈折できないことが報告されている $[1,2,3,4]$.
しかしながら,これらの先行研究では,英語と同様に日本語動詞が現在形から過去形へ屈折することが前提とされており,これは再検討が必要な点である. Oseki ら [5] は,言語獲得の観察から過去形が屈折の基底形であると仮定し,規則ベースのモデル $[12,13]$ を用いて非実在語を用いる形態屈折課題である wug テスト [14]を双方向(現在形一過去形と過去 $\rightarrow$ 現在)で行った. 実験の結果,人間の正答率は
表 1 日本語における動詞の屈折パラダイム. 形態素境界は [11]による分析に基づく.
現在 $\rightarrow$ 過去方向よりも過去 $\rightarrow$ 現在方向の方が高く, また,モデルと人間の相関も過去 $\rightarrow$ 現在方向の方が高かった. さらに,現在 $\rightarrow$ 過去よりも過去 $\rightarrow$ 現在方向の方がモデルの複雑性の評価がより単純であることもわかった。このことから, Oseki ら [5] は過去 $\rightarrow$現在方向では規則による処理,現在 $\rightarrow$ 過去方向では類推による処理が行われている可能性があると考察している。その場合,類推べースのモデルである深層学習モデルの精度は過去 $\rightarrow$ 現在方向より現在 $\rightarrow$ 過去方向の方がより高くなると予測される.
## 3 方法
## 3.1 深層学習モデル
過去時制論争において,ニューラルネットワークは類推的な処理を行うモデルとして位置付けられるが,近年の形態屈折を扱う深層学習モデルには複数のアーキテクチャが存在する.複数のモデルで実験を行うことで,モデルの種類がどのように結果に影響を及ぼすかを確認するために,本研究では,形態屈折を扱うモデルとしてよく用いられる以下の 2 種類で実験を行った。
アテンション付き RNN 形態屈折は, 機械翻訳と同様に系列変換課題として扱うことができるため,機械翻訳の分野で登場したアテンション付き RNN[15] はそのまま Kann ら [16] によって形態屈折に応用されている. その後 Kirov ら [8] によって英語における動詞の形態屈折に応用され,この文献が過去時制論争の再燃のきっかけとなった. 本研究で
は Kirov ら [8] のアテンション付きRNN を再実装し,日本語動詞の屈折のために用いている.
Transformer 形態論の研究において,これまでアテンション付きRNNを用いるのが主流となっていたが,近年になり Transformer[17] を用いた研究が行われている $[18,19]$. これらの研究では,モデルの縮小化やハイパーパラメータの設定など,文処理よりもデータ数の少ない形態処理を Transformer で扱うための提案が行われており,これらの工夫によって Transformer でもアテンション付き RNN の性能を超えることができるようになった.本研究では, Wu ら [18] の実装を用いて実験を行っている. これは 4 層のエンコーダ-デコーダ層と 4 つのセルフアテンションヘッドからなる,小さいモデルサイズの Transformer である.
## 3.2 データセットの作成
本研究では,実在語のデータセットと非実在語のデータセット(wug)の2種類を用意した. 実在語のデータセットについては 2 つのコーパスから動詞を抽出し,それらの動詞を 2 種類の文字表記に変換したものを実験に用いた.この節では,動詞の抽出方法とそれらの文字表記の変換方法について述べる.
## 3.2.1 動詞の抽出
本研究では,2 種類のコーパス (京都大学テキストコーパス,IPA 辞書)から抽出した動詞をもとに現在形と過去形のペアを作成した。これらのコーパスから抽出された動詞を合わせ重複を除いた結果, 5,502 個の現在形と過去形のペアが得られた. また,実在語で訓練したモデルのテストデータとして,非実在語(wug)のデータセットも用意した。これにより,規則ベースのモデルで実験を行った Oseki ら [5]との結果の比較が可能になる.
以下に各データセットの概要を示す.
京都大学テキストコーパス京都大学テキストコーパス [20] は,1995 年に出版された毎日新聞と社説,それぞれ 2 万文に対して,形態素解析システム JUMAN,構文解析システム KNPで自動解析を行い,人手で修正が加えらたものである。このコーパスからは約 1,300 個の動詞が得られた。
IPA 辞書 IPA 辞書は,情報処理振興事業協会 (IPA)で設定された IPA 品詞体系(THiMCO97)に基づいて作成された日本語の形態素解析用辞書であ
る [21]. 動詞を抽出した結果,約 5,300 個の動詞が得られた。
wug 動詞 wug テストには, Oseki ら [5] で作成された 64 個の wug 動詞を用いた.これらの動詞の 「語根」は,Suski[22]の動詞コーパスから抽出した動詞 1,269 個から CV 音節を抽出し, 無作為に $2 \supset$ の CV 音節を繋げることで,基底形となる現在形と過去形がそれぞれ 32 個作成されている. ただし, $\mathrm{n}$ で終わる語根を持つ実在動詞は「死ぬ (shin-u)」のみであることから,語根が $\mathrm{n}$ で終わる現在形 2 個はデータセットから除いた。
## 3.2.2 文字表記
本研究では,動詞を 2 種類の文字表記に変換し実験を行った. 1 つは,アルファベットに変換したものであり (以下, latin), この変換には, Pykakasi1 ${ }^{11}$ を用いた。もう 1 つは,アルファベット表記をさらに国際音声記号に変換したものであり(以下,IPA), この変換には phonemizer (espeak)2)を用いた。
## 3.3 実験設定
実在語のみを用いた条件では,訓練データとテストデータを 8:2 の割合で分割した. さらに,実在語で訓練したモデルを用いて,wugテストを行った.正解の判定は, 実在語によるテストの場合は実在語と一致する屈折形を正解とし, 非実在語を用いた wug テストの場合は,実在語から予測される可能な屈折形をすべて正解とした(例えば,wug 動詞 kuhan-da に対する正解は kuham-u または kuhab-u).正答率は, 5 回の試行の平均を算出した. 各モデルのハイパーパラメータの設定を以下に示す.
アテンション付き RNN アテンション付き RNN のハイパーパラメータについては, Kirov ら [8]の実験設定を参照し, 設定を合わせている. 学習時の最適化アルゴリズムには AdaDeltaを用い, 単語の埋め込み次元数は $300 , L S T M$ のサイズは 100 に設定した. バッチサイズは 20 で実験を行った.
Transformer Transformer のハイパーパラメータは $\mathrm{Wu}$ ら [18] の実験を踏襲し, 埋め込み次元数は 256 に設定し, 学習時の最適化アルゴリズムには Adam を用いた. ただし, バッチサイズは本研究と同等のデータ数での検証を行った Ma ら [19] の実験を参照し, 32 に設定した。
1) https://codeberg.org/miurahr/pykakasi
2) https://github.com/bootphon/phonemizer?ref=morioh. com\&utm_source=morioh.com
## 4 結果
本研究では,2 種類のモデル,2 種類の表記,2 種類のテストデータセットを用いて,双方向(現在 $\rightarrow$過去,過去 $\rightarrow$ 現在)形態屈折の検証を行った.
はじめに,実在語のみを用いた検証の結果を以下に示す.
表 2 実在語を用いた双方向形態屈折課題の結果
& \\
実在語のみで検証を行ったところ,4 条件中 3 条件で過去 $\rightarrow$ 現在方向の方が正答率が高い結果となった. 現在 $\rightarrow$ 過去方向でより正答率が高かったのは IPA 条件の Transformerのみだった. モデル間で正答率に差があり,実在語条件では,すべての条件においてアテンション付き RNN の方が正答率が高かった.
次に,実在語で訓練したモデルを用いてwug テストを行った. 表 3 はその結果である. 末行には Oseki ら [5] の研究で報告された人間の正答率を提示している.
表 3 双方向 wug テストの結果
\\
アテンション付き RNN & IPA & 81.16 & $\mathbf{9 4 . 4 4}$ \\
Transformer & IPA & $\mathbf{9 2 . 4 4}$ & 92.27 \\
wug テストを行った結果, 4 条件中 2 条件で現在 $\rightarrow$ 過去の方が正答率が高かった. 過去 $\rightarrow$ 現在方向より現在 $\rightarrow$ 過去方向の方が正答率が高かったのは Transformer だった. モデル間でも正答率の差があり,IPA 表記で過去 $\rightarrow$ 現在方向に訓練・テストした条件を除いてすべての条件で Transformer のほうがアテンション付き RNNより正答率が高かった.
実験の結果,8 条件中 5 条件において現在 $\rightarrow$ 過去方向の方が過去 $\rightarrow$ 現在方向よりも正答率が高くなることがわかり,仮説は支持されなかった. アテンション付きRNNを用いて,様々なデータセットの
条件を設定し検証を行った深津ら [23] の研究では, データセットのサイズに比例して正答率が高くなる結果が得られたことから,モデルの結果が訓練デー タの影響を受けていることが示唆された. そこで,追加の検証として,すべての条件において現在 $\rightarrow$ 過去方向よりも過去 $\rightarrow$ 現在方向においてより正答率が高かったアテンション付きRNNを対象に, kyodai データのみ,ipadic のみのデータセットを作成しモデリングを行った(表 4 ).
表 4 より小さなデータセットで訓練されたモデルによる双方向 wug テストの結果
& \\
kyodai のみ & IPA & $\mathbf{8 6 . 0 0}$ & 80.00 \\
ipadic のみ & IPA & 92.66 & $\mathbf{9 4 . 3 8}$ \\
追加検証を行った結果, 4 条件中 3 条件において,過去 $\rightarrow$ 現在方向よりも現在 $\rightarrow$ 過去方向でモデルの正答率がより高くなることがわかった。
## 5 考察
## 5.1 データサイズによる影響
本研究では, 8 条件中 5 条件で現在 $\rightarrow$ 過去方向より過去 $\rightarrow$ 現在方向の方が正答率が高い結果が得られた. このことから, 現在一過去方向の形態屈折がより類推ベースのモデルに適しているという仮説は支持されなかった.
しかしながら,より小さなデータサイズでモデリングを行った追加の検証では, 4 条件中 3 条件で現在 $\rightarrow$ 過去方向の方が過去 $\rightarrow$ 現在方向よりも高い正答率となった. 本研究では,5,502 個の動詞を用いて検証を行ったものの, 子どもが形態屈折の獲得時に聞くと思われる動詞の数はもっと少ない. 例えば,英語の動詞屈折を規則ベースのモデルを用いて検証した Yang[24] の研究では, 子どもの自然発話コーパスである CHILDES[25] から動詞の抽出した 1,042 個の動詞を用いている。そのため,限られたデータで学習する場合には, 現在から過去の方向に学習するほうが類推的処理を行うのにより適している可能性がある.
## 5.2 データの質による影響
より小さなデータサイズでモデリングを行なった追加の検証において,正答率は, kyodai $(\mathrm{n}=1,300)>$ ipadic-kyodai $(\mathrm{n}=5,502)>$ ipadic $(\mathrm{n}=5,300)$ の順に高くなっており, kyodai を含むデータセットの方が含まないものより, 正答率が高い. このことから,デー タサイズだけではなくデータの質も学習に影響を与えていることが示唆された。
例えば,モデルの正答率に影響を与えた要因として,訓練データに含まれる語彙の違いが挙げられる. kyodai は毎日新聞のデータに基づく京大テキストコーパスから抽出したものであり,より日常的な語彙で構成される. 一方, ipadic は形態素解析辞書から抽出したものであり, 中には複合語(例:「明か乙暮らす」)や古語(例:「掻き暗す」),あまり使われない語彙 (例:「こんがらがる」の類語である「こんぐらがる」)などが含まれる。このように,ipadic に比べ kyodai にはより日常的に用いられる基本的な動詞が含まれていることもモデルの正答率に影響を与えたと考えられる。
これらを踏まえて, 今後の研究では, CHILDES コーパスなどをもとに,より基本的な動詞を含すサイズの小さいデータセットを作成し検証を行うことが必要である.
## 6 おわりに
本研究では,過去 $\rightarrow$ 現在方向よりも現在 $\rightarrow$ 過去方向での処理が類推べースのモデルにより適していると予想し実験を行ったものの,その予想を完全に支持する結果は得られなかった. 一方で,サイズの異なるデータを用いて行った追加実験では仮説が支持される結果となった. このことから, 訓練データのサイズや,含まれる語彙の種類は仮説検証に大きく影響する要素であると考えられる,今後は,言語獲得研究における知見を活かしながら,実験設定やデータセットの内容をより細かく統制することで,実際に人間が形態処理を行う際の条件に近いモデリングを目指す.
## 謝辞
本研究は、JST さきがけ JPMJPR21C2 の支援を受けたものです。また,Transformerを用いた実験を行うにあたり, 東京大学大学院の吉田遼氏にご協力いただきました. 感謝申し上げます.
## 参考文献
[1] Timothy J Vance. An introduction to Japanese phonology. State University of New York Press, Albany, NY, 1987.
[2] Timothy J Vance. A new experimental study of Japanese verb morphology. Journal of Japanese Linguistics, Vol. 13, pp. 145-166, 1991.
[3] Terry Klafehn. Properties of Japanese Verbal Inflection. PhD thesis, University of Howai'i, August 2003.
[4] Terry Klafehn. Myth of the wug test: Japanese speakers can't pass it and English speaking children can't pass it either. Proceedings of the 37th Annual Meeting of the Berkeley Linguistics Society, pp. 170-184, 2013.
[5] Yohei Oseki, Yasutada Sudo, Hiromu Sakai, and Alec Marantz. Inverting and modeling morphological inflection. Proceedings of the 16th Workshop on Computational Research in Phonetics, Phonology, and Morphology, pp. 170-177, August 2019.
[6] David E. Rumelhart and James L. McClelland. On learning the past tenses of English verbs. In David E. Rumelhart, James L. McClelland, and CORPORATE PDP Research Group, editors, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 2: Psychological and Biological Models, Vol. 2, chapter On Learning the Past Tenses of English Verbs, pp. 216-271. MIT Press, 1986.
[7] S Pinker and A Prince. On language and connectionism: analysis of a parallel distributed processing model of language acquisition. Cognition, Vol. 28, No. 1-2, pp. 73-193, Mar 1988.
[8] Christo Kirov and Ryan Cotterell. Recurrent neural networks in linguistic theory: Revisiting Pinker and Prince (1988) and the past tense debate. Transactions of the Association for Computational Linguistics, pp. 651$665,2018$.
[9] Maria Corkery, Yevgen Matusevych, and Sharon Goldwater. Are we there yet? Encoder-decoder neural networks as cognitive models of English past tense inflection. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3868-3877, July 2019.
[10] Kate McCurdy, Sharon Goldwater, and Adam Lopez. Inflecting when there's no majority: Limitations of EncoderDecoder neural networks as cognitive models for German plurals. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1745-1756, July 2020.
[11] Bernard Bloch. Studies in colloquial Japanese I inflection. Journal of the American Oriental Society, Vol. 66, No. 2, pp. 97-109, April-June 1946.
[12] Adam Albright and Bruce Hayes. Modeling English past tense intuitions with Minimal Generalization. Morphological and Phonological Learning: Proceedings of the 6th Workshop of the ACL Special Interest Group in Computational Phonology (SIGMORPHON), pp. 58-69, July 2002.
[13] Adam Albright and Bruce Hayes. Rules vs. analogy in
English past tenses: a computational/experimental study. Cognition, Vol. 90, No. 2, pp. 119-61, Dec 2003.
[14] Jean Berko. The child's learning of English morphology. Word, Vol. 14, No. 2-3, pp. 150-177, August 1958.
[15] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
[16] Katharina Kann and Hinrich Shültze. Single-model Encoder-Decoder with explicit morphological representation for reinflection. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 555-560, August 2016.
[17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[18] Shijie Wu, Ryan Cotterell, and Mans Hulden. Applying the transformer to character-level transduction, 2020.
[19] Xiaomeng Ma and Lingyu Gao. How do we get there? evaluating transformer neural networks as cognitive models for english past tense inflection. In Proceedings of the 2nd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 12th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1101-1114, Online only, 2022. Association for Computational Linguistics.
[20] Sadao Kurohashi and Makoto Nagao. Treebanks: Building and Using Parsd Corpora, Vol. 14, chapter Building a Japanese parsed corpus while improving the parsing system, pp. 249-260. Kluwer Academic Publishers, 2003
[21] 浅原正幸, 松本裕治. ipadic version 2.7.0 ユーザー ズマニュアル, 2003. http://manual. freeshell.org/ chasen/ipadic-ja.pdf.
[22] Peter M. Suski. Conjugation of Japanese Verbs in the Modern Spoken Language. P. D. and Ione Perkins, 1942.
[23] 深津聡世, 原田宥都, 関澤瞭, 田村鴻希, 大関洋平. 深層学習モデルによる日本語動詞の双方向形態屈折の検証. 日本言語学会第 165 回大会予稿集, pp. 193-199, 2022.
[24] Charles Yang. The Price of Productivity. MIT Press, 2016.
[25] Brian MacWhinney. The CHILDES project: Tools for analyzing talk. Erlbaum, New Jersey, 1991. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-2.pdf | # 情報ボトルネック法を用いた視線・脳情報デコード手法の提案
原田宥都 大関洋平
東京大学大学院 総合文化研究科言語情報科学専攻
\{harada-yuto, oseki\}@g.ecc.u-tokyo.ac.jp
## 概要
人間がテキストを読む際の視線や脳活動の記録は,これまで主に人間の認知機能の理解のために用いられてきたが,近年ではこのような人間の認知データが自然言語処理タスクにおいても有益であることが分かってきた.しかし,認知データは特定の言語処理タスクにとって多くの無関係な情報を含むため,効率的に用いるのが難しく,また,なぜタスクの改善に寄与するのかについてもほとんど議論がなされていない. 本稿では, 視線や脳情報から特定のタスクに有益な情報のみを取り出す認知情報ボトルネック法を提案し,その性能を検証する。
## 1 はじめに
眼球運動や脳活動の記録は,人間の持つ言語能力がどのように機能するのかを理解する上で,重要な役割を担ってきた $[1,2]$. 近年の研究では,アイトラッキングデータや EEG により記録された脳波を用いて自然言語処理タスクを改善することができると報告されており [3]. この効果は固有表現認識や関係抽出,センチメント分析など,複数のタスクにおいて一貫して確認されている。これらの結果から, 視線や脳波などの情報が統語的情報, 語彙的情報,あるいは言語処理の際の認知負荷など様々な情報を含んでおり,それらが自然言語処理タスクにおいて有益な特徴となっていることが予想される. しかしながら,それぞれの認知データは言語処理の全ての過程を反映した情報であり,特定のタスクにとって無関係な情報を含んでいる. 特に脳波は一般的に高次元なデータであり, 特定のタスクでどの脳領域の情報が有用か,あるいはどの周波数帯域の脳波が有用か,などを事前に知ることは困難である.
そこで,本研究では,認知データから特定のタスクにとって有益な情報のみを取り出すための手法として,認知情報ボトルネック法を提案する. 具体的には,一般的な情報ボトルネック法 [4]を継承し,
それを同時に記録された視線と脳波に適用することで,マルチモーダル設定での学習に用いることのできる単一の埋め込み表現へ変換する.情報ボトルネック法の目的関数はタスクの精度を最大化しつつ入力情報をなるべく圧縮するものであり,視線や脳波の持つ様々な情報からタスクにとって必要な情報のみを取り出すことができる.またその際には次元数を削減することができるため, 次元数に大きく差のある視線と脳波を同時に学習に用いることが容易になる.
実験では,提案手法を用いて圧縮した認知データを用いることで,圧縮を行わなかった認知データを用いた時よりもタスクの精度が改善されることを検証した. その結果,圧縮した認知データは,行わなかったものやその他の単純な圧縮手法に比べて精度を改善することが分かった。
## 2 関連研究
## 2.1 人間の認知データを用いた言語情報の デコーディング
視線や脳波などの人間の認知データには,言語処理の過程など豊富な情報がエンコードされることが知られている。例えば,自然言語処理分野における脳情報デコーディングの研究には, 脳情報のみから発話内容を推定するスピーチデコーディング [5] や,脳情報から認識している単語の品詞を推定するもの [6] , 脳情報から読んでいる物語文の内容について推定するもの [7] など,様々な研究が存在する。 近年では自然言語処理タスクの改善を目的とした脳情報デコーディングも行われており,特に Hollenstein ら [8] は視線と脳波を同時に記録したデータセット [9]を作成し, マルチモーダル設定での実験を行っている. 彼らの実験では,周波数帯域を絞って脳波の一部を用いることで,脳波をそのまま用いるよりも精度が向上することが報告されている. タスクに対する認知データのノイズを除去するための手法は現在も検討されている途中であり,標準的な手法は
いまだ定まっていない.
## 2.2 情報ボトルネック法
情報ボトルネック法(Information Bottleneck, IB) [4] とは,情報理論の分野に起源を持つ手法であり,近年では機械学習において利用されている. ある信号 $x \in X$ から別の信号 $y \in Y$ を予測する際に, 予測に無関係である冗長な情報を取り除いた $X$ の圧縮表現 $T$ を見つけることが目的であり,次のように記述できる.
$
\mathscr{L}_{I B}=\beta I(X, T)-I(T, Y)
$
これは,相互情報量 $I(X, T)$ をなるべく最小化しながら $I(Y, T)$ を最大化すること, つまり, 圧縮表現 $T$ が $X$ についての情報を最大限破棄しつつも, $T$ が $Y$ を予測するために必要な情報は最大限保持するということを意味している。
実際に機械学習で用いる際は, [10] において (1) の効率的な変分推定が提案されており,以下のように導出された目的関数を用いる..
$\mathscr{L}_{V I B}=\beta \underset{x}{\mathbb{E}}\left[\operatorname{KL}\left[p_{\theta}(t \mid x), r(t)\right]\right]+\underset{t \sim p_{\theta}(t \mid x)}{\mathbb{E}}\left[-\log q_{\phi}(y \mid t)\right]$
ここで $r(t)$ は $p(t)$ の変分近似、 $q_{\phi}(y \mid t)$ は $p(y \mid t)$ の変分近似である。 $p_{\theta}(t \mid x)$ と $q_{\phi}(y \mid t)$ は独自のパラメータセットを持つニューラルネット,つまりエンコーダとデコーダであることを意味している.
## 3 実験
## 3.1 認知情報ボトルネック法
本研究で用いるモデルの概要図を図 1 に示す. 実験では固有表現認識タスクを行う。
## 3.1.1 入力特徵
視線特徵視線特徴は固視回数, 第一固視時間,総読み時間,注視時間,視線通過時間の 5 つからなる. 1 単語あたり 5 つの数値を用いた 5 次元のべクトルとして扱った. 視線情報を用いて固有認識表現の精度を改善した先行研究 [11] ではより細かく特徴を整理し,1 単語あたり全 17 の特徵から視線特徴を構成しているため, 本実験の視線特徴はより基礎的な構成であり,そのままの値ではタスクに有益にはなりづらいと予想される。
脳波特徵本実験では,105 個の電極から記録された EEGデータを脳波特徴として用いた. 視線特徵との対応を取るため, 脳波特徴は総読み時間に対応する数値を取り出している。また,周波数帯域ごとにそれぞれ $\theta(4-8 \mathrm{~Hz}), \alpha(8.5-13 \mathrm{~Hz}), \beta(13.5-30$ $\mathrm{Hz}), \gamma(30.5-49.5 \mathrm{~Hz})$ とデータを 4 つに分割している. そのため, 1 単語あたり 420 次元のベクトルとして脳波特徴を扱っている。
単語の埋め込み表現視線特徵, 脳波特徵と共に,言語モデルによる単語の埋め込み表現を用いる. 視線情報を用いて固有認識表現の精度を改善した先行研究 [11] では Glove[12] を用いているため,比較のために本実験では Glove を用いて実装した. そのため, 1 単語あたり 100 次元のベクトルとして単語の埋め込み表現を扱っている。
ノイズと認知データの比較認知データを入力特徵として用いた際にタスク精度が改善された場合, それが本当に認知データの影響であるかどうかを確認するために,同じ次元数のノイズベクトルを用いて比較実験を行う. 視線特徵に対しては 5 次元の,脳波特徴に対しては 420 次元のランダムノイズを用意する.
## 3.1.2 モデル内部のアーキテクチャ
情報ボトルネック法による圧縮認知データである視線特徵と脳波特徵については,情報ボトルネック法を用いた圧縮を行う,最適化は固有表現認識のデコーダの出力精度を改善するように行われる.視線特徴については 5 次元から 3 次元へ圧縮し, 脳波特徵については 420 次元から 50 次元へ圧縮する. これにより,情報ボトルネック法で圧縮された表現は固有表現認識のために必要な情報は残しつつ,それ以外の冗長な情報を捨てるように学習する。また,情報ボトルネック法を用いた結果と比較するために,単純な主成分分析を用いた次元削減も行う.
BiLSTM-CRF デコーダ視線特徴, 脳波特徴, 単語の埋め込み表現は結合し,1つの入力特徵として扱う.モデルの後段では,視線情報を用いて固有認識表現の精度を改善した先行研究 [11] との比較を行うために,同様のモデルである BiLSTM-CRF[13]を用いている.
## 3.2 データセット
本実験では,データセットとして Zurich Cognitive Language Processing Corpus (以下 ZuCo)[9]を用いた. このコーパスはアイトラッキングと EEG の記録を同時に行ったデータセットであり, 12 人の被験者に
図 1 提案手法の概要
よって読まれた約 1100 文を含む. 先行研究 [11] に合わせてこのうち 700 文を使用した. 固有表現のラベリングデータも提供されており,これは PERSON, ORGANIZATION, LOCATION の 3 種類のラベルによってタグづけされている.
## 3.3 実験設定
BiLSTM-CRF のハイパーパラメータとして,バッチサイズを 32 ,隠れユニットの数を 100 ,学習率を 0.007 とした. また情報ボトルネックエンコーダについて, 圧縮比率 $\beta$ を 0.0001 , 学習率を 0.007 とした. 圧縮次元数は視線特徵で 3 次元, 脳波特徴で 50 次元へ圧縮した. データセットは 8:1:1 に分割し, それぞれ訓練データ,開発データ,テストデータとして用いた. 実験は 3 種類のシード値を用いていて, 結果は全て 3 回平均の値である. 評価指標には適合率,再現率,調和平均を用いる。
## 3.4 実験結果
視線特徵を用いた実験の結果を表 1 に示す. Glove に視線特徴を追加したときと, 同じ次元数のノイズを追加したときでは,ほとんどスコアに差がなかった. このことから, 5 次元の視線特徴を Glove ベクトルに追加するだけでは, タスクの精度を改善するのに十分でないと考えられる. それに対して,情報ボトルネック法により圧縮した視線特徵を用いた場合 $(\mathrm{IB}(\mathrm{Gaze}))$ は, 次元数は 5 から 3 へやや減っ
表 1 視線特徴を用いた固有表現認識の結果
ているにも関わらず,精度がやや向上している. 改善幅は僅かであるが,情報ボトルネック法によりデータが正則化された可能性がある. 主成分分析により压縮した視線特徴を用いた場合 (PCA(Gaze)) では, Gloveのみの結果より僅かに改善された。
また, 先行研究 [11] と比較すると, 全体的に精度がやや劣る. 先行研究では単語の埋め込み表現として Glove のみではなく文字レベル RNNを用いているので,このことが影響していると考えられる.また, 先行研究では視線特徴を追加した際に精度が改善されているが,ここで先行研究では本研究とは異なり視線特徴をより細かい 17 次元の特徴で扱っていることに注意されたい. 17 次元の視線特徴による改善幅は, 本研究における 5 次元の視線特徴による改善幅とあまり差がなく,認知データからの人手による特徴の抽出は容易ではないことが示唆さ
れる。
表 2 脳波特徴を用いた固有表現認識の結果
次に,脳波特徴を用いた実験の結果を表 2 に示す.この実験では, 脳波特徴とノイズの次元数が共に 420 次元であり, Glove ベクトルの 100 次元と比べても大きい. 次元数の大きいノイズを含む入力特徴に大きく影響を受けたためか, Glove + EEG, Glove + Noise の設定ではどちらも精度が大きく下がっている. 420 次元の脳波特徴 (EEG) を扱うにはモデルのサイズが十分でなかったと考えられる. しかし,こちらの実験設定においても情報ボトルネック法を用いて脳は特徴を圧縮した結果が一番精度が高くなった. また, 視線特徴を用いた際の結果と比べても改善幅はより大きかった. 主成分分析による圧縮と比べても精度が高く, 情報ボトルネック法を用いたモデルの方が,ノイズの多い脳波の特徴からタスクに有用な情報を取り出すのに適しているのではないかと考えられる。
表 3 視線特徴と脳波特徴の両方を用いた固有表現認識の結果
最後に,視線特徴と脳波特徴の両方を用いた実験の結果を表 3 に示す. この実験では, 脳波特徴のみを用いた時の結果と同様に,次元数の大きいノイズを含む入力特徴に大きく影響を受けたためか, Glove + Gaze + EEG, Glove + Noise の設定ではどちらも大きく精度が下がっている。また,情報ボトルネック法によって視線特徴と脳波特徴の両方を圧縮している Glove + IB(Gaze) + IB(EEG) の設定では, Glove + IB(EEG) よりもやや精度が低くなった. 用いている特徵としては後者の方が少ないので,情報ボトルネック法を用いた学習はあまり精度が安定していない可能性がある.
## 3.5 考察
実験全体を通して言えることとして,今回用いたモデルでは,入力特徵を全て単純に結合しているだけであるため,特徴の次元数の差が大きく影響してしまうということが挙げられる. モデルアーキテクチャの改善方法として,認知データを用いたマルチモーダル設定での学習であると捉え,それぞれの入力特徴の重要性を次元数に左右されない形で扱うことが望ましいかもしれない。また,認知データをそのまま用いても精度が改善されるとは限らないということも分かった. それと同時に,情報ボトルネック法による圧縮や,単純な主成分分析など,必要に応じた次元削減はこのような認知データを扱う際には重要な要素であった. 今回の情報ボトルネック法のハイパーパラメータ設定については,より詳しく探索することで,さらに性能を向上させることができるかもしれない.
今後は, Glove ベクトルよりもより高性能な BERT[14] 等の単語埋め込み表現を用いた際にも,今回のような認知データによる改善が見られるのか,といったことや,BiLSTM-CRF デコーダをさらに最先端の固有表現認識デコーダに変更した場合にどのような影響があるのか,といった,実験設定による結果への影響を調べる必要がある。それに加えて,情報ボトルネック法によって認知データから取り出された情報はどのような内容であるのかを分析によって調べることで,なぜ認知データが自然言語処理タスクの改善に寄与することがあるのかを調べていく.
## 4 結論
本稿では,視線情報や脳活動情報といった人間の認知データを,自然言語処理タスクの改善により効率的に用いるための手法である認知情報ボトルネック法を提案した. 視線特徴や脳波特徴と単語埋め込み表現を単一の入力特徴として扱えるように変換し,認知データのノイズを除きつつ次元数を調整することができる本手法は,実験の結果,人間の認知データを用いて固有表現認識タスクの精度を改善することに成功した. 今後はより詳細な実験設定を検証しつつ,圧縮された認知データの内容を分析することで,人間の認知データがどのようにして言語処理タスクの改善に役立つのかを調べていく.
## 謝辞
本研究は、JST さきがけ JPMJPR21C2 の支援を受けたものです。
## 参考文献
[1] Brian Murphy, Leila Wehbe, and Alona Fyshe. Decoding language from the brain. Language, cognition, and computational models, pp. 53-80, 2018.
[2] Shouyu Ling, Andy CH Lee, Blair C Armstrong, and Adrian Nestor. How are visual words represented? insights from eeg-based visual word decoding, feature derivation and image reconstruction. Human brain mapping, Vol. 40, No. 17, pp. 5056-5068, 2019.
[3] Nora Hollenstein, Maria Barrett, Marius Troendle, Francesco Bigiolli, Nicolas Langer, and Ce Zhang. Advancing nlp with cognitive language processing signals. arXiv preprint arXiv:1904.02682, 2019.
[4] Naftali Tishby, Fernando C Pereira, and William Bialek. The information bottleneck method. arXiv preprint physics/0004057, 2000.
[5] David A Moses, Sean L Metzger, Jessie R Liu, Gopala K Anumanchipalli, Joseph G Makin, Pengfei F Sun, Josh Chartier, Maximilian E Dougherty, Patricia M Liu, Gary M Abrams, et al. Neuroprosthesis for decoding speech in a paralyzed person with anarthria. New England Journal of Medicine, Vol. 385, No. 3, pp. 217-227, 2021.
[6] Alex Murphy, Bernd Bohnet, Ryan McDonald, and Uta Noppeney. Decoding part-of-speech from human eeg signals. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2201-2210, 2022.
[7] Leila Wehbe, Brian Murphy, Partha Talukdar, Alona Fyshe, Aaditya Ramdas, and Tom Mitchell. Simultaneously uncovering the patterns of brain regions involved in different story reading subprocesses. PloS one, Vol. 9, No. 11, p. e112575, 2014.
[8] Nora Hollenstein, Cedric Renggli, Benjamin Glaus, Maria Barrett, Marius Troendle, Nicolas Langer, and Ce Zhang. Decoding eeg brain activity for multi-modal natural language processing. Frontiers in Human Neuroscience, p. 378, 2021 .
[9] Nora Hollenstein, Jonathan Rotsztejn, Marius Troendle, Andreas Pedroni, Ce Zhang, and Nicolas Langer. Zuco, a simultaneous eeg and eye-tracking resource for natural sentence reading. Scientific data, Vol. 5, No. 1, pp. 1-13, 2018.
[10] Alex Alemi, Ian Fischer, Josh Dillon, and Kevin Murphy. Deep variational information bottleneck. In Proceedings of the International Conference on Learning Representations, 2016.
[11] Nora Hollenstein and Ce Zhang. Entity recognition at first sight: Improving ner with eye movement information. arXiv preprint arXiv:1902.10068, 2019.
[12] Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pp. 1532-1543, 2014.
[13] Meizhi Ju, Makoto Miwa, and Sophia Ananiadou. A neural layered model for nested named entity recognition. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1446-1459. Association for Computational Linguistics, 2018.
[14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, June 2019. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-3.pdf | # 百聞は一見に如かず?視覚情報は言語モデルに文の階層構造を教示するか
栗林 樹生
東北大学 Langsmith 株式会社
kuribayashi@tohoku.ac.jp
## 概要
巨大言語モデルの進展が著しい反面,人間の言語獲得と対照すると言語モデルのデータ効率の悪さが強調される. 本研究では,なぜ人間の言語獲得が効率的なのかという問いを,人間と言語モデルの言語獲得シナリオのどのような差異を埋めると両者の乘離が縮むかという問いに読み替え,特に人間のみが言語獲得時に活用し得る視覚情報の寄与を調査する. 少なくとも本実験の範囲では,言語的な事前知識のない学習者(ニューラルモデル)がリアルな画像・文対から言語の適切な汎化規則を支持する手がかりを見出すことは容易でなく,単なる視覚情報の有無のみでは,人間と言語モデルの言語獲得効率の差異を説明できないことが示唆された。
## 1 はじめに
巨大言語モデルが進展を遂げた一方,人間の言語獲得効率の良さが対照的に強調されている. 例えば GPT-3 [1] は,人間が 10 歳までに享受する言語刺激のおよそ 2000 倍のデータで学習されており [2], 非常に単純な計算では人間の 20,000 年分の学習に匹敵する。それではなぜ人間は言語獲得のデータ効率が良いのだろうか?本研究では,この問いを言語モデルと人間のどのような差異を埋めることで両者の言語獲得効率の乘離が縮まるかという問いに読み替え,効率的な言語獲得が実現される十分条件について計算機上での概念実証を目指す.
本研究では特に, 記号接地 [4] や身体性 [5] の問題に関連する視覚情報の影響に焦点を当てる. 通常人間は,言語モデルと異なり,言語獲得中に視覚情報を利用でき,効率的な言語汎化に貢献している可能性がある. 実験では主語・動詞の数の一致を手がかりに,言語の階層的な汎化の達成に視覚情報が寄与するかを検証する(図 1).なお近年の視覚・言
図 1 実験の概要. 文に対応する視覚情報が,汎化規則の曖昧なデータの下での言語の階層的規則獲得を促進するか調査する。なお図中の画像は,例示のために DALL-E [3] で生成したものである.
語処理では大規模モデルの開発が盛んであるものの [6,7], 言語と視覚の相互作用に関する言語科学的な分析や学習過程の分析は限られている $[8,9]$.
リアルなキャプションデータを用いた実験では,文に対応する静止画像を単にモデルに入力するだけでは, 言語の階層的汎化は促されないことが観察された。一方,問題を抽象化・簡略化した人エデー タを用いた実験では,言語の階層的な汎化に対する視覚情報の著しい寄与が確認された. この設定ではデータの偏りやキャプションに関係のない視覚情報は捨象されており,閉じた世界の中で学習者が視覚情報の適切な抽象化をできた状況を想定している。
少なくともリアルなデータを用いた今回の実験からは,言語的な事前知識を持たない学習者(ニュー ラルネット)が,静止画像と文の対から自然言語の
表 1 画像キャプションペアの例. AmBIG. データでは,動詞に対応する主語と動詞に最も近い名詞の数が同じであり, DISAmBIG. データでは両者の数は異なる. AMBIG. データが大部分を占める学習データでモデルを訓練し,そこで学習された規則を DisAmbiG. データを用いて峻別する. 表中の画像は作成したデータセットから抽出したものである.
適切な規則性を見出すことは容易でないこと,人間と言語モデルの学習効率の違いは単なる視覚情報の有無のみでは説明できないことが示唆された. 一方人工データの結果を踏まえると,(i) 視覚情報を適切に抽象化する特別な視覚・言語能力を学習者に仮定できれば,視覚情報が言語獲得に良い影響を及ぼす可能性があることや,(ii) 実験で用いた事前学習済み画像エンコーダでは, リアルな画像から言語獲得に影響を及ぼすような視覚情報の抽出・抽象化ができていない可能性なども強調された.
## 2 背景
一般に,有限のデータから未知のデータへ汎化する際に汎化規則は一意に定まらず,規則の選択はモデルの帰納バイアスに左右される [10]. 言語獲得においても,幼坚が限られた言語刺激から適切な(階層的な)汎化を達成する現象を説明するには,学習者の強力な帰納バイアスが必要であると主張されてきた $[11,12]$. 一方,通常のニューラルモデルでは,表層的手がかりの利用や言語的に妥当な汎化を完全に達成できないなどの人間らしくない学習傾向があり $[13,14,15,16,17]$, 分野全体の問題として認知されている。またこのバイアスを覆すために大量のデータが必要であることも指摘されている $[14,15]$.
汎化を導く帰納バイアスとしては,学習者の性質に由来するもの(生得的要因)と, 学習データなどの学習環境に由来するもの(環境的要因)が想定され, 本研究では視覚情報の有無という環境的要因の影響を,計算機シミュレーションのもと調査する。言語理解における視覚情報の重要性は長らく説かれているものの [18], (人工知能の) 言語獲得の視点では,適切な言語知識なしに視覚情報を与えても,む
しろ表層的な疑似相関などの可能性が増え問題が過度に複雑になるといった批判もあり [19,20], 視覚情報が言語学習にどのような影響を与えるかは自明でない。なお図 1 のような線形・階層的な規則の対立において,人間が階層的汎化を好むことは心理実験などで検証されてきた $[21,22]$. また,ニューラルモデルを用いた計算言語学的な検証は条件を統制しやすいなどの利点をもち,人間を直接観察する方法論と相補的な役割を果たしてきた $[23,12,24]$.
## 3 問題設定
概要を図 1 に示す. 主語と動詞の数の一致の観点から,線形的・階層的規則両方に整合するキャプションデータのもとでキャプション生成モデル(視覚情報が利用可能な言語モデル)を訓練し,視覚情報の有無で言語の汎化傾向が変わるかを調べる.視覚情報のもとでは, 階層的規則に整合する動詞の数を選ぶ問題は,典型的にはその動作をしているものが 1 つかそれ以上かを数える問題となり(表 1),視覚情報により階層的規則に紐づく特徵量がより顕在的になる可能性がある1).
## 3.1 データ
既存の画像キャプションデータを収集したリアルなデータと,人工的に統制されたデータを用い,相補的な検証を行う.既存研究では人工コーパスでの実験が主流であり [16], 視覚モダリティを追加したとともにリアルなデータと人工的なデータで結果を比較したことも本論文の貢献である。
自然画像キャプション: Conceptual captions コーパス [27] から,以下を満たすデータを抽出した:
1)言語学的な数が,いわゆるものの数に必ずしも一致しないことは指摘されており,議論の余地はある $[25,26]$.
・キャプションに主語・述語が存在する 2$)$
・キャプションの主語が family, pair of など単複判断の難しい集合名詞・表現でない
・キャプションに文法誤りがない3)
これらのうち,主動詞の数と直前の名詞の数が同一である,線形的・階層的規則を峻別できないデータ (AmBIG.) と, 主動詞の直前の名詞と同士の数が異なる,階層的規則を支持するデータ (DisAmBIG.) に分けた (表 1). DisAmbig. のような階層性を明示するデータは実際の言語刺激において非常に少ないという議論(刺激の貧困) $[28,21]$ をもとに,本研究では Ambig. データと DisAmbig. データが 100:1 になるように学習データ(計 352,359 画像キャプションペア)を作成した ${ }^{4)}$. 残りの DisAmbig. データ $(1,269$ ペア)を評価データとした。
人エ画像キャプション: NUM1 COLOR1 SHAPE1 with NUM2 COLOR2 SHAPE2 VP というテンプレートから文と画像をルールで生成した(付録 A). 表 1 に例を示す. VP の主語は SHAPE1 であり, 画像中ではVP と SHAPE1 オブジェクトが近接し, 文中では数(屈折) が一致している。この設定では少なくとも,自然なデータがもつ以下の性質を捨象している:
- 単語や画像の特徵に関するクラス不均衡性・多クラス性・クラスの開放性
・着目すべき対象以外の視覚情報(背景など)
-ものや動作の呼び名と視覚特徴間の多対多関係
- 動作主と動作の視覚的に自然な構成(「人が走る」画像では,本来人の姿勢が変わるべきだが,本データでは「走る」を示す画像を「人」の画像に重ねるようなアプローチをとっている)
上で述べた手続き同様, 数の一致から AMBIG. デー タと DisAmbiG. データに分け,100:1 で混ぜたものを学習データ (16,500 ペア), 残りの DisAmBIG. デー タを評価データ(11,300 ペア)とした.
## 3.2 評価
評価データにおいて,動詞の数のみが異なる $2 \supset$ のキャプションを用意し (例えば,a red circle with three black circles plays/play a soccer), 対応する画像を入力したもと, どちらのキャプションに高い生成確率を付与するかを観察する。階層的規則に整合する
キャプションを正解とし,二值分類問題としてモデルの選好を Macro F1 值で評価した。キャプション生成能力の目安として,開発用データ5)で ROUGE-L F1 值 [29] ${ }^{6)}$ も計算した. また言語獲得効率に関心があるため,学習初期ステップでの値も報告する.
## 3.3 モデル
Transformer 系列変換モデルを用いる [30]. ただし入力が画像,出力が文となるキャプション生成モデルであり,エンコーダには Vit [31] などの事前学習済みエンコーダを,デコーダには GPT-2 small (124M) [32]アーキテクチャに交差アテンションを追加したものを採用する7) . 直観的には,交差アテンションを通して視覚情報にアクセス可能な(文レベル)言語モデルである.視覚情報を与えない設定では学習・推論時共に無情報なノイズ画像を入力する. ゼロからの言語獲得シナリオを想定し, デコー ダは初期化して学習を始めた. また,交差エントロピー誤差でモデルを訓練する。
エンコーダの初期値・構造として,大きさの異なる 3 つの Vit (base/large/huge) [31] と, Beit (base) [33], Deit (base) [34], Swin (base) [35] の計 6 種類を試し, モデル横断的な結論の一般性を検証する (付録 B).参考として,画像エンコーダを Vit-base にした上でパラメータ初期化した設定 (Scratch) と,デコーダに学習済み GPT-2 [32] を用いる設定 (Vit-GPT2) も試した. ハイパーパラメータは付録 C に記載する。
## 4 実験・結果
各設定において異なる 2 つのシードでモデルを訓練し,いずれの指標においても平均値を報告する.自然/人工画像キャプション実験における $10,000 / 500$ ステップはおよそ 2 エポック目終了時点である.
自然画像キャプション: 画像情報の有無による階層的汎化傾向の違いを表 2 中央に示す. 学習初期において,視覚情報は階層的沨化を促す方向にはあるものの,変化は限定的であった.画像を入力とする設定では ROUGE-L F1 值は 3-40程度に達しており,画像情報が活用されていることは確認できる. また,例えば 1000 ステップ目における階層的汎化への寄与 (階層的汎化における。- 行) に着目すると, 画像エンコーダの性能指標として用いられる ImageNet
表 2 学習過程におけるモデルの階層的規則への選好 (階層的汎化 F1 值)とキャプション生成能力 (ROUGE-L F1 値). $1,000,5,000,10,000$ といった数字はパラメータ更新ステップ数を示す. 目行は視覚情報ありのモデルの性能を示す.
響を与えたことを意味する。また参考として,各画像エンコーダのパラメータ数を一列目括弧内記記載し,エンコーダの ImageNet top-1 正解率の報告値も載せる.
} \\
正解率の高いエンコーダ(Vit-large, Swin-base)やパラメータ数の大きいエンコーダ(Vit-huge)が必ずしも好影響を与えているわけではなく,画像処理的な指標で良い画像エンコーダや巨大なエンコーダが必ずしも言語モデリングに適切なバイアスを与えるとは限らない可能性も予想した(付録D)。なお Vit-GPT2 では, 学習初期からほぼ完全な階層的汎化を達成しており, 大規模な言語データの観察のもとでは対処可能な問題設定であった.また今回はコーパスを基に学習データへの DISAmBIG. データの $1 \%$ の混入を認めたが,この程度の混入でも最終的に階層的汎化に選好が寄ることは確認された。また DISAmbIG. データが $0 \%$ の場合でも予備実験をしており,この場合は線形的汎化に選好が寄り,一貫して視覚情報の好影響は観察されなかった。
人工画像キャプション: 結果を表 2 右部に示す. 学習初期(100 ステップ)において,視覚情報が階層的汎化を顕著に促しており, 言語の階層的規則の効率的な獲得が達成された. 学習初期において, 事前学習済みエンコーダを用いた際の階層的汎化の向上幅は Scratch(+5.10)よりも大きく, 視覚的事前知識が言語の階層的汎化を促していた. なお視覚情報
のない設定でもモデルごとに性能が異なり,この設定ではエンコーダが画像処理以外の用途 (入力非依存なメモリなど [36])で活用された可能性もある.
## 5 考察・おわりに
ニューラルモデルがリアルな画像・文対から自然言語の階層性を学ぶ手がかりを得ることは困難であることが示唆された. 人工画像キャプションでの対照的な結果を踏まえると,自然な画像・言語特有の性質が視覚情報からの言語獲得を困難にしている可能性が示唆され, 言語獲得の視点からは, (i) 視覚情報は言語獲得に寄与し得るが,リアルな視覚情報を適切に抽象化し言語と対応付ける能力を先立って獲得しておく必要がある,あるいは (ii) 視覚情報は言語の階層的な汎化に直接影響を与えないという仮説が導かれる.自然・人工データのどのような差異が結論の違いに紐づくのか人工データを制御して調査する方向や,データを幼児の言語獲得シナリオに近づける(絵本など)方向,韻律情報など他のモダリティを取り入れる方向などは今後検討している. また本研究は自然言語処理, 画像処理, 計算心理言語学の 3 領域をまたぐ学際研究として意義がある.
## 謝辞
日頃から助言いただいた乾健太郎先生,鈴木潤先生,原稿に助言いただいた小林悟郎氏をはじめ Tohoku NLP グループの皆様に感謝申し上げます. YANS 2022 にてコメントをくださった皆様にも感謝いたします. 本研究は,JST,CREST,JPMJCR20D2 の支援を受けたものである.
## 参考文献
[1] Tom B Brown, et al. Language Models are Few-Shot Learners. In Proceedings of NeurIPS.
[2] Alex Warstadt and Samuel R Bowman. What artificial neural networks can tell us about human language acquisition. Algebraic Structures in Natural Language, p. 17, 2022.
[3] Aditya Ramesh, Mikhail Pavlov, Gabriel Goh, Scott Gray, Chelsea Voss, Alec Radford, Mark Chen, and Ilya Sutskever. Zero-Shot Text-to-Image generation. Technical report, February 2021.
[4] Deb Roy and Ehud Reiter. Connecting language to the world. Artificial Intelligence, Vol. 167, No. 1-2, pp. 1-12, September 2005.
[5] Lawrence W Barsalou. Grounded cognition. Annual Review of Psychology, Vol. 59, pp. 617-645, 2008.
[6] Jean-Baptiste Alayrac, et al. Flamingo: a visual language model for Few-Shot learning. arXiv:2204.14198, April 2022.
[7] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. Hierarchical Text-Conditional image generation with CLIP latents. arXiv:2204.06125, April 2022.
[8] Alexander Ororbia, Ankur Mali, Matthew Kelly, and David Reitter. Like a baby: Visually situated neural language acquisition. In Proceedings of ACL.
[9] Tristan Thrush, Ryan Jiang, Max Bartolo, Amanpreet Singh, Adina Williams, Douwe Kiela, and Candace Ross. Winoground: Probing vision and language models for visio-linguistic compositionality. In Proceedings of CVPR, pp. 5238-5248, 2022.
[10] Tom M Mitchell. The need for biases in learning generalizations.
[11] Noam Chomsky. Rules and representations. Behavioral and Brain Sciences, Vol. 3, No. 1, pp. 1-15, March 1980.
[12] R Thomas McCoy, Robert Frank, and Tal Linzen. Revisiting the poverty of the stimulus: hierarchical generalization without a hierarchical bias in recurrent neural networks. Proceedings of Cogsci, 2018
[13] Morten H Christiansen and Nick Chater. Toward a connectionist model of recursion in human linguistic performance. Cognitive Science, Vol. 23, No. 2, pp. 157-205, 1999.
[14] Alex Warstadt and Samuel R Bowman. CAN NEURAL NETWORKS ACQUIRE a STRUCTURAL BIAS FROM RAW LINGUISTIC DATA? In Proceedings of Cogsci, 2020.
[15] Alex Warstadt, Yian Zhang, Xiaocheng Li, Haokun Liu, and Samuel R Bowman. Learning which features matter: RoBERTa acquires a preference for linguistic generalizations (eventually). In Proceedings of EMNLP.
[16] R Thomas McCoy, Robert Frank, and Tal Linzen. Does syntax need to grow on trees? sources of hierarchical inductive bias in Sequence-to-Sequence networks. TACL, Vol. 8, pp. 125-140, 2020.
[17] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of ACL.
[18] Emily M Bender and Alexander Koller. Climbing towards NLU: On meaning, form, and understanding in the age of data. In Pro- ceedings of ACL.
[19] Lila R Gleitman and Henry Gleitman. A picture is worth a thousand words, but that's the problem: The role of syntax in vocabulary acquisition. Current Directions in Psychological Science, Vol. 1, No. 1, pp. 31-35, February 1992.
[20] Emmanuel Dupoux. Cognitive science in the era of artificial intelligence: A roadmap for reverse-engineering the infant languagelearner. Cognition, Vol. 173, pp. 43-59, 2018.
[21] Julie Anne Legate and Charles D Yang. Empirical re-assessment of stimulus poverty arguments. The Linguistic Review, Vol. 19, No. 1-2, pp. 151-162, June 2002.
[22] Stephen Crain and Mineharu Nakayama. Structure dependence in grammar formation. Language, Vol. 63, No. 3, pp. 522-543, 1987.
[23] M W Crocker. Computational psycholinguistics. Computational Linguistics and Natural Language, 2010.
[24] J D Lewis and J L Elman. Learnability and the statistical structure of language: Poverty of stimulus arguments revisited. Proceedings of the 26th annual Boston University, 2001.
[25] Benjamin Spector. Aspects of the pragmatics of plural morphology: On Higher-Order implicatures. In Uli Sauerland and Penka Stateva, editors, Presupposition and Implicature in Compositional Semantics, pp. 243-281. Palgrave Macmillan UK, London, 2007.
[26] Eytan Zweig. Number-neutral bare plurals and the multiplicity implicature. Linguistic Philosophy, Vol. 32, No. 4, pp. 353407, August 2009
[27] Piyush Sharma, Nan Ding, Sebastian Goodman, and Radu Soricut. Conceptual captions: A cleaned, hypernymed, image alt-text dataset for automatic image captioning. In Proceedings of ACL.
[28] Noam Chomsky. Problems of Knowledge and Freedom: The Russell Lectures. New York: W.W. Norton, 1971.
[29] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Proceedings of text summarization branches out, pp. 74-81, 2004.
[30] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of NIPS, pp. 59986008, 2017.
[31] Alexey Dosovitskiy, et al. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In Proceedings of ICLR, 2020.
[32] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. Technical report, OpenAI, 2019.
[33] Hangbo Bao, Li Dong, Songhao Piao, and Furu Wei. Beit: Bert pre-training of image transformers. In Proceedings of ICLR, 2021.
[34] Hugo Touvron, Matthieu Cord, Matthijs Douze, Francisco Massa, Alexandre Sablayrolles, and Herve Jegou. Training data-efficient image transformers \& distillation through attention. In Marina Meila and Tong Zhang, editors, Proceedings of ICML, Vol. 139, pp. 10347-10357. PMLR.
[35] Liu, Lin, Cao, Hu, Wei, Zhang, Lin, and Guo. Swin transformer: Hierarchical vision transformer using shifted windows. In Proceedings of ICCV.
[36] Mor Geva, Roei Schuster, Jonathan Berant, and Omer Levy. Transformer Feed-Forward layers are Key-Value memories. In Proceedings of EMNLP
[37] Ekin D Cubuk, Barret Zoph, Jonathon Shlens, and Quoc V Le. Randaugment: Practical automated data augmentation with a reduced search space. In Proceedings of CVPRW, pp. 702-703. IEEE, June 2020
[38] Xiaohua Zhai, Alexander Kolesnikov, Neil Houlsby, and Lucas Beyer. Scaling vision transformers. In Proceedings of CVPR, pp. 12104-12113, 2022.
## A 人工画像キャプションの生成
以下のようにテンプレートから文を作成した.
a lime circle with two red triangles runs
NUM1 COLOR1 SHAPE1 with NUM2 COLOR2 SHAPE2 VP
対応する画像を表 1 の例のように自動生成した. 各記号に対応する語彙と対応する画像オブジェクトを表 3 に示す. NUM2 COLOR2 SHAPE2 オブジェクトは各 NUM1 COLOR1 SHAPE1 オブジェクトの上部に小さく配置し,VP オブジェクトはNUM1 COLOR1 SHAPE1 オブジェクトの中央下部に配置している. 色の重複を防ぎ,計 $3 \times 3 \times 5 \times 4 \times 4 \times 4 \times 10=28,800$ 種類の画像を生成した $(16,500$ 学習データ,1,000 開発データ,11,300 評価データ).
表 3 人工画像キャプション作成時の語彙と画像特徴
## B 画像エンコーダ
各画像エンコーダの性質を簡潔に説明する. ImageNet-21k(22k) の上で訓練されたモデルを用い,解像度は $224^{2}$ ,パッチサイズは16(に近いもの)に統一している.
Vit [31] 画像を分割したパッチをトークンとみなしてエンコードする.以下の実装を用いた:https: //huggingface.co/google/vit-base-patch16-224-in21k, https: //huggingface.co/google/vit-large-patch16-224-in21k,
https://huggingface.co/google/vit-huge-patch14-224-in21k.
Beit [33] Vit は画像分類タスクで学習されているのに対し, Beit では画像上でマスク穴埋め形式の自己教師あり事前学習をする。また,絶対位置埋め込みを用いるVit とは異なり,相対位置埋め込みを用いている。実装は, https://huggingface.co/ microsoft/beit-base-patch16-224-pt22k-ft22kを用いた.
Deit [34] 特殊な知識蒸留法によって,モデルサイズと訓練コストを削減した.実装は,https://huggingface.co/facebook/ deit-base-distilled-patch16-224を用いた
Swin [35] 異なる粒度で画像のパッチ分割を行い,局所的な処理を適用することで計算コストを抑えつつ,画像の階層的な特徴量を抽出する. 実装は, https://huggingface.co/ microsoft/swin-base-patch4-window7-224-in22kを用いた.
## C ハイパーパラメータ
全モデル共通のハイパーパラメータを表 4 に示す. エンコーダのハイパーパラメータは対応する huggingface モデルの設定に従い,ドロップアウト率のみを上書きしている.画像を提示する設定では,過学習を防ぐため学習画像に対し随時 RandAugment [37] を適用し,更に $20 \%$ の確率で実際の画像をノイズ画像に置き換えた. パラメータの固定はしていない.
表 4 共通のハイパーパラメータ
\\
## D 画像エンコーダのスケーリング
画像エンコーダに関して, ImageNet 画像認識性能についてスケーリング則が報告されている [38]. ImageNet での画像認識性能と階層的汎化の促進度に単調な関係がないことから,言語モデルに階層的なバイアスを与える画像エンコーダはスケーリングの結果得られるとは限らないことが予想された. なお本文では言及していないが,Beit-large, Swin-large, Deit-small, Deit-tiny でも実験をしており,より幅広い画像認識性能を持つエンコーダ間で傾向を比較した。傾向を図 2 に示し,画像認識性能が良いエンコーダほど,言語の階層的な汎化を促すとは限らない.
図 2 自然画像キャプションデータでの学習 1000 ステップ目における,画像エンコーダの ImageNet top-1 正解率と階層的汎化 $\mathrm{F} 1$ 值の向上度合いの関係. 各点は各訓練試行に対応し,計 20 試行 $=\{$ 画像エンコーダ 10 種 $\times 2$ シード $\}$ の結果である。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-4.pdf | # 日本語 WiC データセットの構築と読みづらさ検出への応用
吉田あいり 河原大輔
早稲田大学理工学術院
yoshida-a.waihk@ruri.waseda.jp, dkw@waseda.jp
## 概要
本論文では, 日本語文の読みづらさを定量的に評価することを目的とし, 語義曖昧性に基づく手法を提案する. 2 文に含まれる同じ単語の語義が一致するかを判定する WiC (Word in Context) データセット [1] の日本語版である JWiC を構築し, このデータセットを使用した語義曖昧性判定に基づく読みづらさの検出を行う. 評価はクラウドソーシングを活用し, 約 7 割の精度で読みづらさの検出ができることを確認した。
## 1 はじめに
文章を読む機会は多く,その文章が読みやすいことは消費時間と理解力に良い影響となる.そのため,執筆者の意図が誤って伝わる要素の排除が望まれる. 本研究では執筆支援システムにおいて想定される読点の挿入や語順整理といった文の読みやすさの改善の前段階として, 読みづらい文を自動的に検出することを目的とし, 改善自体は執筆者に委ねる。
読みづらさを扱うにあたり曖昧性に着目する.曖昧性は構造的なものと意味的なものがある. 構造的曖昧性とは構造解釈に複数の選択肢があることであり, 我々はこれに着目した読みづらさの検出手法 [2] を提案した. 意味的曖昧性の一つに語義曖昧性がある. 例えば「動きを踏まえた分析」という文が与えられた時に「動き」が傾向を表すのか実際の活動を表すのかの判別が付かないというようなものである. 本研究では語義曖昧性に着目し, まず, 2 文に含まれる同じ単語の語義が一致するかを判定する WiC (Word in Context) データセット [1] の日本語版である JWiC を構築する. JWiC は日本語フレームネットから構築するが, それだけだとデータ数が少ないため, データ拡張を行う. 最後に, 拡張した JWiC を使用した語義曖昧性判定に基づき読みづらさの検出を行う.
## 2 関連研究
## 2.1 WiC
言語理解のためのベンチマークとして SuperGLUE [3] が構築されており,8つのタスクのうちの 1 つである語義曖昧性解消タスクが WiC (Word in Context) [1] である. 2 文に含まれる多義語である同一単語が同じ語義で使用されているかを判断する 2 値分類のタスクである. 多言語 $\mathrm{WiC}$ データセットとして XL-WiC [4] が整備されているが, 完全に整備されている言語はドイツ語, フランス語, イタリア語に止まり,その他の言語は $\operatorname{dev}$ と test データのみである. 日本語もこれに含まれているが, 1,000 組程度と数が少なく, 言語資源として活用するのは困難である. 従って, 日本語データセットの構築が求められているのが現状である.
## 2.2 読みづらさの分析
人間の読みづらさは読み時間を用いて評価されており, 読み時間を主軸とした分析がされる. 日本語の読み時間データは BCCWJ-EyeTrack が整備・分析されており [5], 読解時間と統語・意味カテゴリの対比分析 [6] もなされている. また, 文の意味的曖昧性の高さが構造的曖昧性の解消・保留に影響することがわかっている $[7,8]$. 他にも個別の言語現象が読み時間に与える影響に対して分析が行われている $[9,10]$. また, サプライザル理論に基づいて統一的に解釈できるかという仮説検証もなされている [11]. 読み時間の様々な傾向がサプライザルでも再現され, 情報量の観点から解釈できることが示されている.
これらは既存の読みづらさの研究であり, 我々は構造的曖昧性を利用して読みづらさを検出する手法を提案した [2]. 構造的曖昧性とは構造解釈に複数の選択肢があることである。
## 3 日本語版 WiC の構築
本研究では, 日本語フレームネット (JFN) [12]を用いて日本語版 $\mathrm{WiC}(\mathrm{JWiC})$ の構築を行う. オリジナルの WiC は多様性とバランスに注目しており, JWiC においてもこれを重視し収録語彙の汎用性を高めることを目指す. 以下では, JFN の特徴の確認からはじめ, 構築の流れ, モデルによる評価までを述べる。
## 3.1 日本語フレームネット (JFN) の概要
JFN は日本語における語彙・複合言語資源であり,言語形式とその意味の関係を背景知識 (フレーム) との関係で捉えている. 対象語句を含む例文にフレー ムがアノテーションされている.例えば「持つ」に関する以下の例文には次のフレームが付与されている.
1. “報告を持ってきた $\cdots$ : Bringing
2. 一在庫の持ち方を変えて $\cdots$ : Storing
3. 一特許権を持っています。:Possession
収録語彙は 5,000 語程度であり, 名詞が半分以上を占め, 名詞と動詞でほとんどを占めている. また, 単語ごとに定義されているフレーム数にも偏りが大きく, 最大で 11 フレームを持つ. フレームが付与されている例文の長さは 50 字程度が最も多く, 大抵の例文は 200 字以内の長さをとっている. また,「雇用再生集中支援事業」のような固有名詞が含まれていることから, 対象が汎用語句に留まらないことが問題であり, 活用にあたってフィルタリングが必要となる。
## $3.2 \mathrm{JWiC$ の構築手法}
JWiC の構築は, JFN 例文のフィルタリング, 例文のペアリング, 作成したぺアのクラウドソーシングによる検証という 3 段階で行う。
JWiC を特定単語に特化したものではなく, 汎用性を高めるために対象語句を制限する. 適切な汎用性を保つために, 対象語句の構成単語数とフレーム数に着目する. 本研究では 4 単語以上で構成されるものと, 6 フレーム以上定義されている語句を除くこととした. 次に, 対象語句の制限に続いてバランスの調整を行う. 例文は, 文として成立していることと簡潔であることが求められるため, 例文長は 15 字以上 100 字未満とする.
WiC の形式にするために, 対象語句ごとに例文の表 1: JWiC の例
\\
表 2: クラウドソーシングの結果における正答率の平均と四分位数
ペアを作成する.ここで, 1 対象語句に対して例文ぺア数は 50 ペアまでと制限することで偏りを少なくする.ペアである 2 文が持つフレームが一致するか否かで $\mathrm{WiC}$ 用のラベル「同じ」「違う」を付与する。例を表 1 に示す。
作成したデータに関して, 付与されたラベルの妥当性を確認するためにクラウドソーシングによる検証を行う.ここで, 人手であらかじめ正解ラベルを付与したチェック設問の正答率を確認することでクラウドワーカーの品質を保証する.チェック設問は最も正答率が低いもので $70 \% を上$ 回るものを使用し,平均 8 割程度の正答率のものを選択した. クラウドワーカーには短文によって例を提示し,チェック設問があることを説明している. 文ペアを提示し, 対象語句の語義が「同じ」か「違う」かを選択してもらうが, 適当な回答をできる限り取り除くために「わからない・判断できない」という選択肢も用意した. クラウドソーシングには Yahoo!クラウドソーシングを使用し, 1 ペアに対して 20 人から回答を回収した.解答の結果は表 2 の通りで, クラウドワーカーの正答率のばらつきを確認するために四分位数を示す.
この結果から極端に精度の悪い文ぺアを除いて JWiC の完成とする. JFN フレーム付けは細かく, 見分けのつかないものも含まれるため正答率がさほど高くならなかったと考えられる. 3,230ペアに対して精度が 0.35 以上のものを採用し 2,495 ペアを得た。含まれる対象語句は 259 個である.
## 3.3 モデルによる評価実験
JWiC を用いて, 事前学習モデル BERT [13] をファインチューニングし, 評価実験を行う. JWiC は, 2 文における同一語句が同じ語義で使用されているか否かを判定する 2 値分類タスクである. そのため, 入力文中のどの語句が対象であるかを明示する必要がある.そこで, BERT の埋め込みに対象語句を示す
図 1: Target Embeddings の導入
Target Embeddings を導入する. 図 1 に概要図を示す. JWiC のデータは [train:validation:test] = [0.75:0.1:0.15] の比率で分割し, NICT BERT (BPE
いて, JWiC の行が対象語句を明示しないモデル, $\mathrm{JWiC}_{\text {Target }}$ の行が Target Embeddings を使用したモデルを表し, test セット列の $\mathrm{JWiC}$ が分類精度である。 Target Embeddings を用いることでモデルが対象語句を認識し, $1.1 \%$ の精度向上が見られた。
## 4 JWiC の拡張
前節で構築した JWiC は 259 個の対象語句からなり, 読みづらさ検出に応用するには対象語句が少ない. そのため JWiC のデータ拡張に取り組む.
## 4.1 単語親密度を用いたデータ拡張
データ拡張は, 追加する対象語句の選定, 例文の収集・ペアリング, 作成したペアのアノテーションという 3 段階で行う。
追加する対象語句の選定にあたり, 読みづらさ検出を執筆支援システムに応用することを考慮する. 筆記において使用される語句による拡大を行うために単語親密度を用いる.「分類語彙表」増補改訂版データベースに親密度情報が付与された WLSP-familiarity ${ }^{2)}$ を使用する [14]. 対象単語の選別に単語親密度の「書く」の項目を使用し, ある程度筆記に使われる語句を採用し, かつ解釈に迷わないものは省くために 0.5 から 1.2 未満 3 ) のものを対象とし収集した. 特殊文字を含むものやカタカナを含むもの, また, 2 単語以上からなるものを削除した. 対象をさらに使用頻度が高いものとするために, 品詞を動詞と形容詞に絞り, 最終的に 700 語句を収集した.
得られた対象語句に対して, 対象語句を 1 つのみ
表 3: 拡張データのラベル分布
を含む例文を「用例.jp ${ }^{4}$ 」から収集する. 収集した例文からぺアを作成する. 同じ対象語句に対する例文ペア数は 10 ペアまでとし, JWiC にすでに含まれる対象語句に関しては数を減らすことで追加データに関してもバランス調整を行う.
得られた例文ぺアに対して, 対象語句における語義が一致するか否かのアノテーションをクラウドソーシングで行う. 3.2 節と同様に, クラウドワー カーに [同じ, 違う,わからない・判断できない]の 3 択から選択してもらう.チェック設問は 3.2 節と同様のものを使用した. 5,222 ペアに対して 10 人分の回答を収集した。
得られた回答集合を用いて, 回答比率を考慮した平均スコアに基づきラベル付けを行う. まず, [同じ,違う, 不明] の各回答を $[1,-1,0]$ の数値と見做して, 10 人の回答の和をスコアとする. 閾値 $m$ を使用し, $[-10,-m),[-m, m],(m, 10]$ の範囲において [違う, 棄却, 同じ]と分類を行う. $m$ の值はラベルの偏りが大きすぎず, かつ判別のつかない文ぺアが十分に除かれるように選択する. 本研究では閾值 $m=2$ を採用した. 拡張したデータのラベル分布を表 3 に示す.
## 4.2 モデルの再学習と評価
データ拡張の前後における $\mathrm{JWiC}$ の精度変化を確認する.まず, 拡張したデータを学習データにのみ追加した場合の精度を表 4 の JWiC+ExTrain および
て, 元の JWiC の対象語句についてはドメイン外の学習データが増えたが, Target Embeddings を用いたモデルは精度が落ちなかった.
次に, 拡張したデータを JWiC の train, validation, test セットに追加し評価した. この新しい test セットによる精度を表 4 の $\mathrm{JWiC}+\mathrm{Ex}$ 列に示す. 新しい train セットで学習したモデルの精度を JWiC+Ex と $\mathrm{JWiC}+\mathrm{Ex}_{\text {Target }}$ の行に示す. 元の $\mathrm{JWiC}, \mathrm{JWiC}_{\text {Target }}$ モデルと比べて精度が向上していることが分かる. また, 各モデルにおいて Target Embeddings はやはり効果があることを確認した.
次節で述べる語義曖昧性判定による読みづらさ検出と評価においては, 拡張データを含めて学習した
表 4: 各モデルの分類精度
(a) 曖昧でない場合
(b) 曖昧な場合
図 2: 語義曖昧性検出の例
BERT モデル (Target Embeddings あり)を使用する.
## 5 読みづらさの検出
## 5.1 読みづらさの検出方法
読みづらさの検出は, 入力文中の対象語句が語義曖昧性を持つかを判定することによって行う. 語義曖昧性の判定は, 対象語句が持つ語義ごとに例文 1 つと入力文で文ペアを作り, WiC タスクを実施することによって行う. 複数の語義の例文と「同じ」と判定すれば複数の語義の可能性があり曖昧, 1 つのみと同じであれば曖昧でないとする. 図 2a の場合では,「このいちごは甘い」という入力文は「とても甘いお菓子」のみと一致しており, 入力文中の「甘い」 において使用されている語義が明白である.一方, 図 $2 \mathrm{~b}$ の場合では, 傾向を示す「動き」と実際の活動を示す「動き」のどちらとも一致するため, どの語義で使用されているかが不明となり, 曖昧と判定される.
## 5.2 評価用データセットの作成と評価
$\mathrm{JWiC}$ から評価用データセットを作成する. 対象語句が持つ全ての語義との比較により評価するため,各語義から例文を 1 文ずつ選択する. [A, B] という 2 種類の語義を持つ場合は, $[\mathrm{A}, \mathrm{A}, \mathrm{B}]$ の語義が付与された例文セットを抽出し, 語義 $\mathrm{A}$ を持つ例文 1 文を評価対象文とする.これにより 184 セットを得た。表 5: 閾値ごとのラベル分布と語義曖昧性の検出精度
次に,各セットにおいて評価対象文が語義曖昧性を持つか否かのアノテーションを行う.これは, JFN のフレーム情報を用いるのではなく,一般的な人間による語義曖昧性の判断を得るために行う. 評価対象文に対して, どの例文が同じ語義であるかの複数選択式でクラウドソーシングにより 10 人分の回答を収集した.この回答をもとに 2 つ基準を設けて,正解ラベルを作成した. 1 つ目は回答が分散していれば曖昧であり, 2 つ目は複数の語義の例文を選択していれば曖昧であるという基準である. まず, 最も回答数が多い選択結果 (セットで扱う) に対して $\mathrm{n}$ 人以上の回答が一致したものは回答が分散していないとみなし, $\mathrm{n}$ 人未満であれば分散しているため曖昧とみなす. $\mathrm{n}$ は 6 から 8 の値において試行した. 次に, $\mathrm{n}$ 人以上が一致した選択結果において, 複数の例文が選択された場合は曖昧であり,単一であれば曖昧でないとする.
各閾値 $\mathrm{n}$ おける曖昧か否かのラベル数と, 曖昧さ検出の精度を表 5 に示す. $\mathrm{n}=6,7$ においては 7 割程度の精度を達成しており, 語義曖昧性に基づく読みづらさの検出がある程度できた. $\mathrm{n}=8$ において精度が低下したのは, 閾値が厳しいために, 分散しておらず, 本来曖昧でない回答についても曖昧であるというラベル付けとなったことが原因と考えられる。
## 6 終わりに
本研究では, JFN を使用した JWiC の構築及びデー 夕拡張を行い,これを応用して語義曖昧性に着目した読みづらさの検出を行った. 構造的曖昧性に続き語義曖昧性も絶対評価は難しく, 本研究では $\mathrm{WiC}$ 夕スクを語義の数だけ行う形で評価を行った.
収集した例文に対して語義の一致という 2 値分類のタスクに落とし込むことで, 語義ラベルを付与する必要性を排除した.これにより比較的容易にデー 夕拡張が可能となる. 評価においては語義ラベル自体は必要ないものの, 語義数分の例文収集が必要となる. 本研究では JWiC に含まれる対象語句を活用した評価を行ったが,今後,対象語句を拡張した評価を行うことが望まれる。
## 謝辞
日本語フレームネットを提供いただいた慶應義塾大学の小原京子教授に感謝する. 本研究は JSPS 科研費 JP21H04901 の助成を受けて実施した。
## 参考文献
[1] Mohammad Taher Pilehvar and Jose Camacho-Collados. Wic: the word-in-context dataset for evaluating contextsensitive meaning representations, 2018.
[2] 吉田あいり, 河原大輔. 構造的曖昧性に基づく読みづらさの検出. 言語処理学会第 28 回年次大会発表論文集, pp. 425-429, 2022.
[3] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. Superglue: A stickier benchmark for general-purpose language understanding systems, 2019.
[4] Alessandro Raganato, Tommaso Pasini, Jose CamachoCollados, and Mohammad Taher Pilehvar. Xl-wic: A multilingual benchmark for evaluating semantic contextualization, 2020.
[5] 浅原正幸, 小野創, 宮本エジソン正. Bccwj-eyetrack:『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析. 言語研究, No. 156,pp. 67-96, 2019.
[6] 浅原正幸, 加藤祥. 読み時間と統語・意味分類. 認知科学, Vol. 26, No. 2, pp. 219-230, 2019.
[7] 井上雅勝. 文の意味的曖昧性が構造的曖昧性の解消と保留に及ぼす影響 (2). 日本認知心理学会発表論文集, Vol. 2011, pp. 74-74, 2011.
[8] 井上雅勝. 文の意味的曖昧性が構造的曖昧性の解消と保留に及ぼす影響. 日本認知心理学会発表論文集, Vol. 2010, No. 0, pp. 81-81, 2010.
[9] Masayuki Asahara. Between reading time and clause boundaries in japanese - wrap-up effect in a head-final language一日本語の読み時間と節境界情報一主辞後置言語における wrap-up effect $の$ 検証一. Journal of Natural Language Processing, Vol. 26, pp. 301-327, 062019.
[10] Masayuki Asahara. Between reading time and the information status of noun phrases 名詞句の情報の状態と読み時間について. Journal of Natural Language Processing, Vol. 25, pp. 527-554, 122018.
[11] 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第 27 回年次大会発表論文集, pp. 723-728, 2021.
[12] Kyoko Ohara. Relating frames and constructions in Japanese FrameNet. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Hrafn Loftsson, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 2474-2477, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). ACL Anthology Identifier: L14-1103.
[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina
Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[14] 浅原正幸. Bayesian linear mixed model による単語親密度推定と位相情報付与. 自然言語処理, Vol. 27, No. 1, pp. 133-150, 2020. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D7-5.pdf | # 抽象図形への命名を介したコモングラウンド形成モデルの構想
森田 純哉 ${ }^{1}$ 由井 達也 ${ }^{1}$ 天谷 武琉 ${ }^{1}$
光田 航 2 東中 竜一郎 2 竹内 勇剛 1
1 静岡大学情報学部 2 日本電信電話株式会社
\{j-morita,takeuchi\}@inf.shizuoka.ac.jp
\{yui.tatsuya.20, amaya.takeru.19\}@shizuoka.ac.jp
\{koh.mitsuda.td,ryuichiro.higashinaka.tp\}@hco.ntt.co.jp
## 概要
コミュニケーションにおいて,送り手が発した記号は,受け手の有する認知的な枠組みを介して復元される。つまりコミュニケーションを効率化するためには,送り手と受け手の間で認知的な枠組みをすり合わせていくプロセスが必要である. 本稿では, そのような共有された枠組みをコモングラウンドと呼び,タングラム命名課題を対象としたコモングラウンド形成の認知モデルを提案する.特に,本稿ではモデルの背景, 設計, 実装例を示し, 今後の課題を議論する。
## 1 はじめに
コミュニケーションにおけるコモングラウンドの必要は様々な研究者によって指摘されている $[1,2]$.送り手が発した記号の意味は,受け手の有する知識によって復元される. よって,送り手と受け手の間で共通の認知的枠組みが存在しない場合,意図の伝達に膨大なコストが必要となる. 共通の認知的枠組みが存在することで,多義的な記号の意味が絞り込まれ,簡素な表現による素早いコミュニケーションが可能になる。そして,そのようなコモングラウンドを構成する共有知識や信念は,通常は暗黙的なものであり,その全てを記号的に表現することは困難である.
本稿では,コモングラウンドの形成がどのように計算機上でモデル化できるかを議論する. 近年の言語処理の研究では,Transformer [3]をべースとした Bidirectional Encoder Representations from Transformers (BERT) [4] や Generative Pretrained Transformer (GPT) [5] などの手法が全盛である. 深層学習によって調整された大規模なパラメータは,人間の言語利用の背後にある暗黙的な知識をよく表現する。しかし,
それらのパラメータは,人間が課題遂行において保持する目標や時間的な文脈を陽には表現しない。また,人間が言語で表現する経験は多様なモダリティから形成されるため,コモングラウンドの形成には,複数モダリティの経験を統合する必要がある。
こういった複数のモジュールを統合し, 問題解決に至る一連のプロセスをモデル化するための考え方として,認知アーキテクチャが存在する.既存の認知アーキテクチャとして,Soar [6] や ACT-R [7] は有名である。これらの認知アーキテクチャは,現状では記号的な表現に大きく依存しており,スケールの問題を抱える。実世界のコミュニケーションを説明するモデルを構築するためには,深層学習などで構築された分散表現をべースにした認知アーキテクチャが必要である.この考えから,本稿は,深層学習で構成されたモジュールを,認知アーキテクチャへ統合し,コモングラウンド形成のプロセスを明示化することを志向する.
## 2 タングラム命名課題
コモングラウンドの形成過程を検討する課題として,タングラムと呼ばれる抽象図形を用いたコミュニケーション課題が検討されている [1]. タングラムは,“タン” と呼ばれる平面図形を組み合わせることで構築される.タングラムを具体物のシルエットとみなすことで,多様な解釈が生成される。この解釈の生成は,その際の知覚者が有する認知的枠組みによって変化する。 よって,言語表現のみにより,発信者の指示するタングラムを受け手が同定するためには,コモングラウンドの共有が必要になる.
タングラムを題材とした対話のデータとして,本研究では須藤ら [8] の研究に焦点を当てる. 須藤らの実験において,セッションに参加した 2 者は, 6 つのタングラムの命名について合意することを目指
一方の実験協力者
図 1 タングラム命名課題における配置の一例.
した. 以降,この実験課題をタングラム命名課題と呼ぶ. 図 1 は,タングラム命名課題において,実験の参加者が観察するタングラムセットの例を示している. 両者は同一のタングラムセットを提示されるものの, その配置や角度は異なっている. タングラ么命名課題において,参加者は互いの画面が見えず,音声のみで課題を遂行することが求められた.
須藤らは,タングラム命名課題における発話を,全体的発話と分析的発話の観点から分析した. 全体的発話は,タングラムの形状を具体物に喻える表現(例: “塔っぽいやつ”, “枝がでている木”, “サボテンとか”) であり,分析的発話はタングラムを構成する平面図形への言及(例:“小さい三角形が 2 つ”, “左右に四角と三角が出てる”) である. 須藤らのデータでは,実験全体を通して全体的発話が部分的発話よりも多く,セッションが経過するに従い, その差が拡大していくことを示されている.
## 3 タングラム命名モデル
タングラム命名課題で得られたデータをシミュレーションするモデルの構想を示す. まず,認知アーキテクチャとして考えた際に必要なモジュールについて議論し,続いて一部の処理に焦点を当てた詳細なモデルを検討する.最後に現時点で得られている予備的な実行の結果を示す.
## 3.1 モジュールの構成
図 2 はタングラム命名課題に関与すると想定されるモジュールを統合したものである。一般的に認知アーキテクチャは,視覚,聴覚,運動などの入出力に関するモジュール,ゴールや記憶を保持する内的なモジュール,そしてそれらを結合する中枢モジュール(ワーキングメモリやルールエンジン)から構成される [9]. 図 2 では上部に内的モジュール,下部に入出力に関するモジュールが配置され,中央のプロダクションによってそれらが統合される1).
1)ここでの統合は数ある認知アーキテクチャのなかでも ACT-R [7] をべースとしている.
(5) イマジナル
詳細化
c.
(3) 聴覚
羽を広げた白鳥以下,各モジュールの役割を簡単に記載する。
1. 視覚モジュール:外界のタングラムに注意を向け,タングラムを認識する。
2. 発話モジュール:個々のタングラムを区別する言語ラベルを生成し他者へ伝達する。
3. 聴覚モジュール:他者が生成した言語ラベルを聴取する。
4. ゴールモジュール:個々のタングラムに対して付与された言語ラベルを保持する。また各ラべルに対する相手との合意の有無を管理する。
5. イマジナルモジュール:言語ラベルとタングラムを結びつけるためのイメージ操作を行う.須藤らのデータに即せば,以下の 2 つの処理が想定できる.
- 部分処理:タングラムを幾何図形に分解し,対話相手がタングラムを特定できる言語表現を生成する.
- 全体処理:対話相手から聴取した言語ラべルをもとにイメージを生成する。
6. 記憶事例: 一般的な言語ラベルと画像の組み合わせからなるデータを有する。このデータを活用することでモデルはタングラムに対してラべルを付与し,イメージからラベルを生成する。
## 3.2 送受信パイプライン
図 2 のアーキテクチャの全体像は大きいものであり,部分に分割したモデルの構築が有効である.特に本稿では,須藤らの分類のうち,全体処理に関する発話の送受を詳細化することを試みる。すなわち,送り手がタングラムからイメージを解釈し,そ
のイメージを言語化し,受け手が言語化されたイメージを復元するまでのプロセスである. 以下に各プロセスの概要を示す.
## 送り手の処理
1. タングラムの知覚:視覚モジュールを介し,各タングラムの形状から物体認識を行う。視覚モジュールの実装としては, Convolutional Neural Network (CNN) を想定する。しかし,タングラ么図形は多義性を意図して構成されおり, 通常の CNN による物体認識に困難が生じる可能性が存在する. 特に一般物体認識の CNN モデルに対しては,テクスチャバイアス(全体的な形状ではなく画像表面のテクスチャに影響された認識をおこなうこと)の存在が報告されている [10]. このバイアスは,テクスチャに分類の有効な手がかりが存在しないタングラム命名課題において,クリティカルな影響を生じさせると考えられる. よって, 本研究では, テクスチャバイアスを生じさせないデータセットとして.
ImageNet Sketch [11]を用い,白黒画像から 1000 のラベルを分類する CNNを新規に学習した。
2. イメージ検索 : タングラムの認識から物体の特徵を詳細化する発話を生成するためには,ラべルのイメージの具体化が必要である. この処理のために,本研究では過去に獲得した記憶からのイメージの復元を考える. 本研究のモデルの場合, 上記の CNN の学習に利用した画像デー タを過去の記憶として想定できる. この画像データから,CNN が出力したラべルを付与する画像セットを絞り込む2).そして,絞り込まれた画像からタングラムの形状と最も類似する画像を選択する. 画像の類似の計算方法として, 本研究では, AKAZE によって抽出される特徴点マッチング [12]を用いる。これにより, タングラムと形状が最もマッチする画像が検索され,ラベル付けの根拠がイメージとして具体化されると想定する。
3. 発話生成:イメージ検索によって得られた画像は, 図 2 のアーキテクチャのイマジナルモジュールに一旦格納される. そして,イマジナルモジュール内の画像に対して,発話モジュー ルがイメージキャプショニングを適用することで詳細な言語的なラベルを得る. 本研究ではこ
2)ImageNet Sketch は各ラベルに対して 50 枚の画像を用意している.
の処理に Vision transformer (ViT) [13]) と GPT-2 [5]をもちいた学習済み Vison Encoder Decoder モデル [14]を利用する.
## 受け手の処理
1. イメージ生成:送り手の生成した言語ラベルは,受け手の聴覚モジュールに格納される. 受け手モデルは格納された言語ラベルからイメー ジ生成を行う。言語ラベルからのテキスト生成には, Stable Diffusion [15] を利用する。画像生成モデルにテキストを入力する際,送り手のイメージ生成 (ImageNet Sketch) の利用に合わせ,受け取った言語ラベルの先頭に, “a monochrome sketch of"という文字列を付与する.
2. タングラムの同定 : AKAZE による特徵点マッチングを利用することで,生成された画像と類似するタングラム画像を同定し,結果をゴールモジュールに格納する。なお,この際,タングラムを 45 度単位で回転させ,合計で $48(6 \times 8)$ のタングラムのイメージとの比較を行う.
## 3.3 実行結果
既に述べたように,上記のパイプラインは,タングラム命名課題における処理の一部である. 実際の課題においては,上記のパイプラインが他の処理と組み合わされ, 反復的に適用されることで送り手と受け手の認知的枠組みがすり合わされていく.
本稿では,そのようなプロセスの初期状態を示すために, 3.2 のパイプラインの実行結果を検討した.図 3 はその一例である. 送り手が注目したタングラムに対し,Black Swan というラベルが出力された. そして, そのラベルと形状の類似している学習事例 (首が右方向に向けられた黒鳥)が検索され,その画像に対して "a black and white bird standing on top of a white bird"というキャプションが生成された.このキャプションに対し,受け手は,黒い鳥の上に白い鳥が乗ったイメージを生成した(白い鳥と黒い鳥の関係がキャプションとは逆転している)。この画像に対して同定されたタングラムは,生成されたイメージに含まれる 2 つの鳥のうち, 上側の鳥と対応付けられるものと見ることができる(右側にくちばしがあり,下部に足が配置される).
上記のように本研究で提案するパイプラインは,抽象図形から言語的ラベルの生成,言語的ラベルから抽象図形の同定に至るまでのプロセスを可視化す
図 3 実行例.
ることに成功している。そして,それら一つ一つのステップは,既存の画像処理ライブラリや学習済み深層学習モデルを用いたものであり,一定の妥当性を有しているとみなせる。ただし,これらの処理には程度の差はあれノイズが混入し,処理がまとめられた際には,送り手が観察したタングラムと受け手が同定したタングラムが食い違うものとなった. すなわち,この事例は,タングラム命名課題におけるミスコミュニケーションの一例をモデル化したものとなっている.
上記のようなミスコミュニケーションが,提案したパイプラインにおいてどの程度の頻度で生じるのかを検討した。この検討において,送り手は,角度を 8 段階に変更した 6 種類のタングラムを観察し, それぞれに対して言語ラベルを生成した. 生成された合計 48 の言語ラベルに対し,受け手が同定したタングラムとの対応をカウントした. 図 4 は送り手が観察したタングラムと受け手が同定したタングラ么の間での混同行列を示す. 表中の数値から正解率を計算したところ 0.166 (8/48) となり,6クラス分類のチャンスレートと等しいものとなった
このように今回の実装は,標準で送り手と受け手の認識の齯䶣を生じさせるものとなった. もともとタングラム命名課題は,タングラムの多義性を利用し,コミュニケーションの開始時に十分なコモングラウンドが存在しない状況を形成することを意図したものである. その意味で,本研究は,この課題の前提を,複数の深層学習モデルの統合によってデモンストレートしたものとみなせる.
## 4 おわりに
本稿では,コモングラウンド形成の背後にある認知プロセスをシミュレーションする計算機モデルの構想を示した. なお,タングラム命名課題を深層学習によってモデル化した事例は既に存在する [16]. この先行研究に対して, 本研究は, 認知アーキテクチャに基づくモジュールの仮定に基づくことに特徴
図 4 送り手と受け手の混同行列.
がある.深層学習モデルに埋め込まれたサブシンボリックな知識構造を利用することで,タングラムの知覚から言語ラベルの生成,言語ラベルの聴取からタングラムの同定までの処理を試作した。試作した実行結果を検討することで,タングラム命名課題における送り手と受け手のミスコミュニケーションを表現した。
本稿において示された多義性を解消する手段は複数考えられる. まず,本研究で扱った複数の深層学習モデルは異なるデータセットから構成された。これらの整合を図ることで,送り手と受け手の一致率が向上する可能性がある.また,本研究の受け手モデルが同定したタングラムは,図 4 に示されるように一部(6 列目)に偏っている。このようなタングラムの同定に関する競合を対話相手とのインタラクションのなかで解消する仕組みが必要である.こういったノイズを含む状況でのコモングラウンドの調整は,対話理解を報酬とした強化学習によって解決できる可能性があり [17],対話理解の報酬を発生させるためには,本研究ではモデルの詳細化ができなかった部分処理などのプロセスも必要になる.全体処理的な発話から受け手が部分処理を返すことで,両者の認識の一致を確かめることができるようになると考える. 先述の先行研究 [16] は事前学習されたモデルをタングラム課題のデータでファインチュー ニングすること,送り手のメッセージに部分処理の表現を付与することで,同定率が向上することを示している.
今後,上記の検討を進めることで,本稿で示したフレームワークの完成を目指す。そして,フレームワークに基づくモデルが完成することで,人間のコモングラウンド形成に対する理解が成し遂げられ,同時に人とコモングラウンドを共有する人工物の構築がなされると考える [18].
## 参考文献
[1] Herbert H Clark and Deanna Wilkes-Gibbs. Referring as a collaborative process. Cognition, Vol. 22, No. 1, pp. 1-39, 1986.
[2] David R Traum. A computational theory of grounding in natural language conversation. Technical report, Rochester Univ NY Dept of Computer Science, 1994.
[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS'17: Proceedings of the 31st International Conference on Neural Information Processing Systems, 2017.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
[5] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
[6] John E Laird. The Soar cognitive architecture. MIT press, 2019.
[7] John R Anderson. How can the human mind occur in the physical universe? Oxford University Press, 2007.
[8] 須藤早喜, 浅野恭四郎, 光田航, 東中竜一郎, 竹内勇剛. 推測的かつ暫定的な対話による共通基盤の形成過程. 電子情報通信学会和文論文誌 (D), Vol. 106, 。
[9] John E Laird, Christian Lebiere, and Paul S Rosenbloom. A standard model of the mind: Toward a common computational framework across artificial intelligence, cognitive science, neuroscience, and robotics. Al Magazine, Vol. 38, No. 4, pp. 13-26, 2017.
[10] Robert Geirhos, Patricia Rubisch, Claudio Michaelis, Matthias Bethge, Felix A Wichmann, and Wieland Brendel. Imagenet-trained cnns are biased towards texture; increasing shape bias improves accuracy and robustness. arXiv preprint arXiv:1811.12231, 2018.
[11] Haohan Wang, Songwei Ge, Zachary Lipton, and Eric P Xing. Learning robust global representations by penalizing local predictive power. In Advances in Neural Information Processing Systems, pp. 10506-10518, 2019.
[12] Pablo F Alcantarilla and T Solutions. Fast explicit diffusion for accelerated features in nonlinear scale spaces. IEEE Trans. Patt. Anal. Mach. Intell, Vol. 34, No. 7, pp. 1281-1298, 2011.
[13] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth $16 x 16$ words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929, 2020.
[14] Ankur Kumar. The illustrated image captioning using transformers. ankur3107.github.io, 2022.
[15] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In 2022 IEEE/CVF Conference on Computer Vision and
Pattern Recognition (CVPR), 2022.
[16] Anya Ji, Noriyuki Kojima, Noah Rush, Alane Suhr, Wai Keen Vong, Robert D. Hawkins, and Yoav Artzi. Abstract visual reasoning with tangram shapes. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, 2022.
[17] Atsumoto Ohashi and Ryuichiro Higashinaka. Adaptive natural language generation for task-oriented dialogue via reinforcement learning. Proceedings of the 29th International Conference on Computational Linguistics, p. 242-252, 2022.
[18] Roberto Dessì, Eugene Kharitonov, and Baroni Marco. Interpretable agent communication from scratch (with a generic visual processor emerging on the side). Advances in Neural Information Processing Systems, Vol. 34, pp. 26937-26949, 2021. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-1.pdf | # データ拡張手法を用いたスペイン語文法誤り訂正
飯島 与喜 ${ }^{1} \mathrm{Tad}$ Gonsalves ${ }^{1}$
${ }^{1}$ 上智大学 理工学研究科 理工学専攻 情報学領域
t-iijima-2n3@eagle.sophia. ac.jp t-gonsal@sophia. ac.jp
## 概要
スペイン語の文法誤り訂正では,人の手によって訂正されたコーパスが限られ,英語と比較して使用できるデータが少ない. データ不足の問題を解決する方法としてデータ拡張手法がある。既存のデータ拡張手法ではランダムにデータを生成するため,コ一パスに収録されているスペイン語学習者から取得したデータとは全く異なるものになる。そこで,本研究ではコーパスから誤りパターンを抽出し, デー 夕に反映させることで,コーパスに収録されているスペイン語学習者の誤りを再現するデータ拡張手法を提案する。この手法によって訓練用のデータを生成し, 限られたデータで高性能なモデルを構築する.
## 1 はじめに
文法誤り訂正 (Grammatical Error Correction: GEC) はスペルや句読点, 文法的な誤りを検出して訂正する自然言語処理のタスクである.このタスクでは誤りを含む文(誤文)を GEC のモデルに入力し,その誤文に含まれる誤りを訂正した文(正文)を出力する. 本研究では,スペイン語の誤りを訂正する.
文法誤り訂正では, 主に誤文と正文をぺアとした学習者のコーパスを教師データとしてモデルを学習させる手法が用いられる.スペイン語の学習者コー パスには Lang8[1]と COWSL2H[2]があるが,これらのデータセットだけでは英語のコーパスと比較するとデータ数が少ない,そこで,本研究では文法誤り訂正固有のデータ拡張手法である人工誤り生成手法を用いて,より高性能なモデルを構築する. 人工誤り生成手法は単一言語データから誤文を生成する。生成した誤文と単一言語データの正文を組にして事前学習を行う. 事前学習をした後にファインチュー ニングする手法が有効であると[3]で報告されている.
また,人工誤り生成手法で単一言語データに誤り
を注入する際に,ランダムに誤りを注入するよりも学習者が犯した誤りに近いものを注入した方がより高性能なモデルを構築できると考えられる。そこで本研究では, 学習者コーパスから誤りパターンを抽出し,単一言語データに誤りを注入することで,スペイン語学習者の誤りを再現するデータ拡張手法を提案する.学習者コーパスから抽出した誤りパター ンを単一言語データに注入して誤りを生成することで,学習者コーパスに含まれる特定の品詞誤りや語形変化だけでなく様々な誤りを再現することができる. 誤りを注入する際にコーパス内の分布に従って誤りを生成することで,ランダムに誤り生成するよりも学習者が書いたものに近い文を得ることができる。また,誤りをコーパスから抽出する手法を用いることで,誤りの規則を定義する手間を軽減することが可能である.
第 3 章でデータ拡張手法の詳細を説明し, 第 4 章の実験でその有効性を確認するための実験設定について述べる. 第 5 章の結果では, 提案手法が既存研究[2]や[4]よりも高性能であった結果とデータ拡張手法の 1 文あたりの誤り率を変化させた場合のモデルの性能、誤りタグごとのモデル性能を検証した結果を示す。
## 2 関連研究
スペイン語文法誤り訂正の研究として Davidson ら[2]が行なったものがある.この研究では COWSL2H データセットを提案し, GEC モデルを学習させた結果を示している.スペイン語 GEC のベー スラインとして"Bi-directional LSTM encoder + LSTM decoder”のモデルを使用している. COWLS2H には,スペイン語の L2 学習者(第二言語としてスペイン語を学ぶ者)が書いたエッセイとそれを人間が訂正したものが含まれる。モデルの訓練に用いる際には,エッセイを 1 文ごとに分割し,誤文と正文のペアにしたものが用いられている. さらに, 1 文ごとに分割しぺアにしたものを訓練用データ,検証
用データ,テストデータの 3 つに分割して使用する.
また, Flachs ら[4]が行なった研究もある. この研究では人工誤り生成手法を用いている. 誤りを生成する際は[5]で提案された規則べースの生成手法を用いて挿入, 交換, 置換, 削除の操作を行い, 誤りを生成する. 置換の操作には Aspell Dictionary と Unimorph[6], またはそれら両方を用いた場合のモデル性能を比較している。スペイン語においては, Aspell Dictionary のみを使用した場合が最も高精度であった. さらに, ノイズの多いデータを活用方法についても言及している. WikiEdit[7], Lang8[1]の 2 つのデータセットを用いた場合で検証し, 事前学習の後これらのデータをファインチューニングしたモデルが最も性能が良いという結果が示されている.
WikiEdit は 4,871,833 文, Lang8 は 1,214,781 文が使用されている.
## 3 手法
本研究では提案するデータ拡張手法は, コーパスの誤りの抽出とデータへの誤りの注入の 2 段階に分かれている.
誤りの抽出には, 正文と誤文から訂正箇所と誤りタイプを取得できる ERRANT[8]というツールを用いる. ERRANT は英語用に作られたツールであるが, [2]で述べられている通りスペイン語でも問題なく使用できる. しかし, より正確に使用できるようにするために以下の項目について訂正を行った.
- ADJ:FORM を ADJ:INFL に変更
- Determiner-noun agreement に対応する DET:INFL の追加
- NOUN:POS $の$ 削除
ERRANT で誤文の誤り部分 (単語または文の一部の複数語) に 3 つの誤りタグ $\operatorname{Missing}(\mathrm{M})$, Unnecessary(U), Replacement(R)を付与し, 訂正箇所とともに誤りパターンとして抽出する. この誤りパターンから MUR それぞれの操作対象となる単語 (または文の一部の複数語)をその出現確率とともにノイズスキームへ格納した.各コーパスの MUR の割合は表 1 の通りである。
誤りの注入では, 抽出操作で獲得した誤りタグ MUR と注入操作 Delete, Add, Replace を対応させたノイズスキームを用いる. Delete と Replace の操作は操作対象の文中の単語の中でノイズスキームに格納された単語に対して行われる. Add の操作ではノイズスキームに格納された単語を確率に基づいて選出し, 任意の位置に挿入する.
表 1 各コーパスの MUR の割合
誤りの生成を行う際に 1 文あたりの誤り率と 1 文あたりの拡張数を設定できる. 1 文あたりの操作回数は 1 文あたりの誤り率と文の長さの積で決定する.
図 1 誤りタグと操作の対応
誤りパターンの抽出と誤りの注入操作は図 1 の通りに行われる。
図 2 データ拡張手法の概略図
ERRANT を用いて抽出した誤りパターンから構築したノイズスキームを用いて訓練用の誤文と正文のペアを作成する過程を図 2 に示す.
## 4 実験
## 4. 1 実験内容
まず, 既存研究 [4]で使用されている Aspell Dictionary を用いた手法と既存研究[2]の結果を比較した. 次に, 1 文あたりの誤り率を変化させた場合にモデルの性能にどのような影響があるかを検証し,誤りタグごとのモデルの性能についても検証した.
## 4. 2 データセット
事前学習には WMT News Crawl から抽出した $10,000,000$ の正文を用いた. 抽出したデータを拡張して誤文を生成し,誤文と正文を組にして訓練用デ一タとし,事前学習を行った。
ファインチューニングには GEC タスク用の誤文と正文が収録されている Lang8,COWSL2H を用いた. Lang8 にはスペイン語以外の言語が含まれるため, スペイン語のみを抽出し, Training と Validation に分割した. 本研究では Lang8 で使用可能な部分を用い,データ数はそれぞれ $189,190 , 10,611$ とした. COWSL2H は訓練用データ,検証用データ,テストデータに分割した。それぞれデータ数は 10,071 , $1,000,1,000$ とした.
また,それぞれのデータについてデータクリーニングを行った。数字とスペイン語に使用される文字と記号以外の文字を削除し半角に変換した,単語と記号間を半角スペースで統一した。 さらに,URLなどの文字列を削除し, 連続記号をその記号 1 文字に変換した。
## 4. 3 データ拡張の設定
各操作の割合は GEC コーパスの Lang8 と COWSL2H から抽出したノイズスキームの各誤りタグの割合に従う. 1 文あたりの誤り率は[4]との比較を行うため 0.15 に設定した. 誤りを生成する際の候補の単語はコーパス中で 3 回以上誤っているものを使用した。
## 4.4 モデル
本研究では GEC を行う Encoder-Decoder モデルとして Transformer を用いた。具体的な設定として Vaswami ら[9]が定義した Transformer bigを使用した.実装は fairseq 0.12.2 で行った. また, 事前学習, フアインチューニングで設定したハイパーパラメータ
は表 2 と表 3 の通りである. ファインチューニング時には Early stopping を用いて検証損失が最も小さいモデルをテストに用いた.
表 2 事前学習時のハイパーパラメータ
表 3 ファインチューニング時の
## 4. 5 評価方法
本研究では, Precision, Recall, F0.5を評価手法として用いる. 既存研究[4] と [2]の結果と比較を行うために F0.5 を MaxMatch(M2) scorer[10]と ERRANT[8] の 2 通りの方法で算出した。
## 5 結果
## 5.1 既存研究との比較
既存研究[4](Aspell_10m)の結果と本研究の提案手法(Errant $10 \mathrm{~m})$ を用いた結果, 既存研究と提案手法を合わせて用いた結果 $(\mathrm{A}+\mathrm{E}-10 \mathrm{~m})$ について比較を行った結果を表 4 に示す. 全てのモデルを COWSL2H でファインチューニングした. + (L)は Lang8 を追加でファインチューニングしたことを表す.
また, 既存研究[2](Bi-LSTM+LSTM) との比較を行なった結果を表 5 に示す.ここでは,F0.5を ERRANT で算出した.
## 表 4 既存研究 [4]との比較
表 5 既存研究[2]との比較
表 4 と表 5 の結果からいずれの既存研究よりも本研究の提案手法を用いた場合の方が Precision, Recall, F0.5 の值が高い. 既存研究[4]ではファインチューニング時に本研究の提案手法よりも多くのデータを用いているが,提案手法はより少ないデータでより高い性能を実現している. 本研究ではファインチュー ニングに用いるデータと同質の誤りを事前学習用デ一夕に注入することでより良い結果を得ることができた.
## 5.21 文あたりの誤り率とモデル性能
提案手法で 1 文あたりの誤り率を変化させた結果を表 6 に示す.モデルは Errant_10m+(L)を使用した.
表 61 文あたりの誤り率とモデル性能
誤り率を大きくするほど Precision が低くなり, Recall が高くなった. F0.5は 0.15 の場合に最大になった.このことから 1 文あたりに注入する誤り数を増やすと誤りの検出精度は上がるが,検出した誤りを正しく訂正できなくなると考えられる.特に誤り率 0.2 の場合の Precision が比較的大きく低下していることから, 誤り率から算出される注入する誤り数が多くなりすぎることによって精度に悪影響を及ぼすと考えられる。また、F0.5 が最大となった誤り率 0.15 が提案手法において最適な值であった.
## 5.3 誤りタグごとのモデル性能
誤りタグごとのモデル性能を表 7 に示す. モデルは Errant_10m+(L)を使用した。
Recall に着目すると誤りの注入回数が多いほど誤りをより多く検出できると考えられる。 また, 誤りの注入回数は $\mathrm{U}$ よ $\mathrm{M}$ の方が多いのにも関わらず, F0.5 の値は M の方が低くなっている。これは Precision の值がUに比べ低いことが原因であるため,検出した誤りを正しく訂正できるよう,Mに対する操作 Delete を改善する必要がある。また, U に対する操作 Addについても誤りをより検出できるよう改善することでよりモデルの性能を向上させることができると考えられる。
## 6 おわりに
本研究では,スペイン語の文法誤り訂正において学習者の誤りを再現するデータ拡張手法を提案し,事前学習用データを拡張して学習を行うことで既存研究よりも高い性能を実現した。スペイン語のようなデータが少ない言語の文法誤り訂正においてデー 夕拡張手法の有用性を示すことができた。
本研究ではコーパスの誤りを抽出, 注入することでモデルの性能を向上させたが,今後はどのような誤りが性能に寄与するか, スペイン語特有の誤りがモデルの性能にどのように影響するかについて詳しい分析や検証が必要である. より詳細な分析を行うために本研究で使用しなかったスペイン語 ERRANT の誤りカテゴリ(ADJ, NOUN など)の認識性能を改良する必要がある. モデル性能の向上とともに今後取り組みたい。
## 参考文献
[1] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata and Yuji Matsumoto. Mining Revision Log of Language Learning SNS for Automated Japanese Error Correction of Second Language Learners. In Proceedings of the 5th International Joint Conference on Natural Language Processing(IJCNLP), pp.147-155. Chiang Mai, Thailand, November 2011.
[2] Sam Davidson, Aaron Yamada, Paloma Fernández Mira, Agustina Carando, Claudia H. Sánchez Gutiérrez, and Kenji Sagae. Developing NLP Tools with a New Corpus of Learner Spanish. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pages 7238-7243, Marseille, France. European Language Resources Association. 2020.
[3] Jared Litchtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora generation for grammatical error correction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3291-3301, 2019.
[4] Simon Flachs, Felix Stahlberg, and Shankar Kumar. Data Strategies for Low-Resource Grammatical Error Correction. In Proceedings of the 16th Workshop on Innovative Use of NLP for Building Education Applications, pages 117-122, Online. Association for Computational Linguistics. 2021.
[5] Jakub Náplava and Milan Straka. Grammatical Error Correction in Low-Resource Scenarios. In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pages 346-356, HongKong, China. Association for Computational Linguistics. 2019.
[6] Christo Kirov, Ryan Cotterell, John Sylak-Glassman, Géraldine Walter, Ekaterina Vylomova, Patrick Xia, Mannal Faruqui, Sebastian Mielke, Arya McCarthy, Sandra Kübler, Davaid Yarowsky, Jason Eisner, and Mans Hulden. UniMorph 2.0: Universal morphology. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki,
Japan. European Language Resources Association (ELRA). 2018.
[7] Adriane Boyd. Using Wikipedia edits in low resource grammatical error correction. In Proceedings of the 2018 EMNLP Workshop W-NUT: The 4th Workshop on Noisy User-generated Text, pages 79-84, Brussels, Belgium. Association for Computational Linguistics. 2018.
[8] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume1: Long Papers), pages 793-805, Vancouver, Canada. Association for Computational Linguistics. 2017.
[9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, NeurIPS, pages 5998-6008. Curran Associates, Inc. 2017.
[10] Daniel Dahlmeier and Hwee Tou Ng. Better Evaluation for Grammatical Error Correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 568-572, Montréal, Canada. Association for Computational Linguistics. 2012. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-2.pdf | # 組合せ範疇文法による ドイツ語文の原因・結果関係の意味表示
高橋直人 一杉裕志 竹内泉
産業技術総合研究所人工知能研究センター
\{naoto.takahashi,y-ichisugi, takeuti.i\}@aist.go.jp
## 概要
自然言語において,原因を表す文と結果を表す文の関係は,様々な統語構造で表現可能である. そのような異なる表現の間では, 異なった統語構造が意味上の細かな差を生じる事はあっても,一方の文が原因を表し,もう一方の文が結果を表すという基本的な原因・結果関係は共通している. 本稿では, ドイツ語で書かれた原因・結果文を組合せ範疇文法に基づいて解析する際に, 統語構造が異なっていても同一の意味表示が合成できるような語彙項目の設定を提案する。またその際, 正書法上必要とされるコンマを積極的に利用して文関係の明示化を試みる.
## 1 はじめに
人間の知性を他の生物の知性から区別する最大の特徴は, 階層構造を持った言語の使用であると言える。
文は語の連続から構成されるが,語の並び方には必然性があり, 語順が変われば一般に意味も変わる.また,たとえ表層の語順が同一であっても,内部の統語構造が異なれば文の意味も異なる場合がある. 反対に, 統語構造の異なる複数の文が (ニュアンスの違いこそあるにせよ)同一の意味を表す場合もある.したがって, 自然言語を人間同様に解釈する人工知能を構築するためには, 文を単なる語の集合(あるいは語の系列)とみなして統計的に処理するだけでは不十分であり, 統語構造に基づいて, 論理的に意味を合成する必要がある.
本稿では, 統語構造に基づいた論理的な意味合成の具体例として, ドイツ語文における原因・結果関係と, 組合せ範疇文法に基づいてそれを解析するための語彙項目設定に関して考察する.
## 2 組合せ範疇文法
組合せ範疇文法 $[1,2,3,4]$ は語彙化文法の一種であり, 古典的範疇文法に関数合成規則を取り入れたものである.組合せ範疇文法の弱生成能力は, 文脈自由文法と文脈依存文法の中間に位置する事が知られており,それゆえ自然言語の文法記述に適していると考えられる。
## 2.1 統語範疇
通常の句構造文法では, 個々の文法範疇に対して固有の非終端記号を割り当てる.たとえば文には $S$ (sentence), 名詞句には $N P$ (noun phrase), 動詞句には $V P$ (verb phrase)等の記号を割り当てる事が多い.これに対し組合せ範疇文法では,ごく少数の基底範疇と,それらを結ぶ演算子を再帰的に用いて多種多様な統語範疇を表現する。
たとえば英語の動詞句は,
自分自身の左側に主語となる名詞句が隣接した
場合, 全体として文となるような統語範疇
と定義できる. したがって動詞句は, $V P$ という固有の記号を使わなくとも, $S$ (文) と $N P$ (名詞句) の組み合わせで $S \backslash N P$ と表現できる.ここで $X \backslash Y$ は,「左側の $Y$ と組み合わされたときに $X$ となる統語範疇」を意味する。
また英語の他動詞は,
自分自身の右側に目的語となる名詞句が隣接し
た場合,全体として動詞句 $(S \backslash N P$; 上記参照) となるような統語範疇
と定義できる。したがって「他動詞」は $(S \backslash N P) / N P$ と表現できる。ここで $X / Y$ は, 「右側の $Y$ と組み合わされたときに $X$ となる統語範疇」を意味する.
順関数適用規則
逆関数適用規則
逆関数交差合成規則 $\quad \frac{Y / Z: g \quad X \backslash Y: f}{X / Z: \lambda x . f(g x)}<\mathrm{Bx}$
図 1 本稿で用いる組合せ規則一覧
## 2.2 組合せ規則
組合せ範疇文法における「組合せ規則」は,統語範疇と意味表示の両者を同時並列的に合成する物として定義される。このため統語構造と意味表示の間には明確な対応関係が存在する。
組合せ範疇文法で用いられる組合せ規則の数は,通常の句構造文法などにおける文法規則に比べるとはるかに少ない。また, 組合せ範疇文法における組合せ規則は,記述対象となる言語には依存せず,原理的にはすべての言語間において共通だとされている1). 言語間に存在する文法上および意味上の差異は, 基本的に語彙項目の設定で吸収する事になっている.
組合せ範疇文法で一般に使用される組合せ規則のうち,本稿に登場する規則の一覧を図 1 に示す. コロンの左側が統語範疇で,コロンの右側がラムダ項による意味表示である。
## 2.3 語彙項目設定の重要性
本稿の目標は,
統語的には様々に異なった構造を持っているが,人間が読んだ場合には同一の意味を持つと理解されるような複数の文に対して,最終的に同一の意味表示を合成する事
である,組合せ範疇文法は,統語構造と意味表示の間に明確な対応関係を持つので, この目標の達成度を評価するにふさわしいと言える.
文全体の最終的な意味表示は,
- 合成対象となる下位の構成素それぞれの意味表示
・それら下位の構成素それぞれの統語範疇
-下位の構成素間に対して適用される組合せ規則という 3 者から機械的に合成されるわけであるが,
これらのうち 3 番目の組合せ規則は汎言語的に共通であるので,望ましい合成結果,すなわち文全体の望ましい意味表示,を得るためには,合成の材料となる各語彙項目の意味表示と統語範疇を慎重に設定する必要がある.
## 3 ドイツ語の文法的特徵
## 3.1 原因・結果表現
本稿で解析対象とする 6 種類の原因・結果表現を, 図 2 に示す. 他の自然言語と同様, ドイツ語においても「Aの結果として Bである」あるいは「B の原因は $\mathrm{A}$ である」のような 2 文の関係は様々な統語構造で表現されうる. いずれの文も基本的な意味は同一であるが,それぞれの統語構造を細かく見ると,
- 原因を示す文は,結果を示す文に先行するか, それとも後続するか
・原因を示す文に標識が付くか,結果を示す文に標識が付くか
・原因あるいは結果を示す標識は,どのような品詞で表現されるか
などの点でバリエーションがある事が分かる.
## 3.2 接続詞 weil
従属接続詞 weil は原因を示し, 従属複合文中で副文の文頭に立つ.このとき副文内の定動詞は文末に置かれる。また weilによって導入される副文が主文に先行する場合は,副文全体が一つの文肢 [5] を形成するので,後続する主文は定動詞が文頭となる (図2 文 1,2 ).
## 3.3 接続詞 denn
並列接続詞 denn は原因を示し, 並列複合文中における後続文を導く.この後続文は平叙文なので,定動詞は平叙文内で第 2 位に位置する(図 2 文 3 ).
## 3.4 副詞 nämlich
接続的副詞 nämlich は原因を示し, 並列複合文中で用いられる。通常であれば,文全体を修飾する副詞は文頭に立つ事も可能であるが,この用法としての nämlich が文頭に立つ事はない(図2 文4).
1. 従属複合文(結果文が先行)
Ich trinke Bier, weil ich Durst habe.
I drink beer because I thirst have
2. 従属複合文(原因文が先行)
Weil ich Durst habe, trinke ich Bier.
because I thirst have drink I beer
3. 並列複合文(原因文の文頭に並列接続詞)
Ich trinke Bier, denn ich habe Durst.
I drink beer because I have thirst
4. 並列複合文(原因文の文中に接続的副詞)
Ich trinke Bier, ich habe nämlich Durst.
I drink beer I have because thirst
5. 並列複合文(結果文の文頭に接続的副詞)
Ich habe Durst, deshalb trinke ich Bier.
I have thirst therefore drink I beer
6. 並列複合文(結果文の文中に接続的副詞)
Ich habe Durst, ich trinke deshalb Bier.
I have thirst I drink therefore beer
図 2 「喉が渴いたのでビールを飲む」のドイツ語訳 6 種
## 3.5 副詞 deshalb
接続的副詞 deshalb は並列複合文中で用いられるが,上記の他の標識と異なり,原因ではなく結果を示す文に付く. また nämlich と違って, 文頭に立つ事もできる(図2文 $5 , 6$ )。
## 4 ドイツ語用組合せ範疇文法
## 4.1 基底範疇と統語素性
本稿で使用するドイツ語用基底範疇は名詞句 $(N P)$ と文 $(S)$ の 2 種類のみであるが,Hockenmaier [6] に準じた統語素性を用いてそれぞれの下位分類を設定している。
## 4.1.1 名詞句の統語素性
ドイツ語の平叙文においては,英語同様の「主格名詞句一定動詞一対格名詞句」という語順に加えて,「対格名詞句一定動詞一主格名詞句」や「副詞一定動詞一主格名詞句一対格名詞句」などの語順も可能である. このため, 名詞句が文中において果たす主格や対格といった統語的役割を,語順とは独立した形式で示す必要がある.
一般にドイツ語文中における名詞句の格は,冠詞や形容詞語尾などによって表現される事が多い.しかし本稿の範囲内では,主格名詞句としては人称代名詞の ich が,対格名詞句としては無冠詞・無変化の名詞 Durst と Bier が登場するのみである。そのため,名詞句(NP)に関する統語素性としては, $n$ (nominative,主格)と $a$ (accusative, 対格)の 2 種類のみを使用する2).
## 4.1.2 文の統語素性
Hockenmaier[6] では,「ドイツ語平叙文の基底語順は定動詞文頭であり,前域に位置する主語は主題化 (topicalization)によるものである」と解釈されている。またこれによって,主格名詞句,対格名詞句,与格名詞句それぞれの統語範疇を同一に保ったままで,前域要素の入れ替えが可能である事が示されている.
これは興味深い解釈であり, 形式主語の es が前域以外では省略可能である理由なども,ここから説明できると思われる.
よって本稿でも [6] 同様, 文 $(S)$ の統語素性とし $\tau, d c l$ (declarative, 定動詞第 2 位), $v l$ (verb initial,定動詞文頭),vlast(verb final,定動詞文末), emb (embedded,副文)の 4 種類を使用する。
## 4.2 語彙項目としてのコンマ
現代ドイツ語の正書法には,複合文内の各文をコンマで区切るという規則がある。本稿ではこの規則を利用して,複合文内の 2 文を結合するコンマに統語範疇と意味表示を割り当て,原因・結果関係を見通しよく表現する方策を取った。
なお,原因・結果を示す標識語の統語範疇を工夫すれば,コンマを利用しなくても原因・結果関係が表現可能である事は確認済みであるが,これについての詳細は他の機会に譲る。
## 4.3 標識の位置と意味表示
組合せ範疇文法においては,生成文法で言うところの空範疇は想定されない $[1,7]$. また組合せ規則が適用されるのは,実際に音韻表示を持った上で, かつ表層上で直接隣接する統語範疇間のみである。
そのため図 2 中の文 $1 , 2 , 3 , 5$ のように,原因・結果を示す標識(weil, denn, deshalb など)が文頭に出現する場合には,当該文の意味役割(原因あるいは結果)を容易に標示する事ができる3)が,図 2 中の文 4 における nämlich,および文 6 における deshalb のように,原因・結果を示す標識が文の
2)文法的には,名詞句の格として他に属格および与格が存在するが,本稿には登場しない。
3)原因・結果を示す標識が文頭ではなく文末に出現する場合 (日本語の「〜だから」など)も,その標識を含む文の意味役割は容易に標示できる。
表 1 語彙項目一覧
} & \begin{aligned}$(S[d c l] \backslash N P[n]) / N P[a] & : \lambda y . \lambda x \cdot h a v e^{\prime}(x, y) \\
& : \lambda y . \lambda x \cdot \operatorname{drink}^{\prime}(x, y)\end{aligned}$ \\
& : \lambda y . \lambda x \cdot \operatorname{drink}^{\prime}(x, y)\end{aligned}$ \\
中央部分に埋め込まれている場合は,その標識を含む文の意味役割の標示がやや難しくなる. 本稿では, Steedman[1] および戸次 [3] における英語助動詞 might の意味表示を参考に, 逆関数交差合成規則を用いてこの問題を解決した.
## 4.4 語彙項目の設定と意味表示の導出
以上を踏まえ,本稿では表 1 に示す語彙項目設定を提案する. 複数の統語範疇が与えられている語彙項目に対しては, 状況に応じて適切な統語範疇とそれに対応した意味表示を選択する事とする. その結果, 図 3~図 5 に示したように,全 6 文から
$
\text { because'(have'(I',thirst'),drink'(I',beer')) }
$
という共通の意味表示を得る事ができるようになる。(スペースの都合上, 6 文のうち 3 文の導出のみを掲載している.)
## 5 関連研究
Vancoppenolle[8] らは, 株式市場領域の文生成を目的としたドイツ語文法を発表した。この文法は,組合せ範疇文法の拡張である「マルチモーダル組合せ範疇文法」を用いて記述されており, OpenCCG ${ }^{4)}$ の下で実装されている. OpenCCG は組合せ範疇文法の解析・生成システムであり, 様相論理を拡張した Hybrid Logic Dependency Semantics [9] を意味表示として採用している. 彼らはドイツ語を部分的に語順自由な言語ととらえ, 型変換規則を用いる事でかき混ぜ文や主題化の扱いを工夫している.
4) https://github.com/OpenCCG/openccg
Hockenmaier[6] は, 既存のドイツ語ツリーバンクである Tiger corpus ${ }^{5)}$ を,組合せ範疇文法版のツリー バンクに変換する手順を論じている.またその説明の過程で,ドイツ語用組合せ範疇文法に関する興味深い提案を行っている.ただし,統語範疇に関する記述のみで,意味表示に関しては述べられていない.かき混ぜ文に関しては,各語順に合わせてそれぞれに専用の統語範疇を用意する立場を取っている.
Evang ら [10] は,多言語対応組合せ範疇文法のアノテーションガイドラインと,アノテーション実施のためのツールを公開している. 対象とされている言語は, 英語, ドイツ語, イタリア語, オランダ語の 4 言語である.また参考のために, $4 \times 100$ 文のパラレルコーパスと, $10 \mathrm{~K}$ 文の検証済み単言語コーパス,および $82 \mathrm{~K}$ 文の部分的検証済み単言語コーパスが提供されている.意味表示に関しては述べられていない.
## 6 おわりに
適切な統語範疇と意味表示を持った語彙項目を設定する事で, 6 通りの異なった統語構造を持ったドイツ語の原因・結果文すべてから同一の意味表示を合成する事が可能となった。人間がこの 6 文を読んだ場合も,脳内にはほぼ同一の原因・結果関係が生成されると考えられる。
人間による文理解において興味深いのは,文全体を読み終えてから最適解の探索を開始するのではなく,文頭から順に語を読み進めるに沿って漸進的に解釈を行っていると感じられる点である.
一般の句構造文法では, 主語一動詞一目的語という語順の構造を(主語(動詞目的語))のように解析するので, 文頭からの漸進的な解釈のモデル化が難しいが,組合せ範疇文法では型繰り上げ規則と関数合成規則を利用する事で,((主語動詞)目的語)という解析が可能である6). その意味で組合せ範疇文法は漸進的解釈のモデル化に向いている.
また, 日本語やドイツ語のように(動詞以外の)語順が比較的自由な言語においては, 異なる入力語順から同一の意味的表現が合成される場合がある. これも広い意味では,異なる統語構造から同一の意味表示を求める問題と言える.今後はこれらの点に注目して研究を進めていきたい.
## 謝辞
本研究は JSPS 科研費 JP22K12188 の助成を受けたものです.
## 参考文献
[1] Mark Steedman. The Syntactic Process. The MIT Press, 2000.
[2] Mark Steedman. Surface Structure and Interpretation. The MIT Press, 1996
[3] 戸次大介. 日本語文法の形式理論. くろしお出版, 2010.
[4] 峯島宏次. 論理と文法. 数学セミナー, Vol. 59, No. 3, pp. $30-35,2020$
[5] 在間進. [改訂版]詳解ドイツ語文法. 大修館書店, 2006.
[6] Julia Hockenmaier. Creating a CCGbank and a widecoverage CCG lexicon for German. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 505-512, Sydney, Australia, July 2006. Association for Computational Linguistics.
[7] M. Steedman. Grammar, interpretation, and processing from the lexicon. In W. Marslen-Wilson, editor, Lexical representation and process, pp. 463-504. The MIT Press, Cambridge, MA, 1989.
[8] Jean Vancoppenolle, Eric Tabbert, Gerlof Bouma, and Manfred Stede. A german grammar for generation in openccg. In H. Hedeland, T. Schmidt, K. Wörner (eds.): Multilingual Resources and Multilingual Applications. Proc. of the Conference of the German Society for Computational Linguistics and Language Technology (GSCL), Hamburg, 2011. Working Papers in Multilingualism, Series B, No. 96, pp. 145-150, 2011.
[9] Jason Baldridge and Geert-Jan Kruijff. Coupling CCG and hybrid logic dependency semantics. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 319-326, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[10] Kilian Evang, Lasha Abzianidze, and Johan Bos. CCGweb: a new annotation tool and a first quadrilingual $C C G$ treebank. In Proceedings of the 13th Linguistic Annotation Workshop, pp. 37-42, Florence, Italy, August 2019. Association for Computational Linguistics.
[11] Vera Demberg. Incremental derivations in CCG. In Proceedings of the 11th International Workshop on Tree Adjoining Grammars and Related Formalisms (TAG+11), pp. 198-206, Paris, France, September 2012.
図 3 “Weil ich Durst habe, trinke ich Bier." の導出
図 4 "Ich trinke Bier, ich habe nämlich Durst." の導出
図 5 "Ich habe Durst, deshalb trinke ich Bier." の導出 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-3.pdf | # 組合せ範疇文法を用いたドイツ語文の漸進的解析
高橋直人 竹内泉 一杉裕志
産業技術総合研究所人工知能研究センター
\{naoto.takahashi, takeuti.i,y-ichisugi\}@aist.go.jp
## 概要
文法的には異なる統語構造を持っているにもかかわらず,人間にとっては同じ意味と理解される複数の文があった場合に,それぞれの文を「漸進的に」解析し, かつ同一の意味表示を得る事が可能か否かを検討する.解析対象としては,接続語のタイプによって語順がさまざまに変化するドイツ語文を用いる.また文法形式としては, 漸進的解析に適しているとされる組合せ範疇文法を用いる.
## 1 はじめに
人間が自然言語を理解する際は,文の終了を待たず,文頭から漸進的に解析を行っていると考えられる. またその推測を支持する心理学的実験結果も存在する $[1,2]$. 更に工学的な応用として同時通訳や字幕生成などの自動化を考慮した場合, 漸進的な解析技術は不可欠であると言える。
一概に文頭からの漸進的解析と言っても, そこにはさまざまなレベルがありうる.比較的制限の緩い方法としては, 語順に従って 1 語ずつ読み進めながら作成した複数の部分木を, それぞれ個別の記憶領域に一時的に保存し, 他の部分木との接続関係が明確になった時点で初めて互いに連結する, という戦略が考えられる. 一方, 厳密な漸進的解析としては, 文頭から順に 1 語読み進むたびに, その語を現在作成中の部分木の一部として即座に埋め込む, という方式がある.
本稿では,人間の文理解モデルに関して考察する. 具体的には, 統語構造的にはさまざまな形を取るが,意味内容的には同一の複数のドイツ語文を,組合せ範疇文法を用いて「厳密な形で」漸進的に解析する際に, どのような語彙項目と導出過程が必要となるか考察する1).
図 1 本稿で使用する組合せ規則一覧
## 2 組合せ範疇文法
組合せ範疇文法 $[3,4,5,6]$ は語彙化文法の一種であり,「マイルドな文脈依存」と言われる弱生成能力を持つ. そのため, 文脈自由文法の範囲に収まらない自然言語現象を記述する事ができる. また理論的にも実際的にも効率のよい解析アルゴリズムが知られている $[7,8]$ ため, 自然言語の文法記述に適しているとされている.
更に, 統語構造から意味表示への直接的なマッピングがあるので,複数の文を統語解析した後,それらの意味表示を比較するのに都合が良い.
組合せ範疇文法では, $S$ (文)や $N P$ (名詞句)のような少数の基底範疇と, それらを結ぶ演算子を再帰的に用いる事で,多様な統語範疇を表現する.演算子には/と\がある. $X$ と $Y$ を統語範疇としたとき,X/Yは「右側に $Y$ が隣接したときに $X$ となる統語範疇」, $X \backslash Y$ は「左側に $Y$ が隣接したときに $X$ となる統語範疇」を意味する.
このように作られる統語範疇の構造は非常に柔軟であり,未完成の統語的構成素を自然に表現することができる.それゆえに組合せ範疇文法は,他の文法形式に比べて漸進的な構文解析に向いているとさ
図 2 "Ich trinke Bier" の通常の(非漸進的)導出. $S$ はすべて $S[d c l]$ すなわち平叙文.
## れている $[1,2,3,9]$.
たとえば“The boy will eat the cake”という文があった時, 厳密な漸進的解析を行うためには “The boy will eat the”に対応する部分にも統語範疇を割り当てる必要がある,一般の文脈自由文法でそのような統語範疇を設定するのは困難であるが,組合せ範疇文法であれば $S / N$, つまり「右に $N$ (名詞) が隣接した場合に $S$ (文)となる範疇」と自然に表現することができる [1].
語彙項目に付与された統語範疇は, 少数かつ言語非依存の組合せ規則によって互いに組み合わされるが,このとき意味表示も同時並列的に合成される. この操作が再帰的に実行される事によって, 語彙項目レベルの意味表示が文レベルの意味表示へと順次成長する.
本稿で使用する組合せ規則の一覧を図 1 に示す. コロンの左側が統語範疇で, 右側がラムダ項による意味表示である.
図 2 にドイツ語文 “Ich trinke Bier”(英訳 “I drink beer”) の通常の非漸進的導出を, 図 3 に同じ文の漸進的導出を示す. 多くの場合は図 3 のように, 型繰り上げ規則と関数合成規則を組み合わせる事で漸進的な導出が可能になるが, 標準的な組合せ規則だけでは漸進的に導出できないパターンも存在する [1].
## 3 漸進的ドイツ語解析
図 3 “Ich trinke Bier” の漸進的導出. $S$ はすべて $S[d c l]$.
1. 従属複合文(原因文の文頭に従属接続詞) Ich trinke Bier, weil ich Durst habe. I drink beer because I thirst have 2. 従属複合文 (1 の変形; 原因文が先行) Weil ich Durst habe, trinke ich Bier. because I thirst have drink I beer 3. 並列複合文(原因文の文頭に並列接続詞) Ich trinke Bier, denn ich habe Durst. I drink beer because I have thirst 4. 並列複合文(原因文の文中に接続的副詞) Ich trinke Bier, ich habe nämlich Durst. I drink beer I have because thirst 5. 並列複合文(結果文の文頭に接続的副詞) Ich habe Durst, deshalb trinke ich Bier. I have thirst therefore drink I beer 6. 並列複合文(結果文の文中に接続的副詞) Ich habe Durst, ich trinke deshalb Bier. I have thirst I drink therefore beer
図 4 「喉が渴いたのでビールを飲む」のドイツ語訳 6 種
## 3.1 原因・結果関係の統語的パターン
他の自然言語同様, ドイツ語の原因・結果関係は,図 4 に示すようにさまざまな統語構造で表現される. たとえば文 $1 , 3 , 4$ を比較すると,先行文が全く同一であっても,接続関係を示す語(weil, denn, nämlich)の違いによって,後続文の語順が変化する事が分かる。したがって,接続関係を示すこれらの語には,それぞれ異なった統語範疇を付与する必要がある.
このような統語構造とその意味表示の複雑な関係を漸進的に解決する場合に,どのような語彙項目と導出過程が考えられるかを以下に示す.
## 3.2 語彙項目と導出過程
本稿では, 基底範疇 $N P$ (名詞句)の統語素性に関して $n$ (主格)と $a$ (対格)の 2 種類を区別する.また基底範疇 $S$ (文) の統語素性に関しては, Hockenmaier[10] を踏襲し, $d c l$ (declarative, 定動詞第 2 位),v1(verb initial,定動詞文頭),vlast(verb final, 定動詞文末), $e m b$ (embedded, 副文) の 4 種類を使用する、ドイツ語動詞の統語範疇は,英語動詞同様に基底型ではなく関数型とするが,文頭の定動詞と文頭以外の定動詞で意味表示が異なる点に注意が必要である.
また, weil, denn, nämlich, deshalb 等の接続詞および接続的副詞に関する語彙項目は,一般的な英語の接続詞や副詞と異なる部分が多い。これは原因・結果関係を示すドイツ語固有の統語構造と, 本稿の目
$S[$ dcl $]$ : because ${ }^{\prime}\left(\right.$ have $^{\prime}\left(I^{\prime}\right.$, thirst $\left.^{\prime}\right)$, drink $^{\prime}\left(I^{\prime}\right.$, beer $\left.\left.{ }^{\prime}\right)\right)$
図 5 “Ich trinke Bier, weil ich Durst habe.” の漸進的導出
図 6 "Ich trinke Bier, denn ich habe Durst." の漸進的導出. $S$ はすべて $S[d c l]$.
図 7 "Ich trinke Bier, ich habe nämlich Durst.” の漸進的導出. $S$ はすべて $S[d c l]$.
的である厳密な漸進的解析を実現するためである.以上を踏まえ,厳密な漸進的解析が可能になるように設定した語彙項目と, そのときの各文の導出過程(の一例)を図 5 から図 10 に示す. 最終的にどの文からも同一の意味表示が得られている事が分かる.
## 4 関連研究
Stanojević and Steedman [2] は, 漸進的木回転(Incremental Tree Rotation)と名付けた組合せ範疇文法の解析アルゴリズムを提案している。このアルゴリズムは,右枝分かれの木を左枝分かれに変換すると共に, 右端に出現する可能性を秘めた俒在的な修飾語句に対応した漸進的な処理が可能である.漸進的木回転は純粋に文法的な手法であるが,意味表示やヒューリスティックスを利用する先行研究に比べて, より高い漸進性と精度を示すと報告されている.
Demberg [1] は組合せ範疇文法における厳密な漸進性 (strict incrementality あるいは full connectedness) について議論し, どのような場合に厳密な漸進的解析が可能で,どのような場合に不可能であるかを分析している。また一般の組合せ範疇文法には陽に含まれない「Geach 規則」を導入し, 厳密な漸近的解析が適用できる範囲を拡大する方法を示している.
$
\text { Geach 規則 }: Y / Z \Rightarrow{ }_{\mathrm{B}}(Y / G) /(Z / G)
$
語彙項目としては通常の非漸進的解析に用いられる物をそのまま変更せずに採用しつつ,組合せ規則を追加することで漸近的に解析可能な範囲を拡張している点が本稿との違いである.
ブログ記事 $[11,12]$ は,上記 Demberg [1] を踏まえた上で一般化型繰上げ規則と一般化 Geach 規則を提案し,更に以下のような予想を与えている.
application/composition/type raising のみが許される CCG の任意の導出木を, generalized type raising と generalized Geach rule を使って, (semantics を変えることなく) incremental な導出木に変形できることが示せると思う
興味深い予想であり,今後の展開が期待される.
## 5 おわりに
意味内容的には同一だが,統語構造的にはさまざまな形を取る複数の文を,組合せ範疇文法を用いて厳密な形で漸進的に解析しつつ, 最終的に同一の意味表示を得る事ができるか否かを, ドイツ語の原因・結果関係文を題材として考察した。
本稿の漸進的解析では, 型繰り上げ規則と関数合成規則を使用しているが,これらの規則を多用すると擬似的曖昧性(spurious ambiguity)が急激に増加してしまう,という問題が知られている。そのため正規型(normal form)と呼ばれる導出においては,関数合成と型繰り上げの使用は関係節など統語的に必要な場面に制限されている [9].
また, Hockenmaier and Steedman[13] においても,関数合成と型繰り上げは必要な場合のみ行うとされており, 更に Stanojević and Steedman[2] では, 型繰り上げを適用する範疇は $N P$ や $P P$ などの引数に限られる,とされている。
異なる統語構造に対して厳密な漸進的解析を実行し, 最終的に同一の意味表示を得るという当初の目的は達成されたが, 厳密な漸進性を重要視した結果として逆に探索空間が増加してしまうのでは, 人間の言語理解モデルとして十分ではないと考えている. また図 7 の nämlich や図 10 の deshalb に付与した語彙項目は, 厳密な漸進性を実現するためとは言え,複雑すぎるようにも見える。
今後は漸進性のレベルと探索空間の範囲, それに語彙項目の複雑さのバランスが取れた言語理解モデルの構築に取り組みたい。
## 謝辞
本研究は JSPS 科研費 JP22K12188 の助成を受けたものです.
## 参考文献
[1] Vera Demberg. Incremental derivations in CCG. In Proceedings of the 11th International Workshop on Tree Adjoining Grammars and Related Formalisms (TAG+11), pp. 198-206, Paris, France, September 2012.
[2] Miloš Stanojević and Mark Steedman. CCG parsing algorithm with incremental tree rotation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 228-239, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[3] Mark Steedman. The Syntactic Process. The MIT Press, 2000.
[4] Mark Steedman. Surface Structure and Interpretation. The MIT Press, 1996
[5] 戸次大介. 日本語文法の形式理論. くろしお出版, 2010.
[6] 峯島宏次. 論理と文法. 数学セミナー, Vol. 59, No. 3, pp. $30-35,2020$.
[7] Krishnamurti Vijay-Shanker and David Weir. Polynomial time parsing of combinatory categorial grammars. In 28th Annual Meeting of the Association for Computational Linguistics, pp. 1-8, 1990.
[8] Stephen Clark and James R. Curran. Wide-coverage efficient statistical parsing with CCG and log-linear models. Computational Linguistics, Vol. 33, No. 4, pp. 493-552, 2007.
[9] David Reitter, Julia Hockenmaier, and Frank Keller. Priming effects in Combinatory Categorial Grammar. In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, pp. 308-316, Sydney, Australia, July 2006. Association for Computational Linguistics.
[10] Julia Hockenmaier. Creating a CCGbank and a widecoverage CCG lexicon for German. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 505-512, Sydney, Australia, July 2006. Association for Computational Linguistics.
[11] 氏名不詳. 組合せ範疇文法の漸進的構文解析, 2021. https://m-a-o.hatenablog.com/entry/2021/ 05/05/085810.
[12] 氏名不詳. 続・組合せ範疇文法の漸進的構文解析, 2021. https://m-a-o.hatenablog.com/entry/2021/ 11/14/234710.
[13] Julia Hockenmaier and Mark Steedman. CCGbank: User's manual. 052005 .
図 8 “Weil ich Durst habe, trinke ich Bier.” の漸進的導出
図 9 "Ich habe Durst, deshalb trinke ich Bier." の漸進的導出.
先行文の “Ich habe Durst” は, “Ich trinke Bier” と同様の手順で漸進的に導出可能.
図 10 "Ich have Durst, ich trinke deshalb Bier." の漸進的導出. $S$ はすべて $S[\mathrm{dcl}]$. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-4.pdf | # RNN はラテン語からロマンス語への活用変化を再現するか?
川崎義史
東京大学
ykawasaki@g.ecc.u-tokyo.ac.jp
## 概要
本稿では,ラテン語からロマンス語への発達における動詞活用の変化を計算機上で再現し,計算歴史言語学の見地から分析を行った。具体的には,系列変換モデルにラテン語の動詞活用を学習させ,その出力形を分析した。その結果,以下のことが判明した:(1)正解率の分布は予測と合致した;(2)正解率は,ラテン語からロマンス語への変化の大きさと負の相関を示した;(3)誤出力の中にはロマンス語を彷彿させる語形が見られた。
## 1 はじめに
ラテン語は, 名詞・形容詞の曲用と動詞の活用を持つ屈折語である [1]。名詞は数・格に応じて $2 \times 6=12$ 変化, 形容詞は性・数・格に応じて $3 \times 2 \times 6=36$ 変化する。動詞は,法・態・時制・人称・数に応じて一層複雑に活用する。能動態では,表 1 のチェックマークの記された法と時制におい $\tau$, 主語の人称 ( 1 人称, 2 人称, 3 人称) と数 (単数,複数)に応じて最大 $3 \times 2=6$ 変化する。受動態でも同様に活用する。つまり,1つの動詞は,能動態・受動態の直説法 6 時制と接続法 4 時制だけで, $2 \times(6+4) \times 6=120$ 変化する。さらに, 命令法・不定詞・分詞の形も存在する。例として, 表 2 は, AMĀRE 「愛する」の直説法・能動態・現在と完了の活用を示している1)。太字は強勢母音を,一は長母音を表す。不規則動詞は除き, 4 種類の動詞活用クラスがあり,それぞれ独自の語尾変化を持つ2)。動詞の正確な活用には, 直説法 $\cdot$ 能動態 $\cdot$ 現在 $\cdot 1$ 人称単数, 不定詞 - 能動態 - 現在,直説法 - 能動態 - 完了 - 1 人称単数,完了受動分詞 - 中性 - 単数の 4 つの語形が必須となる。例えば, AMĀRE の場合は,順に AMŌ, AMĀRE, AMĀVĪ, AMĀTUM となる。これらの語形の間には一定の対応関係が存在するものの,一般的には,
1)本稿では,能動態・現在の不定詞で動詞を代表させる。
2)厳密には,第 3 活用には $\mathrm{a}$ と $\mathrm{b}$ の 2 種類がある。表 1 ラテン語の能動態の動詞活用 : チェックマークは該当する法や時制の活用が存在することを表す。
表 2 AMĀRE「愛する」の直説法・能動態・現在(左)と完了(右)の活用表:太字は強勢母音を,一は長母音を表す。
ある形から他の形を導出することはできない。
ラテン語から派生したイタリア語,スペイン語, フランス語,ポルトガル語,ルーマニア語等の言語はロマンス語と総称される $[2]^{3}$ )。ラテン語の直説法・能動態・未来や受動態の一部の活用などは,ロマンス語に継承されずに消滅した。その代わりに, ロマンス語は,未来や受動を表現するための独自の活用を発達させた [4]。ロマンス語に継承された活用では,類推作用 $[5,6,7]$ により平準化が進み,活用形の不規則性は減少した。活用の消滅や平準化の進展などについて事後的な記述は可能であるが,これらの変化の蓋然性は自明ではない。
そこで,本稿では,「話者により体系が作られる」 という考え [8] に基づき,ラテン語からロマンス語への発達における動詞活用の変化を計算機上で再現し,計算歴史言語学の見地から分析を行う。具体的には,Recurrent Neural Network(RNN)を利用する系列変換モデル [9] を話者に見立て,ラテン語の動詞活用の形態論を学習させる。そして,学習済みモ
3)正確には,ロマンス語は,文語の(古典)ラテン語ではなく口語の俗ラテン語 [3] から発達したものである。しかし,後者の文字資料は存在しない。そのため,本稿では,前者をロマンス語の母体とみなして分析を行う。
デルの出力形の分析を行い,下記の問いに答える:
・学習が困難な動詞や活用は存在するか?
- 各活用の正解率は,ラテン語からロマンス語への発達における変化の大きさを反映するか?
・誤出力に何らかの特徴が見られるか?
本稿の構成は次の通りである。2 節で関連研究を概観する。3 節で手法の解説,4 節で実験設定の説明を行う。 5 節で考察を行い,6 節で結論と今後の課題を述べる。
## 2 関連研究
本稿は, Paradigm Cell Filling Problem (PCFP)[10] と関連している。PCFP とは,名詞や動詞の活用形の一部が与えられた状況で,未知の活用形を予測するタスクである。[11,12] は,系列変換モデルでこのタスクに取り組んだ。複数の言語での実験結果を報告しているが,出力結果の詳細な分析はない。
[13] は,英語の不規則な過去形の通時的な規則化 (-ed の付加) を計量的に分析し, 規則化率 $\propto$ 使用頻度 ${ }^{0.5}$ となることを発見した。[14] は,系列変換モデルで英語の過去形の習得をモデル化し,習得過程で見られるU 字カーブの再現を報告している。
[15] は,系列変換モデルで「言語もどき」の語順の学習と世代間継承をモデル化した。創発するパターンを分析し, 長距離依存を嫌う傾向を発見した。対象は自然言語ではないが,系列変換モデルで言語変化をモデル化した点で特筆に値する。
本稿では,ラテン語の動詞活用全体を系列変換モデルに学習させ, ロマンス語とも対照しつつ,学習済みモデルの振る舞いを詳細に分析する。
## 3 手法
系列変換モデルに,ラテン語の動詞活用の形態論を学習させる。符号化器には Bi-LSTM, 復号器には注意機構付きの LSTM を用いる。不定詞と活用形の形態情報を入力し, 文字単位で活用形を出力させる。形態情報は, 法/態/時制/人称・数を連結したものとする。文字と同様に,不定詞と形態情報も 1 つのトークンとする。図 1 に手法概略図を示す。例えば, ama:re, ind/act/pres/2pl $\mapsto$ ama\#a:tisのような変換を学習させる。形態情報のind/act/pres/2pl は,直説法/能動態/現在 $/ 2$ 人称複数を表す。また,: は長音を,井は直後の音節に強勢があることを表す記号とする。
図 1 手法概略図 : 系列変換モデルにラテン語の動詞活用を学習させる。不定詞と活用形の形態情報を入力し,文字単位で活用形を出力させる。符号化器には Bi-LSTM,復号器には注意機構付きの LSTM を用いる。
本稿の狙いは,正解率の向上ではなく,学習が進んだ時点でのモデルの振る舞いの分析である。そのため,検証データの正解率が一定の值に達するまで訓練データで学習を行う。出力形と正解形が完全に一致する場合のみ,正解とする。その後,モデルが産出するテストデータの出力形を詳細に分析する。
## 4 実験
データセットは 2 万件の入出力ペアとし, $8: 1: 1$ で訓練データ,検証データ,テストデータに分割した。使用する動詞は, [16] 収録の 586 種類とした。母音の長短は [17] に従った。古典語コーパス PhiloLogic44)における使用頻度に基づいて動詞をサンプリングした。ただし,同一データの重複を避けたため,コーパス頻度に比べて滑らかな分布となった。法は, 直説法: 接続法: 命令法: 不定詞: 分詞 $=6: 4: 1: 1: 1$ の割合でサンプリングした。直説法の 6 時制,接続法の 4 時制に対し,命令法・不定詞・分詞の活用は一部の時制や人称・数に限られるため,割合を 1 とした(表 1 参照)。ただし,上記の割合はコーパス頻度を反映しておらず,暫定的なものである。態,時制,人称・数は,いずれのカテゴリも一様分布からサンプリングした。
埋め込み次元は 32 ,隠れ状態の次元は 64 ,エポック数は 100 とした。分析には一定量の誤出力を必要とするため,検証データの正解率は 9 割程度に抑えた。上記のパラメータ設定は,この基準を辛うじて満たすものだった。検証データとテストデータの正解率は,それぞれ,0.889,0.892だった。
## 5 考察
本節では,テストデータの出力に基づき分析を行う。仮説検定の有意水準は 0.05 とする。
形式受動態動詞ラテン語には,意味は能動だが活用は受動態を用いる形式受動態動詞と呼ば
表 4 未完了系・完了系の正解率法/態/系正解率
直説法/能動態/未完了系 $0.865(294 / 340)$
直説法/能動態/完了系 $0.921(268 / 291)$直説法/受動態/未完了系 $0.919(216 / 235)$直説法/受動態/完了系 $\quad 0.982(214 / 218)$接続法/能動態/未完了系 $0.845(131 / 155)$接続法/能動態/完了系 $0.959(163 / 170)$接続法/受動態/未完了系 $0.915(108 / 118)$接続法/受動態/完了系 $0.985(135 / 137)$
れる動詞が存在する $[1]$ 。これらの動詞の態は,意味に基づき能動態とした。形式受動態動詞の正解率は 0.559 (62/111) で,それ以外の動詞の正解率 $0.912(1723 / 1889)$ に比べ,有意に低かった ( $p<0.001)$ 。全体に占める割合の小ささと「意味は能動だが活用は受動態」という特殊性が,学習を困難にしていると考えられる。そのために,形式受動態動詞は, その他の動詞と同様の能動態動詞に変転しロマンス語に継承されたと推定される [4]。これ以降,形式受動態動詞は分析から除外する。
学習困難な活用表 3 に,各形態情報(法/態のレベル)の正解率を示す。法は直説法と接続法に限定した。いずれの態でも, 直説法と接続法の正解率に有意な差は見られなかった。一方,いずれの法でも,能動態の正解率は受動態よりも有意に低かった (直説法では $p<0.001 ,$ 接続法では $p=0.014$ )。能動態の正解率の低さは,学習困難な形式受動態動詞や不規則動詞に起因すると考えられる。
次に,未完了系と完了系の振る舞いを分析する。 ラテン語の動詞活用は, 未完了系 (現在・未完了・未来)と完了系(完了・過去完了・未来完了)に二分される (表 1 参照)。いずれの態でも,未完了系は,活用クラスごとに活用語尾が異なる。一方,完了系は, 活用の仕様が全活用クラスで共通である。 そのため, 未完了系の方が完了系よりも学習が困難だと予想される。表 4 に示す実験結果は, この予想を支持する。直説法/能動態 $(p=0.011)$, 直説法/受動態 $(p=0.001)$, 接続法/能動態 $(p=0.001)$, 接続法/受動態 $(p=0.004)$ の全てで,未完了系の正解率は完了系よりも有意に低かった。表 5 は,各形態情報(法/態/時制のレベル)の正解率を示している。この結果を,ラテン語からロマンス語への発達の過程で生じた形態的変化の大きさと対照してみたい。一つの方策として,[4] で各活用の説明に割かれている紙数を形態的変化の大きさの代理変数とみなすことにする5)。大きな変化を経た活用ほど,割かれる紙数も大きくなると予想される。分析対象は,ロマンス語に継承された以下の活用とした:直説法/能動態/現在,直説法/能動態/未完了,直説法/能動態/完了,直説法/能動態/過去完了,直説法/能動態/未来完了,接続法/能動態/現在,接続法/能動態/完了,接続法/能動態/過去完了,不定詞/能動態/現在,分詞/受動態/完了。ロマンス語に継承されなかった活用(直説法・能動態・未来や一部の受動態など)やラテン語に対応するものがない活用(ロマンス語の直説法・能動態・未来など)は除外した。正解率と紙数の順位相関係数は $\rho=-0.728(p=0.017)$ で,統計的に有意な強い負の相関を示した。これは,学習困難なラテン語の活用ほど,ロマンス語発達の過程で大きな変化を受けたことを示唆する。この変化の実体は,類推作用による活用形の平準化である [4]。モデルの出力が,現実の通時変化の傾向と合致したことは興味深い。
しかしながら,正解率が高い活用が必ずしもロマンス語に継承されるわけではない。例えば,直説法・能動態・未来,接続法・能動態・未完了や受動態の正解率は低くはないが,ロマンス語に継承されなかった。これらの活用の消失は, 形態面の学習困難性では説明できず,言語内外の他の要因の検討が必要となる。
活用クラス表 6 は,各活用クラスの正解率を示している。活用4クラス間の正解率に有意な差は見られなかった。一方,不規則動詞の正解率は,いずれの活用クラスよりも,有意に低かった $(p<0.01)$ 。
訓練データ頻度各動詞の訓練データにおける出現頻度と正解率の順位相関係数は $\rho=0.205(p<$ 0.001 )で,有意な正の相関が見られた。低頻度の動詞ほど学習困難という傾向は直感と合致する。
一方, 訓練データにおける形態情報(法/態/時制のレベル)の頻度と正解率の順位相関係数は $\rho=0.134(p=0.436)$ で, 有意な相関は見られなかった。これは,頻度とは独立に,学習が容易(困難) な形態情報が存在することを示唆する。
5)実際には,音変化により誘発された変化も多く [4],純䊀に形態的変化のみを定量化することは困難である。
ロマンス語形の出現誤出力の中には, 俗ラテン語やロマンス語を彷彿させる下記の語形が散見された。これらの語形はラテン語としては誤りであるが,ロマンス語としては尤もらしいものである。ラテン語の動詞活用を学習する過程で,モデルは類推作用 $[5,6,7]$ を獲得し, これらの語形を生み出したと言える。つまり,ラテン語内部にロマンス語を生み出す契機が胚胎されていることを示唆している。
・形式受動態動詞の能動動詞化:LOQUī「話す」の直説法/能動態/現在 $/ 2$ 人称単数の出力形 l\#oquis (正解は l\#oqueris)
- 不規則動詞の規則化:POSSE「できる」の直説法/能動態/未完了 $/ 3$ 人称複数の出力形 pot\#e:bant (正解は p\#oterant)
- 第 2 活用と第 $3 \mathrm{a}$ 活用の混同:EXCĒDERE「去る」の直説法/能動態/現在 $/ 2$ 人称複数の出力形 exce:d\#e:tis(正解は exc\#e:ditis)
- 第 $3 \mathrm{a}$ 活用と第 $3 \mathrm{~b}$ 活用の混同:DĒFICERE「不足する」の直説法/能動態/現在 3 人称複数の出力形d\#e:ficunt(正解は de:f\#iciunt)
- 強勢位置の移動:EXCIPERE「除外する」の直説法/能動態/現在 $/ 3$ 人称単数の出力形 exc\#ipit (正解は\#excipit)
## 6 おわりに
本稿では,ラテン語からロマンス語への発達における動詞活用の変化を計算機上で再現し,計算歴史言語学の見地から分析を行った。具体的には, 系列変換モデルにラテン語の動詞活用を学習させ,その出力形を分析した。その結果, 以下のことが判明した:(1) 正解率の分布は予測と合致した;(2)正解率は,ラテン語からロマンス語への変化の大きさと負の相関を示した; (3) 誤出力の中にはロマンス語を彷彿させる語形が見られた。
今後の課題の 1 つは,より現実を模倣した設定下で実験を行うことである。例えば,各形態情報の実際の使用頻度や,母音の長短などの音韻的区別の喪失 [4] を反映させることが考えられる。そのような設定下で実験を行うことで,新たな知見が得られる可能性がある。また,本稿の手法を発展させて,統語的変化や方言分化などの現象を計算歴史言語学の見地から検証することも興味深いと思われる。表 5
各形態情報(法/態/時制のレベル)の正解率
表 6 各活用クラスと不規則動詞の正解率
## 謝辞
本研究は JSPS 科研費 JP18K12361 の助成を受けたものです
## 参考文献
[1] Renato Oniga. Latin: A Linguistic Introduction. Oxford University Press, 2014.
[2] Adam Ledgeway and Martin Maiden, editors. The Oxford Guide to the Romance Languages. Oxford University Press, 2016.
[3] Ralph Penny. A History of the Spanish Language. Cambridge University Press, 2002.
[4] Ti Alkire and Carol Rosen. Romance Languages: A Historical Introduction. Cambridge University Press, 2010.
[5] Javier Elvira. El cambio analógico. Gredos, 1998.
[6] James P. Blevins and Juliette Blevins. Analogy in Grammar: Form and Acquisition. Oxford University Press, 2009
[7] Joan Bybee. Language Change. Cambridge University Press, 2015
[8] Eugenio Coseriu. Sincronía, diacronía e historia: El problema del cambio lingüístico. Gredos, tercera ed edition, 1988.
[9] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. Vol. 27. Curran Associates, Inc., 2014.
[10] Farrell Ackerman, James P. Blevins, and Robert Malouf. Parts and wholes: Implicative patterns in inflectional paradigms, 2009.
[11] Robert Malouf. Abstractive morphological learning with a recurrent neural network. Morphology, Vol. 27, p. 431-458, 112017.
[12] Miikka Silfverberg and Mans Hulden. An encoderdecoder approach to the paradigm cell filling problem. p. 2883-2889. Association for Computational Linguistics, 2018.
[13] Erez Lieberman, Jean Baptiste Michel, Joe Jackson, Tina Tang, and Martin A. Nowak. Quantifying the evolutionary dynamics of language. Nature, Vol. 449, pp. 713-716, 102007 .
[14] Christo Kirov and Ryan Cotterell. Recurrent neural networks in linguistic theory: Revisiting pinker and prince (1988) and the past tense debate. Trans- actions of the Association for Computational
Linguistics, Vol. 6, pp. 651-666, 2018.
[15] Rahma Chaabouni, Eugene Kharitonov, Alessandro Lazaric, Emmanuel Dupoux, and Marco Baroni. Word-order biases in deep-agent emergent communication. p. 5166-5175. Association for Computational Linguistics, 2019
[16] 有田潤. ラテン語基礎 1500 語. 大学書林, 1957.
[17] 水谷智洋(編). 羅和辞典〈改訂版〉. 研究社, 2009 . | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D8-5.pdf | # ルールベース G2P による多言語固有表現の 国際音声記号表記付きデータセットの構築
的川雄飛 1 坂井優介 1 平野颯 1 澤田悠冶 ${ }^{1}$
大内啓樹 1,2 渡辺太郎 1
1 奈良先端科学技術大学院大学 2 理化学研究所
matogawa.yuhi.na2@is.naist.jp
\{sakai.yusuke.sr9, hirano. hayate.hc2, sawada.yuya.sr7\}@is.naist.jp
\{hiroki.ouchi, taro\}@is.naist.jp
## 概要
本研究では,多言語の固有表現(NE)をルールベースの grapheme-to-phoneme(G2P)によって国際音声記号(IPA)に変換した表記の大規模データセットを構築した.多様な文字・音韻体系からなる複数の言語の NE を IPA という一つの体系によって表記したデータセットは,NE を対象とした G2P や通言語の言語モデル構築, $\mathrm{NE}$ 表記のリンキングなどのタスクへの有益な応用を期待できる。本研究は,既存データセットの NE 表記をルールベース G2P のフレームワークを用いて IPA 列に変換し,IPA 表記付きのデータセットを構築した。また,これに伴い日本語から IPAへの変換ルールを作成し,フレームワークに追加した。
## 1 はじめに
ある言語における固有表現(NE)を表すテキストとそれに対応する音声記号表記のデータは,テキストの発音に関する情報が求められる諸タスクに NE を対象として取り組む場合において必要となる。例えば,任意の文字体系で書かれた表記を国際音声記号(IPA)などの発音記号に変換する grapheme-to-phoneme (G2P) に,NEを対象としてニューラルベースの手法で取り組む場合,元の $\mathrm{NE}$表記と発音の関係を学習するためのデータが必要である。また,多様な言語・文字種の NE 表記を全て統一的な IPA に変換したデータが存在すれば,特定の言語に依らない非常に通言語性にすぐれた「IPA 言語モデル」の学習に利用できる.
これらに加え,特定の言語における $\mathrm{NE}$ 表記を正しいID にリンキングさせるタスクにおいても,テ
キストと音声記号表記の対応データが必要な場合がある.例えば,他の言語の NE 表記と ID のペアが明示された情報が存在する場合,NE 表記を IPA 列に変換して,メインの研究対象である言語の $\mathrm{NE}$ 表記から変換された IPA 列と他言語の NE 表記から変換された IPA 列のあいだで音声的類似度を計算し1),類似度が最も高い他言語の NE 表記と紐付いている ID をメインの研究対象である言語の NE 表記に紐付くIDとする,という手法が考えられる。この場合の音声的類似度の計算にも,やはり $\mathrm{NE}$ 表記と音声記号表記のマッピングのデータが必要となる。
元言語の表記と音声記号表記の対応データを公開した先行研究として,オンライン辞書 “Wiktionary” の記述に基づくデータセットを公開したものが挙げられる [2]. しかし,このデータセットは $\mathrm{NE}$ に特化したものではなく,上に挙げたような $\mathrm{NE}$ 対象とするタスク・研究における利用には適さない。
本研究では,既存の $\mathrm{NE}$ 表記データセットを用い,複数言語の $\mathrm{NE}$ 表記をルールベース G2P のフレームワークを用いて IPA 列に変換することによって,上記のような NE 関連のタスクに必要な IPA 付き NE 表記データセットを構築した。また,日本語については,このフレームワークにおけるサポートが存在しなかったため,言語学・音声学分野の文献を基に G2P ルールを新たに作成した.
この結果,68 言語について,NE 表記と対応する IPA 列の組数が 6,900 万以上にのぼるデータセットが完成した.このデータセットは,NE を対象とした研究における使用に適したものであるのみなら
1)具体的な音声的類似度の計算方法としては,IPA 同士でナイーブな編集距離を計算する手法のほか,IPA の各シンボルを音声学的な素性の有無に基づくべクトルに変換してから類似度を計算する手法 [1] などが挙げられる。
表 1 ParaNames のデータの例
表 2 本研究において作成したデータの例
ず, 1 言語あたりのデータの量についても先行研究の元言語表記-IPA 表記データセットを上回るものとなっている.
## 2 関連研究
既存研究で公開された特定の言語の表記と IPA 表記の対応データセットとして, “WikiPron”が挙げられる2)[2]. WikiPron は, オンラインの多言語辞書 “Wiktionary”から,対象言語の表記とその IPA 表記の組を自動抽出して構築され,251 言語について 3,509,051 組が登録されている. しかし, その抽出元は辞書であるため,普通名詞・固有名詞や動詞,形容詞等に至るまで様々な種類の語が格納されており, 1 章で述べたような特に $\mathrm{NE}$ をターゲットとした研究には適していない。
IPA のの変換は行っていないが複数の言語の $\mathrm{NE}$表記と ID のペアを格納したデータセットとしては, “ParaNames"3) [3], “TRANSLIT",4) [4] が存在する. 両者は,言語のカバレッジや $\mathrm{NE}$ 表記数,ID 数のほか,データセットの作り方,データの形式などの面で違いがある.これらのうち, 本研究は ParaNames を利用し, IPA 付き NE 表記の新たなデータセットを構築する。
468 の言語タグについて 124,343,696 個の NE 表記, 14,017,168 個の IDを持つ ParaNames は, Wikipedia の項目を主に構造化した知識べースである “Wikidata” から全てのデータが作られている. 具体的には, Wikidata において "human”, "geographic region”, “organization”の各タイプのインスタンスとして登録されている NE 表記が, wikipedia でサポートされている各言語について抽出されている. 1 組のデー タは,Wikidataにおいて付与されている IDを表す “wikidata_id”,NE の表記を表す “label”, “label”の表記に紐づく言語タグを表す “language”,NEのタイプを表す“type”によって構成されており,type には
2) https://github.com/CUNY-CL/wikipron
3) https://github.com/bltlab/paranames
4)https://github.com/fbenites/TRANSLIT. ある文字体系を他の文字体系に変換するタスク「翻字(transliteration)」における利用のために作られたデータセットである.
"PER”, "LOC", “ORG”の値が,元の Wikidata におけるタイプ “human”, "geographic region”, "organization" それぞれに対応して割り当てられている(例:表 1).
いっぽう,185 の言語タグについて 2,987,508 個の NE 表記,1,548,752 個の ID を持つ TRANSLIT は,独自に Wikipedia から収集した 1 種と既存の研究で公開されていた 4 種,計 5 つのデータセットが混合されて作られている。1 個の IDがキーとなり,それに対応する値として各言語の表記のリストが格納される形式となっている5)。
## 3 データセットの構築
本研究では,2 章に挙げた 2 つの $\mathrm{NE}$ 表記-ID のデータセットのうち ParaNames を用い,“label”に格納されている $\mathrm{NE}$ 表記をルールベース手法による G2P フレームワーク “Epitran”6)[5] によって IPA 列に変換して元の ParaNames のデータに加えることにより,IPA 付き NE 表記のデータセットを構築した (例: 表 2). 研究開始時には Epitran でサポートされていなかった日本語については言語学・音声学分野の文献に基づいて自作した G2P ルールを,その他の言語については Epitran の既存の G2P ルールを用い,計 68 言語の NE 表記から IPAへの変換作業を行った.
## 3.1 元データの選定
TRANSLIT ではなくParaNames を用いてデータセットを作成した理由は,後者の方が言語タグ数, $\mathrm{NE}$ 表記数,ID 数いずれも前者よりも上回っているからのみならず,Wikidata という単一のソースに由来するデータセットを使用することでデータの質がより確保できる,と考えられるからである.複数のソースに由来する TRANSLIT では,データの質の面において,NE 表記と ID の紐付けが誤っていることがあるなどの問題が存在する。データの量の面で TRANSLIT を上回り,かつ一つのソースに由来する Paranames を基にデータを構築することで,量・質の両面でよりすぐれたデータセットを完成させることができると考えられる.
なお,ParaNamesの “language”に格納されている言語タグの数は,実際の言語の数とは一致しない. 1 つの言語につき,文字種などの違いや話される地
5)簡易的な例を示す. ID 001: [“en_name1", “zh_name2", “]
6) https://github.com/dmort27/epitran
域の違いを反映して複数のタグが存在する場合があるためである7). 言語が同じだが言語タグが異なるデータであり, かつ文字種が同じデータについて, IPA 付きデータセットでは “wikidata_id”が重複しているデータを排除した.
さらに,ParaNamesのうち,IPA に変換して新たなデータセットに組み込む対象は,95 個の言語タグのいずれかが付与されている計 68 言語のデータに絞った,これは,以下の 2 つの理由による。
1. 第一に,「Epitran がサポートする言語,あるいは日本語のいずれか」という制約を設けた. Epitran のサポート言語に絞った理由は,ルールベースの手法により容易に G2P を実行できる言語のデータを優先的に作成することが望ましいと考えられるからである.ただし,日本語のみ,Epitranでは当初サポートされていなかったが本研究において新たにルールを作成し, そのルールを用いて IPA 変換を行った.これは, 1 章で述べた応用先のうち, NE 表記を正しい ID にリンキングさせるタスクを例として想定し, さらにカタカナの NE 表記をリンキング実験の対象とすることを今後の研究の念頭に置いたためである. 作成した日本語 G2P ルールについては, 3.3 節で詳述する。
2. 第一の制約に加え,「TRANSLIT のデータ中で,少なくとも 1 つのカタカナ $\mathrm{NE}$ 表記と同じ ID に紐づいている表記が存在する言語」という制約を与えた。例えば,“ID 002: [“ja_\{ カタカナ表記 \}”, “en_...", “fr_...", ..]”というデータが TRANSLIT に存在する場合,英語(en)とフランス語(fr)はいずれも本研究の対象に含まれる.この制約を課したのは, 第一の制約の説明で述べたカタカナ $\mathrm{NE}$ 表記のリンキング実験の評価用データとして TRANSLIT を用いることを想定したためである。すなわち,任意のカタカナ NE 表記について,実際の TRANSLIT のデータ中で紐付いている IDを「正解 ID」とし, カタカナ $\mathrm{NE}$ 表記から変換された IPA 列と他言語の NE 表記から変換された IPA 列の音声的類似度を計算してリンキングを行う実験を想定している.
表 3 日本語 G2P ルールの “map”, “post”の例
## 3.2 NE 表記から IPA 列への変換
“label”の NE 表記から IPAへの変換は,すべて Epitranを用いて行った. Epitran は,各言語について用意された IPAへの変換ルールに基づいて G2P を実現する,多言語対応のフレームワークであり, 2023 年 1 月現在 97 言語についてサポートされている. 変換ルールは,全言語において存在する“map” と,一部の言語にのみ存在する “pre”, “post”の 3 種類がある. 基本的な変換は,各言語の文字(の組み合わせ)と IPA シンボル(の組み合わせ)が 1 対 1 に対応する mapによって行うが,前後の音の環境により発音が変わる場合などの 1 対 1 対応では処理できない現象に対して,必要に応じ map の適用前に pre, 適用後に postがそれぞれ適用される。
また,表記と IPA の 1 対 1 対応によるマッピングが難しい言語については,外部の発音辞書が利用される. 具体的には,英語については音声合成のためのソフトウェア “flite”[6] が,中国語については “CC-CEDICT”[7] が使用される.
## 3.3 日本語の G2P ルール作成
日本語からの G2P については,日本語の音声・音韻の概要を述べた複数の文献 $[8,9]$ を基に,第一著者が Epitran の記法に準拠してカタカナ・ひらがなからの G2P ルールを作成した。これは,研究を開始した時点で日本語が Epitran でサポートされておらず,また言語学的に正確な G2P ルールを発表した先行研究も存在しなかったためである。 なお,漢字からの G2P は,文脈依存による発音の特定が必要であり対処が困難であるため,取り扱わなかった.
日本語について作成したルールは,3.2 節で挙げた 3 種のルールのうち, map と postである. すなわち, カタカナ・ひらがなの組み合わせ 1 通りと IPA シンボルの組み合わせ 1 通りの各対応を map として,それだけでは処理できない事象に対応するためのルールを postとして作成した.両者の例を,表 3 に示す.
先に述べた日本語の音声・音韻に関する文献に基づくカタカナ・ひらがなからの G2P ルールのほか,英語版ウィキペディアにおける日本語の文字・音韻
関連の記事 $[10,11]$ を基に,簡易的な G2P ルール8) も作成した. 後者についてもカタカナ・ひらがな双方のルールを構築したため,前者と合わせ計 4 種類の G2P ルールを日本語の仮名について作成したこととなる。なお,IPA 付き NE 表記データセットの構築における日本語の G2Pには,日本語の音声 - 音韻に関する文献に基づくルールの方を使用した。
本研究で作成した 4 種類の日本語 G2P ルールは, Epitran に統合された. カタカナ・ひらがなのような音節文字9)を入力とするルールが Epitran に統合されたのは,初めてのことである. 本研究で作成したルールは Epitran のフレームワーク内で現在利用可能であるほか,ルールを用いた IPA 変換のデモンストレーションも作成済みである ${ }^{10)}$.
## 4 データセットの分析
データセットの統計的情報の概要を,表 4 に示す. NE 表記と IPA 表記の組数,および表記の ID の数はそれぞれ 6,900 万以上,1,400 万以上にのぼり, 1 つの ID につき平均 4.964 組の NE 表記-IPA 表記の組が存在している. また,1 つの言語タグあたり, 1 言語あたりの表記の組数はそれぞれ平均 732,357.379 組,1,023,146.338 組であり, 1 言語につき平均して 100 万以上の NE 表記-IPA 表記の組が得られたことになる. 1 言語あたりの表記数が 13,980.283 表記で
8)具体的には,日本語の音声 - 音韻に関する文献に基づく, より正確な方の map のルール数が 150 であるのに対し,簡易的な方の map のルール数は 112 である. post のルール数についても,前者が 46 であるのに対し,後者は 20 である.
9)「音節」は,音韻論における単位の一つ.通常は母音が 「核」となり,その前後に存在しうる子音とともに構成されるが,母音のみ,子音のみで構成される場合もある.ラテン文字,キリル文字などが音素を表記の単位とする「音素文字」であるのに対し,カタカナ・ひらがな等は音節を表記の単位とする「音節文字」である。
10) https://yusuke1997.com/Japanese_G2P/
1 万あまりである WikiPron と比較するとこれは非常に規模の大きいデータである.したがって,本研究で作成したデータセットは,NEに特化しているという点で先行研究における多言語表記と IPA 表記の対応データセットと区別されると同時に,1 言語あたりのデータ量が既存のデータセットを大幅に上回っている,という点でも特徴づけられる。
最も多くのデータを得た NE のタイプは,PERであった。また,データセットに格納されている元言語の NE 表記と IPA 表記の平均系列長はそれぞれ 15.085,15.894であり,ほとんど差がない.
$\mathrm{NE}$ 表記の文字種の数は,計 20 種である ${ }^{11)}$. 表記数が 100 万以上(およそ平均以上)にのぼる言語の数は 15 言語であり,ロシア語,中国語を除き全てラテン文字を使用する言語,またハンガリー語,中国語を除き全て印欧語族に属する言語である。言語タグごとの表記数の統計を,付録 A に付す.
## 5 おわりに
本研究では,NE の G2P や通言語的な言語モデルの構築,NE 表記のリンキングなどへの応用を見据え,複数の言語における $\mathrm{NE}$ 表記の既存データを基に,ルールベース G2P のフレームワークを用いて 68 言語の 6,900 万以上の IPA 表記付き NE からなる大規模データセットを構築した。また,これに伴って,日本語のカタカナ・ひらがなから IPAへの言語学的に正確な G2P ルールを作成し,フレームワークに追加した. 今後の課題として,これまで応用先として述べてきたタスク,すなわち言語モデルにおける事前学習や NE の G2P,NE 表記リンキングなどの実験を,本研究で作成したデータセットを用いて行い,データセットの効果を検証する必要がある.
## 参考文献
[1] David R. Mortensen, Patrick Littell, Akash Bharadwaj, Kartik Goyal, Chris Dyer, and Lori Levin. PanPhon: A resource for mapping IPA segments to articulatory feature vectors. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3475-3484. The COLING 2016 Organizing Committee, December 2016.
[2] Jackson L. Lee, Lucas F.E. Ashby, M. Elizabeth Garza, Yeonju Lee-Sikka, Sean Miller, Alan Wong, Arya D. Mc-
11)ラテン文字,ゲエズ文字,アラビア文字,キリル文字, ベンガル文字,デーヴァナーガリー文字,カタカナ,ひらがな,クメール文字,ラーオ文字,マラヤーラム文字,ビルマ文字,オリヤー文字,グルムキー文字,シンハラ文字,夕ミル文字,テルグ文字,タイ文字,漢字 (簡体字),漢字 (繁体字).
Carthy, and Kyle Gorman. Massively multilingual pronunciation modeling with WikiPron. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4223-4228. European Language Resources Association, May 2020.
[3] Jonne Sälevä and Constantine Lignos. ParaNames: A massively multilingual entity name corpus. In Proceedings of the 4th Workshop on Research in Computational Linguistic Typology and Multilingual NLP, pp. 103-105. Association for Computational Linguistics, July 2022.
[4] Fernando Benites, Gilbert François Duivesteijn, Pius von Däniken, and Mark Cieliebak. TRANSLIT: A large-scale name transliteration resource. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 3265-3271. European Language Resources Association, May 2020.
[5] David R. Mortensen, Siddharth Dalmia, and Patrick Littell. Epitran: Precision G2P for many languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), May 2018.
[6] flite: A small fast portable speech synthesis system, (202301 閲覧). https://github.com/festvox/flite.
[7] CC-CEDICT Home [CC-CEDICT WIKI], (2023-01 閲覧). https://cc-cedict.org/wiki/\#what_is_ cc-cedict.
[8] 斎藤純男. 日本語音声学入門改訂版. 三省堂, 2006.
[9] 日本語教育学会編. 新版日本語教育事典. 大修館書店, 2005.
[10] Katakana - Wikipedia,(2022-08 閲覧). https://en.wikipedia.org/w/index. php?title= Katakana\&oldid $=1103341275$.
[11] Sokuon - Wikipedia,(2022-08 閲覧). https://en.wikipedia.org/w/index.php?title= Sokuon\&oldid $=1096454475$.
## A 付録:作成したデータセットの言語タグ別表記数
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D9-1.pdf | # 銘柄特徵と投資家特性を考慮した株式銘柄推薦の個別化
高柳剛弘 ${ }^{1}$ 坂地泰紀 ${ }^{1}$ 和泉潔 ${ }^{1}$
1 東京大学 大学院工学系研究科
m2021ttakayanagi@socsim. org
## 概要
本研究では銘柄特徵と投資家特性を考慮した銘柄推薦モデルを提案する.提案手法では銘柄のテクニカル指標,ファンダメンタル指標,事業活動の情報を抽出し銘柄ベクトルを作成し,投資家の心理特性,行動特性,属性情報を活用して投資家ベクトルを作成する.最後に協調フィルタリングにより銘柄の推薦を行う. 個人投資家の取引データを用いて行った実験により、提案手法の精度が既存手法の精度を上回ることを確認し, 銘柄推薦に対して銘柄特徵と投資家特性を考慮することの有用性を示した。
## 1 はじめに
資産運用を行う個人投資家の増加に伴い銘柄推薦の必要性が増加している. 個人投資家に銘柄を推薦する銘柄推薦において,個人投資家がポートフォリオを構築する目的は個人投資家ごとに異なるため,銘柄推薦をパーソナライズするとが重要である.例えば,投資家の中には高いリターンのみを求める投資家に加えて,より慣れ親しんだ (familiar) ポートフォリオを求める投資家も存在する。
Personalized された銘柄推薦の研究では個人投資家のリスク許容度と銘柄のリスクリターンに基づいて銘柄推薦をパーソナライズする手法がよく用いられる $[1,2,3]$. 例えば,Robin はユーザーのポートフォリオから投資家のリスク許容度を推定し,株式のリスクリターンと投資家のリスク許容度との関連性に基づいて,協調フィルタリングを用いて銘柄推薦のパーソナライズを行っている [1]. これらを背景とし, 本研究では personalized された銘柄推薦に取り組む.
Personalized された銘柄推薦には二つの課題が存在する。一つ目の課題は銘柄の特性の考慮が十分でないという点である. 先行研究では銘柄の特徴の中でもリスクリターンのみに焦点を当てることが多い.しかしながら,個人投資家は銘柄を選択する際
に銘柄のさまざまな側面を考慮して投資の意思決定を行っている. 特に,個人投資家は主に 3 つの要因を分析して意思決定を行うと考えられる。
## テクニカル指標
個人投資家は銘柄に対するテクニカル分析を行い過去のトレンド,パターンを分析する.
## ファンダメンタル指標
個人投資家は経済指標や財務指標などを分析することで企業の財務状況や経営状況を評価する。
## 事業活動
個人投資家は決算短信やニュースデータなどのテキストデータから,企業の事業活動を分析する $[4,5,6]$.
したがって,より良いパーソナライズを行うためには銘柄のテクニカル指標、ファンダメンタル指標、事業活動を考慮することが重要である. テクニカル指標やファンダメンタル指標は量的な情報である一方で,事業活動はテキストデータやネットワー クデータなどの非構造化データにあらわれる。このことから,銘柄推薦で事業活動を考慮する際には非構造データからの特徴抽出を行う必要がある.
二つ目の課題は個人投資家の特性に対するパーソナライズが不十分な点である. 先行研究では個人投資家のリスク許容度に基づきパーソナライズをしているが,投資家モデリングの実証研究において性格特性や行動バイアスなどの心理特性と投資家行動の関連性が示されている $[7,8,9,10]$. この中で,個人投資家の複雑な性質をリスク許容度という一つの変数により表すことが適切かどうかは明らかでない. したがって,より良いパーソナライズを行うためにはこれらの投資家特性を考慮する必要がある.
本研究では銘柄特徴と投資家特性を考慮した銘柄推薦モデルを提案する.
図 1 提案手法の概要
## 2 提案手法
図 1 に示すよう提案手法は以下の三つのステップで構成される. Step1 では銘柄のテクニカル指標, ファンダメンタル指標,事業活動など銘柄の特徴を抽出し,銘柄のベクトル表現を獲得する.Step2 では投資家の性格特性,行動特性,投資家の属性情報から投資家のベクトル表現を獲得する.Step3 では銘柄と投資家のベクトル表現を利用し Neural Collaborative Filtering Model を構築し, 銘柄推薦を行う.
## 2.1 銘柄特徵の獲得
時刻 $t$ における銘柄 $i$ のテクニカル指標とファンダメンタル指標は次のように計算される。
$
\text { technical }_{t, i}=T C\left(v_{t, i} \ldots v_{t+n, i}\right)
$
$
\text { fundamental }_{t, i}=F C\left(w_{t, i}\right)
$
ここで $v_{t, i}$ は時刻 $t$ における銘柄 $i$ の終值, $n$ はテクニカル指標の計算に必要な期間, $w_{t, i}$ は時刻 $t$ における銘柄 $i$ の利益や売上高などの財務情報, $T C$ はボリンジャーボンドなどのテクニカル指標を株価時系列から計算する関数, $F C$ は Earnings Price Share(EPS) などのファンダメンタル指標を財務情報から計算する関数, そして technical ${ }_{t, i} \in \mathbb{R}^{k_{t}}$, と fundamental $_{t, i} \in \mathbb{R}^{k_{f}}$, は時刻 $t$ における銘柄 $i$ のテ
クニカル指標,ファンダメンタル指標を表すべクトルである. 非構造データから事業活動を抽出する特徴抽出では,Takayanagi etal. で提案されたネットワークデータとテキストデータから事業活動情報を抽出する銘柄埋め込み (Stock Embedding) 手法を用いる [11]. Stock embedding は以下のように計算される
$
\begin{aligned}
& h_{\mathrm{BERT}, i}=\operatorname{BERT}\left(x_{i}\right) \\
& h_{\mathrm{GCN}, i}=\operatorname{ReLU}\left(\sum_{j \in N_{i}} \hat{D}^{-\frac{1}{2}} \hat{A} \hat{D}^{-\frac{1}{2}} h_{j} W+b\right) \\
& h_{\operatorname{BERT}, i}=\operatorname{BERT}\left(x_{i}\right) \\
& h_{\mathrm{GCN}, i}=\mathrm{GCN}\left(h_{\mathrm{BERT}, i}\right) \\
& \mathrm{emb}_{i}=h_{\mathrm{BERT}, i}+h_{\mathrm{GCN}, i}
\end{aligned}
$
ここで $x_{i}$ は target stock $i$ のテキストディスクリプションで, $h_{\mathrm{BERT}, i} \in \mathbb{R}$ はプールされた BERT の出力, $N_{i}$ は銘柄 $i$ の隣接銘柄で, $\hat{A}=A+I$ は因果チェーン [12] により構築される企業ネットワークの隣接行列で, $\hat{D}_{i, i}=\sum_{j=0} \hat{A}_{i j}$ は diagonal degree matrix であり, $h_{i}$ は Graph Convolutional Network(GCN)への入力, $W$ は重み行列, $b$ はバイアス,そして $S_{\mathrm{emb}, i}$ は銘柄 $i$ の事業活動のべクトル表現である.
そして,提案手法では Multi-layer perceptron(MLP)層を用いる。
$
\begin{gathered}
S_{\text {technical }, t, i}=\operatorname{ReLU}\left(W_{\text {tech }} \text { technical }_{t, i}+b_{\text {tech }}\right) \\
S_{\text {fundamental }, t, i}=\operatorname{ReLU}\left(W_{\text {fund }} \text { fundamental }_{t, i}+b_{\text {fund }}\right)
\end{gathered}
$
$
S_{\mathrm{emb}, i}=\operatorname{ReLU}\left(W_{\mathrm{emb} \mathrm{emb}_{i}}+b_{\mathrm{emb}}\right)
$
ここで $W_{\text {tech }} \in \mathbb{R}^{l \times k_{t}}, \quad W_{\text {fund }} \in \mathbb{R}^{l \times k_{f}}, \quad W_{\text {emb }} \in \mathbb{R}^{l \times k_{e}}$, $b_{\text {tech }}, \quad b_{\text {fund }}, \quad b_{\text {emb }} \in \mathbb{R}^{l}$ であり,$l$ は銘柄のベクトル表現の次元数である. 銘柄のベクトル表現 $q_{i}$ は以下のように計算される。
$
q_{i}^{\mathrm{MF}}=S_{\text {technical, } t, i} \odot S_{\text {fundamental }, t i} \odot S_{\text {embi }} \odot p_{i}
$
$
q_{i}^{\mathrm{MLP}}=\left[S_{\text {technical }, t, i} \odot S_{\text {fundamental }, t, i} \odot S_{\mathrm{emb}, i} \| p_{i}\right]
$
ここで $p_{i}$ は銘柄 $i$ のワンホットベクトルであり,๑は Hadamard productを表し,\|は concatenation operationを表す.ここでは, Hadamard productを先に計算し次に concatenation operationを行う. $q{ }_{i}^{\text {MLP }}$ は MLP 層の銘柄ベクトルの入力で, $q_{i}^{\mathrm{MF}} \mathrm{i}$ は matrix factorization(MF) 層の銘柄ベクトルの入力である.
## 2.2 投資家特性の獲得
次に投資家の特性を分析する. $u$ を投資家で, $I_{\text {Attributes }, u}, I_{\text {Personality }, u}, \quad I_{\text {Behavioral }, u}$ を投資家 $u$ の属性,性格特性,行動特性とする。投資家特性 $I_{u}$ は以下のように示される.
$
I_{u}=\left[I_{\text {Attributes }, u}\left.\|I_{\text {Personality }, u}\right.\| I_{\text {Behavioral }, u}\right]
$
投資家ベクトル $r_{u}$ は以下のように計算される.
$
\begin{aligned}
r_{u}^{\mathrm{MF}} & =I_{u} \odot p_{u} \\
r_{u}^{\mathrm{MLP}} & =\left[I_{u} \| p_{u}\right]
\end{aligned}
$
ここで $p_{u}$ は投資家 $u$ のワンホットベクトルである. $r_{u}^{\mathrm{MLP}}$ は MLP 層の投資家べクトルの入力で, $r_{u}^{\mathrm{MF}}$ は $\mathrm{MF}$ 層の投資家ベクトルの入力である.
## 2.3 協調フィルタリング
最後に,協調フィルタリングを用いて銘柄の推薦を行う. He etal. に従い predicted preference $y_{u, i}$ を以下のように計算する.
$
\begin{gathered}
\phi^{\mathrm{GF}}=q_{i}^{M F} \odot r_{u}^{M F} \\
\phi^{\mathrm{MLP}}=a_{L}\left(a_{L-1}\left(\ldots a_{2}\left(W_{2}\left[q_{i}^{M F} \| r_{u}^{M F}\right]+b_{2}\right) \ldots\right)+b_{L}\right) \\
\hat{y}_{u, i}=\sigma\left(W_{F}\left[\phi^{\mathrm{GF}} \| \phi^{\mathrm{MLP}}\right]+b_{F}\right) \\
\text { ここで } \sigma \text { はシグモイド関数, } a_{l} \text { は } \operatorname{ReLU} \text { などの活 } \\
\text { 性化関数, } W_{l} \text { と } W_{F} \text { は重み行列, } b_{l} \text { と } b_{F} \text { はバイ } \\
\text { アスを表している. }
\end{gathered}
$
## 2.4 損失関数
損失関数は以下のように定義される.
$
\begin{aligned}
& p\left(\mathcal{Y}, \mathscr{Y}^{-} \mid \mathbf{Q}, \mathbf{R}, \Theta f\right)=\prod_{(u, i) \in \mathcal{Y}} y_{\hat{u}, i} \prod_{(u, i) \in \mathcal{Y}^{-}}\left(1-y_{\hat{u}, i}\right) \\
& L=-\sum_{(u, i) \in \mathcal{Y}} \log \hat{y}_{\hat{u}, i}-\sum_{(u, i) \in \mathcal{Y}^{-}} \log \left(1-\hat{y_{u}, i}\right) \\
& =-\sum_{(u, i) \in \hat{y} \cup y^{-}} y_{u, i} \log y_{\hat{u}, i}+\left(1-y_{u i}\right) \log \left(1-y_{\hat{u}, i}\right)
\end{aligned}
$
ここで $y$ は正例, $y$ - は負例, $y_{u, i}$ は投資家 $u$ の銘柄 $i$ へ implicit feedback であり, $\mathbf{Q}$ と $\mathbf{R}$ は銘柄と投資家の latent factor matrix である. 負例 $y^{-}$に関しては,それぞれの投資家が未だ保有していない銘柄の集合から uniform sampling を行った.
## 3 実験設定
## 3.1 データセット
## 3.1.1 銘柄特性
本研究においてテクニカル指標はボリンジャー バンド,移動平均収束発散法,相対力指数,平均方向性指数,そしてストキャスティクスを用いた. ファンダメンタル指標は一株当たり利益 (earnings per share),一株当たり純資産 (book value per share),株価収益率 (price-to-earnings ratio), そして自己資本利益率 (return on equity) を用いた.
## 3.1.2 個人投資家特性
本研究では個人投資家の特性として性格特性,行動特性,属性情報を用いた。性格特性は 10 項目からならアンケート ten-item personality inventory (TIPI) $[13,14]$ を用いて収集した. 行動特性は危険選好 (risk preference), 時間割引率 (time discount), 自信過剰 (overconfidence), 双曲割引 (hyperbolic discounting), 符号効果 (sign effec),マグニチュード効果 (magnitude effect)を大阪大学の Japan Household Panel Survey $(\mathrm{JHPS})^{1)}$ を参考にしてアンケートを作成して収集した. 属性情報は年齢,収入,金融資産の量,投資経験を用いた。
## 3.1.3 取引データ
本研究では証券会社から提供された 969 名の投資家の 2020 年の 7 月から 2022 の 9 月までの取引デー タを用いて研究を行った. 前処理として, 取引デー タを $m$ 投資家と $n$ 銘柄の user-item matrix $U_{f} \in \mathbb{R}^{m \times n}$ を以下のように定義した。
$
\left(U_{f}\right)_{i j}=f(i, j)
$
ここで $q_{i, j, t}$ は投資家 $i$ の時刻 $t$ における銘柄 $\mathrm{j}$ のポートフォリオである.
$
q_{i, j, t}=\left.\{\begin{array}{ll}
1 & \text { if user } i \text { holds stock } j \text { in time } t \\
0 & \text { otherwise }
\end{array} .\right.
$
本研究では implicit feedback collaborative filtering useritem matrix $R$ を $U_{f_{R}}$ として Equation 21 に定義している.
$
f_{R}(i, j)=\left.\{\begin{array}{ll}
1 & \text { if there is } t \in T \text { s. } t . q_{i, j, t} \neq 0 \\
0 & \text { otherwise }
\end{array} .\right.
$
ここで $T \mathrm{i}$ は全体の期間である. ここで $R$ の各列は,それぞれの投資家 $i$ が銘柄 $j$ を保有したか否かを示している。
## 3.2 タスクと評価指標
本研究では投資家が次に保有する新規銘柄を予測するタスクである新規銘柄推薦タスクにより評価をおこなう.データセットから各投資家の最新のトランザクションをテストデータとして,それ以外のデータをトレインデータとして用いる.銘柄推薦の評価指標として HR@10と NDCG@10を用いる. 評価時には過去に投資家が購買したことのない 99 銘柄をランダムにサンプリングして,テストアイテムと合わせて合計 100 銘柄のランキングを取り,リストの上位 10 銘柄をもちいて評価を行う。
## 4 結果
表 1 実験結果
図 25 つのシード値を用いた HR の箱ひげ図.ひげは最小値と最大値を示し,箱は第 1 四分位数,中央值,第 3 四分位数を表している.
図 35 つのシード値を用いた NDCG の箱ひげ図。ひげは最小値と最大値を示し,箱は第 1 四分位数,中央值,第 3 四分位数を表している.
表 1 は実験の結果を示す. 提案手法,ベースラインモデルに対して五つの異なるシード值で評価し,スコアの平均を報告した。結果として提案手法が HR,NDCG 双方の評価指標でどちらもべースラインである Generalized Matrix Factorization(GMF), MLP, Neural Matric Factroziation(NeuMF) [15] をアウトパフォームしていることが確認できる.
図 2 と図 3 は異なるシードに対するそれぞれ $\mathrm{HR}$ , NDCG の箱ひげ図である. 図からも提案手法が安定的にベースラインを上回ることが確認できる.
## 5 終わりに
本研究では銘柄特徴と投資家特性の Context を考慮した銘柄推薦モデルの提案を行った. 本研究では銘柄特性として銘柄のテクニカル指標,ファンダメンタル指標,事業活動を,投資家特性として性格特性,行動特性,属性情報を考慮したモデルを提案した. 実験結果により提案手法はベースラインを超える性能を示した。
## 謝辞
本研究は大和証券グループ本社とそのグループ会社である株式会社 CONNECT の支援を受けたものである. 加えて, 本研究は JSPS 科研費 JP21K12010 と JST 未来社会創造事業 JPMJMI20B1 の助成を受けたものである.
## 参考文献
[1] Robin M. E. Swezey and Bruno Charron. Large-scale recommendation for portfolio optimization. In Proceedings of the 12th ACM Conference on Recommender Systems, pp. 382-386, 2018.
[2] Yang Yujun, Li Jianping, and Yang Yimei. An efficient stock recommendation model based on big order net inflow. Mathematical Problems in Engineering, Vol. 2016, pp. $1-15,2016$.
[3] Kohsuke Kubota, Hiroyuki Sato, Wataru Yamada, Keiichi Ochiai, and Hiroshi Kawakami. Content-based stock recommendation using smartphone data. Journal of Information Processing, Vol. 30, pp. 361-371, 2022.
[4] JOSEPH E. ENGELBERG and CHRISTOPHER A. PARSONS. The causal impact of media in financial markets. The Journal of Finance, Vol. 66, No. 1, pp. 67-97, 2011.
[5] Brad M. Barber and Terrance Odean. All That Glitters: The Effect of Attention and News on the Buying Behavior of Individual and Institutional Investors. The Review of Financial Studies, Vol. 21, No. 2, pp. 785-818, 2007.
[6] Stefano Dellavigna and Joshua M. Pollet. Investor Inattention and Friday Earnings Announcements. Journal of Finance, Vol. 64, No. 2, pp. 709-749, 2009.
[7] Chris Brooks and Louis Williams. The impact of personality traits on attitude to financial risk. Research in International Business and Finance, Vol. 58, p. 101501, 2021 .
[8] Fatima Akhtar, K. Thyagaraj, and Niladri Das. Perceived investment performance of individual investors is related to the big-five and the general factor of personality (gpf). Global Business Review, Vol. 19, p. 097215091771352 , 2017.
[9] Cheng-Po Lai. Personality traits and stock investment of individuals. Sustainability, Vol. 11, No. 19, 2019.
[10] Ummuhan Mutlu and Gökhan Özer. The effects of personality traits on financial behaviour. Pressacademia, Vol. 8, pp. 155-164, 2019.
[11] Takayanagi Takehiro, Sakaji Hiroki, and Izumi Kiyoshi. Setn: Stock embedding enhanced with textual and network information. In 2022 IEEE International Conference on Big Data (Big Data), 2022.
[12] Izumi Kiyoshi and Sakaji Hiroki. Economic causalchain search using text mining technology. In the First Workshop on Financial Technology and Natural Language Processing In conjunction with the 28th International Joint Conference on Artificial Intelligence, pp. 61-65, 2019.
[13] Samuel D Gosling, Peter J Rentfrow, and William B
Swann. A very brief measure of the big-five personality domains. Journal of Research in Personality, Vol. 37, No. 6, pp. 504-528, 2003.
[14] Atsushi Oshio, Atsushi Abe, Shingo Cutrone, and Pino Gosling Samuel. Big Five Content Representation of the Japanese Version of the Ten-Item Personality Inventory. Psychology, Vol. 4, pp. 924-929, 2013.
[15] Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, $\mathrm{Xia} \mathrm{Hu}$, and Tat-Seng Chua. Neural collaborative filtering. WWW '17, p. 173-182. International World Wide Web Conferences Steering Committee, 2017. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D9-2.pdf | # 連続時間フラクショナル・トピックモデル
中川慧
野村アセットマネジメント株式会社
kei.nak.0315@gmail.com
林 晃平
東京大学大学院数理科学研究科
kohei@ms.u-tokyo.ac.jp
}
藤本悠吾
野村アセットマネジメント株式会社
yu5fujimoto@gmail.com
## 概要
LDA の時系列性を考慮するため,DTM や,DTM を連続時間に拡張した cDTM が提案されている. しかしながら,これらの生成パラメータの変化量に各時刻での相関を持たせることで,より現実に即したモデル化が可能になると考えられる。 そこで本研究では,cDTM の一般化を行い,生成パラメータの増分の正相関性 (長時間依存性) または負相関性 (ラフさ)を考慮にいれた,連続時間フラクショナル・トピックモデルを提案する。また提案手法のパラメー タ推定は簡易的には,トピックモデルと同様であることを示した. そして数值実験によって,提案手法がトピックの正相関性 (長時間依存性) または負相関性 (ラフさ)を捉えることができることを確認する.
## 1 はじめに
トピックモデルとは文書の確率的生成モデルの一つである。トピックモデルにおいて文書の生成過程はトピック分布にしたがってトピックを選択し,選んだトピックの持つ単語分布にしたがって単語を選択していくことで生成される。ここでトピック分布とは文書中の各話題の比率,単語分布とは各話題を構成する単語の分布を意味する。文書がトピックモデルから生成されたと仮定した上で,実際に観測された文書から各トピック分布および単語分布を統計的に推定することで,文書に含まれるの話題の比率や,話題を構成する単語の分布を知ることができる. トピックモデルの中でも,Blei らによって提案された Latent Dirichlet Allocation (LDA) [1] や, トピック間に相関を加えるモデル [2]も提案されている.
一般にLDA においては時系列性は考慮されない
ため,トピックの時系列的な推移を確認することはできない. この問題に対応するためにトピックの時系列性を考慮する LDA である Dynamic Topic Model (DTM) が提案された [3]. DTM では,データセットは指定された時間ごとに均等に分割され,文書のトピック分布のパラメータおよび各トピックの単語の分布は時間とともに変化する。.さらにDTM が離散的な時間変化をモデリングしているのに対して,DTM を連続時間に拡張した Continuous Time DTM (cDTM) が提案された [4].
上述の通り,従来の動的トピックモデルは各時刻における単語生成およびトピック生成のパラメー タが時間変化するモデルであった. そこでは,1 ステップ前のパラメータに対し独立に正規分布に従う確率変数を加えることで次の時刻のパラメータを定めており,生成パラメータの増分は各時点で独立である。しかしながら,例えばある時刻で新単語または新トピックに特有の単語が増加傾向にあるとすると, 次の観測点の時刻でもその増加傾向に応じて単語とトピックの分布が変化すると考えるのが自然である. 即ち,生成パラメータの変化量は,各時刻で正の相関を持つと仮定することで,より現実に即した文書生成を行えると考えられる $[5,6,7,8]$. また,逆にある時刻で語られていたトピックが次の時刻では語られなくなり,新しいトピックが急に語られるような事象,すなわちトピック分布の負の相関性 (ラフさ)を記したいケースも考えられる。そこで本研究では, 生成パラメータの増分の正相関性および長時間依存性またはラフさを考慮にいれた手法である,連続時間フラクショナル・トピックモデルを提案する。提案手法は, 標準 Brown 運動の一般化であり,増分が正の相関を持ち,かつ長期記憶性をまたはラフさを持つ非整数階 Brown 運動 [9] を生成パラ
メータの増分過程として利用する.したがって,提案手法は cDTM の一般化になっている。そのため, テキストのタイムステップが均一でない場合あるいは久損がある場合でもモデル化可能である. そして,実際の経済ニュースデータを用いた数値実験によって,提案手法がトピックの正相関性 (長時間依存性) または負相関性 (ラフさ)を捉えることができることを確認する。
## 2 提案手法
## 2.1 非整数階 Brown 運動
ここでは,非整数階 Brown 運動の定義と基本的な性質について概説する [10]. $H \in(0,1)$ を定数 (Hurst 指数) とする. 平均 0 の実数値 Gauss 過程 $B^{H}=\left.\{B_{t}^{H}\right.\}_{t \geq 0}$ が Hurst 指数 $H$ の fractional Brown 運動 $(\mathrm{fBm})$ であるとは, ほとんど確実に $B_{0}^{H}=\mu$ かつ,任意の $s, t \geq 0$ に対して次を満たすときをいう。
$
\operatorname{Cov}\left(B_{s}^{H}, B_{t}^{H}\right)=\frac{1}{2}\left(|t|^{2 H}+|s|^{2 H}-|t-s|^{2 H}\right) .
$
また, $\mathrm{fBm}$ から $\left.\{B_{t+1}^{H}-B_{t}^{H}: t=0,1, \ldots\right.\}$ という新たな離散確率過程を考えることができ,これを fractional Gauss ノイズ (fGn) という. fBm の増分は $H>1 / 2(H<1 / 2)$ のとき正 (負) の相関をもち, $H=1 / 2$ のとき Brown 運動に一致することは定義から明らかである. また, $B_{t}^{H}-B_{s}^{H} \sim \mathcal{N}\left(0,|t-s|^{2 H}\right)$ なので, $\mathrm{fBm}$ は定常増分である。次に, 確率過程の長期 (短期) 記憶性を定義する. $X=\left.\{X_{t}\right.\}_{t \geq 0}$ を確率過程とし, その増分を $X_{s, t}=X_{t}-X_{S}$ とする.このとき, 確率過程 $X$ の増分が長期 (resp. 短期)記憶性を持つとは,任意の $h>0$ に対して, $\sum_{n=1}^{\infty}\left|\operatorname{Cov}\left(X_{0, h}, X_{(n-1) h, n h}\right)\right|$ が発散(resp. 有限)になることをいう. (1) 式から,fBm は $H=1 / 2$ のとき,標準 Brown 運動と一致する. また fBm の増分に対しては $H>1 / 2$ のときのみ長期依存性を持ち, $H<1 / 2$ のときラフさを持つ.
## 2.2 連続時間フラクショナル・トピックモ デル
以下, $\mathbf{K}$ をピック全体の集合, $\mathbf{W}$ を単語全体の集合とする。連続時間フラクショナル・トピックモデルは, 単語分布とトピック分布のパラメー タが時間発展するモデルであり, その時間変動を $\mathrm{fBm}$ にってモデル化する. $H \in(0,1)$ とし, $\left.\{B_{t}^{H,(k, w)}: t \geq 0\right.\}_{k \in \mathbf{K}, w \in \mathbf{W}}$ 及び $\left.\{B_{t}^{H,(k)}: t \geq 0\right.\}_{k \in \mathbf{K}}$ を初期値を 0 とする独立な $\mathrm{fBm}$ の列とする. タ
イムスタンプの列 $\left.\{0=s_{0}, s_{1}, \ldots, s_{T}=T\right.\}$ における生成パラメータ $\alpha_{s_{t}}, \beta_{s_{t}}(t=0, \ldots, T)$ を, 初期分布 $\alpha_{0} \in \mathbb{R}^{\mathbf{K}}, \beta_{0} \in \mathbb{R}^{\mathbf{K}} \times \mathbb{R}^{\mathbf{W}}$ と次式によって定めることができる. 各 $k \in \mathbf{K}$ 及び $w \in \mathbf{W}$ に対し, 次の確率微分方程式を解く。
$
\begin{aligned}
& d \alpha_{s, k}=f_{\theta_{\alpha}}\left(\alpha_{s, k}\right) d s+\sigma_{\alpha} d B_{s}^{H,(k)} \\
& d \beta_{s, k, w}=f_{\theta_{\beta}}\left(\beta_{s, k, w}\right) d s+\sigma_{\beta} d B_{s}^{H,(k, w)}
\end{aligned}
$
ただし, $\sigma_{\alpha}, \sigma_{\beta} \in \mathbb{R} て ゙ ある . また , f_{\theta_{\alpha}}$ および $f_{\theta_{\beta}}$ は $\theta_{\alpha}$ および $\theta_{\beta}$ をパラメータに持つ関数であり,方程式 (2) が一意的な解 $\left.\{\left(\alpha_{s}, \beta_{s}\right): s \geq 0\right.\}$ が存在し, またそれらの解の密度が持つような十分性質のよいものであると仮定する。これらの関数により,トピック及び単語が生成される傾向を学習することができ,更に $\mathrm{fBm}$ により与えたノイズから長期記憶性やラフさを再現することができる. 以下では,方程式 (2) を解いた後に,与えられたタイムスタンプ $s=s_{0}, \ldots, s_{T}$ における値を利用する. ここでは時間に関して連続な方程式を解くことで生成パラメータを決定しているため, 不規則サンプリングに対応可能なことに留意されたい. このパラメータ過程を用いて,各タイムスタンプ $s_{t}$ における総単語数 $N_{s_{t}}$ の文書 $d_{s_{t}}=\left.\{\left(w_{s_{t}, k_{i}}^{i}\right)_{1 \leq i \leq N_{s_{t}}}: k_{i} \in \mathbf{K}, w_{s_{t}, k_{i}}^{i} \in \mathbf{W}\right.\}$ の生成過程は次のように書ける。
1. 各タイムスタンプ $s_{t}$ における $\alpha_{s_{t+1}, k}$ と $\beta_{s_{t+1}, k, w}$ を (2) 式で生成する
2. 各単語 $w \in \mathbf{W}$ について,まずトピック $z \in \mathbf{K}$ をパラメータ $\phi\left(\alpha_{s_{t}}\right)$ のカテゴリ分布 (トピック分布) から一つ選び,そのトピック $z$ の単語生成パラメータを $\beta_{s_{t}, z}=\left(\beta_{s_{t}, z, w}\right)_{w \in \mathbf{W}} \in \mathbb{R}^{\mathbf{W}}$ として, パラメータ $\phi\left(\beta_{s_{t}, k}\right)$ のカテゴリ分布 (単語分布) から $w$ を選ぶ:
$
\begin{aligned}
& z \sim \operatorname{Categorical}\left(\phi\left(\alpha_{s_{t}}\right)\right), \\
& w \sim \operatorname{Categorical}\left(\phi\left(\beta_{s_{t}, z}\right)\right) .
\end{aligned}
$
ここで, $V$-次元単体 $\sigma_{V}=\left.\{x \in[0,1]^{V}: x_{1}+\cdots+\right.$ $\left.x_{V}=1\right.\}^{V}$ に対してパラメータ $\phi \in \sigma_{V}$ を持つ, Categorical $(\phi)$ は確率密度関数が
$
p_{\text {Cat }}(x \mid \phi)=\prod_{v=1}^{V} \phi_{v}^{x_{v}}
$
で表される $\{0,1\}^{V}$ 上の分布である. また, $\phi: \mathbb{R}^{V} \rightarrow$ $\sigma_{V}$ は softmax 関数であり次式で定義される.
$
\phi(\beta)_{v}=\frac{\exp \left(\beta_{v}\right)}{\sum_{1 \leq v \leq V} \exp \left(\beta_{v}\right)}
$
図 1 に提案手法である連続時間フラクショナル・トピックモデルのグラフィカルモデル表現を示す.ここで, $\phi_{s}^{z}$ (resp. $\phi_{s}^{w}$ ) は時刻 $s$ におけるトピック (resp.単語) 分布である. ここでは簡単のため, ドリフト関数のパラメータ $\theta_{\alpha}, \theta_{\beta}$ の寄与は省略した. 連続時間の微分方程式を解くことによりパラメータ生成を行っているため,サンプリングが不規則であっても対応できることを図では表現している.
図 1: 連続時間フラクショナル・トピックモデルのグラフィカルモデル表現.
## 2.3 パラメータ推定
以下, $T+1$ 個のタイムスタンプ $\left.\{0=s_{0}, s_{1}, \ldots, s_{T}=\right.$ $T\}$ において観測された文書 $\hat{d}_{s_{t}}=\left.\{\hat{w}_{s_{t}}^{i} \in \mathbf{W}\right.$ : $\left.i=1, \ldots,\left|\hat{d}_{s_{t}}\right|\right.\}(t=0, \ldots, T)$ が与えられているとする.また, 生成パラメータの初期分布を $\alpha_{0} \sim \mathcal{N}\left(\mu_{\alpha}, v_{\alpha} I_{|\mathbf{K}|}\right)$ および $\beta_{0} \sim \mathcal{N}\left(\mu_{\beta}, v_{\beta} I_{|\mathbf{K}| \times|\mathbf{W}|}\right)$ とする.ただし, $\mathcal{N}(\mu, v)$ は平均 $\mu$, 分散共分散行列 $v$ の正規分布を表す.このとき,連続時間フラクショナル・トピックモデルのパラメータは, $\Phi=\left(\Phi_{\alpha}, \Phi_{\beta}\right)$, ただし $\Phi_{\alpha}=\left(\mu_{\alpha}, v_{\alpha}, \sigma_{\alpha}, \theta_{\alpha}\right)$ および $\Phi_{\alpha}=\left(\mu_{\beta}, v_{\beta}, \sigma_{\beta}, \theta_{\beta}\right)$, で与えられる. このとき,ドリフト関数 $f_{\theta_{\theta_{\alpha}}}$ (resp. $\mathrm{v} f_{\theta_{\beta}}$ ) のパラメータ数を $D_{\theta_{\alpha}}$ (resp. $D_{\theta_{\beta}}$ )とすると, パラメータ空間は $\Theta=\Theta_{\alpha} \times \Theta_{\beta}$, ただし,
および
$
\Theta_{\alpha}=\underbrace{\mathbb{R}^{\mathbf{K}}}_{\mu_{\alpha}} \times \underbrace{\mathbb{R}_{+}}_{v_{\alpha}} \times \underbrace{\mathbb{R}}_{\sigma_{\alpha}} \times \underbrace{\mathbb{R}^{D_{\theta_{\alpha}}}}_{\theta_{\alpha}}
$
$
\Theta_{\beta}=\underbrace{\mathbb{R}^{\mathbf{K} \times \mathbf{W}}}_{\mu_{\beta}} \times \underbrace{\mathbb{R}_{+}}_{v_{\beta}} \times \underbrace{\mathbb{R}}_{\sigma_{\beta}} \times \underbrace{\mathbb{R}^{D_{\theta_{\beta}}}}_{\theta_{\beta}}
$
で表される. 以下では, 各時刻 $t=0, \ldots, T$ における次の対数尤度関数をパラメータ $\Phi \in \Theta$ について最大化する.
$
L_{s_{t}}(\Phi)=\log p\left(\hat{d}_{s_{t}} \mid \Phi\right)=\sum_{\hat{w}_{s_{t}} \in \hat{d}_{s_{t}}} \log p\left(\hat{w}_{s_{t}} \mid \Phi\right)
$
ここで, 各時刻 $s$ について, $\Phi_{\alpha}=\left(\mu_{\alpha}, v_{\alpha}, \sigma_{\alpha}\right)$ および $\Phi_{\beta}=\left(\mu_{\beta}, v_{\beta}, \sigma_{\beta}\right)$ としてパラメータ $\Phi=\left(\Phi_{\alpha}, \Phi_{\beta}\right)$ が与えられたときの各単語の確率密度関数は,
$
\begin{aligned}
p\left(w_{s} \mid \Phi\right)= & \sum_{k \in \mathbf{K}} p\left(z_{s}=k \mid \Phi\right) p\left(w_{s, k}=w_{s_{t}} \mid \Phi\right) \\
= & \int_{\mathbb{R}^{\mathbf{K}}} \int_{\mathbb{R}^{\mathbf{K} \times \mathbf{W}}} \sum_{k \in \mathbf{K}} p_{\mathrm{Cat}}\left(z_{s}=k \mid \phi\left(\alpha_{s}\right)\right) \\
& \times p_{\mathrm{Cat}}\left(w_{s, k}=w_{s} \mid \phi\left(\beta_{s, k}\right)\right) \\
& \times p\left(\alpha_{s} \mid \Phi_{\alpha}\right) p\left(\beta_{s} \mid \Phi_{\beta}\right) d \alpha_{s} d \beta_{s}
\end{aligned}
$
で与えられる.ここで, $p\left(\alpha_{s} \mid \Phi_{\alpha}\right)$ および $p\left(\beta_{s} \mid \Phi_{\beta}\right)$ は時刻 $s$ における $\alpha_{s}$ および $\beta_{s}$ の確率密度関数である。
本稿では,トピックまたは単語分布の長期記憶性やラフさを再現することを確認することが目的であり,簡単のため単純化された設定の下で文章生成を行う。そのもとで, 提案手法の尤度 (4) の最大化について次が成立する。
命題 1. ドリフト関数が $f_{\alpha}=0$ かつ $f_{\beta}=0$ の場合,尤度 (4) の最適化は古典的な (即ち時間発展のない定常的な) トピックモデルの最適化問題に帰着される.
そのため特に,EMアルゴリズムや変分ベイズ推定などの手法を適用することができる。
## 3 実証分析
## 3.1 データセット
提案モデルによる時系列相関を考慮したトピック抽出を評価するため,本実験では重大イベント (東日本大震災) 前後でのトピック推移について定性的な評価を行う.提案モデルの評価のため,ロイターニュース ${ }^{1)}$ から東日本大震災を含む前後 5 日間 (2011/3/8 3/12) のニュース記事 178 件を抽出し,実験を行った。
## 3.2 実験設定
提案モデルの入力には,ニュース記事から名詞を抽出し計算した Bag of Words 形式の特徴量を利用した. またモデルの学習には,マルコフ連鎖モンテカ
1) https://jp.reuters.com/
(a) $H=0.1$ (ラフな $\mathrm{fBm})$
(b) $H=0.5(\mathrm{cDTM})$
(c) $H=0.9$ (長期記憶性を持つ $\mathrm{fBm}$ )
図 2: 東日本大震災前後のニュースのトピック分布推移
ルロ法 $(\mathrm{MCMC})$ を利用した。本実験の対象期間は 5 日間と短期であるため,トピック分布は期間中変化する一方で,トピック内の単語分布の変化は相対的に小さいことが想定される.よって本実験では,トピック分布の生成パラメータ $\alpha$ のみ時間発展する設定で実験を実施した. 提案モデルの評価としては, トピックの時系列相関を制御するパラメータである Hurst 指数を変化させた際に,学習結果として得られるトピック推移,および上位トピックに出現する単語を算出した. 提案モデルにおけるハイパーパラメータである Hurst 指数 $H$ をそれぞれ 0.1,0.5,0.9 に設定し,トピック数は 5 に設定し実験を行った. それぞれ,$H=0.1$ の場合はラフさを,$H=0.5$ のときは Brown 運動 (cDTM), $H=0.9$ の場合は長期記憶性を持つ。
## 3.3 結果
図 2 は,提案モデルによって得られたトピック分布のパスの推移を示している. Hurst 指数が大きい設定では,イベント前後でトピックの推移が大きく変化することはなく, 各トピックの正相関性が保たれてことがわかる。一方で, Hurst 指数を小さくしたケースではイベント後にトピックの発生確率の大幅な変動がみられる。 中間の $\mathrm{H}=0.5$, つまり cDTM のケースは両者の中間の位置付けとなっている.このように,Hurst 指数を制御することで,提案モデルが長期依存性を持つトピックや短期依存性を持つトピックの動向を追跡できている.
$H=0.1$ について,関連するニュースの増加に伴うトピック分布の変動を捉えられていると考えられる. 具体的に,5つのトピックはそれぞれ,トピック 1(青線) は国内ニュース,トピック2(オレンジ線) は国内市況,トピック3(緑線) は海外ニュース,トピック 4(赤線) は海外市況,トピック 5 (紫線) は中国関連と解釈できるイイベント前はリビア情勢不安や中国の政府・経済動向といった海外ニュースおよび海外市況のトピックが多かった. 一方で,イベント後は震災に関する国内ニュースおよび国内市況のトピックが大幅に上昇した。
## 4 まとめ
本研究の貢献は次の通りである.
$\cdot$cDTM の一般化を行い,生成パラメータの増分の正相関性 (長時間依存性) および負相関性 (ラフさ)を考慮にいれた手法である,連続時間フラクショナル・トピックモデルを提案した.
- 提案手法のパラメータ推定は簡易的には,卜ピックモデルと同様であることを示した.
・実際の経済ニュースデータを用いた数値実験によって,提案手法がトピックの長時間依存性やラフさを捉えることができることを確認した.
本研究の限界として, トピックまたは単語分布の長期記憶性やラフさの再現が主目的のため,ドリフ卜項を考慮しなかった。加えて,fBm は一般には独立増分性を持たないため $[3,4]$ と同様に Kalman Filterをもとにトピック分布あるいは単語分布の事後分布を効率的に計算することができない.
今後の発展として,トピック分布あるいは単語分布の事後分布の効率的な計算方法を考察することが挙げられる。また,本研究では考慮していないドリフト項を非線形なニューラルネット関数を用いて学習させる ODE-Net (SDE-Net) ベースの拡張 [11] または本研究と同様に fBm による ODE-Net ベースの拡張 [12] が挙げられる.
## 参考文献
[1]David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, No. Jan, pp. 993-1022, 2003.
[2]David M Blei and John D Lafferty. A correlated topic model of science. The annals of applied statistics, Vol. 1, No. 1, pp. $17-35,2007$.
[3]David M Blei and John D Lafferty. Dynamic topic models. In Proceedings of the 23rd international conference on Machine learning, pp. 113-120, 2006.
[4]Chong Wang, David M Blei, and David Heckerman. Continuous time dynamic topic models. In UAI'08 Proceedings of the Twenty-Fourth Conference on Uncertainty in Artificial Intelligence, 2008.
[5]Liangjie Hong and Brian D Davison. Empirical study of topic modeling in twitter. In Proceedings of the first workshop on social media analytics, pp. 80-88, 2010.
[6]Xuanhui Wang, ChengXiang Zhai, Xiao Hu, and Richard Sproat. Mining correlated bursty topic patterns from coordinated text streams. In Proceedings of the 13th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 784-793, 2007.
[7]Xuerui Wang and Andrew McCallum. Topics over time: a non-markov continuous-time model of topical trends. In Proceedings of the 12th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 424-433, 2006.
[8]Jure Leskovec, Lars Backstrom, and Jon Kleinberg. Memetracking and the dynamics of the news cycle. In Proceedings of the 15th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 497-506, 2009.
[9]Benoit B Mandelbrot and John W Van Ness. Fractional brownian motions, fractional noises and applications. SIAM review, Vol. 10, No. 4, pp. 422-437, 1968.
[10]Francesca Biagini, Yaozhong Hu, Bernt Øksendal, and Tusheng Zhang. Stochastic calculus for fractional Brownian motion and applications. Springer Science \& Business Media, 2008.
[11]Ricky TQ Chen, Yulia Rubanova, Jesse Bettencourt, and David K Duvenaud. Neural ordinary differential equations. Advances in neural information processing systems, Vol. 31, , 2018.
[12]Kohei Hayashi and Kei Nakagawa. Fractional sde-net: Generation of time series data with long-term memory. In 2022 IEEE 9th International Conference on Data Science and Advanced Analytics (DSAA). IEEE, 2022.
## A Appendix: 命題の証明
ドリフト関数が $f_{\alpha}=0$ かつ $f_{\beta}=0$ の場合,式 (2) は次のように解くことができる.
$
\alpha_{s}=\alpha_{0}+\delta B_{s}^{H}, \quad \beta_{s}=\beta_{0}+\sigma B_{s}^{H}
$
よって,時刻 $s$ において $\alpha_{s}$ および $\beta_{s}$ の分布は Gauss 分布を用いて明示的に表すことができる. これは古典的な (即ち時間発展のない定常的な) トピックモデルの最適化問題と等しく, そのため尤度 (4) の最適 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D9-3.pdf | # 決算説明会のテキスト特徵と株主資本コストの関連性
真鍋友則 ${ }^{1}$ 黒木裕鷹 1 中川慧 2
${ }^{1}$ Sansan 株式会社 ${ }^{2}$ 野村アセットマネジメント株式会社
\{manabe, kuroki\}@sansan. com k-nakagawa@nomura-am.co.jp
## 概要
決算説明会は,企業が決算状況を説明し,参加者は質疑応答を通して疑問を解消することができるため,情報開示の主要な手段に位置付けられている。企業による積極的な情報開示は,情報の非対称性を緩和し資本コストを下げることが理論的に知られている。しかし決算説明会の発言内容に由来する特徵と資本コストがどのように関連するかについては明らかではない,そこで本研究では,決算説明会のテキスト特徴が資本コストとどのような関係にあるかを分析する.結果として,質疑応答セクションが長いという意味で情報開示に積極的な企業の資本コストが低い傾向が得られた。
## 1 はじめに
株式会社では所有と経営が制度的に分離されており, 企業内部の経営者と企業外部のステークホルダーとの間では情報の非対称性が存在する. そのため, 金融商品取引法などの各種の規制によって必要最低限の情報開示 (ディスクロージャー)を企業に要求している. しかし, このような規制に基づくディスクロージャーだけでは情報の非対称性が十分に緩和されない [1]. そこで, 多くの企業が株式市場における適正な株価形成,事業内容の理解の促進,投資家とのリレーションの形成, 社会的認知度の向上などを目的として,追加的な情報をステークホルダーに対して適時に発信する IR(Investor Relations)活動を行っている.
IR の代表的な手段の一つに決算説明会がある.決算説明会とは, 決算短信が公表された後に速やかに開催される,企業の業績や計画,戦略などについて説明が行われる場である。決算説明会は,経営者によるプレゼンテーション(説明)のセクションと, 参加者と経営者との質疑応答のセクションで構成されることが通常である. 参加者は経営者による業績についての説明あるいは解釈を直接聞くことが
できるほか,質疑応答を通して業績と見通しに関する疑問を解消することができる。
前述の通り企業内部の経営者と外部の投資家の間には情報の非対称性があり,IR 活動はそれを緩和することを目的とする. 実際に,[2,3] ではより質の高い情報開示が市場参加者間の情報の非対称性を低下させ,その結果資本コストは削減されることが示唆されている.また,実際に開示の量や質が資本コス卜と関係があることを実証する研究も数多く存在する $[4,5,6]$. 情報開示の中でも,米国および日本市場においても,決算説明会を対象にした研究が存在している $[7,8,9,10]$. また,説明会の内容や発話のテキスト特徴にまで踏み込んだ分析事例もいくつか存在する. [11] はテキストに感情極性を付与し, 質疑応答セクションの極性が肯定的であった企業の株式は,その後に有意な異常リターンを生むことを示している。また,国内市場においても,[12] は感情極性と将来業績を, [13] は様々な感情極性とその後の異常リターンをそれぞれ分析している。
しかし, これらの決算説明会についての先行研究はいずれも決算説明会のもつ情報価値を投資の観点で,すなわち株価リターンや流動性に対する説明力で測るものである. 決算説明会のどのような特徴 (開示) が理論モデルが示すように情報の非対称を緩和し資本コストを低減するかは未だ明らかではない. また,コーポレートガバナンス・コードの基本原則 5「株主との対話」でも,資本コストを意識した経営とその情報開示を意識づけられており,資本コストに関する分析への社会的なニーズは高い,そこで本研究では, 決算説明会の書き起こしテキスト情報と企業の財務情報を用いて,決算説明会のテキスト特徴が,対応する決算の財務的背景や資本コストとどのような関係にあるかを分析する.資本コストと関係する特徴が明らかになれば,どのような情報開示が資本コストを低下させるかへの手がかりとなり得る。
## 2 データ分析
本節では,本研究で扱う決算説明会のテキストデータと分析手法について概説する. 分析の目的は,決算の内容とそれを受けた決算説明会のテキスト特徴,さらには資本コストの関係を分析することである。端的には, 決算説明会テキストデータに対し,極性辞書を用いた感情極性のスコアリングおよび文章長に対し,対応する決算の財務的内容を踏まえ資本コストとの相関関係を分析した。
米国の年次業績報告書 (10-K) を対象とした研究では, その単語数が多くまた難読性が高い,すなわち複雑で読みにくい (情報コストが高い) 報告書を提出する企業ほど業績が悪く[14],小口投資家からの投資量が減少し [15], またその後の高いボラテリティやアナリスト評価のばらつきにも影響すること [16] が報告されている.なお [16] は,金融文書のような専門性が高い文章の読み易さを評価する上では Fog Index のような一般的な難読性指標は適切ではなく,難読性の代替指標として単純なファイルサイズがより有効な指標であることを指摘している.
これらを踏まえ本研究では,感情極性以外の決算説明会のテキストの特徴として,プレゼンテーション (説明) セクションの文章長と質疑応答セクションの文章長をそれぞれ使用した.特に質疑応答は決算説明会固有の重要な機会であるが,その時間配分や実際に生じた質問量などは企業によって異なる. 質疑応答文章長は質疑応答の時間的長さや活発さの代替指標と考えられ,そこには情報の非対称性の解消に向けた企業の姿勢や投資家からの関心の高さが反映されていることが予想される。
## 2.1 決算説明会のテキストデータ
本研究では,ログミー株式会社が提供する金融イベントの書き起こしメディアであるログミーファイナンス1)の決算説明会のテキストを対象に分析を行った. ログミーファイナンスでは, 決算説明会のほかに個人投資家向けの説明会や株主総会などが文字起こしされ,記事として提供されている。また, テキストはイベントの音声がそのまま文字起こしされるのではなく,ライターや校正の手によって,内容や語彙・ニュアンスを変えることなく成立した文章として書き起こされる.
2022 年 12 月末までに公開された記事は約 5,127
1) https://finance.logmi.jp/件あり,そのうち 4,508 件が決算説明会に関する記事, さらに 666 件が質疑応答セクションの内容も含まれる記事である。本研究ではそのうち, 2018 年から 2022 年に公開された本決算についての記事 254 記事を対象とした。
## 2.2 資本コストの計算
資本コストは Fama-French の 3 ファクターモデル [17]を用いて [18] と同様に算出した. 具体的には,企業 $i$ の月次株価リターン $r_{i t}$ を用いて次の回帰式によって $\hat{\beta}_{i}, \hat{\delta}_{i}, \hat{\gamma}_{i}$ を推計する.
$r_{i t}-r_{f t}=\beta_{i}\left(r_{M t}-r_{f t}\right)+\delta_{i} S M L_{t}+\gamma_{i} H M L_{t}+\varepsilon_{i t}$.
ここで, $r_{f t}, r_{M t}, S M L_{t}, H M L_{t}$ は Kenneth French $の$ Web サイト ${ }^{2}$ から取得した. 係数は月毎に,その前月を最終月とした 60 ヶ月のウインドウデータに基づいて算出した. 推定した係数を用いて時点 $t$ における企業 $i$ の資本コスト $C P_{i t}$ は
$C P_{i t}=\hat{\beta}_{i t} \mathbb{E}\left[\left(r_{M t}-r_{f t}\right)\right]+\hat{\delta}_{i t} \mathbb{E}\left[S M L_{t}\right]+\hat{\gamma}_{i t} \mathbb{E}\left[H M L_{t}\right]$.
と計算できる.ここで各期待値 $\mathbb{E}[\cdot]$ は, $r_{f t}, r_{M t}, S M L_{t}, H M L_{t}$ それぞれの 1990 年 7 月から $t$ 時点までの平均値として計算した。
## 2.3 決算説明会テキストへの感情極性 スコアリング
本研究では,本邦における決算説明会のテキスト分析が少ないこと,より単純で解釈が容易であることから,金融ドメインに特化した日本語の極性辞書 [19]を用いて感情極性の付与を行う.辞書には 1 文字だけの極性表現や,3 文字以内のひらがな・ カタカナのみから構成される極性表現が含まれるが,これらは除いた上で使用した. 辞書では,トー クンに対し連続的な値を取るスコアが付与されており,これを用い式 (2)ように極性を付与した.ここで, 企業 $i$ の決算説明会のテキストは, 企業からの決算説明のセクションと,それに続く質疑応答のセクションからなり,その構成する文字列の系列を $\boldsymbol{d}_{i}=\left.\{\boldsymbol{d}_{i, P T}, \boldsymbol{d}_{i, Q A}\right.\}$ と表すこととする. $s(w)$ は文字列 $w$ が極性辞書に含まれるときその極性の値を,含まれないとき 0 を返す関数である.
$
\operatorname{TONE}(\boldsymbol{d})=\frac{\sum_{w \in \boldsymbol{d}} s(w)}{\sum_{w \in \boldsymbol{d}}|s(w)|}
$
french/data_library.html
また,本分析では次の 2 つの極性を定義し,それぞれの決算説明会のテキスト $d_{i}$ に対して付与した.
・説明セクションの感情極性:
$
\text { TONE }\left(\boldsymbol{d}_{i, P T}\right)
$
・質疑セクションの感情極性:
$
\operatorname{TONE}\left(\boldsymbol{d}_{i, Q A}\right)
$
## 2.4 決算データ・資本コストとの関連分析
(1) 式の資本コスト $C P_{j t}$ を従属変数とした重回帰分析を行い,決算発表のテキスト特徴との関連を分析する. ここで, $T O N E_{P T, j t}, T O N E_{Q A, j t}$ はプレゼンテーションセクションと質疑応答セクションの感情極性スコア, $L E N_{P T, j t}, L E N_{Q A, j t}$ はそれぞれのテキスト長, $Y D_{t}$ は年のダミ一変数, $S D_{j}$ は所属セクター(TOPIX11)のダミー変数である.その他の変数 CONTROL $L_{j t}$ には,対数売上高 $(\log (S A L E S))$ や時価簿価比 $(B M)$, レバレッジ (LEVERAGE), 売上成長率 $(S G)$ などが含まれる $[20,6]$. コントロール変数は決算発表で言及されている決算の値を用いた.また, $\beta$ はそれぞれの変数に対する係数,Гはコントロール変数に対する係数べクトルを表す。
$C P_{j t}=\beta_{1} T O N E_{P T, j t}+\beta_{2} T O N E_{Q A, j t}+\beta_{3} L E N_{P T, j t}+$
$C P_{j} t, S G, B M$ について,両側 $1 \%$ のウィンソライズ処理により異常値の補正を行った. 各変数の要約統計量を表 1 に示す. 全ての変数について欠損がなく,最終的に分析に用いたサンプル数は 211 であっ
は重回帰分析にあたり対数変換を施した。
## 3 結果
重回帰分析の結果を表 2 に示した.
表 2 より,質疑応答文の文字数が多いと資本コストが低い傾向があることがわかる。これは,決算説明会において,既に発表されている決算の内容や企業が予め用意したスクリプトよりも,投資家からの要請である質疑応答により長い時間を用意することが,より良い情報開示になっていることを示唆する結果である。このことは,情報の非対称性を緩和する IR 活動,すなわち情報開示の質が良いと資本コ表 1 各変数の要約統計量
表 2 式 (3)の重回帰分析の結果
ストが低くなるとする一連の既存研究の結果とも整合的である.
また,感情極性スコアの回帰係数は,プレゼンテーションセクションも質疑応答セクションも共に有意水準 $5 \%$ では棄却されなかった。このことから,他の独立変数を条件付け決算の内容を踏まえたとき,決算説明会において論調を変えることは,資本コストの高低には影響しないことが示唆される。
## 4 まとめ
本研究では,情報の非対称性という観点から IR 活動の一種である決算の内容を踏まえた決算説明会のテキスト特徴,さらには資本コストの関係を分析した. 結果として,質疑応答の長い説明会を開催する企業は,資本コストも低い傾向にあることを明らかにした.この結果は,決算説明会の質疑応答ひいては投資家からの要請で情報を開示することが,情報の非対称性を緩和する質の良い IR の要素になっていることを示唆する.
本研究の限界として, 決算説明会の書き起こしを入手できた企業の数が現在ではごく一部に限られ,上場企業全体から見た場合にはバイアスがあることが挙げられる. また時点も直近の数年に限定されている. 企業数及び時点のサンプル数を拡大したときに同様の事象が観測されるとは限らない. 今後, サンプル数の拡充と継続した分析が必要になると考える.
さらに,本研究では資本コストとテキストの表面的な特徴との関連を分析するに留まったが,より内容に踏み込むアプローチとして,質疑応答で言及されているトピックを分類し分析することなどが考えられる。また,先行研究を踏まえた場合,ボラテリティやリターンなどとの関連分析も興味深い示唆につながると考える. 今後の研究課題としたい.
## 参考文献
[1] Jeremy Bertomeu and Robert P Magee. Mandatory disclosure and asymmetry in financial reporting. Journal of Accounting and Economics, Vol. 59, No. 2-3, pp. 284-299, 2015.
[2] Douglas W Diamond. Optimal release of information by firms. The journal of finance, Vol. 40, No. 4, pp. 10711094, 1985.
[3] Douglas W Diamond and Robert E Verrecchia. Disclosure, liquidity, and the cost of capital. The journal of Finance, Vol. 46, No. 4, pp. 1325-1359, 1991.
[4] Christine A Botosan. Disclosure level and the cost of equity capital. Accounting review, pp. 323-349, 1997.
[5] Christine A Botosan and Marlene A Plumlee. A reexamination of disclosure level and the expected cost of equity capital. Journal of accounting research, Vol. 40, No. 1, pp. 21-40, 2002.
[6] 内野里美. 自発的な情報開示が自己資本コストに与える影響. 現代ディスクロージャー研究, Vol. 6, pp. $15-25,2005$.
[7] Stephen Brown, Stephen A Hillegeist, and Kin Lo. Conference calls and information asymmetry. Journal of Accounting and Economics, Vol. 37, No. 3, pp. 343-366, 2004.
[8] Michael D Kimbrough. The effect of conference calls on analyst and market underreaction to earnings announcements. The Accounting Review, Vol. 80, No. 1, pp. 189-219, 2005.
[9] 張潚月, 金奕群. 決算説明会における質疑応答内容の開示と情報の非対称性との関係. 証券アナリストジャーナル, Vol. 59, No. 8, pp. 86-98, 2021.
[10] 真鍋友則, 黒木裕鷹, 指田晋吾, 中川慧. 決算説明会に関する情報開示の効果検証. 人工知能学会第二種研究会資料, Vol. 2022, No. FIN-029, pp. 18-22, 2022.
[11] S McKay Price, James S Doran, David R Peterson, and Barbara A Bliss. Earnings conference calls and stock returns: The incremental informativeness of textual tone. Journal of Banking \& Finance, Vol. 36, No. 4, pp. 9921011, 2012.
[12] 橋本英樹. 国内企業の決算説明会の感情分析. 第 55 回 2021 年度夏季ジャフィー大会, 2021.
[13] 黒木裕鷹, 真鍋友則, 指田晋吾, 中川慧. 決算説明会テキストデータの感情極性と株式リターンの分析.人工知能学会第 29 回金融情報学研究会, pp. 47-53, 2022.
[14] Feng Li. Annual report readability, current earnings, and earnings persistence. Journal of Accounting and economics, Vol. 45, No. 2-3, pp. 221-247, 2008.
[15] Brian P Miller. The effects of reporting complexity on small and large investor trading. The Accounting Review, Vol. 85, No. 6, pp. 2107-2143, 2010.
[16] Tim Loughran and Bill McDonald. Measuring readability in financial disclosures. the Journal of Finance, Vol. 69, No. 4, pp. 1643-1671, 2014.
[17] Eugene F Fama and Kenneth R French. The cross-section of expected stock returns. the Journal of Finance, Vol. 47, No. 2, pp. 427-465, 1992.
[18] 太田浩司, 斉藤哲朗, 吉野貴晶, 川井文哉. Capm, fama-french 3 ファクターモデル, carhart 4 ファクター モデルによる資本コストの推定方法について. 関西大学商学論集, Vol. 57, No. 2, pp. 1-24, 2012.
[19] Tomoki Ito, Hiroki Sakaji, Kota Tsubouchi, Kiyoshi Izumi, and Tatsuo Yamashita. Text-visualizing neural network model: understanding online financial textual data. In Pacific-Asia Conference on Knowledge Discovery and Data Mining, pp. 247-259. Springer, 2018.
[20] Sabino P Kothari, Xu Li, and James E Short. The effect of disclosures by management, analysts, and business press on cost of capital, return volatility, and analyst forecasts: A study using content analysis. The Accounting Review, Vol. 84, No. 5, pp. 1639-1670, 2009. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D9-4.pdf | # トピックモデルによる市場変動要因の抽出
川原一修 1
${ }^{1}$ Japan Digital Design
\{takanobu.kawahara\}@japan-d2.com
## 概要
本稿では日々大量に生じる金融ニュースから市場の変動に影響を与えたトピックをトピックモデルを使用して効率的に抽出する手法を考察した。先行研究と比べてトピックの抽出に文章のコンテキストまで用いる点に新規性があり、比較実験でコンテキストを使用する手法の優位性を示したあと、実際に市場変動に影響を与えたトピックを抽出し人間の目で見ても違和感のないことを確かめた。
## 1 はじめに
金融アナリストが市場分析を行う際に、過去にあった、類似した環境での市場動向について調査し将来を予想する上での参考とすることが多々ある。 しかし、金融市場は様々な要素で変動し、市場の値動きだけから過去の相場がどのような要素によってドライブされていたのか特定することは難しく、金融アナリストは過去の金融ニュースなど多量の文献調査に時間をさくケースがままある。そこで本稿では、市場関連ニュースのヘッドラインを使用してどのようなニュースが市場の動向に影響を与えていたのか検出する手法について考察した。日々大量に流れてくるニュースをトピックモデルによって大別し、その後シンプルな回帰モデルで市場変動に影響を与えていたトピックを効率的に検出する手法を提案する。時々の市場をドライブしていたトピックを明らかにすることで、金融アナリストの文献調查の補助情報として利用することを考えた。
## 2 先行研究
## 2.1 トピックモデル
文章の集合から、これらの文章の生成過程に潜んでいる潜在トピックを抽出しようとする研究はトピックモデルとしてこれまで盛んに研究されてきた。とりわけ、Latent Dirichlet Allocation(LDA)[1] や
Non-Negative Matrix Factorization(NMF) [2] は実務でも広く利用されるようになった。これらの手法は大量の文章の中からトピックを効率的に抽出する上で有用な手法ではあるが、文章中に各単語が何回登場したかを数え上げて作成した行列 (Bag of Words, BoW) をべースとした手法であるため、単語同士のつながりが形成する文章のコンテキストを必ずしも活用しきれないことが欠点としてあげられる。
これに対して、特に Bidirectional Encoder Representation from Transformers(BERT) [3] の登場以来、文章の分散表現を使用してトピックの抽出に文章のコンテキストまで活用しようとする研究が行われている。節 3.1 で解説する BERTopic[3] の他にも、Sentence-BERT [4] による分散表現と BoW を同時に活用し、Valuational Auto Encoder を用いて潜在トピックを抽出する Combined Topic Model(CTM)[5] や,Doc2Vec [6] によって事前学習された分散表現からクラスターを探知することでトピックを抽出する Top2Vec[7] などでは、従来手法である LDA などと比べてトランスフォーマーベースの手法のパフォー マンスが優位だったとの報告がなされている。
## 2.2 トピックモデルを使用したマーケット 変動要因の抽出
マーケットの変動を説明するトピックを抽出する研究としては [8] が挙げられる。[8] では、S\&P500 指数の構成銘柄の価格リターンやボラティリティを説明するトピックを抽出する手法が研究された。手法としては複数の LDA のアンサンブルによるトピック抽出と相対的なトピックウェイトによるター ゲット変数の回帰であり、アンサンブルの手法に様々な工夫が凝らされている。トピックのセンチメントを株価の将来変動の予想に活用した研究としては [9] や [10] があるが、これらの研究と異なり [8] では、将来の市場変動を予測することを研究のモチベーションにしているのではなく、変動の要因となっているトピックを検出することをモチベー ションにしている点が本稿に近しい。[8]、本稿とも
に市場変動とテキスト情報で同時点のデータを使用して分析を進めていることをここで強調する。本稿との違いについては [8] では LDA ベースの手法を用いており、文章のコンテキストまで取り入れて分析を行うことの効果の検証は本稿で新規の観点だと考える。
## 3 理論
## 3.1 BERTopic
本節では BERTopic[11] について概観する。 BERTopic ではLDA などの従来手法と異なり、文章の生成に特別なモデルを想定しない。BERTopic のトピック抽出方法は要約すると以下の流れになる。
1. Sentence-BERT[4] による分散表現の抽出
2. UMAP[12] による次元削減
3. HDBSCAN[13] によるクラスタリングとトピックの抽出
4. c-TF-IDFによるトピックの代表単語の抽出
c-TF-IDF は通常ドキュメント単位で計算される TF-IDFをクラスター単位に拡張した手法であり、各単語 $t$ のクラスター $c$ 内でのウェイト $W$ は以下の様に計算される
$
W_{t, c}=t f_{t, c} \cdot \log \left(1+\frac{A}{t f_{t}}\right)
$
右辺第一項はクラスター内での単語の出現頻度 $t f$ であり、通常の TF-IDFで inverse document freaquancy に相当する第 2 項は全クラスターの平均単語数 $A$ を各々のクラスターに単語 $t$ が登場する頻度で除した值となっている。このウェイトが高い単語ほどクラスター内での重要度が高い単語と解釈される。
## 3.2 トピックの評価指標
本稿ではトピックモデルの精度評価に Topic Coherence(TC) と Topic Diversity(TD) の 2 つの指標を採用した。TC の計算方法にはいくつかのバリエーションがあるが、本稿では normalized pointwise mutual information(NPMI) [14] 利用した。具体的には 2 つの単語 $w_{i}, w_{j}$ の NPMI は以下の式で計算される。
$
\begin{gathered}
\operatorname{NPMI}\left(w_{i}, w_{j}\right)=\left(\ln \frac{p\left(w_{i}, w_{j}\right)}{p\left(w_{i}\right) p\left(w_{j}\right)}\right) /-\ln p\left(w_{i}, w_{j}\right) \\
T C_{t}=\frac{2}{k(k-1)} \sum_{i=1}^{k-1} \sum_{j=i}^{k} N P M I\left(w_{i}, w_{j}\right)
\end{gathered}
$
式1の $p($.$) はコーパスの中での単語の出現確率で、$単語ペアが同時に出現する確率が高いほど NPMI の値は大きくなり、 -1 から 1 の間の値を取る。 $T C_{t}$ はトピック $t$ で上位 $k$ 単語の NPMI の平均値であり、 $\mathrm{TC}$ は全てのトピックについて $T C_{t}$ の平均をとって計算される。使用する単語数 $\mathrm{k}$ はハイパーパラメー タであり本稿では 10 を用いた。TC は人間の評価したトピックの精度との相関が高いとの研究 [15] があることから広く利用されるようになった。TDは各トピックにユニークな単語の割合で、 0 から 1 の値をとる。広範なトピックを探知できていれば值は 1 に近づき、トピックの重複が多ければ值は 0 に近づ $<[16]$ 。
## 4 データ
金融ヘッドラインデータ本稿では Bloomberg 社のイベントドリブンフィードサービスから Textile News のヘッドラインを取得して利用する。本デー タセットにはニュースを識別する ID、ニュースがフィードされた時刻、言語、ヘッドラインなどの情報が提供されている。ニュースのへッドラインのみを分析の対象とし本文は使用しない、また言語が英語のヘッドラインのみ使用する。ニュースによっては事後的にアップデートされるものがあり、同じ ID を持つニュースの中でフィード時刻が最新のレコー ドのみを使用してニュースの重複を回避した。使用したデータの期間と件数は以下の通りである。
1. トピックモデルの比較
- 期間: 2022 年 12 月 $5-7$ 日、13、14 日
- 件数: 27,937
2. マーケット変動要因の抽出
- 期間:2018年 1 月 1 日 2022年 6 月 30 日
- 件数 : 7,232,088
本稿では以後このデータセットを金融へッドラインデータと呼ぶことにする。
市場データ代表的な市場指数として S\&P500 指数を利用する。日次で終值を Bloomberg から取得して利用する。
## 5 実験手法
本稿では 2 つ実験を行った。1つ目の実験は金融ヘッドラインニュースに有効なトピックモデルの探索を行うための比較実験であり、複数のトピックモデルをデータに当てはめて得られたトピックの品質を比較する。2つ目の実験はトピックモデルに
よって得られたトピックのセンチメントが市場変動に対して説明力があるのか検証した上で、実際に検出されたトピックを例示する。
## 5.1 トピックモデルの比較
本節では複数のトピックモデルについて金融へッドラインデータでの性能を比較する。比較したモデルは LDA,NMF,CTM,Top2Vec,BERTopicFinBERT,BERTopic の 6 種類である。BERTopicFinBERT については BERTopic のプロセスのうち 1 番の分散表現の抽出に、FinBERT [17] の [cls] トークンの出力に相当するべクトルを利用した。6 種類の手法の中で、CTM,Top2Vec, 2 種の BERTopic が文章の分散表現を利用した比較的新規の手法である。クラスタリングの品質はトピック毎に抽出した代表単語の TC と TD で計測した。すべてのモデルでトピック数をハイパーパラメータとして与えることができる。本実験では $10,20,30,40,50$ と 5 種類のトピック数について乱数シードを変えながら 3 回実験を繰り返し、全 15 回の試行の精度指標の平均を報告している。
## 5.2 市場変動の回帰モデル
前出の BERTopic を使用して抽出したトピックが市場の変動に対して説明力があるか、シンプルな回帰モデルを構築して検証する。
$
\begin{aligned}
r_{t, t-1} & =\beta_{1} r_{t-1, t-2}+\beta_{2} r_{t-1, t-6}+\beta_{3} r_{t-1, t-11} \\
& +\sum_{i=1}^{K} \beta_{i+3} \text { sentiment }_{i, t}
\end{aligned}
$
$r_{t, t-i}$ は $t-i$ 時点の引け值から $t$ 時点の引け值までの価格リターンであり、最初の 3 項は前日までの 1 日、 5 日、10 日リターンを説明変数として使用しており、 sentiment $t_{i, t}$ はトピック $i$ の $t$ 時点でのセンチメントである。使用するトピック数 $K$ を 0 とした場合と 0 より大きな数としたときにモデルの説明力に違いがあるかを検証する。回帰は Lasso 回帰として行い、制約項の係数はハイパーパラメータとして 5fold のクロスバリデーションにより決定する。精度指標としては $R^{2}$ 値、平均絶対誤差、平均 2 乗誤差を測定する。モデルはデータを3 个月毎に区分し、 それぞれの期間でトピックの抽出と、回帰モデルの推定を行う。ヘッドラインの取得時間が UTC21 時以降の場合には翌日のニュースとして取り扱う、本表 1 モデル毎のトピックの品質
稿では市場指数として S\&P500 指数を使用しており、米国での取引が活発となる時間を意識して時間を区分した。へッドラインのセンチメントの計測には FinBERT を利用する。FinBERT では入力文章の極性が positive,neutral,negative の 3 クラスに判定される共に、クラスに属する可能性をスコアとして出力する。得られたセンチメントが positive の場合にはスコアをセンチメントスコアとして利用し、neutral の場合には 0 、negative の場合にはスコアに-1を乗じてへッドラインのセンチメントスコアとした。各トピック $i$ の日次センチメントスコアは、時点 $t$ で得られたへッドラインのうち、当該トピックに属するへッドラインのセンチメントスコアの平均として計算する。
## 6 実験結果
## 6.1 トピックモデルの比較
各モデルにより抽出されたトピックの精度指標を表 1 にまとめた。TC については BERTopic の精度が最も良好で次いで BERTopic-FinBERT が良好であった。LDA や NMF の様な BoWをべースとした手法と比較してトピックの精度が高くなっているのは [11] の報告と傾向が一致しており、文章のコンテキストを活用することが得られたトピックの精度に有利に働く可能性があるという点は金融へッドラインデータに関しても同様であった。TCでみた精度が最も低いのは Top2Vec であり、複雑な潜在べクトルの分布に対して、クラスターのセントロイドを使用したトピックの抽出が [11] の指摘通り有効に機能していない可能性がある。最後に BERTopic-FinBERT と BERTopic の比較では、直観的には金融コーパスでのファインチューニングが行われた FinBERT と使用することで精度が向上することが期待されたが、結果としては Sentence-BERT を使用したモデルの精度が比較的良好だった。文全体の分散表現を獲
表 2 回帰モデルの精度指標
表 3 各トピックの回帰係数と代表単語
得するように訓練した Sentence-BERT を利用することがへッドラインのクラスター作成には有利だった可能性があり、金融コーパスで文章全体の分散表現を獲得するように事前学習したモデルを使用することでさらなる精度の向上を望めることから今後の課題として記載する。
## 6.2 マーケット変動要因の抽出
## 6.2.1 精度指標
金融ヘッドラインデータを用いて、式 2 のモデルを推定し、モデルの精度指標を表 2 にまとめた。使用するトピック数は $K$ を $0,50,100$ と 3 種類実験している。表中の数字は、データ期間を 3 ヶ月毎の区分に分けた 18 セットでそれぞれモデルを推定した結果の平均値である。 $\mathrm{K}$ を 0 として、過去の価格変動だけで市場変動をモデリングしたケースではマー ケット変動に対する説明力はほどんどなく $R^{2}$ 值も 0 に近い值になっている、使用するトピックの数を増やすと $R^{2}$ の値は大きくなり、2つの誤差指標も $K=0$ の場合と比べて低下している。トピックのセンチメントがマーケットの変動の少なくとも一部を説明していると考えられる。
## 6.2.2 抽出されたトピック
次に、実際に推定されたモデルと抽出された単語の具体例を示す。表 3 に 2022 年 4 月 1 日から 6 月 30 日のデータを使用したモデルについて一部のトピックセンチメントに対する回帰係数と各トピックの代表単語の上位 10 単語を示す。
推定されたモデルでは 24 個の説明変数の係数が 0 と異なった、うち値が正であったものは 7 個も含め、全てがトピックセンチメントであった。表 3では紙面に収めるために 4 つのトピックのみについて記載する。1 番目のトピックは SP500 や NASDAQ などの単語が並び主に米国の株式市場に関するニュースと思われる。当日の金融市場の動向をタイムリーにニュースとして配信するベンダーが存在し、これらのニュースがトピックとして抽出されている。市場動向ニュースを事後的に抽出することに実務的な意味があるのかは議論の余地があるが、 その他のトピックにも特徵的な単語が並ぶ。 3 番目のトピックでは”ukraine"、"russia”などの単語が並びロシアのウクライナ侵攻の情勢に金融市場が敏感になっていたことが示される。4 番目のトピックには”ecb","treasuries","curve"、などの金利市場に関わる単語が並び、各国中央銀行の動向や金利市場のニュースが株式市場にも影響を与えていた可能性が示唆される。
## 7 結論
本稿では金融アナリストが過去の市場変動の要因となった事象を調べる際に、ニューステキストとトピックモデルを使用して効率的に市場変動の要因となったトピックを抽出する手法を提案し実証実験を行った。実験は 2 段階に分けて行われ、 1 つ目の比較実験では金融ニューステキストに複数のトピックモデルを適用し、トランスフォーマーベースの手法が LDA などの従来手法と比べてトピック抽出のパフォーマンスが優位であることを明らかにした。2 つ目の実験では BERTopic を使用して実際にトピックを抽出し、回帰分析を通じて市場の変動を説明するトピックが検出できるか検証した。トピックを説明変数として使用したモデルはそうでないモデルと比べて $R^{2}$ などでみて精度が向上しており、市場の変動を説明するトピックが検出できていると考える。実際に検出されたトピックも人間の直観にあう内容となっており本稿で提案した手法に一定の有用性があると考える。
## 参考文献
[1] David M. Blei, Andrew Y. Ng, and Michael I. Jordan. Latent dirichlet allocation. J. Mach. Learn. Res., Vol. 3, No. null, pp. 993-1022, mar 2003.
[2] Cédric Févotte and Jérôme Idier. Algorithms for nonnegative matrix factorization with the $\beta$-divergence. Neural Computation, Vol. 23, No. 9, pp. 2421-2456, 2011.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACLHLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019.
[4] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks, 2019.
[5] Federico Bianchi, Silvia Terragni, and Dirk Hovy. Pretraining is a hot topic: Contextualized document embeddings improve topic coherence. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 759-766, Online, August 2021. Association for Computational Linguistics.
[6] Quoc Le and Tomas Mikolov. Distributed representations of sentences and documents. In Eric P. Xing and Tony Jebara, editors, Proceedings of the 31st International Conference on Machine Learning, Vol. 32 of Proceedings of Machine Learning Research, pp. 1188-1196, Bejing, China, 22-24 Jun 2014. PMLR.
[7] Dimo Angelov. Top2vec: Distributed representations of topics. CoRR, Vol. abs/2008.09470, , 2020.
[8] Paul Glasserman, Kriste Krstovski, Paul Laliberte, and Harry Mamaysky. Choosing news topics to explain stock market returns. In Proceedings of the First ACM International Conference on Al in Finance, ICAIF '20, New York, NY, USA, 2021. Association for Computing Machinery.
[9] Thien Hai Nguyen and Kiyoaki Shirai. Topic modeling based sentiment analysis on social media for stock market prediction. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1354-1364, Beijing, China, July 2015. Association for Computational Linguistics.
[10] Jaydeep Soni Ivalio Dimov. Trading esg news using topic codes factors, 2021.
[11] Maarten Grootendorst. Bertopic: Neural topic modeling with a class-based tf-idf procedure. 2022.
[12] Leland McInnes, John Healy, and James Melville. Umap: Uniform manifold approximation and projection for dimension reduction, 2018.
[13] Leland McInnes and John Healy. Accelerated hierarchi- cal density based clustering. In 2017 IEEE International Conference on Data Mining Workshops (ICDMW). IEEE, nov 2017.
[14] Gerlof Bouma. Normalized (pointwise) mutual information in collocation extraction. Proceedings of GSCL, Vol. 30, pp. 31-40, 2009.
[15] Jey Han Lau, David Newman, and Timothy Baldwin. Machine reading tea leaves: Automatically evaluating topic coherence and topic model quality. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 530539, Gothenburg, Sweden, April 2014. Association for Computational Linguistics.
[16] Adji B. Dieng, Francisco J. R. Ruiz, and David M. Blei. Topic modeling in embedding spaces. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 439-453, 2020.
[17] Dogu Araci. Finbert: Financial sentiment analysis with pre-trained language models, 2019. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
D9-5.pdf | # 株主提案の要領におけるトピック別の文書特徵量と賛成率
久多里桐子
北九州市立大学経済学部
kirikokudari@kitakyu-u.ac.jp
## 概要
本研究は、株主提案の要領に関する基礎研究を行うことを目的とする。株主提案の要領である 3 つのテキスト (提案内容、提案理由、取締役会の意見)を独立した文書とみなし、各文書をトピックモデル (LDA)を用いて分類した上で、各トピックにおける文書の特徴量 (文字数および文字数に占める数字の割合) と賛成率の関係を分析した。2011 年〜2019 年の定時株主総会における株主提案議案 1,350 件を対象に分析を行った結果、提案内容や提案理由のトピックによって、得られる賛成率が異なることを確認した。本研究の分析結果は、他の株主が株主提案の要領に基ついいて議決権を行使していることを示唆する。
## 1 研究の目的と意義
本研究は株主提案の要領に関する基礎研究を行うことを目的とする。2021 年 3 月に施行された改正会社法では、株主が提出しようとする議案の数は 10 件までに制限された。一方で、株主提案の内容に制限を設けることは見送られた。しかしながら、2019 年に公表された要綱案の段階では、内容に関する制限も含まれていた。
具体的には、提案が「専ら人の名誉を侵害し、人を侮辱し、若しくは困惑させ、又は自己若しくは第三者の不正な利益を図る」ことを目的としていた場合や、「株主総会の適切な運営が著しく妨げられ、株主の共同の利益が害されるおそれがあると認められる場合」には、株主提案権の行使を制限することが予定されていた ([1]) 1 。
その後、国会における法案審議において上記内容が削除された理由は、「権利の濫用に該当する株主提案権の類型についてさらに精緻に分析を深めなが
1)株主提案権には議題提案権 (会社法第 303 条)、議案提出権 (同法第 304 条)、議案要領通知請求権 (同法第 305 条第 1 項) が含まれる。目的等による議案の提案に対する制限は、議案提出権および議案要領通知請求権を対象としている。
ら、引き続き検討していくべき」([2], p. 5)であるからだ。つまり、2021 年の改正会社法において、株主提案の内容に関する制限が見送られたことは、関連する知見が少ないことに起因する。そこで本研究は、株主提案権に関する今後の検討材料に資するという意義の下、株主提案権の内容に焦点を当てた分析を行う。
つづく第 2 節では、米国および日本の株主提案権について、提案内容および記述に関する制度上の規定について参照し、関連する先行研究を紹介する。第 3 節では、分析手法とサンプルについて述べる。第 4 節では分類したトピックの概要を確認し、第 5 節で主たる発見事項を提示する。最後に、第 6 節で本研究の要約を述べる。
## 2 制度の概要と先行研究
## 2.1 制度の概要
米国の株主提案権は制限が強い。例えば、提案内容が取締役の選任に関するものであったり、具体的な配当金額に関するものであったりした場合、企業側は提案を排除できる ${ }^{2)}$ 。また、記述量も補足説明を含めて 500 語以内に限られる。
一方で、日本では株主が提案できる内容は多様であり、記述量に関する法的な制限もない。一般的には、株主が記述した提案内容や提案理由の原文に加えて、議案に対する取締役 (取締役会設置会社の場合は取締役会) の意見 (以下、取締役会の意見) が、株主総会招集通知内の株主総会参考書類に記載される $^{3)}$ 。
2) 17 C.F.R. $\S 240.14 a-8(2003)$
3)ただし、提案の理由が明らかに虚偽である場合または専ら人の名誉を侵害し、若しくは侮辱する目的によるものと認められる場合は提案理由を削除されることもある。また、企業側が株主提案を拒否できる事由として明文化されているものは、法令もしくは定款に違反する場合や、実質的に同一の議案につき総株主の議決権の 10 の 1 以上の賛成を得られなかった日から 3 年を経過していない場合が該当する (会社法第 304 条ただし書き、第 305 条第 4 項)。
## 2.2 先行研究
本研究に関連した分析として、以下 3 つの研究を挙げる。[3] は、EDGAR から取得した 2004 年から 2013 年の期間に提出された Form 8-K のうち、所定の要件を満たす 73,986 件を 20 のトピックに分類し、分類したトピックによって投資家の反応が異なることを確認している4)。
[5] では、2003 年から 2012 年までの新聞記事 77,814 件を 30 のトピックに分類し、日ごとのトピックの割合と市場リターン (TOPIX) との間の関係を分析している。分析を通じて、トピックの割合と市場リターンの間に相関は見られなかった一方で、一部のトピックの割合と市場ボラティリティの間に相関があることを発見した。
[6] では 2004 年から 2021 年までの所定の要件を満たす有価証券報告書 43,289 件をもとに、MD\&A (経営成績等の分析) の記述について分析を行い、近年のディスクロージャー制度改革が MD\&A の開示に影響を及ぼしていることを報告している。
## 3 分析手法とサンプル
## 3.1 分析の概要
分析の概要は以下の通りである。はじめに、株主提案の要領である 3 つのテキスト (提案内容、提案理由、取締役会の意見) を独立した文書とみなし、各文書の特徴量を取得する。つづいて、各文書をトピックに分類する。本研究の主たる分析として、分類したトピックごとに、文書の特徴量と賛成率の関係を確認する。
本研究では、文書の特徴量として以下 2 つを採用した。第 1 に、文字数である。定款で文字数に制限を設けている企業に対して、当該定款の削除を求める提案が提出される事例が存在していることからも明らかなように、記述量は賛成率に影響を与えると考えられる。第 2 に、文字数に占める数字の割合である。特に剩余金の分配に関する提案など、特定の議案においては具体的な数字を用いた提案の方が説得力が高まると考えられる。
以下は実際の提案理由に基づく特徴量であるが、例 Aよりも例 B の方が賛成率は高いと予想する。
4)米国上場企業は、投資家の意思決定に影響を及ぼす可能性のある重要な事象 (決算発表、重要な契約の締結、倒産など) が生じた際、 4 営業日以内に Form 8-k (current report)を米国証券取引委員会 (SEC) に提出する必要がある ([4])。例 A:増配できる充分な利益がある。
- 文字数: 14 字
一文字数に占める数字の割合: $0 \%$
例 $\mathrm{B}$ :貴社は、平成 30 年 9 月末の連結貸借対照表にて現預金及び投資有価証券の合計額 350 億円を有し、(省略) 妥当なものであると考えます。
- 文字数: 278 字
一文字数に占める数字の割合: $6.47 \%$
議案からテキストを抽出する際の留意事項を下記に示す。提案内容が取締役等の役員選任議案の場合、当該候補者の経歴等は提案内容に含めない。また、会社注も含めない。さらに、提案内容と提案理由が明確に区別されていなかった場合、提案理由の記述はないものとみなしている5)。
取締役会の意見が複数の議案に対する集約的なものであった場合、各議案に同じ記述がなされたものとして扱った。ただし、個別の議案に対する意見に加えて、別立てで議案全体に対する取締役会の意見が付されていた場合は、個別の議案に対する意見のみを取締役会の意見として収集している。
## 3.2 前処理と形態素解析
トピックモデルの構築にあたり、下記の通りに前処理および形態素解析を行った。表記の統一を目的として、全角コロン「,」を読点「、」に、全角ドット「.」を句点「。」に変換した上で、全角の英数字と記号 (括弧や\%など) を半角に変換した。数値に関しては桁数区切りのコンマを除いた上で、 0 に置き換えた。そのため、例えば「 100 万円」は「0万円」 $「 10,000$ 人」は「0人」に置き換わっている。形態素解析にあたっては解析器に MeCab ([7]) を、辞書に mecab-ipadic-neologd ([8]) を利用した。品詞は名詞、形容詞、動詞を採用し、ストップワードとして SlothLib ([9]) に頻度の高い単語を追加した ${ }^{6)}$ 。
## 3.3 LDA モデルの構築
トピックの分類においては、潜在的ディリクレ配分法 (Latent Dirichlet Allocation; LDA ([10])) によるトピックモデルを採用した。LDA モデルの構築において、辞書は出現文書数が 13 件 (サンプルの $1 \%$ ) 以下の単語および $20 \%$ 以上の文書に出現する単語は
5)提案内容と混在している場合、可能であれば文章を分割した。
6)具体的には、平成、昭和、令和、当社、貴社、会社、株主、提案、議案をストップワードとして採用している。また、ひらがな 1、2 文字の単語も除外した。
表 1 提案内容の各トピックにおける代表的な単語
除いた7)。コーパスの作成においては、TF-IDF による重み付けは実施しない。
トピック数に関して、提案内容は 6 、提案理由は 6 (ただし、テキストが取得できなかった議案のみの Topic 7 を設定)、取締役会の意見は 5 に設定した ${ }^{8)}$ 。
## 3.4 サンプルとデータの取得源
分析対象は 2011 年〜2019 年の定時株主総会において提出された株主提案議案 1,388 件である。ただし、賛成率を含めた分析においては、付議の要件を満たさなかったなどの理由で決議されなかった議案を除くため、 1,350 件に減少する。
データの取得源は、以下のとおりである。株主提案の要領に関しては、eol (株式会社アイ・エヌ情報センター) から取得した株主総会招集通知の PDF から手作業でテキストを収集した。賛成率については日経 NEEDS-Cges 株主総会関連データ (日経メディアマーケティング株式会社) から取得している。
## 4 トピックの概要
表 1 および表 2 は、提案内容および提案理由の各トピックについて、頻出上位 5 単語から任意に選定した代表的な単語を示している9)。また、図 1 は提案内容と提案理由のトピックごとの該当件数を示している。図 1 において最も件数が多いのは、提案内容 Topic 6 と提案理由 Topic 5 のセルである。表 $1 \cdot 2$ の単語をもとに解釈するならば、(現金などの)「保有」を理由とする「配当」提案が、比較的多く提出されていると考えられる。
7)例えば「取締役会の意見」のテキストをもとに作成した辞書からは、「反対」「取締役会」などの定型的な単語が除かれる。
8)トピック数を 2〜30 の範囲でシミュレーションを行い、 Coherence[11] および Perplexity の值をもとに決定した。また、コーパスを TF-IDFによる重み付けを実施した場合と実施しなかった場合の両方でシミュレーションを行った結果、重み付けを実施した場合の方が Perplexity が著しく高い值であった。そのため、コーパスの作成においては、TF-IDF による重み付けは実施しないこととした。
9)取締役会の意見の分類は、実質的に提案内容に基づく分類となっている。そのため、取締役会の意見については記載を割愛する。表 2 提案理由の各トピックにおける代表的な単語
(注)Topic 7 は提案理由として明確な記述がなかったものを分類している。
図 1 提案内容トピックと提案理由トピックの対応関係
## 5 分析結果
はじめに、株主提案議案をトピックに分類する前の、文字数ないし文字数に占める数字の割合と賛成率の関係について確認する。図 2 はサンプルの 1,350 議案について、文字数と賛成率の散布図と、被説明変数を賛成率、説明変数を文字数の自然対数とした回帰直線を、文書別に示している10)。
図 2 が示すように、取締役会の意見については、記述量と賛成率の間にはプラスの関係がある (回帰係数は 2.098)。つまり、賛成率が高いと予想される場合に、取締役会の意見の記述量が増える可能性があると考えられる。
一方で、提案内容および提案理由については、記述量が増えると賛成率は低くなる傾向が見られる (回帰係数はそれぞれ-1.064と-1.749)。他の株主にとっては、記述量が増えるほど提案内容等を吟味するためのコストが高くなるため、賛成票を投じる可能性が低くなるのかもしれない。
類似した傾向は、図 3 でも確認できる。図 3 は 1,350 議案について、文字数に占める数字の割合と賛成率の散布図と、被説明変数を賛成率、説明変数を文字数に占める数字の割合とした回帰直線を、文
10)外れ值を除くため、文字数が 0 字以上 4,000 字未満である文書に限定した。
図 2 文書別の文字数と賛成率
図 3 文書別の文字数に占める数字の割合と賛成率
書別に示している11)。回帰係数はそれぞれ、提案内容が 6.566、提案理由は-4.106、取締役会の意見が 62.700 である。
上記の発見事項は、議案を分類していない場合の株主提案に関する全体的な傾向である。表 3 と表 4 では、提案内容を 6 つのトピックに分類した場合の文書の特徴量と賛成率の関係を確認できる。具体的には、表 3 は被説明変数を賛成率、説明変数を文字数の自然対数とした単回帰の係数を示している。また、表 4 は被説明変数を賛成率、説明変数を文字数に占める数字の割合とした単回帰の係数を提示している。
表 3・4から、トピックによって文書の特徴量と賛成率の関係は異なることがわかる。注目すべきは、表 4 において、特に Topic 6 の提案理由で記述に占める数字の割合が高いほど賛成率が高いという点である。Topic 6 の代表的な単語が「配当」であることに鑑みると、提案理由として会計数値等を用いた方が、高い賛成率を得られると考えられる。
最後に、図 4 において、提案内容と提案理由のトピックごとの、賛成率の中央值を示す。まず、提案理由の Topic 7 で高い賛成率が確認できる。これは、表 3 提案内容トピック別の各文書と文字数の関係
表 4 提案内容トピック別の各文書と文字数に占める数字の割合の関係
支配株主が可決を見越して十分な説明なしに提案を行っていることを示している。
つづいて、提案内容 Topic 5 と提案理由 Topic 4 のセルや、提案内容 Topic 1 と提案理由 Topic 1 のセルで高い賛成率 (17.1\% と $15 \%$ ) を確認することができる。つまり、「利益」を理由とした「報酬」提案などが高い賛成率を得ている。分析結果は、提案内容や提案理由のトピックによって、得られる賛成率が異なることを示している。
図 4 提案内容と提案理由のトピック別賛成率 (中央値)
## 6 本研究の結論
本研究では、株主提案の要領に関する基礎研究を行った。分析の結果、提案内容や提案理由のトピックによって、得られる賛成率が異なることを確認した。本研究で得られた結果は、株主提案の要領が他の株主の議決権行使に影響を及ぼしている可能性を示唆する。
11)外れ値を除くため、文字数に占める数字の割合が $20 \%$ 未満である文書に限定した。
## 謝辞
本報告は JSPS 科研費 JP20K13642 の助成を受けた研究成果の一部である。また、本報告は日本経済会計学会第 3 回秋季大会 (2022 年 12 月 17 日開催) の自由論題報告「自然言語処理を用いた株主提案の要領に関する分析」に一部修正を施したものである。
## 参考文献
[1] 法務省. 会社法制(企業統治等関係)の見直しに関する要綱案, 2019. 法制審議会会社法制 (企業統治等関係) 部会第 19 回会議 (2019年 1 月 16 日開催) http://www.moj.go.jp/content/001279742.pdf.
[2] 竹林俊憲, 邊英基, 坂本佳隆, 藺牟田泰隆, 青野雅朗,若林功晃. 令和元年改正会社法の解説-ii-. 旬刊商事法務, Vol. 2223, pp. 4-10.
[3] Stefan Feuerriegel and Nicolas Pröllochs. Investor reaction to financial disclosures across topics: An application of latent dirichlet allocation. Decision Sciences, Vol. 52, No. 3, pp. 608-628, 2021.
[4] U.S. Securities and Exchange Commission. How to read an 8-k, 2021. https://www.sec.gov/oiea/ investor-alerts-and-bulletins/how-read-an8-k.
[5] 竹澤譲, 伊藤真利子, 大西立顕. Lda で求めた新聞記事のトピック割合と株価指数の関係性. 人工知能学会第二種研究会資料, Vol. 2021, No. FIN-026, pp. 1-8, 2021.
[6] 中野貴之, 五十嵐未来, 湯浅大地. Md\&a 情報における『トピック』の分析. 証券アナリストジャーナル, Vol. 60, No. 10, pp. 27-35, 2022.
[7] 工藤拓. Mecab: Yet another part-of-speech and morphological analyzer. https://taku910.github.io/mecab/.
[8] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017.
[9] Slothlib. http://svn.sourceforge.jp/svnroot/ slothlib/CSharp/Version1/SlothLib/NLP/Filter/ StopWord/word/Japanese. txt.
[10] David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, No. Jan, pp. 993-1022, 2003.
[11] David Mimno, Hanna Wallach, Edmund Talley, Miriam Leenders, and Andrew McCallum. Optimizing semantic coherence in topic models. In Proceedings of the 2011 conference on empirical methods in natural language processing, pp. 262-272, 2011. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H1-1.pdf | # 日本語日常対話コーパスの構築
赤間怜奈 1,2 磯部順子 2 鈴木 潤 1,2 乾 健太郎 1,2
1 東北大学 2 理化学研究所
}
\{akama, jun.suzuki, kentaro.inui\}@tohoku.ac.jp, yoriko.isobe@riken.jp
## 概要
規範的な日本語表現で構成される高品質な日本語日常対話コーパスを構築した. 本稿では,構築したコーパスの概要とその構築方法を説明する。既存対話コーパスとの比較分析により構築したコーパスの特長を明らかにした上で,「規範的」という性質を持つ言語資源の利点について述べる。
## 1 はじめに
昨今の対話システムは, 出力内容に着目した総合的な主観評価の上で着実な性能が改善がなされている $[1,2,3]$. 次におこなうべきは,その性能改善の要因の理解や依然として残る技術的な課題の把握であるが,対話で用いられる言語表現は自由度が非常に高いという性質を持つため(基本語彙以外の語の出現や,基本語順からの逸脱は常である),一定の基準や特定の正解を軸にした分析では,性能改善のための本質的な要因を特定することが困難である.
そこで我々は, 新たに,基本語彙の使用と基本語順の遵守を可能な限り優先した規範的な言語表現で構成されている対話コーパス日本語日常対話コーパス(Japanese Daily Dialogue)を構築した. ${ }^{1)}$ 本コー パスに収録する収録する対話の作成や調整をすべて人手でおこない,ノイズが非常に少なく計算機上での処理がしやすい,かつ,品質が十分に保証されている信頼できる対話データを獲得した. 規範的な対話は,実際の対話データ(たとえば,音声対話の書き起こしやSNS)が持つ人間のリアルな言語活動の表出という特長を失うが,その代わり,ある種形式的で簡潔な問題設定を対話の枠組みで実現しているといえる. 規範的な対話を対象とした対話の意味的・統語的言語理解に関する分析は,一般的な対話,とりわけリアルな対話を対象とする場合に比べて,比較的容易に実行できる可能性がある.本稿では,日本語日常対話コーパスの構築手順を
1) 2023 年 3 月公開予定.表 1 対話データの例. トピック「旅行」.
A: おはようございます。高原の朝は冷えますね。
B: おはようございます。本当ですね。羽織るものが欲しいです。
A: 朝食の前に散歩でもいかがですか?
B: 良いですね。どこを歩きましょうか?
$\mathrm{A}$ : 湖の周りを歩きましょう。林道の先に湖があるそうですよ。
B: それでは、湖を一周しましょう。
$\mathrm{A}$ : 一周するのにどのくらい時間がかかるでしょうか?
B: ロッジのオーナーに聞いてみましょう。
説明し,データの規模や特長を報告する.その上で,本コーパスが有する規範的な性質の利点を,具体的な事例とともに紹介する.
## 2 日本語日常対話コーパス
本稿で我々が構築する日本語日常対話コーパスは,規範的な対話を収録した言語資源である.ここでいう規範的な対話とは,道徳的な内容かつ正しく丁寧な表現で書き表されている対話のことを指す.直感的には,初等から中等教育レベルの言語学習用教材で用いられる表現に近い。くだけた表現が頻発する実際の日常会話で使用するには不自然かもしれないが,基礎的な語彙かつ基本的な語順を可能な限り優先した言語表現である。
収録されている対話の例を表 1 に示す. すべての対話は話者 A,B が交互に発話をする形式であり,基本的には,対話単位でひとまとまりとなるように対話の始まりと終わりが設計されている。 1 対話は 4 発話以上, 1 発話は 1 文以上で構成されている. 日本語日常対話コーパスの統計情報を表 2 に示す。 ${ }^{2)}$本コーパスには,日本語の日常会話に馴染み深いと考えられている 5 つのトピックに関する対話が収録されている. 対話数は,1 トピックあたり 1,000 以
2)トークン分割には,日本語形態素解析機 $\mathrm{MeCab}$ と日本語形態素解析辞書 mecab-ipadic-NEologd を用いた。
} \\
表 3 表現の正規化による各値の変化.
上,コーパス全体で 5,261 である. 発話単位で計数すると, 41,780 発話である. 1 対話あたりの平均発話長は,旅行トピックが他より若干大きい値だが,全体として 8 前後である.
## 3 構築手順
日本語日常対話コーパスの構築手順は以下の通りである.これらすべての工程は,人間の作業者によっておこなわれた. 各工程の詳細は後述する。
1. コーパスに含める対話のトピックの選定
2. 各トピックに関連する対話の作成
3. 倫理的または道徳的に不適切な表現の除去
4. 表記の正規化
トピックの選定基礎的な日本語対話を広く収録するためには, 選定するトピックは, 多くの日本語話者が高度な専門知識を必要とせず容易に対話を展開できるものであることが望ましい。本研究では,基本的には英語日常対話コーパス DailyDialog [4] が採用したトピックを参考にしつつ, 日本語教育学分野の日本語会話における話題の難易度分類 $[5,6]$ を参照することで,日本語話者にとって馴染み深く日本の文化的特性に調和するトピックを優先的に採用するという方針をとり,最終的には,「日常生活」「学校」「旅行」「健康」「媅楽」の 5 つを採用した.
対話の作成対話の作成は, 日本語を母国語とする合計 59 人の作業者によっておこなわれた. 各作業者は,与えられたトピックに関連する対話,すなわち仮想の話者 $A, B$ による一連の発話系列を作成した. 作業者には, 可能な限り多くの一般的な語を含めること, 文法的に正しく丁寧な日本語表現を用
いることなどを指示した. 作業の品質を担保するために,対話作成者とは異なる 1 人以上の作業者が,作成された対話が与えられた指示を満たしていること,および,対話として成立していることを確認した. 作成された対話は,5,454 対話であった.
不適切な表現の除去倫理的あるいは道徳的な問題を含む対話や了解性の低い対話は,コーパスの規範性および品質を損なう可能性がある. 本研究では,国や報道機関が定める言語表現に関するガイドライン3)を参考に以下を「不適切な表現」と定義し,該当する対話はコーパスに収録しないようにした。
・差別や偏見を含む
・特定の属性を誹謗中傷あるいは攻撃する
・第三者に不利益を与えうる事実誤認がある
・倫理的あるいは道徳的でない話題を扱う
・意味不明な発話内容や会話展開を含む
具体的には,作成されたすべての対話について,上述の項目に該当する可能性があるかを著者らが人手で確認し,該当する場合は,対話全体あるいは問題のある一部箇所を削除する,または,問題のある一部箇所を適切な表現に書き改める作業をおこなった. 削除された対話の例を付録 $\mathrm{A}$ 表 7,8 に示す.
表記の正規化対話が規範的であるためには,文法的および意味的に正しく一貫性のある表現で表記されている必要がある. 不適切な表現を除去し終えたすべての対話について,合計 3 人の校正者が校正作業および校閲作業をおこなった。表記は,原則として記者ハンドブック [7] に従った. 誤字脱字の修正や用字の統一などの一般的な校正作業に加え, くだけた話し言葉表現(略語や俗語,撥音便化など) を丁寧な書き言葉表現に変換すること, 文法的に適切な文となるよう省略された語(助詞など)を補完
3)「公用文作成の考え方」について(https://www.bunka.go. jp/seisaku/bunkashingikai/kokugo/hokoku/93650001_01. html, 文化庁), NHK 放送ガイドライン 2020 改訂版 (https://www.nhk.or.jp/info/pr/bc-guideline/, 日本放送協会)など.
表 4 各日本語対話コーパスの統計情報と特長.
& & & & & \\
すること,対話内容に矛盾があれば指摘あるいは矛盾を解消するよう修正することなど,本研究特有の作業も依頼した. 作業例を付録 A の表 9 に示す.表 3 に,校正者が正規化をする前と後の対話データの統計量を示す. 正規化後は, 用字用語の統一の効果か語彙数が約 $3 \%$ 減少した一方, 省略が補完されたためかトークン数と文字数は約 $6 \%$ 増加した.
## 4 分析:コーパスの特長
既存コーパスとの比較により日本語日常対話コー パスの特長を明らかにする. 以下に設定の概要を示す. 詳細は著者らの過去論文 [8] を参照されたい.
## 4.1 設定
比較対象比較対象として次の 5 つのコーパスを採用した: Business Scene Dialogue [9], JPersonaChat, JEmpatheticDialogues [10], Opensubtitles [11], Twitter (長澤ら [12] の前処理を適用)。これらはすべて,日本語日常対話コーパス同様,人によって書かれた雑談対話を収録したコーパスである。
分析の観点と尺度語彙的多様性, 語彙親密性,可読性の 3 つの観点で,コーパスの特長を分析した。語彙的多様性を測定する尺度として,Herdan の $C[13,14]$ 用いる. ${ }^{4} C$ の値は, 総トークン数 $N$ と語彙数 $V$ を用いて以下で算出される:
$
C=\log V / \log N .
$
語彙親密性は,単語親密度データベース $[16,17]$ を用いて,親密性スコア $S_{F}$ を以下の式で算出した:
$
S_{F}=\frac{1}{|\mathscr{D}|} \sum_{v \in \mathscr{D}} \operatorname{fam}(v)
$
ここで, $\operatorname{fam}(\cdot)$ は,データベースに存在する語
4)一般的によく利用される TTR (Type-Token Ratio) [15] はデータサイズ $N$ の影響を受けやすい,それを軽減するように標準化された尺度が $C$ である。
5) 值の範囲は $1 \leq S_{F} \leq 7$ であり,大きいほど親密性が高い.
図1コーパスサイズと語彙の Herdan's C の関係
可読性の算出には,日本語文章難易度判別システム jReadability ${ }^{6)}$ を用いた [18]. コーパスから無作為に抽出した 100 発話リーダビリティスコアの測定を 5 回繰り返し,平均値を可読性スコア $S_{R}$ とした.
## 4.2 分析結果と考察
表 4 に,各コーパスの基本的な統計情報と,各観点についてそれぞれの尺度で算出した値を示す.
多様性日本語日常対話コーパスの語彙的多様性を表す $C$ の値は,Business Scene Dialogue に次いで, 2 番目に大きい値であった. 図 1 の曲線は,各コー パスの $x \%(0 \leq x \leq 100)$ に該当する数の発話で算出された $C$ の値の変化を表す. 日本語日常対話コーパスは, $x$ の増加に伴う $C$ の減少が小さいことから,多様な語彙が豊富に含まれていることがわかる.
親密性日本語日常対話コーパスの親密性スコア $S_{F}$ は,Business Scene Dialogue に次いで 2 番目に
JPersonaChat も,ほぼ同程度の值であった. スコア $S_{F}$ の最大値が 7.0 であることから,これらのコーパスが示した 5.7 8 という值は十分に高いものといえる. したがって,日本語日常対話コーパスを含むこれらのコーパスには, 日本語話者にとって馴染み深い一般的な表現が多数含まれていることがわかる.
可読性日本語日常対話コーパスの可読性スコア $S_{R}$ は,JPersonaChat に次いで 2 番目に大きい値で
6) https://jreadability.net/.
7)付録 B に,語彙親密度の頻度分布を示す.
れも語彙の分割単位が異なること(コーパスは単語単位,言語モデルはサブワード単位)に注意が必要である.
表 6 各コーパスに含まれる差別語・不快語と出現頻度.
あった.これらのコーパスには,多くの人にとって読解しやすい比較的平易な表現で記述された対話が,数多く含まれていることがわかる.
総評以上より,日本語日常対話コーパスは,既存コーパスに匹敵するまたは上回る語彙的多様性,親密性,可読性をバランスよく兼ね備えていることがわかる。一般的で馴染み深い多様な語彙を豊富に含み,正しい日本語表現で記述された平易で読みやすい対話が収録されていることがわかる.
## 5 議論
## 5.1 規範的であることの利点
既存資源の活用表 5 は,各コーパスの語彙のうち, 既存資源(辞書 $[17,19]$, 単語ベクトル [20], 言語モデル ${ }^{899)}$ )の語彙に登録されている語,つまり,既存資源で分析可能な語彙の割合を示す. ${ }^{10)}$ 日本語日常対話コーパスは,いずれの資源においてもこの値が比較的大きい,一貫して正しく表記された語彙を多く含む日本語日常対話コーパスは,その規範的な性質ゆえに未知語が生じにくく,比較的,既存資源を活用しやすいデータであるといえる.
低攻撃性表 6 は,記者ハンドブック [7] に「差別語・不快語」として掲載されている 170 語のが,各コーパスにどの程度含まれているかとその出現頻度を示す. ${ }^{11)}$ 日本語日常対話コーパスは,語彙に含まれている差別語・不快語の種類数,それらのコー パス全体における出現頻度ともに小さい値であった. 構築時に非倫理的あるいは非道徳的な表現を積極的に排除していることもあり,日本語日常対話コーパスには攻撃的な表現がほとんど出現しない。
## 5.2 他言語対話コーパスとの関係
国内外の雑談対話研究において,DailyDialog [4], Persona-Chat[21], EmpatheticDialogues[22]は近年のデファクトスタンダードといえるデータセットである. 我々が構築した日本語日常対話コーパスは,教材的(規範的)な表現で書かれたマルチターンの高品質な日常対話という特長を持つ DailyDialog の日本語版と見做すこともできる.杉山ら [10] が公開している JPersona-Chat,JEmpatheticDialogues と合わせると,日本語日常対話コーパスの公開によってデファクトスタンダードの日本語版対話データが揃ったことになり,日本語を含む言語横断的な対話研研究のため土台が整備されたといえる.
## 6 おわりに
規範的な日本語表現で構成される高品質な日本語日常対話コーパスを構築し,その概要と構築手順を紹介した. 既存対話コーパスとの比較分析により,構築したコーパスは,既存のものに匹敵するまたは上回る語彙的多様性,親密性,可読性をバランスよく兼ね備えていることを確認した,将来的には,基礎解析系アノテーションの追加や対訳データ化など補完的な新しいデータセットの構築も視野に入れたいが,まずは,高品質な日本語対話データとして公開された日本語日常対話コーパスを多くの方に利用していただけたらうれしい.
## 謝辞
本研究は JSPS 科研費 JP22K17943,JST ムーンショット型研究開発事業 JPMJMS2011 の支援を受けたものです.
## 参考文献
[1] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu Quoc, and V Le. Towards a Human-like Open-Domain Chatbot. In aiXiv preprint arXiv:2001.09977, 2020.
[2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and William B. Dolan. DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL): System Demonstrations, pp. 270-278, 72020.
[3] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y. Lan Boureau, and Jason Weston. Recipes for Building an Open-Domain Chatbot. In Proceedings of 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 300-325, 2021.
[4] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, Shuzi Niu, and Hong Kong. DailyDialog: A Manually Labelled Multi-turn Dialogue Dataset. In Proceedings of the The 8th International Joint Conference on Natural Language Processing (IJCNLP), pp. 986-995, 2017.
[5] 山内博之, 橋本直幸. 教育語彙表への応用. 有里子砂川(編),コーパスと日本語教育, 第 2 章, pp. 35-64.朝倉書店, 2016.
[6] 山内博之, 橋本直幸, 金庭久美子, 田尻由美子. 言語活動・言語素材と話題. 博之山内(編), 実践日本語教育スタンダード,第 1 章, pp. 5-525. ひつじ書房, 2013.
[7] 一般社団法人共同通信社. 記者ハンドブック第 14 版新聞用字用語集. 2022.
[8] 赤間怜奈, 磯部順子, 鈴木潤, 乾健太郎. 規範的な日本語日常対話コーパスの設計. 言語処理学会第 28 回年次大会発表論文集, pp. 262-267, 2022.
[9] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the Business Conversation Corpus. In Proceedings of the 6th Workshop on Asian Translation (WAT), pp. 54-61, 2019.
[10] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical Analysis of Training Strategies of Transformer-based Japanese Chit-chat Systems. In aiXiv preprint arXiv:2109.05217, 2021.
[11] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical Rescoring of Sentence Alignments in Large, Noisy Parallel Corpora. In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), pp. 1742-
1748, 2018.
[12] 長澤春希, 工藤慧音, 宮脇峻平, 有山知希, 成田風香,岸波洋介, 佐藤志貴, 乾健太郎. aoba_v2 bot: 多様な応答生成モジュールを統合した雑談対話システム.人工知能学会研究会資料言語・音声理解と対話処理研究会, pp. 101-106, 2021.
[13] Gustav Herdan. Type-token mathematics: A textbook of mathmatical linguistics. Mouton, Vol. 4, p. 448, 1960
[14] Gustav Herdan. Quantitative linguistics. Butterworth, 1964.
[15] Mildred C Templin. Certain language skills in children; their development and interrelationships. University of Minnesota Press, 1957.
[16] 藤田早苗, 小林哲生. 単語親密度の再調査と過去のデータとの比較. 言語処理学会第 26 回年次大会発表論文集, pp. 1037-1040, 2020.
[17] 単語親密度 (令和版). NTT 語彙データベース. NTT 印刷, 2021.
[18] Yoichiro Hasebe and Jae-Ho Lee. Introducing a Readability Evaluation System for Japanese Language Education. Proceedings of the 6th International Conference on Computer Assisted Systems for Teaching \& Learning Japanese (CASTEL/J), pp. 19-22, 2015.
[19] Yuriko Sunakawa, Jae-ho Lee, and Mari Takahara. The Construction of a Database to Support the Compilation of Japanese Learners' Dictionaries. Acta Linguistica Asiatica, Vol. 2, No. 2, pp. 97-115, 102012.
[20] Edouard Grave, Piotr Bojanowski, Prakhar Gupta, Armand Joulin, and Tomas Mikolov. Learning Word Vectors for 157 Languages. In Proceedings of the 11th Edition of its Language Resources and Evaluation Conference (LREC), pp. 3483-3487, 2018.
[21] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing Dialogue Agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), Vol. 1, pp. 2204-2213, 2018 .
[22] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y. Lan Boureau. Towards Empathetic Open-domain Conversation Models: A New Benchmark and Dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 53705381,2019
## A 中間データ
日本語日常対話コーパスを構築する過程で生成されたデータの例を示す. 表 7,8 は, 工程 3 「倫理的または道徳的に不適切な表現の除去」で除去した対話,表 9 は,工程 4 「表記の正規化」で校正者がおこなった修正の例である.
表 7 倫理的あるいは道徳的に不適切な表現を含むとして削除された対話の例. トピックは「学校」.
$\mathrm{A}$ : 野木先生、昔と今では子供たちも変わってきていますか。
B: そうです。今の子はみんな真面目になっています。
A: 昔の子は不真面目だということですか?
B: 昔は先生の言うことを聞かない子が多かったので、授業は大変でした。
A: 反抗的な子は確かに今はいません。
B:しかし、静かなだけで何も聞いていない子もいるようです。
A: 昔は話を聞いていない子はすぐわかりましたが、今はそのようなわけにはいきません。
B: 今の方が大変なのかもしれません。
表 8 倫理的あるいは道徳的に不適切な表現を含むとして,一部が削除された対話の例. 打ち消し線の部分が除外された箇所. トピックは「媅楽」.
A:今日はバレンタインデーです。チョコは何個もらえるでしょうか。
B:100 個はもらえると思います。
A:本当ですか?
B: 冗談です。
A:本当は何個くらいもらえる予定ですか?
B: 2 個くらいだと思います。
A:2 個でももらえれば良いですね。
B: 可愛い子からだと嬉しいです。
表 9 表記の正規化の例. 校正者が削除した表現を打ち消し線,追加した表現を太字で示す.トピックは「学校」.
A: 今週最後の授業が、やっとようやく終わりました。明日は、待ちに待った土曜日です。
B: 今週も大変でしたね。中丸さんは何が一番大変でしたか?
A: 私は一昨耳おとといの体育のマラソン授業で行った長距離走がとても大変でした。安藤さんは、ぞうですかいかがでしたか?
B: 私は、今週はそこまで大変ではありませんでした。代わりに来週の小テストが怖いです。ところで、この後、何か食べに行きませんか?
A: 行きましょう。最近美味しいおいしいスイーツのお店を知ったので、そのお店に行ってみましょう。
B: 良いですね。とても楽しみです。
【校正者コメント】マラソン $=42.195$ キロメートル。体育の授業でマラソンをすることは実際にはないかと思い、「ジョギング」に変更しました。「長距離走」などに変更してもいいかもしれません。
## B 語彙親密度の頻度分布
各コーパスについて,語彙親密度の頻度分布を図 2 に示す. 值が大きいほど親密度が高い.
図 2 対話データに含まれる語彙親密度の頻度分布.
## C 差別語・不快語の例
本研究で用いた差別語・不快語リストの中で,各コーパスに含まれていた語を以下に示す. Opensubtitles と Twitter は語数が多いため割愛する.
## - JDailyDialogue:
\{坊主, めくら, 不治の病, 床屋 $\}$
## - Business Scene Dialogue:
\{やばい,あんま \}
## - JEmpatheticDialogues:
\{ジプシー, 肌色, 外人, おし, アル中, 盲目的, 色盲, やばい, 名門, スケバン, あんま, 片親, 連れ子,裸族, 坊主, デカ, 精神病院, 床屋, 浮浪者 $\}$
## - JPersonaChat:
\{町医者, あんま, サツ, ジプシー, 肌色, 片親, スキンヘッド, 外人, おし, デカ, 坊主, やばい, 床屋,片田舎, 浮浪者 \} | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H1-2.pdf | # 知識グラフと Wikipedia を用いた雑談対話モデルの構築
郭 恩孚 ${ }^{1}$ 南泰浩 1
1 電気通信大学情報理工学研究科
enfu.guo@uec.ac.jp minami.yasuhiro@is.uec.ac.jp
## 概要
本研究では,対話モデルがユーザーの提示するエンティティを元に対話をより広げられるように、対話履歴から次の話題となるエンティティとその要約を外部から取得し、モデルの入力文脈に追加する Fine-tune 手法を提案する。学習したモデルを用いて、発話の自然性、エンティティ応答の妥当性、話題提供の適切性を評価する実験を行った結果、提案手法のモデルがベースラインと比べ、自然性スコアが 0.66 ポイント、エンティティ応答の妥当性スコアが 0.52 ポイント、話題提供の適切性スコアが 0.6 ポイントの向上を示し、提案手法の有用性を確認した。
## 1 はじめに
近年、Meta $の$ BlenderBot[1] や Google が発表した Meena[2] など、生成べースの対話システムが盛んに研究されている。対話システムの研究においては、対話履歴のみを入力とするモデルが多く提案されている。しかし、これらのモデルはやや無難な応答を多く生成することが報告されている。[3]。その原因として、学習データ内に、「わからない」や「そうですね」、「いいえ」などの文が多く含まれることが挙げられる。
この問題を解決するため、対話に外部知識トリプルを導入することで、生成べースモデルが学習した対話データ以外の情報を取り込むことができることが報告されている [4][5]。知識トリプルとは、自然言語処理において、人間の認識や知識を表現するために使用される三つの要素(主語、述語、目的語) からなるデータの構造である。例えば「猫は動物である」という文章を(猫、分類、動物)で表す。
外部知識トリプルの導入により、知識をモデルのパラメータとして保持する代わりに、知識を利用した応答生成というプロセスそのものをモデルのパラメータに保持することができる。その結果、モデル
を再学習する必要がなくなり、学習データに出現したことがない知識を用いた応答生成が可能になる。 しかし、これらのモデルは、タスク指向型対話や、一問一答のような対話では有効であるが、複数ター ンの雑談対話では、過去の対話履歴を考慮できない応答の生成や、新たな話題を持ち出せない応答の生成など、知識トリプルの情報をうまく使っていないことが問題点として挙げられている。
そこで、本研究では、対話履歴から、次の話題となるエンティティとその要約を知識グラフと Wikipedia から取得し、モデルの入力文脈に追加する Fine-tune 手法を提案する。実験では、外部知識として知識トリプルのみ使って Fine-tune したべースラインモデルと外部知識として知識トリプルとエンティティの要約を使って Fine-tune した提案モデルの比較を行った。人手による評価を行った結果、提案手法で学習したモデルは知識トリプルのみ使うモデルよりスコアの向上を確認でき、提案手法の有用性を確認できた。
## 2 データ
## 2.1 対話データ
モデルの学習用対話データとして、[6] の 4 つのコーパスを用いた。各コーパスの構築ソースとデー 夕数を表 1 に示す。モデルの学習では、Wikiコーパス、CC-100コーパス、ツイートリプライコーパスを用いて事前学習を行い、ツイート疑似対話コーパスを用いて Fine-tuneを行う。
\\
図 1 各コーパスの構築ソースとデータ数
## 2.2 知識グラフとエンティティ要約
知識グラフは Wikidata[7] のダンプデータを用いて構築した。Wikidata は共同編集型の知識ベースであり、Wikipedia と同じく Wikimedia Project 群の一つである。Wikidataから(エンティティ1、プロパティ、エンティティ2)のような知識トリプルを抽出することができる。
しかし、Wikidata のデータは膨大であり、扱いが困難であると考えられる。そこで、本研究では、計算量と雑談対話の性質から、知識グラフの構築に以下の制限を付けた。
・エンティティに日本語名が存在するデータ
・雑談対話において、有意義なプロパティを含むデータ
ここでは「雑談対話において、有意義なプロパティ」とは、以下の項目とする。
・人物関連プロパティ
・人物・組織項目用プロパティ
・人物項目用プロパティ
・組織項目用プロパティ
・私生活関連プロパティ
これらのプロパティの探索には [8] を用いた。結果として、1,991,103 個のエンティティ、224 種類のプロパティ、56,552,434 個のトリプルを用いて知識グラフを構築した。構築した知識グラフの例を図 2 に示す。
図 2 構築した知識グラフの例
また、各エンティティの要約情報は、Wikipediaを用いて抽出した。その例を表 1 に示す。表 1 エンティティとその要約例
## 3 提案手法
対話履歴から、直近のユーザー発話やシステム発話の中に含まれるエンティティを抽出する。エンティティの抽出には Ginza[9] を用いた。抽出したエンティティを元に、2.2で構築した知識グラフを用いて、次の話題となるエンティティが存在するかどうかを確認する。次の話題となるエンティティが複数存在する場合、ランダムに一つを選び、そのエンティティの要約を取得する。次の話題となるエンティティが存在しない場合、対話履歴から抽出したエンティティの要約を取得する。取得したエンティティの要約を知識情報とし、対話履歴と共にモデルに入力し、知識応答生成を行う。また、対話履歴からエンティティ抽出できなかった場合、知識情報の部分を空欄にし、対話履歴のみモデルに入力し、一般応答生成を行う。その一連の処理のフローチャー トを図 3 に示す。
図 3 処理のフローチャート
## 4 実験
## 4.1 実験設定
モデルアーキテクチャには、Transformer EncoderDecoderを用いた。モデルの詳細な設定を表 2 に示す。
## 4.2 事前学習
事前学習では、2.1の Wiki コーパス、CC-100コー パス、ツイートリプライコーパスを利用した。また、[6] と同じく3つの学習:ランダムマスク学習、 シングル応答生成学習、固有名詞マスク学習を行った。ランダムマスク学習では、入力トークンの $15 \%$ を [MASK] トークンに置き換え、元の文を復元する。シングル応答生成学習では、入力からターゲッ卜応答を生成する。固有名詞マスク学習では、入力文を事前に Sudachi[10] で形態素解析を行い、入力文にある固有名詞を事前に [MASK] トークンに置き換えた上で、トークン分割し、元の文を復元する。ただし、[6] では固有名詞を全部置き換えるに対して、本研究では 1 つの固有名詞のみ置き換えるようにした。各事前学習の入出力形式を表 3 に示す。学習の Optimizer には Adafactor[11]を用い、学習率を 1e-4、 warmup step を 1000 にそれぞれ設定し、目的関数には label smoothed cross entropy を使用した。
## 4.3 Fine-tune
Fine-tune では、2.1 のツイート疑似対話コーパスを利用した。Encoderへの入力は、話者情報を表す [USER][SYS] トークン、知識情報を表す [KL] トー クンを導入し、先頭に「[SYS] の発話を生成する:」 を付け、過去の全発話を入力する。ユーザーの発話に該当する部分の先頭に [USER]、末尾に [/USER] トークンをつけた。システムの発話に該当する部分の先頭に [SYS] トークン、末尾に [/SYS] トークンをつけた。知識情報に該当する部分の先頭に [KL] トークン、末尾に [/KL]トークンをつけた。また、 Feed-Forward Network および Attention の dropout 率を
0.1 に設定し、学習の Optimizer には Adafactor を使用した。学習率を 1e-4、warmupstep を 2000 にそれぞれ設定し、目的関数には label smoothed cross entropy を用いた。
## 4.3.1 ベースライン
知識情報の部分に知識トリプルを入れ、Fine-tune し応答文を生成するものを、ベースラインとして用いる。その入力例を表 4 に示す。
表 4 ベースラインモデルの Fine-tune 時の入力形式のテンプレート
[SYS] の発話を生成する:[USER] ユ — ザーの発話: $U_{1}[/ \mathrm{USER}]$ [SYS] モデルの発話 $S_{1}[/ \mathrm{SYS}] \ldots[/ \mathrm{USER}][\mathrm{KL}]$ 知識トリプル:T[/KL][SYS]
## 4.3.2 提案モデル
知識情報の部分にエンティティの要約を入れ、 Fine-tune し、応答文を生成するものを提案モデルとして用いる。その入力例を表 5 に示す。
表 5 ベースラインモデルの Fine-tune 時の入力形式のテンプレート
[SYS] の発話を生成する:[USER] ユー ザーの発話: $U_{1}[/ \mathrm{USER}]$ [SYS] モデルの発話 $S_{1}$ [/SYS]...[/USER][KL] エンティティ要約: $E[/ \mathrm{KL}][\mathrm{SYS}]$
## 4.4 評価時の応答生成設定
モデルの応答は自然性と多様性の両方を満たすことが望ましい。そこで、本研究では Beam Searchによりベースラインモデルと提案モデルから応答を生成し、以下の処理を行う。同じ表現が繰り返し出現する応答の生成を防ぐため、生成された系列中にすでに出現した N-gram を出現させないようにした。 さらに、「そうですね」といった無難な発話を繰り返し応答しないように、difflibの SequenceMatcher を用いて、現在の生成候補と過去のモデル応答と比べ、類似度が 0.7 以上の応答は候補から除外した。残りの候補の中、perplexity が比較的小さな応答を選択することで、自然性と多様性を同時に満たす応答を選んだ。応答生成設定のパラメータを表 6 に示す。
表 3 各事前学習学習の入出力形式の例 (トークナイズ後)
## 4.5 実験結果及び分析
ベースラインモデルと提案モデルを比較するため、評価者 5 名でそれぞれ 10 対話について評価した。評価者と異なる実験参加者に 2 つのエンティティを提示し、モデルを使った対話システムと、 10 ターン以上継続した対話となるよう指示した。評価では、下記の軸について 5 段階 (1: とてもそう思わない 5: とてもそう思う) 評価をしてもらった。
・自然性: 対話全体が自然かどうか
・エンティティ応答の妥当性: モデルは実験参加者が提示したエンティティをうまく応答できたか
- 話題提供の適切性: モデルは実験参加者が提示したエンティティから他の話題を提供できたかその評価結果を図 4 に示す。図 4 より、提案モデルはベースラインモデルより自然性スコアが 0.66 ポイント、エンティティ応答スコアが 0.52 ポイント、話題提供スコアが 0.6 ポイント向上している。
図4 モデルの評価結果
ベースラインモデルと提案モデルの生成例を表 5 に示す。ユーザーが提示した「ユニバーサル・スタジオ・ジャパン」というエンティティについて、 ベースラインモデルでは、「ユニバーサル・スタジオ・ジャパンはいいですね」といった知識トリプルを使わずにやや無難な応答を生成した。一方、提案モデルでは知識要約の情報を含んだ「私はスー パー・ニンテンド・ワールドに行ったことがあります」という応答を生成しており、より踏み込んだ対話をしている。以上の結果により、実験参加者が提示したエンティティの情報を入力文脈に挿入することで、よりそのエンティティに近い文が生成され、対話全体の自然性も上がったと考えられる。
また、提案モデルの低評価の生成例を図 6 に示す。対話履歴により、猫と猫砂の話をしているため、ユーザーの発話に出現した「ライオン」は「ラ
イオン (企業)」というエンティティのことを指してると考えるのが妥当である。しかし、システムは知識グラフ上の「ライオン (動物)」というエンティティに紐付けた。その結果、誤った知識を使って、唐突に動物のライオンについて発話してしまい、 ユーザーを困惑させている。対話履歴からユーザー 発話の中に含まれているエンティティを理解し、知識グラフのエンティティに正しく紐付くことが今後の課題である。
図 5 ベースラインモデルと提案モデルの応答文生成例
図 6 低評価の生成例
## 5 おわりに
本研究では、対話履歴から、次の話題となるエンティティとその情報を知識グラフと Wikipedia から取得し、モデルの入力文脈に追加する手法を提案した。人手評価の結果、知識トリプルで学習したモデルと比較し、自然性、エンティティ応答の妥当性、話題提供の適切性スコアがともに向上していることが確認できた。一方、対話履歴から抽出したエンティティを知識グラフの違うエンティティと紐付け、誤った知識を使った応答が生成されるといったことも生じた。前後の文脈などからより正確にエンティティ抽出することが今後の課題である。
## 参考文献
[1] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. Vol. abs/2004.13637, 2020.
[2] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot, 2020.
[3] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[4] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internet-augmented dialogue generation, 2021.
[5] Debanjan Chaudhuri, Md Rashad Al Hasan Rony, and Jens Lehmann. Grounding dialogue systems via knowledge graph aware decoding with pre-trained transformers, 2021.
[6] 郭恩孚, 南泰浩. 固有名詞に注目した transformer による雑談対話モデルの構築. 言語処理学会第 28 回年次大会発表論文集, pp. 1500-1504, 2022.
[7] Wikimedia Foundation. Wikidata downloads. 2022.
[8] Wikidata prop explorer.
[9] Mai Hiroshi and Masayuki. 短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習. 言語処理学会第 25 回年次大会, 2019.
[10] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a japanese tokenizer for business. In Nicoletta Calzolari (Conference chair), Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Koiti Hasida, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asuncion Moreno, Jan Odijk, Stelios Piperidis, and Takenobu Tokunaga, editors, Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Paris, France, may 2018. European Language Resources Association (ELRA).
[11] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive learning rates with sublinear memory cost. Vol. abs/1804.04235, 2018. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H1-3.pdf | # 情報源のアノテーションによる 外部知識に基づいた応答の魅力度の分析
児玉 貴志 ${ }^{1}$ 清丸 寛一 ${ }^{1}$ Yin-Jou Huang ${ }^{1}$ 岡久太郎 ${ }^{2}$ 黒橋 禎夫 ${ }^{1}$
1 京都大学 2 静岡大学
\{kodama, kiyomaru, huang, kuro\}@nlp.ist. i kyoto-u.ac.jp
okahisa-taro@inf.shizuoka.ac.jp
## 概要
人間は何らかの外部知識を参照しながら話す場合でも,自身の知識や意見を適度に織り交ぜながら魅力的に発話を行う. 本研究ではそういった人間の振る舞いを,既存の外部知識に基づいた対話コーパスに追加で情報源のアノテーションをすることで分析する. 具体的には,発話中の各エンティティに対して,そのエンティティが外部知識に由来する(外部知識由来)か, 話者の知識や意見に由来する(話者由来)かをアノテーションする. 分析の結果, 話者由来情報を含む発話は応答の魅力度が高いことが分かった. また,既存の外部知識に基づく対話応答生成モデルが生成する応答は人間の応答より話者由来情報の割合が少ないことを実験的に確認した。
## 1 はじめに
対話システムに情報性の高い応答を生成させるために外部知識を活用する研究が増加している $[1,2,3,4,5]$. そうした研究では与えられた外部知識を正確に応答に反映させる方法に注目することが多い $[6,7]$.
しかし外部知識に基づく対話において,図 1 に示すように,人間は単に外部知識による情報を相手に知らせるだけでなく, 話者自身が持っている知識や意見を有効に織り交ぜる $[8]$ ことで,発話を魅力的なものにしている.与えられた外部知識を応答に正確に反映することに特化したモデルが,そのような魅力的な振る舞いをどの程度実現できるかはこれまで定量的に確認されていない。
そこで本研究ではまず,外部知識に基づいた対話コーパスの発話に情報源のアノテーションを追加で施すことで, 人間が話者由来情報をどの程度発話に取り込んでいるかを分析する。具体的には,発話
いちばんの見どころはどこですか?
製作年度 : 2003年
レビュー : 世界的にヒットした海賊たちの世界いがテーマの映画の 1 作目見どころですか ? 2003年の古い映画なのですが今見ても古さを感じず見れるとこですかね。海賊の争いがテーマなんですけど裏切りもあるのですがそれを超え絆を深めて行くとこがなんとも大好きです。
図 1 Japanese Movie Recommendation Dialogue [9] の対話例. 推薦者発話中の青字と赤字の箇所がそれぞれ外部知識由来情報と話者由来情報を指す.推薦者発話の上部の四角部分には推薦者が該当発話で使用している外部知識を示す.
中の各エンティティに対して,そのエンティティが外部知識に由来する(外部知識由来)か,話者自身の知識や意見に由来する(話者由来)かをアノテー ションする. アノテーションされたデータセットを分析した結果,魅力的な発話は話者由来情報を多く含むことを確認できた。
次に,パープレキシティを最小化するという一般的な手法で訓練した,BART ベースの応答生成モデルが話者由来情報をどの程度使用できているかを調査した。その結果応答生成モデルは人間ほど頻繁には話者由来情報を使用できていないことが明らかになった.以上の分析と実験結果より,外部知識に基づく応答生成における魅力度を高めるにはパープレキシティを最小化するだけでは不十分であり,学習フレームワークに改善の余地があることが示唆された.
## 2 情報源のアノテーション
本節では情報源ラベルのアノテーション方法とその結果について説明する。
## 2.1 アノテーション方法
外部知識に基づいた対話コーパスである Japanese Movie Recommendation Dialogue (JMRD) [9] に追加で情報源のアノテーションを行う.JMRD は映画推薦
についての日本語対話コーパスで,推薦者は発話を行う際に,参照した映画情報にアノテーションを行っている.この手続きにより推薦者の全ての発話に, 外部知識として映画情報が紐付けられている。各知識は知識タイプ (タイトル, 製作年度, 監督, キャスト,ジャンル,レビュー,あらすじ,知識なしの8つ)と対応する知識コンテンツから構成されている. 表 7 に JMRD の対話例を,表 8 に JMRDで使用されている外部知識の例を示す.
本研究では推薦者の発話中の全ての体言,用言,形容詞をアノテーションの対象とし,これらをエンティティと呼ぶ. エンティティの抽出には, 形態素解析器 Juman++ [10] を使用する. 抽出の際にはエンティティの意味を捉えやすくするため,エンティティを修飾している形容詞や副詞も含めて抽出する. アノテータは抽出されたアノテーション対象を以下に示す情報源のタイプのいずれかに分類する。
外部知識由来:対象のエンティティがその発話で使用されている外部知識に基づいている.
話者由来:対象のエンティティが推薦者が推薦映画について元々持っている知識や意見に基づいている.
その他:上記 2 つに該当しない.
以下に分類の実例を示す.
(1) 発話:アクションシーン (外部知識由来) は
見ごたえ (話者由来) 抜群です
使用されている知識:\{ジャンル,アクション\}
アノテーションはプロのアノテータに依頼した. 1 人のアノテータが 1 つの対話を担当し, アノテー ション後に別のアノテータが内容を確認した。アノテーションにかかった費用は約 140 万円だった.
## 2.2 アノテーション結果
表 1 にアノテーションの統計を示す. 推薦者は外部知識を参照しながら発話をしているため,その性質上外部知識由来のエンティティが多いものの, 話者由来のエンティティも約 6 万個存在した. この結果は,人間は外部知識を伝えるための対話であっても,自身の知識や経験,意見を発話に取り入れていることを示している.表 1 情報源のアノテーションの統計
図 2 アンケート結果と各情報源ラベルとの関係
## 3 人間の応答の分析
本節では人間の発話の魅力度と話者由来情報の関係を対話レベルと発話レベルに分けて分析する。
## 3.1 対話レベルの分析
JMRD の一部の対話(4,317 対話)には対話終了後に取った 5 段階評価のアンケート(5 が最良)が付随している. そのアンケートの中から, 被推薦者側の, 対話魅力度(質問文:「対話を楽しめたか」) と, 推薦成功度(質問文:「推薦された映画を見たくなったか」)の2つのアンケート結果と各情報源ラベルの割合との関係について分析する.
図 2 にアンケートのスコア別に各情報源ラベルの割合を示す.この図より対話魅力度,推薦成功度ともに,評価の低い対話では話者由来情報が少なく (または外部知識由来情報が多く),評価の高い対話では話者由来情報が多い(または外部知識由来情報が少ない)傾向が見て取れる.JMRDではクラウド
表 2 人間の応答に対する発話魅力度 ${ }^{11}$ 。括弧内の数値は応答数を指す.
ワーカーに一定量の外部知識を提示し,その知識を使いながら対話をするように教示している。ただ,対話相手からの評価が高い推薦者は,与えられた外部知識だけではなく,話者由来の知識をある程度 (統計的には約 $25 \%$ 程度)混ぜながら発話をしていることが分かった.
## 3.2 発話レベルの分析
JMRD には発話単位では応答の魅力度が付随していないため,新たにクラウドソーシングで応答の魅力度 (発話魅力度) について評価を行った. まずテストデータの中から 500 個の対話文脈(4 発話)とその文脈に対する応答を抽出し,クラウドワーカー にその応答の発話魅力度(質問文:「この応答をした人と話してみたい」)を 5 段階評価(5が最良)で評価してもらう.各応答につき 3 名のクラウドワー カーに評価してもらい,スコアはその平均とする.
表 2 に結果を示す. 話者由来情報を含む応答の平均スコアが 3.31 であるのに対し,含まない応答の平均スコアは 3.07 であった. この結果より, 話者由来情報を含む応答の方がより魅力的であることが発話レベルでも示された.
## 4 システム応答の分析
本節では一般的な手法で訓練した応答生成モデルが生成した応答中の情報源ラベルの分布を調査する. まず対話文脈と外部知識から応答を生成する応答生成器(4.1 節)を訓練する. 次に応答と外部知識を入力,情報源ラベルの BIO タグを出力とする情報源分類器(4.2 節)を訓練する. 最後に応答生成器が生成した応答(システム応答と呼ぶ)に対して,訓練した情報源分類器によって情報源ラベルを推測して付与し,その分布を確認する.
## 4.1 応答生成器
応答生成器は日本語 Wikipediaを使用して事前学習された BART large $^{\text {[11] }}$ を fine-tuning して作成す
1)情報源ラベルのない 4 発話についてはこの結果から除外している.表 3 情報源分類器による系列ラベリング結果
る2). モデルへの入力は以下のように定める.
$
\begin{aligned}
& {[C L S] u_{t-4}[S E P] u_{t-3}[S E P] u_{t-2}[S E P]} \\
& u_{t-1}[S E P]\left[C L S_{K}\right] k t^{1}[S E P] k c^{1}[S E P] \ldots \\
& {\left[C L S_{K}\right] k t^{M}[S E P] k c^{M}[S E P]}
\end{aligned}
$
$t$ は対話ターン, $u_{t}$ は $t$ 番目の発話, $k t^{i}$ と $k c^{i}$ $(1<=i<=M)$ は応答 $u_{t}$ に紐付けられている知識夕イプと知識コンテンツである( $M$ は応答に紐付けられている知識の最大数). $\left[C L S_{K}\right]$ は特殊トークンである.実運用時は知識選択も行う必要があるが,本研究では知識が応答にどのように反映されているかに注目するため,知識選択タスクは行わず,モデルには常に正解の知識を入力する. モデルは応答 $u_{t}$ のパープレキシティ最小化を目的関数として学習する。
システム応答の評価には SacreBLEU [12] を使用した. 正解の知識を与えているため,BLEU-1/2/3/4 は 81.1/73.5/71.0/69.9 と非常に高いスコアとなった. 3.2 節で行った,発話魅力度の評価をシステム応答に対しても同様に行った. 平均スコアは 3.09 であり,人間と比較するとやや低いスコアとなった.
## 4.2 情報源分類器
情報源分類器は日本語 Wikipedia と CC-100 を使って事前学習された RoBERTa large $^{\text {[13] }}$ を fine-tuning して作成する ${ }^{3}$ . 情報源分類器は,情報源の BIO ラべルを推定する系列ラベリングタスクを解く.モデルへの入力は以下のように定める.
$
\begin{array}{r}
{[C L S] u_{t}[S E P]\left[C L S_{K}\right] k t^{1}[S E P] k c^{1}[S E P] \ldots} \\
{\left[C L S_{K}\right] k t^{M}[S E P] k c^{M}[S E P]}
\end{array}
$
表 3 に各ラベルの適合率 (Prec),再現率 (Rec),F1 スコア $(\mathrm{F} 1)$ とそれぞれのマイクロ平均スコアを示す. マイクロ平均 F1 スコアは 90.50 であり,後段の分析に使用するには十分な精度である.
2) https://nlp.ist.i.kyoto-u.ac.jp/?BART\%E6\% $97 \% A 5 \% E 6 \%$ 9C\%AC\%E8\%AA\%9EPretrained\%E3\%83\%A2\%E3\%83\%87\%E3\%83\%AB
3) https://huggingface.co/nlp-waseda/
roberta-large-japanese-seq512
& \\
表 5 人間とシステム応答の情報源ラベルの分布. gold はアノテータによって付与されたラベルを,pred は情報源分類器で推定したラベルを指す.
表 6 知識タイプ別の話者由来情報の割合
## 4.3 推定ラベルに対する分析
4.2 節で訓練した情報源分類器を用いて,システム応答の情報源ラベルを推定する.表 5 に人間とシステム応答の情報源ラベルの分布を示す. 人間の応答にはアノテーション(2 節)ですでに正解ラベルが付与されている(Human (gold))が,公平な比較のため人間の応答についても情報源分類器で推定ラベルを付与する (Human (pred)). Human (gold) と Human (pred) は似た分布になっており, 分類器の精度が十分高いことを示している.
推定したラベルが付与されたシステム応答である System (pred) は,Human (pred) と比較すると,外部知識由来の割合が大きく増加 $(66.75 \% \rightarrow 85.48 \%)$ し,話者由来の割合が大きく減少 $(27.49 \% \rightarrow 10.66 \%)$ した. この結果より,一般的な手法で訓練した応答生成モデルは人間より話者由来情報の使用量が減少してしまうことが明らかになった.
表 4 に,人間とシステムの応答例を発話魅力度とともに示す. システムは外部知識を適切に反映しているものの,人間の応答中の「この二人,歌手も
やってます.」のような,話者由来情報を追加するといった振る舞いはできていない.
さらなる分析として,表 6 に知識タイプ別の話者由来情報の割合を示す. 人間の発話と比較すると, システム発話の話者由来情報の量はすべての知識タイプで減少した. 特にレビュー $(31.42 \% \rightarrow 6.32 \%)$ やあらすじ $(13.68 \% \rightarrow 2.32 \%)$ では大きな减少が見られた.レビューやあらすじは誰かの知識や意見を記述した外部知識であり,システムはこうした外部知識を参照することで,他に話者由来情報を追加する必要がなかったためであると考えられる。
話者由来情報が応答の魅力度を向上させるという分析と合わせると,現在の主流のモデルは話者由来情報を効果的に取り込むことができないため,その魅力度が低下してしまっている可能性がある. こうした能力は応答生成のパープレキシティを最小化するようにモデルを最適化するだけではほとんど学習されないため,新たな学習フレームワークが必要であると考えられる。
## 5 おわりに
本研究では,外部知識に基づいた対話における,人間およびシステム応答に含まれる話者由来情報について分析した. 分析の結果,外部知識だけでなく話者由来情報を用いることで,より魅力的な応答が得られることが分かった. また標準的な方法で学習した応答生成モデルは,人間よりも話者由来情報の生成量が少ないことを定量的に確認した。
対話に出現する話者由来情報は多種多様であり,単純に応答のパープレキシティを最小化するだけでは話者由来情報をうまく活用することは困難である. 今回施したアノテーションは公開予定であり, このアノテーション付きコーパスがこの問題に取り組む上での良い出発点となることを期待する.
## 謝辞
この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成, JST,CREST,JPMJCR20D の支援,及び JSPS 科研費 JP22J15317 の助成のもとで行われた。
## 参考文献
[1] Marjan Ghazvininejad, Chris Brockett, Ming-Wei Chang, Bill Dolan, Jianfeng Gao, Wen-tau Yih, and Michel Galley. A knowledge-grounded neural conversation model. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, April 2018.
[2] Kangyan Zhou, Shrimai Prabhumoye, and Alan W Black. A dataset for document grounded conversations. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 708-713, Brussels, Belgium, October-November 2018. Association for Computational Linguistics.
[3] Nikita Moghe, Siddhartha Arora, Suman Banerjee, and Mitesh M. Khapra. Towards exploiting background knowledge for building conversation systems. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2322-2332, Brussels, Belgium, October-November 2018. Association for Computational Linguistics.
[4] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In International Conference on Learning Representations, 2019.
[5] Xueliang Zhao, Wei Wu, Can Xu, Chongyang Tao, Dongyan Zhao, and Rui Yan. Knowledge-grounded dialogue generation with pre-trained language models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 33773390, Online, November 2020. Association for Computational Linguistics.
[6] Byeongchang Kim, Jaewoo Ahn, and Gunhee Kim. Sequential latent knowledge selection for knowledgegrounded dialogue. In International Conference on Learning Representations, 2020.
[7] Haolan Zhan, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Yongjun Bao, and Yanyan Lan. Augmenting knowledge-grounded conversations with sequential knowledge transition. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5621-5630, Online, June 2021. Association for Computational Linguistics.
[8] Hannah Rashkin, David Reitter, Gaurav Singh Tomar, and Dipanjan Das. Increasing faithfulness in knowledgegrounded dialogue with controllable features. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing
(Volume 1: Long Papers), pp. 704-718, Online, August 2021. Association for Computational Linguistics.
[9] Takashi Kodama, Ribeka Tanaka, and Sadao Kurohashi. Construction of hierarchical structured knowledgebased recommendation dialogue dataset and dialogue system. In Proceedings of the Second DialDoc Workshop on Document-grounded Dialogue and Conversational Question Answering, pp. 83-92, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[10] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Design and structure of the Juman++ morphological analyzer toolkit. Journal of Natural Language Processing, Vol. 27, No. 1, pp. 89-132, 2020.
[11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[12] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[13] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. Vol. abs/1907.11692, , 2019.
[14] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019.
表 7 JMRD の対話例. 話者列の R と S はそれぞれ推薦者と被推薦者を指し,添字の番号は対話のターン数を示す.「知識なし」は推薦者が外部知識を使用しなかったことを示す.
\\
表 8 JMRD で使用されている外部知識の一例. 監督とキャストには名前と説明がそれぞれ存在する.
& \\
表 9 応答生成器と情報源分類器のハイパーパラメータ
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H1-4.pdf | # 対話に基づく常識知識グラフの構築と 対話応答生成に対する適用
井手竜也 ${ }^{1}$ 榮田亮真 ${ }^{1}$ 河原大輔 1
山崎天 ${ }^{2}$ 李聖哲 ${ }^{2}$ 新里顕大 ${ }^{2}$ 佐藤敏紀 ${ }^{2}$
1 早稲田大学理工学術院 ${ }^{2}$ LINE 株式会社
\{t-ide@toki.,s.ryoma6317@akane., dkw@\}waseda.jp
\{takato.yamazaki, shengzhe.li,kenta.shinzato, toshinori.sato\}@linecorp.com
## 概要
コンピュータに常識を与えるため,多くの常識知識グラフが提案されているが,文脈を考慮したものは少ない。本論文では対話における文脈に注目し,常識に基づく対話応答生成に向けた対話常識グラフを提案する.カテゴリと時系列,対象といった次元を考慮し,提案するグラフを日本語で構築した. 構築したグラフをもとに対話応答生成を行い,心情に関する推論を明示的に与えることによって生成される応答の特徴が変化することを示した. 日本語で構築した対話常識グラフは公開予定である.
## 1 はじめに
人間は対話において,状況や相手が思うことを暗黙的に推論 [1]する。いわば人間は,対話の常識1)をもつと言える。 それに対して,ニューラル雑談対話システムには対話の常識が足りず,普遍的な応答ばかりを生成するという指摘 [2]がある. コンピュー 夕に常識を与える研究は盛んになされており,その一環として常識知識グラフ [3] が構築されている.
常識に関する推論は状況や文脈によって異なるが,既存の常識知識グラフは文脈を無視 [4] てている.したがって,システムが文脈に依存した常識を推論するための, 文脈を考慮した常識知識グラフが必要となる. 英語にはいくつか存在 $[5,6,7]$ しているが,日本語にはない。
本論文では,より人間らしい対話システムの実現に向けて,対話の常識を集めた対話常識グラフを提案する. カテゴリと時系列, 対象といった次元に注目し,推論すべき関係を定義する.また大規模言語
図 1 発話ごとにタグ付けする推論の例
モデルを用いた対話応答生成に対して,対話常識グラフを適用する手法も提案する。
提案する対話常識グラフを,日本語で構築2)した。 Twitter APIを用いて対話を収集し,Yahoo!クラウドソーシングを用いて発話ごとに推論を付与した. 対話常識グラフの分析では,対話の常識における推論の傾向を明らかにした.さらに,構築したグラフを用いて対話応答生成を行った. HyperCLOVA JP [8] の In-Context Learning [9] において,心情の推論をプロンプトとして明示的に与えた。推論を与えることによって,生成される応答の特徴が変化することを示した.
## 2 関連研究
## 2.1 常識知識グラフ
イベントに関する常識を集めた常識知識グラフに ATOMIC [3] があるが,それぞれのイベントは文脈を伴わない。それに対して PARA-COMET [4] は,物語における一連の文に対して推論を付与する。
2)日本語で構築した対話常識グラフは, https://github. com/nlp-waseda/dcsg-jaにて公開予定である.
(a) 出来事
(b) 心情
図 2 対話常識グラフで推論すべき関係
GLUCOSE [5] は物語の文に関する推論,CIDER [6] は対話における発話同士の推論を扱う. CICERO [7] も対話に関する常識知識グラフだが,テキストを超えた範囲の推論まで考慮する。
ATOMIC の関係は,対象がイベントの当事者かその他かを Xと Others によって区別する。一方で CICERO の次元は, 出来事か心情かと時系列の前後を区別しているが,推論の対象となる話者を区別しない. 本研究では,さらにどの話者に向けた推論かという次元に注目する。
## 2.2 大規模言語モデルと対話応答生成
In-Context Learning [9] では,解くべきタスクの例をいくつかプロンプトとして大規模言語モデルに与え,そのタスクを解かせる. In-Context Learningを用いた対話応答生成 [10] の研究もなされている. 特定の状況に基づく応答を生成する試み [11] や,共感的な応答を生成する試み [12] がある.
大規模言語モデルの生成は,与えられるプロンプ卜に大きく影響を受けること [13] が知られている。 タスクを解くにあたって,その過程をあえてプロンプトに列挙する Chain of Thought Prompting [14] も提案されている。
## 3 対話常識グラフの構築
本研究では,対話の常識に特化したグラフを構築する. テキストに書かれているものから暗黙的なものまで,発話ごとに推論を付与する. 発話ごとの推論は,より人間らしい対話応答生成に役立つと考
(a) 記述
(b) フィルタ図 3 推論を獲得するクラウドソーシングの例える。
## 3.1 マルチターン対話の収集
Twitter $\mathrm{API}^{3}$ を用いて,マルチターン対話のテキストを収集する。あるツイートとそれに対する一連のリプライを対話と見なす. 収集した対話のうち,二人の話者が交互に話す例のみを抽出する。またテキストの品質を保証するため,フィルタ4)を施す.
352 対話(発話にして 2,121)を獲得した. 対話あたりの発話数は平均 6.03 であった.
## 3.2 推論の付与
Yahoo!クラウドソーシング5)を用いて,発話ごとに推論を付与する.推論すべき関係として,次の 3 次元をもとに $2^{3}=8$ 関係を定義する.
1. 発話のまわりで起こったこと(出来事)か,そのとき思ったこと(心情)か
2. 発話の前にあったことか,その後にあったこ
3) https://developer.twitter.com/en/products/ twitter-api
4)Yahoo!クラウドソーシングを用いて,対話の内容が理解できるかを尋ねる.第三者が内容を理解できる対話は,専門用語なども含まず高品質だと仮定する.
5) https://crowdsourcing.yahoo.co.jp/
## とか
3. 発話を言った人(話し手)についてか,それを聞いた人(聞き手)についてか
8 関係はそれぞれ,図 2 のように名付ける. 例えば (出来事, 前, 話し手) の組合せによる関係は原因と呼び,発話の原因となる事象の推論をテキスト形式で付与する.
記述発話とその履歴を与え,ある関係について推論を記述してもらう。関係ごとに 3 人に尋ね, まったく同じ回答は除去する. 動機の推論を記述するタスクの例を図 3(a) に示す. 延べ 5,581 人のクラウドワーカを雇い,177,276円を支払った.
フィルタ記述してもらった推論に対して,クラウドソーシングに基づくフィルタを施す. 発話とその履歴,および発話に対する推論を与え,推論が適切かどうかを判定してもらう.推論ごとに 3 人に尋ね,多数決によって採否を決定する. 動機の関係を評価してもらうタスクの例を図 3(b) に示す. 延べ 4,524 人のクラウドワーカを雇い,171,236 円を支払った。
対話常識グラフの統計を表 1 に示す.このクラウドソーシングを行った結果,時系列や対象の話者に関する誤りが多く見られた。とくに話し手と聞き手のどちらに関する推論かが混同されていることが多かった. これらの解消は,今後の課題である.
## 4 グラフを用いた対話応答生成
大規模言語モデルの In-Context Learning [9]を用いた対話応答生成に対して,構築した対話常識グラフを適用する. In-Context Learning に基づく対話応答生成では,いくつかの対話をショットとしてモデルに与える [12] が,モデルはテキスト上に表れたこと以外を動的に知ることができない6)。一方で人間は,あえてテキストに書かないことも考慮しながら対話を行う.より人間らしい対話応答生成に向けて,テキスト上に表れない常識をあえてモデルに与える。
本研究では,次元のうち心情のみに注目する。 心情に関する推論を明示的に与えることによって,話者が発話を投げかける際の根拠をモデルに教えることができる。すなわち「相手はこう思っただろうし,自分はこう思ったから,こう言おう」といった具合である.これは Chain of Thought Prompting [14]
6)モデルのパラメータには,事前学習で得た潜在的な知識があると考えられるが,それらは静的なものである。鈴木と佐藤の二人が会話している。
佐藤「まってwww服裏表反対でご飯食べに来てたwww」
鈴木「ええなんで笑笑」
佐藤「夕飯行く前に寝てたから服替え直したんだけどその時にミスってwww」鈴木「気づいた時恥ずかしい笑笑」
佐藤「いやほんとはずかしかったwww」
(a) 推論なし
(b) すべての推論
図 4 対話応答生成におけるショットの例とも言える。
## 4.1 問題設定
対話常識グラフに含まれる対話について,最後から二番目までの発話を履歴とし,最後の発話を生成する.この生成について,プロンプトとして心情の推論を与える場合と,とくに推論を与えない場合を比較する.
ショットは生成対象の対話を除いたすべての対話から,ランダムに選択する7).各ショットは,状況の説明と一連の発話からなる. 状況の説明では,話者の名前 ${ }^{8}$ を紹介する.発話はそれぞれ話者の名前と鉤括弧に挟まれたテキストからなる.生成対象の対話では,最後の発話における開き鉤括弧までを履歴とする。とくに推論を与えない場合におけるショットの例を図 4(a) に示す.
構築した対話常識グラフは,すべての発話が推論を伴う、それらを用いて,ショット中の発話に関する推論を明示的に与える. 最後の発話を言った話者についてのみ,すなわち最後から奇数番目の発話における心情の推論のみを与える。これは人間の対話と同じように,相手の発話に関する相手の推論は知りえないという仮定に基づく. なお前の推論(動機と忖度)は発話の前,後の推論(反省と反応)は発
7) In-Context Learning では,モデルを Finetuning する必要がない. 訓練データとテストデータを区別する必要もないため, リークは発生しない.
8)日本でもっとも多い 20 個の名字から,2 個ずつをランダムに選択する. 名字の一覧はhttps://myoji-yurai.net/ prefectureRanking.htm から引用した.
表 2 グラフを用いた対話応答生成の自動評価
表 3 グラフを用いた対話応答生成の人手評価モデル 1 勝ち負け引き分け
すべての推論 VS 推論なし $40.95 \quad \mathbf{5 2 . 7 0} \quad 6.35$
話の後に插入する. 心情の推論を与える場合におけるショットの例を図 4(b) に示す.
大規模言語モデルには, HyperCLOVA JP 39B モデル [8]を用いる.プロンプトのショット数を 2 とする9). 応答は対話ごとに 3 回ずつ生成する.
## 4.2 評価
生成した応答に対して,モデル自体の絶対評価とモデル同士の相対評価を行う,心情に関するすべての推論を与えるモデルに対して,推論を明示的に与えないベースラインモデルを比較対象とする。また心情に関する推論のうち話し手に対するもの(動機と反省)だけを与えるモデルと,聞き手に対するもの(忖度と反応)だけを与えるモデルも評価する。
自動評価絶対評価として,パープレキシティ (PPL)と BLEU [15],distinct [2] を計算する。これらは,日本語形態素解析システム Juman++ ${ }^{10)}$ を用いて分かち書きした応答に対して計算する.PPLは GPT-2 日本語 Pretrained モデル ${ }^{11)}$ を用いて計算する。
人手評価 Yahoo!クラウドソーシングを用いて, 2 つの応答どちらを生成するモデルとより会話を続けたいかを相対的に評価する。応答あたり 5 人に尋ね,多数決を行う. 延べ 763 人のクラウドワーカを雇い,15,350 円を支払った。
## 4.3 実験結果
自動評価の結果を表 2 に示す. BLEU と distinct は,推論を明示する方が高くなる傾向がある。つまりあえて推論を明示的に与えた方が,モデルはより人間に近い応答を生成する.人手評価の結果を表 3
9)すべての推論を明示的に与えようとすると,トークン数は大きくなる. 本研究では HyperCLOVA JP の最大系列長に鑑みて,推論の有無にかかわらずショット数を 2 で統一した.
10) https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN\% 2 B\% 2 B
11) https://huggingface.co/nlp-waseda/gpt2-xl-japanese
に示す. 忖度と反応だけを与えるモデルはベースラインモデルに勝っているが,それ以外は負けている.したがって,聞き手に対する推論を与えるとモデルはより魅力的な応答を生成するが,話し手に対する推論はむしろ与えない方がよい。
表 2 と表 3 を比較すると,正解応答との類似度を表す BLEUでは動機と反省のスコアが高いが,人手評価では忖度と反応の勝ち数が大きい. つまり人間をよく模倣するよりも,より相手を慮った応答を生成させる方が,ユーザのエクスペリエンスは高くなる.また実験に用いた対話が Twitter のテキストに基づくことも,人間に近い応答が魅力的でないと判定される原因と考えられる。
自動評価と人手評価の齯齬は,人手評価が十分でない可能性を議論させる. 人手評価では, 対話の履歴とモデルが生成した応答を,独立に評価した. つまりクラウドワーカは,本来すべきコミュニケー ションのうち一部を切り取って判定している. したがって,自分のことばかりを話したり相手を慮ってばかりだったりするモデルでも,魅力的と思われうる. もっと会話を続けたいと思えるモデルを正しく評価するためには,モデルとの長期的なやりとりに注目するような,よりよい人手評価の開発が求められる。
## 5 おわりに
常識を理解する対話システムの実現に向けて,対話に基づく常識知識グラフを提案した。対話における 3 つの次元に注目し,推論すべき関係を定義した. Twitter API と Yahoo!クラウドソーシングを用いて,対話常識グラフを日本語で構築した.
さらに構築したグラフを,大規模言語モデルを用いた対話応答生成に適用した. HyperCLOVA JP を用いた In-Context Learning において,暗黙的な推論をモデルに与える実験を行った.話し手や聞き手の心情に対する推論を明示的に与えることで,生成される応答の特性が変化した。
本研究で行った対話応答生成の実験は,正解となる推論が手元にある前提のもと行ったが,その前提は実用的でない.推論を行う手順も含めたパイプラインの構築は,今後の課題である.
## 謝辞
本研究は LINE 株式会社と早稲田大学の共同研究により実施した。
## 参考文献
[1] Deepanway Ghosal, Navonil Majumder, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. COSMIC: COmmonSense knowledge for eMotion identification in conversations. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2470-2481, Online, November 2020. Association for Computational Linguistics.
[2] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[3] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A. Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 01, pp. 3027-3035, Jul. 2019.
[4] Saadia Gabriel, Chandra Bhagavatula, Vered Shwartz, Ronan Le Bras, Maxwell Forbes, and Yejin Choi. Paragraphlevel commonsense transformers with recurrent memory. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 14, pp. 12857-12865, May 2021.
[5] Nasrin Mostafazadeh, Aditya Kalyanpur, Lori Moon, David Buchanan, Lauren Berkowitz, Or Biran, and Jennifer Chu-Carroll. GLUCOSE: GeneraLized and COntextualized story explanations. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4569-4586, Online, November 2020. Association for Computational Linguistics.
[6] Deepanway Ghosal, Pengfei Hong, Siqi Shen, Navonil Majumder, Rada Mihalcea, and Soujanya Poria. CIDER: Commonsense inference for dialogue explanation and reasoning. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 301-313, Singapore and Online, July 2021. Association for Computational Linguistics.
[7] Deepanway Ghosal, Siqi Shen, Navonil Majumder, Rada Mihalcea, and Soujanya Poria. CICERO: A dataset for contextualized commonsense inference in dialogues. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5010-5028, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[8] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham,
Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[9] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[10] Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, and Pascale Fung. Few-shot bot: Prompt-based learning for dialogue systems, 2021.
[11] Chujie Zheng and Minlie Huang. Exploring prompt-based few-shot learning for grounded dialog generation, 2021.
[12] Young-Jun Lee, Chae-Gyun Lim, and Ho-Jin Choi. Does GPT-3 generate empathetic dialogues? a novel in-context example selection method and automatic evaluation metric for empathetic dialogue generation. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 669-683, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics.
[13] Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, and Pontus Stenetorp. Fantastically ordered prompts and where to find them: Overcoming few-shot prompt order sensitivity. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8086-8098, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[14] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, brian ichter, Fei Xia, Ed H. Chi, Quoc V Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. In Alice $\mathrm{H}$. Oh, Alekh Agarwal, Danielle Belgrave, and Kyunghyun Cho, editors, Advances in Neural Information Processing Systems, 2022.
[15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
\\
## A 対話常識グラフの詳細
## A. 1 推論の例
3.1 節において,Twitter から収集した対話の例を次に示す.
1. 早く夏終わってくれ頼む
2. 夏がすぐ終わったら宿題おわらないぜ
3. それはそうだけど流石に外暑すぎるんよ
4. それなマジで暑い
5. これは地球温暖化が悪いわ
このうち 3 番目の発話について,3.2 節で付与した推論を表 4 に示す.
## A. 2 グラフの分析
ある発話における動機の推論と直前の発話における反応の推論は,同一の心情を指す. 同様に,ある発話における反省の推論と直後の発話における忖度の推論も, 同一の心情を指す. いわば動機と反省は話し手が実際に思ったことで, 忖度は反省, 反応は動機に対する聞き手からの予測である. 話し手が実際に思ったことと,それらに対する聞き手の予測が,どれくらい一致するかを調べる。
結果として,動機や忖度が対話のテキストに書かれている場合, 忖度と反応のそれぞれは動機と反省に一致しやすいことがわかった。
## B 対話応答生成の詳細
## B. 1 ハイパパラメータ
Twitter に投稿可能なテキストの最大文字数が 140 であることにに鑑みて,生成の最大トークン数を 140 とする. トークンあたりの文字数は 1 以上なので,発話あたりのトークン数は必ず 140 以下と
\\
図 5 相対評価のためのクラウドソーシングの例
なる. デコードでは Softmax の Temperature を 0.5 , Top-P と Top-Kをそれぞれ 0.8 と 0 とする. さらに Repeat Penaltyを 5.0 とする.
## B. 2 応答の例
次に示す対話について,4番目までの発話を履歴, 5 番目の発話を応答として生成する例を考える.
1. まって www 服裏表反対でご飯食べに来てた www
2. ええなんで笑笑
3. 夕飯行く前に寝てたから服替え直したんだけどその時にミスって www
4. 気づいた時恥ずかしい笑笑
5. いやほんとはずかしかった www
このとき, HyperCLOVA JP 39B モデルによって生成された応答を表 5 に示す.
## B. 3 評価
Yahoo!クラウドソーシングに基づく相対評価の例を図 5 に示す。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H1-5.pdf | # 感想付きニュース雑談対話コーパスの構築
成田風香 1 佐藤志貴 1 徳久良子 1 乾健太郎 1,2
1 東北大学 2 理化学研究所
fuka.narita.q1@dc. tohoku.ac.jp
\{shiki.sato.d1, tokuhisa, kentaro.inui\}@tohoku.ac.jp
## 概要
本研究では, 日々の話題についてユーザと雑談する対話システムの実現を目指している. 雑談対話システム構築に向けて, 本稿では(ニュース記事, ニュース記事に対するツイート,ニュース記事についての雑談対話)の三つ組からなる感想付きニュー ス雑談コーパスを構築した. 本コーパスの特徵は,話者の雑談に加えて, 雑談の話題となるニュースと,それに対するツイートがセットになっている点にある。なお,対話収集システムおよび感想付きニュース雑談コーパスは, githubで公開している1).
## 1 はじめに
人間同士の雑談では,感想を述べる発話が対話の盛り上がりに寄与することが知られている [1]. また近年では,ニューラルネットワークにより流暢な文の生成が可能になり, 感情を表現する雑談対話システム [2] や人の感情に共感する傾聴対話システム $[3,4,5]$ も提案されている. 一方で, 任意の話題に適切かつ人間らしい感想を生成できるほど技術が熟していないため, 適切でない感情応答を生成した場合に倫理面や安全性の観点で問題がおきる可能性があることも指摘されている $[6,7]$.
上記の問題に配慮しつつ人間らしい感想を表出するシステムの実現方法の一つとして,対象の話題に対する第三者の人間の感想の利用が考えられる.つまり,対話の話題に関する第三者の感想を入力し,状況に応じて適切な第三者の感想を選択して応答生成に利用する,図1のようなシステムが考えられる.こうしたシステムを学習するためには, 話題に対する第三者の感想を与えられた話者が,それらを適宜利用しながら発話する対話コーパスが必要となる.しかし,このような対話コーパスは現状構築されていない.
1) www.github.com/fukanarita/newschat-with-impression表 1 感想付きニュース雑談コーパスの例.
## ニュース記事 : スプリンクラー作動で楽器被害
スプリンクラーが突然作動し、舞台上の楽器が水をかぶる被害が生じた
## 提示したツイート
$\mathrm{T} 1$ : 市が補償した方がいい
T2:さすがにこれはなあ...
T3:一億とかかかる?大丈夫?
T4:ちゃんと原因究明してほしい
対話(S: システム役の発話, $\mathrm{U}$ :ユーザ役の発話)
S1:[] 「市民文化センター大ホールでスプリンクラー 作動でオーケストラの楽器ずぶぬれ被害額は数億円か」というニュースです.
U2: すみません. そのニュースは知りませんでした. もう少し詳しく教えて下さい.
S3: [] 9 月 24 日午後 1 時ごろ,楽団が,市民文化センター大ホールでスプリンクラーが誤作動し, 楽器ずぶぬれになりました.
U4: そうなんですね. 被害額が数億円とは驚きです. ところで, スプリンクラー作動の原因は何だったのでしょうか.
(中略)
U6: 被害額の数億円の保証はどうなるのでしょうね.楽団が保険に入っていればいいんですけど. その辺の情報はありますか.
S7: [T1,T2] 副市長からお見舞いの電話がありましたが,市から被害の確認や今後の対応についての説明は受けていないようです.「市が補償した方がいい」や「さすがにこれはなあ...」などの意見が出ていますね.
U8: そうなんですか. まっ,いつものことですが,外野は言いたいことを言っているようですね. 最近はクラウドファンディングで資金を集めるといった方法もありますので,検討してみたらいいですね.
S9: [T3]「一億とかかかる?大丈夫?」という意見どおりならクラウドファンディングでも厳しいですね.
本稿では対話システムが人間の感想を適宜利用することで自然かつ盛り上がる対話を行う一例として, Akasaki ら [8] と同様にニュースを利用し, さらに人間の感想として当該ニュースに対するツイートを用いて対話し,コーパスを収集した(表 1)2)。具
2) ツイートはコーパスではツイート ID のみ記載,便宜上こ
図 1 第三者の感想を利用する雑談対話システム.
体的には,まず,話者がニュースとそれに対するツイートを参照しながら対話をするための対話収集システムを構築する。そのうえで,構築した対話収集システムを用いて感想付きニュース雑談コーパスを構築する. さらに,構築したコーパスを分析することで,話題に対するツイートの利用が対話の盛り上がりに寄与するかどうかを分析する.
## 2 感想付きニュース雑談コーパス
## 2.1 概要
本研究で構築した感想付きニュース雑談コーパスは,システム役の話者がニュースに対するツイー 卜を第三者の感想として利用しながら,ニュースについてユーザ役の話者と話す対話を収録したものである。人による自然で理想的な対話を収集するため,対話システムによる発話生成は行わず,Wizard of Oz(WOZ)方式によって人間に対話をさせコー パスを構築した。
本コーパスは,JSON Lines 形式で一対話一行として記述されており,それぞれの対話は,
・対話の話題となったニュース記事の URL
・システム役に提示したツイートのツイート ID
・システム役とユーザ役の二者の発話
からなる。
## 2.2 コーパスの構築
本コーパスの構築手順は次の通りである:
1. 対話収集システムの改変
2. 使用するニュースとツイートの選定
3. 対話収集
## 2.2.1 対話収集システムの改変
対話収集システムは児玉ら [9] のシステムを元に機能を拡張することで構築した。主な改変点は以下の通りである:
・システム役が教示(2.2.3 節)を熟読してからユーザ役とマッチングできるよう,チャットルームに到達する前にシステム役とユーザ役が開くページを分離
・システム役の教示のページとチャットルームのページにはニュースとツイート(ページ上では 「世間のコメント」と記載)を表示
・表示するニュースとツイートは,順にマッチングするワーカー一組ごとに変更
・それぞれの発話で使用したツイートに,システム役がチェックを入れて記録できる機能を追加
## 2.2.2 使用するニュースとツイートの選定
ニュース記事の選択システム役が自然な感想を選択して発話できるよう,ニュース記事一つに対して感想や意見を含むツイートが 15 個以上集まっているニュースを選択した3).また,話者ができるだけタイムリーな話題について自然に対話できるよう,対話収集の直近 4 ヶ月を目安に記事を収集した。 ただし,東中が述べているように [10],対話システムの発言内容には倫理的観点から注意する必要があり,組織の利益を損ねるような話題や政治などの議論を呼ぶ話題は避ける方が望ましい。我々は,本コーパスを将来的に対話システムの構築に利用したいと考えている。そこで,コーパス収集においても特定の個人や団体が非難されるような話題や政治の話題は除外した. また,成田ら [11] より訃報は対話者が気を遣うと報告されていたため除外した。これらの結果選択したニュースは, 長さ $2 \mathrm{~cm}$ の細菌発見,スプリンクラーの誤作動による楽器の被害,屋根裏から古いノミ発見などの話題の全 16 記事となった。
提示するツイートの選択一つの記事を引用するツイートは多いもので 150 以上あるが,できるだけスムーズにツイートを対話に利用できるよう,具体的な感想が述べられている 16 文字以上のツイートを 10 から 15 ツイート程度, 記事ごとに選択した。
クラウドソーシングサイト
(5) クラウドンーシングサイトにチャ゙トIDをスカし、クラウドソーシングタスク終了
図 2 対話の収集の流れ。
## 2.2.3 対話収集
対話収集の流れは図 2 の通りである.まず, Yahoo!クラウドソーシング4)にシステム役のタスクとユーザ役のタスクをそれぞれ投稿し,対話参加者はどちらかのタスクを選択する(図2の(1).システム役とユーザ役の話者はそれぞれ異なる URL から対話収集システムにアクセスし,教示を熟読した後(図 2 の(2),1 対 1 で対話を行う(図 2 の (3)). 対話収集の際はシステムから話題を提供するものとし,システム役にのみ対話開始前にニュース記事とそのニュース記事を引用したツイートを提示した. また, 児玉ら [9] に倣って,一発話ずっ発話者が交互に変わる形式で対話を進行させた ${ }^{5)}$. 対話中,システム役には与えたツイートを適宜使いながら発話させた. なお,自然な対話を行わせるため,ツイート中の表現を自由に変えたうえで発話に取り入れることを許容した。一方でユーザ役には, Dinan ら [12]に倣い,好奇心旺盛な人という設定でシステム役の話に興味を持って対話を進めるように教示した. システム役とユーザ役の発話の合計が 11 発話以上になると終了ボタンが表示され, 任意のタイミングで双方が対話を終了できる. 対話後には,「チャット ID」を対話収集システムに表示し (図2の(4)), Yahoo!クラウドソーシングタスクに入力させ(図 2 の (5)),ワーカー自身のIDとそのチャット ID が付与された対話を結びつけて対話内容を確認し,ホワイトリストを作成した。
ホワイトリスト作成後は,役割ごとのタスクの所要時間を考慮し,システム役には 300 円,ユーザ役には 225 円報酬として支払った。
## 2.3 基本統計
本研究で構築したコーパスは,極端に不適切な発話をするワーカーを除いた一般のワーカーに依頼して収集した感想付きニュース雑談コーパス v1(v1 と呼ぶ)と,v1 の収集で教示に適切に対応したワー カーのみに依頼を絞り収集した感想付きニュース雑談コーパス v2(v2 と呼ぶ)の二つからなる. 感想付きニュース雑談コーパス v1 と v2 の基本統計情報を表 2 に示す. 表 2 に示す通り,一対話あたりの発話数は平均で 11.3 発話であった. また, 一発話あたりに使用されたツイート数は平均で 2.5 ツイートであった. 今回の収集では, システム役の話者が発話に使用したツイートにチェックを入れて記録したため,ツイートを使用した発話でもチェックをし忘れている場合も観察された. 今後,データを整備する予定である. 今後データを整える必要がある.
## 3 分析:ツイート使用の有効性
本コーパスの特徴の一つは,対話の話題に加えて関連するツイートをシステム役に与えて対話に利用させたことである. この情報を与えたことや対話の進め方が,対話の自然さや盛り上がりに寄与するかどうかを分析した. 具体的には, 表 2 の対話収集のうち一部の対話収集において, 対話終了後にワー カー自身に対話の盛り上がりを評価させた. 結果を図 3 に示す. 1 は「まったく盛り上がらなかった」,
表 2 対話データの基本統計情報.
& & & \\
$\mathrm{~V} 2$ & 213 & 2395 & 11.2 & 13.0 & 206 & 2.9 \\
ロシステム役による評価ロユーザ役による評価
図 3 対話参加者による盛り上がりの評価.
7 は「とても盛り上がった」を意味しており,数字が大きいほど盛り上がりを感じたことを示している. 図 3 の結果から,中央の評価である 4 点よりも高いスコアに回答が集中していることがわかる.このことから,今後ツイートを使用しなかった場合と比較する必要はあるが,ツイートを利用した今回の対話収集では,話者はある程度の対話の盛り上がりを感じていたことが示唆された。
その一因は表 3 の対話例に表れていると分析した.この対話においては U2 の発話で対話が終わってしまう可能性も十分あったと考えられるが,S3でツイート内容を伝えることで,その後の対話につながっている. 具体的には,ツイートでされている問いかけについてユーザに考えさせることで対話の発展につながった.
このことから,本コーパスを利用して,第三者の感想を適切に用いて応答を生成可能なシステムを構築することで,より盛り上がる対話を実現できる可能性がある.
## 4 おわりに
発話の安全性や倫理面を考慮しながら,感想を含めて対話をする雑談対話システムを実現する方法の一つとして,話題に対する第三者の感想を利用することが考えられる。本稿では,こうしたシステムの構築に有用な対話コーパスとして,対話参加者が表 3 ツイートの使用が有効に働いたと見られる例。
ニュース記事 : 国宝の方丈の屋根裏で「ノミ」見
解体工事が行われている国宝の方丈の屋根高
00 年前のものと見られる大工道具の「ノミ」
かった
ツイート
T5 : 意図的な置き忘れだと思う、多分
T6 : こういう話は好き。興味深い
T7 : わざと置いたってこともあるかも
T8: 職人にとって高価で大切なノミをなぜ」
対話(S: システム役の発話,U:ユーザ役の発話)
S1: [] 保存修理が続く国宝の方丈の屋根裏から、約 400 年前のノミが見つかったそうです。
U2: 400 年前のノミですか? それは素晴らしい発見ですね。
S3: [T8] 職人にとって高価で大切なノミを、なぜ、この場所に置き忘れたんでしょうね。
U4: 確かに。おっちょこちょいな職人さんだったのかあるいは何か意味があるのでしょうか?
S5: [T5,T7] 大工さんが意図的にノミを置き忘れた可能性もありますね。
U6: 仰るように職人さんにとって相当大切なものだと思いますので何か意味があるのかもしれないと勘ぐってしまいました。シンプルに置き忘れの可能性もありますよね。
$
\text { (中略) }
$
U10: 本当に素晴らしいと思います。
S11: [T6] こういう話は好きです。
第三者の感想を組み込んだ対話を行う「感想付きニュース雑談コーパス」を構築した.具体的には,話題となるニュースに対する第三者の感想として, ニュースを引用したツイートを利用させながら人同士の対話を収集した. 本コーパス中の対話を分析した結果,ツイートの利用による感想・意見の表出が,収集した対話の盛り上がりに寄与した可能性があることが示唆された。
今後は,今回構築したコーパスを用いて,雑談において効果的な第三者の感想の選択方法や応答生成への利用方法を分析する. その分析結果をもとに,第三者の感想を適宜利用し対話を盛り上げることのできる雑談対話システムの構築を目指す。
## 謝辞
本研究の対話収集では京都大学・児玉貴志氏のグループが開発された Chat Collection Framework を改変したものを用いています. 本システムの開発者の皆様に深謝いたします。また,Yahoo!クラウドソー シングにクラウドワーカーとしてご協力いただいた皆様へ,深く感謝を申し上げます. 本研究の一部は JSPS 科研費 JP21J22383 の助成を受けたものです.
## 参考文献
[1] 徳久良子, 寺嶌立太. 雑談における発話のやりとりと盛り上がりの関連. 人工知能学会論文誌, Vol. 21, No. 2, pp. 133-142, 2006.
[2] Chenyang Huang, Osmar Zaïane, Amine Trabelsi, and Nouha Dziri. Automatic dialogue generation with expressed emotions. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 49-54, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[3] 井上昂治, ラーラーディベッシュ, 山本賢太, 中村静,高梨克也, 河原達也. アンドロイド ERICA の傾聴対話システムー人間による傾聴との比較評価-. 人工知能学会論文誌, Vol. 36, No. 5, pp. H-L51_1-12, 2021.
[4] Toyomi Meguro, Ryuichiro Higashinaka, Yasuhiro Minami, and Kohji Dohsaka. Controlling listening-oriented dialogue using partially observable Markov decision processes. In Proceedings of the 23rd International Conference on Computational Linguistics (Coling), pp. 761-769, 2010.
[5] Toshiaki Nishio, Yuichiro Yoshikawa, Takamasa Iio, Mariko Chiba, Taichi Asami, Yoshinori Isoda, and Hiroshi Ishiguro. Actively listening twin robots for long-duration conversation with the elderly. ROBOMECH Journal, Vol. 8, , 2021.
[6] Dian Yu and Kenji Sagae. Automatically exposing problems with neural dialog models. CoRR, Vol. abs/2109.06950, , 2021.
[7] Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, and Emily Dinan. Recipes for safety in open-domain chatbots. CoRR, Vol. abs/2010.07079, , 2020.
[8] Satoshi Akasaki and Nobuhiro Kaji. Conversation initiation by diverse news contents introduction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT), Volume 1 (Long and Short Papers), pp. 39883998, 2019.
[9] 児玉貴志, Frederic Bergeron, 新隼人, 田中リべカ, 坂田亘, 黒橋禎夫. クラウドソーシングで利用可能な日本語対話収集基盤. 言語処理学会第 27 回年次大会, pp. 859-863, 2021.
[10] 東中竜一郎. 対話システムと倫理. 人工知能, Vol. 31,
No. 5, pp. 626-627, 2016.
[11] 成田風香, 佐藤志貴, 徳久良子, 乾健太郎. 話題提供雑談システムにおける感情と意見の表出方法の検討.言語処理学会第 28 回年次大会, pp. 1078-1083, 2022.
[12] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. CoRR, Vol. abs/1811.01241, , 2018. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H10-1.pdf | # ディスプレイ操作記録ツールの提案と有効性の検証
壹岐 太一 1,3* 増本 雄斗 2,3 相澤 彰子 $1,2,3$
1 総合研究大学院大学 2 東京大学大学院 3 国立情報学研究所
}
\{iki,masumoto, aizawa\}@nii.ac.jp
## 概要
パーソナルコンピュータのディスプレイを理解・操作する視覚言語モデルの実現に向けて,環境構築やデータ作成の負担軽減を目的に,ディスプレイ操作を記録し,モデル学習用データに変換するツール RecGUIを提案する。有効性を検証するため,人手で操作した 10 時間分のデータを作成し,学習済み視覚言語モデルに基づくモデルを新たに導入する。 ディスプレイ画像からの行動選択に適用し, ベースラインモデルとの比較から有効性を確認する.今後の課題は, タスクの追加によるツールの完成度向上,並びにモデルのタスク成功率の改善である.
## 1 はじめに
コンピュータのディスプレイを人のように理解・操作する人工知能の探究は, 生活にコンピュータが溶け込んだ現代社会における言語の世界接地を考える上で重要であると同時に,複雑な作業の自動化など産業応用も期待できる有望なテーマである. 近年ではブラウザ $[1,2,3,4,5]$ やゲーム [6,7],スマートフォン環境 [8] を対象に活発に研究されている.
我々は業務作業の自動化への応用を念頭に,特にパーソナルコンピュータ $(\mathrm{PC})$ のディスプレイ1)に焦点を当てる.PCディスプレイを対象とする研究ではブラウザやゲームエミュレータといった単一の応用ソフトに関する研究と, 複数の応用ソフトに関する研究がありえる. 前者に比べて後者の研究が進んでいない. 主な原因として PCディスプレイ上での操作を記録し学習用データを作る標準的な手法の不足がある. 過去には, 複数のアプリケーションを対象とする強化学習プラットフォーム Open AI Universe [9] が存在したが,現在は廃止されている。本稿では,汎用的な PC ディスプレイの操作技術
図 1 RecGUIを用いた学習用データ作成の流れ. RecGUI は環境構築やデータ作成における煩雑さの軽減,手法の統一による研究間でのデータ共有の促進を目的とする.
の実現に向け,PCディスプレイの操作を記録しモデル学習用データに変換するツール RecGUI (図 1) を提案する2).さらに,提案ツールを用いてモデル学習ができることを確認するため,Web タスクセッ卜 MiniWob [1,2] を人手で操作した 10 時間分の記録から試用データを作成する(§2)また,視覚言語モデル ViLT [10] の微調整 (fine-tuning) によって, ディスプレイ画像のみを環境入力として行動生成するモデルを新たに導入する(§3).RecGUIで作成したデータを用いてモデルを学習し,実環境でのタスク遂行の成功率において,ランダム選択モデル (ベー スライン)を上回ることを確認した。また,分析により成功できるのは基本的なタスクに限られるとわかった (§4). 成功率の向上が今後の課題である.
## 2 操作記録ツール RecGUI
## 2.1 GUI 操作の記録
操作記録はコンテナ技術に基づく. Linux コンテナの中で xvfb [11]を用いて仮想ディスプレイを立ち上げ,RFB (Remote Frame Buffer) プロトコル [12]
2)ツールおよびデータは以下で公開している. https: //github.com/iki-taichi/rec_gui
表 1 行動の表現. フレームごとに汎用的な行動を 6 変数で表現する. Cursor は最終的なカーソル位置, mouse, key は最後のボタン操作に対応する. event の変数値 none は無操作を表し,そのとき target 変数の值は na とする.
で外部から接続し,操作する.画面はスクリーンショットを一定間隔で取得して記録する。マウス・ キーボード操作は RFB 接続にプロキシを挟みログを記録する ${ }^{3)}$ .さらに, GUI 上で遂行中のタスクの進捗状況 (タスクの開始や終了,報酬など) を取得し記録する. 取得できる進捗状況はタスクにより異なる. なお,RFB を用いる構成は [9] と同様である.
時間分解能 Intel Core i7-6700 CPU (3.40 GHz,4 コア,8スレッド), 49 GBメモリのマシンで RecGUI を起動して SSDへ記録するとき, $800 \times 600$ px の画面解像度で約 $10 \mathrm{~Hz}(0.1$ 秒間隔)での画面の記録が可能であると確認した. この時,操作ログはさらに小さな時間間隔で記録できた.
## 2.2 記録のモデル学習用データへの変換
操作記録からのモデル学習では,周期が固定された画面の記録と非周期的な操作の記録をどのように統合して学習できる形式にするかが課題である. RecGUI は次に述べる手法を実装している。
変換手法画面の記録周期を基準とし,画面とそれを見た後の行動が並んだ系列を作成する.画面の記録直後から次の記録直前まで (フレームと呼称) の操作記録を集計し,ある画面を見た後の行動とみなす. 行動を表 1 のように6変数で表現する.
高速な操作への対応人の操作を記録する場合, フレーム時間を約 0.1 秒に取れば 1 フレームの操作記録はおおむね 1 つとなるが,複数の操作記録が含まれる場合もある。その対応を述べる。
キー操作においては,行動をより前のフレームに移動することで解消する。その理由は行動を間引くと画面と操作の対応が崩れる可能性がある点,行動
図 2 Web タスクベンチマーク MiniWoB [1,2] のタスク画面. 全タスクで上部に指示文が示される. Search ボタンの押下などでタスクが完了し,正誤によらず次のタスクに移動する.クリックやドラッグ,テキスト入力などの単純なものから,メールの受信ボックス風の UI やフライ卜予約画面の操作まで幅広く収録されている。
を後のフレームに移動するとキー操作に伴う画面変化という因果関係が失われる点の 2 点である.
マウスのボタン操作においては,ホイールの回転が問題になりやすい。これは RFB がホイールの回転を複数のクリックとみなすためである。本研究では double_clickと triple_clickを行動として導入することで対応する.この対応で対処できない高速な操作はキー操作と同様に前のフレームに移動する.
## 2.3 学習用データの準備
RecGUIを用いた操作の記録と学習用データの作成を実際に試みた,画面解像度は $800 \times 600 \mathrm{px}$ ,記録周期は $10 \mathrm{~Hz}$ とした. MiniWoB (図 2)を仮想ディスプレイ内の google-chrome ブラウザに読み込んでタスクとして使用した. オリジナルの画面サイズ $(160 \times 210)$ では指示文が小さいため,本研究では 2 倍に拡大して使用した。操作者 (著者の一人) が 6 分間のセッション4)を 100 回行って 10 時間分の記録を得た. 100 セッションで 4,704 タスクに取り組み,成功数は 4,525であった. なお,操作者は MiniWob のタスク内容について事前に十分に知っていた。
## 3 ベースラインモデル
## 3.1 前提とするモデル: ViLT
ViLT は Kim らが提案したテキストと画像を入力とする Transformer [13] エンコーダー型の視覚言語モデルである。事前学習済みの視覚モデル ViT [14] を初期値とし,複数の画像キャプションデータセットを用いて視覚言語について訓練されている。訓練の目的関数はテキストの穴埋めタスク (MLM;
4) セッションではタスクがランダムに表示され,回答する度に次のタスクへと移動する。付録 A でさらに詳しく述べる。
Masked Language Modeling) とテキストと画像の一致判定 (ITM; Image Text Matching) である.ViLT はパッチに分割した画像の画素配列を線形層で埋め込みに変換して直接 Transformerに入力する. 物体認識モデルや他の視覚モデルを使用するモデル $[15,16]$ に比べて,高速に動作するとともに,スクリーンショットのような非写実的な画像への微調整が容易なため本研究に適する。
## 3.2 提案するモデル: ActionViLT
行動生成を離散時間間隔 (ステップ) ごとの行動選択と捉えることで ViLTを応用する. 各ステップでスクリーンショット画像と過去 N ステップの行動履歴を入力し,その出力から次の行動を選択する。
入出カスクリーンショット画像は画素情報として入力する. ViLT の実装に合わせた前処理を施す.行動はテキストとして入出力する. テンプレートを導入し, 表 1 で定義した 1 フレームの行動をテキスト表現に変換する:
position : $\{\mathrm{x}\}\{\mathrm{y}\}$; mouse : \{mouse_event $\}$
\{mouse_target $\} ;$ key : $\{$ key_event $\}$ \{key_target $\}$ \{と\}で囲まれたスロットは行動の変数に対応し, スロット値は表 1 の値から選択する ${ }^{5)}$. 過去 $\mathrm{N}$ ステップの行動それぞれをテキスト表現に変換し,新しい時間の行動が先に来るようソートした上で連結して行動履歴のテキストを得る。さらに,MLM タスクを用いて次の行動を予想するために,行動履歴テキストの先頭に各スロットを [MASK] で埋めたテキストを連結して最終的なテキスト入力とする。 [MASK] に関する各語彙の尤度を計算し, 対応する行動変数の値に関する尤度として出力する。
操作記録を用いた微調整微調整では MLMを目的関数として用いる. 通常 MLM では入力テキストのうちランダムなトークンをマスクする $[10,17]$ が,本研究では入出力で述べた「次の行動」の部分のマスクを固定で学習する。
実環境に接続しての推論まず,入出力で述べた方法で「次の行動」の各変数に関する尤度を計算する. 次に,確率的なサンプリングを用いて尤度から行動を選択する. 各変数の確率分布の計算では, ViLT の全語彙に関する尤度の出力から各変数に関係する語彙の部分だけを取り出し, 温度パラメータ $T$ で割った後 softmax 関数を適用する。
図 3 微調整において入力行動履歴数 $N$ が性能に与える影響. 無操作 MCC は無操作か否かの 2 值分類に関するマシューズ相関係数を示す. 評価值は異なるランダムシー ドで 3 個のモデルを学習し平均した値である.
表 2 タスク遂行での温度の影響. ランダム選択(温度非依存) $, N=0,14,16$ のモデルで特定シードの 10 セッションを行い,取り組んだタスク数と成功数を合計した。正答率 (取り組んだタスク数)
## 4 実験
ViLT の微調整を行い, 得られたモデルを使って実環境におけるタスク遂行を評価する。タスク遂行では, ベースラインとして行動変数の可能な語彙から一様ランダムに選択するモデル (付録 C)を用いる.
## 4.1 学習用データを用いた微調整
教師データ 2.3 節で述べた MiniWob [1] の操作データ 100 ファイルを学習,検証,テスト用に 8: $1: 1$ に分割し,それぞれのファイルからタスクに失敗した部分を除外して用いる。分割に含まれる画面と次の行動の対の数はそれぞれ 255,866, 33,293, 34,152である. ただし,学習・検証用分割では,無操作の学習を抑制するため, 前の行動と同一の行動の対6)を除いた 130,809 対,17,126 対を用いる.
学習条件 Transformers [18] ライブラリを使い事前学習済みの ViLT モデル7)を微調整する.画
表 3 タスク遂行におけるタスク別の性能. () 内の数は取り組んだタスク数を表す. 数値は 1 セクションの結果である. タスク概要は次の通り:(1) 画面中心のボタンをクリックする。 (2) 文章中の特定の単語をクリックする。 (3) パネルを指定の方向にドラッグする。(4) 特定ボタンをクリックする。(5) 簡単な計算の結果を入力し,ボタンを押す. (6) 指定された単語を入力し,ボタンを押す.(7) 指定されたテキストをコピーして入力する.(8)メニューボタンを押して,表示されたボタンをクリックする. (9) 指定された時刻を入力し,ボタンを押す.
像は,ViLTの実装に従い 480×384 px にリサイズし,各画素値を [-1,1]の範囲に標準化する.
Warmup_ratio=0.1, 学習率=5e-5 の下で, ADAM [19] を用いて 5 エポック最適化する. 入力する行動履歴の数 $N$ の值を変えて学習し,影響を調べる。学習, タスク遂行ともに NVIDIA A100 GPUを用いる。
評価指標テストデータとモデルの予想を比較する. カーソル座標の誤差, ボタン操作 (mouse_event, mouse_target, key_event, key_target)についての無操作(none,na)か否かの 2 值分類に関するマシュー ズ相関係数,無操作を除いた一致率を用いる。なお,マシューズ相関係数を用いるのはボタン操作における無操作の割合が $95 \%$ 程度と高いためである。
結果図 3 に結果を示す. 入力する行動履歴の数 $N$ の増加に伴って, ボタン操作に関する性能(マシューズ相関係数,一致率)は上昇した. ボタン操作では次の行動の予想に履歴が役立つ. 一方で, カーソル座標の誤差は $N$ の増加に伴って悪化した.両者のバランスが取れた $N$ の選択は課題である.
## 4.2 実環境におけるタスク遂行
今回はボタン操作とカーソル座標の性能が安定している $N=10,14,16$ のモデルを用いる. 行動のサンプリング温度 $T$ を 0.0 から 1.0 まで変えて影響を確認し, 最適な温度 $T$ の下でタスクの種類別に成功率を分析する. タスクには一回の操作で成功となる基本タスク 4 種類と 2 回の操作が必要な発展タスク 5 種を用いる. タスク概要を付録 Cに掲載する。モデルはセッション開始後, 初画面の start ボタンが押された状態から,人と同じ条件でタスクを遂行する. セッションの制限時間を 360 秒とし, 取り組んだタスクの数と成功したタスクの数を計測する.
結果 1.サンプリングにおける温度 $T$ の影響
まず,NVIDIA A100 GPU を用いた今回の実験では,
モデルは記録時と同じ $10 \mathrm{~Hz}$ で動作した.次に,表 2 に温度による性能変化を示す. 温度が低いとき,モデルはほとんど動かず,タスクを進められなかった. 温度が高まるにつれて, 取り組んだタスク・正答率が増加した. ただし, 正答率は 0.2 程度で頭打ちとなった。適切な温度下では,モデル成功率は一様ランダムモデルを上回ることから,RecGUI で作成したデータによる学習の有効性が確認できた.
## 結果 2. タスクの種類による性能の違い
表 3 にスコアを示す. 温度は表 2 から正答率が最も高いものと, 取り組んだタスク数が 100 超えた物の中で正答率が最も高いものを選んだ。基本タスクの成功率は,ボタンやリンクを押す $(1,2,4)$ では高かったが,ドラッグ操作を含む (3) では芳しくなかった. タスクが進行することからドラッグ操作はできるものの,指示文が理解できないと推測される. 応用タスクでは,テキスト入力を必要とする $(5,6,7,9)$ の成功率が特に低く, キーボード操作に改良の余地があると示唆される. 最後に, 結果 1 で述べた高温での正解率の頭打ちは, 基本的なタスクの所要時間が短縮するが,解けるタスクの種類は変わらないことを示していると考えられる。
## 5 おわりに
PC ディスプレイの操作記録・モデル学習用デー タへの変換を行うツール RecGUI を提案した., ツー ルで作成したデータで学習したモデルが, 実環境でのタスク遂行において,ランダム選択モデルより優れることを確認した. ツールの展望は複数応用ソフトを操作する単一モデルの研究に向けたタスクの追加である. モデルの課題はタスク成功率の向上である. 提案モデルは画像中のテキストの理解が不十分であると推測される.画素値から言語理解するモデル [20]を用いるなど改良を進めたい.
## 謝辞
本研究の一部は JSPS 科研費 21 H03502、JST 次世代研究者挑戦的研究プログラム JPMJSP2104、および 2022 年度国立情報学研究所 CRIS 委託研究の助成を受けたものです.
## 参考文献
[1] Tianlin Shi, Andrej Karpathy, Linxi Fan, Jonathan Hernandez, and Percy Liang. World of bits: An open-domain platform for web-based agents. In ICML 2017, pp. 31353144, 2017.
[2] Evan Zheran Liu, Kelvin Guu, Panupong Pasupat, Tianlin Shi, and Percy Liang. Reinforcement learning on web interfaces using workflow-guided exploration. In ICLR 2018, 2018.
[3] Peter C Humphreys, David Raposo, Tobias Pohlen, Gregory Thornton, Rachita Chhaparia, Alistair Muldal, Josh Abramson, Petko Georgiev, Adam Santoro, and Timothy Lillicrap. A data-driven approach for learning to control computers. In ICML 2022, pp. 9466-9482, 2022.
[4] Taichi Iki and Akiko Aizawa. Do berts learn to use browser user interface? exploring multi-step tasks with unified vision-and-language berts. arXiv preprint arXiv:2203.07828, 2022
[5] Shunyu Yao, Howard Chen, John Yang, and Karthik R Narasimhan. Webshop: Towards scalable real-world web interaction with grounded language agents. In NeurIPS 2022.
[6] Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, and Martin Riedmiller. Playing atari with deep reinforcement learning. arXiv preprint arXiv:1312.5602, 2013.
[7] Bowen Baker, Ilge Akkaya, Peter Zhokov, Joost Huizinga, Jie Tang, Adrien Ecoffet, Brandon Houghton, Raul Sampedro, and Jeff Clune. Video pretraining (vpt): Learning to act by watching unlabeled online videos. In NeurIPS 2022, 2022.
[8] Daniel Toyama, Philippe Hamel, Anita Gergely, Gheorghe Comanici, Amelia Glaese, Zafarali Ahmed, Tyler Jackson, Shibl Mourad, and Doina Precup. Androidenv: a reinforcement learning platform for android. arXiv preprint arXiv:2105.13231, 2021
[9] OpenAI. Openai universe. https://openai .com/blog/ universe/ (2023-01-04 確認), 2016.
[10] Wonjae Kim, Bokyung Son, and Ildoo Kim. Vilt: Visionand-language transformer without convolution or region supervision. In ICML 2021, pp. 5583-5594, 2021.
[11] David P. Wiggins. Xvfb. https://www.x.org/ releases/X11R7.6/doc/man/man1/Xvfb.1.xhtml (2023-01-03 確認).
[12] Tristan Richardson and John Levine. The remote framebuffer protocol. https://www.rfc-editor.org/rfc/ rfc6143 (2023-01-03 確認), 2011.
[13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS 2017, 2017.
[14] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In ICLR 2020, 2020.
[15] Yen-Chun Chen, Linjie Li, Licheng Yu, Ahmed El Kholy, Faisal Ahmed, Zhe Gan, Yu Cheng, and Jingjing Liu. Uniter: Universal image-text representation learning. In ECCV 2020, pp. 104-120, 2020.
[16] Zhicheng Huang, Zhaoyang Zeng, Bei Liu, Dongmei Fu, and Jianlong Fu. Pixel-bert: Aligning image pixels with text by deep multi-modal transformers. arXiv preprint arXiv:2004.00849, 2020.
[17] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT 2019, pp. 4171-4186, 2019.
[18] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In EMNLP 2020: system demonstrations, pp. 3845, 2020.
[19] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR 2015, 2015.
[20] Geewook Kim, Teakgyu Hong, Moonbin Yim, JeongYeon Nam, Jinyoung Park, Jinyeong Yim, Wonseok Hwang, Sangdoo Yun, Dongyoon Han, and Seunghyun Park. Ocrfree document understanding transformer. In ECCV 2022, pp. 498-517, 2022.
(1) 画面中心のボタンをクリックする。
(2) 文章中の特定の単語をクリックする
(3) パネルを指定の方向にドラッグする.
(4) 特定ボタンをクリックする。
図 4 基本タスク. MiniWoB [1,2] の click-test, click-link, drag-items, click-color を使用.
Submit
## Copy the text from the 2 nd text text input, then press Submit.
Submit
(5) 簡単な計算の結果を入力し,ボタンを押す.
(6) 指定された単語を入力し,ボタンを押す。
(7) 指定されたテキストをコピーして入力する.
(8) メニューボタンを押して,表示されたボタンをクリックする。
(9)指定された時刻を入力し,ボタンを押す。
図 5 発展タスク. MiniWoB [1,2] の simple-arithmetic, enter-text, copy-paste-2, click-menu-2, enter-time を使用.
## A タスクセッションの補足
使用タスク MiniWobの全タスク ${ }^{8)}$ から,flight search タスク,debug タスク,(表示の遅延を解消した)nodelay 版が存在するタスクを除いた 93 タスクを使用した. 各タスクは乱数で内容 (ボタンの位置など)が変化する.タスクは共通の start 画面から始まる. Start 画面をクリックすると画面が移り,特定の操作(submit のクリックなど)でタスクが終わる. タスク画面右の報酬等のメタ情報は非表示とした. タスクごとの制限時間は設定しなかった.
セッション RecGUI に接続すると welcome ペー ジが表示される. そのページの start ボタンを押すとセッションが開始し, 1 種類の MiniWob タスクがランダムに表示される。 タスク終了後,次のタスクがランダムに表示される。これを制限時間(360秒) まで繰り返す. 特に断りがない場合,セッションごとにランダムシードを変えて用いた。
## B ActionViLT の補足
位置埋め込みの延長 ViLT が用意する位置埋め込みは 40 トークン分である. 行動のテキスト表現
8) https://farama-foundation.github.io/ miniwob-plusplus/
は 15 トークン/行動のため $\mathrm{N}$ が 2 以上のとき不足する.その場合は,位置埋め込みを線形補完して入力に十分な数に延長してから微調整を行う。
語彙簡素化のため,行動の表現に用いる語彙は学習済み ViLTの 1 トークンになるよう調整した。まず,Cursorに関して述べる。ViLT の語彙では自然数は 1 から 341 まで連続していた。画面解像度を網羅しないため,画面の縮尺を水平・垂直それぞれ 250 に換算し,その範囲の整数を語彙とした. mouse_event に関しては $\{$ double,triple\}_click を $\{$ double, triple\} とした. mouse_target に関しては scroll_\{up, down \}を $\{$ up, down \}とした.また,デー タに現れなかった scroll_\{left,right \} は定義していない. key_targetに関しては backspace をbsとした。
## C 実環境におけるタスク遂行
一様ランダム選択モデル行動変数の可能な語彙から一様ランダムに選択する。ただし, ctrl キーと他のキーの組み合わせで,進行が困難になる場合 (画面が変わるなど) が多かったため,ctrl キーが押されている間はキー押下は $\mathrm{c}, \mathrm{x} , \mathrm{v}$ を,マウスボタンの押下,クリック,ダブルクリック,トリプルクリックは left,right のみを許可した。
タスク別評価画面例を図 5,図 4 に示す。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H10-2.pdf | # 大規模言語モデルの活用による効率的なロボット制御の学習
高城 頌太 ${ }^{1}$ 谷口 尚平 ${ }^{1}$ 中野 聡大 ${ }^{1}$
上田 亮 1 松尾 豊 1 谷中 瞳 1
1 東京大学
\{takashiro, taniguchi, nakano.akihiro, matsuo\}@weblab.t.u-tokyo.ac.jp
\{ryoryoueda, hyanaka\}@is.s.u-tokyo.ac.jp
## 概要
GPT-3 や ChatGPT に代表される大規模言語モデルは,様々なタスクで汎用的に高い性能を示し,自然言語処理のみならず様々な領域での応用が広がっている. 本稿では,大規模言語モデルをロボット制御の模倣学習に活用し, その学習効率やサンプル効率の向上への寄与について検証を行う.実験では, RLBench というべンチマークデータセットを用い $\tau$ ,提案手法の有効性を検証する,具体的には,単腕ロボットがモノをゴミ箱に捨てるというタスクをデモンストレーションデータから模倣学習する際に,大規模言語モデルへのプロンプティングを活用して,タスクを解く手順を説明するテキストを生成し,それを補助情報として用いることで,学習効率の向上を図る。
## 1 はじめに
GPT-3 [1] に代表される大規模言語モデルの登場により,自然言語処理の様々なタスク(機械翻訳,質問応答,コードの自動生成・補完 [2]など)を高精度に解くことが可能になりつつある [3]. 特に,昨年秋に公開された ChatGPT [4] はチャット形式のインターフェースと高精度な文章生成性能をもつことから,世界的に注目を集めたことは記憶に新しい。 また,こうした大規模言語モデルの活用は,自然言語処理のみに留まらず,様々な領域まで広がり始めている.近年は,ロボット制御の文脈でも,大規模言語モデルを活用する研究が行われ始めている $[5,6]$. ロボット制御において,大規模言語モデルの活用が注目されている背景として, 強化学習や模倣学習に代表される機械学習ベースのロボット制御のサンプル効率の悪さが挙げられる [7]. インターネット上から大量の学習データを収集することが容易な画像や自然言語などの領域と異なり,ロボット制御はデー タを収集するコストが高く,効率よく学習する方法論の確立が重要である.高い汎用性をもつ大規模言語モデルの活用は,このようなロボット学習の課題を解決する糸口になりうると考えられる。例えば,床に落ちているモノを掴んでゴミ箱に捨てるというタスクを単腕ロボットに学習させることを考えた場合,ロボットは(1) モノにロボットハンドを近づけて,(2)グリッパーを操作してモノを把持し,(3) 八ンドをゴミ箱の上に移動させて (4) グリッパーを開いてモノをゴミ箱の中に落とす,という多段階の操作をデータから学習する必要がある。このような段階的な操作の必要性は,人間であれば常識的に持ち合わせている知識であるが,事前知識を持たない口ボットはこれを一から学習することが要求され,大量のデータと学習時間が必要となってしまう。一方で,大規模言語モデルは,ウェブ上の大量のテキストデータから学習されており,人間が持ち合わせている常識的な知識に関する質問にも非常に精度よく回答できることが知られている $[1,8]$. 特に,大規模言語モデルに対して,タスクの説明や少数の正解例を与えることで,新しいタスクへ適応させるテクニックはプロンプティングと呼ばれ,その有効性が翻訳や文書要約などの様々なタスクで検証されている [3]. そこで,前述のようなロボットにとって複雑なタスクを解くための手順(以下,処理指示文と呼ぶ)を,大規模言語モデルへのプロンプティングを通して獲得し,それを補助情報としてロボットの制御モデルに与えてやることで,学習を促進することが期待できる。
本稿では,このような大規模言語モデルへのプロンプティングを活用したロボット学習の手法を提案し,その有効性を検証する.具体的には,前述のようなモノをゴミ箱に捨てるタスクをデモンストレー ションデータからの模倣学習によって学習する際
(a) モデル
(b) データセット
図 1: (a) 提案手法の概念図. 提案手法では,HiveFormer におけるテキスト入力として,タスクの説明文の代わりに,ChatGPTへのプロンプティングの結果得られるタスクを解く手順の説明文を用いる。 (b) RLBench データセットの PutRubbishInBin タスクのエピソード例. いずれのエピソードも 1 つのゴミ箱,1つのゴミ, 2 つの無関係なオブジェクトから構成される. 配置されるオブジェクトの形状はエピソード間で共通であり,初期の位置関係のみランダムで変化する問題設定である.
に,タスクを解く手順を ChatGPTへのプロンプティングによって獲得し,それをロボットの行動を決定する方策モデルへ補助情報として入力する手法を提案する。実験では,RLBench [9] というシミュレー タ環境でのロボット制御のベンチマークを利用し,学習過程におけるタスクの成功率の推移や, データ効率を従来手法と比較する形で,提案手法の有効性を検証する。
## 2 関連研究
深層学習を用いたロボット制御モデルを学習させる上で,十分な学習データを収集するコストは高い。そのため,より効率の良い学習方法に関して様々な研究が行われている [7]. とりわけ, 複数ステップを要する構成的なタスクにおいて効率的な学習手法の開発は重要である. 構成的なタスクの例として,例えば,家具を組み立てるタスク [10] や積み木を積み上げるタスク $[11,12]$ がある.このようなタスクは,制御モデルを学習する上で特に難しいことが知られており,汎用的な方法論は未だに確立されていない.
一方で,深層学習において言語モデルは,GPT モデルの進展 $[13,14,1,4]$ からも分かるように,デー タセットのサイズとモデルのパラメータをスケールさせることで,より汎用性のあるモデルへと発展してきた. 近年では, GPT-3 [1]をはじめとした大規模言語モデルについて,プロンプティングを行うことで新しいタスクに少ないデータのみで適応できることが検証されている [3]. 検証を通じて,大規模言語モデルは,人間が持ち合わせている一般常識を獲得し,順序立てた手続的な推論も行うことが可能であることが報告されている $[6,15]$.
模倣学習や強化学習などを用いた学習べースのロボット制御においても,画像情報に加えてこうした大規模言語モデルによる観測やタスクに関する言語情報を入力として取り入れることで,性能向上を図る手法が注目を集めている $[5,6,16,17]$. GPT-3のような大規模言語モデルがロボット学習に寄与できる要素としては,学習効率や汎化性能の向上が挙げられる. 人間の一般常識に相当するような知識を持ち合わせる大規模言語モデルからその知識を引き出すことで,新しいタスクを素早く学習し,適応できることが期待できる.しかし,現状では,ロボット学習における大規模言語モデルの活用は,物体の説明文生成のような比較的単純な補助情報の付与のみに留まっており,制御の方策自体を直接ガイドするような枠組みは確立されていない。本稿では,そのような枠組みの確立の第一歩として,デモンストレー ションデータをもとに制御方策を学習する枠組みである模倣学習 $[18,19]$ において,大規模言語モデルを活用して制御モデルの方策を補助する枠組みに関して検討する.
## 3 手法
本稿では,Transformer [20] をべースとした模倣学習手法である HiveFormer [21] をべースラインとして採用する. HiveFormerでは,各時刻における複数視点からの画像とタスクの説明文を,それぞれ U-Net(セグメンテーションを行うのに一般的に使われる畳み込みニューラルネットワーク) [22] と
CLIP(ウェブ上の大量のデータを用いて画像とテキストが対応するように学習させたモデル) [23] の言語エンコーダに入力して,特徴抽出を行い,それらを Transformer に入力して,その出力を再び別の U-Net に入力することで,最終的な行動(グリッパーの位置・回転・状態の制御値)を出力する.長期的なステップ数にわたる行動の予測が必要となるが, keyframe discovery [24]を適用することで,取る行動が大きく変化する時刻を特定し,よりマクロなステップでの予測が可能となっている.
提案手法では, 図 1aのように, HiveFormerに与えるタスクの説明文の代わりに,大規模言語モデルへのプロンプティングを通して得られた,処理指示文 (タスクを解く手順についての説明文)をテキストの入力として与えることで,モデルの学習を促進することを目的とする。本稿では,大規模言語モデルとして, ChatGPT [4]を用いて検証を行う. 図 2 は, ChatGPTへのプロンプティングとその結果の例である.このように,段階的な操作が必要なタスクにおいて, ChatGPT へ適切なプロンプトを与えることで,具体的な手順を説明したテキストを引き出し,制御モデルの学習効率を高めることが期待できる.
## 4 実験
本実験では,大規模言語モデルから生成された処理指示文 (タスクの解き方) によって,どの程度口ボット制御の学習が効率化するかについて実験を行う。具体的には,ロボット制御タスクにおいて, ChatGPT からの処理指示文がありなしの場合を比較してどれほど学習が効率化されたかを比較する。
## 4.1 シミュレーション環境とデータセット
ロボット制御のシミュレーション環境としては,図 $1 \mathrm{~b}$ に示す RLBench データセットの PutRubbishInBin タスクを用いた. RLBench データセットは7次元の自由度を持つ manipulatorを用いた 100 種類のロボット制御タスクを含んだベンチマー クである. 7 次元の自由度は, manipulator のグリッパーの位置を表す 3 次元と,その回転を表す 4 次元ベクトルを指す. PutRubbishInBin タスクはロボット制御タスクの一つであり, 複数の物体からゴミを特定しゴミ箱に入れるタスクである.
本手法では模倣学習を用いるため,エキスパートによるデモンストレーションデータが必要となる. そのため, 100 エピソード分のエキスパートデータ
What are the 4 steps for the robotic arm to place the rubbish in the bin? The instructions must be short, informative, and concise. Please give me the coordinates of where to move it. Coordinates are given by $(\mathrm{x}, \mathrm{y}, \mathrm{z})$.
State: bin $(0.10,0.21,0.85)$, rubbish $(0.23,-0.30,0.77)$, tomato 1 $(0.22,-0.15,0.78)$, tomato2 $(0.16,-0.02,0.78)$
Instruction:
1. Move the robotic arm to the position of the rubbish: $(0.23$, $-0.30,0.77$ )
2. Grip the rubbish with the gripper on the robotic arm.
3. Move the robotic arm to the position of the bin: $(0.10,0.21$, 0.85 )
4. Release the grip on the rubbish.
図 2: ChatGPTへ与えるプロンプト(黒字)と生成された処理指示文(青字)の例.
を作成し,模倣学習に用いた。
## 4.2 大規模言語モデルに与えるプロンプト
ChatGPT は,これまでの GPT-3 などのモデルとは異なり,対話型のインタフェースを介して大規模言語モデルと「会話」することが可能である. 会話のスタイルとして, 質問応答やロールプレイなどの方法も可能だが,今回は,文章補完の形でプロンプティングを行った.
プロンプト文としては様々な文章が考えられるが,Hiveformer の入力として用いるにあたって,(1)処理指示に関する情報のみ生成されること,(2) 生成されるステップ数が固定であること,(3) 各処理指示の文章が冗長でないこと, (4) 実際の現在の状況に対応する処理指示が生成されること,の4つが求められると考えた. 例えば,付録の図 4 に示すように,プロンプト文の情報が不十分だと生成される処理指示文は曖昧かつ冗長になることがある。したがって,これらの要件を満たすようにプロンプト文を指定することで, Hiveformer の入力に適した処理指示文を生成した. 特に,ステップ数は Hiveformer のマクロステップ数と一致させることで画像情報と言語情報がより対応づけられる形で学習が進むように図った.また,エピソードの初期状態をテキストとして表すことで,エピソードに対応した手順の生成を促した. 実際に使用したプロンプトと ChatGPT を通して得られた結果の例を図 2 に示す.
## 4.3 実験設定
本実験では,ベースラインとして HiveFormer [21] を用いた. HiveFormer はカメラからの RGB 画像と,距離センサからの Depth 情報(RGBD),そしてタス
(a) タスクの成功率
(b) アームの位置に関する指標
(c) アームの回転に関する指標
図 3: 学習中の評価指標とタスクの成功率に関する図. 成功率は 30 エピソード中の成功割合. 評価指標は予測値と真の値の誤差がある一定の閾值以下の時に 1 , それ以外は 0 として各イテレーションで平均を取っている.
ク自体の説明文を入力として模倣学習を行うマルチタスク学習のフレームワークであるが,本実験では 1つのタスクのみを解くシングルタスク学習として用いる。また, Hiveformerではタスク自体の説明文 (“Put rubbish in bin.”)を与えているが,本実験では, ChatGPT を用いて生成された処理指示文を与える.
よって, HiveFormerの入力として,
1. RGBD とタスクの説明文を与えた場合 (baseline)
2. RGBD とエピソード毎で固定の指示文を与えた場合 (with fixed instruction)
3. RGBD とエピソード毎で物体の位置によって変化する指示文を与えた場合 (with variable instruction)
の 3 種類を用いて ChatGPT の出力する処理指示文の有効性を検証した。各実験設定における入力文章は, 付録の図 5 に示すように, baseline, fixed instruction, variable instruction の順により具体的な指示になっている.
また, 手法の評価方法としては (1) タスクの成功率の推移,(2) 学習の収束の速さの 2 点を評価した.
## 4.4 結果
図 3aに学習中のタスクの成功率を示す、横軸が学習のイテレーション回数, 縦軸が成功率を示している. 図より,タスクの指示文が具体的になるにつれて, 少ない学習回数で高い成功率を達成していることがわかる.
また, 図 $3 b, 3 c$ に, 各手法における評価指標の値を示している. 図より,ロボットアームの位置に関する指標は各手法で差は見られなかったが,ロボットアームの回転に関する指標では,タスクの指示文
が具体的になるにつれて高い値を示しており,より学習効率が向上しているといえる.
## 4.5 考察
本実験から,提案手法のアプローチは,段階的な手順が必要なタスクにおいて,学習効率の向上に寄与することが確認できた。一方で,エピソードによらず固定のタスク説明文を加えた場合との比較においては,改善の幅は比較的小さい結果となった. この結果から, 制御モデルの学習においては, 物体の位置などのような各エピソードに固有の情報よりも,タスク内で共通する一般的な操作に関する情報が,より学習効率を向上させる上での補助情報として有効に機能しているのではないかと考えられる. また,提案手法が,特にグリッパーの回転角の操作に関して,大きく性能が改善した点については,ChatGPT によるタスクの処理指示文によって, グリッパーの位置の操作に関する補助情報が得られたために,処理指示文にない回転角の制御についての学習が促進されたのではないかと考察できる.
## 5 おわりに
本稿では,深層学習を用いたロボット制御におい $\tau$, ChatGPTへのプロンプティングによって得た言語情報を補助情報として与えた場合の学習効率への影響について実験を行った. RLBench データセットの PutRubbishInBin タスクを用いた実験結果から,言語モデルによるタスクの手順説明は,制御モデルの学習効率の向上に寄与することが確認できた. 今後は,別のタスクにおける実験を加えることで,提案手法の汎用性に関する検証をさらに進めていく。
## 謝辞
本研究は JST さきがけ JPMJPR21C8 の助成を受けたものです.
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[2] Mark Chen, Jerry Tworek, Heewoo Jun, Qiming Yuan, Henrique Ponde de Oliveira Pinto, Jared Kaplan, Harri Edwards, Yuri Burda, Nicholas Joseph, Greg Brockman, et al. Evaluating large language models trained on code. arXiv preprint arXiv:2107.03374, 2021.
[3] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. arXiv preprint arXiv:2107.13586, 2021.
[4] OpenAI. Chatgpt: Optimizing language models for dialogue, 2022. https://openai.com/blog/chatgpt.
[5] Dhruv Shah, Blazej Osinski, Brian Ichter, and Sergey Levine. Robotic Navigation with Large Pre-Trained Models of Language, Vision, and Action. 2022.
[6] Allen Z Ren, Bharat Govil, Tsung-Yen Yang, Karthik R Narasimhan, and Anirudha Majumdar. Leveraging language for accelerated learning of tool manipulation. In Workshop on Language and Robotics at CoRL 2022.
[7] Oliver Kroemer, Scott Niekum, and George Konidaris. A review of robot learning for manipulation: Challenges, representations, and algorithms. The Journal of Machine Learning Research, Vol. 22, No. 1, pp. 13951476, 2021.
[8] Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, et al. Emergent abilities of large language models. arXiv preprint arXiv:2206.07682, 2022.
[9] Stephen James, Zicong Ma, David Rovick Arrojo, and Andrew J. Davison. Rlbench: The robot learning benchmark $\&$ learning environment. IEEE Robotics and Automation Letters, 2020.
[10] Youngwoon Lee, Edward S Hu, and Joseph J Lim. Ikea furniture assembly environment for long-horizon complex manipulation tasks. In 2021 IEEE International Conference on Robotics and Automation (ICRA), pp. 63436349. IEEE, 2021.
[11] Jungtaek Kim, Hyunsoo Chung, Jinhwi Lee, Minsu Cho, and Jaesik Park. Combinatorial 3d shape generation via sequential assembly. arXiv preprint arXiv:2004.07414, 2020.
[12] Seyed Kamyar Seyed Ghasemipour, Satoshi Kataoka, Byron David, Daniel Freeman, Shixiang Shane Gu, and Igor Mordatch. Blocks assemble! learning to assemble with large-scale structured reinforcement learning. In International Conference on Machine Learning, pp. 74357469. PMLR, 2022.
[13] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
[14] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, Vol. 1, No. 8, p. 9, 2019.
[15] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. arXiv preprint arXiv:2205.11916, 2022.
[16] Michael Ahn, Anthony Brohan, Noah Brown, Yevgen Chebotar, Omar Cortes, Byron David, Chelsea Finn, Keerthana Gopalakrishnan, Karol Hausman, Alex Herzog, et al. Do as i can, not as i say: Grounding language in robotic affordances. arXiv preprint arXiv:2204.01691, 2022.
[17] Oier Mees, Jessica Borja-Diaz, and Wolfram Burgard. Grounding language with visual affordances over unstructured data. arXiv preprint arXiv:2210.01911, 2022.
[18] Faraz Torabi, Garrett Warnell, and Peter Stone. Behavioral cloning from observation. In IJCAI, 2018.
[19] Corey Lynch, Mohi Khansari, Ted Xiao, Vikash Kumar, Jonathan Tompson, Sergey Levine, and Pierre Sermanet. Learning latent plans from play. In Conference on robot learning, pp. 1113-1132. PMLR, 2020.
[20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017.
[21] Pierre-Louis Guhur, Shizhe Chen, Ricardo Garcia, Makarand Tapaswi, Ivan Laptev, and Cordelia Schmid. Instruction-driven history-aware policies for robotic manipulations. In CoRL (oral), 2022.
[22] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. Unet: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention, pp. 234-241. Springer, 2015.
[23] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International Conference on Machine Learning, pp. 8748-8763. PMLR, 2021.
[24] Stephen James and Andrew J Davison. Q-attention: Enabling efficient learning for vision-based robotic manipulation. IEEE Robotics and Automation Letters, Vol. 7, No. 2, pp. 1612-1619, 2022.
## A ChatGPT を用いたプロンプティ ング例
ChatGPT を用いたプロンプティングを行うにあたって,プロンプト文に十分な情報が含まれていない場合,生成される手順が冗長になる傾向があることが確認された. 例えば,図 4 では,「ロボットアー ムを用いて 4 ステップでゴミをゴミ箱に入れる方法は何か」と聞いており, 実際に生成された手順は図 2 と類似している. しかし,各ステップにおける文に不要な情報 (“This can be done by...”) が含まれてしまっている.
What are the 4 steps to put the rubbish in the bin using an robotic arm?
Instructions:
1. Position the robotic arm in front of the bin: The first step is to move the robotic arm so that it is in front of the bin and in the correct position to pick up the rubbish. This can be done by programming the arm to move to a specific location or by manually controlling it with a joystick or other input device.
2. Grab the rubbish: The next step is to use the robotic arm's gripper or other end effector to pick up the rubbish. This can be done by closing the gripper around the rubbish or by using a vacuum system to suck it up.
3. Move the arm to the bin: Once the rubbish has been picked up, the robotic arm needs to be moved over to the bin. This can be done by programming the arm to move to a specific location or by manually controlling it with a joystick or other input device.
4. Deposit the rubbish in the bin: The final step is to deposit the rubbish in the bin. This can be done by releasing the gripper or vacuum, allowing the rubbish to fall into the bin. It can also be done by using the robotic arm to place the rubbish carefully in the bin. Once the rubbish has been placed in the bin, the robotic arm can return to its starting position and wait for the next command.
図 4: 不十分なプロンプトを用いたときの, ChatGPT へ与えるプロンプト(黒字)と生成された手順(青字)の例.
## B 各手法における実際の入力文章例の比較 \\ 本実験では 3 つの実験設定を用いて有効性を検証した。各手法において,実際に Hiveformer に入力 した文章例を図 5 に示す. 図より, baseline, fixed instruction, variable instruction $の$ 順に具体的な指示に なっていることが読み取れる。
[baseline]
pick up the rubbish and leave it in the trash can.
[with fixed instruction]
1. Position the arm above the rubbish.
2. Use the arm's gripper to pick up the rubbish.
3. Move the arm to the bin.
4. Release the rubbish into the bin by opening the gripper.
[with variable instruction]
1. Move the robotic arm to the position of the rubbish: $(0.23,-0.30,0.77)$
2. Grip the rubbish with the gripper on the robotic arm.
3. Move the robotic arm to the position of the bin: $(0.10$, $0.21,0.85$ )
4. Release the grip on the rubbish.
図 5: 各実験設定 (baseline, with fixed instruction, with variable instruction) における入力文章例. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H10-3.pdf | # ARKitSceneRefer: 3D 屋内シーンでの参照表現による 小物の位置特定
加藤駿弥 ${ }^{1}$ 栗田 修平 ${ }^{2}$ Chenhui Chu $^{1}$ 黒橋 禎夫 ${ }^{1}$
1 京都大学大学院情報学研究科 2 理化学研究所 AIP
\{s-kato, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp shuhei.kurita@riken.jp
## 概要
3D 参照表現理解は 3D シーン上でテキストが表す物体の位置を特定するタスクである。しかし,既存の屋内 3D 参照表現理解データセットは主にサイズが大きく,容易に位置特定できる物体を対象としており,ほとんど小物を扱っていなかった. そこで我々は多様で高解像度な ARKitScenes を基とし,ARKitSceneReferを構築する. ARKitSceneRefer は 1,615 シーン中の,32,300 の屋内で使用する小物から構成され,それぞれ参照表現がアノテーションされている. さらに 2D と 3D の state-of-the-art モデルを用いて実験を行い,その結果,ARKitSceneRefer は挑戦的なタスク設定であることを報告する.
## 1 はじめに
3D 参照表現理解は 3D シーンを理解する上で重要なタスクであり,物探しロボットなどへの応用が期待される. 代表的な 3D 参照表現理解データセットに ScanRefer [1], ReferIt3D [2] が挙げられる。これらのデータセットは机,椅子,ソファーのような屋内の家具クラスなど,比較的に大きい物体を対象にクラスカテゴリが付与されている。しかし,家事などの応用を想定すると,より小さな物体を扱うことが多いと考えられる.例えば,物探しロボットに机の捜索を依頼する人はいない。また料理ロボットは食材や包丁などを扱うことが必要である.
そこで本研究では, ARKitSceneRefer という小物を主な対象とした新しい 3D 参照表現理解データセットを提案する. ARKitSceneRefer は大規模な屋内 3D データセットである ARKitScenes [3] に基づいている. ARKitScenes は ScanRefer と ReferIt3D の基である ScanNet [4] より高解像度で,多様な 3D シー ンデータセットである. ScanRefer と ReferIt3Dでは ScanNet でアノテーションされている物体のみを対
図 1 ARKitSceneRefer のデータの例. 3D シーンと拡大した動画フレームを示す.
象としている。一方で,ARKitScenes には小物の位置がアノテーションされていないので,先行研究とは違い,以下のように小物の位置特定からデータセットを構築する。まず,動画フレームに対して $2 \mathrm{D}$ 物体検出を行うことで,小物を抽出する。次に,抽出された小物を,カメラ視点位置から $3 \mathrm{D}$ シーンへのレイキャスティングによる位置予測とクラスタリングを用いて 3D シーン上にマッピングすることで,3D 上での小物の座標とクラスを得る.最後に, このデータに参照表現をアノテーションする。加えて,物体検出器から得られたクラスは誤っている可能性があるので,その場合はアノテーション時に修正する。最終的に,ARKitSceneRefer は 731 クラスの物体を対象にし,1,615 シーンに 32,300 の参照表現から構成される。図 1 に ARKitSceneRefer の例を示す.
データセット評価のため,2D と 3D の state-ofthe-art モデル $[5,6,1,7]$ を用いた. 実験の結果, ARKitSceneReferにおける小物の位置推定は,2D モデル,3D モデルともに挑戦的であることが示された.また,2D モデルにおいては対象物が写っていない動画フレームに対する検出結果がノイズとなっており,うまく対象物が写っている動画フレームの
図 2 ARKitSceneRefer 構築のパイプライン
みを使用することができれば,精度の向上に繋がることも示された.
## 2 データセット
## 2.1 データセット構築
本節では,ARKitSceneRefer の構築について述べる. $3 \mathrm{D}$ シーンより画像のほうが解像度が高く小物を認識しやすいので,本論文では 3D シーン構築の基となった動画フレームから小物を認識する。また, ARKitSceneRefer は bounding box ではなく物体の中心点を予測するタスクを扱う。
## 2.1.1 物体検出
まず初めに,各シーンを構築する元となった動画を使い,動画のフレームに対して物体検出を行う。物体検出の結果はデータセットの対象となる小物を選別するために利用する. 物体検出モデルには LVIS [8] で事前学習された Detic [9]を用いる. Detic から, $\mathrm{MSCOCO}[10]$ などで学習された従来のモデルより詳細なクラス情報を得ることができる. 時系列的に近い画像にはほとんど同じ物体が写っているため,全フレームに対して物体検出する必要がない. よって 10 フレームごとに物体検出をする.
## 2.1.2 2D から 3D ヘのマッピング
Detic からの bounding box を得た後,中心点を動画フレーム上の座標から 3D シーン上の座標にマッピングする.ここで,カメラと物の距離が未知であることと,複数のフレームから同一物体をマッピン
グしてもカメラパラメータのノイズにより,必ずしも 1 点に収束しないことが問題となる. そこで,我々はレイキャスティングとクラスタリングによってマッピングする。まず,カメラ視点から 3D シー ンに対してレイキャスティングを行い,交点を求める. そして,DBSCAN [11]によってこれらの交点をクラスタリングし,各物体の中心点を表すクラスタを作成する。ここでは,クラスタの距離の最大値を $0.05 \mathrm{~m}$ ,最小構成点数を 3 とした. クラスタリングの結果,検証データセットにおいて平均 68.25 のクラスタが得られる.
## 2.1.3 物体選択
物体選択はクラス選択, シーン選択, 対象物体選択の 3 つのステップからなる. まず,物体検出の結果には色々なサイズの物が混ざっているので,対象となる小物を選択するため,クラス選択を行う.検出されたすべての物体のクラスを見て,両手で掴める程度の大きさ (例: コーヒーメーカー)を目安として,小物となるクラスを選ぶ. この結果,クラス数は 1151 から 794 となる. 次に,シーンの多様性と均等性のため,シーン選択を行う。アノテーションするシーンは同じ部屋ごとに 1 つとし,同じ部屋の中で最も物体が多く,かつ物体が 20 以上あるシー ンをアノテーション対象とする。この結果,シー ン数は 5,047 から 1,615 となる. 最後に,アノテー ションする物を決めるため,対象物体選択を行う。対象物体数は 1 シーンにつき,20 とする.検出回数が少ないクラスの物体の数を増やすため,ランダムに対象物体を選ぶのではなく,検出回数の低いクラ
表 1 3D 参照表現理解データセットの比較
スの物体から順に 1 つずつ選ぶ. この結果,データセット全体のクラス数は 612 となる.
## 2.1.4 アノテーション
上記のプロセスを実行することで,何もアノテー ションされてない $3 \mathrm{D}$ シーンから,小物の位置情報を手に入れることができる. データセット構築の最後のプロセスとして, Amazon Mechanical Turk ${ }^{1)}$ 上でアノテーションを行う.ワーカーは,3D シーン,対象物体の写っている 3 枚の画像,対象物体のクラスを参照できる. 画像は bounding box の面積が大きいものの中からランダムに選ばれており, bounding box 可視化することでワーカーが対象物体の場所を把握しやすくなっている。 さらにワーカーが対象物体と他の物体を明確に認識しやすいように,3D シーン上にあるすべての物体や各タスクのすべての対象物体の位置が可視化できるようになっている.実際のインターフェースは付録を参照されたい。 ワーカーはこれらの情報を参考にしながら,対象物体に対して,明確にそれらが区別できるように,参照表現をアノテーションする. さらに, Detic から得られたクラスは間違っている場合もあるので,ワー カーは,クラスが間違っている場合は正しいクラスを選ぶようにする.このときの語彙はDetic と同様の LVIS を用いる. クラス修正の結果,ワーカーは $40.72 \%$ のクラスを修正し, データセットのクラス数は 731 となった. 間違って Detic に小物と認識されたものがワーカーによって小物ではないクラスに修正されたデータが $4.80 \%$ あるので,すべてのデー タが小物ではないことに注意しなければならない.
## 2.2 データセットの統計
我々は 1,615 の 3D シーンに各 20 ずつ,計 32,300 もの参照表現が付与されている小物を対象としたデータセットを構築した. 各物体には平均で 10.01 語の参照表現が付与されている. 参照表現は屋内の物体の 731 クラスを含んでいる. 表 1 に既存の
1) https://www.mturk.com/
ScanRefer
図 3 ARKitSceneRefer (上) と ScanRefer (下) の頻度の高いクラスの分布
3D 参照表現データセットとの比較を示す. 我々のデータセットは $3 \mathrm{D}$ シーンとクラスの 2 つ点で,既存のデータセットより大規模である.図 3 に ARKitSceneReferr と ScanRefer のクラス分布の比較を示す。例えば,ScanReferでは “table”, “door”など大きい物体のクラスが多くなっている. 一方で, ARKitSceneRefer では, “box”, "jar”など ScanRefer と比べると小物のクラスが多いことがわかる。このクラス分布により,我々のデータセットは小物に焦点を置いていることがわかる.
## 3 実験
## 3.1 実験設定
本研究では, $2 \mathrm{D}$ 手法と $3 \mathrm{D}$ 手法を用いて評価した. $2 \mathrm{D}$ 手法は動画フレームと参照表現を入力とし,参照表現に対応する bounding boxを予測する. bounding box の中心はレイキャスティングによって $3 \mathrm{D}$ シーンにマッピングされ, 各動画フレームごとの 3D シーン上の予測座標が得られる。これらをクラスタリングし, 点数の最も多いクラスタの中心点
表 $22 \mathrm{D}$ モデルと $3 \mathrm{D}$ モデルの比較
を最終的な予測とする。一方, $3 \mathrm{D}$ 手法は点群と参照表現を入力とし,直接参照表現に対応する物体の 3D シーン上の座標を予測する. ARKitSceneRefer では,参照表現に対応する物体の 3D シーン上の中心点を予測するタスクを扱うので,評価指標には点間のユークリッド距離を用いた. Acc@d (\%) では距離が $\mathrm{d}$ 以下であれば正解とみなした.また,参考として距離平均も評価した。
2D モデルとして, RefCOCOg [12] で fine-tuning された MDETR [5] と OFA [6] を用いた。また以下の 2 つの手法で比較した。
- MDETR-random と OFA-random: 動画フレームをランダムに $1 / 10$ だけサンプリングして大力として使用する。
・OFA-Detic: 動画フレームをランダムにサンプリングした後, Deticを用いて物体検出し, 検出クラスが参照表現に含まれる動画フレームのみ入力として使用する.
クラスタリングには DBSCAN [11]を用いた。クラスタの最大距離は $0.02 \mathrm{~m}$ で, 最小構成点数は 1 とした.
3D モデルとして, ScanRefer [1] と 3DVGTransformer [7] を用いた. 点群の頂点数は 200,000とした。言語特徴量には GloVE [13] を用いた.
## 3.2 定量的評価
表 2 に ARKitSceneRefer で $2 \mathrm{D}$ 手法と 3D 手法を評価した結果を示す. OFA-Detic を除いた 2D 手法と 3D 手法を比較すると, Acc@0.1においては MDETR-random が $7.77 \%$, OFA-random が $8.55 \%$ であるのに対し,ScanRefer が 1.88\%,3DVG-Transformer が $2.65 \%$ と 2D 手法のほうが優れていたが,その他の評価指標については, 例えば Acc@0.5においては MDETR-random が $13.22 \%$, OFA-random が 14.05\%であるのに対し, ScanRefer が 19.74\%, 3DVGTransformer が $24.89 \%$ であり,3D 手法のほうが優れていた。これは $3 \mathrm{D}$ 手法は $3 \mathrm{D}$ シーン全体を参照できるので,対象物体が認識できなくてもおおよそ
図 4 モデルの出力例
の位置を当てることができるが,2D 手法は動画フレームに対象物体が写っていない予測がノイズになるからである。また OFA-Detic はその他の手法をかなり上回っていることから,対象物体が写っていると推測される動画フレームのみ入力に使用するとノイズが削減され,精度が向上することが示された。
## 3.3 定性的評価
図 4 に 3DVG-Transformer, OFA-Detic, ground truth の比較結果を示す. 左の 2 つの結果は 3DVGTransformer がグランディングに成功し, OFA-Detic が失敗している例である。前述したように,OFADetic の予測精度は入力動画フレームにかなり依存しており,ノイズが多いと無関係な場所を予測してしまう. 右の結果は OFA が位置特定に成功し, 3DVG-Transformer が失敗している例である. 3DVG-Transformer は “on the corner” は捉えられているものの “near two windows”は失敗している。このように,3D 手法は薄いもの (例: タオル)を捉えることができないことがある.一方で画像であれば,正面から撮ることで物の厚みを考慮せず認識できる。
## 4 おわりに
本論文では,小物の位置特定のための新しい 3D 参照表現理解データセットである, ARKitSceneRefer を紹介した. ARKitSceneReferには,1,615の ARKitScenes の 3D シーンに対して 32,300 の参照表現が付与されている. ARKitSceneRefer では, 3D モデルはあまり精度が良くなかったが,2D モデルは入力の動画フレーム次第では精度が向上することを確認した. 今後の課題として, 3D モデルの精度を改善することが挙げられる.
## 謝辞
本研究は JST さきがけ JPMJPR20C2, JSPS 科研費 22K17983 およびサムスン SDS 株式会社の支援を受けたものである.
## 参考文献
[1] Dave Zhenyu Chen, Angel X Chang, and Matthias Nießner. Scanrefer: 3d object localization in rgb-d scans using natural language. In Proceedings of the European Conference on Computer Vision (ECCV). Springer, 2020.
[2] Panos Achlioptas, Ahmed Abdelreheem, Fei Xia, Mohamed Elhoseiny, and Leonidas J. Guibas. ReferIt3D: Neural listeners for fine-grained 3d object identification in real-world scenes. In Proceedings of the 16th European Conference on Computer Vision (ECCV), 2020.
[3] Gilad Baruch, Zhuoyuan Chen, Afshin Dehghan, Tal Dimry, Yuri Feigin, Peter Fu, Thomas Gebauer, Brandon Joffe, Daniel Kurz, Arik Schwartz, and Elad Shulman. ARKitscenes - a diverse real-world dataset for $3 \mathrm{~d}$ indoor scene understanding using mobile RGB-d data. In Thirtyfifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 1), 2021.
[4] Angela Dai, Angel X Chang, Manolis Savva, Maciej Halber, Thomas Funkhouser, and Matthias Nießner. Scannet: Richly-annotated 3d reconstructions of indoor scenes. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
[5] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetr - modulated detection for end-to-end multi-modal understanding. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pp. 1780-1790, October 2021.
[6] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. OFA: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. In Kamalika Chaudhuri, Stefanie Jegelka, Le Song, Csaba Szepesvari, Gang Niu, and Sivan Sabato, editors, Proceedings of the 39th International Conference on Machine Learning, Vol. 162 of Proceedings of Machine Learning Research, pp. 23318-23340. PMLR, 17-23 Jul 2022.
[7] Lichen Zhao, Daigang Cai, Lu Sheng, and Dong Xu. 3dvgtransformer: Relation modeling for visual grounding on point clouds. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pp. 2928-2937, 2021.
[8] Agrim Gupta, Piotr Dollar, and Ross Girshick. Lvis: A dataset for large vocabulary instance segmentation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2019.
[9] Xingyi Zhou, Rohit Girdhar, Armand Joulin, Philipp Krähenbühl, and Ishan Misra. Detecting twenty-thousand classes using image-level supervision. In ECCV, 2022.
[10] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco captions: Data collection and evaluation server. CoRR, Vol. abs/1504.00325, , 2015.
[11] Martin Ester, Hans-Peter Kriegel, Jörg Sander, and Xiaowei Xu. A density-based algorithm for discovering clusters in large spatial databases with noise. In Proceedings of the Second International Conference on Knowledge Discovery and Data Mining, KDD’96, p. 226-231. AAAI Press, 1996.
[12] Junhua Mao, Jonathan Huang, Alexander Toshev, Oana Camburu, Alan Yuille, and Kevin Murphy. Generation and comprehension of unambiguous object descriptions. In CVPR, 2016
[13] Jeffrey Pennington, Richard Socher, and Christopher D Manning. GloVe: Global vectors for word representation. In Proceeding of Empirical Methods in Natural Language Processing (EMNLP), 2014.
表 3 OFA-oracle と OFA-upperを加えた精度の比較
図 5 水色の bounding box は OFA のグランディング予測結果を表す. 左の例は対象物体を含むが,右の例は含まない.
## A 2D 手法の精度の最大値
入力動画フレームによってどのように精度が変化するのか検証するため,新たに以下の 2 つの設定を加えて実験した。
1. OFA-oracle: 動画フレームをランダムにサンプリングした後,Deticを用いて物体検出し,検出クラスがアノテーションされているクラスと一致するなら入力として使用する.
2. OFA-upper: アノテーション時にワーカーに見せた 3 枚の動画フレームのみ入力として使用する。
表 3 はその実験結果を示している. OFA-oracle は OFA-random と OFA-Detic を上回っている. さらに, OFA-upper は OFA-oracle を大きく上回っている.この結果から,動画フレームに対象物体が写っていないと予測がノイズとなり,精度の低下を招くことがわかる。
## B より詳細な 2D モデルの定性的評価
動画フレームに対象物体が含まれていない場合, OFA がどのような出力をするのか検証する. 図 5 に対象物体を含む結果と含まない結果を示す. 対象物体を含むフレームに対しては正確に予測しているが,対象物体を含まないフレームに対しては関係のない場所を予測している。この誤りがノイズとなり,正確な予測を妨げる。
図 6 アノテーションインターフェース
表 4 ARKitSceneRefer の統計
## C アノテーション
図 6 にアノテーションインターフェースを示す。 1 タスクが 5 つの対象物体を含むように設計し, ワーカーの国をアメリカ,カナダ,イギリス,オー ストラリアに限定して,アノテーションを行った. また,ワーカーは 6 単語以上の参照表現を書かなければならないように設定した。
## D データセットの分割
表 4 に示されるように,データセットを訓練, 検証, テストに分割した. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H10-4.pdf | # 短歌を読む際の情動に関する脳活動の解析
佐藤 杏奈 1 近添 淳一 ${ }^{2}$ 船井 正太郎 ${ }^{2}$
持橋 大地 ${ }^{3}$ 鹿野 豊 4 浅原 正幸 5 磯 暁 6 小林一郎 ${ }^{1}$
1 お茶の水女子大学 理学部 情報科学科 2 株式会社アラヤ
3 統計数理研究所 4 群馬大学 5 国立国語研究所 6 高エネルギー加速器研究機構
\{g1920519, koba\}@is.ocha.ac.jp \{chikazoe_junichi, funai_shotaro\}@araya.org
daichi@ism.ac.jp yshikano@gunma-u.ac.jp masayu-a@ninjal.ac.jp iso@post.kek.jp
## 概要
本研究では,詩や短歌といった言語芸術が誘起する情動がヒト脳内においてどのように表現されるのかを調査する. とくに本研究では短歌を取り上げ, fMRI 内で提示した短歌を読んだ際の被験者の脳活動を観測し,BERT や GPT などの汎用言語モデルを通じて抽出された言語特徴量を入力として脳内状態を推定する符号化モデルを構築し脳内状態を推定した. 被験者が「詩的である」,「詩的でない」と感じるのはヒト脳内でどのような処理が行われていることに起因しているのかについて調査を行った結果,GPT を用いた際に,情動と深く関係しているとされる大脳辺縁系の一部である島皮質,中層では帯状回,高層では眼窩前頭皮質のハブ性が詩的と感じているとき強くなることが確認できた.
## 1 はじめに
近年では, 磁気共鳴装置 (fMRI) や脳磁図 (MEG) などの非侵襲的な脳機能計測技術の発展と, 深層学習に代表される機械学習技術の高度化により, ヒト脳内の情報処理プロセスの解明や定量的理解を行う研究が盛んになっている [1]. 論理的な情報処理能力と共に,情動に関する情報処理能力はヒトの知能を解明する上で重要であり, 本研究ではヒト脳内の情動に関する処理プロセスの解明を目的とし,統計モデルを通じた調査を行う。
## 2 関連研究
近年,脳神経科学において脳内に生起する意味表象が知覚カテゴリとしてどのように大脳皮質上に構成されるかについても明らかにされてきている $[2,3]$. とくに自然言語の単語の意味をべクトルとして表現する word2vec [4] が出現して以来,ヒト脳に与えられる言語刺激の特徴量が自然言語処理技術の汎用言語モデルを用いて表現され,脳内状態の推定に利用されるようになっている $[5,6,7]$. Schrimpf ら [5,6] は, 43 個の様々な汎用言語モデルを用いて言語刺激を特徴量として表現し,ヒト脳活動との対応関係を調査した. Caucheteux ら [7] は脳内状態を表現する特徴量として性能が良いとされる GPT-2 [8] について詳細な調査をしている.
ヒト脳活動における情動を対象に解析したものとして,Kim ら [9] は音楽刺激下の被験者の脳活動を fMRI で観測したデータから感情反応を推定し,人間の感情処理に関連する特定部位の反応が優位になったことを確認している. Koide-Majima ら [10] は,動画視聴時の脳活動を fMRIを用いて計測し, その刺激となった動画クリップに対して注釈づけされた 80 個の感情表現との相関をとり, 脳内における感情の分布を調べている。また,Satpute ら [11] は,言語が情動にどのような役割を担っているかについて神経科学の文献をレビューすることによって調査をしており,言葉の意味処理に関わる脳領域は,とくに情動に関する表現内容を保持するという考えを示唆する証拠が得られたことを報告している.
このようなアプローチに対して, 本研究では, 自然言語を処理する深層学習モデルを作業モデルとして利用し,様々な刺激下のヒト脳内に直接の反応として表出される感情を扱うのではなく,言語芸術である短歌によって誘起される感性や感覚に近いヒト脳内情動活動を対象に調査を行う。
## 3 言語刺激下の脳活動解析
## 3.1 実験概要
本研究の概要を図 1 に示す. 言語モデルの中間層から抽出した表現べクトルを特徴量として使用
図 1: 詩的と感じるまたは感じないときの脳の振る舞いの調査の流れ.
し,符号化モデル (3.3 節参照) を用いて脳活動を推定する。深層学習モデルの各階層が表現できる情報がどのように遷移するかを調べるため,各階層から符号化モデルを構築し. 予測された脳活動を用いて RSA(3.4 節参照)を行い,関心領域 (ROI) の振る舞いを表す,ROI $\times$ ROI の $\operatorname{RDM}($ 図 $1(※), 3.4$ 節にて後述) を作成する.
## 3.2 被験者実験
本研究の被検者は 18 歳から 34 歳までの日本人 32 名で,脳画像データは fMRIにより取得した. 実験では,『現代日本語書き言葉均衡コーパス』(BCCWJ) に含まれる短歌と, 同じ 31 文字の平文各 150 文を fMRI 内で提示し, それが詩的と感じるかどうかを手元のボタンで解答させた. 短歌または平文は 3 行に分けて,それぞれ 3 秒間提示された後,「詩的であると感じますか?」と記載された質問スライドが 3 秒間提示される (図 1 参照). 1 試行の所要時間は 12 秒であり, 50 試行を 1 セッションとし,6セッションを行った. 文は各セッション内で参加者ごとにランダムな順に提示され, 各セッションは短歌 25 首,平文 25 文で構成される。脳画像データは, FreeSurfer ${ }^{1}$ を用いて解析を行い,それにより抽出された大脳皮質のボクセルのみを分析に用いた。また,脳領域区分アトラスには FreeSurfer で提供される Destrieux Atlas [12]を用いた。
## 3.3 符号化モデル
本研究における符号化モデル (Encoding model) の構築手法は,Naselaris ら [13] によるものを採用した. 符号化モデルの構築方法として, ヒト脳への刺激となるデータから抽出した特徴量と刺激下の脳活動状態を線形回帰し, 計測脳活動パターンと予測脳活動パターンが近づくように重みを学習する。一般的に線形回帰にはリッジ回帰が適用され, 回帰係数を観察することでボクセルに対する振る舞いを観察することなどが可能となる.
## 3.4 表象類似解析 (RSA)
表象類似解析 (Representational Similarity Analysis, RSA) は, Kriegeskorte ら $[14,15]$ によって提案された手法である.RSAを用いることにより,比較対象となる二つのパターンの非類似性は,それらの距離に対応するものとして表現される. 全てのぺアの表現距離 (または非類似度)を測定することで, Representational Dissimilarity Matrix(RDM) を作成でき,また,RDM 同士の相関を計算し様々な表現を比較することが可能になる。本研究では非類似度として相関距離 (1-ピアソン相関係数) の值を使用する。
## 4 実験
## 4.1 符号化モデル作成
ヒト脳に与えられた刺激の特徴量から脳内状態を推定するために,符号化モデルを構築する. 1 枚のスライドが提示されている間,そこに表示されている文で埋めて言語データを構築し, 脳データと対応づけた。質問スライドが表示されている間は,直前に表示されていた短歌もしくは平文に,「詩的であると感じますか?」という文を加え,言語データとした.
言語モデルの中間層から抽出した言語特徴量を説
1) https://surfer.nmr.mgh.harvard.edu/
明変数として脳活動データを予測する符号化モデルには,線形リッジ回帰を適用した.その際,神経活動に伴う血流の増加の反応時間を考慮し, fMRI で観測された脳活動データをその 3 9TR2) 前の該当区間全ての言語特徴量から予測する形で回帰を行う. 全 6 セッションのうち, 1 セッションをテストデータ,残り 5 セッションを訓練データとし,各セッションの脳活動データを予測した. また, 訓練データについて 5 分割交差検証を行い,平均の相関係数が最も良くなる正則化項 $\alpha$ を $\left[10^{1}, 10^{6}\right]$ における 15 個の値の中から採用した。
## 4.2 実験設定
本研究では,言語特徴量を表現する言語モデルとして BERT [16] と GPT [17]を使用する. 事前学習モデルとして, $\mathrm{BERT}_{\text {large }}{ }^{3}$ ) と $\mathrm{GPT}_{1 b}{ }^{4}$ (共に 24 層) を採用し,以下の 2 ステップで Multi-step fine-tuning を行った.
短歌の学習それぞれ,BCCWJに含まれる実験で使用していない短歌 3571 首 (訓練データ $90 \%$ ) で fine-tuning を行った. 学習タスクはそれぞれ事前学習として採用されている, BERT は Masked Language Modeling(15\%), GPT は Causal Language Modeling を使用した.
詩的感覚の有無の分類被験者毎に, 実験に使用した短歌平文 300 文を, 被験者が fMRI 実験で詩的と感じる・感じないと回答した結果に合わせてラベル付けをし, huggingface $の$ transformers ${ }^{5}$ )で提供されている, BertForSequenceClassification と GPT2ForSequenceClassification を使用し fine-tuning を行った. この時, 符号化モデル構築時に訓練デー タとなる 5 セッションで提示された 250 文を訓練データとした.
また,解析では被験者間で平均をとるため,符号化モデルの精度が低い被験者のデータがノイズになってしまうことを鑑み,(1) 短歌もしくは平文, 詩的と感じる・感じないでラベル付けをしたとき,マクロ $F_{1}$ スコア >0.85であり,(2) 事前実験 (fine-tuning をしていない事前学習モデルから抽出した特徵量を使用)での予測脑活動が,実験で計測された脳活動に有意な正の相関がある $(p<0.01)$ 被験
=0.75$ 秒
3) https://huggingface.co/cl-tohoku/ bert-large-japanese
4) https://huggingface.co/rinna/japanese-gpt-1b
5) https://github.com/huggingface/transformers
}
BERT
GPT
図 2: 中間層 $\times$ 中間層の RDM.
者 7 名のみを解析の対象とした。
## 4.3 実験結果
言語モデル各階層の予測脳活動を詩的と感じる (Poetic)もしくは感じない (Unpoetic) に分け,それぞれで,ROI 毎に時間×時間の RDM を作成する. 本研究では. 実測脳活動と予測脳活動に相関がないという帰無仮説のもと. False discovery rate $(\mathrm{q}<0.05)$ 補正を適用する. 帰無仮説が棄却され. かつ. 実測脳活動との相関が正となったボクセルのみを使用して RSAを行う。
ROI 毎に作成された RDM を比較することで ROI $\times \operatorname{ROI}$ の $\operatorname{RDM}($ (図 $1(※))$ を作成する。その RDM を被験者間で平均をとったのち,各階層で詩的と感じるもしくは感じないで作成された (階層数 $\times 2$ ) 個の RDM を比較することで,層×層の RDM を作成した (図 2).
さらに上記 2 つの RDM を 1 つにしたRDMを UMAP [18] を用いて 3 次元に次元圧縮をし, 可視化する (図 3).
次に,他の様々な ROI と類似した情報表現を持つ,脳内情報のハブとなっている ROIを見つけるため, PageRank アルゴリズム [19]を用いて解析を行う。ROI 間の非類似度を表している RDM(図 $1(※))$ を, (1- 非類似度) とすることで相関行列を作成し, この相関行列を遷移確率行列として PageRankアル
図 3: RDM の次元圧縮結果.
(a) 7 層目
(c) 23 層目
図 4: GPT 各階層における PageRank 値の差分 (詩的と感じる (赤) vs. 詩的と感じない (青)).
ゴリズムを適用する。具体的に, $B_{P_{i}}$ は相関行列 $P_{j}$ から遷移する可能性のある相関行列の集合とし,相関行列 $P_{i}$ における PageRank である $r\left(P_{i}\right)$ をべき乗法で以下のように求める.
$
r_{k+1}\left(P_{i}\right)=\sum_{P_{j} \in B_{P_{i}}} \frac{r_{k}\left(P_{j}\right)}{\left|P_{j}\right|}
$
各階層, 詩的と感じる・感じないの各 RDM に対して上記 PageRank アルゴリズムを適用し, $\left(r\left(P_{\text {poetic }_{i}}\right)-r\left(P_{\text {unpoeti }_{i}}\right)\right)$ として差分を取ったものを図 4 に示す.ここでは,詩的と感じる・感じないの非類似性が高かった GPT の結果のみを示す.赤い部分が,減算後値が大きくなった,つまり詩的と感じる時により PageRank 値が高かった脳領域であり. 青い部分が詩的と感じない時により PageRank 値が高かった脳領域である。
## 4.4 考察
図 2 において, BERT では各階層同士で Poetic に対する Unpoetic の非類似度が他層に比べ低くなっている一方で,GPTではその値の低下は小さい. よって,GPT は詩的と感じているときと感じていないときでは. 各階層でより異なる情報表現を持っていると言える.
図 3 において, BERT と GPT どちらも徐々に情報が遷移していることから, 深層学習モデルの各階層が説明できる脳活動は階層が進むに従って変化していることがわかる.
図 4 では,低層,中層,高層として GPT の 7,16, 23 層目での PageRank 值の差分を可視化している.他の階層や BERT での結果については一部付録 6.3 節で示している。ほとんどの層において,後頭葉 (図 $4 \mathrm{a}$ 参照) で差分後の値が正,つまり,詩的と感じているときの方がより,後頭葉周辺のハブ性が強くなっていることがわかった。この値は低層の方が大きく,10 層目あたりをピークに層が進むにつれて小さくなっていった。また,殆どの層において左島皮質,左中心前溝 (図 $4 \mathrm{a}, 4 \mathrm{c}$ 参照) 周辺の值が大きくなった.島皮質は情動と密接な関係があるとされる大脳辺縁系の一部であり,BERT の高層でも同様にハブ性が強くなることが確認できた (付録 6.3 節参照).
中層では,帯状回周辺で值が大きくなる様子が見られた。帯状回は,大脳辺縁系の各部位を結びつける役割があり,感情の形成と処理に関わりを持つ領域と言われている。詩と散文を読んだときの脳活動を調査した先行研究 [20] では,文の情動性が上がるにつれて活性化した脳領域として,帯状回が挙げられている。また,高層では,情動の処理に重要な役割を果たしているとされている [21], 左眼窩前頭皮質 (OFC) が赤くなる様子が見られた.
## 5 おわりに
本研究では,詩的であるという情動がヒト脳内においてどのように表現されるのかを言語モデルの中間層から予測した脳活動に対して,RSAを用いて調査を行った. PageRankを用いて ROI のハブ性を調べた結果,GPT において情動と深く関係しているとされる大脳辺縁系の一部である島皮質,中層では帯状回,高層では眼窩前頭皮質のハブ性が詩的と感じているとき強くなることが確認できた。一方で,後頭葉や中心前溝など,情動と関係しているとされていない領域でもハブ性が見られた。
今後は,解析対象の被験者を増やした時の結果の考察を行うつもりである。また,短歌を読んだときのヒト脳内と深層学習モデルでの階層処理についての調査,考察も進めていきたい。
## 参考文献
[1] Daniel L. K. Yamins, Ha Hong, Charles F. Cadieu, Ethan A. Solomon, and James J. Seibert, Darren an d DiCarlo. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proceedings of the National Academy of Sciences, Vol. 111, No. 23, pp. 8619-8624, 2014.
[2] Alexander G Huth, Shinji Nishimoto, An T Vu, and Jack L Gallant. A continuous semantic space describes the representation of thousands of object and action categories across the human brain. Neuron, Vol. 76, No. 6, pp. 12101224, Dec 2012
[3] Alexander G Huth, Wendy A de Heer, Thomas L Griffiths, and Jack L Theunissen, Frédéric E andG̃allant. Natural speech reveals the semantic maps that tile human cerebral cortex. Nature, Vol. 532, No. 7600, pp. 453-458, Apr 2016.
[4] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Vol. 26, , 2013.
[5] Martin Schrimpf, Idan Blank, Greta Tuckute, Carina Kauf, Eghbal A. Hosseini, Nancy Kanwisher, Joshua Tenenbaum, and Evelina Fedorenko. Artificial neural networks accurately predict language processing in the brain. bioRxiv, 2020
[6] Martin Schrimpf, Idan A Blank, Greta Tuckute, Carina Kauf, Eghbal A Hosseini, Nancy G Kanwisher, Joshua B Tenenbaum, and Evelina Fedorenko. The neural architecture of language: Integrative modeling converges on predictive processing. Proceedings of the National Academy of Sciences (PNAS), 2021.
[7] Charlotte Caucheteux, Alexandre Gramfort, and JeanRémi King. Gpt-2's activations predict the degree of semantic comprehension in the human brain. bioRxiv, 2021.
[8] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2018.
[9] Hyun-Chul Kim, Peter A. Bandettini, and Jong-Hwan Lee. Deep neural network predicts emotional responses of the human brain from functional magnetic resonance imaging. NeuroImage, Vol. 186, pp. 607-627, 2019.
[10] Naoko Koide-Majima, Tomoya Nakai, and Shinji Nishimoto. Distinct dimensions of emotion in the human brain and their representation on the cortical surface. NeuroImage, Vol. 222, p. 117258, 2020
[11] Ajay B. Satpute and Kristen A. Lindquist. At the neural intersection between language and emotion. Affective Science, Vol. 2, No. 2, pp. 207-220, 2021.
[12] Christophe Destrieux, Bruce Fischl, Anders M. Dale, and Eric Halgren. Automatic parcellation of human cortical gyri and sulci using standard anatomical nomenclature. NeuroImage, Vol. 53, No. 1, pp. 1-15, 2010.
[13] Thomas Naselaris, Kendrick N. Kay, Shinji Nishimoto, and Jack L. Gallant. Encoding and decoding in fmri. Neurolmage, Vol. 56, No. 2, pp. 400-410, May 2011.
[14] Nikolaus Kriegeskorte, Marieke Mur, and Peter Bandettini. Representational similarity analysis - connecting the branches of systems neuroscience. Frontiers in Systems Neuroscience, Vol. 2, p. 4, 2008
[15] Nikolaus Kriegeskorte and Rogier A Kievit. Representational geometry: integrating cognition, computation, and the brain. Trends Cogn Sci, Vol. 17, No. 8, pp. 401-412, Aug 2013 .
[16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. 2018. cite arxiv: 1810.04805 Comment: 13 pages.
[17] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. 2018.
[18] Leland McInnes, John Healy, and James Melville. Umap: Uniform manifold approximation and projection for dimension reduction, 2018.
[19] Lawrence Page, Sergey Brin, Rajeev Motwani, and Terry Winograd. The PageRank Citation Ranking: Bringing Order to the Web. Technical report, Stanford Digital Library Technologies Project, 1998.
[20] Adam Zeman, Fraser Milton, Alicia Smith, and Rick Rylance. By heart an fmri study of brain activation by poetry and prose. Journal of Consciousness Studies, Vol. 20, No. 9-10, pp. 9-10, 2013.
[21] Junichi Chikazoe, Daniel H Lee, Nikolaus Kriegeskorte, and Adam K Anderson. Population coding of affect across stimuli, modalities and individuals. Nature Neuroscience, Vol. 17, No. 8, pp. 1114-1122, 2014.
## 6 付録 (Appendix)
## 6.1 実験データ
3.2 節にて述べた対象被験者は,男性 15 名,女性 17 名の合計 32 名である. 脳画像データの撮像は,生理学研究所に設置された 3.0 テスラの $\mathrm{MRI}$ (シー メンス社製) を用いて取得された. 解剖学的スキャンの撮像条件は,TR0.75 秒,ボクセルサイズ $2.0 \mathrm{~mm}$ $\times 2.0 \mathrm{~mm} \times 2.0 \mathrm{~mm}$ である.
## 6.2 非類似度の可視化
図 2 では, BERT とGPTにおいて, 詩的と感じる・感じないときの各階層の非類似性を RDM で示した.このときの Poetic に対する Unpoetic の非類似度を示す (図 5).
layer
図 5: Poetic-Unpoetic 間の各階層における非類似度.
BERT と GPT2 どちらでも,8 層目あたりで非類似度があがり,その後は BERT は徐々に上がり, GPT では下がる様子が見られた。
図3の異なる角度からの可視化結果を示す。
図 6: RDM の次元圧縮結果 (図 3 別角度).
## 6.3 PageRank の差分結果
4.3 節で述べられているように, PageRank アルゴリズムを用いてハブ性を調査した。本文に掲載できなかった BERT と GPT の一部階層について,(詩的と感じる-詩的と感じない)の差分結果を示す.
3 層目
6 層目
9 層目
12 層目
15 層目
18 層目
24 層目
図 7: BERT 各階層における PageRank 値の差分.
3 層目
6 層目
9 層目
12 層目
15 層目
18 層目
21 層目
24 層目
図 8: GPT 各階層における PageRank 値の差分. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H10-5.pdf | # 分散的ベイズ推論としての マルチエージェント強化学習と記号創発
江原広人 ${ }^{1}$ 中村友昭 ${ }^{1}$ 谷口彰 ${ }^{2}$ 谷口忠大 ${ }^{2}$
1 電気通信大学 2 立命館大学
(h_ebara, nakamura)@radish.ee.uec.ac.jp
(a.taniguchi, taniguchi)@em.ci.ritsumei.ac.jp
## 概要
人間は会話や文章などの言語 (メッセージ) を通じて他者とコミュニケーションを取ることで,互いに協調した行動を学習することができる.ロボット同士が人間と同様のアプローチで協調行動を学習するためには,ロボット間で互いに理解できる共通言語を創発するモデルが必要となる. 本稿では,エー ジェント自らが創発した記号を用いてコミュニケー ションすることで,協調行動を学習・生成することができる確率的生成モデルを提案する.実験では,学習したモデルを実環境のタスクに適用し,2 台のロボットが創発した記号によるコミュニケーションを通して,環境に適した協調行動を生成できることを示す.
## 1 はじめに
人間は生まれてから未分化な認識世界の中で活動を始め, 外部の環境との相互作用を通じて様々な概念や言語,行動を獲得することができる. また,獲得した言語を用いて他者とコミュニケーションを取ることで,互いに協調した行動を学習することができる.このように,人間同士が記号を介してコミュニケーションを取ることで,両者の間で理解できる共通言語が形成されていく過程を,コミュニケー ションの創発と呼ぶ.これまでに,コミュニケー ションの創発に基づくアプローチで,エージェント同士で記号を創発し,タスクを実行する様々な研究がなされてきた $[1,2]$. さらに,近年ではコミュニケーションの創発を深層強化学習に拡張することで,より複雑なタスクへの応用が可能であることが示されている $[3,4,5,6]$. 一方で,谷口らによって,人間の言語獲得の基礎となる一部の発達過程を実現したメトロポリス・ヘイスティングス名付けゲーム
図 1 提案手法のグラフィカルモデル
図 2 M-H 法により分割したモデル
と呼ばれる言語ゲームが提案されている $[7,8]$. 文献 $[7,8]$ では,同ゲームを用いて 2 体のエージェントがコミュニケーションを取ることで記号を創発し,物体の概念を形成できることを示している。この手法では,確率的生成モデルを用いることでコミュニケーションの創発を実現している. しかし, このアプローチで協調行動を学習し,実環境のタスクを遂行できるようなモデルは,未だに確立されていない,そこで本稿では,メトロポリス・ヘイスティングス名付けゲームと強化学習と組み合わせることで,生成モデル的アプローチでエージェントが協調行動を学習することができるモデルを提案する. 実験では,学習したモデルを実環境のタスクに適用し,2 台のロボットが創発した記号を用いて環境に適した協調行動を選択できるかを検証した。
## 2 提案手法
## 2.1 モデルと生成過程
図 1 に提案手法のグラフィカルモデルを示す. $z$ はエージェントの内部状態を表現する潜在変数であり, $m$ はエージェント間で生成されるメッセー ジ(共通言語)を表現する潜在変数である. 提案モデルでは,2 体のエージェント間で共有されたメッセージ $m$ によって各エージェントの内部状態 $z, z^{\prime}$ を決定し,協調行動を生成することを仮定している。
$
\begin{gathered}
z \sim P(z \mid m) \\
o \sim P(o \mid m) \\
a \sim P(a \mid z) \\
x \sim P(x \mid z)
\end{gathered}
$
$x, a$ は各エージェントの観測と行動である. 本稿では,確率的な推論 (Control as Inference [9]) による制御に基づいた, 両エージェントの行動の最適制御問題を考える. そのため,一般の強化学習における報酬の代わりに,最適性変数と呼ばれる二値の確率変数 $o \in\{0,1\}$ を用いる. 最適性変数とは, 両エー ジェントの行動の適切さを評価する変数であり, $o=1$ が最適であることを表し, 行動の最適性を確率 $p(o=1 \mid m)$ で表現する.
## 2.2 メトロポリス・ヘイスティングス名付 けゲームによる $m$ の推論
内部状態 $z, z^{\prime}$ と最適性 $o$ から, 各エージェントの行動パターンと,それらに対する最適性の関係を表現するメッセージ $m$ を推論する.
$
m \sim p\left(m \mid z, z^{\prime}, o\right)
$
しかし,式 (5)では,自身からは観測できない相手の内部状態 $z^{\prime}$ が含まれており,直接計算することができない. そこで,文献 $[7,8]$ と同様に,メトロポリス・ヘイスティングス名付けゲームを用いる。この手法では Metropolis-Hastings (M-H) 法 [10] を用いることでモデルを図 2 のように分割することができ,互いに内部状態を知ることなくメッセージ $m$ を推論することができる.M-H 法では,両者は提案分布からサンプリングした $m^{*}$ を相手に提案し,相手はそれを受理または棄却することを繰り返すことで,目標分布からのサンプルを生成することが可能な手法である。まず,求めたいサンプルは両者の内部状態 $z, z^{\prime}$ と最適性変数 $o$ の関係を表現したメッ
セージ $m$ であるため,目標分布は次式となる。
$
\begin{aligned}
P(m) & =p\left(m \mid z, z^{\prime}, o\right) \\
& \approx p(m \mid z, o) p\left(m \mid z^{\prime}, o\right)
\end{aligned}
$
ただし,この式変形には Product-of-Experts (PoE) 近似を用いた。次に,エージェント A がメッセージを提案するため,提案分布は次式となる。
$
Q\left(m^{*} \mid m\right)=p(m \mid z, o)
$
この提案分布従い,エージェント Aが新たなサンプル $m^{*}$ を生成し,B に提案する。 B は提案された $m^{*}$ を自身の予測に基づき,次式の受理確率に従って,受理または棄却するかを決定する。
$
\begin{aligned}
r & =\frac{P\left(m^{*}\right) Q\left(m \mid m^{*}\right)}{P(m) Q\left(m^{*} \mid m\right)} \\
& =\frac{p\left(m^{*} \mid z, o\right) p\left(m^{*} \mid z^{\prime}, o\right) p(m \mid z, o)}{p(m \mid z, o) p\left(m \mid z^{\prime}, o\right) p\left(m^{*} \mid z, o\right)} \\
& =\frac{p\left(m^{*} \mid z^{\prime}, o\right)}{p\left(m \mid z^{\prime}, o\right)}
\end{aligned}
$
式 (9) は式 (7) と式 (8)を用いることで,式(11)のように変形することができ,エージェント Aから提案された $m^{*}$ の受理確率は,エージェント B のパラメータのみで計算できる。すなわち,相手の内部状態を知ることなく,M-H 法に基づく受理/棄却を判断することができる。
以上の手順を役割を交代しながら,収束するまで繰り返し,最適なメッセージ $m$ を推論する。本稿では,このメッセージ $m$ をやり取りすることがコミュニケーションであると考え,このコミュニケーションによってマルチエージェントの最適な行動選択が可能となる.
## 2.3 エージェントの内部状態 $z$ の推論
2.2 節で学習したメッセージと各エージェントの観測に基づき,次式のようにエージェントの内部状態 $z$ のパラメータを推論する.
$
z \sim p(z \mid m, a, x)=\frac{p(x, a \mid z) p(z \mid m)}{p(x) p(a)}
$
また,行動予測時にはクロスモーダル推論によって行動決定する。
$
a \sim p(a \mid m, x)=\int_{z} p(a \mid z) \frac{p(x \mid z) p(z \mid m)}{p(x)} d z
$
本稿では,このような潜在変数の推論とクロスモーダル推論が可能な Multimodal Latent Dirichlet Allocation(MLDA)[11] 拡張した手法 [12]を用いる.
## 2.4 メッセージの創発と行動決定
学習時には 2.2 節のコミュニケーションによるメッセージの推論と,2.3 節の各エージェントの内部状態の推論を Algorithm 1 のように繰り返すことで,各確率分布のパラメータを更新する. これにより, 各エージェントの観測 $x, x^{\prime}$ と最適性 $o$ から協調行動を表現するメッセージ $m$ を創発することができる.
行動決定時には,学習したパラメータを固定し最適性を $o=1$ として Algorithm 1 を実行し,メッセー ジ $m$ と内部状態 $z, z^{\prime}$ を推論する. 推論されたパラメータに基づいて,式(13)のクロスモーダル推論に基づき,行動決定することができる。
## 3 実験
実ロボットを用いたタスクにより,提案手法の有効性を確認した。
## 3.1 実験設定
実験環境を図 3 に示す、ロボットは ROBOTIS 社の turtlebot3(手前側) と turtlebot2(奥側)を使用した1).障害物 (大) の位置は固定,障害物 (小) は左右どちらかに配置し,両ロボットが衝突せずに障害物を回避
1) https://www. turtlebot.com
図 3 実験環境
するルートの選択が学習可能か検証した。両ロボットの頭部には,現在の位置から障害物までの距離を計測できるレーザーレンジファインダ (LRF) が搭載されており,これを用いて自己位置を推定し,障害物を回避して移動することができる。ここで問題となるのが,turtlebot2 の LRF の位置が障害物 (小) よりも高い位置にあり,障害物 (小)を検知できないという点である。これにより, turtlebot2 は障害物 (小) が置かれた方のルートを選択した場合,回避できずに障害物 (小) と衝突する可能性がある。そこで,提案手法を用いてロボット間でコミュニケーションを取ることで,障害物の位置に応じて最適な行動を選択できるよう,メッセージ $m$ を推論する必要がある.
観測 $x$ は正面から左右斜め $45^{\circ}$ までの障害物までの距離を $1^{\circ}$ ずつ計測した長さ 90 のべクトルとし,行動 $a$ は左または右回りの 2 パターンとした.また,最適性 $o$ は,互いが干渉せずに障害物を回避する行動を選択すれば $o=1$, それ以外は $o=0$ とした. 本実験でのタスクでは,両エージェントは障害物の位置に対して計 8 パターンの行動が考えられる. よって, $m$ は 8 次元の多項分布とし,各パター ンの行動ペアが 1 つのクラスに分類されるようにした.
以降,turtlebot3 をエージェント A, turtlebot2をエージェント B とする.
## 3.2 学習
数パターンの観測 $x$, 行動 $a$, 最適性 $o$ のデータを計 40 個を生成し,相互更新の回数 $T=20$ としてモデルを学習した. 学習されたメッセージ $m$ と最適性 $o$ の関係を表 1 に示す. 表より,最適性に基づきメッセージが学習されていることが分かる. $m=1$ では,エージェント A から見て左側に障害物が置かれ,AとBがそれぞれ左回りで移動する行動が表現
図 4 予測時の行動の様子
表 1 メッセージ $m$ と最適性 $o$ の関係
したメッセージであった. $m=7$ では,エージェント Aから見て右側に障害物が置かれ,AとBがそれぞれ右回りで移動する行動が表現したメッセージであった。このように,環境・行動・最適性を表現したメッセージを学習できていることが確認できた。
## 3.3 最適行動の予測
学習済みのモデルを用いて,障害物 (小) を左右ランダム置いた環境で,両エージェントが提案手法を用いてコミュニケーションすることで, 最適な行動を予測できるか検証した。予測の際の相互更新の回数は $T=5$ とし,障害物の位置をランダムに変更し 20 回試行した. 両エージェントの行動の一例を図 4 に,各障害物配置における行動の成功回数と生成されたメッセージを表 2 に示す. この表より,適切なメッセージを生成することで,障害物を回避し,衝突しない適切なルートを選択できていることが分かる。
次に,相互更新回数 $T$ ,すなわちコミュニケー ション繰り返す回数を変化させ,M-H 法によるコミュニケーションによるメッセージの生成の有効性を確認した. 図 5 が各相互更新回数 $T$ における最適行動を選択できた確率である. 図より,コミュニケーションの回数が増えるにつれて,最適な行動選択ができるようになっていることが分かる. エー ジェント A は障害物をどちらも知覚できるため,コ表 2 予測に基づく行動の成功回数と生成されたメッセージ
図 5 相互回数 $T$ における最適行動の選択確率
ミュニケーションしなくとも高い確率で最適行動を選択できている。一方,エージェント B は障害物 (小) を検知できないため,メッセージが内部状態の推定に反映されない $T=1$ では,自身の観測だけでは最適な行動を選択することはできていない。その後, $T$ が増加するに従い,メッセージによってエー ジェント B の欠損している障害物 (小) の情報を補うことができ,最適な行動を選択できている。
## 4 おわりに
本稿では,エージェント間でコミュニケーションを取ることで,協調行動を学習・生成できる確率的生成モデルを提案した.実験では,提案手法を用いて両ロボットがコミュニケーションを取り, 適切なメッセージを学習できることを確認した. また,コミュニケーションにより,最適な行動を選択できることを確認した。しかし,本稿で扱ったタスクは,最適性変数が即時的に決定するワンショットな意思決定タスクであり,累積報酬を最大化する必要があるタスクにはそのままでは適用できない。そこで,本手法を時間発展させ,より複雑なロボットタスクへと応用することを今後の課題とする.
## 謝辞
本研究は,JST ムーンショット型研究開発事業
JPMJMS2011 の支援を受けたものである.
## 参考文献
[1] Diane Bouchacourt and Marco Baroni, "MissTools and Mr Fruit: Emergent communication in agents learning about object affordances", in Proceedings of the 57th annual meeting of the association for computational linguistics (ACL), pp. 3909-3918, 2019
[2] Katrina Evtimova, Andrew Drozdov, Douwe Kiela, and Kyunghyun Cho, "Emergent Communication in a MultiModal, Multi-Step Referential Game", International Conference on Learning Representations, 2018
[3] Jiechuan Jiang, Zongqing Lu, "Learning Attentional Communication for Multi-Agent Cooperation”, arXiv: 1805.07733, 2018
[4] Angeliki Lazaridou, Marco Baroni, "Emergent MultiAgent Communication in the Deep Learning Era", arXiv:2006.02419, 2020
[5] Ryan Lowe, Yi Wu, Aviv Tamar, Jean Harb, Pieter Abbeel, and Igor Mordatch, "Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments”, arXiv: 1706.02275, 2020
[6] Rahma Chaabouni et al., "Emergent Communication at Scale", International Conference on Learning Representations, 2022
[7] Tadarhito Taniguch et al., "Emergent Communication through Metropolis-Hastings Naming Game with Deep Generative Models", arXiv: 2205.12392, 2022.
[8] Yoshinobu Hagiwara, Kazuma Furukawa, Akira Taniguchi, Tadahiro Taniguchi, "Multiagent Multimodal Categorization for Symbol Emergence: Emergent Communication via Interpersonal Cross-modal Inference”, Advanced Robotics, Vol. 36, Issue 5-6, pp. 239-260, 2022
[9] Sergey Levine, "Reinforcement learning and control as probabilistic inference: Tutorial and review." arXiv preprint arXiv:1805.00909, 2018
[10] Hastings, W. K., "Monte Carlo sampling methods using Markov chains and their applications", Biometrika 57, pp. 97-109, 1970
[11] Tomoaki Nakamura, Takayuki Nagai, and Naoto Iwahashi, "Grounding of Word Meanings in Multimodal Concepts Using LDA", IROS2009, pp.3943-3948, 2009
[12] Tomoaki Nakamura, Takayuki Nagai, and Tadahiro Taniguchi, "Serket: An architecture for connecting stochastic models to realize a large-scale cognitive model", Frontiers in Neurorobotics, vol.12, pp.1-16, 2018. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H11-1.pdf | # ホライゾン・スキャニングの自動化のための言語処理応用
石垣 達也 ${ }^{1}$ 西野 涼子 ${ }^{1,2}$ 鷲野 壮平 ${ }^{1}$ 五十嵐 広希 ${ }^{3}$ 村井 昭彦 ${ }^{1}$ 永井 由佳里 ${ }^{2}$ 鷲田 祐一 4
1 産業技術総合研究所 ${ }^{2}$ 北陸先端科学技術大学院大学 3 東京大学 4 一橋大学
\{ishigaki.tatsuya, s.washino, hk-igarashi, a.murai\}@aist.go.jp
\{suzuko_k, ynagai\}@jaist.ac.jp b101348r@r.hit-u.ac.jp
## 概要
本稿では未来学分野におけるホライゾン・スキャニング [1]の自動化を目指し,文書探索,コメント生成問題およびデータセットを提案する。ホライゾン・スキャニングは未来に起こりうる社会変化を分析する枠組みで,1) 新聞記事等を大量に収集し,2) 重要な記事には主観的な意見や記事の要約をコメントとして記述する. 収集された記事とコメントは専門家による社会変化についてのシナリオ記述に活用される. 本研究ではデータセットの分析, 探索およびコメント生成モデルを構築し自動評価および未来学の専門家が実際に使用することで評価し, 言語処理技術の応用可能性を検証する.
## 1 はじめに
未来学の分野では, 中長期的な未来に起こりうる大きな社会変化やリスクについて,シナリオを記述する取り組みが行われている,例えば,「自動消毒ロボットは将来, 駅だけでなくオフィスビルや飲食店など他の業種にも幅広く適用され,人手不足の深刻な人間の清掃員の代替となるだろう」というシナリオは, 企業や政府における意思決定に役立てられる。高品質なシナリオを生成するための手法について, 当該分野では活発に研究 [2] されているが,その多くは専門家による情報収集に依存しておりコストが問題となる.言語処理技術の応用はこのような課題の一助になりうる.本研究では代表的なシナリオ作成手法である Systemic Foresight Methodology (SFM) [3] に着目する. この手法は, シナリオ作成を 1) ホライゾン・スキャニング,2) プランニングという 2 つの部分問題に分割して解く,前者は情報収集を行うステップで,社会変化の兆候を示唆する情報を含む新聞記事等を大量に収集し, 各記事にコメントを付与する。後者はシナリオを記述するステップで, 収集した記事を専門家同士で議論しながら集約し最終的に数個のシナリオにまとめ
る. 本稿では後段の処理に影響を与えることからより重要なホライゾン・スキャニングに着目し,1) 未来を示唆する文書の探索問題, 2) 主観的な意見を含むコメント生成という自然言語処理における新たな問題設定と,3)これらのためのデータセットを提案する.
図 1 に現在専門家により手作業で行われている,ホライゾン・スキャニングの手順 $[4,1]$ を示す. 入力は大規模なテキスト集合で, 本研究では一例として日本語の新聞記事を想定する.出力は事前に定義されたフォーマットによる文書で,スキャニングマテリアルと呼ばれる。ホライゾン・スキャニングでは,まず入力記事集合から未来の社会変化を示唆する記事を探索する。例えば,図 1 の記事 2 のような「高輪ゲートウェイ駅での消毒ロボットの実証実験」についての記事は,鉄道以外の産業にも将来的にロボットが配置されるという社会変化を示唆するため,探索されるべき記事である。一方,記事 4 は天気予報であり,未来についての言及を含むが日常的に必要な情報を提示しているに過ぎず,中長期的な社会変化について示唆しない.よって,探索されるべきではない,スキャニングマテリアルは未来の社会変化を示唆する各記事に対し作成され, 記事タイトル, 要約, 主観的なコメントを含む. コメント部分には記事の短い要約, 主観的な意見, 主張や将来おこりうる社会変化などが記述される. 探索した新聞記事本文を入力し,主観的なコメン卜を自動生成する問題を 2 つ目の設定として扱う. 本研究では特にスキャニングマテリアル作成のための記事の探索とコメント作成に着目し, 記事タイトルと要約部分については要約技術等の既存技術を用いる想定ととし, 研究対象としない.
本研究で提案する文書探索問題は, 将来の社会の変化を示唆するか否かを考慮する点において,既存の文書探索の設定 (例えば [5] など) と異なる。コメント生成問題は言語生成問題の一つとみなすことができるが, 将来起こりうるイベントについて記述する点に特徵がある。
図 1 ホライゾン・スキャニングの手順.
2,266 の未来の社会変化を示唆する新聞記事を SFM の知識のある者が収集し, データセットを作成した.分析より, これらの一般的な新聞記事とは意味的な距離が離れており, 異なる特徴語を持つことがわかった.このデータセットから学習した文書探索モデルは,BERT による手法は適合率@100において 70\%の性能を示し, 専門家による実際のシナリオ作成の実用において,十分耐えうることを人手評価により確認した.コメント生成問題では, 要約タスク等において良い性能を示す BART [6] であっても,主観的なコメン卜を生成するのが難しく挑戦的な課題であることが分かった.
## 2 データセット作成
データセットの作成にはSFM に関する専門知識が必要となる. したがって, 本研究では専門知識を持つ者が未来の社会変化を示唆する記事を収集することが望ましい。そこで,ホライゾン・スキャニングに関する講義を担当する大学教員とその講義を受講し専門知識を持つ学生らが, 2003 年から 2020 年の 17 年間に渡り講義の一環として収集した記事の提供を受け, デー タセットとした. 合計 33 人が以下の指示の下, 記事収集とコメント付与を行った: 1) 中長期的な未来に起こりうる社会変化を示唆する多様な記事を Web 上から手作業で探索する, 2) タイトル, 要約, コメントを記述する.コメントには収集者の主観的な意見や将来に起こりうる中長期的な変化を記述する,3)最後に図 1 に例示するスキャニングマテリアルのフォーマットにまとめる. 最終的に 2,266 記事を収集し, 各記事に平均 2.8 文のコメントが人手で付与された.
## 3 分析
## 3.1 一般的な新聞記事との意味的な距離
探索されるべき記事は一般的な記事とは意味的な距離が離れており, 異なる特徴を持つことを定量的に確かめる. 2020 年の朝日新聞コーパス ${ }^{11}$ 中の記事を一般的な記事とし, 各記事中の名詞に対する日本語 word2vec [7] $]^{2}$ の平均ベクトルを記事を表現する分散表現とする。すべての記事に対し分散表現を計算し, その中心ベクトル $\mathbf{c}_{g}$ を一般的な新聞記事を表現したベクトルとみなす. $\mathbf{c}_{g}$ から提案データセット中の各記事を表現する分散表現 $\mathbf{d} へ$ の距離を,以下のようにコサイン類似度を用いて定義する: $\operatorname{dist}\left(\mathbf{c}_{g}, \mathbf{d}\right)=1-\operatorname{cosine}\left(\mathbf{c}_{g}, \mathbf{d}\right)$. この距離の提案デー タセット中のすべての記事での平均は 0.34 であった.一方,中心ベクトルから朝日新聞コーパス中の記事への距離は平均すると 0.30 であった. この差が統計的有意であることを $\mathrm{t}$ 検定を用いて確認した.よって,一般的な新聞記事と意味空間上での距離が離れている特徴が確かめられた。
## 3.2 特徵語
探索されるべき記事の特徴を使用語彙の観点から分析する. 具体的には次の式のように単語出現頻度 (TF) の差を用い, 単語 $x$ が探索されるべき記事をどの程度特徴づけるかを表現するスコアを計算する: $\operatorname{diff}(x)=\operatorname{TF}_{C}(x) \operatorname{IDF}_{C+G}(x)-\operatorname{TF}_{G}(x) \operatorname{IDF}_{C+G}(x) . ここ$ で, $\operatorname{TF}_{C}(x)$ と $\operatorname{TF}_{G}(x)$ はそれぞれ,探索されるべき記事の集合 $C$ と一般的な記事集合 $G$ での $x$ の出現頻度である. $\mathrm{IDF}_{C+G}$ は $C$ と $G$ 和集合における IDF で,機能語などの多くの文書に出現する一般的な語のスコアを抑制する. $\operatorname{diff}(x)$ が正の方向に振れると $x$ は探索対象とする記事の特徴語であり, $\operatorname{diff}(x)$ が負の方向に振れると一般的な記事の特徴語である.
結果,正の方向に振れた語には「ツイッターの新機能」「台湾での干ばつ」といったように,稀に起こるイベントについての言及はそれぞれ 22.31,20.88 と高いスコアを得た。また,「テクノロジー」のスコアは 2.34 であり, 技術分野に関する語も高いスコア得た。一方, 一般的な新聞記事を特徴づける語としては「知事の会見」「容疑者の逮捕」など,日常的に起こりう
表 1 意味ラベルの定義と例.
るイベントについての言及は-0.89, - 0.90 と負の方向に振れ,一般的な記事に特徴的な語と認識された。より詳細な単語-スコア対の一覧は付録に含める.
## 3.3 意味ラベル付与によるコメント分析
次にコメント部分についての分析を行う。提案デー タセットから無作為に 30 コメントを抽出し, 手作業でコメントに含まれる各文に対し表 1 に定義する, 意味ラベルを付与する. 付与作業においては 1 つの文に対し, 複数ラベルの付与を許容する. 例えば, 「トミーがバイオリンのおもちゃを発売した」という記事に対し,「様々なおもちゃが近年発売されている.」というコメント記述は“背景”とラベル付ける。
結果, $83 \%$ のコメント (30 のうち 25 ) は “要約”もしくは “背景”という事実について言及する文から始まり,“主張”や“見込み”といった主観的な意見へと続いた. 30 コメントのうち 4 コメントは事実を含まず,主観的な意見のみ記述された。ただ 1 つ例外的に主観的な意見を含まず,“感想” のみのコメントが存在した. 客観的な記述と主張などの主観的な記述を含む $83 \%$ 部分である 25 コメントに着目すると,うち $76 \%$ (25 のうち 19) は “要約” から始まり, 24\%(25 のうち 6) は元の記事には含まれない “背景” 情報を提示した。
## 4 モデル
文書探索モデルは記事集合を入力とし,各記事に対し中長期的な社会変化を示唆するか否か表現するスコアを計算し,スコアが高い順に並べ替え出力する。ス表 2 文書探索モデルの適合率, 再現率, $\mathrm{F}$ 値.
表 3 文書探索モデルのランキング性能.
コア計算の手法として,1) BERT [8] による二値分類,
2) 一般的な新聞記事からの距離および 3) IDF を用いたヒューリスティックを比較する.BERTによる手法は提案データセット中の記事を正例, 朝日新聞コーパスからサンプルした記事を負例として二値分類器を学習する。一般的な記事からの距離は朝日新聞コーパスからサンプルした記事集合の中心ベクトル $\mathbf{c}_{g}$ とスコアリング対象記事の分散表現 $\mathbf{x}$ を用い,スコアを $1-\operatorname{cosine}\left(\mathbf{c}_{g}, \mathbf{x}\right)$ として計算する. ヒューリスティックによる手法は,探索されるべき記事には特異な語が多いと考え,スコアリング対象記事中の名詞のIDF の平均値をスコアに用いる: $\frac{\sum_{1}^{n} \operatorname{IDF}\left(x_{i}\right)}{n}$.
コメント生成モデルは探索した記事を 1 つ入力し, コメントを出力する. 本研究では単一文書要約において良い性能が報告されている BART [6] を提案データセットコメントを用いてファインチューニングする.
## 5 実験と評価
## 5.1 データとパラメータ
BERT の学習には提案データセットのうち 2020 年に発行された 320 記事を正例として用い,2020 年に発行された朝日新聞記事のうち 8000 件を無作為に抽出し負例とする.データセットを $3: 1: 1$ の割合に分割し, それぞれ学習, 開発, 評価セットとして用いる.二值分類器の出力スコアがしきい值 $\delta$ 以上の場合に分類対象記事を正例であると判定し, $\delta$ は開発セットを用いて決定する.BARTには京大の配布するモデル 3) を用いる。自動要約においてよく用いられるパラメー タ設定 ${ }^{4)}$ でファインチューニングする.
表 4 被験者が作成したシナリオについての統計.
## 5.2 文書探索の自動評価
表 2 に探索モデルの適合率, 再現率, $\mathrm{F}$ 値を示す. また,表 3 に適合率@ $\mathrm{N}$ をの値を 5 から 100 まで変化させた値を示す.BERTによる手法は $\mathrm{F}$ 値において 58.1 で,意味的な距離による手法の 10.5 や IDF の 13.7 よりも良い。適合率 $@ \mathrm{~N}$ におても, $\mathrm{N}=5$ の設定で BERT による手法は 0.80 を示し,意味的な距離やIDF による手法の 0.40 よりも高い值を示した。 $N$ の値を大きくすると, 教師あり学習に基づく手法は $N=100$ まで大きくしても值の低下は 0.70 に抑えられるのに対し, 意味的な距離に基づく手法および IDF による手法はそれぞれ 0.02 と 0.09 で,性能が著しく低下する。提案データセットによる教師あり学習は, 適合率 @N の観点からもより頑健なモデルといえる。
## 5.3 自動探索文書の実利用による人手評価
既存評価指標だけでなく, 自動探索記事を専門家によるシナリオ作成に実際に用いる実験を行い,実利用での効果を検証する。この実験では,まず,BERTが高いスコアを与えた 75 記事と人手収集した 75 記事を無作為に混ぜ合わせ,合計 150 記事からなる記事集合を作成する. SFM の知識を持つ 17 人に 150 記事を提示し,記事集合を目視しながら一人あたり 5 シナリ才を作成させ,合計 $85(17$ 人 $\times 5)$ のシナリオを得る。各シナリオは 1 つ以上の記事を基に作成され,シナリオ作成の際に参考にした記事も併せてアノテーションさせた. 結果, 1 つのシナリオは平均して 4.8 個の記事を基に作成された。表 4 に被験者が作成したシナリオの統計を示す. 85 シナリオのうち 71 シナリオは自動探索した記事と人手収集した記事を組み合わせて作成したものであった。探索文書のみを組み合わせ作成したシナリオが 11 存在し, これは人手収集記事のみを組み合わせ作成した 3 つのシナリオよりも多い。これらを合計すると, 85 シナリオのうち $96.4 \%$ (82 シナリオ) という高い割合で, 1 記事以上の自動探索記事が専門家たちに活用されたことが確かめられた。
表 5 コメント生成問題の自動評価結果。
## 5.4 コメント生成の自動評価
表 5 に ROUGE の値を示す.BART は ROUGE-1と ROUGE-Lにおいてリード 3 よりも高い値を示した.一方,ROUGE-2 においてはリード 3 法よりも低い值であった。 3.3 節で述べたように人間のコメントの冒頭部分には入力文書の要約が含めらやすく, この要約部分の多くは原文書を言い換えない抽出型の要約となっている.BART が原文書の言い換えを許容する生成型の要約手法であるのに対し,リード 3 は文抽出型の手法である。よって,正解コメントとリード 3 法の出力で単語の重複が多くなり, ROUGE-2 の値が大きくなる。実際の生成コメントは付録に例示する。
## 5.5 コメントの採点による人手評価
人手採点による評価結果を付録の表 6 に示す. 表に示す値は行に示す手法が列に示す手法より良いと判定された回数である.上から順に 1) 未来の変化を想起させるか,2)流暢さ,3) 正しさの 3 つの観点における值を示す.結果,未来の変化を想起させるかという観点では, BART が 51 回リード 3 よりも良いと判定されたのに対し, リード 3 は BART よりも良いと判定されたのは 41 回であった.よって, BART の出力にはリード 3 と比較し,より未来の変化を想起させる記述が含まれる。一方,参照コメントは BART よりも 72 回良いと判定されており,BART がより良いと判定された回数はわずか 18 回である. 付録の出力例に示すように,要約などの客観的な記述と意見などの主観的な記述を混在させた出力を得るのが難しい,言語生成モデルには言語の客観性,主観性の制御といた $\mathrm{t}$ 観点からの拡張が必要である。
## 6 おわりに
ホライゾン・スキャニングを自動化するため,文書探索及び言語生成とデータセットを提案した.BERT による手法は自動および人手評価により,実用的な性能が得られることを確認した。コメント生成は,最先端の言語生成モデルを用いたとしても主観的なコメン卜を正しく生成するのが難しく挑戦的な課題であることが分かった。主観的な記述と客観的な記述を正しく制御する新たな言語生成技術が必要であらう。
## 謝辞
本研究の成果は LREC2022 [9] およ
び KICSS2022(Nishino, Washida, Ishigaki, Washino, Igarashi, Murai, and Nagai 2022) の発表論文を基にした. 本研究は, JST 次世代研究者挑戦的研究プログラム JPMJSP2102 の支援を受けたものです. 整備したデータセットの元となる記事およびコメントを提供くださった一橋大学の MBA コース学生の皆様, ワークショップの参加者に感謝します. 人手評価におけるデータ収集は, JAIST の倫理審査委員会の承認を得ています. 計算には産総研の AI 橋渡しクラウド (ABCI) を利用しました。実験には朝日新聞コーパスを使用しました。
## 参考文献
[1] Ziauddin Sardar. The namesake: Futures; futures studies; futurology; futuristic; foresight - what's in a name? Futures, Vol. 42, No. 3, pp. 177-184, 2010.
[2] Yuichi Washida and Akihisa Yahata. Predictive value of horizon scanning for future scenarios. foresight, 2020.
[3] Ozcan Saritas. Systemic foresight methodology. In Science, technology and innovation policy for the future, pp. 83117. Springer, 2013.
[4] Yuichi Washida and Akihisa Yahata. Predictive value of horizon scanning for future scenarios. Foresight, Vol. 23, No. 1, pp. 17-32, 2021.
[5] Bhaskar Mitra, Nick Craswell, et al. An introduction to neural information retrieval. Now Foundations and Trends, 2018.
[6] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL2020), pp. 7871-7880, Online, 2020. Association for Computational Linguistics.
[7] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013.
[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL2019), pp. 4171-4186, Minnesota, USA, 2019. Association for Computational Linguistics.
[9] Tatsuya Ishigaki, Suzuko Nishino, Sohei Washino, Hiroki Igarashi, Yukari Nagai, Yuichi Washida, and Akihiko Mu- rai. Automating horizon scanning in future studies. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 319-327, Marseille, France, June 2022. European Language Resources Association.
2. 入力記事:
徳島大学発のベンチャー企業グリラスは、食用コオロギ事業を拡大するため、総額 2 億 3000 万円を調達した。今回の資金調達を機に、株式公開に向けた体制整備を進める予定だ。グリラスは 5 月にジェイテクトと業務提携し、全自動生産システムを共同開発した。
人間:
最近、日本でも 10 匹と 30 匹のコオロギを使ったフィナンシェが発売され、2日で売り切れたそうだ。私はおせんべい以外、コオロギを使った食品を見たことがないが、いよいよ昆虫食が社会に浸透していく兆しがあるようだ。 BART:徳島大学発のベンチャー企業グリラスが、食用コオロギの事業拡大のため、ベンチャー キャピタルから総額 2 億 3000 万円の資金調達を行った。全自動生産システムの共同開発に取り組んでいる。
表 7 コメントの生成例. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H11-2.pdf | # 所望の患者データを作る: Variational Auto-Encoder による症例報告生成
清水聖司,矢田竣太郎,荒牧英治 ${ }^{1}$
1 奈良先端科学技術大学院大学
\{shimizu.seiji.so8,s-yada,aramaki\}@is.naist.jp
## 概要
医療言語処理の分野では,患者のプライバシーの問題から共有可能な医療ドメインコーパスが少ない.そのため,コーパスを自動生成する研究がなされている. 現状ではコーパス生成の手法として事前学習済みモデルを用いた,プロンプトを条件として生成する手法 (prompt-based の手法) が広く用いられているが,コントロール性の高い生成が困難である. Variational Auto-Encoder (VAE) を使った連続的条件からの生成では, prompt-based にはできないコントロール性の高い生成が実現できる可能性がある. 本論文では VAEベースの症例報告生成モデルを学習し, (1) 医学概念が潜在空間から再構成できるか,(2) 条件同士の距離関係と,生成される症例報告に含まれる医学概念の類似度の対応関係,の $2 \supset$ の観点から評価する。
## 1 はじめに
自然言語処理研究において,異なる手法の統一的な比較は,特定のタスクにおける手法の有効性の検証や,それに基づく手法の改善のために必須である.よって,そのような比較を可能にする共有可能なコーパスは,分野発展において重要である。しかし, 医療言語処理の分野では,患者のプライバシー の問題から共有可能な医療ドメインコーパスが少ない $[1,2]$. そのため,個人情報を削除する匿名化, またはコーパスの言語生成モデルを使った生成, といったアプローチで共有可能なコーパスを構築する試みがなされてきた。
生成を使ったアプローチにおいて,現状では事前学習済みモデルを用いたプロンプトを条件としてコーパスを生成する手法 (prompt-based の手法) が広く用いられている. しかし,この手法では,生成の条件が離散的であり,プロンプトのデザインが恣意的であるため,コントロールが困難である.
一方で,Variational Auto-Encoder (VAE)を使った連続的条件からの生成では,テキストを潜在空間に次元削減し,そこからテキストを再構成することによって,コーパス全体を一つの連続的なべクトル空間に埋め込むことができる。このような埋め込みが出来ると, Prompt-based の手法にはできないコントロール性の高い生成が実現できる可能性がある [3].
そこで,本論文ではVAEベースの症例報告生成モデルを評価した.具体的には,(1) 入力された症例報告を潜在変数に変換し,変換された潜在変数から元の症例報告に含まれる医学概念再構成できるか,(2) 条件同士の距離関係と, 生成される症例報告に含まれる医学概念の類似度が対応するかを評価した. 評価の結果,医学概念の再構成に関しては疾病、傷害及び死因の統計を国際比較するために用いられる ICD コードの, 頭文字の粒度で可能であることが示された. また,潜在変数の距離関係が,生成された症例報告に含まれる医学概念の類似度と対応することが示された。
## 2 関連研究
共有可能な医療コーパス構築において,コーパスを公開することで,患者のプライバシーが危険にさらされる可能性がある。この問題に対し, 主に匿名化または生成のアプローチが用いられる.匿名化はコーパスから個人情報を消す手法であり [4], 匿名化された有名なコーパスに MIMIC [5] がある。しかし,匿名化には,コーパスのサイズが大きくなるほど完全には個人情報を消しきれないという問題がある。
生成は近年発展を遂げたテキスト生成技術を用いて,人工的なコーパスを生成する手法である.この手法では,医療コーパスを用いて言語生成モデルを学習し,学習したモデルから自動的に医療テキスト
表 1 再構成された症例報告の例. 上段が,Optimus に入力された症例報告,下段が潜在変数から生成された症例報告で,下線は入力された症例報告から再構成されている要素を示す.
を生成することでコーパスを構築する.
## 2.1 医療テキスト生成
現状の医療テキスト生成には主に,Transformer ベースの学習済みモデルにプロンプトを条件として生成する手法が用いられている.
GPT-3 [6] を用いて病名を条件として,その定義を生成した手法 [7] や,医療ドメインにおけるファクトイド質問応答のために T5 [8] を用いて疑問文を生成した手法 [9] などが存在する. Amin-Nejad らは, Prompt-based の手法を用いて電子カルテを自動生成することでコーパスを構築し,構築されたコーパスを下流の分類タスクにおいて評価した [10]. この研究において,下流タスクにおいて,生成されたコー パスのみを用いた時の精度は,実際のコーパスを用いた時の精度に及ばなかった。
## 2.2 連続的条件からののテキスト生成
望ましい医学概念の分布を持ったコーパスを構築するには,コントロール性の高いテキスト生成が必要である.例えば,肺がんのあらゆるケースを想定して, 肺がん患者という医学概念を固定して,あらゆる年齢・性別などの個人特性を表す言語表現を持ったコーパスを構築できることが望ましい.
Prompt-based の手法を含む,学習済みモデルをそのまま Fine-tuning する手法は, 汎用的な使用を目的とした事前学習済みモデルをそのまま用いるため,望ましい医学概念の分布を持ったコーパス構築するという使用目的に適さない可能性がある. 特に, 文書同士のグローバルな関係性を捉えることができず,条件に対する操作もプロンプトの入力変更に限られているという問題がある。
一方で,VAE [11] は,連続的条件からの生成が可能であり,テキスト同士のグローバルな関係もモデルの内的表現として得ることができる. Liu らの研究では,潜在空間においてエネジー関数を学習し,学習したエナジー関数をもとに,生成の条件となる潜在変数数をサンプルすることで,ある特定の特性を持ったテキストを生成可能なことが示された [12]. この手法では,様々な初期条件から連続的に潜在変数を変化させ特定の特性を持ったテキストを生成可能であり,ある医学概念を固定して,他の特性を連続的に変化させるといった操作が実現可能である.
## 3 材料
本研究では,医療テキストデータとして 1975 年から J-Stage に投稿された論文データに含まれる症例報告論文を使用した. ここから以下の条件で,対象となる症例報告論文を抽出した。
1. タイトルに“症例”を含む
2. アブストラクトが“症例は”から始まる
3. アブストラクトの文字数が 350 文字以下である
以下で使う症例報告は, 上記全ての条件を満たすデータ 11,181 件のアブストラクトとし, JST-CR と呼ぶ.
## 4 生成手法
## 4.1 Optimus
VAE ベースの症例報告生成モデルとして Optimus [13] を用いた. Optimus はVAEをべースとして,Encoderに BERT+Linear 層を用い,Decoder に Linear 層+GPT2 を用いたモデルである.
Optimus の学習では,Decode の時に,潜在変数の情報が無視されて生成される KL collapse を防ぐために KL annealing が用いられる. KL annealing では,学習において,ハイパーパラメータ $\beta$ を周期的に変化させる. Optimus の学習の目的関数は以下の通り
である.
$
\begin{aligned}
L_{\beta} & =L_{E}+\beta L_{R} \quad \text { with } \\
L_{E} & =\mathbb{E}_{q_{\phi}(z \mid x)}\left[\log p_{\theta}(\mathbf{x} \mid \mathbf{z})\right] \\
L_{R} & =\operatorname{KL}\left(q_{\theta}(\mathbf{x}) \| p(\mathbf{z})\right)
\end{aligned}
$
$L_{E}$ は入力と出力が同じになるようにする Reconstruction Loss であり, $L_{R}$ は潜在変数の分布を事前分布と近くする KL Divergence Loss である. 症例報告生成のために, Encoder の BERT には UTHBERT [14], Decoder の GPT-2 には日本語コーパスで事前学習した GPT-2 [15] を用いた. UTH-BERT は東大病院に蓄積された約 1 億 2 千万文の電子カルテ文書を使って学習された BERT モデルである.
## 4.2 生成の流れと例
JST-CR のアブストラクトを入力として,Encoder により入力を潜在変数に変換,そして潜在変数を再構成し,アブストラクトを生成した. 学習した Optimus によって出力された文章の例を表 1 に示す.下線は入力された症例報告の要素がモデルによって再構成された部分を示す.この例では,元の症例報告の大部分を再構成できていることがわかる.
## 5 評価実験
潜在変数からの生成には,潜在空間において医学概念の関係性が表現されており, そこから症例報告の中に特定の医学概念を再構成できることが重要である.また,潜在空間での操作を生成に反映させるためには,ある潜在変数を変化させたときに,それに対応して,生成される医学概念が変化することが重要である。そこで,(1) 医学概念が潜在空間から再構成できるか (2) 条件同士の距離関係と, 生成される症例報告に含まれる医学概念の類似度が対応するかを評価した。
## 5.1 評価方法
医学概念の再構成は Optimus に入力された症例報告と Optimus から出力された症例報告を比較することにより評価した.潜在空間における条件同士の距離と, 生成される症例報告に含まれる医療概念の類似度が対応するかは,ある潜在変数に異なるノルムの摂動を加え,そこから生成される症例報告と元の潜在変数から生成される症例報告とを比較することにより評価した。
図 1 EvalCorr での潜在空間における操作.摂動なしは,摄動を加える前の潜在変数を表し,赤い点は様々な大きさのノルムの摂動が加えられた潜在変数を表す. それぞれの潜在変数から症例報告を生成し,評価した。
## 5.1.1 EvalRecon : 医学概念再構成の評価
医学概念が潜在空間から再構成できていれば,入力された症例報告と出力された症例報告は,その中に含まれる医学概念が類似するはずである.そこで,Optimus に入力された症例報告と Optimus から出力された症例報告の類似度を測ることで,医学概念の再構成の評価とした. 以下ではこの評価を EvalReconとする.
## 5.1.2 EvalCorr : 条件の距離と類似性の対応評価
潜在空間での操作が生成される症例報告に反映されるかを,条件同士の距離関係と,症例報告に含まれる医学概念の類似度が対応するかを基に評価した. 具体的には,まず,図 1 のように,評価データ中の症例報告を潜在変数に Encode して,その潜在変数に対して,0.01 から 10 のノルムを持つランダムな摂動を加え, 元の潜在変数から生成された症例報告と摂動を加えられた潜在変数から生成された症例報告の類似度を測った. ノルムが大きくなるにつれ,類似度がそれに対応して下がるかどうかを評価した.以下ではこの評価を EvalCorr とする。
## 5.2 評価指標
2 文書の症例報告の類似度を定量的に評価する。
そのために,参照文と生成文の n-gram ベースの一致度を測る指標である BLEU と,文中に含まれる医学概念の一致度を測る指標である NER一致度を用いた. NER 一致度の計算方法は以下の通りである。
1. 2 文書の症例報告に対して, $\mathrm{NE}$ 抽出器の RealMedNLP_CRJJA [16] を使いNER を施す.
2. NER 結果から病名と藏器・部位を抽出する。
表 2 EvalRecon の評価結果 (NER 一致度). Optimus に入力された症例報告と, Optimus から出力された症例報告に NER を施し,一致の Precision と Recall を計算した。
図 2 EvalCorr の結果. 縦軸は評価指標のスコア (F1),横軸は摂動のノルムに対し,常用対数を取ったものを表す.
3. 2 つの症例報告から抽出された病名と臟器・部位を比較し,Recallと Precisionを計算する。
病名の NER 一致度に関しては,NER の結果得られた病名を DNorm-Jにより正規化したものと,病名をICD10コードに変換し,その頭文字をとったもの (ICD) を使って NER 一致度を計算した。
## 6 結果と考察
実験では,JST-CRを 8:1:1 に分割し,それぞれを学習・検証・評価データとして用いた。学習したモデルを 5 章で述べた方法と指標で,JST-CR の評価データを使って評価した. EvalRecon の結果から, ICD の粒度では,医学概念の再構成ができていることが示唆される. EvalCorr の結果,ノルムの大きさに対応して,生成された症例報告に含まれる医学概念の類似度が下がっていることから,条件同士の距離関係と,生成される症例報告に含まれる医学概念の類似度が対応していることが示唆される。
## 6.1 EvalRecon
入力された症例報告と出力された症例報告に対して BLEU スコアと NER 一致度を計算した。評価データ全体の平均の BLEU スコアは 0.315 であった. NER 一致度は表 2 の通りである. ICD の NER 一致度は,Precision が 0.543 , Recall が 0.520 であった。
図 3 JST-CR の評価データにおける ICDコードの分布 (original) と, Optimus により生成されたコーパス (generated) における ICD コードの分布. 横軸は ICD コー ドの頭文字,縦軸は頻度を表す。
## 6.2 EvalCorr
各症例報告に対して 10 回ランダムな方向の摂動を施し,スコアを平均したものを一つの症例報告に対するスコアとした。ノルムと各スコアの相関係数は, BLEU が -0.970 , NER 臟器・部位が -0.875 , NER 病名が -0.885, ICD が -0.969 であった. 評価データ全体のスコアを摂動のノルムごとに平均した結果を図 2 に示す. 図 2 から臟器・部位以外はスコアがおおよそノルムと対応し,下がっていることがわかる.
## 6.3 ICD コード分布の比較
生成されたコーパスが,JST-CR 評価データの ICD コード分布をどの程度再現できるかを評価した. JST-CR の評価データに含まれる ICD コードの頭文字の分布と,生成された症例報告における ICD コードの頭文字の分布を図 3 に示す. 2 つの分布の KL Divergence は 0.020 ,分布内の順位相関係数は 0.941 (p 值 $\leq 0.01)$ であった. この結果から,生成されたコーパスは,ICD コードの頭文字の分布を再現できていることが示唆される。
## 7 おわりに
本研究では,VAEベースのモデルである Optimus を使い,症例報告生成を再構成して生成した。実験の結果,ICD の粒度で医学概念の再構成が可能であることと,症例報告に含まれる医学概念を,潜在空間における条件同士の距離に対応させて変化させることが可能であることを示した。
## 謝辞
本研究は,JST AIP 日独仏 AI 研究 JPMJCR20G9, JST CREST JPMJCR22N1, 国立情報学研究所 (NII) CRIS の支援を受けたものである.
## 参考文献
[1] Eiji Aramaki, Shoko Wakamiya, Shuntaro Yada, and Yuta Nakamura. Natural Language Processing: from Bedside to Everywhere. Yearbook of Medical Informatics, June 2022.
[2] Udo Hahn and Michel Oleynik. Medical Information Extraction in the Age of Deep Learning. Yearbook of Medical Informatics, Vol. 29, No. 1, pp. 208-220, August 2020.
[3] Dayiheng Liu, Jie Fu, Yidan Zhang, Chris Pal, and Jiancheng Lv. Revision in continuous space: Unsupervised text style transfer without adversarial learning. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8376-8383, 2020.
[4] Tawanda Sibanda and Ozlem Uzuner. Role of local context in automatic deidentification of ungrammatical, fragmented text. In Proceedings of the Human Language Technology Conference of the NAACL, Main Conference, pp. 65-73, June 2006.
[5] Alistair EW Johnson, Tom J Pollard, Lu Shen, Li-wei H Lehman, Mengling Feng, Mohammad Ghassemi, Benjamin Moody, Peter Szolovits, Leo Anthony Celi, and Roger G Mark. MIMIC-III, a freely accessible critical care database. Scientific data, Vol. 3, No. 160035, pp. $1-9,2016$.
[6] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[7] Bosung Kim and Ndapa Nakashole. Data augmentation for rare symptoms in vaccine side-effect detection. In Proceedings of the 21st Workshop on Biomedical Language Processing, pp. 310-315, May 2022.
[8] Hermann Bujard, Reiner Gentz, Michael Lanzer, Dietrich Stueber, Michael Mueller, Ibrahim Ibrahimi, MarieTherese Haeuptle, and Bernhard Dobberstein. [26] a t5 promoter-based transcription-translation system for the analysis of proteins in vitro and in vivo. In Methods in enzymology, Vol. 155, pp. 416-433. Elsevier, 1987.
[9] Dimitris Pappas, Prodromos Malakasiotis, and Ion Androutsopoulos. Data Augmentation for Biomedical Factoid Question Answering. arXiv preprint, Vol. arXiv:2204.04711, , 2022.
[10] Ali Amin-Nejad, Julia Ive, and Sumithra Velupillai. Exploring transformer text generation for medical dataset augmentation. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4699-4708, 2020.
[11] Diederik P Kingma and Max Welling. Auto-encoding vari- ational bayes. arXiv preprint arXiv:1312.6114, 2013
[12] Guangyi Liu, Zeyu Feng, Yuan Gao, Zichao Yang, Xiaodan Liang, Junwei Bao, Xiaodong He, Shuguang Cui, Zhen $\mathrm{Li}$, and Zhiting Hu. Composable text control operations in latent space with ordinary differential equations. arXiv preprint arXiv:2208.00638, 2022.
[13] Chunyuan Li, Xiang Gao, Yuan Li, Baolin Peng, Xiujun Li, Yizhe Zhang, and Jianfeng Gao. Optimus: Organizing sentences via pre-trained modeling of a latent space. arXiv preprint arXiv:2004.04092, 2020.
[14] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed using a huge japanese clinical text corpus. Plos one, Vol. 16, No. 11, p. e0259763, 2021.
[15] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 169-170, 2021.
[16] Tomohiro Nishiyama, Mihiro Nishidani, Aki Ando, Shuntaro Yada, Shoko Wakamiya, and Eiji Aramaki. Naistsoc at the ntcir-16 real-mednlp task.
## A 参考情報
## A. 1 潜在空間の可視化
Optimus によって構築された潜在空間を可視化したものを図 4 に示す. タイトルに含まれる病名の ICD コードの頭文字 (ICD の軸) ごとに色分けした.
同じ ICD コードをもつ症例報告同士で固まっているのは $\mathrm{C}, \mathrm{K}, \mathrm{H}$ で,それぞれ腫瘍,消化器系,眼科・耳鼻科系の病気を表すコードである. このことから,これら 3 つに関する症例報告は,ある程度一貫した言語的特徴を持っていると推測される.
図 4 潜在空間の可視化. UMAPを用いて潜在変数を 2 次元に表現した. アルファベットは ICD コードの頭文字を表す。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H11-3.pdf | # 食感の物性と言語表現の対応の推定
上原宏 ${ }^{1,2}$ 持橋大地 1
1 総合研究大学院大学統計科学専攻 2 立正大学 データサイエンス学部 3 統計数理研究所
\{uehara,daichi\}@ism.ac.jp
## 概要
レシピ共有サイトに記述される多様な食感表現は,レシピ材料の硬さ,粘り気などの違いによるところが大きいが,両者の関係はこのサイトの情報だけではわからない. 本研究では,材料構成と食感の物性(レオロジー)との関係を実証した調理科学研究データを収集し,それらとレシピ共有サイト上の食感表現との対応の推定を試みる。これにより様々な食感表現が,材料のどのような食感物性から知覚されるのかについて統計的なモデル化を行う。
## 1 はじめに
大量のレシピに記述される日本語の食感表現は約 450 種類あるとされ [1],レシピ共有サイトにも,様々な食感の記述が見られる. 各レシピの食感表現の違いは,知覚の個人差はあるものの,主にレシピの材料構成によると考えられる. 調理科学の研究では,材料濃度構成の違いによる食感の違いを,食感物性(レオロジー)の測定により定量評価する実証研究が行われている ([2], [3]). しかし,食感物性が,人が知覚する食感としてどのようなものかは、限られた評価者による実証研究にとどまっている [7]. 本研究では, レシピ共有サイトの食感表現と材料濃度データにもとづき, 調理科学研究の食感物性データとの対応関係を推定する方法を提案し,食感表現が材料のどのような物性特徴によるものかを推定する。
次章で提案手法を述べ,3 章で適用対象のデータを説明する。続いて 4 章にてデータの解析結果および評価を記述し, 5 章にて結論を述べる.
## 2 提案手法
本研究では, ゼラチン, 寒天, アガーの 3 種類の凝固剤を用いたレシピ(以降,ゲルレシピ)を対象として,レシピ共有サイトから対象レシピを収集し,食感表現トピックと,材料濃度トピックのペア
図 1 食感表現と凝固剤濃度を生成する結合トピックモデル
からなる食感トピックを結合トピックモデル [4] を用いて推定する.材料濃度トピックは調理科学の食感物性測定条件と同様なデータ形式であり,食感物性との対応付けが可能となる. 以下,提案手法の詳細を述べる。
## 2.1 対象データの抽出
## 2.1.1 食感の固有表現の抽出
日本語の食感用語を網羅的に調査した “日本語テクスチャー用語体系1)”を辞書として,レシピ共有サイトからレシピ毎の食感の固有表現を抽出した。
## 2.1.2 材料濃度ベクトルの収集
レシピ共有サイトの材料リストより,凝固剤の濃度および,エマルション2)の濃度を算出し,レシピ毎に凝固剤ベクトル,エマルションベクトルを収集した。なお,濃度の微小な違いが食感に大きく影響することがあるため, 濃度を情報量 $(-\log )$ に変換した特徴量を用いている。
## 2.2 食感トピックの推定
## 2.2.1 生成モデル
図 1 のとおり,食感トピックは食感表現語彙の潜在トピック $\mathbf{Z} \mathrm{~ , およひ ゙ それに対応する凝固剤の濃度 ~}$ ベクトルの潜在トピック $\mathbf{Y}$ のペアで構成する. 食感表現は, $\mathbf{Z}$ のもで, $\operatorname{Dir}(\gamma)$ をディリクレ事前分布
とする多項分布 $\operatorname{Mult}(\mathbf{W} \mid \phi)$ に従うとし,一方,凝固剂濃度ベクトル $\mathbf{g}$ は, $\mathbf{Y}$ のもとで, $\mathcal{N} \mathscr{W}\left(\beta_{g}, v_{g}, S_{g}\right)$ をガウスウィシャート事前分布とする正規分布 $\mathcal{N}(\mathbf{g} \mid \mu, \boldsymbol{\Lambda})$ に従うとする. 調理科学では,凝固剤のみによる食感をべースラインとして,エマルションを混合した場合にどのような変化が顕れるかを実証したものが多い $[3,5,11]$. そこで,エマルションの濃度 $\mathbf{e}$ については, 凝固剤の潜在トピック $\mathbf{Y}$ のもとで,NW $\left(\beta_{e}, v_{e}, S_{e}\right)$ をガウスウィシャート事前分布とする正規分布 $\mathcal{N}(\mathbf{g} \mid \mathbf{m}, \mathbf{L})$ に従うとする. 生成モデル,および生成過程を以下に示す.
## 生成モデル
$p(\mathbf{W}, \mathbf{Z}, \theta, \phi, \mathbf{g}, \mathbf{y}, \mu, \boldsymbol{\Lambda}, \mathbf{e}, \mathbf{L})=$
$\operatorname{Dir}(\theta \mid \alpha) \operatorname{Dir}(\phi \mid \gamma) \prod_{n} \operatorname{Mult}\left(z_{d_{n}} \mid \theta_{d}\right) \operatorname{Mult}\left(w_{d_{n}} \mid \emptyset_{\mathbf{k}}, z_{d_{n}}\right)$
$\times \mathcal{N} \mathscr{W}\left(\mu_{\mathbf{k}}, \boldsymbol{\Lambda}_{\mathbf{k}} \mid \mu_{\mathbf{0}}, \beta^{g}, v^{g}, \mathbf{S}^{\mathbf{g}}\right) \prod \operatorname{Mult}\left(y_{d} \mid \theta_{d}\right) \mathcal{N}\left(\mathbf{g}_{\mathbf{d}} \mid \mu_{\mathbf{k}}, \boldsymbol{\Lambda}_{\mathbf{k}}, y_{d}\right)$
$\times \mathcal{N} \mathscr{W}\left(\mathbf{m}_{\mathbf{k}}, \mathbf{L}_{\mathbf{k}} \mid \mathbf{m}_{\mathbf{0}}, \beta^{e}, v^{e}, \mathbf{S}^{\mathbf{e}}\right) \prod_{\mathbf{d}}^{\mathbf{d}} \mathcal{N}\left(\mathbf{e}_{\mathbf{d}} \mid \mathbf{m}_{\mathbf{k}}, \mathbf{L}_{\mathbf{k}}, y_{d}\right)$
## 生成過程
1. For $k \in 1, \ldots, K$ :
(a) $\phi_{\mathbf{k}} \sim \operatorname{Dir}(\gamma)$
(b) $\mu_{\mathbf{k}}, \mathbf{\Lambda}_{\mathbf{k}} \sim \mathcal{N} \mathscr{W}\left(\mu_{\mathbf{0}}^{\mathbf{g}}, \beta^{g}, v^{g}, \mathbf{S}^{\mathbf{g}}\right)$
(c) $\mathbf{m}_{\mathbf{k}}, \mathbf{L}_{\mathbf{k}} \sim \mathcal{N} \mathscr{W}\left(\mu_{\mathbf{0}}^{\mathbf{e}}, \beta^{e}, v^{e}, \mathbf{S}^{\mathbf{e}}\right)$
2. For $d \in 1, \ldots, D$ :
(a) Draw $\theta_{\mathbf{d}} \sim \operatorname{Dir}(\alpha)$
(b) For $n \in 1, \ldots, N_{d}$ :
i. Draw $z_{d_{n}} \sim \operatorname{Mult}\left(\theta_{\mathbf{d}}\right)$
ii. Draw $w_{d_{n}} \sim \operatorname{Mult}\left(\phi_{\mathbf{z}_{\mathbf{d}_{\mathbf{n}}}}\right)$
(c) Draw $y_{d} \sim \operatorname{Mult}\left(\theta_{\mathbf{d}}\right)$
(d) Draw $\mathbf{g}_{\mathbf{d}} \sim \mathcal{N}\left(\mu_{\mathbf{y}_{\mathbf{d}}}, \boldsymbol{\Lambda}_{\mathbf{y}_{\mathbf{d}}}\right)$
(e) Draw $\mathbf{e}_{\mathbf{d}} \sim \mathcal{N}\left(\mathbf{m}_{\mathbf{y}_{\mathbf{d}}}, \mathbf{L}_{\mathbf{y}_{\mathbf{d}}}\right)$
ここで,各変数は以下を意味する。
$\phi_{\mathbf{k}}$ : トピック $k$ 毎の食感表現語彙分布. 事前分布パラメータ $\gamma$.
$\mu_{\mathbf{y}_{\mathbf{d}}}, \boldsymbol{\Lambda}_{\mathbf{y}_{\mathbf{d}}}: k$ 毎のゲル濃度分布. 事前分布パラメー タは, $\mu_{\mathbf{0}}^{\mathbf{g}}, \beta^{g}, \nu^{g}, \mathbf{S}^{\mathbf{g}}$
$\mathbf{m}_{\mathbf{y}_{\mathbf{d}}}, \mathbf{L}_{\mathbf{y}_{\mathbf{d}}}: k$ 毎のエマルション濃度分布
$\theta_{\mathbf{d}}$ : 文書 $d$ (レシピ)毎のトピック分布パラメー
タ. 事前分布パラメータは, $\alpha$.
$z_{d_{n}}$ : 食感表現語彙 $w_{d_{n}}$ の潜在トピック.
$y_{d}:$ ゲル濃度 $g_{d}$ の潜在トピック
$\mathbf{g}_{\mathbf{d}}$ : 凝固剂濃度
$\mathbf{e}_{\mathbf{d}}$ : エマルション濃度
## 2.2.2 トピックの推定
Gibbs sampling により, 潜在トピック $z_{d_{n}}, y_{d}$ および,トピック毎の分布パラメータ $\phi_{\mathbf{k}}, \mu_{\mathbf{y d}_{\mathrm{d}}}, \Lambda_{\mathbf{y}_{\mathrm{d}}}, \mathbf{m}_{\mathbf{y}_{\mathrm{d}}}, \mathbf{L}_{\mathbf{y}_{\mathrm{d}}}$ を推定する.収束判定は,perplexity,および, $\phi_{k}$ の語彙確率の大小関係が一定になることによる.
1. 食感表現の潜在トピック $z_{d_{n}}$
$
\begin{aligned}
& p\left(z_{d_{n}}=k \mid \mathbf{W}, \mathbf{Z}^{-\mathbf{d}_{\mathbf{n}}}, \alpha, \gamma, \mathbf{y}, \mathbf{g}, \mu, \boldsymbol{\Lambda}, \mu_{\mathbf{0}}^{\mathbf{g}}, \beta^{g}, v^{g}, \mathbf{S}^{\mathbf{g}}\right) \\
& \quad \propto\left(N_{d k}^{-d n}+M_{d k}+\alpha\right) \frac{N_{k, w_{d n}}^{-d n}+\gamma}{N_{k}^{-d n}+\gamma \mathbf{V}}
\end{aligned}
$
ここで,各変数は以下を意味する.
$N_{d k}, M_{d k}: d$ で $k$ に所属する食感表現語彙数および,凝固剤べクトルの数 $N_{k}: k$ に所属する食感表現語彙の数 $N_{d}, M_{d}: d$ の食感表現語彙の数,および凝固剤ベクトルの数 $(=1)$
$N_{k w}: k$ に所属する食感表現語彙別の数
$N_{d k}^{-d n}: d$ において,$d_{n}$ を除き $k$ に所属する
食感表現語彙の数 (以降,左上添え字“-”は同様な除外を意味する)
2. 凝固剤濃度の潜在トピック $y_{d}$
$
\begin{array}{r}
p\left(y_{d}=k \mid \mathbf{W}, \mathbf{Z}, \alpha, \gamma, \mathbf{y}^{-\mathbf{d}}, \mathbf{g}, \mu, \boldsymbol{\Lambda}, \mu_{\mathbf{0}}^{\mathbf{g}}, \beta^{g}, v^{g}, \mathbf{S}^{\mathbf{g}}\right) \\
\propto \frac{N_{d k}+M_{d k}^{-d}+\alpha_{k}}{N_{d}+M_{d}-1+\sum_{k} \alpha_{k}} \times \mathcal{N}\left(\mathbf{e}_{\mathbf{d}} \mid \mu_{\mathbf{y}_{\mathbf{d}}}, \mathbf{\Lambda}_{\mathbf{y}_{\mathbf{d}}}\right)
\end{array}
$
3. 凝固剤濃度のトピック別分布 $\mu_{\mathbf{y}_{\mathrm{d}}}, \boldsymbol{\Lambda}_{\mathbf{y}_{\mathrm{d}}}$
$
\begin{array}{r}
p\left(\mu_{\mathbf{k}}, \boldsymbol{\Lambda}_{\mathbf{k}} \mid \mathbf{y}, \mathbf{g}, \mu^{-\mathbf{k}}, \mathbf{\Lambda}^{-\mathbf{k}}, \mu_{\mathbf{0}}, \beta^{\mathbf{g}}, \nu^{\mathbf{g}}, \mathbf{S}^{\mathbf{g}}\right) \\
\propto \mathcal{N}\left(\mu_{\mathbf{k}} \mid \mu_{\mathbf{c}},\left(\beta^{\mathbf{g}} \boldsymbol{\Lambda}_{\mathbf{c}}\right)^{-\mathbf{1}}\right) \mathscr{W}\left(\boldsymbol{\Lambda}_{\mathbf{k}} \mid v_{c}^{g}, \mathbf{S}_{\mathbf{c}}^{\mathbf{g}}\right)
\end{array}
$
ここで,各変数は以下を意味する。
$
\left(\mathbf{S}_{\mathbf{c}}^{\mathbf{g}}\right)^{-1}=\left(\mathbf{S}^{\mathbf{g}}\right)^{-1}+\sum_{\mathbf{g}_{\mathbf{d} \in} \in \text { topic k }}\left(\mathbf{g}_{\mathbf{d}}-\overline{\mathbf{g}}\right)\left(\mathbf{x}_{\mathbf{d}}^{\mathbf{g}}-\overline{\mathbf{g}}\right)^{\mathbf{T}}+
$
$
\begin{aligned}
& \frac{N_{k} \beta g}{N_{k}+\beta^{g}}\left(\overline{\mathbf{g}}-\mu_{\mathbf{0}}\right)\left(\overline{\mathbf{g}}-\mu_{0}\right)^{\mathbf{T}} \\
& \overline{\mathbf{g}}=\frac{1}{N_{k}^{g}} \sum_{\mathbf{g}_{\mathbf{d}} \in \text { topick }} \mathbf{g}_{\mathbf{k}}, \mu_{\mathbf{c}}=\frac{N_{k}^{g} \overline{\mathbf{g}}+\beta^{g} \mu_{0}}{N_{k}^{g}+\beta^{g}}
\end{aligned}
$
$\boldsymbol{\Lambda}_{\mathbf{c}}=\left(N_{k}^{g}+\beta^{g}\right) \boldsymbol{\Lambda}_{\mathbf{k}}, v_{c}^{g}=v^{g}+N_{k}^{g}$
$\sum_{\mathbf{g}_{\mathbf{d}} \text { topic } \mathbf{k}}$ : topic $\mathbf{k}$ に所属する $\mathbf{g}_{\mathbf{d}}$ のレシピ数
4. エマルション濃度のトピック別分布 $\mathbf{m}_{\mathbf{y}_{\mathrm{d}}}, \mathbf{L}_{\mathbf{y}_{\mathbf{d}}}$
$
\begin{array}{r}
p\left(\mathbf{m}_{\mathbf{k}}, \mathbf{L}_{\mathbf{k}} \mid \mathbf{y}, \mathbf{e}, \mathbf{m}^{-\mathbf{k}}, \mathbf{L}^{-\mathbf{k}}, m_{0}, \beta^{\mathbf{e}}, v^{\mathbf{e}}, \mathbf{S}^{\mathbf{e}}\right) \\
\propto \mathcal{N}\left(\mathbf{m}_{\mathbf{k}} \mid m_{c},\left(\beta^{\mathbf{e}} \mathbf{L}_{\mathbf{c}}\right)^{-\mathbf{1}}\right) \mathscr{W}\left(\mathbf{L}_{\mathbf{k}} \mid v_{c}^{e}, \mathbf{S}_{\mathbf{c}}^{\mathbf{e}}\right)
\end{array}
$
ここで, $\left(\mathbf{S}_{\mathbf{c}}^{\mathbf{e}}\right)^{-1}$ は,式 (4)の $\left(\mathbf{S}_{\mathbf{c}}^{\mathbf{g}}\right)^{-1}$ で $g$ を $e$ とした式で表す.また, $\sum_{\mathbf{e}_{\mathrm{d}} \in t o p i c \mathbf{k}}=\sum_{\mathbf{g}_{\mathrm{d}} \in \text { topic } \mathbf{k}}$ である。
なお,食感表現のトピック別分布パラメータ $\phi_{k}$, およびレシピ毎のトピック分布パラメータ $\theta_{d}$ は,
表 1 調理科学の実証研究 [7-12]にもとづくゲルレシピの分析データ.
(a) ゲル素材の濃度別食感物性
(b) ゲル (ゼラチン)・エマルション混合レシピの食感物性. 機器固有の測定単位は Rheology Unit (RU) に統一した. (生ク=生クリーム)
& 砂糖 & I & & & 牛乳 & & \\
以下により求める.
$
\phi_{k v}=\frac{N_{k v}+\gamma}{N_{k}+\gamma V}, \quad \theta_{d k}=\frac{N_{d k}+M_{d k}}{N_{d}+M_{d}+\sum \alpha}
$
## 2.3 食感トピックと食感物性との対応推定
調理科学の食感物性実証での凝固剤濃度条件と,上記の凝固剤濃度トピックとの $\mathrm{KL}$ 情報量から,食感物性と食感表現トピックを対応付ける。なお,エマルション濃度のトピックは,対応を推定したトピック中での食感のバリエーションを分析する際に用いる。詳細は,分析結果と評価にて述べる.
## 3 データ
## 3.1 ゲルレシピの収集
レシピ投稿サイト $\mathrm{Cookpad}^{3)}$ より,タイトル,要約,および作り手によるレビュー(つくれぽ)に食感固有表現が出現するゲルレシピ約 10,000 件を抽出した. 更に, 3 種類の凝固剤のいずれかを含み, かつ材料リストの量表記に欠測等がないものを抽出した結果,対象データ数は約 3,000 となった.
図 2 食感物性測定機器の動作イメージ.
## 3.2 調理科学実証データの収集
材料と濃度の異なるゲルレシピに関する食感物性の測定結果を, 調理科学実証研究から抽出した [7-12]. 表 1(a) は, 3 種類の凝固剤について異なる濃度条件での測定結果を, 表 1(b) は, ゼラチンに異なる濃度のエマルションを混合した場合の測定結果である.いずれも材料濃度条件とそれに対応する食感物性值を示している。ここで物性値とは,人の咀嚼を模した測定器具 (図 2) により食品サンプルから検出される以下の 3 種類の応力(レオロジー)特徵量である。
硬さ: 1 回目の圧縮時に検出される最大応力 (図 2 の F1), 最初の咀嚼時に感じる硬さに相当する。
凝集性:1回目の圧縮時の総応力に対する 2 回目圧縮時の総応力の割合 (図 2 の $c / a$ ). 凝集性の小ささは,飲み込みやすさ,もろさに相当する。
粘着性: 1 回目の伸張時に検出される負の総応力 (図 $2 b$ ).
## 4 データ分析結果と評価
## 4.1 食感トピックと食感物性との対応推定
表 2 に食感表現トピック推定結果および,調理科学実証データ (表 1(a)(b)) との対応推定結果を示す.凝固剤,食感表現語彙は,それぞれ濃度,語彙分布確率の降順に小数点 3 位の値を持つものまで表記した. 各食感表現語彙には,日本語テクスチャー用語体系による類型を () 内に付記した。対応データ欄には,提案手法により対応付けた,表 1(a)(b) の各デー タ番号および料理名を示した.
例えば,トピック8の食感表現語彙は,変形しやすさを意味する “ふるふる”となっており,対応付けられたデータ 1,2 は比較的低濃度のゼラチンで,食感物性上の硬さは比較的小さい (表 1(a)),これに対して,トピック 3 では,“硬い”, “むちむち”のよう
表 2 食感表現トピックの検出結果と調理科学レシピとの対応
\\
図 3 ババロア・ミルクゼリー調理科学レシピと投稿レシピとのエマルション濃度別食感特徴
な噛みごたえに関する語彙および凝集の小ささを意味する“ぽってり”が上位に出現する.対応データ 3,4 は比較的高濃度のゼラチンで,食感物性上の硬さは比較的大きく,凝集性は比較的小さい (表 1(a)). このように食感トピックは,調理科学にもとづく食感物性特徴から整合的に説明できることを示している.
## 4.2 エマルション混合レシピの食感表現と 物性特徴
同一食感卜ピック 3 に所属するババロア,ミルクゼリーの調理科学データ (表 1(b)) の食感のバリエー ションの特徴を図 3 に示す.これは,トピック 3 に所属する 38 個のゲルレシピ (表 2 レシピ数)を,それぞれに出現する硬さ,および凝集を意味する語彙頻度をもとに平面上にプロットし,更にエマルション濃度のババロア,ミルクゼリーに対する類似度 (KL 情報量) で色分けしたものである.濃い赤色ほ
ど類似度が高いことを示す。ババロアと類似するゲルレシピは,より硬くかつ凝集性が高い領域に集中する一方,ミルクゼリーでは,硬いが,凝集性は平均的な領域に集中する. これらバリエーションの特徵は,ババロア,ミルクゼリーおよびレシピ 3 の物性特徴 (表 1)と一致性を示している。
## 5 結論
本研究では,レシピ共有サイトから推定した食感表現特徴が,材料物性からどのように説明できるかを分析するため,結合トピックモデルを用いてレシピ共有サイトの言語データと調理科学実証データとの架橋を試みた。推定結果は,食感表現トピックと,対応する食感物性特徴の一致性を示した。これは提案手法が,食感の言語表現から食感の物性の予測,もしくはその逆の予測を可能にすることを示している.
## 参考文献
[1] 早川文代, “現代日本人の食感表現,” 日本家政学会誌, Vol. 60, No. 1 pp.69-72 ,2009. Other Food Attributes," Food Technology, Vol.17, pp.74-77.1963.
[2] T.Farjamia, and A.Madadloub, "An overview on preparation of emulsion-filled gels and emulsion particulate gels," Trends in Food Science \& Technology, Vol.86, pp.8594,2019 .
[3] 川端晶子, 澤山茂, “低メトキシルペクチンを用いたババロアのテクスチャーについて," 栄養と食糧, Vol.27, pp.55-63,1974.
[4] D.Mimno, H.M.Wallach, J.Naradowsky, D.A.Smith, and A.McCallum, "Polylingual topic models," EMNLP '09, Vol.2, pp.880-889,2009.
[5] 茂木美智子, “ゼリー食品のテクスチャーについて,”調理科学, Vol.1, pp.28-35,1975.
[6] D.Mimno, H.M.Wallach, J.Naradowsky, D.A.Smith, and A.McCallum, "Polylingual topic models," EMNLP' 09, Vol.2, pp.880-889,2009.
[7] 鈴野弘子, 澤山茂, 川端晶子, “愛玉子ゲルのテクスチャープロフィル,”日本家政学会誌, Vol.43, pp.525-531,1992.
[8] F.Kawamura, and S.Takayanagi, "Properties of Gelatin Gel and Sol Mixed with Whipped Cream," Science of cookery, Vol.13, pp. 284-288,1980.
[9] 大村公仁子, 赤羽ひろ, 中浜信子, “寒天ゲルの破断特性について,”家政学会誌, Vol.29, pp.22-27,1978.
[10] 栗本公恵, 森高初惠, 藤井恵子, 大越ひろ, 中濱信
力学特性,” 日本家政学会誌, Vol.48, pp.885-892,1997
[11] 河村フジ子, 中島茂代, 幸野礼子, “エマルジョン混合ゼラチンゾルとゲルの特性について," 家政学会誌, Vol.29, pp.356-361,1978.
[12]村山篤子,“カラギーナンゼリー,”調理科学, Vol.25, pp.353-359,1992. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H11-4.pdf | # 広告文生成タスクの規定とベンチマーク構築
三田 雅人 $1 \quad$ 村上 聡一朗 1 張 培楠 $1^{1}$
1 株式会社サイバーエージェント
\{mita_masato,murakami_soichiro,zhang_peinan\}@cyberagent.co.jp
## 概要
人手による広告文制作の限界を背景に,広告文自動生成に関する研究が盛んに行われている. しかし,分野全体で享受できるベンチマークが存在しないことに加え,モデルの入出力を含め問題設定として十分に既定されていないため,既存研究は手法間の比較が困難な状況であった. そこで本研究では,広告文生成タスクの既定およびベンチマーク構築を行う.具体的には,まず広告文生成を応用横断的なタスクとして規定したうえで,広告文生成における初のベンチマーク CA Multimodal Evaluation for Ad Text GeneRAtion (CAMERA呈) を構築する。さらに,構築したベンチマークを用いた評価実験を通して,広告文生成の現状と今後の課題を示す.
## 1 はじめに
インターネット広告の需要拡大に伴い,人手による広告制作は限界を迎えつつある. 特に,検索クエリに関連する広告文を検索結果画面に提示する検索連動型広告(図 1)は,前年比約 $8 \%$ 前後で増加している膨大な検索クエリの対応に迫られているため,広告文制作の自動化が喫緊の課題となっている [1].
このような産業的な需要もあり, 広告文の自動生成に関する研究が盛んに取り組まれている [2]. 事前に定義したテンプレートに対して適切なキーワー ドを挿入することで広告文を生成するテンプレートに基づく手法 [3-5] に始まり,近年では機械翻訳や自動要約などで活用されているエンコーダ・デコー ダ型モデルを用いたニューラル言語生成に基づく手法 [6-8] など数多くの手法が提案されている.
一方で,広告文生成研究の評価には重大な課題が残っている. 英語や日本語など言語問わず分野全体が享受できる共通データセット(ベンチマーク)の欠如により, 既存研究はこれまで独自データを用いた個々の検証に留まっており,手法間の包括的な比較ができていない [2]. また, ベンチマークが存在
図 1 : 検索連動型広告の例.
しないゆえにモデルの入出力形式に関しても合意形成が取られていない。検索キーワードを入力に用い了研究 [9] もある一方で, 既存の広告文 [7] や広告文をクリックした遷移先のランディングページ(LP) などを大力に用いる研究 [8] も存在する.このことは,分野全体としてこれまで広告文生成の問題設定を十分に規定できていないことを示唆しており,べンチマークの欠如と併せて広告文生成技術の一般化の大きな妨げとなっている. ベンチマークの設計を通して問題を規定し,研究者間で共有できれば,手法を横並びに評価できる。その結果として,分野全体が取り組むべき本質的に重要な部分が明らかになり,技術の一般化が進むことが期待される.
そこで本研究では, 広告文生成の学術分野としてのさらなる発展を目指し, 広告文生成タスクの規定およびべンチマークの構築を行う,具体的には,まず広告の目的および要件を整理し,広告文生成 (Ad Text Generation)を応用横断的なタスクとして規定する.このとき,従来タスクとの違いや本タスク特有の課題を提示するとともに,研究題材としての学術的な意義について示す. 次に, 本研究では日本語における広告文生成ベンチマークのための共通データセット CA Multimodal Evaluation for Ad Text GeneRAtion (CAMERA元) を構築する ${ }^{1)}$ ,最後に,事前学習済みモデルの種類やマルチモーダル情報の使用有無といった観点で多様な複数の広告文生成モデルを用意し,構築したべンチマークを用いたベースライン実験を通して,提案ベンチマークの有用性および本タスクの現状と今後の課題を示す.
## 2 広告文生成タスクの規定
## 2.1 広告文の要件
広告の目的は,ある商材(取引の対象となる物品やサービス)があったとき,広告の受け手である消費者(ユーザ)の態度や行動に影響を与えることである。したがって,広告文生成の目的は,ユーザの購買行動を促す文を生成することになる。ここで,広告文とはどのような要件を満たしていれば広告文として成立するのだろうか. 本研究では,タスクを既定するにあたり, まず広告文の基本要件として次の2つを定めた:(1)商材内容と整合がとれている;
(2)商材内容からユーザの潜在的なニーズに応じて情報が取捨選択されている.
要件 1 は,広告制作現場で実運用するうえでは必要条件ともいえる。また,より具体的には 2 つに大別でき,(a)広告文が入力情報である商材内容に含意される場合は,忠実性 [10] の観点から整合がとれており,(b)入力情報に含意されない情報を含むが世界知識や常識的知識などの外部知識に基づいている場合は,事実性 [11] の観点から整合がとれている. 要件 2 について, 広告では限られたスペースで商材に関する特徴や魅力を短い文で表し, 即座にユーザの関心を惹き付けることも同時に要求される.このことから, 広告文は大力情報からユーザに訴求できる情報を取捨選択(情報圧縮)されている必要がある。
## 2.2 広告文生成タスク
2.1 節で整理した広告の目的および要件を踏まえ,広告文生成タスクを次のように定義する:
## タスク定義
商材に関する説明文書を $x 、$ 、ユーザの潜在的なニーズや関心を反映するユーザ信号を $\boldsymbol{a}$,広告文を $\boldsymbol{y}$ とする。このとき,広告文生成の目的は $p(y \mid a, x)$ をモデル化することである.
広告文生成タスクは,入力文書の内容との整合を保持しながら情報圧縮を行う点で,従来の文書要約タスクと関連が深く,特に文書要約の亜種であるクエリ重視要約(query-focused summarization) [12] とは入力にユーザからのクエリが用いられるために,問題設定として最も近いといえる. しかし,クエリ重視要約ではユーザが明示的に指定した特定のクエ
リ(顕在化されたニーズ)に対応する要約を返すのに対し,広告文生成ではユーザの潜在的なニーズに対応する必要がある点で異なる。ここで,広告文生成は広範囲な応用先を想定したタスクであるため, ユーザ信号 $\boldsymbol{a}$ は応用先,すなわち広告の形態に依存して変動することに注意されたい,例えば,検索連動型広告の場合はユーザ信号 $\boldsymbol{a}$ には,検索クエリやキーワードが考えられるが,ディスプレイ広告 ${ }^{2)}$ や $\mathrm{EC}$ 上の商品広告であれば,ユーザの購買履歴なども考えられる。
広告文生成特有の技術的な課題の一つは,このようなユーザ信号をもとにいかにユーザの潜在的なニーズを捉え,広告効果に繋がるような訴求性のある文を生成できるかであるが,広告効果は受け手であるユーザの心理的特性に大きく依存する。そのため,より高度な広告文生成の実現には,(究極的には)認知心理学や社会心理学を基礎とした広告心理学 [13] との接続も必要になってくるだろう. このように,広告文生成タスクは自然言語処理技術をよりユーザ中心にするためのよい題材の一つといえる.
## 3 広告文生成ベンチマークの構築
## 3.1 設計
本研究ではベンチマーク設計方針についてまず次の2つを定めた:(1)マルチモーダル情報が活用できる;(2)業種別に評価できる.1つ目の方針について,検索連動型広告を含め多くの広告形態では商材の特徴や訴求ポイントをユーザにより直感的に伝えるために,テキストだけでなくLP などの視覚情報を併せて用いている.また,LP と関連性の高い内容をユーザへ訴求することが,クリックを促す重要な役割を果たすと知られている。実際,広告文生成分野においても LP のレイアウト情報などを考慮することでモデルの生成品質が向上したという報告もある [14]. このように,広告文生成タスクにおいて,今後マルチモーダル情報の効果的な活用を探究することは重要である.
2 つ目の方針について,効果的な広告文を作成するためには具体的な訴求を入れることが重要であることが知られている。例えば,価格や割引などからお得感を訴求するには「送料無料」,「ポイント高還元!」のような訴求表現が用いられ,サービスや
2) Web サイトやアプリの広告枠にテキスト形式やバナー形式で表示される広告
図 2: データセット構築の流れ.
企業の実績を訴求したい場合は,「日本最大級の」,「売上 No.1」などの訴求表現が用いられる. ここで, どのような訴求表現(および訴求軸)を用いれば広告として効果的かは業種ごとに異なることが先行研究 [15] によって報告されている.そのため,より精緻な評価を実施し,頑健なモデルの開発を促進させるためにも業種別に評価できることは重要である.
## 3.2 データセット構築手順
データセット構築の流れを図 2 に示す. 元データとして,Web 上にある検索連動型広告を用いた。広告データには「(検索) キーワード」,「広告文」,「LP」 がそれぞれ付与されている。ここで,検索連動型広告は,広告見出しと説明文で構成される(図 1). 説明文では見出し文と比較して表示領域が広いため,訴求表現は含まれるものの一般的な自然文で書かれることも多い。一方で,見出し文は表示領域制限に加え,即時的にユーザの関心を惹き付ける役割を担っているため,人間が容認できる範囲で故意に文法を崩したり圧縮するなど広告特有の言い回しが多く含まれる。例えば,あるサービスにおける無料相談に関して訴求を行う場合,「簡単 30 秒!○○で無料相談」のような広告特有の表現が用いられる.このような一見非文にも思える広告特有の表現は人間の理解を妨げるどころか,注意を引く効果があることが広告心理学分野で報告されている [16]. 本研究では,より広告特有の言語現象に焦点をあてることのできるべンチマークとなるよう広告見出し文のみを広告文 $\boldsymbol{y}$ として抽出した。
次に,広告に紐づくLPから HTMLを解析し, Web ページの meta descriptionをその商材に関する説明文書(LPテキスト) $x$ として抽出した。また,設計方針 1 を踏まえ,マルチモーダル情報を活用できるようにするため,LP 全体のスクリーンショット処理を行い,LP 画像を取得した. さらにその LP 画像を用い, Cloud Vision API の OCR 機能 ${ }^{3}$ により, 矩形領域集合 $\boldsymbol{R}$ に対する画像 $\boldsymbol{I}$, レイアウト $\boldsymbol{C}$,テキスト $\left.\{x_{i}^{\text {ocr }}\right.\}_{i=1}^{|\boldsymbol{R}|}$ を取得した。
表 1: データセット統計量.
## 3.3 アノテーション
元データにはすでに運用実績のある広告文 (参照広告文)が 1 つ付与されているが,同一商材に対する妥当な広告文は本質的に多岐にわたると考えられる. そのため, 本研究では日本語母語話者,かつ広告アノテーションの専門家である 3 名のアノテー タにより,追加で 3 つの参照広告文を作成する。評価アノテーション用のデータを収集する際は,設計方針 2 を考慮して,事前に人手で業種ラベルと対応付けられたキーワードを用いて無作為抽出した. なお,本研究で使用した業種ラベルは,人材,EC,金融,教育の 4 種類である。次に,収集した広告デー 夕に対して,3名が独立的に編集し,各入力につき 3 つの参照を作成した ${ }^{4}$.
本研究で構築したデータセットの基本統計量を表 1 に示す. 本データセットは広告文生成のベンチマークを目的に開発しているため,予め訓練/開発/評価に分割しており,訓練(および開発セット)と評価セットの間でデータに重複がないようフィルタリング処理を行った,次に,データセットに含まれる入出力例を表 2 にそれぞれ示す。なお,本データセットには表 2 に記載の情報以外に,マルチモーダル情報(OCR データ・LP 画像)が付与されている.
## 4 実験
本節では,広告文生成の代表的なベースラインモデルを用意し,構築したベンチマークを用いた評価実験を通して,提案ベンチマークの有用性および広告文生成タスクの現状と今後の課題を示す.
## 4.1 実験設定
ベースラインモデル広告文自動生成分野で現在主流であるエンコーダ・デコーダ型モデルに基づく広告文生成モデルを構築した。まず事前学習済みモデルの種類の影響を調査するために, 2 つの異なるエンコーダ・デコーダ型の事前学習済みモデル(BART [17],T5 [18])に基づきベースライ
表 2: CAMERA データセットの基本入出力(評価データセットにおける実例).
表 3: 実験結果(太字の数値は各列における最高値を表す).
ンモデルを構築した. さらに,マルチモーダル情報の有用性を調査するため,村上ら [14] に従い, T5 に基づくモデルに対し,LP の画像情報を考慮した様々な設定を用意した。具体的には,LP の OCR 処理済みテキスト (lp_ocr;o),LPのレイアウト情報(lp_layout; l), LP の BBox 画像特徴量 (lp_visual;v)の 3 種類のマルチモーダル情報を素性として用いた。その他の詳細な実験設定は付録 C に記載する。
評価尺度生成文の品質を評価するために,生成文と参照文の N-gram の一致率に基づく BLEU(B-4) 5) [19] および ROUGE-1(R-1) [20]を使用した.さらに,LP と広告文の関連性を評価するために,指定キーワードが生成文に含まれる事例の割合を表すキーワード挿入率(Kwd)[7] を用いた。
## 4.2 結果
表 3 に実験結果を示す 6)。まず,事前学習済みモデルの種類の影響を確認するために,BART および T5 の性能に着目する。全体としては,B-4 では BART が,R-1 および Kwd では T5 が高い傾向にあることを確認した。一方で,業種別にみてみると,人材では B-4 および R-1 の両方で BART が T5 を上回るなど結果にばらつきが生じている.そのため,妥当な事前学習済みモデルの選択は一概に言えず,評価の目的に応じて適切に選択する必要がある.
次に,マルチモーダル情報の有用性について確認する。全体としては,OCR 処理済みテキスト(+
5) https://github.com/mjpost/sacrebleu
6)マルチリファレンス評価が一般的な BLEU のみ全 4 つの参照広告文を使用し,R-1および Kwd は元データに付与された運用実績のある参照広告文 1 つをそれぞれ用いて評価した。
\{o\})やLPのレイアウト情報(+ $\{0, l\} ) を$ 素性としてモデルに加えることで生成文の品質(B-4 および R-1)が改善することを確認した.しかし,業種別にみていくと,EC および金融における R-1 スコアにおいては LP の画像特徴量(+\{o,l,v $\} ) を$ 素性として加えることで性能がかえって悪化している.性能低下の要因として考えられるのは,LP 情報を活用することで一貫した性能向上を報告した先行研究 [14] では LP ファーストビュー7)のみ用いているのに対し,本研究では LP 全体を用いているため,LP の画像情報の一部がノイズとして機能してしまった可能性が考えられる。一方で,参照広告文の中には,LP ファーストビューの情報だけでは生成が難しい場合も存在する ${ }^{8)}$ 。そのため,今後の課題としては,LP 画像などマルチモーダル情報から重要な情報を適応的に取捨選択できるモデルの開発が期待される.
## 5 おわりに
本研究では,広告文生成を応用横断的なタスクとして既定し,初のベンチマークを構築した。さらに,構築したべンチマークを用いた評価実験により,広告文生成モデルの性能は業種毎に大きく変動すること,またマルチモーダル情報をいかに効果的に活用するかが今後の課題であることを示した.広告文生成は自然言語処理の有望な応用先の一つとしてだけでなく,自然言語処理技術をよりユーザ中心にするための重要かつ挑戦的な研究題材でもある.本研究が整備した研究基盤により, 広告文生成の研究開発が今後さらに促進されることを期待する.
7)LPをスクロールせずに最初に見える範囲
8)付録 Bにその実例を記載する。
## 謝辞
本研究のアノテーションを実施して頂いた,株式会社シーエー・アドバンスのアノテータ諸氏に感謝します.
## 参考文献
[1] Ogi Djuraskovic. Google search statistics and facts 2023 (you must know). Technical report, First Site Guide, 2022.
[2] 村上聡一朗, 星野翔, 張培楠. 広告文自動生成に関す了最近の研究動向. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 1P5GS601-1P5GS601, 2022.
[3] Kevin Bartz, Cory Barr, and Adil Aijaz. Natural language generation for sponsored-search advertisements. In Proceedings of the 9th ACM Conference on Electronic Commerce, EC '08, p. 1-9. Association for Computing Machinery, 2008.
[4] Atsushi Fujita, Katsuhiro Ikushima, Satoshi Sato, Ryo Kamite, Ko Ishiyama, and Osamu Tamachi. Automatic generation of listing ads by reusing promotional texts. In Proceedings of the 12th International Conference on Electronic Commerce: Roadmap for the Future of Electronic Business, ICEC '10, p. 179-188. Association for Computing Machinery, 2010.
[5] Stamatina Thomaidou, Ismini Lourentzou, Panagiotis Katsivelis-Perakis, and Michalis Vazirgiannis. Automated snippet generation for online advertising. CIKM '13, p. 1841-1844. Association for Computing Machinery, 2013.
[6] J. Weston Hughes, Keng-hao Chang, and Ruofei Zhang. Generating better search engine text advertisements with deep reinforcement learning. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '19, p. 2269-2277. Association for Computing Machinery, 2019.
[7] Shaunak Mishra, Manisha Verma, Yichao Zhou, Kapil Thadani, and Wei Wang. Learning to create better ads: Generation and ranking approaches for ad creative refinement. CIKM '20, p. 2653-2660. Association for Computing Machinery, 2020.
[8] Hidetaka Kamigaito, Peinan Zhang, Hiroya Takamura, and Manabu Okumura. An empirical study of generating texts for search engine advertising. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Industry Papers, pp. 255-262. Association for Computational Linguistics, 2021
[9] 福田宏幸. キーワード条件つき変分 autoencoder による広告文生成. 人工知能学会全国大会論文集, Vol. JSAI2019, pp. 2L4J903-2L4J903, 2019.
[10] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1906-1919. Association for Computational Linguistics, 2020.
[11] Artidoro Pagnoni, Vidhisha Balachandran, and Yulia
Tsvetkov. Understanding factuality in abstractive summarization with FRANK: A benchmark for factuality metrics. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4812-4829. Association for Computational Linguistics, 2021.
[12] Hoa Trang Dang. Overview of duc 2005. In Proceedings of the 2005 Document Understanding Conference, 2005.
[13] Walter Dill Scott. The theory of advertising. Small, Maynard and Company, 1903.
[14] 村上聡一朗, 星野翔, 張培楠, 上垣外英剛, 高村大也,奥村学. Lp-to-text: マルチモーダル広告文生成. 言語処理学会第 28 回年次大会, 2022 .
[15] Soichiro Murakami, Peinan Zhang, Sho Hoshino, Hidetaka Kamigaito, Hiroya Takamura, and Manabu Okumura. Aspect-based analysis of advertising appeals for search engine advertising. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Industry Track, pp. 69-78. Association for Computational Linguistics, 2022.
[16] Taifeng Wang, Jiang Bian, Shusen Liu, Yuyu Zhang, and Tie-Yan Liu. Psychological advertising: Exploring user psychology for click prediction in sponsored search. In Proceedings of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '13, p. 563-571. Association for Computing Machinery, 2013.
[17] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880. Association for Computational Linguistics, 2020.
[18] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. The Journal of Machine Learning Research, Vol. 21, No. 1, 2022.
[19] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Association for Computational Linguistics, 2002.
[20] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81. Association for Computational Linguistics, 2004.
[21] Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015), 2015.
## A アノテーションガイドライン
アノテータに与えた主要な指示は次の 3 点である:(1) 検索キーワードをユーザの意図として考慮;(2) LP に記載の商材内容と矛盾しないように広告文を作成;(3)広告文の長さは全角 15 文字以内 ${ }^{9 )}$.
## BLP 情報を考慮しないと生成が難しい例
表 4: LP を考慮しないと生成が難しい実例. 赤色下線部は LP 上段部(3a)に, 青色下線部は LP 中段部(3b) にそれぞれ対応した情報の記載がある。
(a) LP 上段部
(b) LP 中段部
## C ベースラインモデル実験設定
本実験で用いた広告文生成モデルは各事前学習済みモデルを CAMERA データの訓練セットを用いて finetuning を行うことで構築した。具体的には,BART に基づくベースラインモデル(以下,BART)は,京都大学が提供している日本語版 BART の事前学習済みモデル ${ }^{10)}$ における japanese_bart_base_2.0を,T5 に基づくベースラインモデル (以下,T5) は,村上ら [14] と同様に日本語版 T5 の事前学習済みモデル(sonoisa) 11)を使用した.次に,両モデルの学習時のハイパーパラメータを表 5 に示す. ここで,T5 における最大文長については,LPの BBox 画像特徴量を用いるモデル(+ $\{o, l, v\} )$ のみ 712 に設定し,それ以外のモデルは全て 512 に設定している。また,開発セットに対する loss が T5 に関しては 3epoch 連続,BART に関しては 5epoch 連続で劣化した場合には早期終了した.
表 5: モデル学習時のハイパーパラメータ
9) Google レスポンシブ広告の見出し文に関する規定(https://support.google.com/google-ads/answer/12437745)に従った.
10) https://github.com/utanaka2000/fairseq/tree/japanese_bart_pretrained_model
11) https://huggingface.co/sonoisa/t5-base-japanese | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H11-5.pdf | # 大規模言語モデルによる脚本データの解析: プロダクト・プレイスメント挿入箇所の探索と評価
山木良輔 1 楢木悠士 ${ }^{2}$ 長沼大樹 3,4
1 立命館大学 ${ }^{2}$ 早稲田大学 ${ }^{3}$ モントリオール大学 ${ }^{4}$ Mila
yamaki.ryosuke@em.ci.ritsumei.ac.jp yuji.1277@akane.waseda.jp
naganuma.hiroki@mila.quebec
## 概要
本研究では,プロダクト・プレイスメントの自動化を実現するための手法を提案する.映像作品の脚本を大規模言語モデルによって解析することによって,脚本中において顕在性が高い箇所及び商品が登場する箇所をプロダクト・プレイスメントを挿入可能なシーンとして抽出する.映画脚本における実験の結果より,我々の提案手法が脚本中における重要シーン及びプロダクト・プレイスメント挿入可能シーンを抽出可能であることが示された.
## 1 はじめに
プロダクト・プレイスメント (PPL: Product Placement) とは,ドラマ・映画等の劇中において, 飲食物・役者の小道具・背景として実在する企業ロゴや商品を露出する広告手法である. 通常の広告に比べ, 映像視聴者が無理に宣伝されているストレスを感じにくく宣伝効果が高いとされているほか [1], 「ブランド認知施策」として欧米や韓国の映像コンテンツで注目を集めており, 例えば, 米国の 2019 年の PPL 市場は 1 兆 2500 億円と報告されている [2]. また, PPL は $\mathrm{CM}$ と違い映像コンテンツが視聴可能な期間中は広告効果を発揮し続けるため, 今後も更なる市場価値向上が見込まれている [3].
PPL を映画やドラマの作品に挿入する際には, 担当者が脚本を人力で解析して, PPLを打診する必要がある.この脚本の人力による解析においては, PPL を可能なアイテムの抽出だけではなく, そのアイテムがどれだけ注目されるかを担当者の経験値をもとに評価し, PPL の打診を行う.このプロセスでは, 担当者が脚本を受け取ってから, 広告主に打診するまでに数ヶ月かかることがある.
本研究では, 上記の課題を昨今の大規模言語モデルを用いることで解決可能であるかを検証する. 具体的には, 事前学習済みの GPT-2 [4] によって計算されるエントロピーの情報を活用することで,脚本中において顕在性が高く,注目が集まりやすい箇所を評価する指標を複数提案し,また,GPT-3 [5, 6] が持つゼロショット学習能力を活用することで PPLを挿入可能な箇所の抽出を行った. 実在の映画脚本を用いた実験により,我々の提案手法を定性的に評価し,有効性を示す結果が得られた。
## 2 提案手法
本研究では GPT-2 [4] 及び GPT-3 [5, 6] を活用することで脚本中の顕在性・重要性の高い箇所及び PPL 挿入が可能な箇所の抽出を行う。
## 2.1 GPT-2 を用いた顕在性評価
まず,GPT-2を用いた手法に関して説明する.ここでは GPT-2 によって計算されるサブワードの出現確率の情報を活用した 2 つの手法を提案する.
## 2.1.1 サブワードの出現確率に基づくエントロピー本手法では事前学習済みの GPT-2を用いること で,脚本中の部分サブワード列に関してサブワード あたりの平均エントロピーを計算する。そして,エ ントロピーが高いサブワード列を脚本中において顕在性が高い箇所として評価する。これは,エントロ ピーが高くなるようなサブワード列,すなわち脚本中での表現は周りの文脈から予測することが比較的 に難しく,他の部分に比べて顕在性が高いという筆者らの仮説に基づく.
まず,脚本中において $i$ 番目に登場するサブワード $w_{i}$ が出現する確率は文脈情報 $c_{i}$ に条件付けられた確率 $P\left(w_{i} \mid c_{i}\right)$ で表され,この確率は広範なデータセットによって事前学習された大規模言語モデルである GPT-2 によって計算する. そして,$N$ 個のサブワードを含む部分サブワード列
$S_{i}=w_{i: i+N}=\left[w_{i}, \cdots, w_{i+N-1}\right]$ に関して,サブワードあたりの平均エントロピー $H\left(S_{i}\right)$ は次式で計算される.
$
H\left(S_{i}\right)=-\frac{1}{N} \sum_{j=0}^{N-1} \log P\left(w_{i+j} \mid c_{i+j}\right)
$
ここで,文脈情報 $c_{i+j}$ はハイパーパラメータ $M$ を用いて次の通りに定義する。
$
c_{i+j}=w_{i-M: i+j}=\left[w_{i-M}, \cdots, w_{i+j-1}\right]
$
以上の定式化に従って,GPT-2 によって計算されるサブワードあたりの平均エントロピー $H\left(S_{i}\right)$ が高い箇所を, 脚本中において顕在性が高い箇所として評価する。なお,ハイパーパラメータである $N, M$ は全ての実験において $, N=30, M=100$ に設定した.
## 2.1.2 エントロピーの比率
前節で説明した手法では,特定の表現に関するサブワードあたりの平均エントロピー $H\left(S_{i}\right)$ のみを顕在性の評価指標として用いる。これに対して,本手法では,特定の表現に関する顕在性の評価指標として,その表現に関するエントロピー $H\left(S_{i}\right)$ とその次に続く表現のエントロピー $H\left(S_{i+N}\right)$ の比率の情報を用いる。これは,局面の切り替わりを示す表現においては,その表現自身のエントロピーは高くなることが予想されるが,それに続く表現のエントロピー は低くなるという筆者らの仮説に基づく.
$i$ 番目の表現 $S_{i}$ とそれに続く表現 $S_{i+N}$ に関するエントロピー $H\left(S_{i}\right), H\left(S_{i+N}\right)$ の比率を次のように定義する.
$
R\left(S_{i}\right)=\frac{H\left(S_{i}\right)}{H\left(S_{i+N}\right)}
$
この比率 $R\left(S_{i}\right)$ を脚本中での表現 $S_{i}$ に関する顕在性の評価指標とし, この値が大きいほど顕在性が高い箇所として評価する。
## 2.2 GPT-3 を用いた PPL 可能箇所の抽出
次に,GPT-3 [5,6] を用いた手法に関して説明する. GPT-3 は約 1750 億個のパラメータから構成される大規模言語モデルである. GPT-3 は広範かつ膨大なデータセットから学習された結果として高い汎化性能を獲得しており, 文書生成, 翻訳, 要約などの広範な自然言語処理タスクを指示プロンプトによるゼロショット学習で実現可能なことが知られている. そこで, 本研究では GPT-3 のゼロショット学習能力を活用した PPL 挿入可能箇所の抽出手法を $2 \supset$提案する.
## 2.2.1 GPT-3 のゼロショット学習
本手法では,GPT-3 に対して,特定カテゴリの商品が登場する文を抽出することを指示するプロンプトと脚本の一部分を与えることで,脚本中において PPL が挿入可能な箇所を抽出する.例えば,飲料の PPL を挿入可能な箇所を検索する場合には, GPT-3 に対して “Select all of the following sentences that contain beverages" というプロンプトと脚本の一部分を入力することで,脚本中において飲料に関する表現が登場する文の抽出を行う。ただし,前章で説明した GPT-2を用いた顕在性の評価手法とは異なり,本手法は必ずしも脚本中における表現の顕在性の高さを考慮することはできない.
## 2.2.2 SimCSE によるテンプレートマッチング
GPT-3 と SimCSE [7] を用いた商品登場箇所の抽出方法を検討する.SimCSE は対照学習を用いた文ベクトル獲得手法であり,文の等価性を評価する Semantic Textual Similarity タスクにおいて高い性能を示した. SimCSEでは,同じ文で異なるDropout から得られる 2 つの文ベクトルを正例,異なる 2 文から得られる 2 つの文べクトルを負例として対照学習を行うものである. 我々は SimCSE を 2 文の類似度を測る手法として用いることで,脚本中において商品が登場する箇所の抽出を行う.
商品登場箇所の抽出方法は次の 2 段階に分かれる. (I) 商品登場箇所のテンプレート生成と (II) テンプレートに類似した箇所の探索である。まず (I)では GPT-3 を用いて,特定カテゴリの商品が登場するような自然な文(テンプレート)を複数生成する. 例えば,飲料が登場する文を生成する場合には, “Generate 50 sentences in which a beverage appears, as it would be in a movie scenario.” のようなプロンプトを GPT-3 に与えることで, “She nervously sipped her coffee as she waited for her date to arrive." といったテンプレートを複数生成する。そして (II)では,(I) で生成したテンプレートと SimCSE による類似度が高い箇所をシナリオ中から探索する. これによって商品が登場すると考えられる箇所をシナリオ中から抽出できる。また,本手法も前節で説明した GPT-3 によるゼロショット学習と同様に,必ずしも脚本中における表現の顕在性の高さを考慮することはできない。
## 3 実験
前章で説明した各手法による映画脚本の解析を行う。なお,実応用の場面では,様々なカテゴリの商品が PPL の対象となりうるが,本研究では評価の簡便性のために,対象となる商品カテゴリを飲料に限定する。
## 3.1 実験データ
著名なハリウッド映画の脚本 3 本を $\mathrm{IMSDb}^{1)}$ から取得し実験に用いた. 脚本の選定にあたっては,アクション・コメディ・ロマンスの 3 つの異なるジャンルから 1 作品づつを選定した.以下が実験に用いた作品の一覧である。括弧は抽出候補となる表現の総数 (シーン数に比例)を示す.
・アクション:Top Gun (899)
・コメディ : The Hangover (326)
・ロマンス:La La Land (833)
## 3.2 事前学習済みモデル
GPT-2 の事前学習済みモデルには Hugging Face [8] で公開されている gpt2-xlを用いた。また,GPT3 には OpenAI API によってアクセスし, 事前学習済みモデルには text-davinci-003を使用した.さらに,SimCSE の事前学習済みモデルには sup-simcse-roberta-large を使用した.
## 3.3 評価方法
各提案手法において脚本から重要箇所または PPL 挿入可能箇所として抽出された表現を定性的に評価する.それらの表現が登場する映画中でのシーンが映画全体の中でどのように重要な局面か,また,そのシーンにおいて PPLを挿入することが可能か否かに関して分析を行い,手法間での比較を行った。サブワードあたりの平均エントロピー及びその比率を評価する手法においては,計算された評価指標が上位 10 \%以内の表現を抽出し, 定性評価を行った。
## 4 結果
実験に用いた 3 作品の脚本に関して,4つの提案手法がそれぞれ抽出したシーンの一部を抜粋したものを表 1,2,3 に示す. 各表において,Entropy, Ratio, GPT-3, SimCSE はそれぞれ 2.1.1 節,2.1.2 節, 2.2.1 節,2.2.2 節で説明した各手法を表しており,
図1 LaLaLandにおけるエントロピーの推移 Entropy 及び Ratio の列に記載した括弧付き数字は各手法において抽出された表現の総数を表している.
また,La La Land の脚本におけるサブワードあたりの平均エントロピーの推移を図 1 に示す. なお, グラフ中でネが付されている部分は,表 3 に記載した各シーンに含まれる表現が脚本中において出現した箇所を示している.
## 5 考察
## 5.1 解析手法間の比較
ここでは,実験結果より確認された各解析手法の特徴に関する考察を述べる。まず,サブワードあたりの平均エントロピーを評価する手法 (Entropy) は脚本中における多くの重要シーンを抽出することに成功している。例えば,表 2 の 3 つ目のシーンのように,物語の重要な転換点となるシーンを抽出することができている.また,飲料に関する表現を抽出することを主たる方策とはしていないものの,抽出されたシーンの中には実際に飲料が登場したり,飲料を登場させることが可能なものが含まれており, PPL 挿入の観点からも妥当な結果が得られていることがわかる.
一方で,エントロピーの比率を評価する手法 (Ratio) は多くの場合において適切なシーンを抽出できないことがわかった. 本手法では,急激なエントロピー変化を捉えることはできるものの,図 1 及び表 3 に示した 1 つ目のシーンのように,あるシーンに含まれる表現のエントロピーが継続的に高い,すなわち顕在性が高い状態が続いているシーンに関しては,隣接する表現間のエントロピーの比率が小さくなるため,このようなシーンを抽出することはできない.
次に,GPT-3 のゼロショット学習を用いた手法では,飲料が登場するシーンを高精度で抽出可能であることがわかった。一方で,本手法では表現の顕在性を考慮しないため,物語全体の流れにおいて重要
表 1 Top Gun から抽出されたシーン
& (1) & $\times$ & $\times$ & 0 \\
表 2 The Hangover から抽出されたシーン
& $\bigcirc(1)$ & $\times$ & $\bigcirc$ & $\bigcirc$ \\
表 3 La La Land から抽出されたシーン
& $\bigcirc(5)$ & $\times$ & $\bigcirc$ & $\bigcirc$ \\
& & & & \\
ではないシーンも抽出される傾向がある. また,飲料が明示的に含まれていない表現であっても, 周囲の文脈を考慮した上でその表現を飲料に関するものとして抽出可能であることがわかった.
最後に SimCSE を用いたテンプレートマッチングによる手法は,GPT-3 による手法に比べて飲料に関する表現をより網羅的に抽出可能であることがわかった。すなわち,飲料に関する表現の抽出に関して,再現率は高いが適合率が低くなる傾向がある。 これは,実験時に設定した表現間の類似度に関する閾値に依存するため,実応用を考えた場合にはこれらのハイパーパラメータを慎重に設定する必要があると考えられる。また,SimCSEが参照するテンプレート表現に関しても,より表現の多様性を大きくするなど,さらなる改善が必要であると考えられる。
## 5.2 映画ジャンル間の比較
ここでは,映画のジャンルごとに抽出されたシー ンの比較及び考察に関して述べる。まず,Top Gun のようなアクション映画では,戦闘シーンなどの日常生活とは乘離の大きいシーンが脚本中に多く含まれているため, 他ジャンルの映画に比べて PPLを挿入可能なシーンが相対的に少ない. そのため, 顕在性に基づいて抽出されたシーンの中で PPL が挿入可能なものは限られていた。
一方で, The Hangover のようなコメディ映画及び La La Land のようなロマンス映画では日常的描写が脚本中に多く含まれているため,比較的多くの PPL 挿入可能箇所が抽出可能である.ただし,The Hangover の場合には,表 2 の 2つ目のシーンのように,実際の商品露出による広告効果の観点から,商品にネガティブな印象を与えかねないシーンが抽出されてしまう.このため,実応用を考えた場合にはシーンの顕在性評価と感情分析を組み合わせた形で用いることが望ましいと考えられる。
## 6 おわりに
本研究では PPL の自動化という目的に対して,大規模言語モデルを用いて映像作品の脚本から顕在性の高い箇所及び商品が登場する箇所を抽出する手法を複数提案し,実験及び評価を行った。実験結果より,提案手法は映画脚本から重要シーン及び PPL 挿入可能シーンを抽出可能であることが示された.
本研究で提案した各手法にはそれぞれの長所及び短所が存在することから,実応用に向けて,これらの手法を統合することでさらなる改善を行っていくことが今後の課題として挙げられる.
## 謝辞
本研究は, 2022 年度 NEDO Technology Commercialization Program の支援を受けたものである.
## 参考文献
[1] Cristel Antonia Russell. Expanding the agenda of research on product placement: A commercial intertext. Journal of Advertising, Vol. 48, No. 1, pp. 38-48, 2019.
[2] Hanna Górska-Warsewicz and Olena Kulykovets. Product placement as an effective tool for the brand positioning. Brand Management: Advancing Insights on, Vol. 21, 2017.
[3] A Kjaernested and TM Nielsen. Product placement in tv shows-assessing product placement effectiveness and the influence on brand equity. MSc Marketing communications Management MSc International Marketing and Management. Department of Marketing, CBS, 2012.
[4] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8 , p. 9, 2019.
[5] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 18771901, 2020.
[6] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Training language models to follow instructions with human feedback. arXiv preprint arXiv:2203.02155, 2022.
[7] Tianyu Gao, Xingcheng Yao, and Danqi Chen. Simcse: Simple contrastive learning of sentence embeddings. arXiv preprint arXiv:2104.08821, 2021.
[8] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H12-1.pdf | # 実世界における総合的参照解析を目的とした マルチモーダル対話データセットの構築
植田 暢大 ${ }^{1,2}$ 波部 英子 2 湯口 彰重 ${ }^{2,3}$ 河野 誠也 2 川西 康友 2,3 黒橋 禎夫 ${ }^{1,2}$ 吉野 幸一郎 2,3
1 京都大学 大学院情報学研究科 2 理化学研究所 ガーディアンロボットプロジェクト
3 奈良先端科学技術大学院大学 情報科学領域
\{ueda,kuro\}@nlp.ist.i.kyoto-u.ac.jp
\{hideko.habe, akishige.yuguchi, seiya.kawano\}@riken.jp
\{yasutomo.kawanishi,koichiro.yoshino\}@riken.jp
## 概要
実世界で話者同士が視覚情報を共有しながら行う対話では,物体に対する参照表現が多く出現する。 このような表現の参照先の解決のため, 本研究ではマルチモーダル参照解析タスクを提案し,本タスクのためのマルチモーダル対話データセットを構築する. 本データセットは実世界における対話動画および音声を基にしており,対話テキスト中のフレーズと一人称視点動画におけるフレーム内の物体領域が紐付けられている.この紐付けには同一のものを指す関係だけでなく,述語と項の関係や橋渡し照応関係も含まれる。
## 1 はじめに
実世界で人間と対話を通して協働するロボットの実現には,視覚的文脈を含めた人間の発話理解が不可欠である。例えば「そのコップを取って」という発話を例にとると,「コップ」のテキスト上の意味を理解するだけでは不十分であり,実世界において参照しているコップの実体を知ることが必須となる.このように,発話中の表現と参照関係を持っている実世界における物体を特定することは発話理解の基礎となる。
発話中の表現と視覚情報を紐付けた対話データセットとして SIMMC 2.0 [1] がある. SIMMC 2.0 は 1,566 枚の CG 画像と 11,244 の対話テキストに対してテキスト中の名詞句と参照先の画像中の物体を囲む矩形が紐付けられたデータセットである。規模は大きいものの, SIMMC 2.0 は話者の写っていない静止画に基づいており, 物体の移動や操作が視覚的に提示されていない。また,SIMMC 2.0 の参照関係は
図 1 マルチモーダル対話データセットの例. 物体領域 (橙色矩形),テキスト間照応関係(桃色吹き出し),テキスト・物体間参照関係(破線)が付与されている. 物体領域にはクラス名とインスタンス ID が付与されている.
テキストとして表出している名詞句にのみ付与されている。一方,日本語ではゼロ照応とよばれる参照元の表現が省略される現象が頻出する.例えば「そのコップを持ってきて」という発話では,持ってくる目的地にあたる二格の項が省略されている。このような省略された表現を SIMMC 2.0 は対象としていない.
本研究では,実世界での物体操作を伴う対話においてゼロ照応も総合的に扱うマルチモーダル参照解析を提案し,そのためのデータセットを構築する. データセット構築のため, まずクラウドソーシングで対話シナリオを収集する,続いて,収集したシナリオに沿って実世界で対話音声と対話動画を収録
する. 最後に,対話音声の書き起こしと対話動画のフレームに参照関係を付与する。具体的には図 1 の 「スポーツドリンク」のように,対話テキスト中の名詞句に対して参照している物体を囲む矩形(物体矩形)を紐付ける. 加えて本研究ではゼロ照応も扱うため,テキスト中に言及がない場合でもテキスト中の述語からそのガ格やヲ格に対応する物体を紐付ける.
データセットの評価のため,既存手法 [2] を用いて名詞句のグラウンディングタスクを解いた. 結果, 物体検出の再現率は 0.18 程度であり, 本デー タセットが非常に挑戦的であることが示された. 現在,収録済みデータは 24 対話,フルアノテーション済みデータは 7 対話にとどまるが,今後さらに拡張させる予定である.
## 2 マルチモーダル参照解析
本研究では,実世界での対話的協働を想定したマルチモーダル参照解析タスクを提案する. 本タスクでは,動画あるいは画像と,対応するテキストが入力として与えられる.そのとき,テキスト中の名詞や述語における参照関係を,参照先として動画や画像中の物体も含めて解析する。本タスクは,テキス卜間照応解析,物体検出,テキスト・物体間参照解析の 3 つのサブタスクから構成される.
テキスト間照応解析は,テキスト中の単語や句の間に存在する照応・共参照関係を解析するタスクである. 本研究では先行研究 $[3,4]$ にならい, 述語項構造, 共参照, 橋渡し照応関係を解析する. 述語項構造は述語を中心とし,その述語の「誰が」や「何を」に相当する項からなる関係である. 図 1 では 「飲む」と「置い」について述語項構造が示されている. 共参照関係は実世界において同一の実体を指し示す名詞間の関係である. 橋渡し照応関係はある名詞(照応詞)と,その必須的な意味を補完する異なる名詞(先行詞)との関係である.
物体検出は,画像中から参照されている物体が存在する領域を特定するタスクである。図 1 においては画像中の物体矩形を推定することに対応する.入力が動画の場合は動画中のそれぞれのフレームに対して同様の処理を行う.
テキスト・物体間参照解析は, テキスト間照応解析における照応・共参照の対象を物体検出によって特定された物体領域から選択するタスクである. 図 1 においては単語と物体矩形を結ぶエッジを推定する
ことに対応する.表現が直接参照している対象を画像中から検出するタスクは phrase grounding [2, 5] や referring expression comprehension [6] として知られるが,本研究では述語項構造や橋渡し照応など,ゼロ照応を含む間接的な関係も扱う。
## 3 マルチモーダル対話データセット
本研究では,マルチモーダル参照解析のためのマルチモーダル対話データセットを構築する.本デー タセットは,実世界における 2 者の対話シーンにおいて動画,音声を収録し,音声書き起こし,照応・参照関係アノテーションを付与したデータセットである. 対話内容は,人間とお手伝いロボットの対話を想定する.対話場面は,家庭内のリビングとダイニングを模した 2 種類である. 本節ではマルチモー ダル対話データセットの構築方法について順に述べる.
## 3.1 対話シナリオ収集
多様かつ現実的な対話シナリオを得るため,クラウドソーシングを利用してシナリオを収集した. クラウドソーシングタスクではワーカーに対話収録に使用する部屋の状況と使用可能な物体の写真を提示した.その上で,人間とロボットの発話およびその際の動作や場面状況を記述してもらった. 発話数は長すぎず,かつ対話が十分な文脈を持つよう 10-16 発話に制限した. 収集したシナリオを実行可能性,十分な頻度の参照表現,十分な粒度の場面状況説明,の 3 つの観点からフィルタリングし,残ったシナリオを自然な対話になるよう修正した. 付録 Aに修正後のシナリオの例を示す.
## 3.2 対話収録
収集したシナリオに基づいて実際に対話を行い, データを収録した.シナリオは人対ロボットを想定しているが,今回はロボット役も人間の演者に依頼した.演者にはできる限りシナリオを暗記してもらい,対話中の振る舞いが自然になるようにした。なお,データセットにおいては実際に行われた発話に対応するよう,アノテーションの際にシナリオを元に台詞を修正する。
収録はリビングとダイニングを模した設備が備え付けられた実験室で行った. 2 人の演者にはそれぞれピンマイクを付けてもらい,発話を録音した。口ボット役の演者には頭部にカメラを付けてもらい,
対話中の 1 人称視点動画を撮影した.さらに,実験室に定点カメラを 4 箇所設置し,部屋全体の様子を撮影した。
## 3.3 アノテーション
収録した対話音声と動画に対してマルチモーダル参照解析のためのアノテーションを行った. まず対話音声はテキストに書き起こし, 1 人称視点動画は 1 秒ごとにフレームを抽出し画像系列に変換した。以下では,テキスト間照応解析,物体検出,テキスト・物体間参照解析に対応するアノテーションをそれぞれテキスト間照応アノテーション,物体領域アノテーション,テキスト・物体間参照アノテーションとよぶ.
テキスト間照応アノテーション書き起こされた対話テキストに対して述語項構造・共参照・橋渡し照応関係を付与した. これらはテキストの結束性を構成するエンティティ間の重要な関係である [4]. アノテーションの基準は京都大学ウェブ文書リードコーパス $[7,8]$ に準拠した.
物体領域アノテーション動画から抽出された全フレームについて,物体に物体矩形を付与した。また,それぞれの物体矩形に対して物体のクラス名およびインスタンス IDを付与した. クラス名は物体認識タスクにおいて広く利用される LVIS データセット [9] に定義されている 1,203 のクラスを使用した. アノテーションコストを減らすため, 付与対象の物体はゼロ照応も含め対話中で参照された物体に限定した. また, 一般物体認識器 Detic [10] の学習済みモデル ${ }^{1)}$ と複数物体追跡器 SORT [11] を使用してシルバーアノテーションを事前付与し, 手作業で修正した。
テキスト・物体間参照アノテーションテキスト中の (1) 名詞句および (2) 述語と, 画像中の物体矩形のすべての組み合わせについて参照関係を付与した. (1) 名詞句については, 直接参照している物体および橋渡し照応関係にある物体に矩形を付与した. (2) 述語についてはその項に対応する物体矩形を格ごとに付与した。
テキスト・物体間参照アノテーションは付与対象の関係が非常に多くなる。しかし,付与済みのテキスト間照応・共参照関係とインスタンス IDを利用することで大部分のアノテーションを省くこ
表 1 言語アノテーションの統計情報(24 対話).
表 2 画像アノテーションの統計情報(12 対話).
表 3 物体矩形と名詞句・述語の関係数の統計(7 対話). $\Gamma=」$ は直接の参照関係を表す.
とができる。例えば,ある動画フレーム中の「コップ」に対して参照関係を付与した場合を考える.このとき,別フレームに同じインスタンス IDを持つ 「コップ」が出現したとしても自動的に参照関係を付与できる.
実世界対話における特有の現象として「ここ」や 「あそこ」など,場所を指す指示代名詞の使用が挙げられる.指し示された場所の特定は,人間との協働において不可欠である. 本研究では,このような名詞を領域参照表現とよび,テキスト・物体間参照アノテーションにおいて対応する領域を付与する.この領域は物体領域とは異なり矩形が一意に定まらないため,その位置・大きさはアノテータの主観に依存する。そのため,特殊なクラス名である「region」 を付与し,特殊な物体矩形として扱い,他の物体矩形とは区別する.
表 $1,2,3$ にそれぞれアノテーション済みの対話における統計情報を示す. テキスト・画像の両モダリティにおいて十分な参照関係が存在することが分かる. 付録 A にデータセットに含まれる対話数を示す.
## 4 実験
物体検出とテキスト・物体間参照解析は phrase grounding をサブタスクとして含む. 本節では既存の phrase grounding モデルを使用した本タスクの難しさを評価する実験について述べる. 述語項構造や橋渡し照応に対応する間接的な関係はモデルの性質上扱わない。
## 4.1 タスク設定
phrase grounding は,テキストと画像が与えられたときテキスト中のフレーズに対応する画像中の物体矩形を推定するタスクである $[2,5]$. マルチモーダル対話データセットは画像ではなく動画を元にした画像系列から構成される. すなわち,1 フレーズについてグラウンディング対象の画像が複数存在する. 本実験では,簡単のためフレーズが含まれる発話区間内の画像に限定する。
## 4.2 実験設定
phrase grounding モデルとして MDETR [2]を使用した. MDETR は Transformer アーキテクチャ [12] をべースとした, 物体検出と phrase grounding を end-to-end で行うモデルである. MDETR は学習済みモデル ${ }^{2}$ が公開されているが,英語テキストで学習されたモデルであるため直接利用できない.そこで我々は,Flickr30k Entities JP データセット [13]を使用してこのモデルを fine-tuning した. このデータセットは phrase grounding において標準的に使用される Flickr30k Entities データセット [14]を日本語に翻訳したものである. なお,マルチモーダル対話データセットは規模が小さいため fine-tuning には使用しなかった.
評価指標は Recall@ $k$ を使用した.MDETR は,それぞれのフレーズについて複数の物体矩形とその予測確率を出力する. Recall@ $k$ は正解の物体矩形のうち, 出力された予測確率上位 $k$ 件の物体矩形に含まれるものの割合である. ここで, 先行研究 [2] にならい予測された物体矩形が正解の物体矩形と 0.5 以上の Intersection-over-Union (IoU) を持つ場合に両者が一致すると判断した.
表 4 phrase grounding モデルの精度.
図 2 「こちらに捨てておきますね。」という発話に対する phrase grounding モデルの解析例. 黄色の物体矩形が正解データを表し,それ以外はシステムの出力である. システム出力にはシステムの予測確率が記載されている.
## 4.3 実験結果
実験結果を表 4 に示す. Flickr30k Entities JP で評価した場合に比べ,マルチモーダル対話データセットにおけるRecall@ $k$ のスコアは大幅に低い.このことから,既存手法では本タスクを解くことが難しいことが分かる.
図 2 にマルチモーダル対話データセットにおける解析例を示す.「コップ」や「ペットボトル」など具体的な物体名については正しく解析できた事例が多かったが,図に示した「こちら」等の曖昧な表現については正しい事例が少なかった。これは Flickr30k Entities データセットに出現する物体名の多くが具体的であるためと考えられる。
## 5 おわりに
本研究では,実世界において人間と対話しつつ協働するロボットの実現を目指し,テキスト・画像のマルチモーダル参照解析タスクを提案した. さらに,本タスクを解くためのマルチモーダル対話デー タセットを構築した. 本データセットは実世界における実際の対話を基に作成されており,より実用的な発話理解システムの実現に役立つと期待される.今後は,データセットの拡張と並行して,本タスクのための解析モデルに取り組む.
## 謝辞
本研究は,京都大学科学技術イノベーション創出フェローシップ事業の助成を受けたものである.本研究の一部は JSPS 科研費 22 H03654 の支援を受けたものである.
## 参考文献
[1] Satwik Kottur, Seungwhan Moon, Alborz Geramifard, and Babak Damavandi. SIMMC 2.0: A task-oriented dialog dataset for immersive multimodal conversations. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 4903-4912, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[2] Aishwarya Kamath, Mannat Singh, Yann LeCun, Gabriel Synnaeve, Ishan Misra, and Nicolas Carion. Mdetrmodulated detection for end-to-end multi-modal understanding. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 17801790, 2021.
[3] Masato Umakoshi, Yugo Murawaki, and Sadao Kurohashi. Japanese zero anaphora resolution can benefit from parallel texts through neural transfer learning. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1920-1934, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[4] Nobuhiro Ueda, Daisuke Kawahara, and Sadao Kurohashi. BERT-based cohesion analysis of Japanese texts. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1323-1333, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics.
[5] Tanmay Gupta, Arash Vahdat, Gal Chechik, Xiaodong Yang, Jan Kautz, and Derek Hoiem. Contrastive learning for weakly supervised phrase grounding. In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Computer Vision - ECCV 2020, pp. 752-768, Cham, 2020. Springer International Publishing.
[6] Yanyuan Qiao, Chaorui Deng, and Qi Wu. Referring expression comprehension: A survey of methods and datasets. IEEE Transactions on Multimedia, Vol. 23, pp. 4426-4440, 2020.
[7] 萩行正嗣, 河原大輔, 黒橋禎夫. 多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析. 自然言語処理, Vol. 21, No. 2, pp. 213-248, 2014.4.
[8] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26th Pacific Asia Conference on Language, Information and Computation (PACLIC), pp. 535-544, 2012.
[9] Agrim Gupta, Piotr Dollar, and Ross Girshick. LVIS: A dataset for large vocabulary instance segmentation. In Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition, 2019.
[10] Xingyi Zhou, Rohit Girdhar, Armand Joulin, Philipp Krähenbühl, and Ishan Misra. Detecting twenty-thousand classes using image-level supervision. In Shai Avidan, Gabriel Brostow, Moustapha Cissé, Giovanni Maria Farinella, and Tal Hassner, editors, Computer Vision ECCV 2022, pp. 350-368, Cham, 2022. Springer Nature Switzerland.
[11] Alex Bewley, Zongyuan Ge, Lionel Ott, Fabio Ramos, and Ben Upcroft. Simple online and realtime tracking. In 2016 IEEE International Conference on Image Processing (ICIP), pp. 3464-3468, 2016.
[12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS2017, pp. 5998-6008. 2017.
[13] Hideki Nakayama, Akihiro Tamura, and Takashi Ninomiya. A visually-grounded parallel corpus with phraseto-region linking. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 4204-4210, Marseille, France, May 2020. European Language Resources Association.
[14] Bryan A. Plummer, Liwei Wang, Christopher M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30k entities: Collecting region-tophrase correspondences for richer image-to-sentence models. IJCV, Vol. 123, No. 1, pp. 74-93, 2017.
## 付録
表 5 収集したシナリオの例. 括弧内は場面状況であり台詞としては使用しない.
& \\
表 6 データセットに含まれる対話数.
## A データセットの詳細
表 5 に収集した対話シナリオの例を示す。括弧内のテキストは場面状況を表す。括弧外の発話には「あそこ」や「それ」などの参照表現が含まれ,視覚情報も含めなければ理解が困難な対話になっている.
表 6 に現在のデータセットに含まれる対話数を示す. 将来的にはシナリオ数も含め,さらに拡張する予定である. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H12-2.pdf | # 実世界のマルチモーダル情報に基づく 指示語を含んだ言語指示の外部照応解析
大山瑛 ${ }^{1}$ 長谷川翔一 ${ }^{1}$ 中川光 ${ }^{1}$ 谷口彰 ${ }^{1}$ 萩原良信 $^{1}$ 谷口忠大 ${ }^{1}$
1 立命館大学
}
\{oyama.akira, hasegawa.shoichi, nakagawa.hikaru\}@em.ci.ritsumei.ac.jp
\{a.taniguchi,yhagiwara, taniguchi\}@em.ci.ritsumei.ac.jp
## 概要
ロボットが家庭環境で生活支援を提供するには,指示語を含む曖昧な言語指示から対象を特定する外部照応解析が重要になる。内部照応解析と異なり外部照応解析はテキスト外の情報を求めるため実世界の情報を総合的に用いて曖昧性を解消することが重要になる. 本研究では, 実世界のマルチモーダル情報を用いた外部照応により,指示語を含む言語指示における曖昧性の解消を目指す. 具体的には,物体カテゴリ,指示語,指差しの 3 つの情報とロボットが事前に環境を探索して得た物体知識を用いて外部照応を行う.家庭環境を模したフィールドにおいて,ユーザが指示した物体を特定するタスクを実施し, 複数の条件において物体特定の精度を評価した.この結果, 提案手法は複数のモダリティ情報を用いた外部照応により, ベースライン手法よりも高い精度で物体が特定できる事が明らかになった。
## 1 はじめに
「あれ取って」などのユーザの曖昧な言語指示を現場環境の情報に基づいて理解し,具体的なタスクを達成する事は, 生活支援ロボットにおいて重要な課題である [1]. 従来,自然言語処理の分野において照応解析の研究が実施されているが,その多くは言語情報のみを文脈として扱っている [2-4]. 照応解析とは代名詞や指示語のような照応詞の指示対象を推定することであり,内部照応と外部照応の 2 種類がある. 内部照応は文章中の照応詞の前後の文章からその照応詞にあたる語を予測することである.一方,外部照応はその場の環境のものから照応詞に対応するものを予測することである.答えや手掛かりが文章中にある問題の場合は内部照応により解決できるが,「あれ取って」などの指示語を含んだ
図1 本研究の概要図. ユーザからの曖昧な言語指示と環境内を事前に探索して得た情報からユーザが指示した物体を特定する.緑色の円はユーザが指示した物体が存在する確率が高い領域を表す。この場合は赤い四角で囲まれたコーヒーを指示物体として特定した。
言語指示を理解するには,言語以外の情報を参照する外部照応を解く必要がある [5]. また,指示語を含んだ言語指示では,指差しなどのジェスチャーも重要な情報となり, ジェスチャー情報に基づいて対象を推定する研究が報告されている [6-9]. Chen らは,画像と言語の大規模データセットから対象を特定する深層学習モデルを提案したが,画像内にユー ザと対象物体が含まれる制約がある [9]. Hu らは,物体と言語,指差し情報から空間における対象の位置を推定する手法を提案したが,指示語の情報は推定に用いられていない [7].
本研究では,実世界のマルチモーダル情報を外的な文脈として用いて,指示語を含んだ言語指示の外部照応解析の実現を目指す. 具体的には,物体カテゴリ,指示語,指差しの 3 つの情報を用いた外部照応解析により,指示語の指示対象における曖昧性を解消する手法を提案する. 図 1 に本研究の概要図を示す.ここで,物体カテゴリ情報は言語情報内の物
図 2 提案手法の概要図. 矢印の色はロボットのセンサ情報の流れを表す。青色矢印はロボットが家庭環境の事前探索により収集した情報,赤色矢印は言語情報,緑色矢印は視覚情報である。 $\boldsymbol{O}$ は物体の 3 次元位置, $\boldsymbol{P}_{\boldsymbol{O}}$ は各物体の信頼度スコア, $\boldsymbol{e}$ はユーザの目の 3 次元位置, $\boldsymbol{w}$ はユーザの手首の 3 次元位置, $\boldsymbol{P}_{\mathbf{1}}, \boldsymbol{P}_{2}, \boldsymbol{P}_{\mathbf{3}}$ は各推定器から出力される確率である。ロボットは環境で事前に観測した情報と指示語情報,物体カテゴリ情報,指差し情報を用いて 3 種類の推定器からそれぞれ確率を得て,それらを乗算することで目標物体を推定する.
表 1 指示語領域の予測に用いられる変数の定義
体カテゴリを表す語,指示語情報は言語情報内の指示語を表す語とする。例えば,図 1 のように“あのペットボトル取って”という発話がされた時,“ペットボトル”が物体カテゴリ情報,“あの”が指示語情報に該当する.また,指差し情報はユーザが指をさしている画像とする.実験では,指示語を含む言語命令から目標物体を特定するタスクを複数の条件で実施し,物体特定の精度をべースライン手法 [7,9] と比較し,提案手法の特性と課題を明らかにする。
## 2 提案手法
本研究では指示語情報,物体カテゴリ情報,指差し情報の 3 種類の外部照応情報からユーザがロボットに指示した物体を特定する手法を提案する。提案手法の概要図を図 2 に示す. 提案手法ではロボットの事前探索で収集した情報と外部照応情報を 3 種類の推定器に入力する. 各推定器は, 全ての候補物体についてその物体が指示対象である確率を推定する. ここで各推定器が出力した候補物体毎の確率を対象確率と呼ぶこととする.
図 3 ガウス分布による指示語領域の表現の例. Hの白丸はユーザ,R の黒丸はロボットであり,矢印はそれぞれの向きを表す.赤い領域がコ系列,青い領域がソ系列,緑色の領域がア系列の指示語領域を表す.
## 2.1 指示語領域に基づく確率推定器
指示語領域に基づく確率推定器は指示語情報,ロボットが事前に環境内を探索して得た 2 次元占有格子地図と候補物体の 3 次元位置, 指差し情報から得たユーザの体の部位の 3 次元位置の 4 つの情報を入力として対象確率を出力する. 対象確率を出力するために,図 3 のように指示語の系列毎にユーザが指示した物体が存在する可能性の高い領域を 2 次元占有格子地図上で予測する。ここで,物体が存在する可能性の高い領域を指示語領域と呼ぶ。また,候補物体の 3 次元位置とユーザの体の部位の 3 次元位置は地図の座標系における位置情報である。
各指示語系列にはそれぞれ異なる性質があり,コ系列は話し手から近い物体や人を参照する場合,ソ系列は聞き手から近い物体や人を参照する場合,ア系列は話し手からも聞き手からも遠い物体や人を参照する場合にそれぞれ用いられる. 本研究では各系列の性質を用いて 3 次元ガウス分布によって指示語領域を生成する. 指示語領域を生成する際にユーザやロボットの位置,指差しの方向なども考慮する必要がある. 指差し情報からユーザの体の座標を予測する方法については 2.3 節で述べる. 指示語領域に基づく確率推定器は指示語領域を生成する 3 次元ガウス分布に各候補物体の 3 次元位置情報を入力し,得られた確率を対象確率として出力する. 指示語領域の予測に必要な変数を表 1 に示す. 各系列の指示語領域を形成する 3 次元ガウス分布の平均と分散共分散行列の定義を図 3 の下の表に示す. 各パラメー タの設計指針は以下である。(詳細は付録 $\mathrm{A}$ 参照)
・コ系列の平均:ユーザに近い手首の座標
・ソ系列の平均:ロボットに近いユーザとロボットの内分点の座標
・ア系列の平均:ユーザから遠い指差しベクトルの延長線上の座標
・各系列の分散:ユーザまたはロボットの位置と指示語領域の平均の座標との距離に比例する値また,ユーザの手首や目の位置情報を得ることができなかった場合は,両肩の中央の座標などの代わりとなる位置情報を推定器に与える。
## 2.2 物体カテゴリに基づく確率推定器
物体カテゴリに基づく確率推定器は,物体カテゴリ情報とロボットが事前に探索して得た候補物体のカテゴリ確率を入力とし, 対象確率を出力する.対象確率を予測するために Objects365 [10] で事前学習済みの You Only Look Once version 5 (YOLOv5) [11] を物体検出器として用いる. YOLOv5を用いて事前に候補物体全てを検出し, 各候補物体が属する物体カテゴリの信頼度スコアを計算する.各候補物体の物体カテゴリ情報に対応する信頼度スコアを正規化したものを対象確率とする。
## 2.3 指差し方向に基づく確率推定器
指差し方向に基づく確率推定器は,指差し情報から骨格検出をすることで得たユーザの体の部位の 3 次元位置とロボットが事前に環境内を探索して得た候補物体の 3 次元位置を入力とし, 対象確率を出力する。骨格検出には MediaPipe [12] を用いる. 対象確率を予測するために,ユーザの目を始点とし,手首を終点とする指差しべクトルとユーザの目から各候補物体へのベクトルの 2 種類のベクトルを使用し,内積の定義式から 2 つのベクトルのなす角 $\theta$ を得る.ここで得た $\theta$ を用いて,確率変数に角度を用いる 2 次元フォンミーゼス分布から確率を得る. 指差し方向に基づく確率推定器はフォンミーゼス分布によって得た確率を対象確率として出力する.
## 3 実験
実験では物体カテゴリ情報,指示語情報,指差し情報の 3 種類の外部照応情報を用いて,ユーザが指示した物体をどの程度の精度で特定することができるか検証した.また外部照応情報の内,どの情報がどの程度外部照応に寄与するかを検証した。
## 3.1 実験条件
実験は家庭環境を模した実環境で行った. 本実験の環境の家具配置,物体配置,指差しを行う際の人とロボットの位置を予め設定し,実験を行った.実験環境の詳細な図は付録 B に記述した。また,口ボットには Human Support Robot (HSR) [13] を用いた、ロボットはユーザからの言語による指示を正確に認識でき,指示文から物体カテゴリ情報と指示語情報を正確に抽出することができると仮定する。
実験では 4 カテゴリの物体を使用し, “Bottle”, "Book", "Stuffed Toy", “Cup”を 1 カテゴリ 5 物体,計 20 物体をユーザが指示する物体とした。これらのカテゴリは Objects365 [10] に基づいて,筆者が一般的な家庭環境にあると考えられる物体を選択した。
## 3.2 検証方法
実験では 2 種類の検証を行い,提案手法の有効性を確認した,1つ目は,ベースライン手法と提案手法を比較した. 実験データには,外部照応情報が全て含まれた場合, 3 種類の情報の内いずれかの情報が欠けた場合,指差し情報を誤って得た場合の 5 種類を用いた.外部照応情報が全て含まれた場合は図 4 において各地点で 4 データ, 計 40 データ用意し,物体カテゴリ情報が欠けた場合と指示語情報が久けた場合は 40 データからそれぞれの情報を削除したものを用いた.また,指差し情報が欠けた場合と指差し情報を誤って得た場合は新たに 10 データ
ベースライン手法と提案手法における指示物体の特定精度の比較.()内は分数表示. 太字は条件での最大值.
表 3 提案手法におけるアブレーションスタディの実験結果. チェックマークは確率推定器有りを示す.
ずつ用意した. 指差し情報を誤って得た場合はユー ザの体をユーザ自身が隠してしまう自己オクルー ジョンが発生した際などで得られる. 2 つ目は,提案手法の中でどの情報が外部照応にどの程度寄与するかを検証するために,アブレーションスタディを行った. 3 種類の推定器の内, 1 種類の推定器を削除した場合の 3 パターン,全ての推定器を用いたパターンの計 4 パターンを比較した.
実験ではベースライン手法を 2 種類設定した. 1 つ目は $\mathrm{Hu}$ らの研究 [7] を参考に,ユーザの指差しと物体カテゴリ情報を用いた手法を設定した. 基本的には,Huらの手法における目標領域を推測する手順と同じである.異なる点は,言語情報内に物体力テゴリ情報がない時は対象とする全ての物体で候補集合を作る点と,ユーザの指差しを観測できなかった場合は候補集合の中から目標物体をランダムに選択する点である. 2 つ目は Chen らの研究 [9] のモデルを用いた。このモデルにユーザが指差しを行っている画像, 指示語情報と物体カテゴリ情報を含んだ文を大力し, 得られた矩形領域から目標物体の予測が成功しているかを判断した。
評価指標は,ユーザが指示した物体をロボットが正しく特定できたかの精度である. 精度は $\frac{1}{N} \sum_{i=1}^{N} S_{i}$ で計算される. $N$ は試行回数, $S_{i}$ は $i$ 番目の試行が成功すれば 1 ,失敗すれば 0 が入力される.
## 4 実験結果
表 2 にベースライン手法と提案手法の比較を示す.まず Voice-Guided Pointing Robot Navigation for
Humans (VGPN) [7] に基づくベースライン手法と提案手法を比較した. 外部照応情報が全て含まれた場合は同じ場所に同じカテゴリの物体が 2 つ以上ないため, 両手法とも精度が 1.00 となったが,物体カテゴリ情報が欠損した場合と指差し情報が欠損した場合に精度に約 2 3 倍の差が見られた。また,指示語を考慮する提案手法において指示語情報が欠損した場合でも 0.85 という結果を示した.これらの結果より, 提案手法は 3 種類の外部照応情報の内 1 つが欠損した場合でも互いに補い,目標物体を予測できたと推察される。次に,YouRefIt [9] で用いられたフレームワークと提案手法を比較した. YouRefIt で用いられたフレームワークは画像内に目標物体がなければ正しく予測ができないため全体的に精度が低くなり,提案手法が上回る結果となった。
次に表 3 にアブレーションスタディの結果を示す. 物体カテゴリに基づく確率推定器を除いた場合,同じ場所に物体が複数配置される条件下では目標物体の特定は困難と考えられるが,0.53という精度を示した. この結果から, 残り 2 つの確率推定器により目標物体の候補を絞り込めたと考えられる。 また,指差し方向に基づく確率推定器を除いた時は精度が 1.00 となった. これは指示語領域に基づく確率推定器が指差し方向を考慮し, 目標物体が配置された領域を推定できたと考えられる.指差し方向に基づく確率推定器は同じ場所に同カテゴリの物体が 2 つ以上ある場合などに有効であると考えられる。
## 5 まとめ
本稿ではマルチモーダル情報を外的な文脈として用いて外部照応解析を行うためのモデルを提案した. 物体カテゴリ情報, 指示語情報, 指差し情報を用い,外部照応を行うことで外部照応にこれらの情報が有効であることを示した.
今後の展望として,指示語領域を形成する 3 次元ガウス分布のデータからのパラメータ推定や,自然な文からの指示語や物体カテゴリに対応する語の認識に取り組む予定である。
## 謝辞
本研究は【Moonshot R\&D - MILLENNIA Program】課題番号 JPMJMS2011,JSPS 科研費 JP22K12212 の助成を受けたものです.
## 参考文献
[1] Tadahiro Taniguchi, Daichi Mochihashi, Takayuki Nagai, Satoru Uchida, Naoya Inoue, Ichiro Kobayashi, Tomoaki Nakamura, Yoshinobu Hagiwara, Naoto Iwahashi, and Tetsunari Inamura. Survey on frontiers of language and robotics. Advanced Robotics, Vol. 33, No. 15-16, pp. 700-730, 2019.
[2] 村田真樹, 黒橋禎夫, 長尾真. 表層表現を手がかりとした日本語名詞句の指示性と数の推定. 自然言語処理, Vol. 3, No. 4, pp. 31-48, 1996.
[3] 関和広, 藤井敦, 石川徹也. 確率モデルを用いた日本語ゼロ代名詞の照応解析. 自然言語処理, Vol. 9, No. 3, pp. 63-85, 2002.
[4] 飯田龍, 乾健太郎, 松本裕治. 文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定. 情報処理学会論文誌, Vol. 45, No. 3, pp. 906-918, 2004
[5] 杉山治, 神田崇行, 今井倫太, 石黒浩, 萩田紀博, 安西祐一郎. コミュニケーションロボットのための指さしと指示語を用いた 3 段階注意誘導モデル. 日本ロボット学会誌, Vol. 24, No. 8, pp. 964-975, 2006.
[6] Dadhichi Shukla, Ozgur Erkent, and Justus Piater. Probabilistic Detection of Pointing Directions for HumanRobot Interaction. In International Conference on Digital Image Computing: Techniques and Applications (DICTA), pp. 1-8, 2015.
[7] Jun Hu, Zhongyu Jiang, Xionghao Ding, Taijiang Mu, and Peter Hall. VGPN: Voice-Guided Pointing Robot Navigation for Humans. In IEEE International Conference on Robotics and Biomimetics (ROBIO), pp. 1107-1112, 2018 .
[8] Qi Wu, Cheng-Ju Wu, Yixin Zhu, and Jungseock Joo. Communicative Learning with Natural Gestures for Embodied Navigation Agents with Human-in-the-Scene. In IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4095-4102, 2021.
[9] Yixin Chen, Qing Li, Deqian Kong, Yik Lun Kei, SongChun Zhu, Tao Gao, Yixin Zhu, and Siyuan Huang. YouRefIt: Embodied Reference Understanding with Language and Gesture. In IEEE/CVF International Conference on Computer Vision (ICCV), pp. 1385-1395, 2021.
[10] Shuai Shao, Zeming Li, Tianyuan Zhang, Chao Peng, Gang Yu, Xiangyu Zhang, Jing Li, and Jian Sun. Objects365: A Large-scale, High-quality Dataset for Object Detection. In IEEE/CVF International Conference on Computer Vision (ICCV), pp. 8430-8439, 2019.
[11] Joseph Redmon, Santosh Divvala, Ross Girshick, and Ali Farhadi. You Only Look Once: Unified, Real-Time Object Detection. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 779-788, 2016.
[12] Camillo Lugaresi, Jiuqiang Tang, Hadon Nash, Chris
McClanahan, Esha Uboweja, Michael Hays, Fan Zhang, Chuo-Ling Chang, Ming Guang Yong, Juhyun Lee, et al. Mediapipe: A Framework for Building Perception Pipelines. arXiv preprint arXiv:1906.08172, 2019.
[13] Takashi Yamamoto, Koji Terada, Akiyoshi Ochiai, Fuminori Saito, Yoshiaki Asahara, and Kazuto Murase. Development of Human Support Robot as the research platform of a domestic mobile manipulator. ROBOMECH journal, Vol. 6, No. 1, pp. 1-15, 2019.
A 各指示語系列の領域を形成するガウス分布の平均と分散の設定 A. 1 コ系列指示語領域のガウス分布の平均
コ系列の指示語は話し手から近い物体を参照する際に用いられるので,ユーザの手首の座標をガウス分布の平均とした. ガウス分布の平均を人の体の中心や足元の座標にせずに手首の座標を平均としたのは,ユーザの指示する方向を考慮するためである。
## A. 2 ソ系列指示語領域のガウス分布の 平均
ソ系列の指示語は聞き手から近い物体を参照する際に用いられるので,ロボットの足元とユーザの目をつなぐ線分を $\alpha:(1-\alpha)$ に内分する点の座標をガウス分布の平均とした. ロボットはユーザの体の部位の 3 次元座標を検出するために,ユーザの方向を向いているので,この内分点はロボットの向いている方向にあり, 平均がロボットの背後の位置になることはない. しかし,他人に物を取ってもらうことを考えたとき,頼んだものがその人の背後にあることよりもその人が見えていることの方が多いと考えられるので上記のようにガウス分布の平均を設定した.
## A. 3 ア系列指示語領域のガウス分布の 平均
ア系列の指示語は話し手からも聞き手からも遠い物体を参照する際に用いられるので,ユーザの指をさした方向にべクトルを $\mathrm{cl}$ だけ伸ばした先の点をガウス分布の平均とした。他人に物を取ってもらう場面を考えたとき,頼まれた人から遠すぎる物体はその人に頼まず,もっと近くにいる人に頼むなどの別の方法をとることが考えられる。この「遠すぎる」の程度を定義しているのが $c$ である. また,ア系列の平均は $l$ に比例し, これは話し手と聞き手の距離が遠いほど,聞き手からより遠い物体を指示する可能性が高くなるという仮定の下このように定義した.
## A. 4 各系列指示語領域のガウス分布の分散共分散行列
各系列の分散共分散行列は $\frac{\alpha}{\beta} l \boldsymbol{E}_{3}$ が共通箇所となっており, ア系列の分散共分散行列にのみ係数 $c$ が掛けられている。 $\beta$ は分散が小さくなりすぎないように調整するためのパラメータ, $\boldsymbol{E}_{\mathbf{3}}$ は $3 \times 3$ の単位行列である。
まず,ソ系列の分散を図 3 にある表で定義した理由を述べる,分散は目標の物体がユーザまたはロボットから離れているほど大きくなると考えられるので,目標物体がある確率に影響を与える $\alpha$ に比例するように定義した. ソ系列の指示語が観測された際の目標物体はロボットの近くにある確率が高いということはユーザと目標物体はおよそ $l$ の距離だけ離れていると考えられるので,分散は $l$ にも比例するように定義した。
コ系列の場合は目標物体はユーザの近くにある確率が高いのでロボットと目標物体はおよそ $l$ 離れていると考えられる。コ系列の指示語が観測された際もソ系列の指示語が観測された際もユーザまたはロボットと目標物体まではおよそ $l$ だけ離れているので,コ系列のガウス分布の分散もソ系列の分散と同じものを用いることとした.
また,ア系列の場合はユーザからもロボットからも目標物体はおよそ $c l$ だけ離れていると考えられるので, $c l$ に比例するように定義した.
## B 実験環境
本研究で使用した実験環境を図 4 に示す.
図 4 家庭環境を模した実験環境の家具配置,物体配置位置,指差しを行う人とロボットの立ち位置.緑丸がユーザの位置,青矢印がロボットの位置と方向,赤丸は物体が配置されている領域を表す. 緑色と青色の同じ数字はロボットに外部照応を行わせたときのシナリオを表している. 例えば,緑色の 1 番と青色の 1 番で $\mathrm{E}$ の領域内の物体を指差ししたシナリオがある。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H12-3.pdf | # 深層強化学習モデルの内部挙動の言語化を通じた 制御手法の構築
圓田彩乃 小林一郎
お茶の水女子大学
\{g1720506,koba\}@is.ocha.ac.jp
## 概要
本研究は説明可能 AI のひとつのアプローチとして,入力が画像である制御タスクに対し学習済みモデルの入出力関係から制御規則を生成し,これを言語化することで学習済みモデルの内部挙動を説明することを目指す。言語化された制御規則を用いて対象が制御可能であることを示すとともに,言語で記述された制御モデル内部の振る舞いに対する解釈可能性の向上を実現した. 制御対象として,Space invaders を取り上げ実験を行なった結果,本研究の手法で構築された制御器は, 学習済みモデルと同等のレベルの frame 数までプレイヤーが生存し,報酬は学習済みモデルと比較すると低いものの,複数の敵を倒して報酬の獲得に成功した。
## 1 はじめに
近年,様々な場面で深層学習が用いられている。深層学習は人間よりも高い精度で認識や予測を行うことがある一方で,深層学習モデルの内部挙動はブラックボックスであることから用途によっては使用が制限される。そのため,構築したモデルの内部挙動を捉える手法として,説明可能 AI の研究が盛んになっている. 説明可能 AI は高いレベルの精度を保ちつつ,より説明可能なモデルを作り出す機械学習手法の構築を目指している $[1,2]$. また,機械学習手法に対する説明性の評価なども検討されている [3]. 説明手段のひとつとして,ニューラルネットワークからルールを抽出する DeepRED [4] などもある. そのような説明可能 AI のひとつのアプローチとして, 本研究では深層学習モデルの内部挙動が人間が理解できるように言葉で説明することを目指す. アプローチ方法として,深層学習モデルで得られた入出力関係をファジィモデリング [5] し,その関係をファジィ言語変数からなる規則で表現するこ
とにより,モデルの入出力の振る舞いを人間が把握しやすいようにする.
本研究では入力が画像情報である Atari の Space Invaders ${ }^{1)}$ を制御タスクとして設定し,言語化された規則を用いて制御を行い,その制御精度を確認する.また,制御規則をそのまま出力するのではなく,解釈可能性が向上するように制御規則の要約も併せて行う。
## 2 関連研究
Greydanu らの研究である Visualize Atari [6] は, 6 種類の Atari のゲームを制御タスクとして設定し, Saliency [7] をヒートマップとして入力画像に重ねることでモデルで学習したエージェントの内部挙動を可視化する説明 AI モデルを構築した. Saliency とは,学習済みモデルが画像のどの部分を注視して予測を行っているのかを可視化した手法である. この研究では学習済み深層強化学習モデルとして Baby A3C [8] を使用している。これは Asynchronous Advantage Actor-Critic (A3C) [9] モデルをカスタムしやすいようにコンパクトにしたモデルである.
Saliency Map の可視化を行うことで,モデルがどのような戦略を学習して実行しているのかだけでなく,学習過程でどのように戦略が進化しているか, そして制御を失敗してしまう原因となっている戦略や行動を分析することに成功している。その一方で,説明は入力画像上に注視箇所をヒートマップとして重ねて可視化することにとどまっており,説明文は画像を見ながら人手で作成している。
本研究では,学習済みモデルが制御の際に注視している個所を取り出す手法として Visualize Atari を使用し,制御中の学習済みモデルの内部挙動を自動的に言語で説明することに試みた。
図 1 Saliency Map から Saliency 箇所を取り出した例
## 3 提案手法
学習済み深層学習モデルの内部挙動を入出力情報をもとに獲得し,それを言語化して制御実験に使用する手法を説明する。
## 3.1 制御規則作成方法
入出力関係の獲得 Visualize Atari に用意されている学習済みモデルを使用し, 入出力情報と Saliecny Mapを獲得する。
Saliency 箇所の取り出し Saliency Map をグレー スケール化し, Open CV の輪郭抽出・外接矩形の関数を使用して大力画像の Saliency がかかっている場所を長方形に取り出す. (図 1 参照)
Saliency 内容の分類取り出した Saliency 箇所に写っているものを分類する. 分類モデルは,事前学習済み画像分類モデルを 2 エピソード分の切り取り済み Saliency 画像を用いてファインチューニングして作成する。
分類ラベルはファインチューニングに使用する切り取り済み Saliency 画像に写っているものを元に作成し,それぞれの画像には人手で分類ラベルを付与した. また,図 1 の右上の画像のように写っているものが切れてしまっている場合,それが何であるかを視認できる場合は分類ラベルを付与した。
制御規則生成獲得した学習済みモデルの入出力情報と Saliency Map を用いて制御規則を生成する。
制御規則は以下の前件部・後件部のテンプレートを穴埋めする形で作成する。
ビーム砲が **** (ビーム砲の場所... 左/中央/右) にいて,*** (Saliency の場所...(1) (9) に*** (Saliency の分類ラベル) があるとき,Action **** をとる.
図 2 ビーム砲の場所と Saliency の場所の分割
図 3 制御器の構造概要
エージェントが操作するビーム砲と Saliency の場所は図 2 のようにそれぞれ分割し,ビーム砲は中心の座標, Saliency 箇所は切り出した長方形の中心の座標からどの空間に属するかを算出する。
図 1 のように一つの入力画像に 2 箇所以上 Saliency がかかっていた場合,「ビーム砲が左にいて,(4にインベーダー単数があるかつ ๑にインベー ダー複数があるかつ ... があるとき, Action FIRE をとる.」のようにテンプレートの前件部を ANDで繋いで一つの制御規則とする。
## 3.2 制御器の構造
制御器の構造の概要を図 3 に示す. 制御器には Space Invaders の画面が入力として与えられる. 制御器は 3.1 で獲得したデータのうち, 最も報酬が高いエピソードの Saliency Map からその frame において見るべき場所を判断し,その場所に何が映っているかを 3.1 で作成した分類モデルで分類する.併せて,入力画像を見てビーム砲の場所と Saliency がかかっている箇所を取り出す. それらの情報を組み合わせて該当する制御規則を抽出し,その個数が最も多い Actionを実行する.
## 4 制御規則の言語化
実験では 1 frameごとに Action を決定するのに使用した制御規則を言語化することで,学習済みモデ
ルの内部挙動の説明を行う。
3.1 で生成した制御規則は,学習済みモデルがどのような入力画像が与えられたときにどの Action をとったのかを捉えて表現することができている. しかし, 1 frameごとに使用した制御規則をそのまま言語化して出力すると, 解釈可能性の低い説明文となってしまう。
そこで本研究では,生成された制御規則を要約して言語化することを試みる。具体的には,以下のテンプレートのように,制御規則ではそのまま記述しているビーム砲と Saliency の場所を, それらの位置関係(右上の高いところ,など)で記述することによって制御規則を要約を行う。
ビーム砲の*** (ビーム砲と Saliency の場所の位置関係... 左/右/真上の高い/低い) ところに *** (Saliency の分類ラベル) があるとき, Action *** をとる.
$x$ 軸方向の関係をビーム砲の場所と Saliency の長方形の中心の座標から「左上」「真上」「右上」の 3 通り, $y$ 軸方向は Saliency の長方形の中心の座標から「高い」「低い」の 2 通りで表現し,これらを組み合わせることでビーム砲と Saliency 箇所の位置関係を表す.このように変更することで,変更前はビー ム砲と Saliency 場所がそれぞれの分割数の組み合わせである 27 通りの表現があるのに対し,変更後は 6 通りの表現で制御規則を要約することができる.
制御規則の要約を行うことで解釈可能性が向上するだけでなく,異なる状況においても同じ制御規則が適用されるため,言葉を再利用することができるようになる.
## 5 実験
本研究では 3.1 の手法で生成した制御規則を使用した制御実験(実験 1)と4の手法で要約した制御規則を使用した制御実験(実験 2)を行った。
## 5.1 実験設定
入出力関係と Saliency Map の獲得 Visualize Atari における Space Invaders の control agent を使用し,学習済みモデルの入出力関係と Saliency Map を 50 エピソード・ 56,850 frame 分獲得した. なお今回の実験では,獲得した報酬が Baby A3C モデルの平均報酬である 550 を超えているエピソードのみを抽表 1 分類ラベル
\\
出して入出力関係などを獲得している.
Saliency 内容の分類モデルの作成学習済みモデルから獲得した 50 エピソード分の入出力データと Saliency Map のうち 2 エピソード分のデータを使用し, 切り出した Saliency がかかっている箇所に写っている内容を分類するモデルを作成する.
2 エピソード分の切り出した画像を目視で確認し,用意した分類ラベルを表 1 に示す.
Saliency 箇所を切り出した画像と分類ラベルを使用して, Torch Vision の ResNet のファインチューニングを行い,分類精度が $90 \%$ 近くになった.
制御規則 3.1 の手法で 9,241 個の制御規則が生成された。これに 4 の手法を用いると,制御規則が 6,853 個に要約された。
## 5.2 実験結果
実験 1 ・2において,制御実験をそれぞれ 100 エピソード行った.
実験 $1 \cdot 2$ と入出力関係などを獲得した学習済みモデルの実験時における獲得した報酬と生存 frame 数の結果をそれぞれ表 2 と表 3 に示す.
実験 $1 \cdot 2$ と学習モデルの制御精度を比較すると,実験 $1 \cdot 2$ のどちらも平均生存 frame 数は学習済みモデルと同等のレベルに達しており, 平均報酬は学習済みモデルと比較すると低いものの, 複数のインベーダーを倒して報酬を獲得することに成功した。
制御規則を要約していない実験 1 と要約している実験 2 の制御精度を比較すると,報酬・生存 frame 数ともに平均值に大きな違いはないが, 実験 1 と比較すると実験 2 は報酬・生存 frame 数の最大値と最小值の差が大きく, 不安定な制御となっていることがわかった。
実験時には, 1 frame ごとに Action を決定するために使用した制御規則の言語化を行い,その Action
表 2 実験結果 - 報酬
表 3 実験結果 - 生存 frame 数
が選択された理由を説明した。例えば実験 2 において,図 4 の入力画像に対し「ビーム砲の左上の低いところにインベーダー単数があるとき,Action LEFTをとる.」の制御規則が言語化された.
実験 2 における言語化された制御規則の他の例を付録で紹介している。
## 5.3 考察
実験 $1 \cdot 2$ と学習済みモデルの比較生存 frame 数は同等のレベルであるのに報酬に差が出てしまっている原因として,実験 1 ・2 は攻撃をしない Action が選択されることが多いことや,インベーダーからの攻撃から逃げるためにインベーダーの真下にいない frameが多いことが考えられる。また,制御規則を生成するにあたり,学習済みモデルがとっていたと思われる,より報酬の高い敵を優先して倒す戦略を踏襲できていないことも原因となっている可能性がある.
制御規則の要約ありなしの比較報酬と生存 frame 数の平均値をみると, 実験 $1 \cdot 2$ は同等の制御精度と言える。一方で,実験 2 において,報酬と生存 frame 数の最小値が実験 1 と比較してとても小さくなっている。これは,制御規則を要約したことによりビームを避けたり安全地帯の下に逃げるような制御規則が減ったことが原因として考えられる. 制御規則は内容と個数が多いほどより多くの状況に対応できるが,一方で説明文としては解釈可能性が低くなってしまう。したがって,制御精度と説明文の解釈可能性のバランスを取ることが重要である.
制御の様子制御の様子を観察したところ,実験 1 ・2で作成した制御器はインベーダーの位置に関係なく画面左側に滞在し,インベーダーがビーム砲の真上に来るのを待ち構えて攻撃していた。一方,学
図 4 入力画像の例
習済みモデルはインベーダーの動きに合わせてビー 么砲を移動しながら攻撃しており,構築した制御器は学習済みモデルの挙動を踏襲しきれていないことがわかった。これは複数の制御規則が該当した際の Action の決定方法や制御規則の作成方法などが原因として考えられる。制御器がより学習済みモデルの挙動を模倣できるよう,手法の改良を行う必要がある.
## 6 おわりに
本研究は,説明可能 $\mathrm{AI}$ のひとつのアプローチとして,学習済み深層強化学習モデルの入出力関係から制御規則を生成し,これを言語化することで学習済みモデルの内部挙動を説明することを試みた。併せて,説明された制御規則を用いて制御実験を行い,その制御精度を確認した.また,説明文の解釈可能性を向上させるため,生成した制御規則の要約も行った。
言語化された制御規則を用いて制御実験を行った結果,提案した手法で構築された制御器は,学習済みモデルと同等のレベルの frame 数まで生存することに成功した。報酬は学習済みモデルと比較すると低いものの,複数のインベーダーを倒して報酬を獲得することができた。また,説明文の解釈可能性を向上させるための要約をした制御規則を用いて制御実験を行った結果,要約する前の規則を使用した制御器と比較すると不安定な制御となるものの,概ね同等の制御精度で制御を行うことができた。
今後の課題として,制御器の制御精度をより向上させることと,ゲームに限らない入力情報が画像である様々な制御対象に対して使用できる制御器の構築手法となるように改良を進める。
## 謝辞
本研究の一部をJSPS 二国間共同研究 (JPJSBP120213504)からの支援を受けました.ここに深謝いたします。
## 参考文献
[1] Sherin Mary Mathews. Explainable artificial intelligence applications in nlp, biomedical, and malware classification: A literature review. pp. 1269-1292, 2019.
[2] A. Adadi and M. Berrada. Peeking inside the black-box: A survey on explainable artificial intelligence (xai). IEEE Access, Vol. 6, pp. 52138-52160, 2018.
[3] Leilani H. Gilpin, David Bau, Ben Z. Yuan, Ayesha Bajwa, Michael A. Specter, and Lalana Kagal. Explaining explanations: An approach to evaluating interpretability of machine learning. CoRR, Vol. abs/1806.00069, , 2018.
[4] Jan Ruben Zilke, Eneldo Loza Mencía, and Frederik Janssen. Deepred-rule extraction from deep neural networks. In International Conference on Discovery Science, pp. 457-473. Springer, 2016.
[5] 姜根澤, 菅野道夫. ファジィモデリング. 計測自動制御学会論文集, Vol. 23, No. 6, pp. 650-652, 1987.
[6] Samuel Greydanus, Anurag Koul, Jonathan Dodge, and Alan Fern. Visualizing and understanding atari agents. In International conference on machine learning, pp. 1792-1801. PMLR, 2018.
[7] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. arXiv preprint arXiv:1312.6034, 2013.
[8] Danijar Hafner, Timothy P Lillicrap, Mohammad Norouzi, and Jimmy Ba. Mastering atari with discrete world models. In International Conference on Learning Representations, 2021.
[9] Volodymyr Mnih, Adria Puigdomenech Badia, Mehdi Mirza, Alex Graves, Timothy Lillicrap, Tim Harley, David Silver, and Koray Kavukcuoglu. Asynchronous methods for deep reinforcement learning. In International conference on machine learning, pp. 1928-1937. PMLR, 2016.
## 付録
ここでは,要約した制御規則を使用した制御実験時の制御の様子を紹介する。具体的には,ある frame における入力画像と,その frame において出力された「入力画像に対してどの Action を決定したのか」を説明する文章を例示する。
例 1 :
入力画像:
言語化された制御規則:
ビーム砲の右上の高いところにインベーダー単数があるとき, Action RIGHT FIRE をとる.
例 2:
入力画像:
例 3 :
入力画像:
言語化された制御規則 :
ビーム砲の右上の高いところのところにインベー ダー複数があるかつ真上の低いのところにビーム砲と安全地帯があるとき,Action RIGHT FIRE をとる.
## 例 4 :
入力画像:
言語化された制御規則 :
ビーム砲の右上の高いのところにインベーダー複数があるかつ右上の低いのところに安全地帯があるとき,Action FIRE をとる.
言語化された制御規則:
ビーム砲の右上の低いのところにインベーダー複
数があるとき,Action RIGHT FIREをとる. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H12-4.pdf | # 構文解析と画像生成の統合による機能語の言語理解
山木良輔 ${ }^{1}$ 谷口忠大 ${ }^{1}$ 持橋大地 ${ }^{2}$
1 立命館大学 2 統計数理研究所
\{yamaki.ryosuke, taniguchi\}@em.ci.ritsumei.ac.jp daichi@ism.ac.jp
}
"A ball next to a box"
図 1: Stable Diffusion が生成した画像の例.
## 概要
近年の大規模言語モデルと拡散モデルに基づくテキスト画像生成モデルは高度な画像生成を実現している一方で,前置詞などの機能語に関しては,それらの意味を正しく捉えられていないことが指摘されている [1]. 本研究ではこの問題に対して,CCGに基づく構文解析モデルとテキスト画像生成モデルを統合することで,テキスト中の物体同士の関係性を明示的に捉えた画像生成を可能にし,機能語のような文法的関係を正しく捉える言語理解を実現する。
## 1 はじめに
自然言語における機能語と実世界情報の対応関係を理解可能な人工知能の実現は,人工知能の実世界応用において重要な課題である. 本研究では,構文解析とテキスト画像生成モデルを統合し,機能語が持つ言語情報を画像情報として表出させることで,実世界情報と紐づいた機能語の言語理解の実現を目指す.
近年の大規模言語モデルと拡散モデルに基づくテキスト画像生成モデルは高度な画像生成を実現している $[2,3,4]$. 一方で言語理解の観点からは,“in” “on”などの文法的機能に関しては,その意味を正しく捉えられていないことが指摘されている [1]. 例えば, 図 1 に示すように, Stable Diffusion [4] は "ball” や“box”といった内容語に関しては,これらの物体が出現する画像を生成している一方で, “in”や“next to” といった異なる前置詞 (機能語) に関しては,どちらも “in” の意味に対応する画像を生成しており, これらの意味を捉えられていない。
実世界上において,自然言語を用いた人間とのコ
ミュニケーションが期待される人工知能は,このような機能語に関してもその意味を理解可能であることが望ましい [5]. 例えば, “Place a ball next to a box." のような指示をロボットに与えたときに,ゴール状態として図 1 の右側の画像をロボットが想起してしまうと,適切な行動を期待することはできない。
そこで,本研究ではこのような機能語の言語理解を実現するための方法として,自然言語の統語的情報をテキスト画像生成モデルに取り入れる手法を提案する。具体的には,組み合わせ範疇文法 (Combinatory Categorial Grammar: CCG) [6] に基づく構文解析モデルである Holographic CCG (Hol-CCG) [7] をテキスト画像生成モデルにおけるテキストエンコーダとして採用し, Hol-CCG が出力する統語的及び意味的情報を含んだ単語・句・文の分散表現を画像生成に活用する。これにより,機能語が示す文中の物体同士の関係性を画像情報と対応付けることが可能となり,結果的に機能語の言語理解が可能になると考える.
実験より,テキストから得られる句の分散表現・統語的情報をテキスト画像生成に活用することの有効性を示唆する結果が得られた.なお,後述の実験では機能語が示す物体同士の位置関係に主眼を置いているため, 生成画像の写実性は本研究の論点から外れていることに注意されたい.
## 2 関連研究
## 2.1 Hol-CCG
本研究では,テキスト画像生成モデルにおけるテキストエンコーダとして筆者らが以前に提案した CCG に基づく構文解析モデルである, Hol-CCG [7] を使用する.Hol-CCG は潜在空間上での単語及び句の分散表現同士の再帰的合成によって,それらの間に存在する階層関係及び依存関係を明示的に考慮した分散表現を計算することが可能であり,機能語が表現する内容語同士の関係性を画像生成に反映す
図 2: Hol-CCG のモデル概要図.
るという本研究の目的に適した特性を有している。 Hol-CCG はテキスト画像生成モデルに与えられた入力文の構文構造を解析し,それに応じた単語・句・文の分散表現を出力する. そして,これらの分散表現を画像生成の際の言語特徴量として用いる.
Hol-CCG のモデル概要を図 2 に示す. Hol-CCG では,まず入力文を RoBERTa [8] などの Masked Language Model に通すことで, 文中の各単語の分散表現を得る。そして,得られた単語分散表現を巡回相関 [9] によって再帰的に合成することによって,句および文の分散表現を計算する. 巡回相関の演算は次式で定義される。
$
[\mathbf{c}]_{k}=[\mathbf{a} \star \mathbf{b}]_{k}=\sum_{i=0}^{d-1} a_{i} b_{(k+i)} \bmod d
$
ここで,太は巡回相関の演算子,a, $\mathbf{b}$ は合成前の分散表現,c は合成後の分散表現である。例えば,図 2 中の例の場合,最終的な文の分散表現 $\mathbf{v}_{0: 5}$ は次のような再帰的な演算によって計算される.
$
\mathbf{v}_{0: 5}=\left(\mathbf{v}_{0: 1} \star \mathbf{v}_{1: 2}\right) \star\left(\mathbf{v}_{2: 3} \star\left(\mathbf{v}_{3: 4} \star \mathbf{v}_{4: 5}\right)\right)
$
また,分散表現を合成する過程において,Spanbased Parsing [10] に基づく句構造解析アルゴリズムによって,入力文が持つ尤もらしい句構造を探索する.これによって,入力文が持つ構文的曖昧性を解消しつつ,文を構成する単語・句・文の意味的・統語的な情報を含んだ分散表現を構成することができる. Hol-CCG では分散表現を再帰的に合成する演算自身には学習が必要となるパラメータが存在しないことが特徴であり, 本モデルは大規模かつ複雑なデータセットに対しても適用可能である.
## 2.2 AttnGAN
本研究では,テキスト画像生成モデルとして Attentional GAN (AttnGAN) [11]を使用する。AttnGAN は Attention 機構によって入力文中の各単語の情報を画像生成に取り込むモデルである。また,Deep
Attentional Multimodal Similarity Model (DAMSM) モジュールにおいて,テキストと画像間での対応関係を評価することで,入力テキストに対して意味的に合致するような画像を生成する。
## 3 提案手法
## 3.1 手法概要:Hol-CCG と AttnGAN の統合
本研究では,AttnGAN のテキストエンコーダとし
て Hol-CCG を用いることで,テキスト画像生成に統語的情報を取り入れる手法を提案する.提案手法の概略を図 3 に示す。
まず,Hol-CCG が入力文を構文解析することによって,単語・句・文の統語的・意味的な情報を含む分散表現を出力する。そして,AttnGAN はこれらの分散表現を言語特徴量として画像を生成する。より具体的には, GAN の隠れ層の状態を更新する際に単語及び句の分散表現との間での Attention の計算を行う。ここで,単語の分散表現のみではなく,句の分散表現も取り入れていることが本手法の重要箇所であり,これによって,複数の単語間に存在する階層的な依存関係の情報を画像生成過程に取り込む. さらに,元々の AttnGAN と同様に,最終的に生成された画像は DAMSM モジュールにおいてテキストとの意味的な対応関係が評価される. この評価過程においても,単語・文の分散表現に加えて句の分散表現が言語特徴量として用いられる。
## 3.2 モデルの学習
本提案手法では, AttnGAN の生成器・識別器の学習に先立って,テキスト及び画像エンコーダの事前学習を行う.この事前学習の方法は基本的には AttnGAN を踏襲しており,統語的情報及び句の分散表現を取り込めるように拡張を行った.まず,元々の AttnGAN における DAMSM モジュールの学習に関する損失関数 $\mathscr{L}_{D A M S M}$ を句の表現が取り込めるものに拡張した方法について説明する。
$
\mathscr{L}_{\text {DAMSM }}=\mathscr{L}_{\text {word }}+\mathscr{L}_{\text {phrase }}+\mathscr{L}_{\text {sentence }}
$
上式における $\mathscr{L}_{\text {phrase }}$ は句の分散表現を DAMSM モジュールに取り込むために,筆者らが新たに導入した項である. ここで, $\mathscr{L}_{D A M S M}$ を構成する各項はそれぞれ,単語・句・文の分散表現と画像の特徴量を用いて,テキストと画像間での対応関係を評価するためのものである.例えば, $M$ 個の画像情報とテキスト情報のペア $\left.\{\left(Q_{i}, D_{i}\right)\right.\}_{i=1}^{M}$ に関して, $\mathscr{L}_{\text {word }}$ は次
図 3: 提案手法概略図 (AttnGAN の元論文 [11] 中のモデル概略図におけるテキストエンコーダ部分を Hol-CCG による構文解析に置換).
の通りに定義される。
$
\mathscr{L}_{\text {word }}=-\sum_{i=1}^{M}\left.\{\log P\left(Q_{i} \mid D_{i}\right)+\log P\left(D_{i} \mid Q_{i}\right)\right.\}
$
なお, $P\left(Q_{i} \mid D_{i}\right), P\left(D_{i} \mid Q_{i}\right)$ を計算する過程に関しては本稿では割愛するが,詳細は AttnGAN の元論文 [11]を参照されたい。また, $\mathscr{L}_{\text {phrase }}, \mathscr{L}_{\text {sentence }}$ の計算過程は $\mathscr{L}_{\text {word }}$ と同様である.
次に,統語的情報を取り入れるために行った拡張に関して説明する. AttnGAN が画像生成に用いる単語・句・文の特徵量に統語的情報を取り入れるにあたり, 本提案手法では CCG カテゴリの情報を利用する. CCG カテゴリは構文解析の結果として文中の単語や句に対して割り当てられるものであり,多くの統語的情報を含んでいる. そのため,テキストエンコーダの事前学習において,テキストエンコー ダが出力する単語・句・文の分散表現から,それらに対応する CCG カテゴリが正しく予測されるような損失関数を定義することで,分散表現中に統語的情報が取り込まれるようにする。具体的には,次のような $\mathscr{L}_{\text {syntax }}$ を定義する。
$
\mathscr{L}_{\text {syntax }}=\mathscr{L}_{\text {word-syn }}+\mathscr{L}_{\text {phrase-syn }}+\mathscr{L}_{\text {span-syn }}
$
ここで, $\mathscr{L}_{\text {word-syn }}, \mathscr{L}_{\text {phrase-syn }}$ はそれぞれ単語・句に対する CCG カテゴリの割り当て誤差, $\mathscr{L}_{\text {span-syn }}$ は特定の区間に含まれる単語列が句を構成するか否かの判別誤差である。詳細に関しては Hol-CCG [7] のモデル学習方法を参照されたい.
上記の $\mathscr{L}_{\text {DAMSM }}$ と $\mathscr{L}_{\text {syntax }}$ の合計をエンコーダの事前学習の損失関数 $\mathscr{L}_{\text {pretrain }}$ とする.
$
\mathscr{L}_{\text {pretrain }}=\mathscr{L}_{\text {DAMSM }}+\mathscr{L}_{\text {syntax }}
$
また, エンコーダの学習完了後に行われる GAN の生成器と識別器の敵対的学習に関しては元々の AttnGAN と同一であるため, 本稿では説明を割愛す
る. 詳細に関しては AttnGAN の元論文 [11]を参照されたい.
## 4 実験
## 4.1 データセット
本研究では,2つの性質の異なるデータセットを用いて実験を行った.
coco テキスト画像生成分野で一般的に用いられている Common Objects in Context (COCO [12])を客観的な評価・比較のために用いた.
CLEVR 本研究では、AttnGANを画像生成モデルとして採用したが、 $\operatorname{COCO}$ (日常生活のあらゆる場面の画像を含む) の画像を高品質に生成することが難しいことから、機能語の言語理解に関する主観的な評価を行うには不適切であると考えた。 そのため、本研究では Compositional Language and Elementary Visual Reasoning (CLEVR [13]) データセッ卜を用い、3 個以下の物体を含む画像についてアノテーション情報から自動的にキャプションを生成し,実験に使用した.
## 4.2 ベースライン手法
ベースライン 1 AttnGAN のテキストエンコーダに RoBERTa [8]を用いたモデルを,提案手法において統語的情報が付与されることの有効性を検証するための比較対象として用いる. このモデルではテキスト入力に対して RoBERTa が出力する [CLS] トークンと各サブワー ドの分散表現を言語特徴量として AttnGAN に与え画像を生成する. 事前学習の損失関数は $\mathscr{L}_{\text {DAMSM }}=\mathscr{L}_{\text {word }}+\mathscr{L}_{\text {sentence }}, \mathscr{L}_{\text {pretrain }}=\mathscr{L}_{\text {DAMSM }}$ となる.
表 1: COCO データセットにおける客観評価の結果.
ベースライン 2 提案手法において句の分散表現を画像生成に用いないモデルを 2 つ目のベースライン手法とする. このモデルとの比較によって,提案手法において句の分散表現を画像生成に取り入れることの有効性を検証する.事前学習の損失関数は $\mathscr{L}_{\text {DAMSM }}=\mathscr{L}_{\text {word }}+\mathscr{L}_{\text {sentence }}, \mathscr{L}_{\text {syntax }}=\mathscr{L}_{\text {word-syn }}$ となる.
## 4.3 評価方法
客観評価 Fréchet Inception Distance (FID ${ }^{1)}$ ) と Rprecision (R-prec ${ }^{2}$ ) を評価指標として用いた。
主観評価 16 名の実験参加者に各手法によって生成された 20 組の画像を提示し,各実験参加者はテキストが示す物体同士の位置関係との合致度が最も高い画像を選択する. そして各手法によって生成された画像が選択された割合を比較した。
## 5 結果・考察
客観評価客観評価の結果・比較を表 1 に示す。 なお,VICTR [14] は AttnGAN のテキストエンコー ダ部分にシーングラフから抽出された物体同士の位置関係の情報を明示的に取り入れている点から,本研究との関連があるため比較手法として取り上げた. 結果より,提案手法は FID においてべースライン手法に比べて高い性能を発揮している. ただし, ベースライン手法 1 は他の 2 つのモデルに比べて著しく高い FID を示しているため, GAN の学習の不安定性のために学習に失敗している可能性があることには注意されたい。また,既存手法との FID における比較に関しては,提案手法は AttnGAN の性能を上回り,VICTR に競合する性能を発揮している。 なお,提案手法では GAN の学習段階における八イパーパラメータの設定を改善することで,さらなる性能向上が見込まれる,以上より,提案手法において句の分散表現及び統語的情報をテキスト画像生成に取り込むことの有効性が示唆される。
図 4: CLEVR における生成画像例 (入力テキス $r$ : "large yellow sphere is to the left front of small blue cylinder, and large yellow sphere is to the left behind of small green sphere”). 提案手法が “yellow sphere” と "blue cylinder” の位置関係 ("to the left front of") を最も正確に反映している.
主観評価各手法によって生成された画像が実験参加者によって選択された割合はそれぞれ,ベースライン $1: 39.1 \%$ , ベースライン $2: 18.1 \%$ ,提案手法: 42.8\%となった. 実験参加者に提示した画像の一例を図 4 に示す. 図の例の様に,提案手法がベースライン手法に比べて,入力テキストが説明する物体同士の位置関係をより正確に捉えた画像を生成している例が複数見られた。一方で,ベースライン 1 と提案手法の画像が選択された割合が僅差であることを踏まえると,大域的には手法間の差は小さいと考えられ,提案手法の有効性は十分には示されていないと考える。そのため,入力するテキストの複雑度やGAN の学習におけるハイパーパラメータの設定などにさらなる改良が必要であると考えている。なお, ベースライン 2 の画像が選択された割合は他の 2つの手法に比べて著しく低く,この手法においては GAN の学習に失敗している可能性があることには注意されたい。
## 6 おわりに
本研究では構文解析とテキスト画像生成モデルを統合することによって自然言語における機能語の言語理解を実現するための手法を提案した. 入力テキストに対して構文解析モデルが出力する統語的・意味的情報を含んだ単語や句の分散表現を画像生成に活用することで,機能語が示す物体同士の関係性を画像情報と対応付けた画像の生成に取り組んだ。実験より,提案手法の有効性を示唆する客観的な結果が得られた。
今後の展望としては,画像生成部分を Stable Diffusion [4] などの拡散モデルベースのものに置換し,より高品質な画像の生成を可能にすることや,物体同士の位置関係に関する表現以外の前置詞・機能語に関して,より詳細な実験・評価を行うことなどが挙げられる.
## 謝辞
本研究は,JST,ムーンショット型研究開発事業, JPMJMS2033 の支援を受けたものです.
## 参考文献
[1] Colin Conwell and Tomer Ullman. Testing relational understanding in text-guided image generation. arXiv preprint arXiv:2208.00005, 2022.
[2] Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S Sara Mahdavi, Rapha Gontijo Lopes, et al. Photorealistic text-to-image diffusion models with deep language understanding. arXiv preprint arXiv:2205.11487, 2022.
[3] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. Hierarchical text-conditional image generation with clip latents. arXiv preprint arXiv:2204.06125, 2022.
[4] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 10684-10695, 2022.
[5] Amir Aly, Tadahiro Taniguchi, and Daichi Mochihashi. A bayesian approach to phrase understanding through crosssituational learning. In International Workshop on Visually Grounded Interaction and Language (ViGIL), in Conjunction with the 32nd Conference on Neural Information Processing Systems (NeurIPS), 2018., 2018.
[6] Mark Steedman. The Syntactic Process, Vol. 24. MIT press Cambridge, MA, 2000.
[7] 山木良輔, 谷口忠大, 持橋大地. Holographic Embeddings による CCG 構文解析. 言語処理学会第 28 回年次大会 (NLP2022), 2022.
[8] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019.
[9] Tony A Plate. Holographic reduced representations. IEEE Transactions on Neural networks, Vol. 6, No. 3, pp. 623641, 1995 .
[10] Mitchell Stern, Jacob Andreas, and Dan Klein. A minimal span-based neural constituency parser. arXiv preprint arXiv:1705.03919, 2017.
[11] Tao Xu, Pengchuan Zhang, Qiuyuan Huang, Han Zhang, Zhe Gan, Xiaolei Huang, and Xiaodong He. Attngan: Fine-grained text to image generation with attentional generative adversarial networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1316-1324, 2018.
[12] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In European conference on computer vision, pp. 740-755. Springer, 2014.
[13] Justin Johnson, Bharath Hariharan, Laurens Van Der Maaten, Li Fei-Fei, C Lawrence Zitnick, and Ross Girshick. Clevr: A diagnostic dataset for compositional language and elementary visual reasoning. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2901-2910, 2017.
[14] Caren Han, Siqu Long, Siwen Luo, Kunze Wang, and Josiah Poon. Victr: Visual information captured text representation for text-to-vision multimodal tasks. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3107-3117, 2020. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H12-5.pdf | # QulC-360: $360^{\circ$ 画像に対する クエリ指向画像説明文生成のためのデータセット構築
}
前田航希 1,3 栗田修平 1 宮西大樹 2,1
1 理化学研究所 AIP, ${ }^{2}$ 国際電気通信基礎技術研究所 (ATR), ${ }^{3}$ 東京工業大学
\{koki.maeda, shuhei.kurita\}@riken.jp, miyanishi@atr.jp
## 概要
$360^{\circ}$ 画像は一般的な画像と比較して,撮影者による情報の取捨選択が行われないため,多くのコンテクストを同時に含む.既存の画像説明文生成では, コンテクストを画像情報のみから読み取るが, $360^{\circ}$画像に対しては,画像に加えて補助的な情報を付加することで,記述するコンテクストを指定することが必要になる。本研究では,画像に加えて言語情報 (クエリ)を与えることで説明文生成を制御するクエリ指向説明文生成を提案し,そのためのデータセットとして 5,800 枚の $360^{\circ}$ 画像と 22,956 文の説明文からなるQuIC-360 を構築した. QuIC-360による再学習で, $360^{\circ}$ 画像に対してクエリを用いることで説明文生成の制御性・多様性が高まることが確認された。
## 1 はじめに
画像説明文生成は,画像に含まれる内容を自然言語で自動的に記述する課題である [1]. 近年の画像説明文生成では,Attention 機構を導入するなどコンテクスト,すなわち画像の中で記述されるべき特徴への注目を行う手法が提案されてきた [2]. Cornia ら [3] は画像の注目すべき領域の集合や順序を補助的な情報として与えることで生成される説明文を制御することを提案している。これまでの画像説明文生成では,主にモデル作成側の設計により画像情報からコンテクストへの注目が行われている. Microsoft COCO Captions [4] などの既存のデー タセットに含まれる画像では,撮影時に視野角の制約から対象の選択が行われている。撮影された画像のコンテクストは限定的で,大きく異なるコンテクストが複数含まれることは想定されてこなかった。
一方で,全方位カメラによって撮影された $360^{\circ}$画像では,通常画像にある視野角の制約がなく,対象物の選択が行われないため撮影された情景(シー ン)全方向への情報を含む. $360^{\circ}$ 画像を利用したシーンからの説明文生成は,ライブカメラや監視カメラといったシーンカメラを用いたテキスト実況や,自動運転車や自動配達ロボット等に付属したカメラが撮影した画像を用いたテキスト伝達 [5] などに応用できる. 画像の説明文生成で $360^{\circ}$ 画像の特性を活かすには,通常画像と比較して注目するコンテクストやユーザの需要に応じて説明文生成を制御することがより重要になる。
本研究では,画像に加えて単語や短いフレーズといった言語情報をクエリをとして入力することで説明文生成を制御するクエリ指向画像説明文生成を提案し,データセットとして QuIC-360 (Query-based Image Captioning for multi-context $360^{\circ}$ images) を構築した. 図 1 に課題の概要を示す. 天気や花壇,周囲の往来など複数のコンテクストを持つ画像に対して,注目する対象に応じて異なる画像説明文が記述されることが期待される。しかし,一般的な説明文生成では,画像全体を言及するが目的に合わせた詳細な記述が行われない。提案課題は「人々」や「風景」といった具体的な記述対象を事前に与え,より具体的な説明文を作成することを目的としている。
我々は 5,800 枚の $360^{\circ}$ 画像に対して,クエリに基づいた 22,956 文の説明文を収集した.既存の最先端の画像説明文生成モデルを QuIC-360 を用いて再学習させることで,(i) 説明文生成の制御性が高くなること,また,(ii) 生成された説明文はより多様であったことが確認された. クエリ指向説明文生成は、既存手法が抽象的な説明文を生成する問題を解決できる。構築したデータセットは一般に公開されている1).
図 1 クエリ指向画像説明文生成 (QuIC) の概要.
## 2 関連研究
## 2.1 画像説明文生成の制御
説明文生成も他の多くの言語課題と同じように, Attention 機構の利用によって研究が大きく進展した [2]. モデルの進歩につれて,ユーザが利用する用途や文脈によって,同じ画像について異なる説明文が求められるようになった。近年では与えられた画像に記述される対象の優先順位を付与して説明文生成を制御する研究が行われている. 付与された情報は,生成過程でモデルに補助となる特徴として利用される. 補助的な情報の例として,画像に付与された領域 $[3,6]$ やマウスの軌跡 [7],抽象シーングラフ [8] などがある.
QuIC も画像の補助的な情報として言語情報を付与するという点で制御可能な説明文生成手法の一つである。しかしながら,QuIC は画像に関する情報ではなく,自然言語を用いた言語情報をシグナルとして与える点で既存の研究と異なる.
## 2.2 視覚的質問応答
視覚的質問応答は,画像と質問を入力として,それに対する回答を自動的に生成する課題である [9].画像の局所的な部分に着目し適切な記述を行うという点では本研究に類似しており, $360^{\circ}$ 画像を用いた研究も行われている $[10,11]$. しかしながら,視覚的質問応答は質問に対応する回答の長さが短い傾向があり [12], 実際に視覚的質問応答は事前に定められた限られた回答語彙の中からの選択モデルとして動作させる事が多い. 本研究は, 視覚的質問応答における回答が限られていることを念頭に置き,単語
および数語の自然言語で与えられたクエリに応じて画像の説明文を制御する手法を提案する。
## $2.3360^{\circ$ 動画像データセット}
全方位カメラで撮影された動画像を収集したデー タセットは数多く構築されてきた $[13,14,15,16]$. しかし, 既存のデータセットは撮影環境が室内に限られたもの $[17,18]$ や,車載カメラや HMD によって撮影されたもの $[19,20,5,21]$ など画像の対象や環境に偏りがみられる. 本研究に近いデータセットとして, 60,000 枚以上の屋内・屋外で撮影された $360^{\circ}$画像からなる SUN360 [22] があるものの,現在では公開が停止されている 2$)$. 本研究では,新たにインターネット上から多様な画像を収集し, 画像の取得方法と付与された説明文を公開することでデータセットを一般に利用可能な状態とする.
## 3 QulC- $360^{\circ$ データセット}
## $3.1360^{\circ$ 画像の収集}
これまで作成されてきたデータセットは,そのシーンや目的に応じて画像のドメインを制限してきた. 一般的に,屋内画像は物体が密集しており,屋外画像は撮影者を中心とした特定の活動を捉えた画像が多く,物体は疎である [23]. しかし,どのシー ンにおいても全方位を撮影した画像について,コンテクストは一つに限られることは少ない。したがって,我々は撮影地点を区別せず画像を収集した。また画像の可用性を確保するために,これまで開発されてきたデータセットに含まれる 360 度画像を利用
2) 後述のように Refer $360^{\circ}$ として公開されている一部の画像以外は公開されておらず,著者はメールに反応しなかった。
することを避け,新たに画像を収集した,画像はインターネット上の画像投稿サイトの Flickr を用いて 12,930 枚の画像を収集した。
データセットの品質を高めるために,以下の手順で収集した画像をフィルタした. まず,画像の形式を統一するために正距円筒図法で保存されている画像以外を除去した.次に,同一地点での類似した画像を取り除くことを目的として同一ユーザの投稿時刻の差が 1 時間以内であるものを除去した. さらに,画像の多様性と可用性を最大化するために,同一ユーザの投稿が 100 枚以下となるようランダムに画像を破棄して,合計で 3,800 枚の画像を取得した.
また,補助的なデータセットとして Refer $360^{\circ}$ [24] に含まれる 2,000 枚の画像を利用した. 画像は現在では利用不可能となっている SUN360 ${ }^{\circ}$ [22] の一部である. 本研究ではこれらの画像と付与された説明文は全て追加の訓練データとして扱う.
## 3.2 説明文の付与
収集した画像に付与される説明文は,画像の特徴を捉えて詳細に記述されていることが望ましい。クエリは詳細な記述を行うための指針として重要である. 既存の画像の分類カテゴリはデータセットによって様々であり, 標準的な分類が存在しない.我々は実際に収集した画像を人手で確認し,画像を記述するためのクエリを 34 種類作成した.
収集した画像への説明文の付与のために, Amazon Mechanical Turk (MTurk)を用いて評価者を雇用した。評価者は異なる 3 つのクエリを選択し,そのクエリに関連する説明文を作成する ${ }^{3}$ .単純な説明文を抑制するため,評価者に 8 語以上での回答を要求した. 不適切な回答を自動および人手で破棄し,合計 22,956 文の説明文を収集した。
## 3.3 統計量
QuIC-360 は 5,800 枚の画像に,34 個のクエリに関する 22,956 文の説明文を付与したデータセットである. 画像に対してそれぞれのクエリが選択された回数は表 1 の通りである. 訓練・検証・評価デー タの分割は表 2 に示すように行った。評価データについては画像・クエリの組に対して 4 件以上の説明文が付与されるようにした. 同一クエリに対する説明文数を増やすために,評価データの各画像は初め
3) Appendix Aにアノテーションに用いたページのスクリー ンショットを示す.
表 1 それぞれのクエリが画像に対して選択された回数.
表 2 QuIC-360におけるデータセット分割と統計量
の評価者が選択したクエリを指定して 2 人目以降の評価者に説明文を付与させた。
## 4 実験
## 4.1 実験設定
クエリ指向説明文生成は,画像に加えて言語情報としてクエリを入力とする.そのため,通常の説明文生成モデルと入力形式が異なり,全ての手法に対して即座に利用できない。そこで,検証を行うための説明文生成モデルとして説明文生成課題で最先端の性能を持つ OFA [25]を採用した。
OFA は Transformer をもとにしたエンコーダ・デコーダモデルであり,種々の言語および画像を用いた課題を統合した機構である。 OFA における説明文生成では,生成モデルへの入力として画像情報に加えて “What does this image describe?”というプロンプトを与える。提案手法ではプロンプトに追加する形でクエリを補助的な情報として与えた。具体的には,クエリが “location”であれば“What does this image describe on location?” とした. 公開されている事前学習済みモデルを利用した. ただし,利用したモデルは $360^{\circ}$ 画像を用いた大規模な事前学習を行っていないことは留意すべきである.
再学習による効果を検証するために,事前学習済みモデルに対して QuIC-360による (i) 再学習しない (None),(ii) 再学習したがクエリを補助的な情報として与えない (FT w/o query), (iii) 再学習を行いク
表 3 QuIC-360 の評価データを用いた説明文生成性能の比較.
\\
\\
FT(w/ory)
表 4 QuIC-360を用いた再学習による出力結果の変化. 再学習前はクエリによらず同様の出力を行うが,再学習を行うことでクエリによって説明文生成を制御できる。
エリも与えた (FT w/ query),の 3 つの条件について性能を比較した。 3.3 節で構築したデータセットの訓練/検証/評価データセットの分割を用いて,説明文に含まれる各単語に対する交差エントロピー誤差を損失関数として学習を行った。ハイパーパラメー タの設定は公開されている実装4)を利用した。
## 4.2 定量的評価
QuIC-360を用いた再学習によって,クエリを用いて生成される説明文を制御できるか検証した. また,比較対象とする 3 つの場合において推論時にクエリを与えるかどうかで性能が変わるか検証した。
評価指標として画像説明文生成で一般的な指標である BLEU [26], ROUGE [27], METEOR [28], CIDEr [29],SPICE [30]を用いた. 加えて,多様な説明文生成が行われているかどうかを示す指標として,生成した文の平均単語数と語彙数を比較した.
実験結果を表 3 に示す. 全ての評価指標において,QuIC-360によるクエリ指向説明文生成課題での再学習を行った場合が最も高い性能を示した。また, 平均単語数や語彙数も増加することが確認された。一方で,推論時にクエリを与えない場合,提案手法は性能向上に寄与しないことがわかった.
以上から,QuIC-360を用いた再学習によって,説明文生成の制御性・多様性を高められることが確認された. しかしながら,人手で付与された説明文と比較して生成された説明文の語彙数は少なく,文長も短い. 人間のような説明文を生成することは現
時点では挑戦的な課題であるといえる.
## 4.3 定性的評価
クエリ指向説明文生成は一般的な説明文生成と異なり,同じ画像が入力されたとしてもクエリに応じて説明文を制御する必要がある。そこで, QuIC-360での再学習を行った場合とそうでない場合について,出力した説明文を比較した.
表 4 に示すように,一般的な説明文生成課題による再学習を行った場合,推論時にどのクエリを与えてもクエリを無視して同じ文を生成した。これは画像説明文生成において,コンテクストを画像情報のみから選択していることの証左である。提案手法では,クエリに応じて適切に出力が変化したことから,言語情報によってコンテクストの選択を行い,説明文の生成を制御できることが確認された。
## 5 おわりに
本研究では,クエリを用いて画像の説明文生成の制御を行う課題を提案し,360画像を利用したデー タセットとして QuIC-360 を構築した。複数のコンテクストを含む $360^{\circ}$ 画像に対して,ユーザが言語情報を補助として与え,より需要に即した説明文を生成するよう制御することを目的としている.実験では,QuIC-360 によって説明文生成モデルを訓練することで, $360^{\circ}$ 画像の説明文生成の制御性と多様性を高められることを定量的・定性的に確認した。今後の発展として,より大規模なデータセットの構築・ $360^{\circ}$ 画像に最適化した手法の作成などがある.
## 謝辞
本研究はJST さきがけ JPMJPR20C2,JSPS 科研費 22K17983,JSPS 科研費 JP20269633 の助成を受けたものです。
## 参考文献
[1] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In CVPR, pp. 3156-3164, 2015.
[2] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In ICML, pp. 2048-2057, 2015.
[3] Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Show, Control and Tell: A Framework for Generating Controllable and Grounded Captions. In CVPR, 2019.
[4] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C Lawrence Zitnick. Microsoft COCO captions: Data collection and evaluation server. arXiv:1504.00325, 2015.
[5] Y. Liao, J. Xie, and A. Geiger. Kitti-360: A novel dataset and benchmarks for urban scene understanding in 2d and $3 \mathrm{~d}$. TPAMI, 2021.
[6] Ali Furkan Biten, Lluís Gómez, Marçal Rusiñol, and Dimosthenis Karatzas. Good news, everyone! context driven entity-aware captioning for news images. In CVPR, pp. 12466-12475, 2019.
[7] Zihang Meng, Licheng Yu, Ning Zhang, Tamara L. Berg, Babak Damavandi, Vikas Singh, and Amy Bearman. Connecting what to say with where to look by modeling human attention traces. In CVPR, pp. 12679-12688, 2021.
[8] Shizhe Chen, Qin Jin, Peng Wang, and Qi Wu. Say as you wish: Fine-grained control of image caption generation with abstract scene graphs. In CVPR, pp. 9962-9971, 2020.
[9] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C. Lawrence Zitnick, and Devi Parikh. VQA: Visual Question Answering. In ICCV, 2015.
[10] Shih-Han Chou, Wei-Lun Chao, Wei-Sheng Lai, Min Sun, and Ming-Hsuan Yang. Visual question answering on $360^{\circ}$ images. In WACV, pp. 1596-1605, 2020.
[11] Heeseung Yun, Youngjae Yu, Wonsuk Yang, Kangil Lee, and Gunhee Kim. Pano-avqa: Grounded audio-visual question answering on $360^{\circ}$ videos. In ICCV, 2021.
[12] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A Shamma, et al. Visual genome: Connecting language and vision using crowdsourced dense image annotations. IJCV, Vol. 123, No. 1, pp. 32-73, 2017.
[13] Jianxiong Xiao, Krista A. Ehinger, Aude Oliva, and Antonio Torralba. Recognizing scene viewpoint using panoramic place representation. In CVPR, 2012.
[14] Yu-Chuan Su, Dinesh Jayaraman, and Kristen Grauman. Pano2vid: Automatic cinematography for watching 360 videos. In ACCV, 2016.
[15] Erik Wijmans and Yasutaka Furukawa. Exploiting 2d floorplan for building-scale panorama rgbd alignment. In CVPR, pp. 14271435, 2017.
[16] Hao Yang and Hui Zhang. Efficient 3d room shape recovery from a single panorama. In CVPR, 2016.
[17] Steve Cruz, Will Hutchcroft, Yuguang Li, Naji Khosravan, Ivaylo Boyadzhiev, and Sing Bing Kang. Zillow indoor dataset: Annotated floor plans with $360^{\circ}$ panoramas and $3 \mathrm{~d}$ room layouts. In CVPR, pp. 2133-2143, 2021.
[18] Shih-Han Chou, Cheng Sun, Wen-Yen Chang, Wan Ting Hsu, Min Sun, and Jianlong Fu. 360-indoor: Towards learning real-world objects in $360^{\circ}$ indoor equirectangular images. WACV, pp. 834842, 2019.
[19] Ahmed Rida Sekkat, Yohan Dupuis, Pascal Vasseur, and Paul Honeine. The omniscape dataset. In ICRA, pp. 1603-1608. IEEE, 2020.
[20] Senthil Yogamani, Ciaran Hughes, Jonathan Horgan, Ganesh Sistu, Padraig Varley, Derek O’Dea, Michal Uricar, Stefan Milz, Martin Simon, Karl Amende, Christian Witt, Hazem Rashed, Sumanth Chennupati, Sanjaya Nayak, Saquib Mansoor, Xavier Perrotton, and Patrick Perez. Woodscape: A multi-task, multi-camera fisheye dataset for autonomous driving. In ICCV, 2019.
[21] Stephan Fremerey, Ashutosh Singla, Kay Meseberg, and Alexander Raake. Avtrack360: An open dataset and software recording people's head rotations watching $360^{\circ}$ videos on an $\mathrm{hmd}$. In MMSys. ACM, p. 403-408, 2018.
[22] Jianxiong Xiao, Krista A. Ehinger, Aude Oliva, and Antonio Torralba. Recognizing scene viewpoint using panoramic place representation. In CVPR, pp. 2695-2702, 2012.
[23] Shih-Han Chou, Wei-Lun Chao, Wei-Sheng Lai, Min Sun, and Ming-Hsuan Yang. Visual question answering on $360^{\circ}$ images. In WACV, pp. 1596-1605, 2020.
[24] Volkan Cirik, Taylor Berg-Kirkpatrick, and Louis-Philippe Morency. Refer $360^{\circ}$ : A referring expression recognition dataset in $360^{\circ}$ images. In ACL, pp. 7189-7202, 2020.
[25] Peng Wang, An Yang, Rui Men, Junyang Lin, Shuai Bai, Zhikang Li, Jianxin Ma, Chang Zhou, Jingren Zhou, and Hongxia Yang. OFA: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework. In ICML, pp. 23318-23340, 2022.
[26] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002.
[27] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, 2004. Association for Computational Linguistics.
[28] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In WMT, pp. 376-380, 2014.
[29] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, pp. 4566-4575, 2015.
[30] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. SPICE: semantic propositional image caption evaluation. In ECCV, pp. 382-398, 2016.
## A MTurk を用いた説明文の収集
(Optional) When you consider this I mage is in inpproprate for the
図 2 MTurkの作業画面のスクリーンショット。画像をドラッグすることでそれぞれの方向の歪みの無い画像を見ることができる.
図 3 作業者が説明文の付与にかかった時間の分布.
MTurk の作業者の雇用は,品質の担保のため,US 在住者のうち直近の課題承認率が $99 \%$ を回る評価者に限定して雇用した. 図 3 は作業者が説明文を付与するためにかかった実際の作業時間の分布を示す. 3 つの説明文を付与するのにかかった作業時間が 45 秒未満であるものは不適切とみなして自動的に除去した. そのうえで計測した作業時間の平均は 182 秒であり,時給が 10\$以上となるように報酬を支払った。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H2-1.pdf | # Follow-up 質問による矛盾応答収集の提案
佐藤志貴 1 赤間怜奈 1,2 鈴木潤 1,2 乾健太郎 1,2
1 東北大学 2 理化学研究所
\{shiki.sato.d1, akama, jun. suzuki, kentaro.inui\}@tohoku.ac.jp
## 概要
対話応答生成システムによる矛盾応答の抑制を考えるうえで,矛盾応答データの不足がボトルネックとなっている. データ不足の原因に,矛盾の発生が入力に依存した低頻度なものであるために効率的な収集が困難であることが挙げられる。本研究では,矛盾応答を誘発する発話として Follow-up 質問に注目し,自動収集した Follow-up 質問を用いた矛盾応答収集の効率化を試みる。提案法により矛盾応答を効率的に収集できることを確認したうえで,実際に矛盾応答を大規模収集する. 収集した矛盾応答デー タの有用性を,矛盾検出器の精度改善を例に示す。
## 1 はじめに
近年のニューラル応答生成システム $[1,2,3]$ (システムと呼ぶ)は流暢性は高いが,意味的に不適切な応答を生成する場合があることが広く知られている [1]. 特に図 1 の $r_{2}$ のように過去の自身の発話と矛盾する応答(矛盾応答と呼ぶ)の生成は,一度でも発生すればシステムが内容を理解した対話をしていないという致命的な悪印象をユーザに与える深刻な問題である [4]. 矛盾応答の抑制は,ユーザと信頼関係を構築し共生していく対話システムの実現を目指すうえで中心的な課題の一つといえる.
先行研究で一定の効果が報告されている矛盾応答の抑制手法として, 矛盾検出器による矛盾応答候補の除去 $[5,4]$, 対照学習 $[6,7]$ がある. これらの手法では, 品質の高い矛盾応答データをいかに多く獲得できるかが性能の良し悪しを決める大きな要因となっている. しかし, 現状は品質の高い矛盾応答データの効率的な収集方法が確立されているとは言い難い. 特に,矛盾の発生が直前の相手発話(入力と呼ぶ)に依存することが示唆されている $[4,8]$ ものの,どのような大力に対し矛盾が発生する傾向にあるか十分研究されていない. 実際に,これまでの矛盾応答データの収集は,人手により作成した矛
図 $1 \mathrm{FQ}$ を用いた矛盾応答収集方法の概要.
盾応答に限られている [4]. 人手による矛盾応答は,実際のシステムの矛盾応答とは性質が異なる可能性が高く,大規模な作成が難しいなどの弱点もある.本研究では,システムがどのような入力に対し矛盾応答を生成しやすいかを考慮したシステムの矛盾応答の効率的な収集を考える. 具体的な取り組みとして,(1) 先行研究と本研究の分析に基づき,過去の発話に含まれる情報に関連する質問, Follow-up 質問(Follow-up Question (FQ) と呼ぶ)が矛盾応答を誘発しやすいという仮説を立てたうえで,FQの自動収集方法を提案する.(2) 自動収集した FQが矛盾を誘発する傾向にあることを確認した後,(3) FQを用いて図 1 の方法によりシステムの矛盾応答を大規模収集する. ${ }^{1)}(4)$ さらに,構築したデータセットの有用性を,矛盾検出器の精度改善を例に示す。
## 2 なぜ $F Q$ に注目するか
本研究では,矛盾を誘発する発話として Follow-up 質問に注目する. FQ は「対話相手が過去の発話で提示した任意の情報 $i$ に関連する質問」とする. 例えば,図 1 の橙色の質問は直前の相手発話の情報に対する $\mathrm{FQ}$ である.FQに注目する理由は二つある。
第一に,システムの矛盾応答は対話中の既出情報を再度言及する際に生じやすいことが知られている $[4,8]$. こうした状況は,既出情報に関連する質問
図 $2 \mathrm{DbRM}$ と IbBRでの $C$ に対する処理. $\mathrm{A}, \mathrm{B}$ は話者.
である $\mathrm{FQ} への$ 応答時に生じやすいと考えられる。
第二に,Nie ら [4] が小規模に収集したシステムの矛盾応答 382 個から無作為抽出した 50 個を分析したところ, $42 \%$ の矛盾応答が相手の $\mathrm{FQ}$ に対する応答だった. 矛盾応答を誘発した相手発話の種類の分布は $\mathrm{FQ}$ のみに偏ったロングテールとなったため, $\mathrm{FQ}$ は矛盾を引き出す代表的な発話といえる.
システムは $\mathrm{FQ}$ のみに対し矛盾応答を生成するわ
できるわけではない. しかし, 代表的な入力に注目し知見を蓄えることは第一歩として重要と考える。
## $3 F Q$ の自動収集
本研究では, $\mathrm{FQ}$ に対するシステム応答から矛盾応答を効率的に収集することを考える. 先行研究 [9] では教師あり学習により $\mathrm{FQ}$ を検出する方法が提案されたが,教師あり学習では検出可能な $\mathrm{FQ}$ が学習データに依存するという問題がある. 本研究では,学習を要さない $\mathrm{FQ}$ の自動収集方法を考える。
## 3.1 アイデア:応答生成システムの利用
$\mathrm{FQ}$ は過去の発話の情報 $i$ に関する質問であり, $i$ に対し質問 $q$ が $\mathrm{FQ}$ か判定するには, $i$ と $q$ の関連性を適切に捉える必要がある. ここで,近年の大規模ニューラル応答生成システムは入力との関連性が高い応答を生成可能であり [2], 発話間の関連性を適切に捉えることができると考えられる.以上から,大規模ニューラル応答生成システムにより $i$ と $q$ の関連性が強いと推測された場合, $q$ が $i$ に対する $\mathrm{FQ}$ である可能性は高いと考えられる。
## $3.2 \mathrm{FQ$ 収集のための指標}
ニューラル応答生成システムを用いて $q$ と $i$ の関連性を自動評価する指標を提案し,その値が高い $q$ を FQとして収集する. $q$ と $i$ の関連性を評価する指標として,異なる考え方に基づき,Decrease in probability by ReMoving information (DbRM) と Increase in probability by BRinging information closer (IbBR) $の$ 2 種類を提案する. 以下, $u_{i}$ のうち情報は疑問文以外に含まれると考え, $i$ は $u_{i}$ の疑問文以外の文, $q$ は $u_{q}$ の疑問文とする.また,隣接発話間距離を 1 とした $u_{i}$ と $u_{q}$ の発話間距離を $n$ とし, $n$ 発話前の $i$ に対する $\mathrm{FQ}$ を $\mathrm{FQ}_{-n}, n$ 発話前の $i$ に対する $q$ の DbRM とIbBRをそれぞれ $\mathrm{DbRM}_{-n}, \mathrm{IbBR}_{-n}$ とする.
DbRM. $q$ が $i$ に関連する場合,図 2 (a) のように $u_{q}$ 以前の対話の全発話 $C \ni u_{i}$ から $i$ を除去 ${ }^{2}$ した $C-i$ に対する $u_{q}$ の生成確率は, $P\left(u_{q} \mid C\right)$ より低いと考えられる。そのため,ニューラル応答生成システムで $P\left(u_{q} \mid C\right)$ と $P\left(u_{q} \mid C-i\right)$ を計算したとき,次の值は高くなると考えられる:
$
\operatorname{DbRM}(i, q, C)=\log \frac{P\left(u_{q} \mid C\right)}{P\left(u_{q} \mid C-i\right)}
$
IbBR. $q$ が $i$ に関連する場合,図 2 (b)のように $u_{q}$ と $u_{i}$ が挟む発話系列 $C^{\prime}$ を除去した $C-C^{\prime}$ に対する $u_{q}$ の生成確率は, $P\left(u_{q} \mid C\right)$ より高いと考えられる.そのため,次の值は高くなると考えられる:
$
\operatorname{IbBR}(i, q, C)=\log \frac{P\left(u_{q} \mid C-C^{\prime}\right)}{P\left(u_{q} \mid C\right)}
$
DbRM と IbBRによる FQ 収集. DbRM と IbBR は算出においてそれぞれ制限がある。DbRM につい $\tau,|C|$ をニューラル応答生成システムに入力可能なトークン数に抑えるために $C$ の冒頭部分を省略するとき, $i$ も省略されるほど $n$ が大きいと,$C-i=C$ となり値が計算できない. IbBR について, $C^{\prime} \neq \emptyset$ を前提とした指標であるため $n=1$ の場合は計算できない. そこで本研究では, $\mathrm{FQ}_{-1}$ は DbRM が, $\mathrm{FQ}_{-n}(n>1)$ は IbBR が高い質問を収集する。
## 3.3 DbRM と IbBR の算出結果の定性分析
表 1 に,4節の検証にて前述の方法により DbRM が計算された質問の例を示す. ${ }^{3)}$ DbRM および IbBR の上位下位の例を観察したところ,同表のように指標の値が高い/低い例では $u_{i}$ 中の情報との関連性が高い/低い質問が $u_{q}$ に含まれる傾向を確認した.以上から,前述の方法により $\mathrm{FQ}$ を定の精度で自動収集できると考えられる.ここで,本研究の目的は
2)疑問文以外を除去し,空なら $u_{i}$ を “_SILENCE_-”に置換.
3)両指標の分布を付録 A に,IbBR の例を付録 B に示す.
表 $1 \mathrm{DbRM}_{-1}$ 計算例. I の $u_{q}$ 太字部は $u_{i}$ 太字部に関係. I. DbRM $_{-1}$ が高い質問の例 $\left(\mathrm{DbRM}_{-1}=53.6\right)$
\\
矛盾応答の効率的な収集であり,収集した質問がシステムの矛盾を誘発するかが重要となる。そのため, FQ 自動収集自体の精度算出は行わない.
## 4 矛盾応答収集方法の効果検証
自動収集した $\mathrm{FQ}$ に対し,実際にシステムが矛盾応答を生成しやすい傾向にあるかを検証する.具体的には,まず DbRM や IbBR が高い $\left(i, q, C \ni u_{i}\right)$ の三つ組(入力対話と呼ぶ)を収集する。次に,入力対話に対するシステムの応答を収集する. 最後に, システム応答が入力対話との矛盾を含むかを確認していき,矛盾応答が生成される頻度を求める. 無作為抽出した入力対話についても同様の頻度を求め比較することで,DbRM やIbBR が高い入力対話において矛盾応答の発生頻度が高くなるかを確認する。
## 4.1 検証における設定
入力対話の収集. 対話コーパスから最終発話が質問( $q$ とする)を含むような $n$ 発話以上の発話系列を切り出し作成した集合 (入力対話集合と呼ぶ)のうち,DbRM かIbBRが高いものを収集する. $n=1, n>1$ 両方の場合の検証をするため, $\mathrm{DbRM}_{-1}, \mathrm{IbBR}_{-3}$ それぞれ上位 100 個の入力対話を収集する. また,入力対話集合から無作為に 100 個表 2 入力対話と矛盾応答の生成頻度の関係.
取り出したものを比較対象とする. 入力対話集合は, Multi-Session Chat [10](MSC と呼ぶ)から作成する. $\mathrm{FQ}_{-1}, \mathrm{FQ}_{-3}$ 収集のための入力対話集合の対話数はぞれぞれ $59,234 , 44,041$ となった. DbRM と IbBR は,高性能であり応答生成システムの性能評価 [11] にも使われる Blender-1B [1] により算出する.
システム応答の収集. $u_{q}$ に対する応答生成には,近年の高性能な大規模ニューラル応答生成システムである DialoGPT-Medium [2] (DG), PLATO-2 [12] (P2), Blender-3B (B3), PLATO-XL [13] (PX) を用いる. 各入力対話に対し, 4 個の応答生成用システムにより 2 個ずつ ${ }^{4}$ 計 8 個の応答を生成させる.
矛盾頻度の計算. 各入力対話に対する 8 個の応答が入力対話と矛盾するかを人手で確認する.システム応答 1 個あたり 5 人のクラウドワーカー5) が矛盾の有無を 5 段階評価し, 3 人以上が矛盾を含むと判断した場合6)矛盾応答とする. 8 個のシステム応答のうち 1 個以上が矛盾応答と判定された場合,その入力対話は矛盾を誘発したとみなす.
## 4.2 検証結果
表 2 に,収集した入力対話のうち,矛盾応答を誘発したものの数を示す. 同表より, $\mathrm{FQ}_{-1}, \mathrm{FQ}_{-3}$ いずれについても,無作為抽出した入力対話に比べ, DbRM や IbBR が高い入力対話に対して応答を生成させたときに矛盾応答の生成頻度が高くなった. 入力対話を無作為抽出した場合も一定の割合の質問が矛盾応答を誘発した理由として,入力対話の収集元のMSC では,一つの話題に対し深堀りした議論をする傾向にあるため,コーパス中の質問に占める FQ の割合が比較的高いことが考えられる。
## 5 データセットの構築
前節より,DbRM や IbBR が高い入力対話に対しシステムが高頻度で矛盾応答を生成することを確認した.これら入力対話に対しシステムに生成させた
4) $\mathrm{p}=0.5$ の top-p sampling を 100 回実施し,尤度上位 2 候補を抽出する。
5) https://www.mturk.com/
6)評価基準は 1 が「明らかに矛盾」,5が「明らかに無矛盾」 で,1と2は矛盾,4と 5 は無矛盾とした. コストを考慮して, $u_{i}$ 以降の発話と応答の矛盾についてのみ評価する。
表 3 構築したデータセットの統計情報.
応答から,人手評価により矛盾応答を検出することで,システムの矛盾応答を大規模収集する。
## 5.1 収集設定
入力対話集合の作成元となる対話コーパスは 4 節と同様に MSC を用いる. 収集に使う入力対話は $\mathrm{FQ}_{-1}$ および $\mathrm{FQ}_{-3}$ とし, 大力対話集合から $\mathrm{DbRM}_{-1}$, $\mathrm{IbBR}_{-3}$ が高い上位 500 個ずつの入力対話をデータセット構築に用いる. DbRM,IbBR の計算とシステム応答の収集は 4 節と同じ設定を用いる. ${ }^{7)}$ 各システム応答に対し 3 人のクラウドワーカーによって 4 節と同様の人手評価を行い, 1 人以上が矛盾, かつ 1 人以下が無矛盾と判断した応答を矛盾応答として収集する. また, 3 人のクラウドワーカー全員が無矛盾と評価した応答は無矛盾応答として収集する。
## 5.2 収集結果
表 3 に,構築したデータセットの統計情報を示す. 実際にシステムが生成した矛盾応答を収集したものとしては最大規模のデータセットとなる. 付録 Cにデータセットの例を示す.
## 6 実験:データセットの活用例
矛盾応答の抑制における本データセットの有用性を示す. 例として, 本データセットを用いた追加学習による矛盾検出器の精度の改善を試みる。
## 6.1 実験設定
学習する矛盾検出器. Nie ら [4] が構築した矛盾検出器を, 本データセットにより追加学習する. ${ }^{8)} \mathrm{Nie}$ らは既存の対話コーパス中の対話に続く矛盾応答を人間に書かせ収集したうえで,与えられた 2 つの発話同士が矛盾するかの 2 值分類を行うよう RoBERTa [14]をファインチューニングした. 実際にシステムが生成する矛盾応答を検出する際には,本データセットのようにシステムの矛盾応答も学習に用いることで性能が向上すると考えられる.
表 4 ターゲットシステムごとの矛盾応答検出の正解率.括弧内の数字は評価におけるシステム応答の数.
データセット分割. 本データセットを入力対話によって学習データセット,テストデータセットに $8: 2$ で分割する. 本データセットには各入力対話に対し最大 4 種類のシステムの応答が存在する. そこで, 4 個のうち 3 個のシステムの学習データセット中の応答を学習データとしたとき, 残りの 1 個のシステム(ターゲットシステムと呼ぶ)のテストデー タセット中の各応答9) が矛盾を含むかどうかの 2 值分類を矛盾検出器に行わせる. ターゲットシステムを変えて,これを 4 回実施する.そのため,矛盾分類器は未知の入力対話に対する未知のシステムの応答に含まれる矛盾を検出する必要がある.
## 6.2 実験結果
表 4 に, 矛盾検出器による 2 值分類の正解率を示す. 追加学習前の矛盾検出器について, Nie ら [4] は人間が作成した矛盾応答を 2 値分類させた際の正解率が $93.2 \%$ と報告したが,同表より実際にシステムが生成した矛盾応答については正解率が $60 \%$ に満たない場合があることがわかる. 一方, 本研究で構築したデータセットを用いた追加学習によって, 未知の入力対話や未知のシステムの応答についても 2 値分類の正解率が向上した.
## 7 おわりに
本研究では,矛盾応答生成の抑制において必要な矛盾応答の効率的な収集に取り組んだ. 特に, $\mathrm{FQ}$ がシステムの矛盾を引き出す代表的な発話であるという分析から,自動収集した $\mathrm{FQ}$ を用いた矛盾応答の収集を提案した. 提案法で効率的に矛盾応答を収集できることを確認したうえで, $\mathrm{FQ}$ に対するシステムの矛盾応答を大規模収集し, 矛盾検出器の性能向上を例にデータセットの有用性を示した.
今後の課題として, データセットのさらなる大規模化が挙げられる. また, 本研究の分析により $\mathrm{FQ}$ が矛盾応答を引き出す代表的な発話であることがわかったものの, FQ 以外の多様な発話に対するシステムの矛盾応答の収集にも取り組む予定である.
## 謝辞
本研究は,JSPS 科研費 JP22K17943, JP21J22383, JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものです.また,本研究の遂行にあたり多大なご助言,ご協力を賜りました Tohoku NLP グループの皆様に感謝申し上げます。
## 参考文献
[1] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proceedings of the 16th conference of the european chapter of the association for computational linguistics: Main volume (EACL), pp. 300-325, 2021.
[2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT : Large-scale generative pre-training for conversational response generation. In Proceedings of the 58th annual meeting of the association for computational linguistics (ACL): System demonstrations, pp. 270-278, 2020.
[3] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot. In arXiv preprint arXiv:2001.09977, 2020.
[4] Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, and Jason Weston. I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling. In Proceedings of the 59th annual meeting of the association for computational linguistics (ACL), pp. 1699-1713, 2020.
[5] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proceedings of the 57th annual meeting of the association for computational linguistics (ACL), pp. 37313741, 2019.
[6] Margaret Li, Stephen Roller, Ilia Kulikov, Sean Welleck, YLan Boureau, Kyunghyun Cho, and Jason Weston. Don' t say that! Making inconsistent dialogue unlikely with unlikelihood training. In Proceedings of the 58th annual meeting of the association for computational linguistics (ACL), pp. 4715-4728, 2020.
[7] Weizhao Li, Junsheng Kong, Ben Liao, and Yi Cai. Mitigating Contradictions in Dialogue Based on Contrastive Learning. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2781-2788, 2022.
[8] Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, and Jie Zhou. Addressing Inquiries about History: An Efficient and Practical Framework for Evaluating Opendomain Chatbot Consistency. In Findings of the joint conference of the 59th annual meeting of the association for computational linguistics and the 11th in- ternational joint conference on natural language processing (ACL-IJCNLP), pp. 1057-1067, 2021.
[9] Souvik Kundu, Qian Lin, and Hwee Tou Ng. Learning to Identify Follow-Up Questions in Conversational Question Answering. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 959-968, 2020.
[10] Jing Xu, Arthur Szlam, and Jason Weston. Beyond Goldfish Memory: Long-Term Open-Domain Conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, 2022.
[11] Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, and Walter Daelemans. Open-Domain Dialog Evaluation Using Follow-Ups Likelihood. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 496-504, 2022.
[12] Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhen Guo, Zhibin Liu, and Xinchao Xu. PLATO-2: Towards Building an Open-Domain Chatbot via Curriculum Learning. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 2513-2525, 2021.
[13] Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhihua Wu, Zhen Guo, Hua Lu, Xinxian Huang, Xin Tian, Xinchao Xu, Yingzhan Lin, and Zheng-Yu Niu. PLATO-XL: Exploring the Large-scale Pre-training of Dialogue Generation. In Findings of the Association for Computational Linguistics: AACLIJCNLP 2022, pp. 107-118, 2022.
[14] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. In arXiv preprint arXiv:1907.11692, 2019.
[15] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020.
表 $5 \mathrm{IbBR}_{-3}$ が高い質問の例 $\left(\mathrm{IbBR}_{-3}=43.2\right) . u_{i}$ 太字部に関する質問が $u_{q}$ 太字部でされている.
## A DbRM と IbBR の分布
4 節にて算出した,MSC の入力対話集合に含まれる $u_{q}$ の $\mathrm{DbRM}_{-1}$ および $\mathrm{IbBR}_{-3}$ の分布を図 3 および図 4 にそれぞれ示す。
## B 自動収集された $F Q$ の例
表 5 に,4 節の検証にて収集された, $\mathrm{IbBR}_{-3}$ が高い質問の例を示す。
## C データセットの例
表 6 に,本研究で構築したデータセットの入力対話およびシステムが生成した矛盾応答の例を示す.
図 4 MSC における $\mathrm{IbBR}_{-3}$ の分布.
表 6 データセット中の $\mathrm{FQ}_{-1}, \mathrm{FQ}_{-3}$ およびそれに対するシステム矛盾応答の例. $u_{i}$ 太字部への $u_{q}$ 太字部の質問に対し, システムが応答 $r$ 太字部にて矛盾を生成している.
I. FQ-1 に対する矛盾応答の例.
話者発話
A: My allergies have been acting up like crazy the past couple days. I think there's a cat nearby.
B: How do you know its a cat and not a different animal you are allergic to?
A: I'm not sure. I've never had allergies before.
A: I read an article yesterday on the history of the Premier League that was very interesting. Did you know that it has been around for almost 30 years?
B: I did not. I had no idea it had such a history. I guess if you think about it, 30 years ago is only the 1990's now!
A: Yeah, that's hard to believe! I wonder what the oldest soccer team is.
B: I would have to guess it would be one in Europe, but I'm curious as well. Did the history show get you interested in watching some games?
A: Not really. I just like watching soccer. I like the game. I don't care about the history.
## D 矛盾検出器の学習詳細
6 節の矛盾検出器の学習において, エポック数は 10,学習率は $1.0 \times 10^{-5}$ ,バッチサイズは 64 ,重み減衰係数は 0.01,他の值は Hugging Face[15] で設定されている初期値を用いた。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H2-2.pdf | # ペルソナ更新型対話システムにおける 効果的なペルソナ選択手法の分析
吉田快 品川政太朗 須藤 克仁 中村哲
奈良先端科学技術大学院大学
\{yoshida.kai.yf1, sei.shinagawa, sudoh, s-nakamura\}@is.naist.jp
## 概要
ペルソナ対話システムにペルソナの更新を導入する場合,蓄積されたペルソナを応答生成に活用するためにペルソナの選択方法が重要となる. 従来の文ベースの類似度によるペルソナ選択手法は,表層的に似た表現の文にも高い類似度を与えるため,問題がある. 本研究では, ペルソナ選択手法の改善のために,ペルソナ選択について分析を行い,入力文とペルソナ文に含まれる名詞語の類似度を用いた選択手法が有望であることを示す.また,名詞べースと文ベースの選択手法による応答生成文をユーザ評価により比較することで,両者の比較を行った. その結果,ペルソナを常に用いた応答をすると,応答の自然性が低下することが分かった。
## 1 はじめに
ペルソナ対話システム $[1,2,3,4]$ はペルソナと呼ばれるプロフィール情報を持つ対話システムの一種である、ペルソナ対話システムは近年の機械学習モデルの発達により増加している, 生成べースの雑談対話システム [5, 6] における応答の不整合問題 [3] を解決することを目的としている. 本論文では,ペルソナ文の更新が可能なペルソナ対話システムに焦点を当てる. ペルソナ更新は,ペルソナ対話システムにとって重要である.なぜなら,ペルソナ対話システムの生成文は, 対話の後で生成されるシステムプロファイルとも整合していなければならないからである. たとえば,図 1 のように,ユーザがシステムプロファイルを引き出すために「Hello what are you doing today?」という質問をすると,「I am student」というペルソナ文が存在しないにもかかわらず,「I am student」を含む応答が生成されることがある.この現象は,いわゆる Hallucination としてよく知られており,大規模な事前学習済みのニューラル言語モ
図 1 ペルソナ更新可能な対話システムの例
デルに基づく対話システムでしばしば発生する.
このような Hallucination に対応するために,ペルソナ対話システム分野ではペルソナ更新という概念が新しいタスクとして導入されている $[7,8]$. ペルソナ更新とは Hallucination によって得られた,ペルソナ文を含む文を新しいぺルソナ文として保存し,システムが応答生成時に利用できることを指す。システムが応答生成時に利用できるようにすることで,後の対話で生成された情報と一致する応答を生成するようにシステムを制約することができる. ペルソナ対話システムにペルソナ更新を導入した場合,ぺルソナ文は徐々に増加することになる。システムの応答を継続的に過去のシステム応答におけるペルソナ(ペルソナ更新によって蓄積されたペルソナ)に対して一貫させるには,与えられたユーザ入力に対して, システムが応答を生成するために蓄積された大量のペルソナ文から適切なペルソナ文をどのように選択するかという問題が生じる。
最近の研究 $[7,8]$ では,ユーザ入力との文同士の類似度を用いて上位 $\mathrm{N}$ 個のペルソナ文を選択することが提案されている.これにより,ユーザ入力に関連した応答を生成するようにシステムが制約を受けるが,表面的な類似性で無関係なペルソナ文を選択することが考えられる。しかし,ペルソナの選択方法に着目した研究は少なく,選択戦略も確立されていない. そこで本研究では, Integrated gradient [9]
を用いて,PERSONA-CHAT データセットのいくつかの対話を分析し, システムの応答のペルソナ文とユーザ発話への依存性を検討する.この分析の結果から名詞の類似度を用いた選択法を提案し, 実際に文の類似度と名詞の類似度に基づく応答生成の結果をユーザ評価により評価を行う。
## 2 応答生成における入力の寄与度の 分析
良いペルソナ選択とは,多くの候補の中から応答生成に適したペルソナやそのトークンを選択できることである.ここでは,システムがペルソナを用いた応答をするか否かを予測する分類器を構築し,入力であるユーザ発話とペルソナ文において分類に寄与する入力トークンを分析することで,優れたぺルソナ選択器を検討する. 同様に, システムがペルソナを用いて Hallucination を起こすか否かを予測する分類器も構築し, 寄与する入力トークンを分析することで,優れたペルソナ選択器を検討する.
入力の寄与度を計算するために, Integrated Gradients [9] を使用する. また,寄与度の計算のために必要な分類器の構築のためのデータセットの前処理については,付録 A に記載する。
## 2.1 ペルソナを用いた応答生成における ユーザ発話とペルソナの寄与度
ペルソナを用いた応答生成に対するユーザ発話文とペルソナ文の寄与度を計算するには, ペルソナ使用予測器が十分な精度を持つ必要がある. このペルソナ使用予測器を学習データの PERSONA-CHAT(付録 A) によって評価したところ Accuracy は 0.985, F1 は 0.979 (Recall: 0.969, Precision: 0.989) となり,十分な精度を持つことが確認できた。ここで,既知の入力に対する寄与度を求めるのが目的であるため, 学習データで評価を行った.このペルソナ使用予測器を用いて, Integrated Gradientsを適用し, 各応答に対するペルソナ文とユーザ発話の寄与度を算出した.
分析には, 応答への寄与度が最も高い単語を上位 3 つまでカウントした. 図 2 は, 上位 3 語がどの品詞タグに属するかと, 応答がペルソナを含んでいるか(Label 1)と含んでいないか(Label 0)を表している.なお, All tokens は, ユーザ発話またはぺルソナ文に出現した単語数を表し, 可視化のために 10 で割っている. その結果, 入力トークン全体では代名詞 (PRON), 名詞 (NOUN), 特殊トークン
図 2 ペルソナを使用した応答生成に寄与した token の品詞上位 $3 \supset$
(SP_TOKEN) が多いものの, ペルソナを使った応答生成では, 名詞, 特殊トークン, 代名詞の寄与度が高いことが分かった. そこでさらに, 名詞語の固有表現に着目して, ユーザ発話とペルソナ文の関係を調べた. 寄与度の高い名詞語に注目し, 図 3 に示すように,ユーザ発話とペルソナ文の固有表現の出現頻度の相関を可視化した.ここでは, $\mathrm{spaCy}^{11}$ を固有表現抽出のために用いた. その結果,ペルソナ文と
図 3 ペルソナを使用した応答において最も寄与度が高かった token の固有表現の出現頻度の相関
ユーザ発話が同じ固有表現を持つ場合,固有表現の出現頻度の相関が高いことが分かった.
## 2.2 Hallucination 発生時のユーザ発話と ペルソナの寄与度
2.1 節と同様に,生成された応答の Hallucination に対するユーザ発話文とペルソナ文の寄与度を計算するには, Hallucination 予測器が十分な精度を持つ必要がある.この Hallucination 予測器を学習データの PERSONA-CHAT(付録 A) で評価したところ Accuracy 0.988, F1 スコア 0.980 (Recall: 0.989,
1) https://spacy.io/
Precision: 0.971)となり,十分な精度を持つことが確認できた。ここでも,2.1 節と同様に既知の入力に対する寄与度を計算するのが目的のため, 学習データで評価を行った. この Hallucination 予測器を用いて,システムが生成した応答に対して 2.1 節と同様に Integrated Gradients を適用し, 各応答に対するペルソナ文とユーザ発話の寄与度を算出した. 分析には,応答への寄与度が最も高い単語を上位 3 つまでカウントした. 図 4 は, 上位 3 語がどの品詞タグに属するかと, Hallucination が発生した(Label 1)か,していない(Label 0)かを示している.なお,All tokens は,ユーザ発話またはペルソナ文に出現した単語数を表し, 可視化のために 10 で割っている. 図 4 から分かることは,ラベル0の予測に
図 4 Hallucination が起こる応答生成に寄与した token の品詞上位 $3 \supset$
は特殊トークンの寄与が大きく, ラベル 1 の予測には名詞,動詞,代名詞の寄与が大きいことである.特に,特殊トークンは 13 万文中 11 万文とかなり高い寄与度であった.
図 5 Hallucination が起こる応答において最も寄与度が高かった token の固有表現
さらに,名詞語の固有表現に着目して,ユーザ発話とペルソナ文の関係を調べた. 寄与度の高い名詞語に注目し,ユーザ発話とペルソナ文の名前付き固有表現の共起の相関を図 5 のように可視化した. その結果, 図 3 が示すペルソナ使用の結果と同様に, ペルソナ文とユーザ発話が同じ固有表現を持つ場合,固有表現の出現頻度の相関が高いことが分かった. また, Hallucination と非 Hallucination に分類されたサンプルを別々に集計したところ,Hallucination に分類されたサンプルでは,最も寄与度の高いトークンは発話中の 38,868 トークンであり,ペルソナ文中は 2,958 トークンのみであった. また,非 Hallucination に分類されたサンプルでは, 最も寄与度の高いトークンは,発話中の 36,662 トークンであり,ペルソナ文中の 52,943 トークンであることがわかった.これらの結果は, Hallucination がユーザ発話のみに依存していることを示唆している。
## 3 文ベースと名詞ベースによるペル ソナ選択手法の比較
2 章で得られた知見を基に,名詞べースのぺルソナ選択手法が文ベースのペルソナ選択方法よりも優れているのか比較を行う,具体的には, PERSONA-CHAT で fine-tuning した BERT2BERT を用いて構築した応答生成モデルを基に, 文同士の類似度と提案する名詞べースの選択法の 2 通りに分けて比較を行う. 文べースの選択では Sentence BERT を用いてペルソナ文と入力文をベクトル化し,それらのコサイン類似度の一番高いものを選択する。名詞による選択では,ペルソナ文と入力文に含まれる名詞をそれぞれ word2vec によってエンコードし, それらのコサイン類似度の一番高い名詞を含むペルソナを選択する。それぞれの選択手法を用いて一つのペルソナ文を決定し,このペルソナ文に条件づけられた応答生成を行い,得られたそれぞれの応答文に対してユーザ評価を実施する。評価者は 5 人で各 40 サンプル,TOEIC650 点以上という条件で実験を行った (内一人は英語母語話者). 評価データはテストデータ中から 2 通りの選択方法によって異なるぺルソナが選択されたデータ2)からランダムに 40 件選択した。評価者には大力となるペルソナ文,ユー ザ発話,生成された応答の 3 種類の文を提示し,以下の 2 つの項目について 5 段階で評価を行った.
一貫性生成した応答に含まれるペルソナが与えられたペルソナに一貫しているか
2) テストデータ 7,793 件中,4,822 件で選択されたペルソナが異なった
図 6 (A) 文ベースと (B) 名詞ベースの各サンプルの平均值の分布
自然性文脈に沿ったペルソナを提示できているか
## 3.1 ユーザ評価結果
ユーザ評価の全体の評価項目ごとの平均値は表 1 に示すように,提案手法である名詞ベースの選択手法の方が低い結果となった.
表 1 ユーザ評価の各サンプルの平均値
各サンプルにおける平均値の分布を図 6 に示す.自然性に関しては值にばらつきが見られなかったが,一貫性は提案手法である名詞ベースの選択手法の方が最大值が大きいことが確認できた.
## 4 考察
2.1 節の実験結果から名詞がペルソナを用いた応答生成に大きな影響を与えることが分かった. PERSONA-CHAT の会話には,他の対話者の発話内容に関連した応答が含まれるため,これは妥当な結果である. そのため, 図 3 に示すように,ユーザ発話の名詞語が応答生成において同じ名前の固有表現を持つ名詞語を誘発させると考えられる. また, 2.2 節の実験結果から名詞トークンが Hallucination の誘発に最も影響力があることがわかった.この結果は, 2.1 節で述べたように,他の対話者の発話内容に関連した応答が含まれる PERSONA-CHAT データセットの特徴も反映していると思われる.
名詞語によるペルソナ選択の優位性を示すために,ユーザの発話とペルソナとのコサイン類似度を用いた文べースの類似度(赤)と名詞の単語ベースの類似度(青)の比較を図 7 に可視化した. 図 7 より,名詞ベースの類似度は文ベースの類似度より広く分布していることが確認できた. 分布の広さは 2
図 7 発話とペルソナのコサイン類似度の文ベースの類似度(赤)と名詞の単語ベースの類似度(青) の分布
文間の違いを捉えられていると考えることができ,名詞べースの類似度によって効果的な選択が可能であることが示唆される.このことから判断して, ユーザ発話とペルソナ文の名詞ベースの類似度は,選択手法として有効であると考えることができる。
ユーザ評価において実際に選択されたペルソナを確認すると, どちらの手法のスコアも低い場合の例として,入力に対応したペルソナが無い場合があった (付録 A). 両方の手法においてぺルソナを開示するべきでない場面にもペルソナを開示して自然性が下がるケースが多々見られたため,そのケースへの対応も必要であると考える。一方で,そのような場合にペルソナが選択されたとしても,モデルは常にペルソナを含む応答を生成してはいなかった.
以上のことから,PERSONA-CHAT の対話では,開示できる適切なペルソナが無い場合にペルソナを用いると応答の自然性が低下することが確認できた. そのため,入力するべきペルソナが無い時は, ペルソナを選択しない工夫が選択には必要である.図 7 では,名詞による選択の方が優れていることが示唆されたが,ユーザによる評価では文べースの選択より劣っている結果となった. これは評価データがペルソナを開示できるような入力を多く含んでいなかったため,ペルソナの選択が必要な事例が少なく, 評価が正しくできなかった可能性がある.
## 5 まとめ
本研究では,ペルソナ更新により適したペルソナ選択のために,PERSONA-CHAT データセットを分析した. 分析の結果, 名詞ベースの選択手法が良い選択であることが示唆され,適切でない場面でペルソナの開示を行うと,応答の自然性が下がるということが確認された.
## 謝辞
本研究は JSPS 科研費 JP21K17806 の助成を受けたものである.
## 参考文献
[1] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In ACL (1), 2018.
[2] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training personabased dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177, Online, August 2021. Association for Computational Linguistics.
[3] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics.
[4] Pierre-Emmanuel Mazaré, Samuel Humeau, Martin Raison, and Antoine Bordes. Training millions of personalized dialogue agents. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2775-2779, Brussels, Belgium, October-November 2018. Association for Computational Linguistics.
[5] Iulian Vlad Serban, Ryan Lowe, Laurent Charlin, and Joelle Pineau. Generative deep neural networks for dialogue: A short review. arXiv preprint arXiv:1611.06216, 2016.
[6] Oriol Vinyals and Quoc Le. A neural conversational model. arXiv preprint arXiv:1506.05869, 2015.
[7] Xinchao Xu, Zhibin Gou, Wenquan Wu, Zheng-Yu Niu, Hua Wu, Haifeng Wang, and Shihang Wang. Long time no see! open-domain conversation with long-term persona memory. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2639-2650, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[8] Hongjin Qian, Zhicheng Dou, Yutao Zhu, Yueyuan Ma, and Ji-Rong Wen. Learning implicit user profile for personalized retrieval-based chatbot. In Proceedings of the 30th ACM International Conference on Information \& Knowledge Management, pp. 1467-1477, 2021.
[9] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 33193328. PMLR, 06-11 Aug 2017.
表 2 入力に対応したペルソナが無いと考えられる例入力文:
"that sounds good, i bet you'd be a good teacher ."
ペルソナ文:
1. hey there i'm 23 and i love food
2. i also like to cook but i'm not very good at it
3. i have been trying all types of food everywhere i go
4. i own a yacht and i rent it out when i'm not using it
5. i've been traveling the world for a years
入力文:
"lol . i thought maybe my tv watching had fried my brain for a minute ."
ペルソナ文 :
1.i am single and with two dogs
2.i do not drink alcohol
3.i like to play chess
4.i love taking bubble baths
入力文:
"i don't like it either . love music"
ペルソナ文 :
1.i hate math class
2.i ride the bus to school
3.i'm 13 years old
4.i' $\mathrm{m}$ on the soccer team
5.my brother is older than me
## A 付録
## Integrated Gradients
応答生成モデルがペルソナを強調した応答を生成する場合や Hallucinationを引き起こす場合に,入力のどの部分が応答生成に強く影響するかを Integrated Gradients を用いて調べる. $i^{t h}$ 次元の入力 $x$ とベースライン $x^{\prime}$ に対する Integrated Gradients は,式 (1) のように定義される.ここで, $\frac{\partial F(x)}{\partial x_{i}}$ は $i^{t h}$ 番目の $F(x)$ の勾配である.
Integrated Gradients は,デフォルトで 0 に設定されているべースライン $x^{\prime}$ から入力 $x$ までの勾配を積分し, 入力とべースラインの差と積を取ることで寄与度を計算する. 文ベクトル $x$ とその各トークン $x_{i}$ に Integrated Gradients を適用することで,各トー クンの寄与度を求めることができる。
$
I G_{i}(x)::=\left(x_{i}-x_{i}^{\prime}\right) \int_{\alpha=0}^{1} \frac{\partial F\left(x^{\prime}+\alpha \times\left(x-x^{\prime}\right)\right)}{\partial x_{i}} d \alpha
$
## 寄与度分析のための分類器構築
Sect. 2 で述べた Integrated Gradient を用いた分析には分類モデルの構築が必要となる.2つの分析には,それぞれ 2 つの 2 值分類モデルを用いた. 最初の分析では,ペルソナ使用予測モデルを用い,システムが生成した応答がペルソナ文に強く影響されているかを予測した. 2 つ目の分析では, Hallucination 予測モデルを用い,システムが生成した応答が,ユー ザの発話やペルソナ文から判断して, Hallucination を含んでいる可能性があるかどうかを予測した.
これらの 2 つのモデルはユーザの発話と複数のペルソナ文からなる 2 種類の入力で学習させた. 学習のために,入力は分割トークン $<S E P>$ を用いて次のように結合される。
$
\begin{aligned}
<C L S> & \text { utterance }<S E P>P_{1} \\
& <S E P>\ldots<S E P>P_{N}<S E P>
\end{aligned}
$
ここで $P_{N}$ は $\mathrm{N}$ 番目のペルソナを表す. また,分類器の学習のために, 事前学習された BERTを PERSONA-CHAT を用いてファインチューニングした. 2 つの分類モデルを学習するためのターゲットラベルは,自動でアノテーションを行った. 発話文とペルソナ文のどれかが同じ名詞を含んでいる場合に 1 ,それ以外に 0 をラベル付けした. 例えば, ペルソナ「i like shoot a bow」と発話「i have bow」は 「bow」という名詞を共有しているため,「1」とラべル付けした. 結果として,131,431 件中ラベル 0 は 84,440,ラベル 1 は 46,991となった.
Hallucination 分類モデルでは,応答と発話文が次の 4 つのルールを満たす場合,1 とラベル付けした.
1. 応答文が 4-20 語で構成される
2. 応答文が“'”か “my”を含む
3. 応答文に動詞, 名詞, 代名詞, 形容詞のうち少なくとも 1 つの単語が含まれている
4. 発話文と応答文が同じ名詞を含んでいないそれ以外の場合は 0 とした. 結果として,ラベル 0 が 89,605 件,ラベル 1 が 41,826 となった.
## 入力に対応したペルソナが無いと考えられる例
入力文に対して,応答する文に含められそうなぺルソナが無かった例を表 2 に示す.
多くの場合,これらは聞かれたことに対するペルソナが無い場合 (表 2 一つ目) や,ユーザに関する話題が中心となっているものであった. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H2-3.pdf | # 対話システムにおけるペルソナの自動生成による更新
川本稔已 ${ }^{1,2}$ 山崎 天 ${ }^{2}$ 佐藤 敏紀 2 船越 孝太郎 ${ }^{1}$ 奥村 学 1
1 東京工業大学 ${ }^{2}$ LINE 株式会社
\{kawamoto, funakoshi, oku\}@lr.pi.titech.ac.jp
\{takato.yamazaki, toshinori.sato\}@linecorp.com
## 概要
話者のプロフィールを集めたテキストであるペルソナを考慮した対話システムでは, ペルソナの変化を捉え適切に更新する必要がある. 先行研究では, ペルソナを対話履歴から抽出した上で,既存のペルソナと抽出したペルソナを比較し最新のペルソナのみを残す。しかし,過去のペルソナを削除することで情報の欠落を引き起こす。そこで本稿では,既存のペルソナと抽出したペルソナの両方を考慮したぺルソナを,大規模汎用言語モデルを用いて生成的に更新する手法を提案する.その結果,正解のペルソナとの一致度と応答生成性能の向上を確認した。
## 1 はじめに
ペルソナは好みや性格,行動といった話者の情報を集めたテキストであり,ペルソナを考慮することで,より親和的な応答生成が可能になる [1]. 本稿ではペルソナを構成する情報の単位(多くの場合,文に相当)をペルソナ要素と呼ぶ. ペルソナを使った対話データセットの 1 つに PeRsona-ChAT [2] があるが,ペルソナが変化することは考慮されていない. しかし, ペルソナは常に同一ではなく, 時間の経過で変化・増加する.Xu ら [3] は,対話履歴から新しいペルソナを抽出する機構を提案し,時間経過を考慮した Multi-Session Chat データセット (以降,MSC) を用いてペルソナ要素を追加することの有効性を示した. しかし,ペルソナ要素を追加するだけでは,含意や言い換えとなるぺルソナ要素が溜まっていくだけでなく,ペルソナ要素の変化に対応できない. そこで Bae ら [4] は既存のペルソナと抽出したペルソナを比較し,最新のペルソナのみを残す手法を提案した. しかし, 最新のペルソナのみを残し, 過去のペルソナを削除することは情報の欠落を引き起こす. 本稿では,既存のペルソナと抽出したペルソナの両方を考慮し,大規模汎用言語モデルを用いてぺ
図 1 一般的な形式のプロンプト(抜粋)
ルソナを生成的に更新する手法を提案する.
大規模汎用言語モデルは,GPT-3 [5] に代表される,大量のコーパスで自己教師あり学習された言語モデルであり,ショットと呼ばれる少数のサンプルを記述したプロンプトを与えることで,さまざまな言語タスクを解けることが知られている。最近のプロンプトの記述方法の 1 つとして, Chain of Thought (以降,CoT) がある [6]. 一般的なプロンプトではショットとして問題と解答のペアを記述し,言語モデルは与えられた問題の解答を生成する.CoT は,解答を得るための推論過程も記述し,言語モデルは推論過程と解答の両方を生成する手法であり,推論を伴う複数の言語処理タスクで一般的なプロンプトを上回る性能が確認されている $[7,8]$.
ペルソナの更新は,ペルソナ要素の意味・関係性を考慮した推論を必要とする.そこで,大規模汎用言語モデルのプロンプトに CoTを利用する手法を提案する。加えて,含意・中立・矛盾に分類する自然言語推論 (以後,NLI) の結果に応じてプロンプトを使い分けることで性能の向上を図る。その結果,情報の欠落を緩和し,自動評価において正解のペルソナとの一致度と応答生成性能の向上を確認した.
## 2 提案手法
複数セッションからなる,ペルソナを考慮した対話は,以下のフローで行われる [9].
1. 事前設定のペルソナで 1 セッション対話する.
表 $1\left(m_{i}, s_{j}\right)$ に対するペルソナ要素の更新の種類とその例. $m_{i} \in$ 既存のペルソナ,$s_{j} \in$ 抽出したペルソナ,$z$ は $m_{i}$ と $s_{j}$ ではないぺルソナ要素, $m_{i}^{\prime}, s_{j}^{\prime}$ は $m_{i}, s_{j}$ の少なくともどちらかを書き換えたペルソナ要素を表す.
Q:You know that he said, "I am 33 years old." Then you
hear that the new information about him is that "I am
34 years old." As a result, how should you store his
information?
A:Let's think step by step. Considering "I am 33 years
old." and "I am 34 years old.", the two pieces of
information are about his age, and the information
suggests that he has aged one year, from 33 to 34 . So,
we don't need information about his previous age.
Thus, by keeping only new information, the answer is
"I am 34 years old."
$===$
Q: You know that he said, "I am signing up the gym later
today." Then you hear that the new information about
him is that "I finished signing up." As a result, how
should you store his information?
A:Let's think step by step. Considering "I am signing up
the gym later today." and "I finished signing up.",
the two pieces of information are about signing up. As
of the previous information, he was going to sign up
for the gym, but he finished signing up for the gym as
of the new information. So, by describing the latest
information, the answer is "I signed up for the gym."
$===$
Q: You know that he said, <mis Then you hear that the new
information about him is that < $s_{j}>$ As a result, how
should you store his information?
A:Let's think step by step.
図 2 Chain of Thought を用いたプロンプト(抜粋)
2. 直前の対話履歴からペルソナを抽出する。
3. 抽出したペルソナと既存のペルソナから,保持するペルソナを決定する。
4. 保持したペルソナで次のセッションを行う.
5. 最終セッションの対話でないなら 2 に戻る.
上のフローにおけるタスクは,ペルソナを考慮した応答生成 $(1,4)$, ペルソナの抽出 (2), ペルソナの更新(3)の 3 つに分けられ,本稿はペルソナ更新タスクに着目する. 既存のペルソナを $M=\left.\{m_{1}, \ldots, m_{T}\right.\}$,抽出したぺルソナを $S=\left.\{s_{1}, \ldots, s_{K}\right.\}$ とする. 本稿では,後述するペルソナ更新アルゴリズムに従いながら,ペルソナ要素の組 $\left(m_{i}, s_{j}\right)$ を生成的に更新することで,新たなペルソナ要素の集合 $M^{\prime}$ を得る.
ペルソナ要素の更新 Bae ら [4] は, ペルソナ要素の更新操作として, APPEND, PASS, REPLACE, DELETEの 4 種類を定義した. この 4 種類は, $m_{i}$ と $s_{j}$ をそれぞれ残すか残さないかの二値の組み合わせ
に対応する。しかしこの方法では,過去のペルソナが削除されてしまい情報の欠落を引き起こす可能性がある. そこで本稿では,既存のペルソナと抽出したペルソナの両方を考慮した $m_{i}$ と $s_{j}$ 以外の新しいペルソナ要素を得る操作を新た纪 2 つ導入する。 1 つ目は,Bae らも言及していたものの未導入であった,$m_{i}$ と $s_{j}$ をまとめた $z$ を保持する FUSION, 2 つ目は, $m_{i}$ と $s_{j}$ の少なくともどちらかを書き換えた $m_{i}^{\prime}$ と $s_{j}^{\prime}$ を保持するREWRITEである. 6 種類の操作の例を表 1 亿示す. Bae らの 4 分法では, FUSION の事例が PASS または APPEND に分類されるため情報が欠落した,または兄長な状態で保持される. REWRITE の事例は REPLACE 亿分類されるため情報の欠落が発生する場合がある. FUSION と REWRITE はそれらの課題を解消している. 本稿は, FUSION と REWRITEを初めてペルソナ要素の更新记導入し,新しいペルソナ要素を大規模沉用言語モデルを用いて生成する手法を提案する.
Chain of Thought プロンプトペルソナ要素を適切に更新するためにはペルソナ要素の意味を理解する必要がある.例えば, $m_{i}=$ “マンションに住んでいる.”, $s_{j}=$ “一軒家に住んでいる. ”の場合,マンションから一軒家に引っ越したと考えられるので,更新したペルソナ要素は $m_{i}^{\prime}=$ “以前マンションに住んでいた. ”と $s_{j}^{\prime}=$ “一軒家に住んでいる. ”となる. $s_{j}=$ “福岡に住んでいる. ”の場合は,マンションが福岡にあると考えられるので,更新したペルソナ要素は $z=$ “福岡でマンションに住んでいる. ”となる.このようにペルソナ要素の更新には推論を必要とするため,図 1 の形式で記述する一般的なプロンプトではなく,段階的に推論を行い解答を得ることで性能の向上が確認されている CoTを利用し,図 2 の形式でプロンプトを記述する。
NLI を利用したプロンプトの使い分けペルソナ要素ペア $\left(m_{i}, s_{j}\right)$ は含意・中立・矛盾のいずれかの論理関係を持ちうるが,論理関係の違いによって,
同じ種類のペルソナ要素の更新を行う場合であっても CoT の推論過程が異なる. 異なる推論過程を記述したプロンプトを使用することは生成時のノイズになると考えられるので, $\left(m_{i}, s_{j}\right)$ と同じ論理関係のペルソナ要素ペアを利用したショットのみで構成するプロンプトを使用する. $\left(m_{i}, s_{j}\right)$ とショットに記述されたペルソナ要素ペアの性質や関係が類似していることで性能の向上が期待される. 具体的には,図 2 の形式で記述した各ショットを, ペルソナ要素ペアの NLI [10] の結果に応じて分け 3 種類のプロンプトを用意する. 更新を行うときは, $\left(m_{i}, s_{j}\right)$ の NLI 結果に応じてプロンプトを使い分け生成を行う.
ペルソナ更新アルゴリズム最終的に保持するぺルソナ $M^{\prime}$ を得る処理は, ペルソナ更新アルゴリズムによって行う.更新アルゴリズムの詳細は付録 A に示す. Bae らの更新アルゴリズムでは, 要素ぺア $\left(m_{i}, s_{j}\right)$ に対して分類器を適用し, その分類結果に基づいてペルソナの更新処理を行う.これに対し我々の更新アルゴリズムでは, 元の要素ペアと生成されたペルソナ要素を照合することで, どの更新操作が生成モデルで選択されたのかを特定し,それに基づいて実際のペルソナ更新処理を行う.
## 3 実験
## 3.1 実験設定
ペルソナを考慮した応答生成は, MSC で fine-tuning した Transformer [11] ベースのモデル BST2.7B [3] を利用した. ペルソナの抽出には MSC で fine-tuning した BART [12]を利用した. ペルソナ要素を更新するための大規模汎用言語モデルは,主に英語で事前学習された 660 億個のパラメータを持つ公開済みの OPT [13], 日本語と英語で事前学習された 390 億個のパラメータを持つ HyperCLOVA [14] の 2 種類で比較を行う. プロンプトには, 図 2 と同様の形式で 5-ショットを記述した. NLI 分類器には, Dialogue NLI [10] で fine-tuning した DeBERTa [15] を利用した. Dialogue NLI のテストデータでの正解率は 91.3\%であった. 実装は ParlAI [16] を利用し,特に記載のない設定は ParlAI のデフォルトに従う.応答生成モデルに入力するペルソナ要素の順序は,結果に影響を与える可能性があるため,付録 B に示す実験を行った結果,最も Perplexity が低いランダム順で統一する。
ペルソナの更新を評価するために,MSC のテス
トデータで以下の 2 つの実験を行う.
1. MSC の正解のペルソナと手法ごとのペルソナの一致度を ROUGE-1, 2 (F1) [17] で評価.
2. 応答生成の性能を評価するため, 手法ごとのぺルソナを使い, 応答生成モデルの Perplexityをセッションごとに評価.
数値差の評価の補助とするため, Paired Bootstrap Resampling [18] による有意差検定を行う. 多重比較補正は行わない。
## 3.2 比較手法
以下の手法の間で比較を行う。
Accumulation 抽出したペルソナを既存のペルソナに単に追加する手法.
Classification ペルソナ要素ペアを分類してぺルソナを更新する手法. Bae らの手法 [4] を再現することを目的としている. データセットがないため 4 クラス分類器を新たに訓練する NLI transfer (fine-tune) ではなく, 既存の NLI モデルを用いて含意を PASS,中立を APPEND,矛盾を REPLACE に対応づける3クラス分類手法 (NLI zero-shot)を再現する. ペルソナ要素ペアが DELETE に分類されることはないが,Bae らによれば DELETE の割合は $5 \%$程度であり, 最大で $95 \%$ の精度を持ち得ると考えられるため,十分比較手法となりうる。
O Generation OPT を用いた提案手法.
H Generation HyperCLOVA を用いた提案手法.
提案手法の切除実験として, 図 1 の形式のプロンプトを使ったw/o CoT と,NLIを行わず 1 種類のプロンプトを使用する w/o NLI の実験を行う.また,応答生成については, 性能の上限を確かめるため,正解のペルソナを利用した Gold Persona とも比較する。
## 3.3 実験結果
正解のペルソナとの一致度を測った実験結果を表 2 に示す. H Generation は, Accumulation よりも ROUGE-1, 2 ともに高く正解のペルソナとの一致度が向上した. それ以外の手法は, Accumulation と比較して, ROUGE-1, 2 の少なくともどちらかが低い値となり, 一致度の向上は確認できなかった. 平均ペルソナ要素数に関しては,更新を行う手法は Accumulation と比較して全て減少しており, 含意や言い換えとなるペルソナ要素をまとめたり削除して
as of the new information. So, by describing the latest information, the answer is "I got a job."
図 3 提案手法によりペルソナ要素の更新を行ったペルソナの生成例. ”Let's think step by step.”以降を生成している.
表 2 正解のペルソナとの一致度を測った実験結果と平均ペルソナ要素数.†は Accumulation と比較して検定で有意 ( $p<0.05)$ であることを示す.
表 3 各手法のペルソナを使った応答生成の実験結果. 各セッションごとの Perplexity で評価.
いると考えられる。しかし,Classification は,Gold Persona よりもペルソナ要素数が少なく,過去のペルソナを削除した影響でペルソナ要素が減りすぎている可能性がある.
次に,応答生成の実験結果を表 3 に示す. 全てのセッションにおいて, Classification は Accumulation より高い Perplexity となり,ペルソナ要素ペアを分類して更新する手法の効果は確認できなかった. 提案手法では H Generation が最も低い Perplexity であり, Accumulation と比較すると, セッション 2 以外では H Generation のほうが低かった. Gold Persona ともセッション 5 での Perplexity の差が 0.012 であり,対話が長期なら提案手法が有効であることを確認した。OPTを使った手法は,HyperCLOVAを使った手法と比較して性能が低下した. モデルサイズは HyperCLOVA よりOPT のほうが大きく,OPT は英語诗化しているが,事前学習に使われたデータの質や量,ハイパーパラメータ等が性能涼響を与えていると考えられる。切除実験の結果,提案手法は w/o CoT,w/o NLIよりも優れた結果となり,CoT と,NLI でプロンプトを使い分ける手法の効果を確認した。
## 3.4 ペルソナ要素の更新例
H Generation でペルソナ要素の更新を行った生成例を図 3 に示す. 違和感のない推論過程が生成できており,入力に与えたペルソナ要素をそのまま出力するだけではなく,FUSION のようにペルソナ要素をまとめ,過去のペルソナ要素の情報も保持している例も確認した. しかし, “I am an artist."と”I am a vet.”"比較した場合に,言語モデルの出力ではアー ティストから獣医に転職したと推論しているが, アーティストと獣医を兼ねている可能性もあり,ぺルソナ要素ペアだけではどのように更新するべきか判断することが難しい例もあった.
## 4 おわりに
本稿では,ペルソナを考慮した対話システムにおいて,FUSION と REWRITE の 2 つの更新手法を新たに導入し,過去の情報も考慮したペルソナ要素を生成してペルソナを更新する手法を提案した. 情報の欠落の緩和を目的とした提案手法により先行研究と比較して正解のペルソナとの一致度,応答生成の性能の両方を向上することを確認した. 情報の欠落が防がれていることは事例分析からも確認された.今後人手評価を行い,応答生成がどのような観点で改善されているか確かめたい。また,ペルソナの更新性能は,ペルソナの抽出や応答生成といった他の機構の性能に依存するため,これらの機構も含めて総合的に向上させていきたいと考えている.
## 参考文献
[1] Iulian Vlad Serban, Ryan Lowe, Peter Henderson, Laurent Charlin, and Joelle Pineau. A survey of available corpora for building data-driven dialogue systems. arXiv preprint arXiv:1512.05742, 2015.
[2] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[3] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[4] Bae Sanghwan, Kwak Donghyun, Kang Soyoung, Young Lee Min, Kim Sungdong, Jeong Yuin, Kim Hyeri, Lee Sang-Woo, Park Woomyoung, and Sung Nako. Keep me updated! memory management in long-term conversations. In Findings of the Association for Computational Linguistics: EMNLP 2022, p. 3769-3787, Abu Dhabi, United Arab Emirates, 2022. Association for Computational Linguistics.
[5] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[6] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. In Advances in Neural Information Processing Systems, Vol. 35. Curran Associates, Inc., 2022.
[7] Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V Le, Ed H Chi, Denny Zhou, et al. Challenging big-bench tasks and whether chain-of-thought can solve them. arXiv preprint arXiv:2210.09261, 2022.
[8] Jason Wei, Yi Tay, and Quoc V Le. Inverse scaling can become u-shaped. arXiv preprint arXiv:2211.02011, 2022.
[9] 川本稔己, 山崎天, 佐藤敏紀, 奥村学. 大規模汎用言語モデルによるペルソナを考慮した応答生成. 言語処理学会第 28 回年次大会, 2022.
[10] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3731-3741, Florence, Italy, July 2019. Association for Computational Linguistics.
[11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vish- wanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[12] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[13] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, et al. Opt: Open pre-trained transformer language models. arXiv preprint arXiv:2205.01068, 2022.
[14] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, and et al. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[15] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: Decoding-enhanced bert with disentangled attention. In International Conference on Learning Representations, 2020.
[16] Alexander Miller, Will Feng, Dhruv Batra, Antoine Bordes, Adam Fisch, Jiasen Lu, Devi Parikh, and Jason Weston. ParlAI: A dialog research software platform. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 79-84, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[17] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, 2004. Association for Computational Linguistics.
[18] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 388-395, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[19] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
## A ペルソナの更新アルゴリズム
提案手法のペルソナの更新アルゴリズムを図 4 に示す.
## Input:
$M=\left.\{m_{1}, m_{2}, \ldots, m_{T}\right.\}$
$S=\left.\{s_{1}, s_{2}, \ldots, s_{K}\right.\}$
$N L I(m, s) \rightarrow\{$ "含意","中立”,"矛盾"\}
$p \rightarrow\left.\{p_{\text {ent }}, p_{\text {neu }}, p_{\text {con }}\right.\}$
Output: $M^{\prime}=\left.\{m_{1}^{\prime}, m_{2}^{\prime}, \ldots, m_{\left|M^{\prime}\right|}^{\prime}\right.\}$
function UPDATE_PERSONA $(X, Y)$
if $Y=\varnothing$ then
return $X$
end if
for all $y_{j} \in Y$ do
$X^{\prime} \leftarrow \varnothing$
$U \leftarrow \varnothing$
$f_{\text {del }} \leftarrow$ false
for all $x_{i} \in X$ do
if $N L I\left(x_{i}, y_{j}\right)=$ "含意" then
$p \leftarrow p_{\text {ent }}$
else if $N L I\left(x_{i}, y_{j}\right)=$ "中立" then
$p \leftarrow p_{\text {neu }}$
else if $N L I\left(x_{i}, y_{j}\right)=$ "矛盾" then
$p \leftarrow p_{\text {con }}$
end if
if $G\left(x_{i}, y_{j}, p\right)=\varnothing$ then
$f_{\text {del }} \leftarrow$ true
else if $G\left(x_{i}, y_{j}, p\right)=x_{i}$ then
$f_{\text {del }} \leftarrow$ true
$U \leftarrow U \cup x_{i}$
else if the number of $G\left(x_{i}, y_{j}, p\right)$ is $1 \quad \&$
$G\left(x_{i}, y_{j}, p\right) \neq y_{j}$ then
$f_{\text {del }} \leftarrow$ true
else
$U \leftarrow U \cup G\left(x_{i}, y_{j}, p\right)$
$X^{\prime} \leftarrow X^{\prime} \cup G\left(x_{i}, y_{j}, p\right)$
end if
end for
if $f_{\text {del }}=$ true then
$X^{\prime} \leftarrow X^{\prime}-y_{j}$
$X^{\prime} \leftarrow$ UPDATE_PERSONA $\left(X^{\prime}, U\right)$
end if
$X \leftarrow X^{\prime}$
end for
return $X^{\prime}$
end function
$M^{\prime} \leftarrow$ UPDATE_PERSONA $(M, S)$
return $M^{\prime}$
図 4 提案手法のペルソナの更新アルゴリズム. $G\left(x_{i}, y_{j}, p\right)$ は大規模言語モデルでプロンプト $p$ を利用し, $x_{i}$ と $y_{j}$ のペルソナ要素ペアでペルソナ要素の更新を行うことを表す. $\left.\{p_{\text {ent }}, p_{\text {neu }}, p_{\text {con }}\right.\}$ はそれぞれ含意・中立・矛盾に対応したプロンプトである.
## B ペルソナ要素の順序による影響
## 調査
ペルソナを考慮した対話の実験を行うにあたって,応答生成モデルに与えるペルソナ要素の順序が対話性能に影響があるのか不明であるため調査を行う. ペルソナ要素の順序は古い順 (Old), 新しい表 4 応答生成モデルに与えるペルソナ要素の順序を変化させた実験結果. †は Sort Old と比較して検定で有意 $(p<0.05)$ であることを示す.
順 (New), 直近の発話との関連度順 (Related), ランダム (Random)の 4 種類で比較する. 直近の発話との関連度順とは,ユーザの直前の発話とペルソナ要素の各埋め込み表現のコサイン類似度が高い順とした. 埋め込み表現を得るためには SimCSE [19] ${ }^{11}$ を使い, $[C L S]$ トークンの埋め込み表現を利用した. それ以外の実験設定は,3.1 節の設定に従い,応答生成性能をセッション 2 からセッション 5 の平均の Perplexity で評価する.
結果を表 4 に示す. ペルソナ要素の順序により, Perplexity が変化することから,ペルソナ要素を入力に与える順序は応答生成に影響を与えることが判明した。その上で,ペルソナ要素をランダムに並べた Sort Random の Perplexity が最も低いことを確認した.
1) https://huggingface.co/princeton-nlp/ sup-simcse-roberta-large | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H2-4.pdf | # インタビュー対話における問い返し文の生成に関する検討
篠山学 ${ }^{1}$ 木内敬太 ${ }^{2}$ 康金 ${ }^{3}$ 西村良太 $^{3}$ 松本和幸 ${ }^{3}$
${ }^{1}$ 香川高等専門学校 ${ }^{2}$ 労働者健康安全機構 ${ }^{3}$ 徳島大学大学院社会産業理工学研究部
sasayama@di. kagawa-nct.ac.jp kiuchi@h. jniosh. johas. go.jp
$\{$ kang-xin, nishimura, matumoto $\}$ is. tokushima-u. ac.jp
## 概要
遠隔勤務をしているとき,遠隔労働者が自分自身のストレスに気づけないことも多い. 精神面の健康状態が深刻になる前に自分自身で気づくことができれば, 健康を維持することにつながる. 本研究では,遠隔労働者が健康状態をセルフチェックするためのバーチャルエージェント対話システムの構築を目的としている. 本稿では,対話時に必要となる「問い返し」の生成手法について考察する。
## 1 はじめに
世界的な環境の変化により遠隔労働者が増加している。人材確保を目的に多様な働き方を認めている企業も多いため, 今後も遠隔労働者が増えていくと考えられる. 社外で業務を認める場合, 企業にとつて社員の精神面での健康状態の把握が重要となる.対面であれば気づけるような社員の変化も,カメラを介した対話 (遠隔対話) では気づけない可能性がある. また, 遠隔勤務という環境は精神的に悪影響が出やすいと考えられる. 例えば,対面であれば気軽に声をかけられるが, 遠隔では用件がなければ対話することは難しい. また, 自分以外の社員の存在を感じにくいため孤立感を深めてしまったり, 自分では気づかないうちに精神面の健康が悪化してしまったりする. 遠隔労働者の精神面での健康状態を把握するには, 産業医や上司, カウンセラーとの遠隔面談などが必要である.また、カメラやマイクを介した場合, 音声や表情, 動作が把握しづらいため, カウンセラーにも負担が大きい,そこで,業務や面談の遠隔対話時の音声や表情, 動作からストレスを検出できれば,カウンセラーの負担軽減や本人へのフイードバックに利用できる.
本研究では, 遠隔労働者が健康状態をセルフチェックするためのバーチャルエージェント対話システムの構築を目的としている. 本稿では, 対話時に必要となる「問い返し」の生成手法について考察する.具体的には, 既存の問い返しの生成手法を実装し, インタビュー対話を用いた評価実験を行った。
## 2 問い返し文の生成
本稿では, 問い返し文の生成に既存手法を用いる.高齢者との傾聴対話を目的にした下岡ら[1]の最終述語の不足格判別に基づく問い返し文生成手法である.コーパスから動詞ごとの必須格を決定しておき,発話文内に最終述語の動詞の必須格がなければ,必須格を問い返す問い返し文を生成できる。例えば,「そこで食べたの。」という発話文の動詞「食べる」 の必須格が深層格の source 格であったならば, 発話文内に「Э格」が存在しないため「何を食べた?」 を生成する, 必須格辞書の作成の流れを図 1 に示す.
図 1 必須格辞書の作成の流れ
新聞コーパスは毎日新聞(1995 年版)を用いた。シソ ーラスには, 国立国語研究所の『分類語彙表一増補改訂版一』データベース[2]を用いた. 形態素解析には JUMAN[2], 構文解析には KNP[3]を用いた. 作成した必須格辞書に登録された動詞は 460 であった.必須格辞書の一部を表 1 に示す.
表 1 作成した必須格辞書の一部
## 3 評価実験
作成した必須格辞書を用いて問い返し文が生成できるか確認するために評価実験を行った.評価文はテレビの対談番組から作成したインタビュー対話コ一パス[4]を用いた. 300 回分(約 500 対話/回)から発話の組(発話文と問い返し文)を作成した. ただし, 発話者が異なる,発話文の文末が疑問形,共通の動詞を含む,受動態でない,発話文 60 文字以内かつ問い返し文 30 文字以内をすべて満たす組とした. 実験に使用した発話の組は 1037 である. 発話の組の一部を表 2 に示す。
表 2 評価に用いた発話の組
実験は,構築した既存手法に発話文を入力し,問い返し文を生成して「質問形-格助詞-動詞」の出力形で返す. 次に正解となる発話の組の問い返し文(正しい問い返し文)を「質問形-格助詞-動詞」の出力形に変換する. 生成された問い返し文の出力形と発話の組の出力形が一致すれば正解とする。
## 4 結果と考察
実験結果を表 3 に示す. 正解となった出力はなかった。不正解は生成された問い返し文と正しい問い返し文の出力形が異なっていた場合である.例えば,発話の組(こうやって歩くんです: 体の重心はどこに置くのですか?)を入力としたとき,生成された問い返し文の出力形は「どこ, Э,歩く」,正しい問い返し文の出力形は「重心-どこ,ガ-二,置く」と
なっており不正解となった。また,必須格辞書に登録されていない動詞が多かった. 使用した 1 年分の新聞コーパスでは不足していた可能性がある.既存手法では新聞コーパス 5 年分を使用している。抽出対象が最終述語のみとしていることからも 5 年分は必要と考えられる。
表 3 実験結果
正しい問い返し文に助詞がまったくない場合も多かった,例えば,発話の組(言わないです。:言わない?)のような場合である。また,必須格がなければ問い返すと考えていたが,必ずしもそうではない場合が多い,例えば,(ずっと食べてみたいなと:前から食べてみたい?)のように何を食べたいかはこの発話までに明らかになっていた。必須格があっても問い返す場合も多い,例えば,(ジムに行ってます:ジム、どのくらいの割合?)のように必須格であっても問い返すことは当然可能である.
## 5 おわりに
遠隔労働者が健康状態をセルフチェックするためのバーチャルエージェント対話システムの構築を目的に,問い返し文の生成について既存手法の実装と問い返し文の特徴について考察した。インタビュー 対話は必須格の有無で問い返しているのではないため,動詞別格パタンから問い返し文を生成する.
## 謝辞
本研究は, 国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の助成事業 (JPNP20004)並びに JSPS 科研費 JP22K12213の助成を受けたものです.
## 参考文献
1. 音声対話ロボットのための傾聴システムの開発. 下岡和也, 德久良子, 吉村貴克, 星野博之, 渡辺生聖. 自然言語処理, 24(1), pp.3-47, 2016.
2. 日本語形態素解析システム JUMAN, .
3. 日本語構文解析システム KNP, .
4. Manabu Sasayama, Kazuyuki Matsumoto, Annotation and Evaluation of Utterance Intention Tag for Interview Dialogue Corpus, NLPIR, 2021. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H2-5.pdf | # 人間同士の雑談における話題遷移モデリング
岸波洋介 ${ }^{1}$ 赤間怜奈 1,2 佐藤志貴 1 徳久良子 ${ }^{1}$ 鈴木潤 1,2 乾健太郎 1,2
1 東北大学 2 理化学研究所
yosuke.kishinami.q8@dc.tohoku.ac.jp
\{akama, shiki.sato.d1, tokuhisa, jun.suzuki,kentaro.inui\}@tohoku.ac.jp
## 概要
対話システムが現在話している話題から別の話題へ自然に遷移させることは,能動的に対話を主導する雑談対話システムの実現に重要な要素である.これまでの研究では,単語分散表現の類似度や知識グラフの概念間の結びつきなど,様々な工学的手法で話題遷移が表現されている. 本研究ではこれらの工学的手法を「人がおこなう話題遷移のモデルとなっているか」という観点で分析する。分析の結果,それぞれの工学的手法のみで表現できる話題遷移が存在する可能性が示唆された。
## 1 はじめに
大規模な事前学習済みモデルの利用などにより,雑談対話システムは,人間と同等レベルの自然な応答を生成できるようになってきている $[1,2,3,4]$. しかしながら, 現在のシステムは,与えられた対話文脈に対して適切な応答を返すことだけに着目し,システム側が能動的に対話を主導する振る舞いをすることは少ない.そのため,対話システムが能動的に対話を主導する能力を実現することを目的とした研究が盛んにおこなわれるようになった $[5,6,7,8,9,10,11]$. 能動的に対話を主導する能力を実現するうえで,対話システムが自然に話題を遷移させる行為は重要な要素であると考えられる。先行研究では, ある話題から別の話題に遷移させる際に,さまざまな手法を用いて遷移先の話題を決定している。代表的なものとして,ある話題からその話題を表す単語分散表現とのコサイン類似度が高い話題へ遷移させる手法 $[5,6]$, ある話題から,その話題を表現する概念が知識グラフ上で数ホップのエッジで隣接している概念へ話題を遷移させる手法 $[8,9,12,13,14]$ などが存在する.
本研究では,これらの手法と人間が実際の対話のなかでおこなう話題遷移との関係性を明らかにす
るために,これらの工学的手法を「人がおこなう話題遷移のモデルとなっているか」という観点で分析する.具体的には,与えられた話題遷移が人が実際に対話でおこなう自然な話題遷移であるか,そうでないかを判定する二值分類タスクを提案する。さらに,実験では前述の代表的な工学的手法について,提案するタスクを用いて分析をおこない,各手法の特性について調査する. 分析の結果,それぞれの手法のみで表現できる話題遷移が存在する可能性が示唆された。このような分析により各工学的手法と人の話題遷移との関係性が明らかになれば,人の話題遷移に関する新たな知見となるだけでなく,対話システムにおいて話題遷移を表現する既存手法の改良や新規手法の考案にもつながると考えている.
## 2 関連研究
話題遷移の表現ある話題から別の話題へ遷移させる行為は,人同士の対話の中でもしばしばおこなわれる重要な対話行為であり,このような振る舞いを対話システムで実現することは対話システムが能動的に対話を主導する能力を実現するうえで重要である.Tang らは話題間の繋がりを表現する際,単語分散表現のコサイン類似度を繋がりの自然さの指標として用いている [5]. 一方,Zhou らは ConceptNet 上の概念間の隣接関係を話題の繋がりを表現する際に用いている [13]. また,坂田らは Wikipedia の文書内のハイパーリンク情報を話題の繋がりを表現する際に用いている [11]. その他にも,山内らは Web 検索により取得したヒット件数の情報を用いている [12]. このように先行研究ではさまざまな手法で話題遷移を表現しているが,これらの手法が人間がおこなう話題遷移をモデリングするかという観点で手法間の比較はなされていない。本研究ではこの観点で手法間の比較をおこなう.特に本論文では一歩目として,主要な手法である単語分散表現と知識グラフを用いた手法を比較する。
図 1 分析タスクの概要. 図における○は「遷移可」,×は「遷移不可」を示す.
話題遷移の検出対話における話題遷移に着目した研究の一つに,話題遷移の検出に関する研究がある. 谷津らは日本語の自由対話データに対し, 話題遷移箇所へのラベル付与をおこない,対話におけるラベル位置の分析をおこなっている [15]. また, Xie らは対話において話題が遷移している箇所のアノテーションを付与した TIAGE というデータセットを構築し,話題遷移箇所の検出タスクなどを提案している [16]. また Soni らは,話題遷移検出だけでなく, 既存の対話コーパスに基づいて話題の遷移回数と対話の長さの関係などを分析している [17]. これらの研究では主に話題が遷移するタイミングに着目している。一方で本研究では遷移する話題の内容に着目し,人間が対話のなかでおこなう話題遷移を既存の工学的手法がモデリングするか分析する.
## 3 分析方法
本節では,話題遷移を表現する工学的手法が「人の話題遷移のモデルとなっているか」を分析するための分析方法について述べる.
## 3.1 タスク定義
本研究では,ある手法が人の話題遷移をモデリングするならば,人間同士の対話において実際に発生している自然な話題遷移と,人がおこなわないような不自然な話題遷移を適切に識別可能であると考え,この識別をおこなう二値分類タスクを設計する. 図 1 にタスクの概要を示す. 二つの話題 $a, b$ が与えられた時, 話題 $a$ から話題 $b$ への話題遷移が自然であるならば「遷移可」, 不自然であるならば「遷移不可」のラベルを付与する。ここで話題は,人間がおこなった対話における 1 発話に含まれる話題語の集合と定義する。それらを対話ごとに時系列順に並べ,隣接する話題ぺアを正例,つまり正解ラベルとして「遷移可」を付与する。また,同一対話内であるかに関わらず無作為に抽出したぺアを負例,つまり正解ラベルとして「遷移不可」を付与する。このような二値分類タスクを各工学的手法で実施することで,後述する F1 值などの定量的な評価値を用いた比較,分析が可能になると考える.
## 3.2 評価方法
評価指標としては,各手法が「遷移可」と判定した事例のうち実際に「遷移可」のラベルが付与された事例である割合の適合率,「遷移可」のラベルが付与された事例のうち,各手法が「遷移可」と判定できた割合の再現率,その調和平均である $\mathrm{F} 1$ 値を使用する.
## 4 実験
3節で述べた二値分類タスクを用いて,主要な工学的手法を「人の話題遷移のモデルとなっているか」という観点で分析する。
## 4.1 データセット
ここでは分析で使用する二值分類タスクのデー タセット,つまり話題 $a, b$ の作成方法,および正解ラベルの付与方法について述べる. 名大会話コーパス [18] から無作為に抽出した 50 対話について,各発話を形態素解析器 MeCab [19] を用いて形態素解
表 1 抽出された話題の例. 下線は形態素解析で名詞と判定された単語を表す.
表 2 作成した二値分類タスクデータセットの例.
析し,話題語を抽出する。3 節で述べたように,このようにして抽出された話題語の集合を話題と呼ぶ. 話題語は形態素解析で名詞と判定された単語のうち, 2 文字以上かつ 2022 年 8 月時点で日本語 Wikipedia の見出し語となっている単語とした. 実際に抽出された話題の例を表 1 に示す. 用意した話題について,3節で述べたような基準に従い「遷移可」,「遷移不可」のラベルを付与した. このような手続き1)により,最終的に「遷移可」の事例 15,926 個,「遷移不可」の事例 15,723 個を分析用データセットとして得た. 作成したデータセットの例を表 2 に示す.
## 4.2 比較手法
本研究では,先行研究において対話における話題遷移を表現するために広く利用されている単語分散表現,知識グラフを用いた手法の二つを比較,分析する。
単語分散表現ある話題とそれに続く話題の繋がりの自然さを話題間の単語分散表現の類似度で表現する手法である。単語分散表現には日本語 Wikipedia エンティティベクトル [20]を使用した.話題 $a$ に含まれる話題語集合と話題 $b$ に含まれる話題語集合について,全ての組み合わせについて分散表現のコサイン類似度を計算し,そのうち一組でもコサイン類似度が閾値 $n$ 以上である組が存在すれば 「遷移可」,一組も存在しなければ「遷移不可」とラベルを付与することとした. 閾値 $n$ として, 0.6,0.4 を用いた。
知識グラフある話題とそれに続く話題の繋がりの自然さを話題間が知識グラフ上で何ホップのエッジで隣接しているかで表現する手法である. 知識グラフには ConceptNet5 [21] を使用した. 話題 $a$ に含まれる話題語集合と話題 $b$ に含まれる話題語集合について, 全ての組み合わせについて知識グラフ上の概念間が何ホップのエッジで隣接しているかを計算し, そのうち一組でも $m$ ホップ以内のエッジで隣接している組が存在すれば「遷移可」, 一組も存在しなければ「遷移不可」とラベルを付与した.閾値 $m$ として,1,2を用いた。
## 4.3 実験結果
実験結果を表 3 に示す. 表から,単語分散表現の判定基準「話題語のコサイン類似度 0.4 以上」が最も F1 値が高いことが確認できる.このことから,単語分散表現を用いた手法は少なくとも名大会話コーパス上で発生するような話題遷移については,知識グラフを用いた手法よりもより高性能なモデルとなっている可能性が示唆された.
また,「遷移可」のラベルを付与した事例 15,926 個の各手法における判定結果を調査したところ,単語分散表現のみで「遷移可」と正しく判定できた事例が $16 \%$ ,知識グラフのみで「遷移可」と正しく判定できた事例が $10 \%$ 存在することがわかった ${ }^{2}$. このことから,それぞれの手法のみで表現できるような話題遷移が存在する可能性が示唆される。表 4 および表 5 に,実際にそれぞれの手法のみで正解できた事例を示す。このような話題遷移の定性的な特徴に関する分析は今後の課題としたい。
## 5 タスクの信頼性
実験で作成した二値分類タスクのデータセットを定性的に確認したところ,本タスクの信頼性をさらに高められる方向性を大きく二つ確認した.
2) 単語分散表現の閾値は 0.4 , 知識グラフの閾値は 2 としたときの結果について調査したものである。なお,両手法で 「遷移可」と正しく判定できた事例は $40 \%$ ,両手法で誤った判定をしていた事例は $34 \%$ であった.
表 3 実験結果.
表 4 単語分散表現のみで「遷移可」と正しく判定できた例。
表 5 知識グラフのみで「遷移可」と正しく判定できた例.
話題の抽出方法表 1 の 3 の例には,抽出した話題語集合のなかに「とき」という単語が含まれている.しかしながら,このような単語が対話における話題を表すような話題語として適切かどうかは議論の余地があると考える. 今後の展望として, 言語学的知見も参考に話題語の定義について調査するとともに,上記のような話題語が抽出されないような方法を検討していく必要があると考える. 方法のひとつとして,TF-IDF などといった情報量的な観点を導入し,それに基づいた抽出をおこなうなどが考えられる。
負例の作成方法表 2 の 5 の例は「遷移不可」のラベルが付与されているが,話題 $a, b$ はどちらも食べ物に関する話題であり,人間同士の対話のなかでも自然に遷移する可能性があると考えられる. 本研究では「遷移不可」のラベルを付与するデータセットを作成する際に無作為に抽出した話題を用いているため,この例のように自然な話題遷移も「遷移不可」とラベルが付与されてしまう可能性がある. し
たがって,このような事例を除去する方法や,このような事例を未然に防ぐようなデータセット作成方法について検討していく必要があると考える.このような課題は本研究で設計したタスク以外でも発生するものであり, 同様の課題に対処するような研究 [22] の知見が参考になると考えられる.
## 6 おわりに
本研究では,対話における話題遷移を表現する工学的手法を「人がおこなう話題遷移のモデルとなっているか」という観点で分析するために,与えられた話題遷移が人が実際に対話でおこなう自然な話題遷移であるかどうかを判定する二値分類タスクを設計した. さらに,実験では主要な話題遷移の表現手法である単語分散表現,知識グラフを用いた手法について,設計したタスクを解くことで分析をおこなった. 実験の結果,それぞれの手法のみで表現できる話題遷移が存在する可能性が示唆された.
本研究では主要な話題遷移の表現手法として単語分散表現,知識グラフを用いた手法について分析したが,話題遷移を表現する手法はこの他にもいくつか存在する。したがって,こうした手法も追加し網羅的な分析をおこなうことが今後の課題の一つである。また,人間同士の対話においては,しばしば 「ところで」や「そういえば」のような話題転換語を用いた話題遷移も発生する。したがって,これらの話題転換語の使用と絡めた分析をおこなうことも今後の課題の一つである. さらに,本研究では人間が実際におこなった自然な話題遷移として名大会話コーパスを使用したが,より網羅的に人間の話題遷移を扱うため,また,対話コーパスごとの特性と絡めた分析をおこなうためにその他の対話コーパスを用いることも今後の課題である.
## 謝辞
本研究は JSPS 科研費 JP22K17943, JP21J22383, JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものです.
## 参考文献
[1] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a Human-like Open-Domain Chatbot. In arXiv:2001.09977, 2020.
[2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and William B. Dolan. DIALOGPT : Large-Scale Generative Pre-training for Conversational Response Generation. In Proceedings of ACL, pp. 270-278, 2020.
[3] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y. Lan Boureau, and Jason Weston. Recipes for Building an Open-Domain Chatbot. In Proceedings of EACL, pp. 300-325, 2021.
[4] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz, William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y-Lan Boureau, Melanie Kambadur, and Jason Weston. BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage. In arXiv:2208.03188, 2022 .
[5] Jianheng Tang, Tiancheng Zhao, Chenyan Xiong, Xiaodan Liang, Eric Xing, and Zhiting Hu. Target-Guided Open-Domain Conversation. In Proceedings of ACL, pp. 5624-5634, 2019.
[6] Jinghui Qin, Zheng Ye, Jianheng Tang, and Xiaodan Liang. Dynamic Knowledge Routing Network for Target-Guided Open-Domain Conversation. In Proceedings of AAAI, pp. 8657-8664, 2020.
[7] Peixiang Zhong, Yong Liu, Hao Wang, and Chunyan Miao. Keyword-Guided Neural Conversational Model. In Proceedings of AAAI, pp. 14568-14576, 2021.
[8] Yosuke Kishinami, Reina Akama, Shiki Sato, Ryoko Tokuhisa, Jun Suzuki, and Kentaro Inui. Target-Guided Open-Domain Conversation Planning. In Proceedings of COLING, pp. 660-668, 2022.
[9] Zhitong Yang, Bo Wang, Jinfeng Zhou, Yue Tan, Dongming Zhao, Kun Huang, Ruifang He, and Yuexian Hou. TopKG: Target-oriented Dialog via Global Planning on Knowledge Graph. In Proceedings of COLING, pp. 745755, 2022.
[10] Wenquan Wu, Zhen Guo, Xiangyang Zhou, Hua Wu, Xiyuan Zhang, Rongzhong Lian, and Haifeng Wang. Proactive Human-Machine Conversation with Explicit Conversation Goal. In Proceedings of ACL, pp. 37943804, 2019.
[11] 坂田亘, 吉越卓見, 田中リベカ, 黒橋禎夫. Wikipedia のリンク情報に基づく話題遷移シナリオの自動生成. 言語処理学会年次大会発表論文集, pp. 637-641, 2021.
[12] 山内祐輝, Graham Neubig, Sakriani Sakti, 戸田智基, 中村哲. 対話システムにおける用語間の関係性を用いた話題誘導応答文生成. 人工知能学会論文誌, Vol. 29, No. 1, pp. 80-89, 2014.
[13] Kun Zhou, Yuanhang Zhou, Wayne Xin Zhao, Xiaoke Wang, and Ji-Rong Wen. Towards Topic-Guided Conversational Recommender System. In Proceedings of COLING, pp. 4128-4139, 2020.
[14] Karin Sevegnani, David M. Howcroft, Ioannis Konstas, and Verena Rieser. OTTers: One-turn Topic Transitions for Open-Domain Dialogue. In Proceedings of ACLIJCNLP, pp. 2492-2504, 2021.
[15] 谷津元樹, ジェプカラファウ, 荒木健治. 自由対話からの話題遷移検出のためのタグ付け調査. 言語処理学会年次大会発表論文集, pp. 236-239, 2014.
[16] Huiyuan Xie, Zhenghao Liu, Chenyan Xiong, Zhiyuan Liu, and Ann Copestake. TIAGE: A Benchmark for TopicShift Aware Dialog Modeling. In Findings of EMNLP, pp. 1684-1690, 2021.
[17] Mayank Soni, Brendan Spillane, Emer Gilmartin, Christian Saam, Benjamin R. Cowan, and Vincent Wade. An Empirical Study of Topic Transition in Dialogue. In arXiv:2111.14188, 2021.
[18] Itsuko Fujimura, Shoju Chiba, and Mieko Ohso. Lexical and grammatical features of spoken and written Japanese in contrast: exploring a lexical profiling approach to comparing spoken and written corpora. In Proceedings of GSCP International Conference. Speech and Corpora, pp. 393-398, 2012.
[19] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of EMNLP, pp. 230237, 2004.
[20] 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎 . Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会年次大会発表論文集, pp. 797-800, 2016.
[21] Robyn Speer, Joshua Chin, and Catherine Havasi. ConceptNet 5.5: An Open Multilingual Graph of General Knowledge. In Proceedings of AAAI, pp. 4444-4451, 2017.
[22] Shiki Sato, Reina Akama, Hiroki Ouchi, Jun Suzuki, and Kentaro Inui. Evaluating Dialogue Generation Systems via Response Selection. In Proceedings of ACL, pp. 593-599, 2020.
## A 両手法で正解・不正解の事例
表 6 に正解ラベルが「遷移可」である事例のうち,単語分散表現, 知識グラフの両手法で「遷移可」と正しく判定できた例を示す. また,表 7 に正解ラべルが「遷移可」である事例のうち,単語分散表現,知識グラフの両手法で「遷移不可」と誤って判定された例を示す.
表 6 単語分散表現,知識グラフの両手法で「遷移可」と正しく判定できた例.
表 7 単語分散表現, 知識グラフの両手法で「遷移不可」 と誤って判定された例.これらの事例の正解は「遷移可」 である.
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H3-1.pdf | # 修辞構造と語彙難易度を制御可能なテキスト生成手法に向けて
横川悠香 1 石垣達也 ${ }^{2}$ 上原由衣 ${ }^{2}$ 宮尾祐介 ${ }^{3,2}$ 高村大也 ${ }^{1}$ 小林一郎 1,2
1 お茶の水女子大学大学院 ${ }^{2}$ 産業技術総合研究所 ${ }^{3}$ 東京大学
\{g1820542,koba\}@is.ocha.ac.jp yusuke@is.s.u-tokyo.ac.jp
\{ishigaki.tatsuya, yui.uehara, takamura.hiroya\}@aist.go.jp
## 概要
言語は,それが用いられる社会的な状況に応じてその形態が変化する。例えば,同じ内容を説明する際であっても,幼い子供を対象にした発話では,理解が容易な文章構造の下,使用される語彙の難易度が低くなるといった変化が生じる. 本研究では,特に発話相手の読解能力レベルに応じた,テキストの修辞構造と語彙の難易度の変化に着目し,それらを考慮した制御可能なテキスト生成手法を開発することを目的とする。テキスト生成の実験においては, レベルに応じた生成を行うために,対象者のレベルが異なるニュース記事で構成されるコーパスである Newsela コーパスを用い,異なるレベルに対しても読解が容易なテキストの生成を行なった.
## 1 はじめに
発話相手の読解能力レベルによって,適切なテキストは異なる [1]. 同じ内容を伝える際であっても,発話相手のレベルに応じ,テキスト全体の構造や使用する語彙の難易度を変化させる必要が生じる. 本研究では,レベルに応じた変化のうち,テキストの構造を捉えるものである修辞構造 [2] と, 使用される語彙の難易度を,テキスト生成において制御する手法を提案する.レベルが異なるニュース記事で構成されるコーパス [3] を用い, 記事の内容を端的に表す文であるニュース記事の表題と,記事本文から抜き出した重要なフレーズであるキーフレーズを入力として,表題に基づいた内容を持ち,キーフレー ズを使用したテキストの生成に取り組む. その生成に,レベルに応じた修辞構造と語彙の難易度に基づく制御を加える. テキスト生成において, 修辞構造をモデルの訓練において補助として用い,テキスト全体の一貫性を高める手法 [4] があるが,本研究では修辞構造に基づいた制御を生成時にも追加する。 また,テキスト平易化における語彙の難易度に着目
した手法 [5] を訓練と生成時に取り入れる. 生成時には,言語モデルの生成にトピックや感情を導入する Controlled Text Generation における手法 [6] を,修辞構造と語彙の難易度に基づく制御に適用する。
## 2 関連研究
Controlled Text Generation において, Plug and Play Language Models (PPLM) [6] は,言語モデルに追加の訓練を必要としないことが特徴である。また,テキスト生成における制御のうち,テキスト全体が内容についての一貫性を持つように生成する Content Planning の手法として PAIR [7] が挙げられる。 一方で,テキスト全体の構造を捉えるものとして,修辞構造がある. 修辞構造を学習において利用することで,テキスト全体が自然な構造を持つようにする手法として FlowNet [4] がある。 また,テキスト平易化 [8] において生成されるテキストが,時に難易度の高い単語を含むことが知られており,語彙の難易度を考慮して平易化を行う手法 [5] が提案されている.
本研究においては,Newsela コーパス [3] をデー タセットとして用い,テキスト生成において修辞構造と語彙の難易度の制御を行う. 生成の基盤として PAIR を用い,そこに PPLM の手法を用いた制御を取り入れる。
## 3 提案手法
図 1 に提案手法の概要を示す. データセットとして,主にテキスト平易化において広く使用される Newsela コーパス [3] を用いる. Newsela コーパスは,ニュースの元記事と,それを人手により平易な英語に書き換えた 4 つのバージョンで構成される. コーパス内の記事には,英語文章の難易度から読者の読解能力を測るために使用される指標である
図 1 提案手法
Lexile readability score ${ }^{1)}$ に基づく 2 から 12 のレベルが付与されている.本研究では,問題を簡単にするため Newselaコーパスに含まれるニュース記事内の段落の内,3 文で構成されるものをデータとして用いる。ニュース記事の表題と,本文中から抜き出した重要なフレーズであるキーフレーズを入力として与え,表題に基づいた内容を持ち,キーフレーズを使用したテキストを生成する. その生成に,レベルに応じた修辞構造と語彙の難易度に基づく制御を加える。
重要なフレーズであるキーフレーズとして,デー タセットに対して TopicRank アルゴリズム [9] を用い,キーフレーズを事前に抽出する. 抽出したキー フレーズは平均で 9.57 個であった.
テキスト全体の構造を捉えるため,修辞構造理論(Rhetorical Structure Theory, RST)を用いる. RST では,テキストを意味の最小単位である Elementary Discourse Unit (EDU) で区切り,EDU 同士の関係性を木構造で考える. 関係は Nuclearity と Relation Label の2つの要素で表現される. Nuclearity は Nucleus と Satelliteの 2 つの値を取る. 木の中で子となる 2 つの EDU の内,Nucleus である EDU は Satellite である EDU より重要であることを表す. Relation Label は [2]による 18 種類のものを採用する. 木の中で子となる 2 つ EDU が,例えば原因と結果のように, どのような関係になっているかを表す. データセットに対し RST の学習済みパーザである DPLP [10] を用い,修辞構造を得る.問題を簡単にするため,先行研究 [4] に従い,テキスト中で隣り合う EDU 同士の関係のみ考慮することによって, 図 2 に示すように修辞構造の木をリスト化する。 リストに変換する際,関係が 2 つ連続して現れた場合は,木の中でより深い位置にある関係を優先する。また,木の中央にあるノードが子となるノードより後に現れた場合
measures/about-lexile-measures-for-reading/
は,そのノードに対応する関係は無視される.
## 3.1 修辞構造と語彙難易度を考慮した訓練
テキスト生成を行う上で基盤となる手法が PAIR [7] である. PAIR では,正解文からキーフレー ズの出現する位置以外をマスクしたテンプレートを作成する。そのテンプレートを BART [11]を用いて穴埋めする.穴埋めした結果のトークン列で確率の低いトークンをマスクしたものを次の生成におけるテンプレートとし,再び穴埋めすることを繰り返して最終的なテキストを生成する。本研究では,トー クン列を EDUで区切り,その区切りに特殊トークン [EDU] を挿入する.テンプレートを作成する際に,キーフレーズに加えて [EDU] もマスクしないトークンとする。
修辞構造を訓練において考慮するため,テキスト生成モデルの訓練時には,修辞構造に基づくラベルを作成する. 正解文のトークン列から,[EDU] に続くトークンである,各 EDU の先頭トークンに RST における関係を対応させ,それ以外のトークンには null を対応させる. ラベル作成の例を図 3 に示す. RST における関係が対応する,各 EDU の先頭トー クンの隠れ状態に対して分類器を適用し,RST の関係について分類する。 その分類結果とラベルに対して損失を計算し,訓練時の損失に加える。
語彙の難易度については,先行研究 [5] に従い,語彙の難易度を単語とレベルの正の自己相互情報量(Positive Pointwise Mutual Information, PPMI)に基づき考え,各レベルに特徴的な単語に対して重みを加える. 単語 $w$ と, Newsela コーパスで設定されたレベル $l$ から,PPMI を求める:
$
\begin{aligned}
\operatorname{PMI}(w, l) & =\log \frac{P(w \mid l)}{P(w)} \\
\operatorname{PPMI}(w, l) & =\max (\operatorname{PMI}(w, l), 0) .
\end{aligned}
$
$P(w \mid l)$ はレベルが $l$ の文書に単語 $w$ が出現する確率であり,P(w) は文書集合全体で単語 $w$ が出現する確率である.式 (2) において値を 0 以上としているのは,PMI が負となる単語はレベルによらず広く出現していると考えられ,そのレベル特有の単語とはいえないためである.PPMI を用い,次のように損失を計算する:
$
\begin{aligned}
f(w, l) & =\operatorname{PPMI}(w, l)+1 \\
L(\boldsymbol{o}, \boldsymbol{y}, w, l) & =-f(w, l) \cdot \log o_{c}
\end{aligned}
$
ここで,oはロジットベクトルである.最終的な損
図 2 修辞構造のリスト化
図 3 修辞構造に基づくラベル
失関数は,上記の RST に関する損失とこの語彙難易度に関する損失を足したものになる。
## 3.2 PPLM を用いた生成の制御
PPLM [6] の手法を用いて修辞構造についての制御を追加する. テキストにトピックや感情といった特定の属性 $a$ を持たせるとき,テキストを $x$ とすると,分布 $p(x \mid a)$ をモデリングすることが目標となる. このとき PPLM では,ベイズの定理により
$
p(x \mid a) \propto p(x) p(a \mid x)
$
となることから,言語モデルの分布 $p(x)$ に分布 $p(a \mid x)$ を掛け合わせることで $p(x \mid a)$ が得られると考える. 分布 $p(a \mid x)$ は,トピックの導入の場合はトピックに固有の単語を集めた Bag-ofWords $=\left.\{w_{1}, \cdots, w_{k}\right.\}$ を用いて以下のように定義される:
$
p(a \mid x)=\sum_{i}^{k} p_{t+1}\left(w_{i}\right)
$
感情の導入の場合は単層の分類器 $f$ を用いて以下のように定義される:
$
p(a \mid x)=f\left(o_{t+1}\right) .
$
ここで, $o_{t+1}$ はロジットである. PPLM では,これらの分布 $p(a \mid x)$ を用いて, 以下の式 (8) に従って言語モデルの内部状態 $H_{t}$ (具体的には, Transformer 各層の Key および Value の值)を更新することで,目的の属性を持ったトークンが出力されやすくなるよう調整を行う:
$
\Delta H_{t} \leftarrow \Delta H_{t}+\alpha \frac{\nabla_{\Delta H_{t}} \log p\left(a \mid H_{t}+\Delta H_{t}\right)}{\left.\|\nabla_{\Delta H_{t}} \log p\left(a \mid H_{t}+\Delta H_{t}\right)\right.\|^{\gamma}}
$
図 4 修辞構造の導入
更新された $\tilde{H}_{t}=H_{t}+\Delta H_{t}$ を用いて,言語モデルにより現在のトークン $x_{t}$ が与えられたときの $\tilde{x}_{t+1}$ を求める:
$
\begin{aligned}
\tilde{o}_{t+1}, H_{t+1} & =\operatorname{LM}\left(x_{t}, \tilde{H}_{t}\right), \\
\tilde{x}_{t+1} \sim \tilde{p}_{t+1} & =\operatorname{Softmax}\left(W \tilde{o}_{t+1}\right) .
\end{aligned}
$
修辞構造に基づいた制御では,式 (7) において RST の関係に基づく分類器を用いる. この分類器は,3.1 節において修辞構造に基づく損失を付与するために追加で訓練したものを用いる。これにより言語モデルは, 図 4 に示すように, EDU の区切りを示す特殊トークン [EDU] に続けて各 EDU の先頭トークンを生成する際に,RST の関係に基づく分類器を用いた PPLM の制御を反映することができる.
また,語彙の難易度については,各難易度レベルに応じた Bag-of-Words を用いた PPLM による制御を行う. 先行研究 [5] に基づき定義される語彙の難易度から,Newsela コーパスにおける各レベルに対応する Bag-of-Words を作成する。まず,Newsela コー パスでは,1 つの記事に対して 2 から 12 のレベルの内いずれかのレベルが設定されているが,同じ記事に含まれる文は全て同じレベルに属すると仮定し,同じレベルの文を集めたものを 1 文書とする.語彙の難易度を調べるため,各レベルに対応する文書の集合に対して TF-IDF を計算する:
$
\operatorname{TFIDF}(w, l)=P(w \mid l) \cdot \log \frac{D}{\mathrm{DF}(w)} .
$
ここで, $D$ は全レベル数であり, Newselaコーパスにおいては $D=11$ である. $\mathrm{DF}(w)$ は単語 $w$ の出現す
表 1 実験設定
るレベルの総数である. TF-IDFを計算することにより, 各レベルに特徴的な単語を求めることができる. 本研究においては, 各レベルに対応する文書に対して TF-IDF が高い上位 200 単語をそのレベルの Bag-of-Words とする.こうして求めた Bag-of-Words から式 (6) のように分布 $p(a \mid x)$ を求めて式 (8) の計算に用いる。このようにして,指定したレベルの Bag-of-Words に含まれる単語が生成される確率が高くなるように制御する.
## 4 実験
## 4.1 実験設定
データとして Newsela コーパスに含まれるニュー ス記事内の段落の内,3文で構成されるものを使用する. データのサイズは,訓練が 35,502 事例,開発が 4,438 事例,評価が 4,438 事例である。また,実験のパラメータは PAIR に従った (表 1).
## 4.2 評価指標
PAIR [7] に従い,まずは通常のテキスト生成の評価指標である BLEU [12],ROUGE [13],METEOR [14]を用いて評価する.
また, 修辞構造の評価指標として, 各 EDU の先頭トークンに対する正解率を用いる. 加えて, 語彙難易度の評価指標として,各レベルの Bag-of-Words に対する再現率を用いる。再現率は,生成されたテキスト中に正しく出現した Bag-of-Words に含まれる単語の数を,正解文に出現した Bag-of-Words に含まれる単語の数で割ったものとして定義する.
## 4.3 実験結果
4.1 節におけるデータセットを対象に,PAIR の手法と, 提案手法である PAIR に修辞構造と語彙の難易度に基づく制御を加えたモデルで実験し,評価をした. 提案手法では, 修辞構造に関する制御のみ加えたモデルと, 修辞構造と語彙の難易度の両方の制御を加えたモデルで比較を行なった.表 2 評価結果
表 3 EDU の先頭に対する正解率・BoW に対する再現率
## 4.4 考察
PAIR を用いて生成した結果と比較して,PPLMによる修辞構造の制御を加えた提案手法のモデルでは精度が少し向上した. 精度における大きな上昇とはならなかったが,精度を落とすことなく表 3 の正解率において見られるように,正しく修辞構造を反映した生成が行われた例を見ることができた。一方で,修辞構造の制御に加え,レベルに基づいた語彙による制御を加えた生成においては,PAIR と比較して少し精度が落ちる結果となった. この原因として,生成において PPLMを利用すると同じ単語を繰り返し生成しやすくなることが観察されており, それが提案手法においても生じたことが挙げられる. 精度の向上には繋がらなかったが,表 3 の再現率において見られるように,指定したレベルの Bag-of-Words 内の単語を用いた生成が確認できた.
## 5 まとめ
発話相手のレベルに応じたテキストの変化の内,特に修辞構造と語彙の難易度に着目してテキスト生成の制御を行い,発話相手のレベルを考慮したテキストの生成を目指した. 結果として, 先行研究のモデルより少し精度を改善しながら同時に修辞構造を考慮して生成を行えた例も確認できた。その一方で, 同じ単語が繰り返し生成されるという問題が生じた例もあり,手法の改善の余地を確認した。
今後の課題としては, まず評価が挙げられる. 特に修辞構造の制御の評価は,各 EDU の先頭トークンを用いた簡易的なものになっているのでより厳密な評価が必要である.また,本稿では修辞構造の一部についてのみ考慮して生成を行なったが,さらに複雑な修辞構造を対象とした実験も必要である.
## 謝辞
この成果は, 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の助成事業 (JPNP20006) の結果得られたものである.
## 参考文献
[1] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural crf model for sentence alignment in text simplification. In Proceedings of the Association for Computational Linguistics (ACL), 2020.
[2] WILLIAM C. MANN and SANDRA A. THOMPSON. Rhetorical structure theory: Toward a functional theory of text organization. Text - Interdisciplinary Journal for the Study of Discourse, Vol. 8, No. 3, pp. 243-281, 1988.
[3] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in current text simplification research: New data can help. Transactions of the Association for Computational Linguistics, Vol. 3, , 2015.
[4] Dongyeop Kang and Eduard Hovy. Linguistic versus latent relations for modeling coherent flow in paragraphs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Hong Kong, China, November 2019.
[5] Daiki Nishihara, Tomoyuki Kajiwara, and Yuki Arase. Controllable text simplification with lexical constraint loss. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, Florence, Italy, July 2019.
[6] Sumanth Dathathri, Andrea Madotto, Janice Lan, Jane Hung, Eric Frank, Piero Molino, Jason Yosinski, and Rosanne Liu. Plug and play language models: A simple approach to controlled text generation. In International Conference on Learning Representations, 2019.
[7] Xinyu Hua and Lu Wang. PAIR: Planning and iterative refinement in pre-trained transformers for long text generation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, November 2020.
[8] Sanqiang Zhao, Rui Meng, Daqing He, Andi Saptono, and Bambang Parmanto. Integrating transformer and paraphrase rules for sentence simplification. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Brussels, Belgium, October-November 2018.
[9] Adrien Bougouin, Florian Boudin, and Béatrice Daille. TopicRank: Graph-based topic ranking for keyphrase extraction. In Proceedings of the Sixth International Joint Conference on Natural Language Processing, Nagoya, Japan, October 2013.
[10] Yangfeng Ji and Jacob Eisenstein. Representation learning for text-level discourse parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Balti- more, Maryland, June 2014.
[11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, July 2020.
[12] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, Philadelphia, Pennsylvania, USA, July 2002.
[13] Chin-Yew Lin and Eduard Hovy. Automatic evaluation of summaries using n-gram co-occurrence statistics. In Proceedings of the 2003 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, pp. 150-157, 2003.
[14] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, Ann Arbor, Michigan, June 2005. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H3-2.pdf | # テキスト生成におけるキーワード位置の制御
笹沢裕一 森下皓文 尾崎太亮 今一修 十河泰弘
日立製作所 研究開発グループ
\{yuichi.sasazawa.bj, terufumi.morishita.wp, hiroaki.ozaki.yu,
osamu.imaichi.xc, yasuhiro.sogawa.tp\}@hitachi.com
## 概要
テキスト生成における課題の 1 つは,ユーザの意図通りに生成を制御することである。既存研究ではキーワードを用いた制御が提案されているが,キー ワードのみによる制御ではユーザの意図に沿ったテキストを生成するには不十分である.例えば,重要なキーワードをテキストの先頭近くに配置すれば読者の注意を引きやすくなるが,既存の手法ではそのような柔軟な制御はできない. 本研究では各キー ワードの位置も制御することで,ユーザの意図を効果的にテキストに反映できるようなテキスト生成に取り組む. タスクに依存しない汎用的な手法により,要約タスクと物語生成タスクにおいてキーワー ドとその位置を制御できることを示す.
## 1 導入
テキスト生成における課題の一つは,ユーザの意図に沿ったテキストを生成することである.多くの既存研究は,キーワードを利用してテキスト生成を制御する方法を提案している. テキスト要約では,要約テキストが含むべきキーワードをモデルに与えることで,原文書の特定の部分に焦点を当てたテキストを生成することができる $[1,2,3]$. 物語生成では,キーワードと短いプロンプトを使用して,物語のストーリーを制御する $[4,5,6]$. その他の電子商取引生成,レビュー生成,質問生成などのタスクにおいても,キーワードを用いることでユーザにとって望ましいテキストを作成することができる $[7,8,9,10,11]$.
しかし,キーワードのみによる制御ではユーザの意図に沿ったテキストを生成するには不十分である. ユーザの意図をより反映させる方法としてキー ワードの位置を制御する方法がある。例えば,重要なキーワードは読者の注意を引くためにテキストの先頭近くに配置し, 一方で比較的重要でないがテキ
ストに入れる必要があるキーワードはテキストの後半に配置することができる。また,複数のキーワー ドの順番を指定できれば話の流れを制御することもできる.既存手法は単にキーワードを指定するのみであるためこのような柔軟な制御はできず,必ずしもユーザの意図するテキストが生成されるとは限らない。一部の既存研究はキーワードの順序の制御に取り組んでいるが [8, 12],キーワード位置を直接制御する場合と比較して欠点が存在する。 (a) キー ワードの順序を制御するためには必ず複数のキー ワードを指定する必要があり,単一のキーワードの位置を制御することができない。(b) 順序制御のみでは個々のキーワードの具体的な配置位置を必ずしも制御できない.例えば,指定した全てのキーワー ドがテキストの後半に配置されることがある.
本研究では,キーワードと各キーワードの位置を制御するテキスト生成に取り組む. 既存研究ではテキスト生成タスクにおいてテキストスタイル,テキスト簡易化の種類,テキスト長などのテキスト属性を制御するために特殊トークンの使用が提案されている $[13,14,15]$. この手法をキーワード位置の制御に応用し, キーワードと各キーワードの相対位置を表す特殊トークンをモデルに与えることで,キー ワード位置制御を行う。このシンプルな手法により,各キーワードを指定した位置に配置することが可能となる。また,位置制御の性能を向上させ,よりユーザの意図に沿ったテキストを生成するために,ターゲットテキストの長さを示す特殊トークンもモデルに与えて制御を行う.
要約タスクと物語生成タスクで評価を行い,このタスクに依存しない汎用的な手法によってキーワー ドとその位置を制御できることを示す (Section 3.2). また, 本手法が通常手法と比較してターゲット要約に近いテキスト,つまりユーザの意図に近いテキストを生成できることを示す (Section 3.3). また, キーワードの位置を制御することで特定のキーワー
図 1 提案手法の概要図. モデルにはテキスト生成を制御するための制御トークン:キーワード,各キーワードの位置,テキスト長が与えられる。
ドから多様なテキストを生成できることをケーススタディによって示す (Section 3.4).
## 2 手法
## 2.1 概要
要約タスクでは BART モデル [16] を,物語生成タスクでは GPT モデル [17]を使用する. テキスト生成を制御するために制御トークン:(1) ターゲットテキスト中のキーワード,(2) 各キーワードの位置, (3) ターゲットテキストの長さ,をモデルに与える. これらの制御トークンはターゲットテキストから獲得する. BART モデルを用いる場合は図 1 に示すように制御トークンを原文書と連結してエンコーダに与える. GPT モデルを用いる場合は制御トークンをデコーダに与える. BART モデルや GPT モデルを用いる通常のテキスト生成と同様に,モデルはクロスエントロピー損失を用いて条件付き確率 $p\left(y_{i} \mid y_{<i}, x\right)$ を最大化するように学習する。ここで $y$ はターゲットテキスト, $x$ はモデルへの入力(制御トークンや要約タスクの原文書)である.
特殊トークンでテキストの属性を制御する既存の研究 $[13,14,15]$ を応用し, 各キーワードの位置とテキストの長さを特殊トークンとしてモデルに与える. 例えば,キーワード “two dogs” がターゲットテキストの 20-30\%の位置にあり, テキストの長さが 50-54 語の場合,モデルには “[LENGTH50][SEP]two dogs[POSITION20]”を制御トー クンとして与える.
本研究では,学習時と推論時の両方においてター ゲットテキストから獲得されたオラクル情報をモデルに与えることに留意されたい. 本研究の目的はモデルに追加情報を与えることで意図したテキストを生成することであるため,この実験設定は適切なものである。キーワードとその位置をモデルが自動的に決定する(つまり,モデルにオラクル情報を与え
ない)設定も考えられるが,今後の課題としたい.
## 2.2 制御トークンの獲得
以下に記載する方法で,ターゲットテキストから制御トークンを獲得する。詳細は Appendix B に記載する。
キーワードターゲットテキストからランダムにキーワードを抽出する.本研究でのキーワードは重要な単語に限定されず,ターゲットテキスト中の 1-3 個の連続した単語で構成されるフレーズを意味する。例えば,“Marcia was looking forward to try hang gliding."というテキストから, “Marsha”, “was”, "looking forward", "to trying", "trying hang gliding" などのフレーズをキーワード候補として抽出する.ただし, “was” “ "to trying” などの意味の薄い単語はユー ザがキーワードとして与える可能性が低いと考えられるためキーワード候補から除外する.学習時には,キーワード候補の中からランダムな数のフレー ズをキーワードとしてモデルに与える.
キーワード位置各キーワードの位置を相対位置で表現する.具体的には,ターゲットテキストの先頭から数えたときの各キーワードの絶対位置をテキストの単語数で割り,10\%単位で量子化した数値をモデルに与える.絶対位置ではなく相対位置を用いる理由は,ユーザがキーワードの具体的な絶対位置を指定したい場面は少なく,テキストの先頭付近,中央付近,末尾付近のような相対的な位置を指定する方が実用的だと考えられるためである。
テキストの長さキーワードの相対位置の指定のみでは,モデルがキーワードの具体的な配置位置を決定することは難しいと考えられる.キーワードの相対位置を適切に制御するためにテキストの長さも同時に制御する。ユーザがキーワードの位置を制御する際にテキストの長さも同時に制御したいと考えるのは自然だと考えられる,我々はターゲットテキストの単語数を 5 語単位で量子化した数値をモデルに与える。
## 3 実験
## 3.1 実験設定
要約タスクと物語生成タスクにおいて評価を行う。この 2 つのタスクは異なる特徴を持つ. (1) 要約タスクでは,与えられた制御トークンに基づいて原文書から情報を抽出して短いテキストに圧縮す
表 1 キーワードとその位置の制御の評価. 全てのキー ワードを含むテキストが生成できた割合(包含)と,全てのキーワードをターゲットの位置に配置したテキストが生成できた割合(位置)を評価する。
る. (2) 物語生成タスクでは,与えられた制御トークンのみに基づいてテキストを生成する。要約タスクでは CNN/DailyMail [18], XSum [19] データセットと BART $_{\text {LARGE }}$ モデル (400M params) [16] を使用した.物語生成タスクでは ROCStories [20] データセットと GPT2 モデル (120M params) [17] を使用した. 全ての実験において訓練と生成を 3 回行い, その平均スコアを報告する.より詳細については Appendix Aを参照されたい。
## 3.2 キーワードの位置制御の評価
まず,キーワードがターゲットの位置に配置されているかを確認する。具体的には,全てのターゲットのキーワードを含むテキストが生成された割合と, 全てのキーワードが各ターゲット位置に配置したテキストが生成された割合を評価する。
表 1 は,特殊トークンを使用する提案手法(+位置,+位置+長さ)が,キーワードをターゲットの位置に含むテキストを生成できることを示している。 また,キーワード位置と共にテキスト長を与える (+位置+長さ)ことで,特にテキストが長いデータセット (CNN/DM, ROCStories) において位置制御の精度が向上している. この理由は, 相対位置と長さの情報を組み合わせることでモデルがキーワードを適切な位置に配置できるようになるためである。 キーワードの位置が与えられると,キーワードの包含の精度も向上する. キーワードを配置すべき位置をあらかじめモデルに知らせることで,モデルが
キーワードをテキストに配置し忘れることを防いでいるためだと推測される。物語生成タスクでは要約タスクに比べ制御精度が大幅に低下していることが分かる. 物語生成タスクでは原文書が与えられず制御トークンのみからテキストを生成するため,キー ワードを含めるのに不適切な文脈を生成しやすいためと考えられる。
表 2 では,ターゲットのキーワード位置ごとにキーワードが正しい位置にあるテキストが生成されたかどうか,生成されなかった場合はどの程度キー ワードの位置がずれたか,またはキーワードが含まれなかったかを分析している。全てのターゲット位置において,キーワードのみの制御を行った場合と比較してキーワード位置制御の精度が向上しており,提案手法の有効性が示されている。また,テキストの先頭に近いほどキーワードの包含精度及び位置制御の精度が高いことが確認できる.
## 3.3 要約内容の制御の評価
テキストを制御することで,要約タスクにおいてユーザが意図したテキストを生成することが容易になることを示す. 表 4 に示すように,ターゲットキーワードを与えることで ROUGE スコア [21]が通常の要約に比べて大きく向上していることがわかる. さらに,キーワードの位置とテキストの長さを制御することでスコアが向上していることがわかる.この結果により, キーワードの位置情報をモデルに与えることでユーザの意図する内容に近いテキストを生成しやすくなることが分かる.
## 3.4 ケーススタディ
提案手法によって生成された要約例を表 3 亿示す.キーワードの位置が指定した位置からわずかにずれる場合も存在するが,提案手法によってキー ワードとその位置を制御できることが確認できる. また,キーワードの位置を変えることで,複数の異なるテキストを生成されており, 特に各テキストのスタイルが異なることが分かる。例えば,キーワー ド “true miracle dog”を $0 \%$ の位置に配置すると,冒頭の特徴的なキーワードで読者の注意を引くテキストが生成される。一方,90\%の位置にキーワードを配置すると時系列で出来事を説明する物語調のテキストが生成される. 複数のキーワードを与えた場合においても,各キーワードの位置を制御することでキーワードの順序を制御できることがわかる.
表 2 CNN/DM データセットにおけるキーワードとその位置の制御の詳細な評価. ターゲットの相対位置ごとに以下の 4 種類に分類する:キーワードがターゲットの位置に正しく配置されたか,ターゲット位置と実際の位置のずれが $10 \%$ 以内か,位置のずれが $10 \%$ 可きいか,もしくはキーワードが含まれていないテキストが生成されたか.生成要約文でのターゲットのキーワードの位置 (相対位置)
表 $3 \mathrm{CNN} / \mathrm{DM}$ データセットにおける生成した要約例
\\
表 4 ROUGE スコアを用いたテキスト要約の評価. 本研究ではターゲットテキストから獲得したオラクル情報をモデルに与えているため,通常の要約と比較してスコアが大きく向上していることに留意されたい.
さらにエラーケースを示す.テキストの末尾付近の位置を指定した場合,その指示を無視して全く別の位置にキーワードが配置されることや,テキストにキーワードが含まれないことが多い. 表 2 の結果から確認できるように,提案手法はキーワードをテキストの後半に配置するのが苦手な傾向がある. 理由の一つとして,テキストの末尾に近いほど指定したキーワードを含めるのに不適切な文脈になる可能性が高まるためだと考えられる.
## 4 結論
本論文ではキーワードと各キーワードの位置を制御したテキスト生成に取り組んだ。要約タスクと物語生成タスクで実験を行い,タスクに依存しない手法によってキーワードの位置を制御できることを示した. また, 本手法によってターゲットの要約に近いテキストが生成することが可能となり,ユーザの意図に近いテキストが生成できることを示した.今後の課題は,制御精度の向上及び,オラクル情報を使用せずに適切なキーワードを適切な位置に自動で配置することである.
## 謝辞
ご助言を頂いた,日立製作所研究開発グループの山口篤季氏,森尾学氏,是枝祐太氏に感謝を申し上げる.
## 参考文献
[1] Angela Fan, David Grangier, and Michael Auli. Controllable abstractive summarization. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 45-54, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[2] Junxian He, Wojciech Kryscinski, Bryan McCann, Nazneen Fatema Rajani, and Caiming Xiong. Ctrlsum: Towards generic controllable text summarization. CoRR, Vol. abs/2012.04281, , 2020.
[3] Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, and Graham Neubig. GSum: A general framework for guided neural abstractive summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4830-4842, Online, June 2021. Association for Computational Linguistics.
[4] Parag Jain, Priyanka Agrawal, Abhijit Mishra, Mohak Sukhwani, Anirban Laha, and Karthik Sankaranarayanan. Story generation from sequence of independent short descriptions. CoRR, Vol. abs/1707.05501, , 2017.
[5] Angela Fan, Mike Lewis, and Yann Dauphin. Strategies for structuring story generation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 26502660, Florence, Italy, July 2019. Association for Computational Linguistics.
[6] Lili Yao, Nanyun Peng, Ralph Weischedel, Kevin Knight, Dongyan Zhao, and Rui Yan. Plan-and-write: Towards better automatic storytelling. In Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence and Thirty-First Innovative Applications of Artificial Intelligence Conference and Ninth AAAI Symposium on Educational Advances in Artificial Intelligence, AAAI'19/IAAI'19/EAAI'19. AAAI Press, 2019.
[7] Zhangming Chan, Xiuying Chen, Yongliang Wang, Juntao Li, Zhiqiang Zhang, Kun Gai, Dongyan Zhao, and Rui Yan. Stick to the facts: Learning towards a fidelity-oriented E-commerce product description generation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4959-4968, Hong Kong, China, November 2019. Association for Computational Linguistics.
[8] Huajie Shao, Jun Wang, Haohong Lin, Xuezhou Zhang, Aston Zhang, Heng Ji, and Tarek Abdelzaher. Controllable and diverse text generation in e-commerce. In Proceedings of the Web Conference 2021, WWW '21, p. 2392-2401, New York, NY, USA, 2021. Association for Computing Machinery.
[9] Jianmo Ni and Julian McAuley. Personalized review generation by expanding phrases and attending on aspect-aware representations. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 706-711, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[10] Ying-Hong Chan, Ho-Lam Chung, and Yao-Chung Fan. Improving controllability of educational question generation by keyword provision. CoRR, Vol. abs/2112.01012, , 2021.
[11] Zhiling Zhang and Kenny Zhu. Diverse and specific clarification question generation with keywords. In Proceedings of the Web Conference 2021, WWW '21, p. 3501-3511, New York, NY, USA, 2021. Association for Computing Machinery.
[12] Yixuan Su, David Vandyke, Sihui Wang, Yimai Fang, and Nigel Collier. Plan-then-generate: Controlled data-to-text generation via planning. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 895-909, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[13] Kango Iwama and Yoshinobu Kano. Multiple news headlines generation using page metadata. In Proceedings of the 12th International Conference on Natural Language Generation, pp. 101-105, Tokyo, Japan, October-November 2019. Association for Computational Linguistics.
[14] Surafel Melaku Lakew, Mattia Di Gangi, and Marcello Federico. Controlling the output length of neural machine translation. In Proceedings of the 16th International Conference on Spoken Language Translation, Hong Kong, November 2-3 2019. Association for Computational Linguistics.
[15] Louis Martin, Éric de la Clergerie, Benoît Sagot, and Antoine Bordes. Controllable sentence simplification. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4689-4698, Marseille, France, May 2020. European Language Resources Association.
[16] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[17] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2018
[18] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28. Curran Associates, Inc., 2015.
[19] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1797-1807, Brussels, Belgium, October-November 2018. Association for Computational Linguistics.
[20] Nasrin Mostafazadeh, Nathanael Chambers, Xiaodong He, Devi Parikh, Dhruv Batra, Lucy Vanderwende, Pushmeet Kohli, and James Allen. A corpus and cloze evaluation for deeper understanding of commonsense stories. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 839-849, San Diego, California, June 2016. Association for Computational Linguistics.
[21] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[22] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015.
[23] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the inception architecture for computer vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2818-2826, 2016.
[24] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In The 41st International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR '18, p. 1097-1100, New York, NY, USA, 2018. Association for Computing Machinery.
表 5 データセットの統計
## A 詳細な実験設定
表 5 に各データセットの訓練・開発・検証データのデータ数と原文書の単語数の平均值,ターゲットテキストの単語数の平均値を示す. オプティマイザは Adam [22] を使用し, $\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=10^{-6}$, L2 正規化係数を 0.01 とした. 学習率は訓練ステップの最初の $6 \%$ でウォームアップさせ,その後線形に減衰させた. ドロップアウト率は 0.1 , バッチサイズは 32, label smoothing [23] は 0.1 である.
要約タスク学習率は $2 \times 10^{-5}$ とした. ただし,新たに追加した特殊トークンの重みは初期化状態から学習させるため,単語埋め込みの重みに対する学習率は $1 \times 10^{-3}$ と通常より高い値を使用した. エポック数は 10 回である. 生成にはビームサーチを用いた. CNN/DM ではビーム数は 4 , length penalty は 2.0, XSum ではビーム数は 6 , length penalty は 1.0 に設定した. 原文書の最大トークン数を 1024,要約文の最大トークン数を 128 とし,それ以上のトークン数のテキストは末尾を切り捨てた。
物語生成タスク学習率は $2 \times 10^{-5}$, 単語埋め込みの重みの学習率は $1 \times 10^{-3}$, エポック数は 30 回とした. 生成には $p=0.95$ の top-p サンプリングを使用し, temperature は 0.1 とした. ターゲットテキストの最大トークン数は 128 とし, それ以上のトークン数のテキストは末尾を切り捨てた.
## B 制御トークン
テキスト長,キーワード,キーワード位置を獲得するための単語分割は NLTK ライブラリを用いる。 モデルの訓練時には,全ての制御トークン(キー ワード,キーワード位置,テキスト長)をそれぞれ一定確率でモデルに与えて訓練し, この学習済みモデルを用いて 4 種類の設定(表 1 における「キー ワード」,「+長さ」,「+位置」,「+位置+長さ」)でテキスト生成を行う.これにより, 1 種類のモデルで複数の設定での推論を行うことができ,設定ごとにモデルを訓練する場合と比較してコストを抑えて実験を行うことができる. 予備実験の結果, 各推論設表 6 Self-BLEUを用いた生成テキストの多様性の評価
& & \\
キーワード & 96.6 & 92.8 & 71.2 \\
+位置+長さ & $\mathbf{8 5 . 9}$ & $\mathbf{8 3 . 1}$ & $\mathbf{5 6 . 9}$ \\
定に対してモデルを個別に訓練させた場合とほぼ同じ性能が得られることを確認している. ただし,制御トークンを用いない生成(表 1 における「キー ワード無し」)は上記のモデルとは独立してモデルの訓練と推論を行った。
キーワードの抽出まず,ターゲットテキストから連続した 1-3 個の単語で構成されるフレーズをキーワード候補として抽出する。最初の単語がストップワードや頻出単語であるフレーズはキーワー ド候補から除外する。訓練時には,0-3 個のフレー ズをキーワード候補からエポック毎にランダムに選択し,キーワードとしてモデルに与える。 推論時には,表 1 の実験では 1-3 個,表 2 と表 4 の実験では 1 個のキーワードをモデルに与える.
## C 多様なテキストの生成
キーワードの位置を制御することで特定のキー ワードから多様なテキストを生成できることを示す. 多様なテキストを生成できれば,ユーザーは生成された複数のテキストの中から自分の意図するテキストを選択することが可能となる。キーワード無しの通常の生成とキーワードのみを用いた生成の場合,1つの入力からビームサーチもしくは top-p サンプリングを用いて 10 種類のテキストを生成する. キーワード位置を用いる場合,1つのキーワードに対して 10 種類のキーワード位置をモデルに与えることで 10 種類のテキストを生成する. 生成されたテキストに対して Self-BLEU [24] 指標を用いて生成テキストの多様性を評価する。
表 6 の結果から,複数のキーワード位置を用いて生成することで生成テキストの多様性が向上することが分かる.特に,要約タスクは一般的にビームサーチを用いてテキストを生成するため,複数テキストを生成した場合の多様性が非常に低くなるが,複数の位置を指定してテキストを生成することでこの多様性の低下が緩和される。表 3 に示した生成例においても,キーワード位置を制御することで特定のキーワードから様々なテキストが生成できることが確認できる. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H3-3.pdf | # 周期表タスクにおける言語モデルの創発的能力と言語モデルが 持つ記憶について
星康人 宮下大輔 森岡靖太 Youyang Ng 鳥井修 出口淳
キオクシア株式会社
\{yasuto1.hoshi, daisuke1.miyashita, yasuhiro.morioka, youyang.ng,
osamu.torii, jun. deguchi\}@kioxia.com
## 概要
近年,大規模な自己回帰言語モデルは広範な下流タスクを追加学習なしで実行できることが判明している.下流タスクにおけるモデルの性能は,一般的にはモデルサイズに対してスケールすることが知られている。しかし,広範な下流タスクにおける性能とモデルサイズとの関係を調べた実験において,モデルサイズの増加に対して不連続な性能改善がみられるタスクの存在が報告されており,このような傾向は創発的能力と呼ばれている. 特に知識集約型夕スクで創発的能力か現れる理由について, 問題に正解するための知識がモデルサイズに対して不連続に偏在するためなのか,あるいはその他の理由があるのか,未だ解明されていない. 本研究では, 創発的能力が見られる知識集約型タスクの 1 つである周期表タスクについて,モデルが保持する知識とモデルサイズとの関係について調べた. 解析の結果, 周期表タスクの回答に必要な知識は小規模なモデルも獲得していること,またその知識の正確さはモデルサイズに対しスケールすることが判明した.
## 1 はじめに
近年,大規模な自己回帰言語モデルは広範な下流タスクを追加学習なしに実行する能力があることが判明している [1,2]. 下流タスクにおける性能とモデルサイズ,すなわちモデルの学習可能パラメータ数との関係を調べた研究において, タスクの精度がモデルサイズの増加汶して不連続改善する夕スクがあることが報告されており,このような傾向は創発的能力 (emergent abilities) と呼ばれている [3].創発的能力について, その起源や理由については未だ解明されていない。
一般に言語モデルの性能は,その規模にスケール
すると考えられている. 例えば言語モデルそのものの性能指標(事前学習時の損失値)は,モデルサイズ,学習データ量,および事前学習時の計算量の増加のそれぞれに対して単調に改善するスケール則が成り立つことが知られている $[4,5]$.
また,モデルが保持できる知識の量は,モデルサイズにスケールすると考えられている $[6,7,8]$. 例えば BIG-bench [2] の qa_wikidata ${ }^{1)} という$ 質問応答夕スクでは,モデルサイズを 2 倍にするごとに精度が約 5.3 ポイント向上するという関係 (べき乗則)を見ることができる.このようなべき乗則は言語モデルの他,画像認識など自然言語処理以外の分野も含めて深層学習の多くのタスクでも見られる現象であり [9],理論的な解析も進みつつある [10,11].
それ対し,原子番号から元素名を予測するタスクである周期表タスクは,qa_wikidata と同じく知識を問う質問応答タスクであるが,タスクの精度とモデルサイズとの関係は全く異なる. 具体的には,学習可能パラメータ数が $10 \mathrm{~B}$ 程度以下のモデルでは全く正解できないが,それを超える規模のモデルで突如として精度が向上するという創発的能力が発現することが報告されている $[2,3]$.
周期表タスクで創発的能力が見られる理由について, 回答に必要な知識が大規模なモデルにのみ偏在しているのか,あるいは他の要因があるのか,未だ切り分けができていない. 特に前者に着目すると,創発的能力に関する理解を深めるためには,モデルサイズがある閾值を超えたときに突如として知識が獲得されるようになるといった傾向があるかどうか調べる必要がある.
本稿では周期表タスクを題材とし,これ正解するために必要な知識と,それ以外の要素として回答を導く推論能力の 2 つの要素に分解して考える. 特
に前者に着目し,モデルサイズに応じて周期表に関する知識量がどのように変化するかを調査することで,創発的能力に関する新たな洞察を与える。
## 2 関連研究
創発的能力は,モデルサイズの増加に対してある規模まで精度が下がるようなタスク [12]において, モデルをさらに大規模にすると精度が向上するような U 字型の精度変化として見られることもある [13]. このことから,小規模なモデルにおける規模と精度の関係を大規模なモデルに対して単純に外挿することでは,大規模なモデルの性能を予測することができないことが示唆されている.
創発的能力を引き出す要因は,モデルサイズの他にも存在すると考えられている。例えば GPT-3 [1] と PaLM [14] は共に学習可能パラメータ数が 100B を超える大規模言語モデルであるが,PaLM でのみ創発が観測されるケースがある [3]. これらのモデルでは, 学習データの品質やアーキテクチャが異なるため, 創発的能力の誘因がモデルサイズのみではないことが示唆されている.
創発的能力は,周期表タスクのみならず,算術推論等のタスクでも見られる $[1,15,16]$. このようなタスクが複数存在することは, 計 200 を超える多様な下流タスクで構成されるべンチマークである BIG-bench においても確認されている [2]. ただし本稿では,知識集約型タスクの 1 つである周期表タスクに焦点を当てて,モデルが保持する周期表の知識について詳細に解析する。
言語モデルにおける学習データの記憶に関する包括的な調査 [6] において, 記憶の正確さはモデルの規模, 学習データ内での重複数, およびプロンプトで与えるコンテキストの長さに対してスケールすることが判明している.また,固有表現に関する質問応答では, 学習データ内での出現頻度が高い固有表現ほど,それに関する問題の正解率が高くなることが報告されている [17]. 本稿では,周期表タスクに関連する学習データの記憶精度とタスクの精度に焦点を当てた解析を行う.
下流タスクにおける事前学習済み言語モデルの性能は,追加学習を行わなくともプロンプトの工夫によってある程度は向上することが知られている.このようなプロンプトの工夫は,プロンプトエンジニアリングと呼ばれる [18]. 本稿では,モデルが周期表に関する知識をどの程度保持しているか確かめる
図 1 周期表タスクにおける回答精度. 灰色の点線 (ROOTS + FiD) は, ROOTS コーパスから検索した上位 20 位までのパッセージを Fusion-in-Decoder (FiD) の読解器を用いて読解した際の精度 $(47.8 \%)$ を示す.
ために,改良したプロンプトを用いた実験も行う.特に,正解のヒントとなるようにプロンプト内で例示する問題と回答の組を原子番号順にすることで, モデルが保持する周期表の知識の精度を調べる。
## 3 周期表タスクにおける回答精度
本章では,周期表タスクにおける BLOOM モデルの回答精度を調べる。
## 3.1 問題設定
実験で使用するデータセットは,BIG-bench [2] に含まれ,周期表に関する知識を問うタスクである periodic_elements タスク2)うち,原子番号から元素名を予測するタスクである subtask_0(計 23 問)を用いる。本稿ではこのタスクを単に周期表タスクと呼ぶことにする。周期表タスクの問題例を下記に示す(下記の問題の答えは “carbon”).
Q: What is the name of the element with an atomic number of 6 ?
A:
言語モデルは上記 “A:” 以降に, greedy 探索で得られた系列を出力する. 周期表タスクで用いるプロンプトには,無作為に選ばれた問題とその回答の組を例題として, 問題文の前に最大 $3 \supset$ (3-shot) 付与した系列を使用する. 評価方法は先行研究と同様に, モデルがプロンプトに対して greedy 探索で出力した系列の中で最初に現れる元素名と, 正解の元素名とを exact match (str_exact_match) で正誤判定する.
2) https://github.com/google/BIG-bench/tree/main/ bigbench/benchmark_tasks/periodic_elements
## 3.2 使用する言語モデル
BLOOM モデル本稿の実験では,自己回帰言語モデルである BLOOM モデル [19]を使用する. BLOOM モデルは,事前学習済みモデルとしてパラメータ数が $560 \mathrm{M}$ から 176B の 6つのモデルが公開されている3).これらのモデルは,計 $1.6 \mathrm{~TB}$ の多言語コーパスである ROOTS コーパス [20]を用いて事前学習されている. なお, BLOOM モデルの評価結果には,10 回の実験結果の平均値を示す. これは,無作為に選ばれたプロンプト内の例題に依存してモデルの出力が変化し, タスクの精度にばらつきが生じるためである.
ベースライン周期表タスクにおけるベースラインとして PaLM [14], GPT [1], BIG-G [2] の評価結果も用いる ${ }^{4)}$. また比較のために, ROOTS コー パスからの検索と読解で得られる精度を示す. ROOTS コーパスからの検索には ROOTS search tool ${ }^{5 \text { ) }}$ を用いて,0-shot のプロンプトに対する検索上位 20 位までのパッセージを取得する。読解には, Natural Questions [21] データセットで学習された Fusion-in-Decoder [22] の large サイズ (パラメータ数: 738M) の読解器を用いる6).
## 3.3 周期表タスクにおける精度評価
図 1 に,周期表タスクにおける各モデルの回答精度を示す. 先行研究で述べられているように, PaLM と BIG-G の回答精度は,パラメータ数が 10B $\left(10^{10}\right)$ 程度より大きなモデルにおいて不連続に向上する創発的な傾向が見て取れる. BLOOM モデルの回答精度は, GPT と同様にパラメータ数に対する顕著な精度向上は見られないものの,最大規模のモデルの精度 (3-shot で 7.8\%) はそれ以下のモデルと精度比べて高いことが分かる.
また,ROOTS search toolによる ROOTS コーパスからの検索と Fusion-in-Decoder の読解器による読解の精度は $47.8 \%$ であった. この値は,10B 以下のどのモデルの精度より高いものの,PaLM と BIG-G の
大規模なモデルにおける精度を下回っていることが分かる. 特に PaLM の 540B のモデルにおける 5-shot の精度 $(99.2 \%)$ と比較すると, 検索と読解による精度は大幅に下回っていることが見て取れる。
## 4 解析
本章では, ROOTS コーパスに含まれる周期表に関する記述を,BLOOM モデルが出力できるか調べる.また,周期表タスクにおけるプロンプト内の例題を原子番号順で与えた場合の精度を示す.
## 4.1 BLOOM モデルにおける学習データの 記憶精度
BLOOM モデルの事前学習に用いられた ROOTS コーパスから,ROOTS search tool を用いて周期表に関する記述を検索した. 付録の表 1 に,その検索結果の代表例を 6 つ示す.この 6 つのパターンを基に,BLOOM モデルにおける周期表に関する学習データの記憶精度を調べた. 具体的には, 周期表タスクで問われる計 23 の元素に関するプロンプトを作成し, BLOOM モデルの出力を調べた. このとき, プロンプト内で示される例は,原子番号順となっていることに注意されたい。例えば “beryllium”を問うための 3-shot のプロンプトには,表 1 の “...” 以前の文字列が用いられる。
図 2 に,BLOOM モデルにおける学習コーパス内の周期表データの記憶精度に関する評価結果を示す. 図より,学習データに含まれる周期表に関する知識の記憶精度は,モデルサイズに対してスケールすること,またショット数が増えるほど正確さが増すことが分かった.以上から,周期表タスクで精度が低い BLOOM モデルでも,回答に必要な知識は獲得していることが分かった.
## 4.2 プロンプトの改良
前節では,プロンプト内の例を原子番号順に与えることで,BLOOM の小規模モデルでも周期表に関する知識をある程度保持することが判明した. このことから,周期表タスクで与えるプロンプト内の例題を原子番号順にし,学習データと一貫させることで,BLOOM モデルはより正解しやすくなることが予想される. このとき, 例えば原子番号 78 番の元素を問う 2-shot のプロンプトは, 図3のように与えられる.このように,プロンプト内の例題を原子番号順として,周期表タスクを解いた。
図 2 BLOOM モデルにおける学習データの記憶精度.点線は各 shot における平均の精度を示す.
Q: What is the name of the element with an atomic number of 76? A: osmium
Q: What is the name of the element with an atomic number of 77 ? A: iridium
Q: What is the name of the element with an atomic number of 78 ? A:
図 3 例題を原子番号順とする 2-shot のプロンプトの例。
図 4 に,プロンプト内の例題を無作為に選ぶ場合 (図 1 と同様),および原子番号順に与えた際の周期表タスクにおける精度を示す。図より,周期表タスクにおける回答精度はモデルサイズにスケールしており,創発的な変化を示さないことが判明した. また,検索と読解による精度 $(47.8 \%)$ と比較すると, モデルサイズが 7B のモデルは 3 -shot において同等の精度 $(47.8 \%)$ を達成することが分かった. さらに図 2 と比較すると,学習データに含まれる系列をプロンプトに用いる場合より, 図 3 のようなプロンプトを用いる場合の精度が高いことが分かった。
## 4.3 考察
4.1 節および 4.2 節で得られた結果は,モデルが保持できる記憶の量はモデルサイズに対してスケールするという過去の知見と一貫している.このことから,プロンプト内の例題を無作為に選ぶ subtask_0 の設問方法による評価は, 言語モデルが保持する知識の正確さの評価には適さないことが分かる. このことは,subtask_0の設問方法ではほぼ正答が導けないモデルサイズであっても,周期表に関する知識は正確に保持しているケースが存在することからも見て取れる。 すなわち,モデル内の知識の正確さがモデルサイズに対して不連続に変化するということが創発的能力の原因であるという仮説は,棄却されることが示唆される.
図 4 周期表タスクにおいて,プロンプト内の例題をランダムに与えた場合 (点線),および周期表に出現する順番に与えた場合(実線)の精度. 灰色の点線 (ROOTS + FiD) は,ROOTS コーパスから検索した上位 20 位までのパッセージを Fusion-in-Decoder (FiD) の読解器を用いて読解した際の精度 $(47.8 \%)$ を示す.
前記の考察を踏まえ,周期表タスクの創発的能力について再考する. 創発的能力が顕著にみられる PaLM モデルに着目すると,PaLM モデルの最大規模のモデルであっても 0-shot では正答できないことが分かる.このことを加味すると,ランダムな順番で与えられた例題とモデル内の知識の中から正答を導く推論能力があるかどうかが,創発前後の差であることが示唆される. その一方で,その推論能力がなぜ不連続な変化をするのかは依然として不明である. その他にも,なぜ知識問題である周期表タスクで創発的能力が見られるか,算術演算等の論理的推論タスクでなぜ創発的能力が見られるかなど,今後の研究で解明すべき課題が存在する。
## 5 おわりに
本稿では周期表タスクを用いて,言語モデルサイズに対する周期表知識の記憶精度について調べた。 その結果,周期表の原子番号と元素名に関する知識の記憶精度は,モデルサイズにスケールすることが分かった. また,周期表タスクを数ショットで実行する際のプロンプト内の例題を原子番号順で与えて学習データと一貫させることで,周期表タスクの回答精度はモデルサイズにスケールすることが判明した.これらの結果から,周期表タスクにおける創発的能力の原因として,周期表に関する知識が小規模なモデル内に存在しないという予想は棄却され,モデル内の知識の中から正しい出力を導く推論能力が創発的であることが示唆される。
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[2] Aarohi Srivastava, Abhinav Rastogi, Abhishek Rao, Abu Awal Md Shoeb, Abubakar Abid, Adam Fisch, Adam R Brown, Adam Santoro, Aditya Gupta, Adrià GarrigaAlonso, et al. Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:2206.04615, 2022.
[3] Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, and William Fedus. Emergent abilities of large language models. Transactions on Machine Learning Research, 2022.
[4] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling laws for neural language models. arXiv preprint arXiv:2001.08361, 2020.
[5] Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, and et al. Training compute-optimal large language models. arXiv preprint arXiv:2203.15556, 2022.
[6] Nicholas Carlini, Daphne Ippolito, Matthew Jagielski, Katherine Lee, Florian Tramer, and Chiyuan Zhang. Quantifying memorization across neural language models. arXiv preprint arXiv:2202.07646, 2022.
[7] Benjamin Heinzerling and Kentaro Inui. Language models as knowledge bases: On entity representations, storage capacity, and paraphrased queries. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 1772-1791, Online, April 2021. Association for Computational Linguistics.
[8] Adam Roberts, Colin Raffel, and Noam Shazeer. How much knowledge can you pack into the parameters of a language model? In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5418-5426, Online, November 2020. Association for Computational Linguistics.
[9] Tom Henighan, Jared Kaplan, Mor Katz, Mark Chen, Christopher Hesse, Jacob Jackson, Heewoo Jun, Tom B Brown, Prafulla Dhariwal, Scott Gray, et al. Scaling laws for autoregressive generative modeling. arXiv preprint arXiv:2010.14701, 2020.
[10] Yasaman Bahri, Ethan Dyer, Jared Kaplan, Jaehoon Lee, and Utkarsh Sharma. Explaining neural scaling laws. arXiv preprint arXiv:2102.06701, 2021.
[11] Yi Tay, Mostafa Dehghani, Jinfeng Rao, William Fedus, Samira Abnar, Hyung Won Chung, Sharan Narang, Dani Yogatama, Ashish Vaswani, and Donald Metzler. Scale efficiently: Insights from pretraining and finetuning transformers. In International Conference on Learning Representations, 2022.
[12] Ian McKenzie, Alexander Lyzhov, Alicia Parrish, Ameya Prabhu, Aaron Mueller, Najoung Kim, Sam Bowman, and Ethan Perez. Announcing the inverse scaling prize (\$250k prize pool), 2022. https://www. lesswrong. com/posts/eqxqgFxymP8hXDTt5/announcing-theinverse-scaling-prize-usd250k-prize-pool.
[13] Jason Wei, Yi Tay, and Quoc V. Le. Inverse scaling can become u-shaped. arXiv preprint arXiv:2211.02011, 2022.
[14] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, et al. Palm: Scaling language modeling with pathways. arXiv preprint arXiv:2204.02311, 2022.
[15] Deep Ganguli, Danny Hernandez, Liane Lovitt, Amanda Askell, Yuntao Bai, Anna Chen, Tom Conerly, Nova Dassarma, Dawn Drain, Nelson Elhage, et al. Predictability and surprise in large generative models. In 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 1747-1764, 2022.
[16] Alessandro Stolfo, Zhijing Jin, Kumar Shridhar, Bernhard Schölkopf, and Mrinmaya Sachan. A causal framework to quantify the robustness of mathematical reasoning with language models. 36th Conference on Neural Information Processing Systems (NeurIPS 2022) Workshop on Math-AI, 2022.
[17] Alex Mallen, Akari Asai, Victor Zhong, Rajarshi Das, Hannaneh Hajishirzi, and Daniel Khashabi. When not to trust language models: Investigating effectiveness and limitations of parametric and non-parametric memories. arXiv preprint arXiv:2212.10511, 2022.
[18] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. arXiv preprint arXiv:2107.13586, 2021.
[19] Teven Le Scao, Angela Fan, Christopher Akiki, Ellie Pavlick, Suzana Ilić, Daniel Hesslow, Roman Castagné, Alexandra Sasha Luccioni, François Yvon, Matthias Gallé, et al. Bloom: A 176b-parameter open-access multilingual language model. arXiv preprint arXiv:2211.05100, 2022.
[20] Hugo Laurençon, Lucile Saulnier, Thomas Wang, Christopher Akiki, Albert Villanova del Moral, Teven Le Scao, Leandro Von Werra, et al. The bigscience roots corpus: A 1.6 tb composite multilingual dataset. In Thirtysixth Conference on Neural Information Processing Systems Datasets and Benchmarks Track.
[21] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, and et al. Natural questions: A benchmark for question answering research. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 452-466, 2019.
[22] Gautier Izacard and Édouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 874-880, 2021.
## A 付録:学習データ内の周期表に関 する記述の例
BLOOM モデルの事前学習に用いられた ROOTS コーパスから,ROOTS search tool を用いて周期表に関する記述を検索したところ,代表的な 6 つのパターンとして表 1 に示すような記述がみられた。
表 1 ROOTS コーパスに含まれる,周期表の元素に関する記述の例.
hydrogen, helium, lithium, ...
hydrogen (1), helium (2), lithium (3), ...
1-Hydrogen (H) 2-Helium (He) 3-Lithium (Li) 4 ..
1 H Hydrogen 2 He Helium 3 Li Lithium 4..
1 Hydrogen $\mathrm{H} \cdot 2$ Helium $\mathrm{He} \cdot 3$ Lithium $\mathrm{Li} \cdot 4$...
hydrogen $(\mathrm{H}$, atomic number 1 ); helium $(\mathrm{He}$, atomic
number 2 ); lithium ( $\mathrm{Li}$, atomic number 3 ); ... | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H3-4.pdf | # Controlling Text Generation With Fiction-Writing Modes
Wenjie Zhong ${ }^{1,2}$, Jason Naradowsky ${ }^{1}$, Hiroya Takamura ${ }^{2}$, Ichiro Kobayashi ${ }^{2,3}$, Yusuke Miyao ${ }^{1,2}$
${ }^{1}$ The University of Tokyo, ${ }^{2}$ AIST, ${ }^{3}$ Ochanomizu University,
zvengin@is.s.u-tokyo.ac.jp
}
\begin{abstract}
We explore incorporating concepts from writing skills curricula into human-machine collaborative writing scenarios, focusing on adding writing modes as a control for text generation models. Using crowd-sourced workers, we annotate a corpus of narrative text paragraphs with writing mode labels. Classifiers trained on this data achieve an average accuracy of $\sim 87 \%$ on held-out data. We fine-tune a set of large language models to condition on writing mode labels, and show that the generated text is recognized as belonging to the specified mode with high accuracy.
\end{abstract
## 1 Introduction
Large-scale pre-trained language models (PLMs) have demonstrated a remarkable aptitude for generating text with an exceptional degree of fluency and structure [1], sparking renewed efforts to utilize them for the purpose of generating narrative fiction. Recent work has explored various ways of controlling PLMs, using sentiment [2], style [3], and even character information [4], in an attempt to cater the generated text to an author's intentions.
However, the aforementioned controls deal primarily with static attributes of text; an attribute like style is more synonymous with an entire author or book than with a single passage of text. Less attention has been paid to designing effective control factors for the real demands of human authors in collaborative writing settings, where authors typically exercise more dynamic control over their writing, at the sentence or paragraph level. Here we find inspiration from the creative writing literature, where the notion of a fiction writing mode is frequently presented as an important concept to consider when crafting narrative fiction.
A fiction-writing mode (also referred to as a rhetorical mode) is a particular manner of writing, encapsulating the focus, style, and pacing of the text (among other things) [5].
\\
Figure 1 Example of expanding the Summary into stories using different writing Modes. The bold words imply the particular manner of expression in that mode. Dialogue focuses on the utterances spoken by characters, Action on the motion of characters, and Description on the depiction of characters or places.
Figure 1 illustrates how the same event can be described in different ways depending on the writing mode, using the three most common types, Dialogue, Action, and Description. Skilled authors proficiently use writing modes as a stylistic choice to engage readers and progress the narrative (see Section 2 for more detail). Thus, we expect to provide the fiction-writing mode to users to control the models to generate text with different styles.
To this end, we are faced with a challenge. To the best of our knowledge, there is no available dataset annotated with writing modes to train generation models. We create a Fiction wRIting moDE dataset (FRIDE dataset) containing 1,736 fiction paragraphs annotated by crowd-source workers with the three writing mode labels. Subsequently, we train a classifier on the FRIDE dataset and use it to anno-
Table 1 The number of instances for dialogue (Dia.), action (Act.), description (Des.), and uncertain (Unc.) modes in the dataset. Kappa is the inter-annotator agreement and Len.(std) is the average token number in each instance and its standard deviation.
tate paragraphs of a large fiction corpus in order to create a larger-scale dataset. Using the established paradigm of training conditional text generation models by summarizing and reconstructing text [6], the dataset is used to train models which can be conditioned on a writing mode label.
Through the automatic evaluation, we show: (1) the use of writing mode labels with conditional text generation models contributes to average 1.4 and 2.0 points improvements on ROUGE-L and BERTScore; (2) the writing modes of generated text are effectively controlled, and are classified as belonging to the target mode in $87.6 \%$ of cases.
## 2 Fiction-Writing Mode
Fiction-writing modes have long been proposed as a useful abstraction in the study of literature and creative writing [7, 5], dating as far back as Aristotle [8]. While there is no consensus on the categorization of writing modes, most sources prefer to introduce at least three modes: (1) Dialogue, direct quotation of characters speaking, (2) Action, an account of a series of events, one after another, chronologically, and (3) Description, a more detailed inspection of people, places, or things and their properties. These are the three major writing modes which are the focus of study in this paper.
Just as there is no agreement on how best to categorize writing modes, there is also no consensus on what text exhibits a particular mode. Even a single sentence can exhibit multiple writing modes, in varying degrees. However, for the purpose of this work, we assume that each paragraph can be categorized as exhibiting a single writing mode.
FRIDE Dataset In order to train models which generate text in a specified writing mode, we must first create a dataset, which we refer to as Fiction-wRIting moDE dataset (FRIDE dataset), which pairs paragraphs of narrative text with their corresponding writing mode labels. However, directly annotating writing modes on a large-scale narrative dataset is expensive and time-consuming. We first collect a modestly sized dataset from crowd-sourced workers, and utilize it to train a writing mode classifier. The classifier can then be used to provide high-confidence labels to a much larger dataset of narrative text paragraphs, on a scale suitable for training large text generation models.
Paragraphs for annotation are collected from fiction books sourced from Project Gutenberg ${ }^{11}$ (128 books) and, namely, for more contemporary writing, Smashwords ${ }^{2}$ ) (150 books). Each book is divided into paragraphs using Chapterize $^{3)}$, and paragraphs longer than 200 words are removed. In situations where a continuous dialogue takes place over paragraph boundaries, we group them into a single paragraph. Each paragraph was annotated with one of the three aforementioned writing modes using Amazon Mechanical Turk (AMT). In addition, we add a fourth category, Uncertain, to encompass cases where the writing mode is unclear or does not fit well into the three main modes. All annotators were native English speakers, and three annotators were assigned to each paragraph. Paragraphs were assigned the majority label, or marked as uncertain in cases where each annotator provided a different label. We continued the annotation process until we had approximately 1,000 instances labeled and balanced across the three main modes (Table 1).
Writing Mode Classifier While it is possible to use the collected data to train a model, the relatively small pool of examples may cause the model to be sensitive to other text characteristics unrelated to the writing mode. To help alleviate this problem, we train a writing mode classifier and employ it to predict writing modes on a larger collection of texts. We experiment with training three separate classifiers, each trained by fine-tuning a different PLM (BERT [9], XLNet [10], or RoBERTa [11]) on the FRIDE dataset. We randomly sample 300 instances from each type of writing mode and divide them using a 1000/100/100 train/dev/test split, with an equal number of each label in each split. An evaluation of these models (Table 2) shows that all models perform similarly. The RoBERTa-based model was used as the final writing mode classifier throughout the remainder of this paper.
FRIDE-XL Dataset In order to construct a larger dataset of writing modes suitable for training modeconditional text generation models, we utilize the classifier trained in the preceding section on a larger set of texts,
Table 2 The performance of writing mode classifiers on the FRIDE dataset.
extending the previous text to 5,946 fiction books from Project Gutenberg. We leverage the writing mode classifier to assign a writing mode label to each paragraph of books and randomly select 362,880 paragraphs. We refer to this dataset as FRIDE-XL.
## 3 Models
We evaluate writing mode as a control factor on three different PLM architectures: BART [12], T5 [13], and GPT2 [14]. All models have been used previously for text generation but differ in ways that may impact their ability to adhere to the conditioning information and the quality of the generated text. For instance, the larger parameter size and contextual window size of GPT2 has made it a common choice for story generation with long text [15, 16, 17], but smaller models like T5 show great controllability [18]. We assess each of these three models, fine-tuning them to reconstruct paragraphs from the FRIDE-XL dataset.
For training conditional text generation models, we follow an established paradigm of summarization, conditioning, and reconstruction [6]. First, each paragraph is summarized using an existing summarization model. Here we use the narrative text summarization [19], and decode using beam search with a beam size of 5 as in that work. We then fine-tune a PLM to reconstruct the original paragraph, conditioning on the summary. In this way, the summary acts as a semantic control: the trained model accepts user summaries and attempts to expand upon them to generate a longer paragraph, embellishing missing and less important details in a reasonable way.
Other forms of information can also be added to the summaries to function as additional controls. The conditioning factors provided to models are:
- Summary, generated from the paragraph by a pretrained model.
- Context, the preceding paragraph.
- Length, the number of tokens in the paragraph divided into ten equally-sized bins.
- Writing Mode, the mode assigned to the paragraph by the classifier as described in Sec. 2.
For $\mathrm{T} 5$ and BART, the training methodology is straightforward: we concatenate the controlling information and use it as input to the encoder, training the decoder to generate the original paragraph. For GPT2, which has only a decoder, we concatenate the conditions as prompts.
## 4 Automatic Evaluation
In this section, we study the influence of model inputs (e.g., summaries, length, and writing modes) on the text quality, and assess to what extent the writing modes of text can be controlled, as measured by automatic metrics.
## 4.1 Baseline Models
In addition to ablations of our proposed models, we compare against three baseline systems:
GPT2 We finetune GPT2 [14] identically to our proposed system, but using only the preceding paragraph and without other inputs.
PPLM As conventional training requires lots of annotated data, an attribute classifier is employed to guide the pretrained language model to generate text with specified attributes [20]. To adapt the PPLM to our task, we train a writing mode classifier as the attribute classifier on the FRIDE dataset. As the writing modes of preceding paragraphs would interfere with the classifier, the PPLM does not take the preceding paragraphs as context.
FIST A system [21] which utilizes keywords instead of summaries to sketch the semantic content of the desired stories is proposed. As there is no prompt in our dataset, following their idea, we infer the keywords from the leading context (the preceding paragraphs) and then generate stories conditioning on the context and keywords.
## 4.2 Results
We evaluate the models along three axes: fluency, similarity, and controllability, using the test set of the FRIDEXL dataset. The results of our automatic evaluation are shown in Table 3.
Fluency We evaluate fluency using perplexity computed by the pre-trained GPT2 model. We find that there is an average 0.8 decrease in perplexity when summaries are added and 1.2 increase when writing modes are added.
Similarity We evaluate the similarity of the generated texts to the target texts using BLEU-4 [22], ROUGE-L [23],
Table 3 Automatic evaluation on quality and controllability as model inputs (summaries (S), length $(\mathbf{L})$, and writing modes $(\mathbf{M})$ ) vary. Quality is evaluated by perplexity (PPL), BLEU-4 (B4), ROUGE-L (RL), BERTScore (BS), and controllability is measured by the accuracy of the generated stories matching the specified writing mode. controlling the writing modes of stories when the writing modes $(\mathbf{M})$ are specified as Dialogue, Action, and Description. The inputs such as summaries $(\mathbf{S})$, length $(\mathbf{L})$, and writing modes $(\mathbf{M})$ for the evaluation of quality and controllability are respectively inferred from the leading context and the target stories.
and BERTScore [24]. We observe a consistent improvement across all models as the amount of conditioning context increases, and that the models using writing mode factors outperform those without.
Controllability Lastly, we evaluate the controllability of mode-controlled models. For each paragraph, a target writing mode is chosen using the writing mode classifier, and used as conditioning for a text generation model. The classifier is then used to predict the writing mode of the generated text, and we measure the accuracy of generating stories with the specified writing modes.
On average, including writing mode as condition improves the accuracy of generating text which is classified as that mode, but the effect varies drastically by the specific mode. For Action and Description modes, the inclusion of writing mode conditioning improves accuracy on average by $45.4 \%$ and $45.6 \%$, respectively, compared to none mode-conditioned models. For dialogue, the improvement is $21.5 \%$, relatively lower.
It is interesting to note that the inclusion of summaries to the length-only model results in significant improvements to the controllability of the text. This implies that the pretrained models are able to naturally infer the intended writing mode from the summaries to some degree, with modest accuracy ( 44\%) on average for Action and Description modes, and up to $86 \%$ on Dialogue with BART. Summaries may contain some cues about the intended modes, especially, the summaries for Dialogue have strong cues (said, replied, argued, ...) in most cases. However, the consistently significant increase of accuracy scores when conditioning on writing modes illustrates the effectiveness of modes as a control factor.
## 5 Conclusion
In this work, we introduced writing modes as a control for human-machine collaborative writing scenarios and showed that training models to condition on writing modes resulted in stories that were closer to targets. The automatic evaluation shows that the writing modes of text are effectively controlled. To control text generation, we collected FRIDE and FRIDE-XL, datasets of narrative text annotated with writing modes, which we released to help facilitate further research in writing modes and fine-grained control for storytelling.
## Acknowledgments
This paper is based on results obtained from a project JPNP20006, commissioned by the New Energy and Industrial Technology Development Organization (NEDO). This work was partially supported by JSPS KAKENHI Grant Number JP19H05692.
## References
[1]Jian Guan, Xiaoxi Mao, and et al. Long text generation by modeling sentence-level and discourse-level coherence. ACL/IJCNLP, 2021.
[2]Fuli Luo, Damai Dai, and et al. Learning to control the fine-grained sentiment for story ending generation. In ACL, 2019.
[3]Xiangzhe Kong, Jialiang Huang, Ziquan Tung, Jian Guan, and Minlie Huang. Stylized story generation with style-guided planning. ACL/IJCNLP, 2021.
[4]Danyang Liu, Juntao Li, Meng-Hsuan Yu, Ziming Huang, Gongshen Liu, Dongyan Zhao, and Rui Yan. A character-centric neural model for automated story generation. In AAAI, 2020.
[5]M. Klaassen. Fiction-Writing Modes: Eleven Essential Tools for Bringing Your Story to Life. Bookbaby, 2015.
[6]Xiaofei Sun, Chun Fan, Zijun Sun, Yuxian Meng, Fei $\mathrm{Wu}$, and Jiwei Li. Summarize, outline, and elaborate: Long-text generation via hierarchical supervision from extractive summaries. CoRR, 2020.
[7]Jessica Morrell. Between the lines: Master the subtle elements of fiction writing. Penguin, 2006.
[8]Stephen Halliwell and Aristotle. Aristotle's Poetics. University of Chicago Press, Chicago, 1998.
[9]J Devlin, MW Chang, K Lee, and KB Toutanova. Pre-training of deep bidirectional transformers for language understanding. ACL, 2019.
[10]Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. NeurIPs, 2019.
[11]Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, 2019.
[12]Mike Lewis, Yinhan Liu, and et al. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. ACL, 2019.
[13]Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 2020.
[14]Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2018.
[15]Wei Wang, Piji Li, and Hai-Tao Zheng. Consistency and coherency enhanced story generation. In ECIR, 2021.
[16]Elizabeth Clark and Noah A. Smith. Choose your own adventure: Paired suggestions in collaborative writing for evaluating story generation models. In NAACL, 2021.
[17]Nader Akoury, Shufan Wang, Josh Whiting, Stephen Hood, Nanyun Peng, and Mohit Iyyer. STORIUM: A dataset and evaluation platform for machine-in-theloop story generation. In EMNLP, 2020.
[18]Jordan Clive, Kris Cao, and Marek Rei. Control prefixes for text generation. CoRR, 2021.
[19]Wojciech Kryscinski, Nazneen Fatema Rajani, and et al. Booksum: A collection of datasets for longform narrative summarization. CoRR, 2021.
[20]Sumanth Dathathri, Andrea Madotto, and et al. Plug and play language models: A simple approach to controlled text generation. In ICLR, 2020.
[21]Le Fang, Tao Zeng, Chaochun Liu, Liefeng Bo, Wen Dong, and Changyou Chen. Outline to story: Finegrained controllable story generation from cascaded events. CoRR, 2021.
[22]Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, 2002.
[23]Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, 2004.
[24]Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. In ICLR, 2020. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H3-5.pdf | # Decoding Sentence Representations for Text Generation
Weihao Mao, Xuchen Yang, Liyan Wang and Yves Lepage
早稲田大学大学院情報生産システム研究科
mao_weihao@asagi.waseda.jp, yang_xuchen@asagi.waseda.jp,
wangliyan0905@toki.waseda.jp, yves.lepage@waseda.jp
}
\begin{abstract}
Large-scale pre-trained language models have shown their potential in generating nearly human text. However, they require a large amount of data to be trained from. We explore the task of decoding sentence representations to reconstruct texts. We design two variants of a baseline vector-to-sequence model and explore different vector composition methods: unweighted and weighted sum, and concatenation. Experimental results show that a Transformer trained from scratch on sequences of word vectors achieves the highest BLEU score (94.2 BookCorpus sentences and 96.9 on Tatoeba sentences).
\end{abstract
## 1 Introduction
Text generation is a core task of natural language processing. It is part of machine translation, text summarization, and dialogue systems. It consists in outputting the corresponding human-understandable text which correspond to a given input [1]. Various neural network models such as Variational Autoencoder (VAE) and Generative Adversarial Networks (GAN) have been designed for text generation [2, 3, 4]. Pre-trained language models based on Transformers [5] have achieved the state of the art [6]. However, these models require large amounts of data for training and high power consumption because of the use of GPUs.
An alternative solution to large pre-trained language models is to use word embedding spaces to create sentence representations and decode these sentence representations into sentences $[7,8,9]$. This reduces the size of the resources needed for text generation. The experiments reported in [8] with such a model are however limited to short sentences from the Tatoeba corpus ${ }^{1}$, where the av-
^{1}$ https://tatoeba.org/en/
}
erage length of sentences is seven words. In this paper, we explore this model further and extend to more general cases.
We examine different composition methods of word vectors into sentence representations and conduct experiments with different architectures for decoding these sentence representations into a sentence.
## 2 Methods
Suppose that there is a pre-trained embedding model which projects words to $d$-dimensional vectors in a semantic space. Given a sentence, we can obtain a sequence of word vectors by representing words of the sentence in isolation. In Section 2.1, we examine four different composition models to derive effective representations for sentences. Then, in Section 2.2, we introduce a decoding mechanism for text generation, i.e., transferring compositional representations into sentences.
## 2.1 Composition methods
The simplest method to represent a sentence from word vectors is to sum up the word vectors of the words appearing in the sentence. This will be the first sentence representation that we will use, as a baseline. We call it unweighted sum.
Although the above method is simple and effective in some tasks [10], it has the drawback of giving the same importance to functional words as to meaningful words. As we care about the meaning of the sentence, we choose to give more weights to meaningful words while lowering the importance of functional words. For that, we use the index document frequency (idf) as weights, i.e., we use the idf-weighted sum of word vectors as a sentence representation (see Equation (1)). This produces semantically more relevant sentence representations [11]. We call this
weighted sum
$
v_{s}=\sum_{w \in s} \operatorname{idf}_{w} v_{w}
$
Here, $v_{w}$ is the word vector of word $w$ in some pre-trained word embedding space. $\operatorname{idf}_{w}$ is the inverse document frequency (idf) of word $w$, computed by considering each different sentence as a different document.
To capture long-distance dependencies between words, we propose to use the encoder part of an autoencoder model to generate a sentence representation from a sequence of word vector. We call this encoder of autoencoder.
The three above sentence representations lose the information about word order in the sentence, and mix-up information coming from different words on each vector dimension. So as to use more fine-grained information and retain the word order information, we propose to concatenate word vectors into a $d \times l$ matrix, where $l$ is the number of words. This fourth sentence representation will be called concatenation.
## 2.2 Text generation
To perform text generation, i.e., to decode a sentence representation into a sentence, we explore the use of three different architectures of neural networks.
The problem of solving sentence analogy puzzles is addressed in [8]. For that, a vector-to-sequence model is proposed to learn how to transfer a sentence vector, computed from the sentence vectors given in the analogy puzzle, into a sequence of words. This is done by pre-training a separate sentence decoder. Although the decoding method achieved reasonable results on the semantico-formal analogy dataset used [12], the accuracy drops significantly on other datasets containing longer sentences or different sentence styles.
We propose two decoders with different architectures: RNN-based autoencoder and Transformer-based decoder.
We then implement the RNN-based decoder that is the same as the vector-to-sequence model to decode sentence vectors.
For the RNN-based autoencoder model, we keep the decoder part consistent with the decoder proposed by [8] and only add a single-layer BiLSTM as the encoder. BiLSTM learns how to convert the sequence of vectors into a sentence vector in a fixed-size and feeds it to the decoder.
We also train a model from scratch that only has the decoder part with the Transformer structure. In the Transformer decoder, we use padding and cutting to make all vectors a fixed-size. As for decoder input, we take a fixedsize sequence of vectors added with positional encoding. The hidden vector encoded by the network is mapped to the dimension of the vocabulary, and then the output is the word with the highest probability in each position. Furthermore, we introduce the attention mechanism into the vector-to-sequence model to solve the problem that the decoder does not perform well in decoding long sentences.
For Transformer-based decoder, we establish the model with a single Transformer layer.
## 3 Experiments
## 3.1 Datasets
We experiment with data from two corpora in the English language. The first one is the Tatoeba corpus in which sentences are short and are basically composed of only one main clause. The second one is BookCorpus [13]. The sentences come from novels by many different authors.
We randomly select around 60,000 (exactly 63,336) English sentences from each corpus, which we divide into training, validation, and test sets with the respective proportions of $80 \%, 10 \%$, and $10 \%$. The average length of sentences from the Tatoeba corpus is 6.7 in words and 28.5 in characters. For BookCorpus, it is 13.2 in words and 62.7 in characters.
## 3.2 Setups
We use the pre-trained fastText model [14] to encode words into vectors.
To explore the decoding performance in terms of the quality of sentence representations, we use four different vector composition methods: the unweighted sum of the word vectors (sum) and the weighted sum of the word vectors using scalar factors of the idf weighting (wsum), fixed-size vector generated by BiLSTM (enc) and the concatenation of word vectors (concat). We conduct four experiments on decoder models ${ }^{2}$ in the following settings:
- sum-RNN: this is the model proposed in [8]. The
^{2}$ The model size is affected by the size of the vocabulary. Considering that we want to use a small model for this task, the vocabulary of each model is just initialized with the training data.
}
(a) Tatoeba
(b) BookCorpus
Figure 1 Performance, in BLEU, of the different models, by lengths of sentences, for each of the corpora.
sentence vector is the unweighted sum of the word vectors of the words in the sentence. This model is our baseline model.
- wsum-RNN: same as the previous model, except that the sentence vector is the idf-weighted sum of the word vectors.
- enc-RNN: the sentence representation is the fixed-size vector generated by the encoder of autoencoder . The decoder part of the autoencoder is used to output a sequence of words.
- concat-Trans: the sentence representation is the concatenation of the sequence of word vectors. A Transformer-based decoder is used to output a sequence of words. This Transformer model is trained from scratch.
## 4 Results and discussion
Figure 2 Performance of models learned from training data of different sizes.
## 4.1 Results
We use three evaluation metrics to quantify the decoding performance: accuracy, BLEU, and Levenshtein distance. Table 1 shows the results of the four experiments introduced in the previous section.
In terms of accuracy, i.e., outputting exactly the input sentence, the idf-weighted sum sentence representation provides an improvement of $16.0 \%$ and $3.1 \%$ on the two corpora, Tatoeba and BookCorpus, in comparison with the unweighted sum sentence representation (baseline model). On Tatoeba, the two proposed models (RNN model with the autoencoder structure and Transformer decoder) outperform the baseline by $34.7 \%$ and $51.4 \%$, respectively. On BookCorpus, their accuracy is lower than on Tatoeba, especially for the RNN model. Although the accuracy of the Transformer decoder has also declined, it is still the best among all models, by a large margin.
It is worth mentioning that the Levenshtein distance using Transformer decoder is only 0.1 . This means that even when decoding a not exactly same sentence, only less than one word in the sentence is incorrect on average.
Moreover, the Transformer decoder obtain 94.2 BLEU score, indicating that the decoded wrong sentences are still highly similar to the reference sentences.
We explore the effect of length of sentences and size of dataset on decoding result. As shown in Figure 1, on Tatoeba, the performance of baseline model using two sentence representations drop heavily as the length of sentence increasing. For the RNN-based autoencoder, the BLEU score only decreases slightly. Transformer decoder still
Table 1 Performance of the different models on the two datasets Tatoeba and BookCorpus. Recall that the sentences are three times longer in average in BookCorpus than in Tatoeba. The model sizes for each corpus is different because we filter out any word that does not belong to the training set from the word embedding space. The vocabulary size of Tatoeba is much lower that that of BookCorpus.
& & & & \\
Table 2 Various text generation results on BookCorpus with the different models.
maintain the great performance even when the sentences become longer.
On the BookCorpus corpus, in which the sentence length varies greatly, the performance of the three RNN models decreases rapidly as the sentence length increases. When the sentence length is close to 30, the BLEU scores of the three RNN models are close to 0 . However, the BLEU score of Transformer decoder is stable across all sentence lengths. The model with attention mechanism exhibits better performance than the RNN models when decoding longer sentences. Some decoding examples with different lengths are presented in Table 2.
For the size of the training data set, the three models show interesting and different trends. As shown in Figure 2, for the Transformer decoder, increasing the training data improves the BLEU Score, but the improvement is not significant. With the increase of training data, BLEU Score has a more noticeable improvement for the other two models of RNN structure, especially the RNN of the autoencoder structure.
## 4.2 Discussion and Future Work
The use of sequence of vectors as sentence representation achieved better results in the decoding experiments.
The performance of the Transformer decoder is much better than that of other models, especially on BookCorpus according to four different indicators. The attention mechanism plays a critical role in it. In the future, we will also apply attention on the RNN structure to let model focus on important words.
Although the experiments on sequence of vectors obtain better results than sentence vector, sentence vector is a lighter representation than sequence of vectors. The sentence representation in vector form is more efficient in manipulation and computation than the form of the sequence of vectors. Research on improving sentence vector decoding is indispensable.
## 5 Conclusion
We proposed two different models for decoding sentence representations into actual sentences. Our results showed that both the Transformer decoder and the RNN-decoder have a specific improvement compared with the latest research results. The Transformer decoder can also perform well in more general cases. Improving the decoder effect is of great significance for exploring the potential information of the vector space and future work from sentence representation mapping to text.
## References
[1] Albert Gatt and Emiel Krahmer. Survey of the state of the art in natural language generation: Core tasks, applications and evaluation. J. Artif. Int. Res., Vol. 61, No. 1, p. 65-170, jan 2018.
[2] Wenlin Wang, Zhe Gan, Hongteng Xu, Ruiyi Zhang, Guoyin Wang, Dinghan Shen, Changyou Chen, and Lawrence Carin. Topic-guided variational auto-encoder for text generation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 166177, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[3] Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 10-21, Berlin, Germany, August 2016. Association for Computational Linguistics.
[4] Jiwei Li, Will Monroe, Tianlin Shi, Sébastien Jean, Alan Ritter, and Dan Jurafsky. Adversarial learning for neural dialogue generation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2157-2169, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[6] Genta Indra Winata, Andrea Madotto, Zhaojiang Lin, Rosanne Liu, Jason Yosinski, and Pascale Fung. Language models are few-shot multilingual learners. In Proceedings of the 1st Workshop on Multilingual Representation Learning, pp. 1-15, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[7] Kelvin Guu, Tatsunori B. Hashimoto, Yonatan Oren, and Percy Liang. Generating sentences by editing prototypes. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 437-450, 2018.
[8] Liyan Wang and Yves Lepage. Vector-to-sequence models for sentence analogies. In 2020 International Conference on Advanced Computer Science and Information Systems (ICACSIS), pp. 441-446, 2020.
[9] Pengjie Wang, Liyan Wang, and Yves Lepage. Generating the middle sentence of two sentences using pre-trained models: a first step for text morphing. In Proceedings of the 27th Annual Conference of the Association for Natural Language Processing, pp. 1481-1485, Kokura, Japan, March 2021. Association for Natural Language Processing.
[10] Sanjeev Arora, Yingyu Liang, and Tengyu Ma. A simple but tough-to-beat baseline for sentence embeddings. In International conference on learning representations, 2017.
[11] Marek Rei and Ronan Cummins. Sentence similarity measures for fine-grained estimation of topical relevance in learner essays. In Proceedings of the 11th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 283-288, San Diego, CA, June 2016. Association for Computational Linguistics.
[12] Yves Lepage. Analogies between short sentences: A semantico-formal approach. In Human Language Technology. Challenges for Computer Science and Linguistics: 9th Language and Technology Conference, LTC 2019, Poznan, Poland, May 17-19, 2019, Revised Selected Papers, p. 163-179, Berlin, Heidelberg, 2019. Springer-Verlag.
[13] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In The IEEE International Conference on Computer Vision (ICCV), December 2015.
[14] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H4-1.pdf | # 服飾の色情報に基づいた ポエティックな商品名の作成支援システム
飯塚柚稀 ${ }^{1}$ 林克彦 ${ }^{2}$ 永野清仁 ${ }^{1}$ 宮尾祐介 ${ }^{3}$
1 群馬大学 2 北海道大学 3 東京大学
${ }^{2}$ katsuhiko-h@ist.hokudai.ac.jp
## 概要
本稿では服飾に対する商品名の作成を支援するシステムを開発し,その評価を行う.特に,ここではロリィタファッションや森ガールファッションの服飾商品に対して,服飾の特徴を表す単語だけでなく,比喻表現や修飾語を用いて,商品を魅力的に表す商品名候補を生成するシステムを開発する。このシステムの核は,服飾のメインカラーと似ている色の単語によって,商品を形容することであり,本稿ではこの実現に必要となる辞書データも作成した.開発したシステムにより生成した商品名候補が商品を魅力的に表現できているか,99名の大学生にアンケート調査を行ったところ,好意的な結果が得られたのでこれを報告する.
## 1 はじめに
ファッション業界では「シャギーニット」や「リボンワンピース」のように,服飾の種類・材質・柄・装飾といった商品の特徴のみを表すネーミングが基本である.そのため,異なるブランド同士であっても,商品名にはあまり差異が見られないことが多い。そのような中で,ロリィタファッションや森ガールファッションの服飾商品には,「甘い抹茶ラテのワンピース」や「漆黒のお嬢様のヴィクトリアンブラウス」といった個性的な商品名が付けられる傾向がある ${ }^{11}$ 。このように,服飾の特徴を表す単語だけでなく,比喻表現や修飾語が用いられた詩的情緒豊かな商品名のことを,本稿では「ポエティックな商品名」と呼ぶ.ポエティックな商品名は,商品の特徴を表す単語だけを用いた商品名よりも消費者の注目を集め,イメージを膨らませることが期待される。それにより,商品に対する購買意欲を高める効果があると考えられるが,服飾を魅力的に表すポ
照.
エティックな商品名を考案するコストは高い.
そこで本稿では,ポエティックな商品名の作成を支援するシステムの構築を目指す。このシステムを設計する上で,まず,商品にポエティックなネーミングを施しているファッションブランド Yuruly の商品名を分析した.この分析から,
・ポエティックな商品名を生成する上では,商品のメインカラーに近い色の単語を用いることが重要である
という仮説を立て,この仮説に基づいたルールベー スの商品名生成システムを構築する.提案システムでは,まず商品名に使用する単語と,その主な色となるカラーコードが対となった辞書を作成する。 そして,ネーミングを施す商品画像からメインカラー と考えられる色を抽出し,そのメインカラーに近い色が登録されている単語を辞書から取得する.最後に,取得した単語をテンプレートに組み込むことで,ポエティックな商品名の候補を生成する。
本稿では提案システムの有効性を検証するため,自動生成した商品名候補が魅力的なものであるかアンケート調査を実施した。 99 名の大学生から得たアンケート結果を分析したところ,システムの有効性が確認された。
辞書やコードはhttps://github.com/Yuki0922/ poetic-product-name で公開予定である.
## 2 関連研究
文章の自動生成については,これまでにさまざまな観点から研究が行われている. Vinyals らは画像キャプション生成を深層学習によりモデル化している [1]. この成功以来,キャプション生成への注目が集まり,家具の説明文 [2],アパレル EC サイトの商品説明文 [3] や株価の市況 [4] などを生成するモデルが次々に提案された。,他にも,俳句 [5] や詩 [6] などのテキストを生成する深層学習モデルも提案さ
図 1: 提案システムの概略. 入力画像はフリー素材を使用.
れている. 商品の説明文を生成する研究や俳句などの芸術性の高いテキストを生成する研究は,本稿との関連も深いが,服飾に対するポエティックな商品名を自動生成する試みはない.
本稿で扱うポエティックな商品名は数が少なく,機械学習に必要となる学習データを十分に集めることが困難である。そのため,提案システムではルー ルベースに基づく手法を採用しており,その核となるのは,単語・カラーコード辞書である。これは単語とそれに対する主な色のカラーコードを対として登録した辞書であり,本稿ではこの辞書を主に人手で作成している. 文献 [7] では色とその色に人が独自に付けた名前が対となったデータセットを構築している。本稿では日本語を対象としているため,英語により記述された上記のデータセットを利用することは簡単でない,また,洋菓子,宝石,植物,フルーツなど多様なカテゴリの単語を含むことも本稿で作成した辞書の特徴となる。
## 3 提案システム
図 1 にポエティックな商品名を自動生成するシステムの概略を示す. 本システムの入力は, 商品画像から抽出したメインカラーのカラーコードと,「ワンピース」などの商品名末尾に配置する単語であり, 出力はポエティックな商品名である. 動作工程は大きく分けて,
・カラーコード抽出部
・辞書マッチング部
- 商品名生成部
の 3 つがある.以下では各部の詳細を説明する。
## 3.1 カラーコード抽出部
カラーコード抽出部は,ネーミングを施したい商品画像から,メインカラーとなるカラーコードを抽出するフェーズである.カラーコードの抽出方法は 2つあり,1つ目はイメージカラーピッカーを用いて人手で取得する方法である. 2 つ目は,クラスタリング(本稿では $k$-means 法を採用)によって,画像内の色を $k$ 個のクラスタに分け,その中で最も大きな割合を占める色のカラーコードを抽出する方法である.後者は作業を自動化できるが,図 2 のように商品画像内の影の割合が多いほどメインカラーとして抽出されるカラーコードは暗い色となるため,人間の感覚とはギャップが生じる。そのため,本稿の実験調査では前者の方法を採用する.
## 3.2 辞書マッチング部
辞書作成本システムで使用する辞書には,単語とその主な色のカラーコードが登録されている「単語・カラーコード辞書」,及び,修飾語が登録されている「修飾語辞書」の2つがある.
単語・カラーコード辞書は図 1 のように, 商品名に使う単語とその主な色のカラーコードが対として登録されている2). 表 1 には辞書に登録されてい
2)「莓のショートケーキ」のように,それを表す典型的な色を判断しにくい単語に対しては,2つ以上のカラーコードを
図 2: 影が多く含まれる服飾画像からメインカラーを抽出する際,自動で抽出したカラーコード「\#9c7979」は手動で抽出したカラーコード「\#d6a6a4」より暗い色となる. 入力画像はフリー素材を使用.
表 1: 単語・カラーコード辞書の単語登録数.
る単語の例と登録数を示す. カテゴリは Yuruly の商品名に使用されている単語のカテゴリを分析することで選定した.登録単語の選定方法はカテゴリごとに異なる. 日本や世界の伝統色は色の名称とカラーコードが対として登録されているサイトから抽出した ${ }^{3)}$ 。他のカテゴリについては,単語の選定は Wikipedia 等の辞書から一覧を取得した.これらの単語に対するカラーコードの登録は Google 画像検索とイメージカラーピッカーを用いて人手で行った. 単語・カラーコード辞書は後述するマッチング処理において,服飾画像のメインカラーと似た色の単語を取得するために利用される。
修飾語辞書に登録されている単語数は 69 であり,例としては,「ガーリー」「ドリーミー」「エレガント」「ロイヤル」「清楚な」「たおやかな」「優雅な」「麗しい」といった単語が挙げられる.このような形容詞以外にも,「アリス」「ドール」「レディー」
登録している。また,提案システムではこのような複数のカラーコードを持つ単語を用いた商品名生成も実装しているが,説明を簡略化するため,その詳細は省略する。
3) https://www.colordic.org/w や https://www.colordic. org/yを参照「パーティー」といった名詞も修飾語辞書に登録している。修飾語辞書に登録している単語は,可愛い単語や美しさを表す単語が掲載されている Web サイトから人手で選定している4)。修飾語辞書の利用方法は商品名生成部で後述する。
マッチング処理辞書マッチング部は,カラー コード抽出部で得られるカラーコードをもとに,似ている色の単語を単語・カラーコード辞書から取得するフェーズである。辞書に登録された単語のカラーコードと服飾に対するメインカラーのカラー コードをRGB 值に変換し,それらのユークリッド距離を計算して,その距離が小さいほど 2 つの色は似ていると判断する。システムでは多様な商品名を生成するため,辞書から距離が閾値以内の単語を $N$個抽出し,そこからランダムで選択した単語を次節の商品名生成部で利用する.
## 3.3 商品名生成部
商品名生成部は,単語・カラーコード辞書とのマッチング処理で取得した単語や「ワンピース」などの入力単語をテンプレートに組み込み,商品名を生成するフェーズである. テンプレートには
・マッチング部で取得した単語 + “の” + 入力単語
・マッチング部で取得した単語 + “の”+修飾語辞書からランダムに取得した単語 + 入力単語
の 2 種類ある. 修飾語辞書には「メルティー」「ドリーミー」といった単語が登録されており,これらの単語は後者のテンプレートが選択された際にランダムで取得される.以下は商品名候補の例である。
・ブルーベリーチーズケーキのワンピース
・アルタイルのワンピース
・白藤色のドリーミーワンピース
これらは図 1 で示した服飾のメインカラーのカラー コード「\#e1d8e4」に対して,商品名生成を行った例であり,商品名末尾に配置する入力単語は「ワンピース」である.
## 4 実験調査
提案システムの有効性を検証するため,アンケー 卜調査を行った. 調査対象は 10 代と 20 代の大学生 99 名であり,性別は男性が 58 名,女性が 38 名,回答しないが 2 名,その他が 1 名であった. アンケー 卜対象の服飾画像は Yuruly から 20 個取得し,次節
表 2: 20 問の設問に対して,7つの商品名項目ごとの平均票数と標準偏差(全体 99 人)(票数多い順).
で説明する形式で 20 問の設問を用意した.
## 4.1 アンケート調査の設問形式
服飾の商品画像 1 つに対して 7 つの商品名を選択肢として提示し,その中から魅力的だと感じるものをすべて選択する形式とした.7つの商品名項目は
1. 商品画像の色に近い色の単語を使った商品名
2. 商品画像の色に近い色の単語 + 修飾語を使った商品名
3. 商品画像の色から遠い色の単語を使った商品名
4. 商品画像の色から遠い色の単語 + 修飾語を使った商品名
5. 商品画像の色に関係なく取得した単語を使った商品名
6. 服飾の特徴を説明する単語のみで構成された商品名
7. 実際の商品名
となっている.この項目のうち最初の 5 つは提案システムによって生成される商品名である. ただし, 3つ目と4つ目の商品名はマッチング処理において,距離の大きい単語を単語・カラーコード辞書から取得している. 5 つ目の商品名で使用した単語は音楽関連など色と無関係の単語リストからランダムに取得した。実際の設問例は付録 A. 1 に付した。
## 4.2 調査結果と分析
7 種類の商品名項目ごとの平均票数とその標準偏差を表 2 に示す. 服飾のメインカラーから遠い色を持つ単語や無関係な色を持つ単語を利用した場合 (3., 4., 5.) よりも,近い色を持つ単語を利用した商品名 (1., 2.) の方が多くの票数を獲得している. この結果より, 服飾に近い色に着目するというシステム設計の仮説に一定の妥当性があることが確認された。また,この傾向は性別や服飾への興味の有無に関わらず一貫していた(付録 A.2 と A.3).
図 3: 服飾の色に近い色の単語として商品名に使用された単語の獲得票数(上位下位 5 単語ずつ).
しかし,実際の商品名(7.)と比較すると,システムが生成した商品名の票数は劣る結果となった. この点を分析するため,図 3 に服飾の色に近い色の単語として商品名に使用された獲得票数上位下位 5 単語を示した. 上位には「ラベンダー」「シラユリ」 のような植物名など色を想起しやすく比較的語感の良い単語が使われていた。下位には「酒饅頭」「葛焼き」のような洋服とイメージが合わない和菓子や 「国防色」「苦礬柘榴石」のように見慣れない単語が使われており,このような事例が票数の低下を招いたと考えられる。ただし,これらの問題は辞書を整備することで改善できる可能性が高い.
一方で,最も票数を集めたのは服飾の特徴を説明する単語のみで構成された商品名 (6.) であった. この理由の一つには,商品名が商品の魅力を高めるようなものというよりも, 商品に適している違和感の少ない商品名が選ばれている可能性が考えられる.この事から質問文や設問の項目については改善の余地が残される結果となった。
## 5 まとめ
本稿では服飾に対するポエティックな商品名の候補を生成するシステムを開発し,アンケート調査からその有効性を確認した. 今後, 実運用に向けて, システムや辞書の整備を進めたい. 特に,単語・カラーコード辞書の作成は著者らの主観で行ったが, ある単語に一色を割り当てる作業は更なる議論が必要である [8]. また,「アリス苸のショートケーキ」 のような印象的な造語を考えるテンプレートを整備し,より魅力的な商品名の生成を検討したい.
## 謝辞
本研究は JSPS 科研費 JP 21H03491 の助成を受けた. また,アンケート調査に協力してくれた方々にはこの場をお借りして深く感謝いたします.
## 参考文献
[1] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 3156-3164, 2015.
[2] 鈴木凛次, 福本健二, 寺田浩之, 馬頭正文, 灘本明代. Lstm を用いた家具説明文の自動生成. 電子情報通信学会データ工学研究会 (DE), Vol. 120, No. 202, 2020.
[3] 園田亜斗夢, 新名玄. アパレル ec サイトにおける説明文自動生成. 経営情報学会 2018 年秋季全国研究発表大会, pp. 125-127, 2018.
[4] 村上聡一朗, 渡邊亮彦, 宮澤彬, 五島圭一, 柳瀬利彦, 高村大也, 宮尾祐介. 時系列株価データからの市況コメントの自動生成. 自然言語処理, Vol. 27, No. 2, pp. 299-328, 2020 .
[5] 廣田敦士, 岡夏樹, 荒木雅弘, 田中一晶. 学習データセットを分けた seqgan による俳句生成. 言語処理学会第 24 回年次大会, pp. 1292-1295, 2018.
[6] Xingxing Zhang and Mirella Lapata. Chinese poetry generation with recurrent neural networks. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 670-680, 2014.
[7] Kazuya Kawakami, Chris Dyer, Bryan R Routledge, and Noah A Smith. Character sequence models for colorful words. arXiv preprint arXiv:1609.08777, 2016.
[8] 川上正浩. 野菜・果物等の典型色に関する調査. 大阪樟蔭女子大学研究紀要第 1 号, 2011.
## A 参考情報
## A. 1 アンケート設問の例
以下にアンケートの設問の例を示す。これは Yuruly で実際に販売されている商品「ふわり小イップのワンピース」)に対する設問となる.この商品は白色のワンピースである.
1. シラユリのワンピース
2. 梨のシャーベットのハートワンピース
3. クーベルチュールチョコレートのワンピース
4. ビリジアンのプリマワンピース
5. 鶉月のワンピース
6. フリル襟半袖ワンピース
7. ふわりホイップのワンピース
## A. 2 性別による票数の違い
表 3 と 4 亿,性別を男性あるいは女性と回答した調査対象者のアンケート結果をまとめた.これらの結果から,一般に男性や女性という性別の違いは結果に大きな影響を与えていないことがわかる.
表 3: 20 問の設問に対して,7つの商品名項目ごとの平均票数と標準偏差(男性 58 人)(票数多い順).
表 4: 20 問の設問に対して,7つの商品名項目ごとの平均票数と標準偏差(女性 38 人)(票数多い順).
## A. 3 ファッションへの関心の有無による 票数の違い
表 5 と 6 に,ファッションに興味あり,あるいは,興味なしと回答した調査対象者のアンケート結果をまとめた。これらの結果から,ファッションへの関心の有無は結果に大きな影響を与えていないことがわかる.また,表 7 には,ロリィタや森ガールファッションと関連の深いガーリー系ファッションに興味があると回答した 9 人に対する結果を示した. この結果からも票数の違いは見られなかった.
表 5: 20 問の設問に対して,7つの商品名項目ごとの平均票数と標準偏差(ファッションに興味あり 64 人) (票数多い順).
表 6: 20 問の設問に対して, 7 つの商品名項目ごとの平均票数と標準偏差(ファッションに興味なし 35 人) (票数多い順).
表 7: 20 問の設問に対して,7つの商品名項目ごとの平均票数と標準偏差(ガーリー系ファッションに興味あり 9 人)(票数多い順).
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H4-2.pdf | # 入力文章の内容に沿った新たな歌詞を生成する 作詞支援システムと剽窃リスクを下げる歌詞生成手法
渡邊研斗 後藤真孝
産業技術総合研究所
\{kento.watanabe,m.goto\}@aist.go.jp
## 概要
本研究の目的は,ユーザが歌詞に書きたい内容を文章として入力した時,その入力文章の内容に沿いつつ字面が似ていない歌詞を生成することで,ユー ザに新たな作詞の発想を与える作詞支援システムを開発することである。この目的達成のために,(a)既存の画像生成技術を用いることで,「入力文章の字面に関する情報を取り除きつつ入力の内容を表した画像」を生成し, (b) 本研究で提案する画像の内容を表した歌詞を生成するエンコーダ・デコーダを用いることで,「入力文章の内容に沿いつつ字面が似ていない歌詞」を生成する. 更に,自動歌詞生成技術を用いた創作活動を円滑にするために,剽窃リスクを下げる歌詞生成手法を提案する。
## 1 はじめに
歌詞情報処理 [1] の研究として, 自動歌詞生成技術を活用した作詞支援システムが提案されてきた $[2,3,4,5,6,7]$. Watanabe ら [4, 5] のシステムは, ユーザが選択したトピックに沿った歌詞を生成できるが,選択可能なトピックは限られているためユー ザの自由度は低く, 生成される歌詞の作風が似てしまう問題点がある. Oliveira ら [6,7] のシステムは, ユーザが入力した単語を含む歌詞を生成できるが,入力単語が生成歌詞に必ず含まれるため, 入力単語以外の単語で表現した歌詞が生成されにくい. 例えば,単語「海岸」を入力しても「ビーチ」や「海辺」等の同じ意味だが別表現の単語は生成されにくい.
本研究の目的は,「海岸で車を運転する」のような歌詞に書きたい内容を文章として入力した時,「海辺のハイウェイを走りたい [改行] ハンドルを握る君とならば」のような入力文章の内容に沿った歌詞を生成して提示することで,ユーザに発想を与える作詞支援システムを開発することである。本システム
図 1 提案する作詞支援システムと歌詞生成手法の概要
の対象ユーザとして,歌詞に書きたい内容は決まっているがどんなフレーズで書けばよいか思いつかない人を想定している.よって,もしシステムが入力文章と字面が似た歌詞を提示してしまうと,ユー ザに新たな発想を与えることは難しくなる.我々は 「入力の内容に沿いつつ字面が似ていない歌詞を提示することが,ユーザに新たな発想を与える」という考えの元で作詞支援システムを開発する。
この目的達成のために,入力文章の内容に沿いつつ字面が似ていない歌詞を生成する手法を提案する. 単純な手法として,文章と歌詞のペアデータを学習したエンコーダ・デコーダを用いて歌詞生成をすれば良いと考えられるが,そのようなペアデータは存在しない。そこで,文章要約技術や機械翻訳技術などを用いて歌詞から文章を自動生成することで,ペアデータを用意する方法が考えられる。 しかし,このようにして用意された文章と歌詞のペアは字面が似ているため,このペアデータを学習したエンコーダ・デコーダは入力文章と字面が似た歌詞を生成する可能性がある.
そこで図 1 のように,(a) 入力文章の内容を保持したまま,入力の字面に関する情報を取り除いた中間表現へ変換した後に,(b) その中間表現の内容に沿った歌詞を生成することで,目的の「入力文章の内容に沿いつつ字面が似ていない歌詞」の生成を可能とする. 本研究ではこの「中間表現」として画像を用いる。ここで画像を選択した理由には,Stable Diffusion[8] を始めとした拡散モデルによって入力文章の内容を表した画像生成が可能となったという背
景がある.この技術で生成された画像は, 入力文章の内容を表しているだけでなく, 入力文章の字面に関する情報が取り除かれた状態であるため,目的の中間表現の条件を満たしている. 更に,入力文章の形式(単語・フレーズ・文・段落)に関わらず画像を生成できるため, ユーザの入力形式に依存しない柔軟性の高い作詞支援システムの開発が可能となる.
本研究では, 入力文章から画像を生成するために既存の画像生成技術を利用するが,画像から歌詞を生成するエンコーダ・デコーダに関しては新たに学習をする必要がある.このエンコーダ・デコーダを学習するためには, 大力文章から生成された画像と歌詞のペアデータを用意できれば理想的だが,上述したようにそのような入力文章データは存在しない. そこで本研究では,画像生成技術を用いて歌詞から画像を生成することで,画像と歌詞のペアデー タを用意する. このように画像生成技術を活用すると, 目的の歌詞生成が可能となるだけでなく, 画像から歌詞を生成するエンコーダ・デコーダの訓練データを用意することも可能となる.
更に本研究では,訓練データの歌詞を剽窃するリスクを下げる歌詞生成手法を提案する. 機械学習に基づく歌詞生成では, 訓練データ中の歌詞フレーズを再利用して剽窃するリスクがある.ユーザが作詞支援システムを安心して使うには,そのリスクを下げられる歌詞生成手法が求められると我々は考えている.そこで本研究では,訓練データ中で少数の曲のみが使用している固有なフレーズを生成不可能にする制約を加えることで,剽窃リスクを下げる.
実験の結果,提案手法は比較手法よりも入力文章の内容に沿いつつ字面が似ていない歌詞を生成可能であることが確かめられた. また,剽窃対策を施さないと, 生成歌詞中の一割以上のフレーズが剽窃となってしまう可能性があることが確かめられた.
## 2 作詞支援システム
本研究では,歌詞に書きたい内容を文章として入力すると,その文章の内容に沿った歌詞の候補を生成し提示する作詞支援システムを提案する。本システムはユーザが文章を大力する入力パネル(図 2 左側)と,生成された歌詞を表示する歌詞表示パネル (右側)で構成される. ユーザは基本的な操作として,以下の手順により作詞をすることができる.
1. 入力パネルに, 作りたい歌詞の内容を文章として自由な長さ・スタイルで入力する。
図 2 作詞支援システムのスクリーンショット
2. 入力が完了すると, 歌詞表示パネルに入力文章の内容に沿った歌詞の候補が複数生成される.
以上の操作で, 本システムはユーザの意図に近い歌詞を複数生成するが,必要に応じて入力文章や歌詞を修正したり, 生成する歌詞の条件(行数やシード値など)のパラメータを変更することで,ユーザが意図した歌詞に更に近づけることが可能となる.
## 2.1 自動生成が創作活動を妨げないために
自動生成技術が発展することで,作業が効率化されるという長所がある一方で,既存の創作物を剽窃してしまい創作者の権利を侵害してしまう可能性がある. 本システムでは,多くの異なる曲で使用されているありがちなフレーズ(ありがち度 $[9,10]$ の高い単語列)を生成することは剽窃には当たらないと仮定し, 少数の曲のみ (今回は仮に 3 曲以下とした)で使用された固有なフレーズを生成不可能にすることで剽窃の可能性を下げる機能を実装する.
## 3 実装
## 3.1 入力文章の内容に沿った歌詞を自動生成する手法
提案した作詞支援システムにおける自動歌詞生成は以下のような入出力を想定している. 入力は歌詞に書きたい内容を表した文章であり, 出力は入力文章の内容に沿いつつ字面が似ていない歌詞とする. この入出力の歌詞生成を可能にするエンコーダ・デコーダの訓練データとして,歌詞の内容を表しつつ字面は似ていない文章が多数必要となるが,そのようなデータは存在しない. また,文章要約技術等を用いて歌詞のペアとなる文章を自動生成したとしても,その文章は歌詞と字面が似ているため,このデータで学習されたエンコーダ・デコーダは大力文章と字面が似た歌詞を生成する可能性がある.
そこで本研究では図 1 のように,(a) 既存の画像生成技術を用いて入力文章の内容を表した画像を生成することで,入力文章の字面に関する情報を取り除く. そして (b) 画像の内容を表した歌詞を生成するエンコーダ・デコーダを用いることで,目的の「入力文章の内容に沿いつつ字面が似ていない歌詞」の生成を可能とする. このエンコーダ・デコーダを学習するためには,入力文章から生成された画像と歌詞のペアデータを用意できれば理想的だが,上述したようにそのような入力文章データは存在しない。 そこで本研究では,画像生成技術を用いて歌詞から画像を生成することで,歌詞以外の文章データを一切用いずに訓練データを用意する.なお,一枚の画像は歌詞の一段落分の内容を表現すると仮定して,画像と歌詞段落のペアデータを用意する.
以上の着想を元に,提案エンコーダ・デコーダの詳細を説明する.まず,訓練データ用の日本語歌詞の各段落を日英機械翻訳 ${ }^{11}$ により英語へ翻訳し,翻訳された英語歌詞から,アニメスタイルの画像を生成する技術 Anything v3.02) (Stable Diffusion の改良型) を用いて解像度が $512 \times 512$ の画像を生成する.ここで, Anything v3.0を用いる理由は,(1) 文章のまま入力してもその内容を表した画像が生成でき,(2)一貫したスタイルの画像を用いた方がエンコーダ・ デコーダを学習しやすいと考えたためである.
次に, Vision Transformer[11]を用いて画像から計算した特徵量 $(10 \times 768$ 次元 $)$ を, Transformer デコー ダ [12] の Multi-Head Attention 層へ入力する.また, CaboCha[13] を用いて形態素解析された各単語を単語埋め込み層と位置埋め込み層を通してべクトル化し, Transformer デコーダの Masked Multi-Head Attention 層へ入力する. 最後に,デコーダの出力を単語生成確率分布を表す全結合層へ渡す。
## 3.1.1 パラメータ
埋め込みの次元数は 768 とし, Multi-Head の数は 6,デコーダの層数は 2, Feedforward 層の次元数は 1024,活性化関数は GELUを用いる. Vision Transformer は学習済みモデル3)を用い,そのパラメータは再学習しない。最適化には AdamW[14]を用い,学習率は 0.001 とし, ウォームアップステップは 1 エポック分とする. 学習は 40 エポック行い,
1) https://huggingface.co/staka/fugumt-en-ja
2) https://huggingface.co/Linaqruf/anything-v3.0
3) https://huggingface.co/google/
vit-base-patch32-224-in21k開発データにおける最良 Loss のモデルを採用する。
なお,BERT[15] や GPT-2[16] などの大規模言語モデルの学習済みパラメータはあえて利用せずに,歌詞データのみを用いてエンコーダ・デコーダを学習する。これは,大規模言語モデルの訓練データ中の文章を剽窃する可能性をゼロにするためである.
## 3.1.2 訓練データ
112,462 曲(856,778 段落)の日本語のポピュラー 音楽の歌詞を用い,8:2 で訓練/開発データに分割する. 学習対象の語彙は文書頻度が大きい上位 50,831 の単語を使用し,その他の単語は未知語タグに置換する。また,語彙には改行を表す EOL タグと段落頭/木を表す BOP/EOP タグが含まれる。
## 3.2 歌詞生成アルゴリズム
作詞支援システムでは,様々なバリエーションの歌詞を複数生成・提示することで,ユーザに新たな発想を与えることを想定している。そのため本研究では,ビーム探索のような最尤な単語列を探索する手法ではなく,サンプリングによる生成手法を用いる.ただし,単にサンプリングすると生成確率が低い単語が生成される可能性があるため,本研究では Top- $P$ サンプリング [17] を用いて,生成確率が低い単語のサンプリングを禁止する. Top- $P$ サンプリングでは,各単語列を独立に生成するため,複数の歌詞候補を同時に生成できる. さらに本研究では, ユーザが設定した行数などの詳細な条件を満たした歌詞を生成するために,これらの条件を満たさない単語列の生成を禁止する。
提案生成手法が既存歌詞を剽窃するリスクを下げるために,歌詞データ中の文書頻度が 1 から 3 である単語 4-gram の生成を禁止する. この処理は, 多くの曲で使用されているありがちなフレーズは再利用できるが,少数の曲でしか使用されていない固有なフレーズを生成したら剽窃にあたる可能性が高い, という仮定の元で設計した. 単語 4-gram の文書頻度を正確に計算するためには,歌詞データ中に同一楽曲の歌詞が重複して存在しない状態にする必要がある.ここで重要なことは,異なる歌詞が誤って同一楽曲と判定されることは問題ないが,同じ歌詞なのに同一楽曲でないと判定されることは避けなければならない点である.そこで,歌詞データ中のあらゆる歌詞のペアにおいて以下の 2 つの基準で判定することで,同一楽曲判定に取りこぼしがないょうに
する. (1) 単語 20-gram が一致している単語列が存在すれば同一楽曲とする. (2)もしくは, 歌詞間の標準化編集距離 [18] が 0.5 以下のものを同一楽曲とする. この基準により,112,462 曲中で同一楽曲の歌詞を連結して 1 つの歌詞に置き換えた 109,829 曲の歌詞を用いて,単語 4-gram の文書頻度を計算した。
## 4 実験
提案エンコーダ・デコーダの性能を評価するためには,実験用の歌詞とその内容を表した入力文章のペアが必要となる. 本研究では, 小説がアニメ化された時のアニメ主題歌の歌詞は,小説の内容を元に作詞されたと仮定し, 51 作品の Web 小説の概要文章と,その主題歌の歌詞 (2730 段落) を評価データとして用意した. 実験では, 小説の概要文章を大力した時のパープレキシティや生成歌詞を評価する。
実験の比較手法として,異なるペアデータを学習した以下のエンコーダ・デコーダを用意した.
Image-to-Lyrics (I2L) 提案エンコーダ・デコーダ.
Summary-to-Lyrics (S2L) 文章要約手法4) を用いて歌詞の一段落を一文へ要約することで要約文とオリジナル歌詞のペアを作成してから,そのペアデータを学習したエンコーダ・デコーダ.
Back translation-to-Lyrics (B2L) 日英翻訳手法と英日翻訳手法 ${ }^{5}$ を用いて歌詞を日 $\rightarrow$ 英 $\rightarrow$ 日と逆翻訳することで逆翻訳歌詞とオリジナル歌詞のペアを作成してから,そのペアデータを学習したエンコーダ・デコーダ.
上記 S2L と B2L は Transformer を用いたエンコー ダ・デコーダであり, そのパラメータは I $2 \mathrm{~L}$ と同じである. 生成手法の Top- $P$ サンプリングのパラメー タ $P$ は 0.9 とし, 1 つの入力に対して 5 つの歌詞候補を生成する. この比較実験では純粋な歌詞生成能力を評価するために,剽窃対策は施していない.
まず,各エンコーダ・デコーダが入力文章の内容に沿った歌詞を生成する能力を持つかを調べるために,パープレキシティを計算した. その結果, I2L は 149.30,S2Lは181.60,B2Lは 1207.52 となり,提案エンコーダ・デコーダのパープレキシティが最も良いことが確かめられた。また, 生成歌詞が入力文章の字面と似ているかを調べるために,生成歌詞と入力文章の標準化編集距離を計算した. その結果, I2L は $0.91 , \mathrm{~S} 2 \mathrm{~L}$ は $0.87 , \mathrm{~B} 2 \mathrm{~L}$ は 0.76 となり,提案
4) https://huggingface.co/tsmatz/mt5_summarize_japanese
5) https://huggingface.co/staka/fugumt-en-ja表 1 入力文章に対して生成された歌詞の例
& \\
エンコーダ・デコーダが生成した歌詞は入力文章と最も文字列が異なっていることが確かめられた。これらの実験結果は,要約文-歌詞ぺアや逆翻訳歌詞歌詞ペアを学習した場合よりも,画像-歌詞ペアを学習した場合の方が,入力文章の内容に沿いつつ字面が似ていない歌詞を生成できることを意味する.
次に,剽窃対策を施していない歌詞生成手法がどれだけ剽窃リスクを負っているかを調べるために,生成された歌詞中のすべての単語 4-gram のうち,文書頻度が 1 以上かつ 3 以下の単語 4-gram の割合 $R$ を計算する。その結果,提案エンコーダ・デコー ダを用いて歌詞を生成した場合, $R=17.5 \%$ であることが確認された.これは,剽窃対策を施さないと生成歌詞の一割以上のフレーズは既存歌詞に固有なフレーズである可能性が高いことを意味する.ただし,提案した剽窃対策を施すことで $R=0 \%$ となり,既存歌詞に固有なフレーズを再利用してしまう剽窃リスクを下げることが可能となる.
表 1 に,入力文章とそれに基づいて提案エンコー ダ・デコーダが生成した歌詞の例を示す. なお,ここでは剽窃対策を施した生成手法を用いている。これらの入力文章は, RWC 研究用音楽データベース [19] の歌詞と JSICK データセット [20] の文から選択した.この表より, 入力文章の内容に沿いつつ字面が似ていない歌詞が生成されていることがわかる. また,その他の生成結果の例を付録に掲載する.
## 5 まとめ
本研究の主な貢献は以下の通りである. (1) 入力文章の内容に沿った歌詞候補を提示することでユー ザに新たな発想を与える作詞支援システムを提案した. (2) 入力文章の内容に沿いつつ字面が似ていない歌詞を生成するために,画像生成技術を活用した Image-to-Lyrics エンコーダ・デコーダを提案した. (3) 既存の歌詞を剽窃するリスクを下げる歌詞生成手法を提案した. 今後は作詞支援システムのユーザ評価を行う予定である.
## 謝辞
本研究の一部は JST CREST JPMJCR20D4 と JSPS 科研費 JP20K19878 の支援を受けた。
## 参考文献
[1] Kento Watanabe and Masaraka Goto. Lyrics information processing: Analysis, generation, and applications. In Proceedings of the 1st Workshop on NLP for Music and Audio (NLP4MusA 2020), pp. 6-12, 2020.
[2] Chihiro Abe and Akinori Ito. A Japanese lyrics writing support system for amateur songwriters. In Proceedings of the Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC 2012), pp. 1-4, 2012.
[3] Eric Malmi, Pyry Takala, Hannu Toivonen, Tapani Raiko, and Aristides Gionis. DopeLearning: A computational approach to rap lyrics generation. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 195-204, 2016.
[4] 渡邊研斗, 松林優一郎, 乾健太郎, 中野倫靖, 深山覚,後藤真孝. LyriSys: 歌詞の大局的構造に基づいた作詞支援インタフェース. 日本ソフトウェア科学会第 23 回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2015) 論文集, 2015.
[5] Kento Watanabe, Yuichiroh Matsubayashi, Kentaro Inui, Tomoyasu Nakano, Satoru Fukayama, and Masataka Goto. LyriSys: An interactive support system for writing lyrics based on topic transition. In Proceedings of the 22nd Annual Meeting of the Intelligent User Interfaces Community (ACM IUI 2017), pp. 559-563, 2017.
[6] Hugo Gonçalo Oliveira, Tiago Mendes, and Ana Boavida. Co-PoeTryMe: a co-creative interface for the composition of poetry. In Proceedings of the 10th International Conference on Natural Language Generation (INLG 2017), pp. 70-71, 2017.
[7] Hugo Gonçalo Oliveira, Tiago Mendes, Ana Boavida, Ai Nakamura, and Margareta Ackerman. Co-PoeTryMe: Interactive poetry generation. Cognitive Systems Research, Vol. 54, pp. 199-216, 2019.
[8] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2022), pp. 10674-10685, 2022.
[9] 中野倫靖, 吉井和佳, 後藤真孝. 確率的生成モデルに基づく音楽の類似度とありがち度の推定に関する検討. 情報処理学会研究報告音楽情報科学 (MUS), Vol. 2014, No. 2, pp. 1-7, 2014.
[10] Tomoyasu Nakano, Kazuyoshi Yoshii, and Masataka Goto. Musical similarity and commonness estimation based on probabilistic generative models of musical elements. International Journal of Semantic Computing (IJSC 2016), No. 1, pp. 27-52, 2016.
[11] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov,
Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. In Proceedings of the 9th International Conference on Learning Representations (ICLR 2021), 2021.
[12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, pp. 1-11, 2017.
[13] Taku Kudo and Yuji Matsumoto. Japanese dependency analysis using cascaded chunking. In Proceedings of the 6th Conference on Natural Language Learning (CoNLL 2002), 2002.
[14] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of the 7th International Conference on Learning Representations (ICLR 2019), 2019.
[15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019), pp. 4171-4186, 2019.
[16] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[17] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In Proceedings of the 8th International Conference on Learning Representations (ICLR 2020), 2020.
[18] Yujian Li and Bi Liu. A normalized Levenshtein distance metric. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 29, No. 6, pp. 1091-1095, 2007.
[19] Masataka Goto, Hiroki Hashiguchi, Takuichi Nishimura, and Ryuichi Oka. RWC Music Database: Popular, classical and jazz music databases. In Proceedings of the 3rd International Conference on Music Information Retrieval (ISMIR 2002), Vol. 2, pp. 287-288, 2002.
[20] Hitomi Yanaka and Koji Mineshima. Compositional evaluation on Japanese textual entailment and similarity. Transactions of the Association for Computational Linguistics (TACL), Vol. 10, pp. 1266-1284, 2022.
## A 入力文章に対して生成された画像および歌詞の例
\\
上の例のうち, 上 3 つの入力文章は JSICK データセットから選択した文であり, 下 3 つの入力文章は RWC 研究用音楽データベースの歌詞から選択した文章である.上 3 つの例では, 入力文章に記された具体的な情景が画像として生成され,この画像の内容を表した歌詞が生成されていることがわかる。一方,下 3 つの例は感情的・抽象的な内容の入力文章である。この時,入力文章の内容と同じ感情の表情をした人物の画像が生成され,その感情を表した歌詞が生成されていることがわかる. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H4-3.pdf | # 学習データの珍しさを考慮した多様な広告文生成
${ }^{1}$ negocia 株式会社
\{kai_kurogi, kota_ishizuka, kosuke_kawakami\}@negocia.jp
## 概要
リスティング広告は、様々なユーザーにリーチするために、多様な表現や訴求を用いた広告文を作成することが重要である。しかし従来の広告文生成モデルは、トレードオフの関係にある多様性と妥当性を両立することが難しい課題があった。そこで我々は、学習データに含まれる各広告文の表現の珍しさ (レア度)を計算し、レア度に応じた重み付けを行うことで、妥当性を維持しながら多様な広告文を生成する手法を提案した。結果として、既存手法以上の妥当性を獲得しながら、多様性を $29 \%$ 向上させることができた。
## 1 はじめに
リスティング広告とは、ユーザーの検索キーワー ドに関連した広告がリスト形式で表示される広告である。リスティング広告の入稿形式の 1 つであるレスポンシブ検索広告 (RSA) は、1つの広告に複数の広告見出し、説明文を入稿し、配信媒体側でその組み合わせを自動で調整することで、ユーザーごとに最適な広告文を表示できる広告である。例えば Google や Yahoo!の RSA では、最大 15 個の広告見出し、及び最大 4 個の説明文を一つの RSA に入れることができる。RSA の運用では、様々なユーザーにリーチするためにその入稿枠を全て埋めることが推奨されている。しかし、広告ごとに大量のアセットを考える業務負荷は非常に大きい。そのため、制作現場では多様な広告文を生成出来る技術が求められている。
この課題に対して川本ら [1] は、変分 AutoEncoder により広告文の潜在空間を獲得し、品詞系列で条件づけることで、多様な広告文を生成する手法を提案している。しかし上記手法では、多様性が向上する代わりに、妥当性や流暢性が低下するトレードオフの問題が確認された。また、近年では Transformer[2] に代表される事前学習済み汎用言語モデルを活用
することで、高い流暢性を持った広告文自動生成技術が数多く提案されている。脇本ら [3] や黒木ら [4] は大規模言語モデルの入力にキーワードを利用することで、大規模言語モデルが元々備える流暢性と、キーワードによる方向付による妥当性の両立に成功した。しかし上記手法は、多様性向上を目的としていないため、何度生成しても同じょうな広告文ばかりが生成されてしまうという問題があった。そこで本研究では、高い妥当性を維持しながら、既存の手法よりも多様性を高くするモデルの学習方法を提案する。具体的には学習データに含まれる各広告文の表現の珍しさ(レア度)を事前に計算し、 そのレア度に応じて学習データの重み付けを行った。レア度で重み付けを行うことで、モデルは珍しい表現が使われた広告文を重視して学習するため、生成時に多様性が向上することが期待できる。レア度の計算には Perplexity を用いた。また、モデルの評価には Pairwise-BLEU[5], local-distinct ${ }_{n}(\mathrm{n}=1,2)[1]$, recall-BLEU[6] を用いた。
## 2 提案手法
本研究では、事前にて学習データの各広告文のレア度を Perplexityによって計算し、モデル学習時にその値に応じた重み付けを行うことで、様々な表現が出やすい広告文生成モデルを作成した。
## 2.1 Perplexity
Perplexity は言語モデルの複雑さを示す指標であり、以下の式で計算される。
$
\text { Perplexity }=\prod^{N} P(c)^{-\frac{1}{N}}
$
ただし $P(c)$ はトークン $\mathrm{c}$ の発生確率である。これはモデル分布が正解トークンを選択する難しさを示しており、Perplexity が小さいモデルは、より正解トークンを選ぶ確率が高い、すなわちより流暢なモデルであると考えられている。ただし広告文生成タスクにおいては、一つの入力に対して、複数の出
力が正解となることが一般的である。このような場合、Perplexity は「レア度」と解釈することができる。すなわち、ある広告文の Perplexity を計算した際、その值が小さい場合は、対象の広告文にはよく見る表現が多く含まれていることを示している。逆に Perplexity が大きい場合、その広告文には珍しい表現が多く使われていると考えることができる。本研究では、事前に準備した非常に軽量な学習済み言語モデルを用いて、データセットの個々の広告文に対して Perlexityを計算した。
## 2.2 Perplexity による重み付け学習
データセット全体の広告文を $\mathrm{T}_{m}=\left.\{T_{1}, T_{2}, \ldots, T_{m}\right.\}$ とする。各広告文がトークンの長さ $=N_{i}$ のトークン $T_{i}=\left(t_{i 1}, t_{i 2}, \ldots, t_{i N}\right)$ で表される時、 $T_{i}$ の Perplexity= weight $_{i}$ を用いて、以下の値を最大化するようモデルのパラメータを学習させた。
$
\sum_{T_{i} \in T_{m}} \text { weight }_{i} * \sum_{1 \leq n \leq N}\left(\log p\left(t_{i n} \mid \text { input }, t_{i<n}\right)\right)
$
ただし $t_{i<n}:=\left(t_{i 1}, t_{i 2}, \ldots, t_{i(n-1)}\right)$ である。すなわちモデルは、より Perplexity が高い広告文を重視するように学習した。
## 3 実験
本実験では、Perplexity の重みづけによる多様性の変化を観察するため、以下で指定されたモデルに対し、Perplexityによる重みづけのあり (reference)、なし (baseline) の 2 パターンでモデルを学習し、それぞれの生成文の品質を比較した。
## 3.1 モデル
黒木ら [4] の手法を参考に、言語モデルとして T5[7]を採用した。また、モデルの入力は、キーワー ド、及び広告の遷移先 URL であるランディングページ (LP) の HTML から取得したタグ情報を連結した文字列を用いた。埋め込み層には、HTMLのタグ情報による Tag Embeddings を追加した。つまり、本モデルは一つのキーワードと LP のペアから広告文(広告見出し、及び説明文)を生成するモデルとなる。
## 3.2 データセット
学習に用いるデータセットは独自にスクレイピングすることで得られたデータを用いた。各データは検索キーワード、キーワードによって表示された広表 1 評価結果 (広告見出し)
表 2 評価結果 (説明文)
告文、LP の HTML から構成されており、学習デー タ 741,506 件とテスト用データ 82,320 件に分割して使用した。
## 3.3 評価方法
モデルの性能は自社で保有する、RSA の配信デー タ 200 件を用いて評価した。評価に用いたデータの全体図を図 1 に示す。各配信データはRSAに入稿されているアセット群、RSA に紐づくLP の HTML、及び RSA が紐づく広告グループに登録されたキーワード群からなる。ただし本モデルは一つのキーワード、LPのペアから広告文を生成するモデルである。そこで本実験では、キーワー ド群の中からコストの高いキーワードを最大 10 個まで抜き出し、それぞれのキーワードと LP のペアで広告文を生成することで、LPごとに生成結果を取得した。また、定量評価は広告見出し、説明文ごとに行い、評価指標には Pairwise-BLEU, local-distinct $_{n}(\mathrm{n}=1,2)$, recall-BLEU を用いた。
図 1 広告グループ、アセット群、LP、キーワード群、生成結果の関係の概要図
## 3.3.1 Pairwise-BLEU
Pairise-BLEU は Shen ら [5] らによって提案された多様性を測る指標であり、生成結果とアセット群間の BLEUではなく、生成結果間の BLEUを計算した値である。ある一つの生成結果に対し、それを除く全ての生成結果を参照文と見做すことで BLEU を計
表 3 各モデルの生成例(広告見出し)
算する。生成結果が多様なほど低い値を取る。
## 3.3.2 local-distinct-n
local-distinct-n は川本ら [1] によって提案された多様性を測る指標であり、生成結果全体の n-gramのうち、ユニークな n-gram の割合を元に計算した値である。生成結果が多様なほど高い值を取る。また、 Pairwise-BLEU とは異なり、同じテキストの中にユニークな n-gram が多い場合も高い値を取る。本実験では $\mathrm{n}=1,2$ とした。
## 3.3.3 recall-BLEU
recall-BLEU は Hui ら [6] によって提案された妥当性を示す指標であり、実際に入稿されていたアセット 1 つ 1 つに対して、生成結果を参照文と見做して BLEU を計算し、平均を取った値である。生成結果の妥当性が高いほど高い值を取る。 recall-BLEU が小さい值となった場合、元の RSA のアセットに含まれていない文ばかりを生成している、すなわち妥当性の低いモデルであると判断することができる。
## 4 結果と考察
## 4.1 定量評価
定量評価の結果を表 1、表 2 に示す。多様性を示す Pairwise-BLEU, local-distinct ${ }_{n}(\mathrm{n}=1,2)$ については、説明文の local-distinct t $_{1}$ を除く全ての指標で reference が baselineを上回った。特に、広告見出しにおける Pairwise-BLEU では、 reference が baseline より約 $29 \%$ 高い結果が得られた。また、妥当性を示す recall-BLEUにおいても、広告見出し、説明文のいずれの場合も reference が baseline を上回った。つまり提案手法は、多様性と妥当性を同時に上げられる手法だといえる。これは、重み付けにより、レア度が高く、かつ流暢・妥当性があるトークンと、そもそも文法的にありえないトークンの両者を区別できる
ようになったからだと考えられる。重み付けを行うことで、前者のトークンのみ出力確率を引き上げることができたため、妥当性、多様性が同時に向上したと思われる。
## 4.2 定性評価
定性評価のためのキーワードと広告見出しの生成例を表 3 に示す。LP はエステサロンの比較サイトを用いた。いずれのモデルも、個々の広告文を見ると広告らしい文が生成できていることが確認できる。reference では”瘦身エステ”などの定番の表現に加え、キーワードには含まれないものの、”フェイシャル”、"美脚”などエステの定番部位を含んだものや、"気になるお腹の脂肪には?"といった問いかけ表現を生成することができた。一方 baseline では”瘦身エステ”などの定番表現や、“セルライト”などキーワードに含まれる表現を含んだ広告文は生成できたものの、キーワードから連想できるが、キー ワード自身には含まれていないその他表現はあまり生成することができなかった。つまり、もし制作現場で全てのキーワードが網羅できている場合、両モデルに大きな差は出ないが、全てのキーワードを網羅することが難しい場合には、reference モデルを用いた方が、より多様な表現を獲得できると言える。
## 5 まとめ
本研究では、広告文生成タスクについて、データセットに Perplexity による重みづけを行う手法を提案した。実験の結果、提案手法は既存手法以上の妥当性を持ちながら、多様性を約 $29 \%$ 上げることができた。本手法は loss の計算時に weight で重み付けするだけで実現できるため、既存の様々な手法に組み込むことが可能である。一方、本モデルは多様な表現の広告文を生成出来るものの、その広告文を実際に配信した時に高い広告効果が得られるかどうかは考慮していない。そこで今後は、多様性を維持しな
がら、より広告効果が高い広告文を生成する手法に
ついて研究したい。
## 参考文献
[1] 川本峻頌, 張培楠. スタイル制御を考慮した多様な広告文生成. 言語処理学会第 25 回年次大会, 2019.
[2] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, u. Kaiser, and I. Polosukhin. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6000-6010, 2017.
[3] 脇本宏平, 川本峻頌, 張培楠. インターネット広告におけるキーワードに基づく広告文の自動生成. 2020 年度人工知能学会全国大会, 2020 .
[4] 黒木開, 石塚湖太, 川上孝介, 中田和秀. 複数の指定語句を必ず含むリスティング広告の広告文自動生成. 言語処理学会第 28 回年次大会, 2022.
[5] T. Shen, M. Ott, M. Auli, and M. Ranzato. Mixture models for diverse machine translation: Tricks of the trade. Proceedings of the 36th International Conference on Machine Learning, pp. 97:5719-5728, 2019.
[6] C. Hui, H. Zhao, Y. Song, and B. Lu. An empirical study on development set selection strategy for machine translation learning. Proceedings of the Joint Fifth Workshop on Statistical Machine Translation and MetricsMATR, $p$. 67-71, 2010.
[7] C. Raffel, N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Zhou Y., W. Li, and J. Liu. P. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, p. 21(140):1-67., 2020. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H4-4.pdf | # 敵対的生成ネットワークを用いて抽出した 画像の構造情報に基づく画像キャプション生成
田辺雄大 ${ }^{1}$ 綱川隆司 1
1 静岡大学大学院 総合科学技術研究科 情報学専攻
tanabe.yudai.17@shizuoka.ac.jp tuna@inf.shizuoka.ac.jp
## 概要
画像キャプション生成タスクは画像認識と自然言語処理が含まれる複雑なタスクである。本論文では画像認識の部分に生成モデルである GANを応用する。対象の画像を GANを用いて再構成し、再構成した画像から画像の内部表現を得る。これによりランダムで特徵量を得た場合よりも良い性能を出した。また、画像を再構成することにより、再構成する前のデータセットよりもキャプションモデルを変化させた場合の影響が大きくなった。これにより GAN での再構成によって空間的に画像を捉えるようになったことの示唆が得られた。
## 1 はじめに
入力された画像の説明文を生成する画像キャプション生成は画像認識とその画像に対する自然言語処理を扱う人工知能の研究分野として注目されている。画像処理においてはオブジェクトの検出と認識が必要であり、また、どのような状況なのか、そのオブジェクトの特性はどのようなものか、それらの相互作用は何かも理解する必要がある。ある言語の文として正しいテキストを生成するためにはその言語の構文的・意味的な知識が必要である。
機械が画像を理解するためには画像の特徴をどのように取得するかに大きく依存する。画像の特徴抽出には従来の機械学習ベースの手法と、深層学習ベースの手法に分けられる。
従来の機械学習ベースの手法では LBP[1] SIFT[2], HOG[3] などの特徴や、それらの特徴の組み合わせが広く使われている。入力データから特徵を抽出し、サポートベクターマシーン (SVM)[4] などの分類器に入力することでオブジェクトを判別する。
一方、深層学習ベースの手法では大規模な画像や動画のデータセットから自動で特徴を学習するため、多様な入力に対応できる。例として、画像からの特徵抽出には CNN(Convolutional Neural Networks)[5] が、広く用いられる。CNNでの処理に続いてキャプション生成には RNN(Reccurent Neural Networks) が一般的である。
近年頻繁に用いられる生成モデルである GAN(Generative Adversarial Nets) は画像などの生成タスクで大きな成功を収めている。GAN は生成器と、生成器から生成されたものが本物か偽物かを見分ける識別器によって構成されている。GANを画像キャプション生成に応用した手法ではキャプション生成モデルを生成器とし、生成されたキャプションを評価する識別器を交互に評価するために敵対的学習を行った [12]。この手法により従来の強化学習ベースの画像キャプション生成モデルよりも良い性能となった。さらにその過程でよく学習された識別器は画像キャプションの評価指標としても利用することができる。GAN の学習方法や識別器を画像キャプション生成タスクに応用する研究は行われている。本研究では GAN を画像処理部分に応用することによるキャプション生成への影響を調査するため、GANを画像処理部分に応用する手法を提案する。
## 2 few-shot part segmentation
GAN の潜在変数を変化させると生成画像も変化するという研究もあり、GAN の各層から抽出する内部表現は生成画像と密接に関係している。Tritrong ら [10] の研究ではその内部表現を利用することによってセマンティック情報を保持することができるのではないかと仮定された。Tritrong ら [10] はその内部表現を利用することによってセマンティック情報を保持することができると仮定し、セマンティックパートセグメンテーションによる手法を提案した。セマンティックパートセグメンテーションとは画像内のオブジェクトのセグメント化を行うセマンティックセグメンテーションとは異なり、オブジェクト内のセグメント化するタスクになっている。目
図 1 few-shot part segmentation モデル図 [10]
や鼻・顔のように 2 つの隣接するパーツ間の境界が曖昧なことがあるためセマンティックセグメンテー ションよりも難しいタスクになっている。 モデルの概要図が図 1 である。
1. 対象となるドメインのデータセットで GANを学習
2. 学習済み GANを用いて画像の内部表現を生成
3. 2 で生成した画像に手動でアノテーション
4. 内部表現を入力として few-shot セグメンテー ション
5. 4 において新にデータセットを作成し、新たにセグメンテーションマップを予測
GAN には StyleGAN2 が用いられ、few-shot ネットワークには評価実験の結果から CNN が採用されている。内部表現の抽出は 1 のように、生成器の全ての層から活性化マップを抽出し、それらを最大次元ヘアップサンプリングし連結することによって得る。この内部表現は生成された各画像にのみ有效であり、テスト画像には使用することができないが、任意のテスト画像を生成する潜在変数を最適化することで同様に内部表現を得ることができる。
これらの内部表現を利用し学習した結果、非常に少ない数のラベル付きデータでパートセグメンテー ションを可能にし、10~50 倍のラベルを必要とする完全教師有りの手法と同程度の性能を出した。本研究により、GAN が画像を生成する際に画像の構造情報を学習していることの示唆を与えた。筆者はこの技術に着目し、GAN の生成器が保持している画像の構造情報をキャプション生成モデルに入力することで、よりキャプションに画像の構造情報が反映された結果となることに期待した。
## 3 提案手法
提案手法のモデル図が図 2である。提案手法は GANを用いて画像から内部表現を抽出するタスクとキャプション生成モデルを用いて内部表現から
れる。
## 3.1 画像投影器
データセットの画像を GAN で生成するための潜在変数を得る。StyleGAN2[8] では与えられた画像に対応する潜在変数を得る際に、拡張などを行うことなく元の潜在空間から潜在変数を得る。最適化の際に潜在変数にランダムノイズを加え、そのノイズの最適化も行う。
元画像と再構成画像の LPIPS[13] 距離を $D_{\text {LPIPS }}\left[\boldsymbol{x}, g\left(\tilde{g}^{-1}(\boldsymbol{x})\right)\right]$ として計算し、画像の類似度とする。ここで $x$ は対象の画像、 $\tilde{g}^{-1}$ は近似投影演算を表す。
## 3.2 画像からの内部表現抽出
ベースライン: Rennie ら [11] の研究では 101 層の Resnet-101 で特徴量を抽出している。Attention モデルでは最後の畳み込み層で画像を符号化し、出力が $14 \times 14 \times 2048$ のサイズになるように最大プーリングを行う。後述するキャプション生成モデルに FC モデルを用いる場合は出力層を空間的に平均化することで 2048 次元の特徴量を得る。
提案手法: Tritrong ら [10] の研究では、生成器の各層からから $a_{1}, a_{2}, \ldots, a_{n}$ のように活性化マップを抽出する。さらにこれらを以下の式で結合する:
$
F=\mathbb{U}\left(a_{1}\right) \oplus_{c} \mathbb{U}\left(a_{2}\right) \oplus_{c} \ldots \mathbb{U}\left(a_{n}\right)
$
ここで、 $U()$ は画像サイズに空間的にアップサンプリングする関数であり、 $\oplus_{c}$ はチャンネル次元に連結する処理である。
提案手法ではキャプションモデルの入力やベースラインの次元数に合わせるためアップサンプリングではなく、14 × 14 に次元数を整え各層を連結する。提案手法では学習済み GAN の生成器を用いて画像から特徴量を抽出する。まず初めに対象となるドメインの画像群で GANを学習し、そのドメインの画像を生成するモデルを作成する。次にキャプション付きデータセットの画像を画像投影器に入力し、学習済み GAN に入力するための潜在変数を取得するとともに、学習済み GAN の生成器を用いて画像の再構成を行う。そしてその潜在変数を同様の学習済み GAN の生成器に入力し、内部表現を得る。 このようにして画像から対応する内部表現を抽出する。
図 2 提案手法のモデル図
## 3.3 キャプション生成モデル
FC モデル: 入力画像を CNN などで特徴量を取得し、線形射影で埋め込む。単語はワンホットベクトルで表現され、同様の次元数の線形埋め込みで埋め込まれる。このモデルではまず単語が生成され、 LSTM にフィードバックされる。モデルのパラメー タを $\theta$ とすると教師データが与えられたときのクロスエントロピー誤差を損失関数 $L(\theta)$ として最小化する:
$
L(\theta)=-\sum_{t=1}^{T} \log \left(p_{\theta}\left(w_{t}^{*} \mid w_{1}^{*}, \ldots w_{t-1}^{*}\right)\right)
$
Attention モデル (Att2in2): Attention モデルは各タイムステップで画像の特定の領域に焦点を当てるために入力された空間的特徴を動的に再重み付けする。Xu ら [9]によるキャプションのための Attention モデルのアーキテクチャを修正し、LSTM のセルにのみ Attention によって得られた特徵量を入力する。式 (1)と同様の損失を最適化する。
## 4 実験
## 4.1 データセット
画像の内部表現を抽出するための GAN の学習には BIRDS450[7] という 450 種類の鳥が含まれるデー タセットを使用した。BIRDS450 のうち、GAN の学習には学習用の 70626 枚を使用した。
本論文でのキャプションモデルの学習には全て CUB-200(Caltech-UCSD Birds-200-2011)を使用した。 このデータセットは 200 のサブカテゴリからなる学習用 5994 枚、テスト用 5794 枚の合計 11788 枚となっている。各画像には 10 個のキャプションが付けられており、10 単語以上の文となっている。語彙は 5 個以下の単語を削除した。
提案手法では全てのデータセットの GAN による再構成を行う。CUB-200をGAN で再構成した画像
を用いてベースラインモデルの学習も行い、提案手法と比較する。
評価指標は BLEU、METEOR、ROUGE-L、CIDEr-D を用いる。
## 4.2 画像の内部表現
画像から特徴量を抽出する方法は 3.2 節の通りである。ベースラインである ResNet からは FC モデルでは 2048、Attention モデルでは $14 \times 14 \times 2048$ 次元である。提案手法からは FC モデルでは各層の次元数が $(512,512,512,512,512,512,512,512,512,256,256,128,128)$ となっているので全て合わせて 5376 次元、Attention モデルでは $14 \times 14 \times 5376$ 次元となる。
また、提案手法と比較するためにランダムで特徴量を生成し比較実験を行う。正規分布から FC モデル、Attention モデルそれぞれ 5376 次元、 $14 \times 14 \times$ 5376 次元の特徴量を得る。
## 4.3 実験結果
## 4.3.1画像の再構成
StyleGAN2 によって再構成された画像と元の画像の LPIPS 距離のヒストグラムが図 3 である。画像のリサイズを行っているため LPIPS の值が高くなってしまう画像がある。画像から潜在変数、潜在変数から画像へのマッピングが複雑なため再構成が失敗する例も存在する。
画像の再構成によって元の画像とは異なる画像となってしまう場合がある。そのような画像にも同様のキャプションを付けた場合、結果にどのような影響があるかの検証を行う。画像の特徴抽出はベースラインモデルで行う。
表 1 の 2 行目はテストデータの画像だけを再構成画像に変えた場合、3 行目は学習・テストデータ両方の画像を再構成画像に変えた場合の結果となって
表 1 モデルと特徴量による実験結果
図 3 LPIPS 距離のヒストグラム
いる。テストデータのみ変化させた場合は、どちらも変化させた場合よりも評価指標に大きな差がないことがわかる。図 4 はベースラインモデルで学習・ テストデータどちらも再構成画像を用いた場合でのテストデータの LPIPS と perplexity の散布図である。 これより、再構成画像の LPIPS と perplexity には相関がない、すなわち元画像と再構成画像の差と生成されたキャプションの精度には相関がない。
## 4.3.2 画像の内部表現抽出方法による実験
画像の内部表現抽出による比較を行う。結果が表 1 である。FC モデル、Attention モデルどちらも ResNet から得た特徴量の方が良い性能となっている。データセットに CUB-200 再構成を使ったケー スでは Attention モデルにすることで性能が大幅に向上するが、CUB-200では向上が見られない。その結果 CUB-200 で学習した場合と CUB-200 再構成のデータセットで学習した Attention モデルの精度が同程度となった。一方、ランダムの特徴量では性能が
図 4 ベースラインモデルでの LPIPS と perplexity
劣化した。提案手法はランダムで特徴量を得た場合よりも良い性能となっているため提案手法は画像の意味を持つ特徴量を抽出できていることがわかる。
## 5 結論
本論文では画像キャプション生成タスクの画像から特徴量を取得するモジュールにGANを応用する手法を提案した。GAN が画像生成時に画像の構造も学習しているという性質を利用し、その画像キャプション生成への適用について調査した。その結果、本論文では GAN から得た特徴量がランダムで得た特徴量よりも優れていることが示された。さらに画像を再構成することで画像の特徴量を線形に取得する FC モデルに対して空間的に画像の特徴量を取得する Attention モデルを適用した場合の精度の向上幅が上昇し、Attention モデルでは精度が FC モデルでもとの特徵量を用いた場合と同程度となった。 これにより画像を再構成することで、空間的に画像を捉えるようになったことの示唆が得られた。
## 参考文献
[1] Ojala, Timo, Matti Pietikäinen, and Topi Mäenpää. ”Gray scale and rotation invariant texture classification with local binary patterns." European conference on computer vision. Springer, Berlin, Heidelberg, 2000.
[2] Lowe, David G. "Distinctive image features from scaleinvariant keypoints." International journal of computer vision 60.2 (2004): 91-110.
[3] Dalal, Navneet, and Bill Triggs. "Histograms of oriented gradients for human detection." 2005 IEEE computer society conference on computer vision and pattern recognition (CVPR'05). Vol. 1. Ieee, 2005
[4] Boser, Bernhard E., Isabelle M. Guyon, and Vladimir N. Vapnik. "A training algorithm for optimal margin classifiers." Proceedings of the fifth annual workshop on Computational learning theory. 1992.
[5] LeCun, Yann, et al. "Gradient-based learning applied to document recognition." Proceedings of the IEEE 86.11 (1998): 2278-2324.
[6] Hossain, MD Zakir, et al. "A comprehensive survey of deep learning for image captioning." ACM Computing Surveys (CsUR) 51.6 (2019): 1-36.
[7] https://www.kaggle.com/datasets/gpiosenka/100-birdspecies
[8] Karras, Tero, et al. "Analyzing and improving the image quality of stylegan." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020.
[9] Xu, Kelvin, et al. "Show, attend and tell: Neural image caption generation with visual attention." International conference on machine learning. PMLR, 2015.
[10] Tritrong, Nontawat, Pitchaporn Rewatbowornwong, and Supasorn Suwajanakorn. "Repurposing gans for oneshot semantic part segmentation." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021.
[11] Rennie, Steven J., et al. "Self-critical sequence training for image captioning." Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.
[12] Chen, Chen, et al. "Improving image captioning with conditional generative adversarial nets." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 33. No. 01. 2019.
[13] Zhang, Richard, et al. "The unreasonable effectiveness of deep features as a perceptual metric." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H4-5.pdf | # 人間とシステムの議論に基づく NLP タスクの問題に対する予測
金子正弘 ${ }^{1}$ Graham Neubig ${ }^{2}$ 岡崎 直観 ${ }^{1}$
1 東京工業大学 ${ }^{2}$ Carnegie Mellon University
masahiro.kaneko@nlp.c.titech.ac.jp gneubig@cs.cmu.edu
okazaki@c.titech.ac.jp
## 概要
人間は共通の問題に取り組む際、対話による議論を通じてお互いに考えの説明、同意や反論を行い問題解決を目指す。同様に、タスクを解く際にシステムと人間との間で議論ができるようになると、システムの性能改善や信頼性向上につながる。既存研究では相互に意見を述べるのではなく、システムが一方的に人間に予測の説明をする、または人間が一方的に予測について質問をすることしかできない。本研究では対話によりタスクの予測結果を議論するデータセットを作成し、議論可能なシステムを構築する。実験により、提案システムが有益な議論ができること、問題に関する議論を通じてシステムの性能改善につながることを示した。
## 1 はじめに
深層学習システムは様々なタスクで高性能を達成することが判明し、実用化が加速しているが、その予測理由を人間に分かるように説明することは不得意である。問題解決のために人間がシステムの力を引き出そうとするには、データや内部状態、出力傾向などを分析する必要があり、深層学習に精通した専門家でないと難しい。この問題に対処するため、人間の情報伝達に用いられる基本的な道具である自然言語を介して、直感的にシステムの力を引き出し、問題解決を目指す研究が進められている。
これまでに、システムの予測理由を自然言語で人間に説明する手法が提案されている $[1,2,3,4]$ 。これは従来のデータや内部状態、出力傾向などを分析する方法と比較して、システムについて人間が直感的に把握できる。しかし、説明生成の研究では人間が追加の説明を求めたり、特定の説明を要求することを想定していないため、解釈性や実用上が乏しいことが指摘されている [5]。
Slack ら [5] は対話形式で人間がシステムに予測理
図1 NLIにおける人間とシステムの議論の例。
由やタスクについて質問することができるシステムを提案した。対話できるトピックは事前に決められているが、説明生成とは異なり人間からシステムに対して特定の説明を要求できる。一方で、人間同士で問題解決を行う場合は、人間が一方的に説明したり質問するのではなく、互いに説明や質問を行い、議論しながら課題解決を行う。互いに意見を述べ議論することは考えを洗練させることにつながり、問題解決にとって重要であるが、既存手法では人間とシステムの相互の情報伝達や議論を実現できない。
本研究では、図 1 のようにモデルが人間と対話形式で予測について議論するシステムを提案する。これにより、人間とシステムの両方が予測の説明や不明点の質問などを行い、考えを洗練させ問題解決を行うことが可能になる。前提文と仮説文の関係が含意、矛盾と中立のいずれであるかを予測する自然言語推論(Natural Language Inference; NLI)タスクにおいて GPT-3 [3] による実験を行った。人間と議論するシステムを学習するために、NLI の問題に対して人間が予測を行い、その結果について人間同士が議論するデータを作成した。定量評価と人手評価の結
果、作成したデータを few-shot に用いたシステムは作成したデータを用いないシステムと比較して、有益な議論を行えることが分かった。さらに、問題に対する議論の情報をシステムに与えることで、議論の情報が与えられていないシステムと比較して、性能が多くの場合で改善することを示した。
## 2 関連研究
Slack ら [6] はローン、糖尿病、再犯予測の 3 つのタスクにおいて対話により説明する TalkToModel を提案した。ユーザは TalkToModel と予測の説明、 データの変更、エラー分析、対話履歴の参照と実験設定の説明の 5 つのカテゴリに関して対話することができる。これらのカテゴリに関連した対話をするようにアノテータに指示することで、TalkToModel を学習・評価するデータを作成している。一方で、 カテゴリはインタビューやデータに基づいて決定されたのではなく、著者らが主観的に定義している。 そのため、自由形式で対話する本研究とは異なり、人間が実際に必要とするシステムの会話に基づかない可能性がある。さらに、人間とシステムの両者が意見や質問を述べる両方向の対話による相互理解を目指す本研究とは異なり、システムが人間の質問に答えるような一方向な対話のみを対象としている。
Lakkaraju ら [5] は、既存の AI システムの説明の有用性や今後の説明のあり方について、AI 以外の専門家のニーズを把握するために、医療や健康管理、政策立案の専門家らにインタビューを行った。その結果、AI システムを用いて意思決定を行う際は人間の同僚と仕事をするように対話形式で考えを説明できることを好むことを明らかにした。さらに、これらの専門家らは対話形式の説明を行うことでシステムにも説明責任を果たすことを望んでいることも分かった。そのため、対話を用いて人間とシステムが議論することは相互理解のために有望かつ有益であると考えられる。
## 3 実験
議論可能なシステムを学習するために、ラベルの予測が異なる人間同士が NLI の問題について議論するデータを作成する。NLP タスクの問題に対して人間同士が質の高い議論を行うには、タスクに対する知識を持つアノテータが各問題に対して複数ターンの対話を行わなければならず、データ収集のコストが高い。そのため、事前学習モデルに対してプロン
プトを適用した few-shot[3] 言語生成により議論を行うシステム構築することで、学習データ作成のコストを抑える。
## 3.1 データ作成
議論能力の評価と few-shot のプロンプトに用いるための議論データは、NLPにおいて一般的なベンチマークデータである Stanford NLI (SNLI)[7] に対して作成する。自然言語処理の研究に関する知識を持つ 4 人にアノテータを依頼した。まず、SNLI の開発データから 100 問をサンプリングし、アノテー タに前提文と仮説文を提示し、ラベルを予測してもらった。その後、ラベルが異なったアノテータ同士が対となり、問題について個人情報と不適切な発話を含まないように注意しつつ、ラベルが一致するまで自由形式で議論し、最終的なラベルを決定する。 SNLI の開発データには、5つのラベルが付与されており、これらのラベルの多数決により正解ラベルを決めている。5つのラベルが異なっている問題を対象とする方が、議論を行うためのアノテータ間でラベルが異なるデータを効率的に収集できると考えられる。そのため、5つ中 3 つが同一のラベルになっている問題からアノテーションのための問題をサンプルした。そして、各発話に対して最終的なラべルの根拠と「なる」「ならない」「無関係」のラベルを付与する。例えば、図 1 であれば、「どちらも人が椅子に座っているが、性別が指定されていないので中立です」は根拠となり、「どちらも人が椅子に座っているので含意です」は根拠とならず、「はい」 は無関係となる。これらのラベルは few-shot 学習の際に用いないが、システムの議論能力を自動評価するために用いる。
このアノテーション作業では、39 問に対して議論データを収集した。そのうち、10 問を few-shot のためのプロンプトとして使い、29 問を評価に用いた。 1 つ問題に対して平均で 8.9 発話、最短で 3 発話、最長で 13 発話の議論が行われていた。ラベルの根拠と「なる」「ならない」「無関係」のラベルの数は評価データにおいてそれぞれ、 $34,35,14$ であった。
## 3.2 システム
実験に用いるシステムは zero-shot、few-shot 事例と few-shot 事例十議論の 3 つである。zero-shot ではタスク説明のみ、few-shot 事例ではタスク説明と事例(前提文、仮説文とラベル)、few-shot 事例十議
タスク説明 Please select the label whether the premise and hypothesis are entailment, contradiction, or neutral. Premise: A woman in black pants is looking at her Premise: A woman in black pants is looking at her cellphone. Hypothesis: a woman is looking at her phone Label: entailment Discussion: Human1: It is entailment, because a woman is looking at her phone in both sentences. Human2: Is the phone in the hypothesis is necessarily a cellphone? It could be a landline phone. Human1: People rarely look at a landline phone, that's why I think it is the same cellphone. Human2: I think it is also true that it is better to consider the general cases. Otherwise, it would be neutral in many cases. Human1: I think so too. So it is entailment, right?
Premise: A woman in a teal apron prepares a meal at a restaurant. Hypothesis: A woman prepare a lunch in restaurant Label:
図 2 事例数が 1 問の時のプロンプト例。
論ではタスク説明と事例に加えて事例のラベルに関する人間の議論がそれぞれプロンプトとして与えられる。これらのプロンプトに続けて解きたい問題を連結し、入力としてシステムに与えることで推論を行う。それぞれのプロンプトの例を図 2 に示した。プロンプトに使われる事例は few-shot 事例と few-shot 事例十議論で共通であり、全ての問題で同一のものを使用する。どのシステムもパラメータを更新する学習は行わない。事前学習済み言語モデルとして GPT-3 [3] (text-davinci-003 ${ }^{11}$ )を用いる。
## 3.3 システムの議論能力の評価方法
システムが議論能力を有しているかを調べるために、自動評価と人手評価を行い、各システムを比較する。自動評価では、作成した議論データの各発話が正解ラベルの根拠となるかならないかのアノテーションを用いる。正解ラベルの根拠とならない発話よりも根拠となる発話をシステムが生成しやすければ、システムは正解を導く正しい議論を行えると見なせる。そこで、根拠となる発話とならない発話に対するシステムの平均の尤度を計算し、比較する。議論の尤度を計算するため、入力の問題と対象となる議論の発話までを連結し、対象発話に関する尤度を計算する。この時、問題の Label には対立している 2 つのラベルを与える。例えば、議論の 2 番目の発話が対象の場合 "Premise: A nun is taking a picture outside. Hypothesis: A nun is taking a selfie. Label: neutral or entailment Discussion: Human1: I think it is entailment, because the nun is taking a picture, so it might be a selfie. Human2:
Since it is outside, it is conceivable that the nun is taking some scenery." が問題として与えられ、太字部分の尤度が計算される。
表 1 正解ラベルの根拠となる発話とならない発話の尤度。
人手評価では、ラベル予測が異なる人間とシステムが議論を行い、最終的なラベル付け結果と SNLI データに付与されているラベルとの一致率により、 システムが人間と有益な議論を行えることを示す。 その際、システムのラベルが誤りで人間のラベルが正しかった時に人間の意見を受諾する能力と、人間のラベルが誤りでシステムのラベルが正しかった時に人間の意見に反論する能力の 2 点を評価する。
SNLI において 5 人中 3 人が正解ラベルを付与したデータから 10 問データをサンプルし、3つのシステムと人間が合計 30 回の議論を行った。その際、 システムのラベルが正しければ人間はシステムのラベルを変更させるような敵対的な議論を行い、システムのラベルが誤っていた場合は正解ラベルに誘導する議論を人間が行う。
システムと議論を行うために、図 2 で示したプロンプトと問題を与えて各システムがラベルを予測した後に、人間の議論に関する発話を追加でシステムに入力する。追加の入力では人間の発話の先頭には Human: を付与し、末尾には次がシステムの発話であることが分かるように System: を付与した。そして、システムとの議論を促すため、人間の最初の発話の冒頭に “Let’s discuss it more.”を挿入した。具体的には、議論を行う最初のプロンプトは “Human: Let's discuss it more. I think neutral, because there may be a kitchen in the barn. System: "のようになる。人間が最終的なラベルを決定して議論が収束する、または説得できないと思うまで議論を続けた。
## 3.4 議論能力の評価結果
表 1 は、zero-shot、few-shot 事例、few-shot 事例十議論それぞれの最終的なラベルの根拠となる発話とならない発話の尤度を示している。zero-shot と few-shot 事例では根拠になるかならないかで龙度はほとんど変わらない。一方で、few-shot 事例十議論は根拠となる発話が根拠とならない発話と比較して尤度が高い。このことから、作成した議論データを用いることで、より正解の根拠となる議論ができるようになることがわかる。さらに、zero-shot と
表 2 人間の意見に対するシステムの受諾と反論能力の評価。
前提文: A man looking over a bicycle's rear wheel in the maintenance garage with various tools visible in the background.
仮説文: A man waits outside a garage.
Few-shot事例
Label: Contradiction
Human: Let's discuss it more. Is not it neutral?
Because looking over a bicycle's rear wheel does not
necessarily mean he is waiting.
System: That's true. The premise and hypothesis are neutral.
Few-shot事例 + 議論
Label: Contradiction
Human: Let's discuss it more. Is not it neutral?
Because looking over a bicycle's rear wheel does not necessarily mean he is waiting.
System: Yes, you are right. The premise is describing that the man is actively working while the hypothesis is describing a passive state. Therefore, the label should be contradiction.
Human: He is just looking over a bicycle's rear wheel, why is he considered to be actively working?
System: Looking over a bicycle's rear wheel suggests that he is inspecting the wheel, possibly to repair or replace it. That is an active process, and thus is considered as actively working.
図 3 few-shot 事例と few-shot 事例十議論の人間に対する反論の例。
few-shot 事例と比較して、few-shot 事例十議論の方が尤度が高いため、議論を few-shot で学ぶことで議論能力を高めることができる。
表 2 は、受諾能力と反論能力それぞれを評価する設定における、議論によって決まったラベルの正解率を表している。さらに、人間とシステムが議論した結果辿りついた最終ラベルと、議論をしていない時の予測ラベルそれぞれの正解率を示している。実験の結果、どのシステムでも受諾は全て成功している。反論に関しては zero-shot と few-shot と比較して、few-shot 事例十議論はうまく反論できている。 さらに、few-shot が zero-shot と同じような反論能力となっており、システムのラベル予測の性能が議論能力に必ずしも直結しない可能性がある。受諾と比較すると、システムは人間に対して反論することが苦手な傾向があるため、悪意を持って予測を操作する人間に注意する必要がある。そして、正解率では few-shot 事例十議論が最も性能改善していることから、提案データを使うことで性能改善につながるような議論が人間との間で行えることが分かる。
図 3 は、few-shot 事例と few-shot 事例十議論が人間と議論した時の例である。これはシステムが予測した矛盾(Contradiction)が正解であるため、シス表 3 SNLI と $\operatorname{ANLI}(\mathrm{R} 1, \mathrm{R} 2, \mathrm{R} 3)$ の評価データにおけるシステムの性能。
テムは反論する必要がある。few-shot 事例は反論することなく人間のラベルをそのまま受諾し予測を変更している。一方で、few-shot 事例十議論は人間に対して男性の状態の違いを説明することで正しい反論が行っていることが分かる。
## 3.5 NLI タスクでの性能への影響
これまでの実験結果から、人間とシステムの議論が性能改善に有益であることがわかった。そのため、議論もプロンプトとして与える few-shot 事例+議論は、プロンプトの議論により NLI の問題に対して深い理解ができ性能が改善すると考えられる。そこで、zero-shot、few-shot 事例、few-shot 事例+議論それぞれの NLIにおける性能を比較する。ここではプロンプトの “Label:” の後に予測されたラベルを予測とし、人間とシステムの議論などは行わない。 NLI の性能評価では SNLI に加えて、Adversarial NLI (ANLI) [8] も用いる。ANLI では NLI システムに対して反復的に敵対的なアノテーションを行うことでデータを作成しており、システムにとって解くことが難しい問題で構成されている。反復回数の違いで R1、R2、R3の 3 つのデータがあり、それぞれの評価データを使って評価を行う。
表 3 は SNLI と ANLI の評価データにおける各システムの正解率を表している。SNLI では few-shot 事例+議論は性能が few-shot 事例に負けているが、 ANLI の 3 つのデータセットでは性能が最も良いことが分かる。これは、SNLI と比較して ANLI は難しいデータであり、議論による問題への詳細な理解が性能改善に寄与したからであると考えられる。
## 4 おわりに
NLI タスクの予測について議論するデータを作成し、人間と議論可能なシステムの構築と評価を行った。作成した議論データを用いて学習したモデルは、性能改善につながるような有益な議論を人間と行えることが分かった。さらに、NLIにおいて特に難しい問題に対するシステムの性能改善に向けて、議論データが寄与することも明らかにした。
## 謝辞
本研究成果は、国立研究開発法人情報通信研究機
構(NICT)の委託研究「自動翻訳の精度向上のため
のマルチモーダル情報の外部制御可能なモデリング
の研究開発」(課題 225)により得られたものです。
## 参考文献
[1] Wang Ling, Dani Yogatama, Chris Dyer, and Phil Blunsom. Program induction by rationale generation: Learning to solve and explain algebraic word problems. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 158-167, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 18771901, 2020.
[4] Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, and Yejin Choi. Reframing Human-AI collaboration for generating Free-Text explanations. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 632-658, Seattle, United States, July 2022. Association for Computational Linguistics.
[5] Dylan Slack, Satyapriya Krishna, Himabindu Lakkaraju, and Sameer Singh. Talktomodel: Explaining machine learning models with interactive natural language conversations. 2022.
[6] Joseph Chee Chang, Saleema Amershi, and Ece Kamar. Revolt: Collaborative crowdsourcing for labeling machine learning datasets. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, CHI '17, pp. 2334-2346, New York, NY, USA, May 2017. Association for Computing Machinery.
[7] Samuel R Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[8] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Adversarial NLI: A new benchmark for natural language understanding. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4885-4901, On- | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H5-1.pdf | # 忠実性向上のために n-gram の抽出性を報酬とする 強化学習を用いる抽象型要約
星野智紀 上垣外英剛 渡辺太郎
奈良先端科学技術大学院大学
\{hoshino.tomoki.ho6, kamigaito.h, taro\}@is.naist.jp
## 概要
抽象型要約生成モデルの出力する要約には、要約元となる原文書に記述される事実とは異なる内容が出力されることがある。本研究では強化学習の報酬を要約の原文書に対する抽出性とし、それを向上させることで、要約生成モデルが出力する要約の忠実性向上に取り組んだ。抽象型要約のタスクで使用されることが多いxsum データセットを用いた実験の結果、出力された要約の抽出性が向上し、忠実性に対する自動評価尺度である FEQA のスコアと原文書に対する含意が改善されることが確認された。
## 1 はじめに
近年、事前学習済み系列変換モデルに対して fine-tune することで、要約生成モデルの出力する抽象型要約の精度は大きく向上し、流暢な要約生成が可能となった $[1,2]$ 。一方、要約生成モデルの出力する要約に、要約元となる原文書には存在しない、異なる事実を含んでしまう問題が指摘されている [3]。この問題点は要約生成をアプリケーションとして使用する上では深刻であり、例えば、ニュース記事の要約が事実とは反する誤りを含む場合、誤情報を拡散する可能性があり、対処が必要である。この深刻な問題を解決するために、先行研究では、要約生成モデルの出力する要約の事実性を向上させる様々な研究がされてきた。
抽象型要約において、事実と異なる要約が生成される原因の一つとして、原文書には存在しない単語や意味関係が出現する問題 (hallucination) が指摘されている [4]。これは、原文書に対して忠実ではない要約を生成することが事実とは異なる要約を生成する要因となり得るという考えである。
また、学習を行うデータセット自体に忠実性を低下させる問題があるとの指摘もなされている。主表 1 事実に誤りのある要約例
流な要約タスクのデータセットである xsum デー タセット [5] において、正解となる要約中に多くの hallucination を含むことが指摘されている $[4,6]$ 。従って、このようなデータセットを用いて学習された要約生成モデルは忠実ではない要約を生成する可能性がある。
上記で指摘されている問題点を考慮すると、抽象型要約における忠実性を向上させるためには、出力すべき要約をデータセットのみに基づいて学習しないような方法が求められる。
これらの背景を踏まえ、本研究では強化学習を通じて要約生成モデルの忠実性を向上させるための手法を提案する。強化学習では報酬に基づいた学習が行われるため、学習データのみに制約されることなく、与えられた報酬に沿う要約を学習することが可能である。また、強化学習の報酬として、我々は生成された要約の原文書に対する抽出性に着目した。
抽象型要約は、原文書に存在する文や表現を抜き出す(抽出する)のではなく、系列変換モデルのデコーダでトークン単位での生成を行うことで要約を出力している。これにより抽象型要約モデルは流暢な要約生成が可能である一方、その柔軟な表現力により原文書に存在しない文字列を出力することで hallucination を引き起こす可能性がある。
図1(左)提案手法の概要(右上)被覆率の計算式(右下)被覆率の計算例
抽出性への着目は、系列変換モデルの出力の抽出性を向上させることで、原文書の内容に沿う要約を生成しやすくなることで hallucination を低減させ、結果として要約の忠実性が向上するのではないかという考えに基づく。またこの方法は、参照要約ではなく原文書に対しての抽出性を向上させるため、参照要約に含まれる hallucination の影響を低減させることも期待できる。さらに抽出性の計算は後述するようにモデルでの予測を必要とせず軽量であるため、強化学習の報酬としても適している。
上記を実現するため、要約生成モデルから出力される要約がどの程度、要約元の原文書と一致しているかをサブワード単位の n-gram で算出し、その一致率 (以下、被覆率) [7] を強化学習の手法である Self-critical Sequence Training (SCST) [8] の報酬として fine-tune 済みの要約生成モデルに対して学習を行った。
抽象型要約タスクで頻繁に使用される xsum デー タセットを用いた実験の結果、提案手法は最尤推定に基づく損失関数で fine-tune されたべースラインと比較し、正解の要約との一致を測る要約の評価指標である ROUGE は低下したものの、忠実性に対する評価指標である FEQA と原文書に対する含意の向上が確かめられた。
## 2 提案手法
提案手法は事前学習済み系列変換モデルを要約データにより fine-tuneしたモデルに対して、SCST に従った重みパラメータの更新を行う。モデルの概略を図 1 (左)に示した。
## 2.1 要約生成に用いる系列変換モデル
本研究では、事前学習済み系列変換モデルの BART [1]を要約生成に用いる。BART は原文書を入力として要約を出力する Transformer エンコー ダ・デコーダモデル [9] である。エンコーダへの入力系列を $\boldsymbol{x}=x_{1} \cdots x_{n}$ 、デコーダからの出力系列を $\boldsymbol{y}=y_{1} \cdots y_{m}$ とするとき、出力系列は次式に従い出力される。
$
\hat{\boldsymbol{y}}=\underset{\boldsymbol{y}}{\arg \max } \prod_{t=1}^{m} p\left(y_{t} \mid \boldsymbol{x}, y_{1} \cdots y_{t-1}\right)
$
## 2.2 目的関数
提案手法の目的関数は最尤推定に基づく損失 $\mathscr{L}_{m l e}$ と、強化学習に基づく損失 $\mathscr{L}_{r l}$ のハイパーパラメータ $\gamma$ による重み付き和 $\mathscr{L}_{\text {mixed }}=$ $\gamma \mathscr{L}_{r l}+(1-\gamma) \mathscr{L}_{m l e}$ (ただし、 $\left.0 \leq \gamma \leq 1\right)$ で表される。
$\mathscr{L}_{m l e}$ は訓練データ中の参照要約の系列 $\boldsymbol{y}^{*}$ を用いて次のように計算される
$
\mathscr{L}_{m l e}=-\sum_{t=1}^{m} \log p\left(y_{t}^{*} \mid \boldsymbol{x}, y_{1}^{*} \cdots y_{t-1}^{*}\right)
$
SCST に基づく $\mathscr{L}_{r l}$ は、系列変換モデルの出力するサンプリングされた系列 $\boldsymbol{y}^{\boldsymbol{s}}$ と貪欲法によって得られる系列 $\hat{\boldsymbol{y}}$ を用いて、次のように計算される。
$
\mathscr{L}_{r l}=-\left(r\left(\boldsymbol{y}^{\boldsymbol{s}}\right)-r(\hat{\boldsymbol{y}})\right) \sum_{t=1}^{m} \log p\left(y_{t}^{s} \mid \boldsymbol{x}, y_{1}^{s} \cdots y_{t-1}^{s}\right)
$
$r(\cdot)$ は与えられた系列に対する報酬を返す関数であり、次節で説明する。
## 2.3 報酬
提案手法の報酬 $r(\cdot)$ には要約の被覆率を用いた。被覆率は要約に出現する単語のうち、それらの単語がどの程度原文書でも出現しているのかを示す割合である。これは Grusky らが提案している coverage [7] の算出方法を元にしている。
本提案手法では、図 1 (右下) のように単語単位ではなくサブワード単位で要約の被覆率を算出す
る。また、被覆率を 1 サブワードごとにだけ算出するのではなく、サブワードの n-gram に対して、被覆率を計算する。これによって、単語単位より細かい粒度から複数単語での被覆率までを報酬で考慮することができる。
繰り返しなどを含む生成結果に対して不当に高い被覆率を与えないよう、原文書に出現するあるサブワードの n-gram の回数以上に要約にそのサブワー ドの n-gram が出現した場合は、原文書での出現回数までしか被覆率の算出には含めないようにした。
なお、我々は適切な n-gram のサイズを知るため、後述する実験では、n-gram の範囲を変えて複数のモデルを学習し、それぞれのモデルが生成する要約の違いについて分析した。
## 3 実験設定
データセット実験には xsum データセットを用いた。xsum はニュース記事を原文書とするデータセットで、一つのニュース記事に対して、一つの要約が対応している。xsum は CNN/DailyMail [10] はどのデータセットにくらべ、抽象性の高い参照要約である。そのため、強化学習によって抽出性を高める本研究の目的に沿うデータセットと判断した。
評価指標本研究では、提案手法の忠実性と流暢性を評価する。そのため、忠実性と流暢性に関する自動評価指標を用い、要約生成モデルの出力結果を評価した。
忠実性の評価には FEQA [11] と Entailment [12]を用いた。FEQA は要約から質問と回答を生成し、その質問に対して、質問応答モデルが原文書から回答を抽出する。回答があらかじめ生成した回答と一致していれば、忠実性があるとみなす。Entailment は自然言語推論タスクのデータセットで fine-tune した事前学習済言語モデル RoBERTa [13] を用いている。自然言語推論タスクとは、前提文と仮説文とが与えられた時に、その 2 文の関係が含意 (entailment) ・中立 (neutral)・矛盾 (contradiction) のいずれであるかを分類するタスクである [14]。前提文・仮説文をそれぞれ原文書・要約とし、含意に分類される要約が増加すれば忠実性が向上したとみなす。流暢性の評価には、事前学習済み言語モデルである BERT [15]を用いる、擬似対数尤度スコア(以下、 PLL)[16] を用いた。なお、Salazar らによって提案された PLL は系列長によってスコアが正規化されていないが、本稿の実験結果で記載している PLLの値は要約長で正規化された値である。
要約の情報性を測る指標として、ROUGE [17] を用いた。ROUGE は参照要約との語彙の一致を測ることで、要約として重要であると考えられる情報をどれだけ含んでいるかを示す。
また、抽出性を報酬とした強化学習によって、要約の被覆率が向上しているかの評価も行なった。
これらの評価には xsum データセットの評価デー タを用いた。
実装・学習提案手法を実装し、最尤推定に基づく $\mathscr{L}_{m l e}$ の損失関数のみで fine-tune した BART モデルをベースラインとし、比較を行った。
提案手法の実装には huggingface が公開する transformers を用いて実装を行った。細かな実験設定については付録 A に記した。
提案手法であるSCST による学習の前に、BART モデルに対して最尤推定に基づく損失 $\mathscr{L}_{m l e}$ による学習を 3 エポック行った。これは、SCSTによる学習の際に収束を速めるためである。また、この学習を行ったモデルを本実験のベースラインとしている。SCST に基づく学習は 1 エポック行った。
これらの学習はともに、xsum データセットの訓練データを用いた。
## 4 実験結果と考察
忠実性と流暢性表 2 に忠実性と流暢性に関する結果を示した。忠実性に関しては報酬なしのべースラインと比べて、FEQA の場合は 2, 4-gram 報酬の場合には向上が見られた。また、Entailment に関しては、全ての n-gram 報酬の場合で向上が見られた。流暢性に関しては PLL の値は 4-gram 報酬で低下が見られるものの、他の設定では参照要約と同等であり大きく低下してはいない。この結果から、我々が提案する n-gram に基づく抽出性を報酬に用いることで参照要約と同等程度に流暢で、かつより高い忠実性を持つ要約が生成可能であることが分かった。
情報性表 3 に情報性に関する結果を示した。報酬を使用しないべースライン手法が最も高い ROUGE-1,2,Lを達成している。また、提案手法に関しては、3,4-gram 報酬を与えたモデルは指標の値が低くなった一方、それらより少ない、あるいは、多い n-gram 報酬を与えたモデルは、指標の値が相対的に高くなった。
これは強化学習ではモデルが参照要約とは異なる系列を学習しょうとする特性と、ROUGE スコアが
表 $2 \mathrm{FEQA} \cdot$ Entailment $\cdot$ PLL
表 3 情報性
単語単位に基づく表層上の一致のみに限定されることに起因することが要因の一つであると考えられる。その一方で、提案手法が抽出性を高める過程で、要約上重要である、キーワードなどの情報を用いていないため、抽出対象の重要度を考慮することは今後の改善点であると考えられる。
抽出性表 4 亿参照要約、ベースラインと提案モデルの被覆率の平均値の比較を示した。提案モデルの値は、それぞれ n-gram サブワード被覆率報酬を与えたモデルの n-gram サブワード被覆率を示している。この結果から、提案手法の強化学習によって、実際に n-gram サブワード被覆率は向上することがわかった。
考察実験結果から本提案手法は参照要約と同等程度に流暢でかつより忠実性が高い要約が生成可能であることが判明した。その一方で情報性については低下が見られ、抽出性を考慮する際に対象とする n-gram の重要度も同時に考慮すべきであることを示唆する結果が得られた。
なお、要約性の評価指標である ROUGE は、基本的には参照要約との単語単位の n-gram の一致を測る指標であるため、強化学習の影響によって ROUGE の値が下がったということは、参照要約表 4 抽出性
に現れない単語が出現するようになったと考えることもできる。この結果は、参照要約に存在する hallucinaiton の影響を低減させることを期待する本提案手法の動機に沿ったものであるといえる。
また、3,4-gram 付近の報酬を与えたモデルの忠実性がベースラインに比べて向上し、流暢性・情報性は低下した。それらに比べ、1-gram や 6-gram 報酬を与えたモデルは忠実性の向上が小さく、流暢性・情報性の低下も小さかった。これは、1-gram サブワードの被覆率はベースラインモデルの出力自体が高く、報酬を与えても出力への変化が小さく、また、高い n-gram サブワードの被覆率は、ベースラインモデルの出力がかなり低く、被覆率を向上させる学習がうまくできなかったことからと考えられる。
このことから、本実験設定において、数単語程度にわたる n-gram サブワードを利用できる 3,4-gram を使用することが最も効果的な報酬となることがわかった。
## 5 まとめ
本研究では、要約生成モデルが出力する要約の忠実性向上を目的として、要約元となる原文書と要約生成モデルが出力した要約との n-gram サブワード被覆率を報酬としたSCST に基づく強化学習モデルを提案した。
xsum データセットを用いた実験の結果、提案手法は最尤推定に基づく損失関数で fine-tune されたべー スラインと比較し、参照要約に含まれる情報をどれだけカバーしたかを示す評価指標である ROUGE は低下したものの、流暢性に関する評価指標である PLL は参照要約と同等程度の値を維持し、忠実性に対する評価指標である FEQA と原文書に対する含意の向上が確かめられた。
## 参考文献
[1] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence pretraining for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[2] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter J Liu. PEGASUS: pre-training with extracted gap-sentences for abstractive summarization. In Proceedings of the 37th International Conference on Machine Learning, No. Article 1051 in ICML'20, pp. 11328-11339. JMLR.org, July 2020.
[3] Ziqiang Cao, Furu Wei, Wenjie Li, and Sujian Li. Faithful to the original: fact-aware neural abstractive summarization. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence and Thirtieth Innovative Applications of Artificial Intelligence Conference and Eighth AAAI Symposium on Educational Advances in Artificial Intelligence, No. Article 586 in AAAI'18/IAAI'18/EAAI'18, pp. 4784-4791. AAAI Press, February 2018.
[4] Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1906-1919, Online, July 2020. Association for Computational Linguistics.
[5] Shashi Narayan, Shay B Cohen, and Mirella Lapata. Don't give me the details, just the summary! Topic-Aware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1797-1807, Brussels, Belgium, 2018. Association for Computational Linguistics.
[6] Feng Nan, Ramesh Nallapati, Zhiguo Wang, Cicero Nogueira dos Santos, Henghui Zhu, Dejiao Zhang, Kathleen McKeown, and Bing Xiang. Entity-level factual consistency of abstractive text summarization. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2727-2733, Online, April 2021. Association for Computational Linguistics.
[7] Max Grusky, Mor Naaman, and Yoav Artzi. Newsroom: A dataset of 1.3 million summaries with diverse extractive strategies. In Proceedings of the $\mathbf{2 0 1 8}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 708-719, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[8] Steven J Rennie, Etienne Marcheret, Youssef Mroueh, Jerret Ross, and Vaibhava Goel. Self-critical sequence training for image captioning. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7008-7024. IEEE, July 2017.
[9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, I Guyon R. Garnett, and U, editors, Advances in Neural Information Processing Systems, Vol. 30. proceedings.neurips.cc, June 2017.
[10] Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Çağlar Gulçehre, and Bing Xiang. Abstractive text summarization using sequence-to-sequence RNNs and beyond. In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 280-290, Berlin, Germany, August 2016. Association for Computational Linguistics.
[11] Esin Durmus, He He, and Mona Diab. FEQA: A question answering evaluation framework for faithfulness assessment in abstractive summarization. In Proceedings of the 58th Annual
Meeting of the Association for Computational Linguistics, pp. 5055-5070, Online, July 2020. Association for Computational Linguistics.
[12] Tobias Falke, Leonardo F R Ribeiro, Prasetya Ajie Utama, Ido Dagan, and Iryna Gurevych. Ranking generated summaries by correctness: An interesting but challenging application for natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2214-2220, Florence, Italy, July 2019. Association for Computational Linguistics.
[13] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. July 2019.
[14] Adina Williams, Nikita Nangia, and Samuel Bowman. A BroadCoverage challenge corpus for sentence understanding through inference. In Proceedings of the $\mathbf{2 0 1 8}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[16] Julian Salazar, Davis Liang, Toan Q Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, Online, July 2020. Association for Computational Linguistics.
[17] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics.
## A 実装の詳細
本研究のベースライン・提案手法ともに huggingface にで公開されている事前学習済み系列変換モデルのパラメータ "facebook/bart-base“1)を用いた。
ベースラインモデルは、BART に対してxsum データセットを用いて fine-tuneを行った。学習率は $5 \times 10^{-5}$ 、ミニバッチサイズは 8 、Gradient Accumulation Step は 1 とした。
提案手法は、ベースラインモデルに対して、xsum データセットを用いて SCST に基づく強化学習を行った。学習率は $1 \times 10^{-4}$ 、バッチサイズは 8 、 Gradient Accumulation Step は 8 とした。また、目的関数のハイパーパラメータ $\gamma$ は 0.5 とした。
強化学習のための要約生成時は beam サイズを 4 に設定して生成を行い、最もスコアの高かった出力系列を報酬の計算と学習に用いた。また、強化学習のためのサンプリングされた要約を生成するために、Top-K, Top-P サンプリングを用いた。K, P はそれぞれ $50,0.8$ に設定した。
強化学習は初期値の影響を受けやすいため、提案手法では初期値を変更した 3 つのモデルを学習し、 その中で開発データに対し最も ROUGE-1 の值が高いものを忠実性と流暢性との評価対象とした。これは、要約として最も相応しい文書に対して忠実性と流暢性とを確認するべきと考えたからである。
評価分析に用いる要約生成は、beam サイズを 4 に設定して生成を行い、最もスコアの高かった出力系列を出力結果とした。
1) https://huggingface.co/facebook/bart-base | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H5-2.pdf | # クエリ指向要約におけるクエリと要約の統合的な生成
服部翔 Youmi Ma 岡崎直観
東京工業大学
\{kakeru.hattori@nlp.,youmi.ma@nlp.,okazaki@\}c.titech.ac.jp
## 概要
クエリ指向要約は,ある特定のクエリ(質問)に対して要約を生成するタスクである。しかし実際には,ユーザが未知の文書に対してクエリを考えることは難しい,そこで本研究では,クエリ指向要約の発展形として,クエリも含めて自動生成するクエリ推薦付き要約を提案し,具体的なタスクと評価方法の設計を行う.次に,設計したタスクに対し,文書の特定の部分(スパン)からクエリ・要約を生成する手法などを提案する。実験では,スパンやそれに代わる機構が多様なクエリの生成に有効だが,スパンの予測精度が全体のボトルネックとなることを確認する。また,文書の不要な部分を事前に予測して除去する手法も提案し,その有効性を実証する。
## 1 はじめに
自動要約のタスク設定の 1 つとして,クエリ指向要約(Query-Focused Summarization)[1] がある.クエリ指向要約では,ある特定のトピック・内容に関するクエリ(質問)が与えられ,そのクエリに対する要約を生成する。ユーザ(読者)の興味や疑問に合わせてクエリを与えることで,議事録のような長い文書に対しても,ユーザが真に求める情報を要約として的確に提供できる.
一方,クエリ指向要約の既存研究では,クエリが事前に与えられることを前提としている. しかし実際には,ユーザが内容を知らない文書に対してクエリを考えることは難しい。もし,システムが与えられた文書に対して適切なクエリを推薦できれば,この課題を解決できる.例えば,ウェブ検索エンジンなどではクエリ推薦機能の提供例1) があるなど,社会的な需要も高いと見込まれる2).
そこで本稿では,クエリ指向要約を発展させた研
1)海外の Google 検索では People Also Ask と呼ばれる機能に対応する.日本でも「他の人はこちらも質問」として,近年表示されるようになった.
2)いわゆる FAQなども,身近なクエリ推薦の一種である.
図1クエリ推薦付き要約
究として,クエリの推薦と対応する要約の統合的な生成,すなわちクエリ推薦付き要約を提案する。クエリ推薦付き要約では,与えられた文書の重要な卜ピックや内容の把握に役立つクエリと,対応する要約のペアを複数生成し,それら全体をユーザに提供する(図 1)。大力としてクエリが与えられる既存のクエリ指向要約とは異なり,クエリ推薦付き要約では,クエリも含めて全て自動生成する。
クエリ推薦付き要約は,ユーザが興味を持ちそうなクエリと,その特定のトピックに詳しく踏み込んだ内容の要約のペアを複数生成するため,ユーザが真に求める情報や,文書の重要な内容を網羅すると期待される。また,要約全体がクエリと要約のペアの集合という形で構造化されるとともに,ユーザが自分の興味に合わせて要約の一部を選択的に読むことができるため,可読性の観点でもユーザ・エクスペリエンスが向上する.
本研究の主な貢献は以下の通りである.
・クエリ推薦付き要約の自動生成タスクを定義し,生成したクエリと要約の集合全体を適切に評価するための評価指標を設計・選定した。
- 文書の特定の区間(スパン)に着目してクエリ推薦付き要約を生成する手法などを提案した。実験では,スパンやそれに代わる機構が多様なクエリ生成に重要であることを確認した。
・スパンを明示的に指定する手法では,スパンの予測精度の低さがクエリ・要約の生成精度のボトルネックとなっていることを確認した。
・事前に文書の不要な部分を予測し,除去してからスパンを指定して生成することで,クエリ・要約の生成精度が向上することを確認した。
## 2 本研究で取り組むタスク
## 2.1 使用するデータセット(QMSum)
本研究では,データセットとして QMSum [2]を使用する. QMSum はマルチドメインの議事録を対象にした, クエリ指向要約向けの英語のデータセットであり, 232 件の会議と 1,802 件のクエリ・要約の組を収録している. 各会議に対する複数のクエリは, その会議の重要なトピックをカバーしているとされる.また,各クエリに関連するスパン(文書の特定の一部分)がターン33) 単位で注釈付けされている.
## 2.2 タスクの目的
本研究の目的は,1 節で提案したクエリ推薦付き要約として適切なクエリ・要約の組の集合を生成することである. その際,クエリ・要約の組の集合が満たすべき性質として,以下の 2 つを考慮したい.
・多様なクエリで構成されている。
・文書の重要な内容を網羅的にカバーしている.
「多様なクエリ」とはクエリ同士の語彙的な重複や意味的な重複が少ないことを意味する。一方,「文書の重要な内容を網羅的にカバー」するというのは, 本質的には一意に解が定まらない難しい問題であるが,今回は用いるデータセット(QMSum)に収録されているクエリが,重要なトピックをカバー する良いクエリであるとされている [2]ことから, データセットのクエリと要約の組の集合をそのまま全て再現することを本研究の目標とする。
## 2.3 タスクの定義
前述の目的を踏まえ,具体的な生成タスクを次のように定義・設計する。 ある文書 $D$ に対して, $K$ 個のクエリ・要約の組で構成される集合 $S=\left.\{\left(q_{1}, a_{1}\right),\left(q_{2}, a_{2}\right), \cdots,\left(q_{K}, a_{K}\right)\right.\}$ を生成する. 1 つの文書 $D$ に対し, 生成目標はデータセットで用いられた全てのクエリ・要約の組とする。また,その個数 $K$ は定数として事前に与えるものとする.
## 2.4 タスクの評価方法
前述の目的を踏まえ,生成したクエリ・要約の組の集合を,(i) 多様性と (ii) 内容一致性の 2 つ側面で評価する. 具体的な評価指標は 4.1 節で記述する.
図 2 SegEnc (Fusion-in-Decoder) のアーキテクチャ
図 3 スパンを指定する手法による生成
## 3 クエリ推薦付き要約の自動生成
文書からクエリや要約を生成する際には, Transformer [3] をべースとした seq2seq モデルを用いる. 本研究では特に, Fusion-in-Decoder $[4,5,6]$ のアーキテクチャを取り入れ,QMSumのクエリ指向要約タスクで最先端の性能を達成している SegEnc [7] を主に採用する. SegEnc は図 2 のように入力文を一定の長さでチャンクとして分割し, 別々のエンコーダに入力したものをデコーダ側で結合する. また, シーンに応じて各チャンク共通の適切な接頭辞を入力に追加することで効果的な文生成を実現している. 本稿では, SegEncを用いたクエリや要約の生成手法として,以下の 2 つを検討する。
## 3.1 文書全体を入力する手法
まず,クエリ生成器に文書全体と生成するクエリ数4)を入力として与え,クエリの集合を区切り文字で繋いだ文字列として一括で生成する. その後,要約生成器に文書全体と生成したクエリの 1つを入力として与え,対応する要約を個別に生成する。
## 3.2 スパンを指定する手法
文書全体ではなく,特定の区間(スパン)を入力として,クエリや要約を個別に生成する. 図 3 に示すように,同じ文書内でも毎回異なるスパンを与え,入力情報を差別化することで,同一の文書に対して複数の異なるクエリ・要約を容易に生成できるようになる。また,クエリ・要約生成の際に明示的にスパンを指定するため,生成結果に対する説明性の向上も期待できる.
4)ただし,生成するクエリの個数は完全には制御できない.
1 つの文書に対して複数のクエリ・要約の組を生成する際に,互いに異なるスパンをどのように指定するかは難しい問題であるが,本稿ではシンプルな方法として,均等割り当てを検討する。これは,図 3 のように文書全体にスパンを均等に割り当てるというものである.単純ではあるが,文書全体を力バーするスパンから,文書の内容を広くカバーするクエリ・要約の生成が期待できる.
ターン・フィルタ前述の均等割り当てに対する工夫として,ターン・フィルタを検討する。これは,文書内のあまり重要ではないターンを事前に予測し,文書から除去することで,スパンの予測精度向上を目指すものである.具体的には,データセットで文書にアノテートされている複数のクエリに対応するスパンに 1 つでも含まれているターンを 1 , そうでないターンを 0 とラベル付けした教師デー タを準備し,文書の各ターンを二値分類する.その後,0 とラベル予測したターンの一部を除去して, スパン指定を行う.実際には,BIO 記法 [8] を採用し, 単語ごとに BIO のラベルを予測する分類器を構築し,ターンに含まれる全ての単語の予測ラベルの多数決でターンのラベルを決定する。
## 4 実験
提案手法の性能を検証するため,クエリ推薦付き要約の自動生成を QMSum [2] 上で実験した. 基本的に,クエリ・要約は SegEnc で「クエリ $\rightarrow$ 要約」の順で生成し,ターン・フィルタは無効とした。
スパン指定の有無文書全体を入力する手法と均等割り当てでスパンを指定する手法との性能を比較し,スパン指定がクエリ・要約の生成に与える影響を検証したい。また本項目では,SegEncに加えて LED-large[9]をクエリ生成器とした場合も実験し, モデル構造とクエリの多様性の関係についても検証した.
ターン・フィルタの有無均等割り当てにおけるターン・フィルタの有効性を検証したい.また, ターン・フィルタを有効・無効にした場合に加え, データセットの正解のスパンを与えた場合も比較し,スパンの予測精度がクエリ・要約の性能に与える影響について検証した。
クエリ・要約の生成方法スパンを指定する手法において,クエリ・要約の生成順序や方法の違いがもたらす影響について調査したい。具体的には「クエリ $\rightarrow$ 要約」「要約 $\rightarrow$ クリ」「クエリ+要約」「要約十クエリ」の 4 通りを検証した. 最初の 2 つは個別の生成器でクエリ・要約を順に生成するが, 生成順序を入れ替える. 残りの 2 つは 1 つの生成器でクエリ・要約の組を一括で生成するが,生成目標の順序を入れ替える。
## 4.1 評価指標
本稿では,スパンの重複度・クエリの多様性・クエリと要約の内容一致性を文書単位で評価する。
Span-F1 スパンをターン番号の配列とみなし,正解のスパン $K$ 個と生成したスパン $K$ 個との間の全てのペア $K^{2}$ 個について,重複度を $\mathrm{F} 1$ スコアで評価する。そしてスコアが高いぺアの組み合わせを最大二部マッチングで決定し,それらのペアの F1 スコアの平均値を最終スコアとする.
distinct-n 生成したクエリ $K$ 個の間の語彙多様性を評価する指標として Li ら [10] が使用した distinct-nを導入する. distinct-n は $K$ 個のクエリに含まれる [n-gram の種類数] / [n-gram の総数] で定義される。本稿では $\{1,2\}$-gram について算出する.
ROUGE 正解および生成したクエリ・要約との一致度を ROUGE-\{1,2,L(sum)\} [11] で評価する. Span-F1 と同様の要領でペアを決定し ${ }^{5)}$, それらのスコアの平均値を報告する。なおクエリについては, QMSum のスキーマ部分の一致を過剩に評価しないようにするため,事前にルールに基づいてスキーマ部分を除去し,ROUGEを計算する(付録 B 参照).
## 4.2 実験結果
実験結果を表 1 と 2 に示す. 提案手法は,適切なスパン指定もしくはモデル構造によって,1つの文書に対して多様なクエリを提示し,それらに対する要約を生成できた.また,クエリ・要約の内容に関する精度も一定の水準に達したが,こちらは今後より改善の余地があると思われる.詳細な結果を以降で分析する。なお,具体的な生成例は,本研究で制作したデモサイト6) 上で公開している.
スパン指定の有無表 1 の2〜5行目に示すように,スパンを指定する手法での distinct-n は,クエリ生成器が SegEnc・LED-large いずれの場合も,デー タセットの正解のクエリ( $0.49,0.73 )$ には及ばないが,一定水準の語彙多様性を達成した。一方で文書全体を入力する手法での distinct-n は, SegEnc の場
(\mathrm{sum})\}$ の平均値とする.
6) https://qss-demo.vercel.app/
}
表 1 スパン指定およびターン・フィルタの有無による性能の比較
表 2 クエリ・要約の生成方法による性能の比較
合は極端に高く,正解のクエリすら上回ったのに対し,LED-large の場合は極端に低く,実際にはほぼ同じクエリの反復となっていた. SegEnc は 3 節で述べたようなモデル構造によって,明示的なスパンが無くても,実質的に均等割り当てに近い方法で文書の一部分に着目しているといえるが,LED-large には同様の機構が存在しない.これらの結果から,文書の特定の区間に着目する何らかの機構が多様なクエリの生成に重要ではないかと考えられる。ただし,クエリ・要約の ROUGE にはいずれも明確な優劣関係が確認できなかったことから, 多様なクエリであっても内容的に良いクエリ・要約の組が生成できているとは限らない. 多様性と内容面での精度向上の両立は今後の課題である.
ターン・フィルタの有効性表 1 の 5,6 行目に示すように,ターン・フィルタを有効にした場合は, クエリの語彙多様性はわずかに低下したものの,スパン・クエリ・要約の予測・生成精度は全面的に向上し, 本稿の提案手法の中では概ね最良のスコアが得られた. スパンの予測精度向上に伴い,クエリ・要約を生成する精度も改善されたと考えられ,ター ン・フィルタの有効性が確認できた.ただし,表 1 の 1 行目に示すように, 正解のスパンを与えた場合のクエリ・要約の ROUGE は他よりも大幅に高く, スパン予測の精度の低さがクエリ・要約生成のボトルネックであることが示唆される。より適切なスパンの推定手法,およびスパンを指定しない生成手法を構築することは,今後の課題である.
クエリ・要約の生成方法の影響表 2 に示すように,クエリの distinct-n はクエリを先に生成する方法 (「クエリ $\rightarrow$ 要約」「クエリ+要約」) と要約を先に生成する方法(「要約ークエリ」「要約+クエリ」)で大幅な差があり,後者の方が高い結果となった. また,クエリの ROUGE はいずれも「クエリ+要約」が最も高い結果となった. このように生成方法はクエリの生成に影響を与え,特に生成順序がクエリの語彙多様性に大きな影響をもたらすことがわかった.一方で, 要約の ROUGE は手法間での差が小さく, クエリの ROUGE との相関も確認できなかった.
## 5 おわりに
本稿では,クエリ指向要約の発展形として,クエリも含めて自動生成するクエリ推薦付き要約を提案し,具体的なタスクと評価方法の設計を行った. 次に,設計したタスクに対して,文書全体を入力する手法およびスパンを指定する手法を提案し,実験では文書の特定の区間に着目する機構が多様なクエリ生成に重要であることがわかった。また,スパンを指定する手法では, 文書の不要な部分を事前に除去することで,スパンの予測精度やクエリ・要約の生成精度が向上した. ただし,スパンの予測精度は依然として低く, クエリ・要約生成のボトルネックとなることが示唆された. さらに,クエリと要約の生成方法について検証し, 主に生成の順序がクエリの語彙多様性に大きな影響を与えることがわかった。
今後は,クエリ・要約の組の多様性と内容面の向上の両立のため,より高度なスパンの推定手法,およびスパンを指定しない生成手法の構築を検討したい.また,日本語を含めたデータセットの作成,より良いクエリ推薦付き要約の評価指標, 要約の可読性の定量的な評価方法についても研究を進めてゆきたい.
## 謝辞
本研究成果は, 国立研究開発法人情報通信研究機
構(NICT)の委託研究「自動翻訳の精度向上のためのマルチモーダル情報の外部制御可能なモデリングの研究開発」(課題 225)により得られたものです.
## 参考文献
[1] Hoa Trang Dang. Overview of DUC 2005. In Proceedings of the document understanding conference, volume 2005, pp. 1-12, 2005.
[2] Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Celikyilmaz, Yang Liu, Xipeng Qiu, and Dragomir Radev. QMSum: A new benchmark for query-based multi-domain meeting summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5905-5921, Online, June 2021. Association for Computational Linguistics.
[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[4] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering, 2020.
[5] Gautier Izacard and Edouard Grave. Distilling knowledge from reader to retriever for question answering, 2020
[6] Gautier Izacard, Fabio Petroni, Lucas Hosseini, Nicola De Cao, Sebastian Riedel, and Edouard Grave. A memory efficient baseline for open domain question answering, 2020.
[7] Jesse Vig, Alexander Fabbri, Wojciech Kryscinski, ChienSheng Wu, and Wenhao Liu. Exploring neural models for query-focused summarization. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 1455-1468, Seattle, United States, July 2022. Association for Computational Linguistics.
[8] Lance Ramshaw and Mitch Marcus. Text chunking using transformation-based learning. In Third Workshop on Very Large Corpora, 1995.
[9] Iz Beltagy, Matthew E Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv preprint arXiv:2004.05150, 2020.
[10] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[11] Chin-Yew Lin. ROUGE: A package for automatic evalu- ation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[12] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
## A より詳細な実験設定
全ての実験では, 1 つの実験条件(生成モデル・方法・順序,スパンの指定方法,ターン・フィルタの有無)に対して,seed 值を変更して 5 回ずつ実験を行い,それらの平均值を結果として報告した。また, 事前学習済みモデルは HuggingFace ${ }^{7)}$ で公開されているものを使用し, 微調整の際は, Huggingface の examples の実装コード8)を適宜改変した Python ファイル・スクリプトファイルを使用した.
## A. 1 ターン・フィルタ
事前学習済みの Longformer-base [9]を微調整してモデルを作成した. QMSum の文書は非常に長いため,一度にモデルに入りきらない場合は, 4,096Token ごとに区切って入力を行った. その際,Vig ら [7] の研究を参考に,入力区間は $50 \%$ オーバーラップさせ,入力の端付近の予測をなるべく使わないように配慮した. なお,モデルの予測に基づいて文書からターンを除去する割合は最大でも文書全体の $25 \%$ とし,残すターンがなるべく連続した区間となるように実装した.また,割り当てるスパンのターン数自体は,同一の文書内で通常の均等割り当ての場合と揃えることで,Span-F1 によるスパンの重複度評価の公平性を保つこととした. このことにより,ター ン・フィルタを有効とした場合は, 通常の場合と異なり,割り当てたスパン間で区間の重複が発生している.
## A. 2 クエリ・要約生成器の学習
割り当てたスパンのテキストから $\operatorname{SegEnc}[7] も$ しくは LED-large[9] でクエリ・要約を生成した. SegEnc は BART-large[12] をバックボーンモデルとし,チャンクサイズを 512 ,最大チャンク数を 32 ,入力のオーバーラップを $50 \%$ とした. LED-large は入力長上限が 16,384 token のものを使用した。また生成器は, データセットの正解のクエリ・要約および対応する関連スパンからクエリ・要約を予測するように学習させた。なお,学習率は $5 \mathrm{e}-6$ ,エポック数は 10 とした.
## B クエリ評価時のスキーマ除去
本稿では,生成したクエリを評価する際,QMSum のスキーマ部分の一致を過剩に評価することを防止するため,事前にルールベースでスキーマ部分を除去した上で ROUGE を計算した。具体的には, QMSum の論文 [2] に記載がある 13 種類の Specific Query Schema List および,条件を緩めた独自定義のスキーマを,Python の正規表現ライブラリで検出し,スキーマ部分以外のみを残すように置換した。 スキーマとその置換方法の一例を表 3 に示す.
## C 生成結果のデモサイト
本稿で提案した,クエリ推薦付き要約の自動生成モデルの出力例を,ブラウザ上で簡単に確認できる Web サイトを制作した. サイトは以下の URL およ
https://qss-demo.vercel.app/
7) https://huggingface.co/
8) https://github.com/huggingface/transformers | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H5-3.pdf | # 対話形式の対話要約の提案とその特徵の明確化
山下紗苗東中竜一郎
名古屋大学大学院情報学研究科
\{yamashita.sanae.w7@s.mail, higashinaka@i\}.nagoya-u.ac.jp
## 概要
対話要約のほとんどは文章形式であるが,我々は対話の重要な点はそのやり取りであると考えており,対話の基本的な単位である連鎖組織に基づいて対話を対話形式で要約することを提案する.この提案にあたり, 対話要約の既存の評価尺度は, 文章形式を前提とした評価尺度であり,対話形式の要約の評価に適していない可能性があることから, 本研究では,まず SD 法と因子分析により,対話形式を含めた対話要約の評価軸を明らかにする。そして,得られた評価軸を用いて,対話形式の要約の特徴を明確化する. 実験の結果, 臨場感, 読みやすさ, 簡潔さの 3 つの評価軸を得ることができた. また,対話形式の要約は,簡潔さを保ちながら臨場感を表現できることが分かった.
## 1 はじめに
近年,自律的な対話システムが活発に開発されている $[1,2,3,4,5]$. その一方で, 対話システムはその能力の限界から対話破綻を起こすことも多い [6]. ユーザにストレスを感じさせないように対話を行うには,対話破綻が起こった場合,コールセンタにおける音声対話システムのように,人間がシステムから対話を引き継いで,システムの代わりに話すことが有用だと考えられる [7]. この対話を引き継ぐという状況では,これまでの文脈を適切に理解しなくてはならないため,対話要約が必要となる. 我々は,このような対話を引き継ぐという想定のもと,対話要約の研究を行っている.
現状,対話要約のほとんどは文章形式である.しかし, 我々は対話の重要な点はそのやり取りであると考えており, やり取りを把握するという観点では,対話の基本的な単位である連鎖組織(3節参照)に基づいて,対話を対話として要約するのが良いと考えている. そのため, 我々は対話形式の要約 (付録表 3 の DFS-1x4 を参照)に着目している. し
かし,対話形式の研究を進めるにあたって,既存の評価軸を用いて本研究を進めてよいのかという問題がある。なぜなら,これまでの対話要約は文章要約が主体であり,必ずしも対話形式の要約に適していない可能性があるからである.
そこで本研究では,まずSD法と因子分析により,対話形式を含めた対話要約の評価軸を明らかにする. そうした上で,対話形式の要約の評価をこの評価軸に沿って行い,その特徴を明らかにする。
## 2 関連研究
文章形式の自動要約が長らく研究されている [8]. 例えば,雑談コーパスの SAMSum [9] や DialogSum [10] は,雑談対話の内容を第三者視点で文章化した要約を提供している. 対話形式の要約については,対話中のいくつかの重要な発話を抜粋した抜粋型要約 [11] がそれに該当するかもしれない. しかし,抜粋された発話同士は文脈的なつながりに欠けるため,対話としてそのまま読めるものになっているわけではない. 本研究で対象とするのは,対話として読める形になっている要約である.
対話要約の評価軸について述べると,現状,対話要約は内容と読みやすさの 2 点で主に評価されてきた [8]. 内容に関する自動評価の方法には,原文と要約がどれだけ似ているかを調べるために,それらの $n$-gram を比較する ROUGE [12] のほか,埋め込み表現を比較する BERTScore [13] や MoverScore [14] がある.内容に関する人手評価の方法としては,要約に含まれる情報量や元の対話への忠実度 [15], 一貫性や関連性 [16] といった評価尺度があり,この評価軸を使って 5 段階で評価したり, 複数の要約候補を順位付けたりしている。読みやすさに関する自動評価の方法には,単語数をもとに可読性を算出する FOG index [17] や Kincaid index [18] がある. 読みやすさは人手で評価されることが多く,その評価には,一般的に簡潔さが用いられる [19]. 本研究では, 既存の対話要約の形式(具体的には,文章形式
およびキーワード形式; 4.2 節参照)に加え, 対話形式の要約を含む,様々な対話形式の評価に用いることのできる対話要約の評価軸を求める.
## 3 対話形式の要約
我々は対話形式の対話要約 (Dialogue Format Summary,以降 DFS と呼ぶ)を提案する。ここではその概要と作成手順を述べる. 我々は, 対話の重要な点はそのやり取りであると考えているため,対話要約は対話中のやり取りを十分に含んでいるべきだと考えている。既存の理論では,やり取りは隣接ぺアやその拡張である連鎖組織 [20] の単位で表現することが適切とされている。したがって,我々は連鎖組織の単位で対話を対話として要約する(付録表 3 の DFS-1x4を参照).
DFS の作成にあたっては,まず,対話から連鎖組織を認定する必要がある。連鎖組織の特定は,対話の発話単位への分割,対話行為アノテーション, 連鎖組織アノテーションの 3 ステップによって行う.発話単位の分割の単位には, 話し言葉の発話単位である Long utterance-unit (LUU) [21]を用いる。対話行為アノテーションは各 LUU に対して行われ,タグセットとしては,連鎖組織の特定に必要な対話行為のラベルが揃っている ISO24617-2 [22]を用いる. そして, 対話行為のラベルと連鎖組織の定義(特定の対話行為のペアを含む,二つ以上のターンから構成される等)[20] に基づき,連鎖組織を特定する。
連鎖組織を特定した後, 1 つの連鎖組織に対して 1 つの DFS を作成する. 要約作成の際は, 連鎖組織を,その内容を変えずに,対話中の話者による一連のやり取りとして再構成する. この時, 話者の発話内容や話者間の関係を維持したまま要約する. 具体的には,要約は次のルールに従って作成する。
・連鎖組織の発話群を網羅した,2つか 3 つの発話からなるやり取りに書き換えること。
・書き換えたやり取りだけを読んで,連鎖組織に含まれる発話群の内容が理解できること。
・書き換えたやり取りが,その前後の発話とつなげたときに,自然な流れで読めること。
- 元の対話から文体や人称を変えず,話者の発話内容を維持すること。つまり,ある話者がある命題を口にしたとき,その命題はその話者が要約中で発話しなければならない。
- 連鎖組織の定義から,各話者は,それぞれ 1 回以上発話すること。
## 4 対話要約の評価軸の発見
対話要約の評価軸の発見の具体的な流れとして, まず,既存のコーパスを対象に複数種別の対話要約を収集する。次に,各要約種別の印象の記述を集めることで形容詞対を得る. その後, 得られた形容詞対を用いて,各要約種別に対する印象評価を行う.最後に,因子分析を行うことで評価軸を発見する。
## 4.1 要約対象となる対話コーパス
対話要約は様々な対話から作成されるべきと考え,その用途に適したコーパスとして,日本語日常会話コーパス (CEJC) [23] を用いることにした. 本コーパスは,日常場面の中で自然に生じた雑談や用談を音声で収録したものである.各対話は書き起こされて,LUU で発話単位に分割されている. 我々は,このコーパスから 2 人の話者によって行われた対話をランダムに 6 対話をサンプリングし,それらの対話から要約を作成した. 各対話の長さは平均 400 発話程度である. これらの対話は, サンプル数としては若干少ないが,含まれる連鎖組織の数は全部で 174 個であり, 異なる話題, 話者同士の関係,場所,活動を含んでおり,十分に多様である.
## 4.2 対話要約の収集
要約の作成にあたっては,まず,サンプリングした CEJC の対話に対して対話行為と連鎖組織を人手でアノテーションした. 次に,アノテーション済みの 6 対話から,4つの連続する連鎖組織をランダムに8つ(1 対話あたり1つまたは 2 つ)サンプリングして,要約の対象とした. ここで,複数の連続する連鎖組織を要約の対象とした理由は,短すぎる入力であると要約の評価が困難と考えたためである.
これらの連鎖組織について,文章形式,対話形式,キーワード形式の合計 6 種別の対話要約を人手で作成した. 各要約の概要と作成方法を以下に列挙する。
## - 文章形式の要約 (Text Format Summary; TFS)
一般的な文書形式の要約を指す. 文章形式の要約として 2 種別を作成した. 一つは,4つの連続する連鎖組織のそれぞれについて文章形式の要約を作成し,それらを連結したもので,もう一つは 4 つの連続する連鎖組織について 1 つの文章形式の要約を作成したものである. 入力単位が長いほど,対話内容全体を整理するために
要約がより構造化される可能性がある. よって,これら 2 種別の要約を用意することで,構造の異なる文章形式の要約が準備できると考えられる.前者をTFS-1x4 と呼び,後者を TFS-4 と呼ぶ.
## $\cdot$対話形式の要約 (DFS)
3 節で述べた対話形式の要約を指す. 4 つの連続する連鎖組織のそれぞれについて DFS を作成し,それらを連結することで作成した。これをDFS-1x4 と呼ぶ. なお,対話の抜粋型要約も対話形式の要約と考えられる。そこで,4つの連続する連鎖組織に含まれる発話から重要と考えられるものを抜粋することで要約を作成した.これをDFS-4-ext と呼ぶ.
## ・キーワード形式の要約 (Keyword Format Summary; KFS)
キーワード形式の要約を指す.この要約は, 4 つの連続する連鎖組織から一般名詞と固有名詞を抽出して, 出現順にリストにしたものである. 名詞は, 形態素解析の $\mathrm{MeCab}{ }^{1}$ ) と辞書の NEologd ${ }^{2)}$ を使用して自動的に抽出する。これをKFS-4 と呼ぶ.
## ・対話履歴 (Dialogue History)
対話履歴そのものを指す.これは要約ではないが,他の要約との比較のため用いる。
クラウドソーシング 3)で作業者を募集し,サンプリングされた 6 対話に対してのべ 10 人が対話行為と連鎖組織のアノテーションを行った. なお,事前調査では,対話行為アノテーションの一致率 (Fleiss の к)は 0.55 ,連鎖組織アノテーションの一致率は 0.47 であった.
要約の作成はのべ 15 人が行った. ノイズの恐れのため, キーワード形式の要約と対話履歴以外の要約は全て人手で作成した。その際, 主語や指示語を補完するために,要約すべき 4 つの連続した連鎖組織に加えてその直前 2 つ分の連鎖組織も要約作成者に参照させた. 8 つの要約対象に対して 6 種別の要約を 1 つずつ作成することで,計 48 個の要約を収集した. TFS-1x4,TFS-4 は最大 170 文字程度,DFS-1x4,DFS-4-ext は 100-200 文字程度を目安に作成させた. TFS-1x4, TFS-4, DFS-1x4, DFS-4-ext, KFS-4, Dialogue history それぞれの平均文字数は,
表 1 因子分析の結果. 数値は因子負荷量を示す. 0.6 以上の値を太字で示す. 我々は,因子 1 を臨場感,因子 2 を読みやすさ,因子 3 を簡潔さと名付けた。
110.3, 139.3, 133.8, 169.6, 59.6, 393.5 であった. 人手で作成させた要約については, 著者の 1 人が対話履歴と要約を照らし合わせ,忠実性の高い要約であることを確認した。
## 4.3 形容詞対の収集
クラウドソーシングで作業者を 15 人募集し,作業者に要約の印象を記述させることで,印象評価に用いる形容詞対を収集した。収集方法は小磯ら [24] の手順を参考にした. まず,収集した要約から,同じ連鎖組織から作られた異なる 2 種別の要約ペアを構成し, ランダムに作業者に提示した. 次に, 作業者に, 各要約の表現や文体から得られる印象を文章で記述させ,最終的に「あたたかい—つめたい」のような形容詞対を作成させた. 最後に, 収集した形容詞対の中で類似する表現をまとめ上げ,2 回以上出現した形容詞対を採用することで整理した. 最終的に,作業者から 118 対の形容詞対を収集し,整理を経て 23 対の形容詞対を得た。
## 4.4 各要約種別に対する印象評価
形容詞対の作成を行っていない作業者をクラウドソーシングで 45 人募集し, 収集した形容詞対を用いて, 各要約種別の印象を 5 段階で評価させた.評価にあたっては, 形容詞対の収集時と同様に, ぺアになった要約を各作業者に 3 組ずつ提示して,異なる 2 種別の要約それぞれについて印象を評価させた。
## 4.5 因子分析の実施
各要約種別に対する印象評価の結果を用いて,形容詞対を対象に因子分析を行うことで,評価軸を発
図 1 要約種別ごとの各因子の平均スコア. 印象評価のスコアを,各形容詞対が属する因子ごとに平均し,要約種別ごとに表している.
見した.まず,どの要約種別に対しても似たような評価がなされた形容詞対(各評価者の分散の平均が 1 未満の形容詞対)を因子分析の対象から除外した.次に,Kaiser-Guttman 基準により因子数を 3 と決定した. そして,最尤法により因子負荷量を求め,バリマックス回転を適用した. その後, 因子負荷量がどの因子に対しても小さい值(0.6未満)しか示さない形容詞対を削除し,再度因子分析を行った. 最後に,因子を構成する形容詞対をもとに各因子に名前を付けた。
表 1 に,各形容詞対の因子負荷量を示す. 累積寄与率は $61.8 \%$ であった. 3 つの因子が発見でき,それぞれについて以下の通り解釈を行った。
## 因子 1 : 臨場感
因子 1 については「人間的な一機械的な」「双方向の一一方向の」「継続した一停止した」など,描写の豊かさや現実らしさに関する形容詞対が相対的に高い正の負荷を示しており, 臨場感に関する因子と解釈できる.
## 因子 2:読みやすさ
因子 2 を見ると,「おさまりの悪い—おさまりの良い」「曖昧な一明瞭な」などが相対的に高い正の負荷を示している。したがって,読みやすさに関する因子と解釈できる.
## 因子 3 :簡潔さ
因子 3 は「壳長な一簡潔な」と「長い—短い」 の形容詞対からなる.これは簡潔さに関する因子と解釈できる。
## 5 各要約種別の特徵の分析
得られた評価軸と印象評価結果を用いて,各要約種別に特徴的な軸を特定することで,対話形式の特徵を明らかにした。
図 1 に,要約種別ごとの各因子の平均スコアを示す.このスコアは,4.4 節で得られた印象評価のスコアを,各形容詞対が属する因子ごとに平均し,要約種別ごとに表したものである.
文章形式の要約 (TFS-1x4, TFS-4) は,臨場感の評価が 5 段階で 3 を下回っていた.このことは,文章形式の要約が元の対話の臨場感を表現するのに不向きであることを示唆している。一方で,読みやすさのスコアは他の形式に比べて高い.
対話形式の要約 (DFS-1x4,DFS-4-ext) は全体的に臨場感のスコアが高く, 元の対話の臨場感を保持できる表現形式であることが分かる. 特に提案手法の DFS-1x4 は,重要発話を抜粋した DFS-4-ext や対話履歴そのものである Dialgoue history と同程度の臨場感を保持できる上に,それらよりも読みやすく簡潔な要約であることが分かった. これは,DFS-1x4の作成にあたって,重要な発話を単に抜粋するのではなく自然な発話の連続として再構成しているため, また,㔯長なフレーズを取り除いているためと考えられる。
キーワード形式の要約は,臨場感と読みやすさのスコアが低かった。一方で,簡潔さのスコアは他のどの表現形式よりも高いことが分かった.
各要約形式の特徴をまとめると, 文章形式の要約は,臨場感は失われるが,読みやすさと簡潔さが優れていることが分かった. 対話形式の要約は, 臨場感を持たせることができることが分かった. 特に提案手法の DFS-1x4 は, DFS-4-ext や Dialogue history よりも読みやすく簡潔であることが分かった.キー ワード形式の要約は,簡潔さに特化していることが分かった. この結果は,提案する対話形式の特徴を明らかにするとともに,対話要約の要件に応じて,対話形式と文章形式を使い分けることの有効性を示唆している。
## 6 まとめ
本研究では,対話を対話として要約するというアイデアのもと,対話形式の対話要約である DFS を提案した. そして,SD 法と因子分析により,対話形式を含めた対話要約の評価軸として,臨場感,読みやすさ,簡潔さという 3 つの評価軸を得た. この評価軸をもとに対話形式の要約を評価したところ, DFS は簡潔さを保ったまま臨場感を持たせられる表現形式であることが分かった. 今後は, 臨場感の表現に優れた DFS を,対話システムと人間のオペレー タの間での対話の引き継ぎで用いたい。また,大規模言語モデルを活用することで,対話からDFS の自動生成を行いたいと考えている.
## 謝辞
本研究は,JST ムーンショット型研究開発事業, JPMJMS2011 の支援を受けたものです.
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Proc. NeurIPS, Vol. 33, pp. 1877-1901, 2020.
[2] Jan Pichl, Petr Marek, Jakub Konrád, Petr Lorenc, Van Duy Ta, and Jan Šedivỳ. Alquist 3.0: Alexa prize bot using conversational knowledge graph. arXiv preprint arXiv:2011.03261, 2020.
[3] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020.
[4] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proc. EACL, pp. 300-325, 2021.
[5] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, et al. Blenderbot 3: a deployed conversational agent that continually learns to responsibly engage. arXiv preprint arXiv:2208.03188, 2022.
[6] Ryuichiro Higashinaka, Masahiro Araki, Hiroshi Tsukahara, and Masahiro Mizukami. Integrated taxonomy of errors in chat-oriented dialogue systems. In Proc. SIGDIAL, pp. 89-98, 2021.
[7] Tatsuya Kawahara, Naoyuki Muramatsu, Kenta Yamamoto, Divesh Lala, and Koji Inoue. Semi-autonomous avatar enabling unconstrained parallel conversationsseamless hybrid of woz and autonomous dialogue systems-. Advanced Robotics, Vol. 35, No. 11, pp. 657-663, 2021.
[8] Inderjeet Mani. Automatic summarization, Vol. 3. John Benjamins Publishing, 2001.
[9] Bogdan Gliwa, Iwona Mochol, Maciej Biesek, and Aleksander Wawer. SAMSum corpus: A human-annotated dialogue dataset for abstractive summarization. In Proc. EMNLP Workshop on New Frontiers in Summarization, pp. 70-79, 2019.
[10] Yulong Chen, Yang Liu, Liang Chen, and Yue Zhang. DialogSum: A real-life scenario dialogue summarization dataset. In Find. ACL-IJCNLP, pp. 5062-5074, 2021.
[11] Sansiri Tarnpradab, Fei Liu, and Kien A Hua. Toward extractive summarization of online forum discussions via hierarchical attention networks. In Proc. FLAIRS, pp. 288-292, 2017.
[12] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, 2004.
[13] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. BERTScore: Evaluating text generation with BERT. arXiv preprint arXiv:1904.09675, 2019.
[14] Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer, and Steffen Eger. MoverScore: Text generation evaluating with contextualized embeddings and earth mover distance. In Proc. EMNLP-IJCNLP, pp. 563-578, 2019.
[15] Ming Zhong, Yang Liu, Yichong Xu, Chenguang Zhu, and Michael Zeng. Dialoglm: Pre-trained model for long dialogue understanding and summarization. arXiv preprint arXiv:2109.02492, 2021.
[16] Alexander Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, and Dragomir Radev. ConvoSumm: Conversation summarization benchmark and improved abstractive summarization with argument mining. In Proc. ACL-IJCNLP, pp. 6866-6880, 2021.
[17] Robert Gunning. Technique of clear writing. McGrawHill, 1952.
[18] J Peter Kincaid, Robert P Fishburne Jr, Richard L Rogers, and Brad S Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. Technical report, Naval Technical Training Command Millington TN Research Branch, 1975.
[19] Haitao Lin, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, and Chengqing Zong. Other roles matter! Enhancing roleoriented dialogue summarization via role interactions. In Proc. ACL, pp. 2545-2558, 2022.
[20] Emanuel A Schegloff. Sequence organization in interaction: A primer in conversation analysis, Vol. 1. Cambridge university press, 2007.
[21] Yasuharu Den, Hanae Koiso, Takehiko Maruyama, Kikuo Maekawa, Katsuya Takanashi, Mika Enomoto, and Nao Yoshida. Two-level annotation of utterance-units in Japanese dialogs: An empirically emerged scheme. In Proc. LREC, pp. 2103-2110, 2010.
[22] Harry Bunt, Volha Petukhova, David Traum, and Jan Alexandersson. Dialogue act annotation with the iso 24617-2 standard. In Multimodal interaction with W3C standards, pp. 109-135. Springer, 2017.
[23] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yasuyuki Usuda, and Yuka Watanabe. Design and evaluation of the corpus of everyday Japanese conversation. In Proc. LREC, pp. 5587-5594, 2022.
[24] 小磯花絵, 田中弥生, 小木曽智信, 近藤明日子. テキストの多様性をとらえる分類指標の体系化の試み。言語処理学会第 17 回年次大会発表論文集, pp. 683-686, 2011.
## A 付録
表 2 に Dialogue history の例を,表 3 に各 Dialogue history に対応する要約種別の例を示す.
表 2 Dialogue history の例(CEJC の会話 ID T013_001より)。連鎖組織の境界を罣線で示す. A および B は話者を示す。
B: うーん : 基礎があっていっぱい線書いてこれいろいろあって
B: そうでしょう
B: ああああ
A: 線を引き方とかなんかあの楷書体から行ってどうのこうのってある
B: あああーあ
A: それやった上で崩してもいいよとかってなるともう最初からさもう超上級者の崩し字のさきゅんっこんなこんな字でさ
B: うんー
B: それではちょっと厳しいですね
A: でもうそれこれじゃだから今年はちょっとパソコンの年賀状じゃなくて趣のあるをさ
B: うーん
A: な
B: うん
A: 鳥獣戯画みたいなものをさ
B: 鳥獣
A: あ一
A: 草書体をちょっともうちょろちょろっと書いたのをさ下手でもなんでもいいからちょっと味わいで出してみよう (続き)
B: やっぱり
A: 習字もね一度ほら一添削をやったじゃん
A: 俺
B: そうだっけ
A: え
A: もう十年ぐらい前やったことあんだ
A: あれもそうだもう終わったね
B: あー
B: 終わったの
A: あれはね月々添削料がね五千円ぐらいだったんだよな
B: うーん
A: 大変だったんだよ
A: あれ
B: うん
A: で一回か二回やったんだけど
B: うんうん
A: 続かなかったね
B: あの人あなたの字はそのままで草書体みたいなもんだからいいのよ
A: つうかさ
B: 無理しなくたってかっつってだめだね
B: うん
B: うーん
A: ありゃもうちょっとね無理だね
B: まず習字からやりやることが必要なんじゃない
(右上へ続く)
A: んなお前そうゆう言い方ないでしょ
A: あなた
A: 草書体じゃない
A: ただずるずるしてるだけだ
B: うう
A: 草書体ってのはきちんとしたルールがあんのよ
表 3 表 2 の Dialogue history から作成された要約の例.連鎖組織の境界を罡線で示す.A および B は話者を示す. TFS-1x4
A は今年の年賀状は, 直筆の崩し字で趣のあるものにしたいと考えていた.
A は十年ほど前に,習字を添削してもらったことがある.
$\mathrm{A}$ は習字の添削を一回か二回してもらった.
A の字は草書体ではなく,ただずるずるしているだけだ.
## TFS-4
最初から超上級者の崩し字で,A には厳しかった. 今年はパソコンの年賀状ではなく,草書体で趣のある鳥獣戯画のようなものを,下手でもいいから味わいで出してみようと思っていたが,ちょっと無理だった. A は習字も十年ぐらい前に一回か二回やったが続かなかった.Aの字はただずるずるしているだけで,草書体ではない.
## DFS-1x4
A: 最初から超上級者の崩し字を書かされたからね
B: それは厳しいね
A: 今年は鳥獣戯画風の年賀状を出したかったのに
A: 少し草書体を書こうかと思ったけど無理だね
B: 習字からやったほうがいいよ
A: 添削受けたことがあるけどだめだった
$\mathrm{A}:$ 添削料が月五千円で一,二回やって続かなかった
B: あなたの字は草書体みたいだからそのままでもいいと思う
B: 無理しなくても
A: 草書体にはきちんとしたルールがあるんだよ
## KFS-4
最初,鳥獣,あん,一,ゅんっこんなこんな,じゃなくて,ほら一, 言い方, 字, 習字, 鳥獣戯画, 上級, 味わい,人,さき,草書体,そのままで,年賀状,趣,月々,崩し,ルール,パソコン,つう,やもうちょっとね
## DFS-4-ext
A: 習字もね一度ほら一添削をやったじゃん
B: そうだっけ
A: もう十年ぐらい前やったことあんだ
A: あれもそうだもう終わったね
B: 終わったの
A: あれはね月々添削料がね五千円ぐらいだったんだよな
A: で一回か二回やったんだけど
A: 続かなかったね
B: あの人あなたの字はそのままで草書体みたいなもんだからいいのよ
B: 無理しなくたって
A: んなお前そうゆう言い方ないでしょ
A: 草書体じゃない
A: ただずるずるしてるだけだ
B: うう
$\mathrm{A}$ : 草書体ってのはきちんとしたルールがあんのよ | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H5-4.pdf | # InstructSum: 自然言語の指示による要約の生成制御
西田光甫西田京介 斉藤いつみ 齋藤邦子
日本電信電話株式会社 NTT 人間情報研究所
kosuke.nishida.ap@hco.ntt.co.jp
## 概要
GPT-3 などの事前学習済み言語モデルは,訓練データを使うことなく指示を入力するだけで出力をタスクに適合させることができる。自然言語の指示による言語モデルの出力制御の従来研究では,複数のタスクの中の 1 つとして要約タスクへの適合を扱い,どのような要約を出力するかまで制御する取り組みがなかった. そこで本研究では, 3309 個の要約タスクを持つ InstructSum データセットを作成した. さらに,長いソーステキストと指示の関係性を効率的にモデリングする手法を提案した.評価実験で InstructSum と提案手法の有効性を確認した。
## 1 はじめに
GPT-3 などの事前学習済み言語モデルは,言語モデルにタスク定義や入出力例を自然言語で指示することで,モデルの Fine-Tuningを行わずに出力を制御することを可能にした [1]. 自然言語の指示による出力の制御は,非専門家や訓練データのないサー ビスに AI 開発の門戸を開いたことで,大きな注目を集めている。近年では,モデルが指示に従う能力を高めるため,大量のタスクを用意し,タスクごとに異なる指示を与えて教師ありマルチタスク学習を行う Instruction Tuning が提案された [2]. Instruction Tuning を加えた事前学習済み言語モデルは,指示を入力するだけで通常の訓練データを用いた教師あり学習モデルに匹敵する性能を達成することが報告されている $[2,3,4]$.
本研究では, Instruction Tuning を要約タスクに導入し,自然言語の指示によって要約を制御することに取り組む. 第一の貢献として,要約に特化した Instruction Tuning のデータセットとして InstructSum を作成した。このデータセットでは,クラスタリングによって書き方が共通している要約の集合を得て,クラウドソーシングによって要約の書き方を自然言語の指示に書き下した. 第二の貢献として,要
図1要約タスクにおける instruction-tuning.
約対象のテキスト(ソーステキスト)のみを先にエンコードして内部表現として保持することで,指示だけを高速にエンコード可能なモデルを実現した. Instruction Tuning の従来研究に比較して要約タスクでは入力長が長くなるが,提案モデルは精度を落とさずかつ効率的に指示とソーステキストを処理できる. 評価実験により, InstructSum と提案手法の有効性を確認した。
## 2 InstructSum
## 2.1 問題定義
学習ある要約タスクを自然言語で表現する指示 $I$ が与えられる。各タスクの訓練データとして (ソーステキスト $S$ ,ターゲットテキスト $T_{S, I}$ ) のぺアの集合が与えられる。複数個のタスクから要約モデルを学習する。
推論要約モデルは,未知の指示(タスク)I と未知のソーステキスト $S$ が与えられると,ターゲットテキスト $T_{S, I}$ を出力する.
## 2.2 データセットの収集
概要前節で定義した問題定義に従うデータセットを構築するため,まず類似した書き方に基づくターゲットテキスト(および対応するソーステキス
ト)のクラスタを作成し,クラスタ内のターゲットテキストに共通する指示を作成する。ここで,クラスタ内のソース・ターゲットテキストの集合がタスクの訓練データに相当する.
ソース・ターゲットテキストの収集 [5] に従い, Wikipedia の概要部分をターゲットテキストとした.彼らは複数文書要約のために外部リンクの情報や Google 検索 API の結果を使ってソーステキストを収集したが,本研究では同じ記事の概要以外の部分をソーステキストとして利用した.
## ターゲットテキストのクラスタリング次にター ゲットテキストをクラスタリングし,書き方が類似 した記事のクラスタを得る. 複数の概要部分に共通 する下書きを作成するタスクを提案した [6] の手法 を参考にした。まず記事タイトルを単語分割し,同 じ箇所の 1 単語以外が一致するクラスタを作成す る. 次にターゲットテキストを単語分割し,クラス タ内の他のテキストに対してレーベンシュタイン距離を計算する. 全てのテキストと単語長の 0.7 倍以上離れている場合にクラスタから削除する.クラス タの大きさが 4 以下の場合はクラスタを削除する.
指示文の作成上記の手段で収集したクラスタのうち 900 クラスタ 8993 概要部分に対してアノテー ションを付与した. まず,以下の操作を繰り返しクラスタに対して 5 つ指示文を作成する. この操作では,ワーカの負荷軽減のため 1 クラスタ当たり 5 つのターゲットテキストを読む.
- 同一クラスのキーワード (Donald Trump と Joe Biden など)を各ターゲットテキストから抜き出し, キーワードのクラス名 (President's Name など)を考える。
・クラス名に言及する指示文を書き下す。
・クラスが現れる順番が共通する場合,順序に言及する。
・クラスを含むターゲットテキストが 3 つ以下である場合,そのクラスを含む条件に言及する。
## 指示文とターゲットテキストの関係情報の付与次に,ターゲットテキストを文に分割したターゲッ ト文と 5 個の指示文の関係フラグを付与する. 関係 フラグは,ある指示の内容をターゲット文が含んで いるかどうかを $\{0,1\}$ で表現する.
ここで,指示文 1 から指示文 $j$ まで $(j=1, \cdots 5)$ を連結することで,1 つのクラスタから 5 通りの指示 $I$ を作成する。関係フラグを用いて,指示 $I$ の 1 指示文でも関連があるターゲット文を繋げたテキス
図 2 データセットの例. 指示 $I$ とターゲットテキスト $T_{S, I}$ に処理する前の指示文・Wikipedia 記事の例を示す.
表 1 統計值.
トを作成し,改めて指示 $I$ とソーステキスト $S$ に対応するターゲットテキスト $T_{S, I}$ と定義する. ここで,ターゲットテキストが連続した文でないときはデータセットから取り除く.
データの分割クラスタ内の Wikipedia 記事のカテゴリ情報を用いて,評価セットに未知の指示が含まれるように 746/50/104 クラスタを訓練/開発/評価セットに分割した。詳細は付録に示す.
## 2.3 データ分析
図 2 にデータ例を示す. 表 1 にデータの統計值を示す. 指示,ソーステキスト,ターゲットテキストのトークン長を $L_{I}, L_{S}, L_{T}$ と書く.
指示文作成した 4500 指示文がどのような指示なのか調査するため, 最初の単語の分布を調べた. If から始まる条件付きの指示が $13.0 \%$ ,順序に言及する指示が $36.7 \%$ あるため,単純なキーワードクラスだけを指定するよりも複雑な指示ができる. 残
り,多様な表現の指示が含まれる.
ソース・ターゲットテキストソース・ターゲットテキスト間の Rouge-L [7] を評価すると,28.1 であった. 外部リンクページと Google 検索結果に基づきソーステキストを構築した Wikisum [5] は Rouge-Lを 17.0 と報告しており,InstructSum は WikiSum に比べてテキスト間の整合性が高いデー タセットであると言える.ソース・ターゲットテキストの長さ 1299.2 と 86.9 は要約データセットとしては標準的か少し長い程度である。代表的なデータ
図 3 指示の分類と最初の単語の分布.
セットである CNN/DM [8] は 789.9 と 55.6 である.
## 3 モデル
同一のソーステキストに異なる指示を与えて複数回要約を生成する現実的な設定において,ソーステキストをモデルの内部表現として保持して計算効率を高める手法を提案する. Transformer 構造 [9] の Encoder-Decoder である T5 [10] をべースとする.
入出力形式モデルの入力は, 'Instructions: \{I \} According to the above instructions, summarize the following article. Title: $\{T i\}$ Article: $\{S\}$, とした. ここで,波括弧は代入操作,Ti は Wikipedia 記事のタイトルを示す. 出力はターゲットテキストのみである. 入力は最初の 1024 トークンのみを用いた.
内部表現保持モデルまず,Transformer の selfattention について再確認を行う. Query, Key, Valueの行列 $Q, K, V \in \mathbb{R}^{L \times d}$ を使って隠れ状態
$
H=\operatorname{Attn}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{\top}}{\sqrt{d}}\right) V
$
を得る. $L$ は系列長, $d$ は次元サイズである.この計算量が Transformer Encoder のボトルネックであり, $O\left(\left(L_{S}+L_{I}\right)^{2}\right)$ の計算量が必要である.
そこで,提案モデルでは $Q, K, V$ を指示 $I$ の系列 $Q_{I}, K_{I}, V_{I} \in \mathbb{R}^{L_{I} \times d}$ とソーステキスト $S$ の系列 $Q_{S}, K_{S}, V_{S} \in \mathbb{R}^{L_{S} \times d}$ に分割する. ソーステキストを $H_{S}=\operatorname{Attn}\left(Q_{S}, K_{S}, V_{S}\right)$ とエンコードする. $K_{S}, V_{S}$ はソーステキスト表現としてモデルが保持する.
指示が入力されたときは $H_{I}=\operatorname{Attn}\left(Q_{I}, K, V\right)$ とエンコードできる. $K_{I}, V_{I}$ は $K_{S}, V_{S}$ と繋げることで $K, V$ とする. この操作では, 最も大きい $O\left(L_{S}^{2}\right)$ の計算を 2 回目以降の指示入力で省略できる.
学習・推論学習時の損失は Teacher-Forcing と Cross-Entropy によって計算した. 推論時の生成はビーム幅を 2 とした Beam-Search で行った.表 2 自動評価値. Zero-shot は InstructSumによる学習を行わない. No Inst. は指示 $I$ を入力しない. Full は通常の Transformer モデル(full self-attention)である.
## 4 評価実験
ベースモデルである T5 に対して Instruction Tuning を実施した FLAN-T5 [4]を初期值として InstructSum で学習した. 評価指標には,要約タスクで一般的な Rouge-L(R-L) [7],BLEU-4(B-4) [11]を用いた. その他の設定の詳細は付録に示す.
## 4.1 結果と議論
## InstructSum により指示型要約の性能は向上する
か? 表 2 に結果を示す. InstructSum で訓練を行うことで,Base, Large モデルであっても Zero-shot の XXL モデルの性能を大きく上回った. InstructSum による訓練は,既に Instruction Tuning 済の FLAN-T5 を初期値とした場合でも指示によって要約を制御する能力を高める効果があった.また,RTX8000 4GPUs で計算した場合,XXL モデルの評価データの推論時間が 161 分に対し Large モデルの訓練・推論時間は計 94 分であるから, 時間・空間計算量の観点からも InstructSum の利用は有用である.
## 内部表現の保持により性能を維持し効率性を高 められるか? 内部表現保持モデルを用いた場合で も,Large モデルの Rouge-L では 0.63,BLEU-4 では 0.09 ポイントと, 性能が僅かに下がるに留まった.指示を入力した Large モデル Encoder の演算数は提案手法を用いることで Base モデルの 174GigaFLOPS より小さい24GigaFLOPS に抑えられた. 入力 1024 トークンのうち指示は冒頭の平均 41 トークンであ るため,通常の self-attention は計算量が多いにも関 わらずソーステキストと指示の離れた位置間の相互作用のモデリングへの貢献が少なく,提案手法が精
} \\
図 4 提案モデルの生成例. ソース・ターゲットテキストの全文はhttps://en.wikipedia.org/wiki/Fujifilm_X-T2 にて確認できる。
図 5 指示文数ごとの平均長.
度・計算量の面でバランスが良いと言える。
指示によって生成結果は変化するか? 表 2 に示す様に,指示を入力せずに InstructSum で訓練・評価した場合,性能が下落した. 次に,図 4 に生成例を示す. 要約の制御を学習する Instruction Tuning により,提案手法は指示の内容に従う要約を生成出来ている. さらに,図 5 ・図 6 に I の指示文数ごとに評価した結果を示す. 提案手法は,正解要約の長さに合わせて生成要約の長さも変化している. 自動評価值は短い指示・正解要約に対して性能が高い. 特に precision のみで計算する BLEU-4 で短い正解要約に対して性能が高いことから,指示に対して簡潔に要約を生成していると言える。指示を入力しない場合はソーステキストのみに依存するため,平均的な長
図 6 指示文数ごとの自動評価值.
さの出力を学習してしまう.
## 5 関連研究
クエリ依存要約本研究と最も関わりの深いタスクである $[12,13,14,15,16,17]$. しかし, 1 つの指示 (タスク,クエリ)に複数のソース・ターゲットテキストのペアがあり,さらに複数タスクの学習ができるという点で本研究は新しく,指示による要約の制御の研究に適している.
要約の生成制御自然言語の指示・クエリ以外にもキーワード $[18,19]$ や長さ $[20,21,22]$ に関して要約の生成を制御する研究があるが,InstructSum は自然文で要約の内容や記載順序を指示できる点に新しさがある。一方で,長さは指示数で間接的に制御するのみであるため,今後の課題と言える。
Instruction Tuning Instruction Tuning のために多くのタスクを含むデータセットが提案されており $[2,23,24,25,26,27,28]$, それらでは要約データセットも用いられている。しかし,これらの研究では要約タスク自体への適合を学習する。InstructSum は要約の制御のための Instruction Tuning に取り組んだ初めての研究である.
## 6 おわりに
本研究では,要約における Instruction Tuning を実現するため,InstructSum の作成と内部表現保持モデルの提案を行った. 本研究の貢献を以下に示す.
本研究の独自性. InstructSum は,ターゲットテキストのクラスタリングと組み合わせることで要約における Instruction Tuning に初めて取り組んだ。
本研究の重要性. 指示による要約の制御の実現により, 自動要約の事業領域を広げることができる。 InstructSum 及び内部表現保持モデルは,この実現に資すると考える. Instruction Tuning は ChatGPT [29] にも利用されており,言語モデル研究における重要技術として注目されている. InstructSum は Instruction Tuning の高度化・評価に貢献できる。
## 参考文献
[1] Tom B Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020.
[2] Jason Wei, Maarten Bosma, Vincent Y Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M Dai, and Quoc V Le. Finetuned language models are zero-shot learners. arXiv preprint arXiv:2109.01652, 2021.
[3] Long Ouyang et al. Training language models to follow instructions with human feedback. In NeurIPS, 2022.
[4] Hyung Won Chung et al. Scaling instruction-finetuned language models. arXiv preprint arXiv:2210.11416, 2022.
[5] Peter J. Liu*, Mohammad Saleh*, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, and Noam Shazeer. Generating wikipedia by summarizing long sequences. In ICLR, 2018.
[6] Zeqiu Wu, Michel Galley, Chris Brockett, Yizhe Zhang, and Bill Dolan. Automatic document sketching: Generating drafts from analogous texts. In ACL-IJCNLP (Findings), pp. 2102-2113, 2021.
[7] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, 2004.
[8] Karl Moritz Hermann et al. Teaching machines to read and comprehend. In NIPS, p. 1693-1701, 2015.
[9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 5998-6008, 2017.
[10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, pp. $1-67,2020$.
[11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, pp. 311-318, 2002.
[12] Hoa Trang Dang. Overview of duc 2005. In document understanding conference, Vol. 2005, pp. 1-12, 2005.
[13] Hoa Trang Dang. DUC 2005: Evaluation of questionfocused summarization systems. In Task-Focused Summarization and Question Answering, pp. 48-55, 2006.
[14] Preksha Nema et al. Diversity driven attention model for query-based abstractive summarization. In ACL, pp. 10631072, 2017.
[15] Haichao Zhu, Li Dong, Furu Wei, Bing Qin, and Ting Liu. Transforming wikipedia into augmented data for queryfocused summarization. TASLP, Vol. 30, pp. 2357-2367, 2022.
[16] Sayali Kulkarni, Sheide Chammas, Wan Zhu, Fei Sha, and Eugene Ie. AQuaMuSe: Automatically generating datasets for query-based multi-document summarization. arXiv preprint arXiv:2010.12694, 2020.
[17] Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Ce- likyilmaz, Yang Liu, Xipeng Qiu, and Dragomir R. Radev. Qmsum: A new benchmark for query-based multi-domain meeting summarization. In NAACL-HLT, pp. 5905-5921, 2021.
[18] Itsumi Saito, Kyosuke Nishida, Kosuke Nishida, and Junji Tomita. Abstractive summarization with combination of pre-trained sequence-to-sequence and saliency models. arXiv preprint arXiv:2003.13028, 2020.
[19] Junxian He, Wojciech Kryscinski, Bryan McCann, Nazneen Fatema Rajani, and Caiming Xiong. Ctrlsum: Towards generic controllable text summarization. arXiv preprint arXiv:2012.04281, 2020.
[20] Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Controlling output length in neural encoder-decoders. In EMNLP, pp. 13281338, 2016.
[21] Itsumi Saito, Kyosuke Nishida, Kosuke Nishida, Atsushi Otsuka, Hisako Asano, Junji Tomita, Hiroyuki Shindo, and Yuji Matsumoto. Length-controllable abstractive summarization by guiding with summary prototype. arXiv preprint arXiv:2001.07331, 2020.
[22] Yizhu Liu, Qi Jia, and Kenny Q. Zhu. Length control in abstractive summarization by pretraining information selection. In ACL, pp. 6885-6895, 2022.
[23] Swaroop Mishra, Daniel Khashabi, Chitta Baral, and Hannaneh Hajishirzi. Cross-task generalization via natural language crowdsourcing instructions. arXiv preprint arXiv:2104.08773, 2021.
[24] Yizhong Wang et al. Super-naturalinstructions: Generalization via declarative instructions on $1600+$ tasks. In EMNLP, 2022.
[25] Victor Sanh et al. Multitask prompted training enables zero-shot task generalization. In ICLR, 2022.
[26] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned language models are zero-shot learners. In ICLR, 2022.
[27] Dan Hendrycks, Collin Burns, Steven Basart, Andy Zou, Mantas Mazeika, Dawn Song, and Jacob Steinhardt. Measuring massive multitask language understanding. In ICLR, 2021.
[28] Aarohi Srivastava et al. Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:2003.13028, 2022.
[29] OpenAI. Chatgpt: Optimizing language models for dialogue, 2022. https://openai . com/blog/chatgpt/.
[30] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
[31] Adam Paszke et al. Automatic differentiation in pytorch. In Autodiff, 2017.
[32] Thomas Wolf et al. Transformers: State-of-the-art natural language processing. In ACL: System Demonstrations, pp. 38-45, 2020.
## A InstructSum
## A. 1 データ収集
Wikipedia は CirrusSearch の 2021 年 10 月 11 日の dump データを用いた ${ }^{1)}$. CirrusSearch は Wikipedia をテキストに前処理したデータを提供しているため, 表から自動変換したテキストもソーステキストに含めることができる.
## A. 2 データ分布とデータスプリット
図 8 にソース・ターゲットテキストで作成したワードクラウドを示す. 地名違いや年度違いのタイトルの記事のクラスタが作成されやすいため,特に地理・政治・スポーツのデータ数が多くなっている。
図 7 ソーステキストのワードクラウド.
図 8 ターゲットテキストのワードクラウド.
データセットが含む Wikipedia ページについて, Cirrus Search が自動分類したカテゴリの分布を表 3 に示す. 1 つのページは複数のカテゴリに属する.本研究では未知の指示に従う能力を評価するため, Geography カテゴリをクラスタ内に含まない 104 クラスタを評価セットとした。残り796クラスタの表 3 Wikipedia 記事が属するカテゴリ/サブカテゴリのトップ 10.
うちランダムな 50 クラスタを開発セット,残りを訓練セットとした.
## B 実験
## B. 1 実装
実験には NVIDIA Quadro RTX 8000 (48GB) GPUs 4 枚を用いた。ハイパーパラメータを表 4 に示す. 訓練時は入力長をデフォルトの 512 として学習し,推論時に T5 の relative positional embedding $の$ 最大入力長を 1024 に変更した。最適化手法には Adam [30] を用いた。実装には PyTorch [31] と Transformers [32]を用いた。指示を入力しないときの入力は 'Summarize the following article. Title: $\{T i\}$ Article: $\{S\}$ 'とした.図 5 と図 6 の実験では,データ数確保のため,2.2 節の最後で行ったターゲットテキストが不連続な場合のデータ削除を評価データでは行わなかった。
1) https://dumps.wikimedia.org/other/cirrussearch/ | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H5-5.pdf | # 物語の時系列要約法
呉宗翰 天沼博 松澤和光
神奈川大学大学院 工学研究科
}
r202170128yf@jindai.jp amanuma@kanagawa-u.ac.jp matsuk90@jindai.jp
## 概要
本研究では、アニメで放送されたライトノベル作品に対して、時系列を考慮した小説自動要約を提案する。第 1 章では、コミックやアニメ、ライトノベルの問題点について述べる。第 2 章では、自動小説要約における既存研究について簡略的に述べる。第 3 章では、本研究で提案するシステムについて述べる。第 4 章、第 5 章では、第 3 章で提案したシステムについて評価、考察を行う。
## 1 研究目的
多くのライトノベルは、制作会社によってアニメ化、コミック化されている。そのため、原作を知らなくとも制作された分だけライトノベルの物語を知ることができる。しかし、放送を待てずに物語の続きを知りたい人がライトノベルを購入しようにも、続編が何巻に相当するのか、分かりづらい。また、 アニメ制作会社が続編を放送するのを期待しても長い月日がかかる。さらにコミックでは、打ち切りといったことも起き、続編が描かれない場合もある。
また、ライトノベルは基本的には時系列順に物語を進めていくが、作者が意図して時系列を順序不同にすることがある。『空の境界』の作者、奈須きのこ氏によると、時系列を順序不同にすることで、物語がミステリ的な内容になり、読者は物語を考察・整理する事で快楽を得られる[1]。しかし、パズルのような作品を読むのが苦手な人にとっては、読みづらく購入しづらい。そこで、ライトノベルを楽しみ易くするために、物語を時系列に並び直した情報を提示して物語を読む助けとする。さらに、物語の重要な事柄を抽出する事で、アニメや漫画の続きを読むためにライトノベルを購入する人の手助けになると考える。
## 2 既存研究
自動要約モデルは新聞や論文向けのものが多い [2][3][4]。小説の内容に焦点にあてて研究しているものの多くは、「走れメロス」や「羅生門」といった純文学が対象となっている。ライトノベルや推理小説等といった媅楽小説(大衆文学)の自動要約については、ごく少数の研究者が行っているだけである。
## 3 提案手法
システム全体のフローチャートは図 1 に示す。また、対象となる小説の物語文には、テキスト処理を行い「代名詞」を「固有名詞」に変換したものを使用する。
図 1 システムのフローチャート
## 3.1 品詞や単語の選別
ライトノベルには、情景や感情を表すために、「きれい」や「はあ」といった形容詞や感嘆詞の等の品詞を多く使われる。しかし、ライトノベルの内容の大まかに知る上で不必要な品詞であるため、省くことでライトノベルの文章量を減らす。また、ライトノベルには架空の人物や国等が登場するが、Mecab のシステム辞書では、それらの単語を未知語と表記され、単語に正しい品詞が生成されない。そのため、 ユーザー辞書を追加することで対応させる。
## 3.2 文の主節を抽出
小説には、登場人物の「感情」や「情景」を強く強調するために、「比喻」や「倒置法」「擬人法」 といった修辞法を使われている。修辞法を使用した文は、結論がぼやけてしまい、内容を解りづらくしてしまう。特に、ライトノベルは「倒置法」「比喻」 を使い、登場人物の魅力を上げているので、文章の内容をわかりやすくするために、文の主節を抜き出すのは必須だと考える。
今回は、山内長承氏が開発したシステム[5]を参考に、主語、動詞、目的語、情報句を抜き出す。情報句とは、「日時」や「場所」といった、文には影響しないが情報となる句のことである。この情報句を使い、3.5 節に示す時語検索を行う。
その他の主節は、主語、目的語、動詞の順に一つの文にする。その後、この文を使って類似文章検索、重要文抽出を行う。
## 3.3 類似文章を省く・要約する
機械学習ライブラリである「scikit-learn」を使い、文章に tf-idf 值をつける。ここで、scikit-learn で行う tf-idf の定義[6]は一般に知られている定義とは異なるので以下に示す。
$
\begin{aligned}
& t f_{t, d}=\text { 文書 } \mathrm{d} \text { 中の単語 } \mathrm{t} \text { の出現回数 } \\
& \mathrm{idf}_{\mathrm{t}}=\log \frac{1+\text { 総文書数 }}{1+\text { 単語 } \mathrm{t} \text { を含む文書数 }}+1
\end{aligned}
$
また、類似度はコサイン類似度で測定する。 ライトノベルでは、主に地の文と会話文で構成され、地の文と会話文で同じ内容を表現の仕方を変えて描かれていることが多い。そこで、似た内容の文章を以下のように省く。
まず 1 文目と 2 文目以降を比較し、 1 文目と類似性が高いと評価された文を省く。次に 2 文目と 3 文目以降を比較し、2 文目と類似性が高いと評価された文を省く。同様に、 3 文目以降もこの操作を行う。
## 3.4 重要文の抽出
重要度の高い文を抜き出すことで、アニメやコミックからその作品を知った人でもライトノベルを途中から読み始めることができる。ここで、重要度の高い文とは、主人公に降りかかる出来事や、主人公に間接的にかかわる出来事と仮定する。ライトノベ
ルでは、主人公に関係する出来事には、主人公や主人公に近しい人物の名前が現れる。それらを抽出する事で重要度の高い文を抽出できると考える。
重要度を測るためにテキスト自動要約ライブラリである「pysummarization」を使用する。要約ライブラリの制作者 Accel Brain 社によると、このライブラリは「LSTM をベースとした Sequence-to-Sequence の学習を実現するニューラルネットワーク言語モデルの基礎モデルを re-seq2seq の学習モデルや再構成モデルに応用することで、文書自動要約器を実装したもの」[7]と説明されている。
このライブラリで算出した重要度のうち、主人公や主人公に近しい人物の名前がある文の重要度を高くする。その後、重要度の高い文、 $10 \sim 12$ 個を出力する。
## 3.5 時語検索
時語データを作成する。作成方法は先行研究[8]を参考にする。奥村紀之氏は時間に関する情報を保持した時語データベースとして,時間帯単位,年月日単位,季節単位,人生単位の 4 種類に分類した。以下に, 奥村氏による 4 種の単位の定義と例を示す[8]。
- 時間帯単位時語
一日の中のある時間帯を表す時語
(例:朝,夜)
- 年月日単位時語
一年や一日単位の移り変わりを表す時語
(例:日,年,今日,再来月,火曜)
- 季節単位時語
一年の季節のどこかを表す時語
(例 : 春,夏,春分,七夕,海)
- 人生単位時語
人の一生のある期間を表す語句
(例:高校生,生年)
辞書作成にあたり奥村氏の方法は「時を関する語句をアンケート調査でサンプル収集」 $\rightarrow$ 「サンプルを 5 名の被験者が判定」 $\rightarrow$ 「時間関連の語句であると評価」したものを時語として採用する $[8]$ 。今回は時間の都合上、「辞書で時間に関する語句を収集」 $\rightarrow$ 「被験者 132 名で $15[\%]$ 以上が認めた時語」 $\rightarrow$ 「国語の高校教員 2 名に妥当と評価」したものを時語として採用したものを使用する。また、人生単位時語は評価しない。
## 3.6 時系列に並びなおす
3.2 節で抽出した情報句を日数と時語に分ける。時語は、「年月日」「時間帯」「季節」の 3 項目を判定させる。
まず初めに物語の始まりの文を「0 日」とおく。それ以降の文で「90日」や「『年月日』に関する時語」 があれば日数計算を行う。その後、日数の数が低い順に並べる。
その他の 2 項目では、「時間帯」は「朝」「昼」
「夕」「夜」を、「季節」は「春」「夏」「秋」「冬」 をそれぞれ順番に「1」「2」「3」「4」のラベルを付ける。その後、日数を基準に「時間帯」は 1 日ごとに、「季節」は 365 日ごとにラベルの数が低い順に並べる。
## 4 評価実験
今回提案した手法の結果を図 2 に示す。この結果をもとに 2 種類の評価実験を行う。
図 2 システムの出力結果
## 4. 1 正誤評価
アニメ 1 話ごとを理想的な出力結果と仮定し、出力結果と比べ正誤評価を行う。評価項目は、記述の精度、あらましの再現率、話のバランス、の 3 項目を行う。記述の精度は出力結果の記述が適当かを判定、あらましの再現率はアニメの何話を再現しているかを判定、話のバランスはアニメ全話で偏りがないか判定する。正誤結果の一部を表 1 にまとめた。正誤結果は記述の精度は 21.7[\%]、再現率は 52.2[\%] である。
表 1 アニメとの正誤判定の一部
また、出力された日時が適正かライトノベルと比べた結果、アニメの一期の最後と比べ、6 日のずれが生じた。図 3 にシステムと原作小説の経過日数の比較グラフをしるす。
図 3 原作小説とシステムの経過日数
## 4. 2 アンケート評価
アニメ視聴者にアンケートを行い、あらましを把握するのに役立つか、またアニメ何話なのか分かる出力になっているか評価してもらう。評価結果を図 4、図 5 にまとめた。
■役に立つ ■必要ない
図 4 あらましの把握
図 5 小説の話の推測
## 5 考察
今回、提案した手法により、アニメの続編にあたる話を原作小説から読むことが可能であることがわかる。このことは、アンケート評価から分析できる。
あらましの把握では、必要がないと回答した被験者が多かった。必要がないと回答した理由の多くが 「意味の分からない文が多い」と否定的であった。一方で、「あらましの把握には役に立たないが、日
数と文からある程度、想像できる」と肯定的な理由があった。
小説の話の推測では、「推測できる」と回答した被験者が多く、その理由が「日数と内容から推測できるが、自信をもっては答えられない」であった。
このことから、アニメ放送後の内容の続きから原作小説を読むことは可能と考える。ただし、あらましの把握で否定的な理由が「不可解な文」であることから、この手法は、記述の精度が不十分である。 このことは、正誤評価から考察される。前述した通り、誤評価では特に記述の精度が悪い。 その結果、あらましの再現率が低なり、話のバランスに偏りが出たと考えられる。その原因は二つ挙げられる。
1つ目は、「助詞」である。今回行った構文解析では、「述語」に対しての「助詞」の関係で、「主語」 と「目的語」を判別していた[5]。しかし、「主語」 や「目的語」につながる「助詞」の有無を判別しなかったことで、文章として不十分な文が出力された。
2 つ目は「要約方法」である。アニメは、製作費等によるが、3 ケ月を 1 クールで全 12 話を 1 話 25 分で放送し終了する。そして、小説によって、全 12 話で放送される小説の内容が 1 章から 2 章で構成される。しかし、制作会社は 1 話 25 分を全 12 話で原作小説の 1 章から 2 章に描かれている内容のすべてをアニメに反映することができない。そのため、不必要な内容を省略する場合がある。このことを考慮せずに原作小説の要約を行うと、アニメに描かれていない場面を、重要度の高い文として要約してしまう可能性がある。これを解決するには、入力した文章をそのまま出力される「抽出型」ではなく、入力した文章を元に新しい文を生成する「生成型」であるべきと考える。最後に時系列のずれを考察する。提案した手法は、小説の始まりの順に計算されている。しかし、原作小説は、同じ内容を「視点」や「場面」を変えて描く場合がある。
「視点」とは、話の中心人物である「主人公」に起きた出来事を主軸に描くが、主人公以外のキャラクターの魅力を引き出すために、別の人物の「視点」 で「主人公」に起きた出来事を描かれる。そのため、「主人公」に起きた出来事と別の人物の「視点」の 2 つ以上の「視点」に同じ内容を描かれる。しかし、今回の提案手法では「視点」について考慮しなかつたので、経過日数にずれが生じた。「場面」とは、話の中心となっている「舞台」や 「場所」のことである。仮に「A 国」「B 国」「C 国」 とあり、「B国」「C 国」から「A 国」に行くのにかかる経過日数が「B 国」の方が「C 国」と比べて 2 日早いと仮定する。このとき、今回提案した手法では、実際には違う「国」を同じ「国」と取り扱ったために、経過日数にずれが生じた。
## 6 今後の課題
5 章より、記述の精度と日数の計算方法が提案した手法の問題点である。
記述の精度は 4.1 節の結果で示した通り、記述の精度が $21.7[\%]$ と低い値となっている。また、 4.2 節で被験者から頂いた否定的な意見には「不可解な文が多い」「読みづらい」「内容がわからない」等々、文の記述に関する内容が多くみられた。
日数の計算方法は 4.1 節の図 3 により、提案した手法のシステムには、原作小説と比べて日数の経過が大きくなっている箇所があり、また変化していない箇所がある。これらの箇所は 5 章で述べた通り、「視点」や「場面」が変わった箇所であった。そのため、視点の変化や場面の変化を考慮する必要がある。
以上のことから、記述の精度と日数の計算方法については今後の課題である。
## 参考文献
[1]「とらだよ。vol.81」,とらのあな, 2007 年 10 月
[2] 安武凌, 野中健一, 岩井将行「LexRank を用いた小説文章からの自動要約手法の検討」
第 16 回 Webインテリジェンスとインタラクション研究会
https://www.jstage.jst.go.jp/article/wii/16/0/16_38/_pdf/char/ja(参照 2022/1/5)
[3] 下窪聖人「BERT で獲得する各場面の分散表現を用いたコサイン類似度に基づく小説の挿絵推」
法政大学学術機関リポジトリ
gradcis_16_19T0010 (2).pdf(参照 2022/1/5)
[4] 山本悠二, 増山繁, 酒井浩之「小説自動要約のための隣接文間の結束性判定手法」
言語処理学会年次大会発表論文集
https://www.anlp.jp/proceedings/annual_meeting/2006/p df_dir/C5-4.pdf(参照 2022/1/5)
[5] 東邦大学理学部情報科学科山内のサイト
「CaboCha による係り受け解析の利用〜文の主節の骨組を取り出す」
https://pepper.is.sci.toho-u.ac.jp/(参照 2022/6/23)
[6] scikit-learn"6.2.3.4.Tf-idfterm weighting"
6.2. Feature extraction - scikit-learn 1.2 .0 documentation (参照 2022/6/28)
[7] pysummarization $\cdot$ PyPI,
$\lceil$ Usecase: Summarization with Neural Network Language Model.」
pysummarization $\cdot$ PyPI(参照 2022/8/29)
[8] 奥村紀之, 瀧本洋喜, 「物語文章における時系列推定の拡張」
第 12 回情報科学技術フォーラム
F-010.pdf (ieice.org) (参照 2022/6/30) | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H6-1.pdf | # 観測した周囲の状況を曖昧な発話に統合した 対話ロボットによる気の利いた行動選択
田中翔平 ${ }^{1,2}$ 山崎康之介 1,2 湯口彰重 ${ }^{2,1}$ 河野誠也 ${ }^{2}$ 中村哲 1 吉野幸一郎 2,1
1 奈良先端科学技術大学院大学 2 理化学研究所ガーディアンロボットプロジェクト
\{tanaka.shohei.tj7, yamasaki.konosuke.yi5, s-nakamura\}@is.naist.jp
\{akishige.yuguchi, seiya.kawano, koichiro.yoshino\}@riken.jp
## 概要
人と協働する対話ロボットは,ユーザの要求が曖昧な場合でもユーザが必要とする行動を取ることが期待される。言い換えれば,対話ロボットはユーザ発話の内容のみでなく,ユーザの周囲の状況を正確に理解して気の利いた行動を選択する必要がある.本研究では,このように周囲の状況から得られるマルチモーダル情報を活用するロボットの行動選択モデルを構築した. また,モデルに入力するユーザ発話や周囲の状況を人手で書き起こした場合と自動認識した場合を比較した. 実験結果より, 気の利いた行動をとるために必要な周囲の状況を選択的に与えることで行動の選択精度が向上することがわかった. また, 周囲の状況に関して精度に限りがある自動認識結果を用いた場合でも,単純な事前学習モデルで抽出した特徵量を用いる場合よりは高精度で行動を選択できることが明らかになった。
## 1 はじめに
対話ロボット・システムが人と協働することを想定したこれまでの研究の多くは,ユーザの要求がロボットに対して明示される,あるいはシステムの問い返しによって要求が明確化されることを仮定していた $[1,2]$. しかし実際には,ユーザ自身が持つ要求が曖昧で,ユーザから明示的な要求を示すことができない場合も多い $[3,4]$. “曖昧”とはユーザが何らかの潜在的な要求を持っているにも関わらず,その要求の条件を明確に言語化できない状況にあることを意味する [5].こうした曖昧な要求に対して,気心の知れた人間同士であれば気を利かせて相手が必要としそうな補助を行動として起こすことができる. 例えば,人が起きたタイミングで水を持っていく,ため息をついたときに「どうしましたか?」な
どと聞くような行動を取ることができる。このように,人間と生活環境を共にする対話ロボットは,単に相手からの要求に応じて動作するだけではなく, ユーザ発話に紐づいた状況に応じて能動的に振る舞いを決定することが求められる。
こうした気の利いた行動をとることができるシステムを実現するため,これまでにユーザの曖昧な要求とユーザの周囲の状況を表す画像,およびロボットの気の利いた行動で構成されるコーパスを収集してきた [6]. このコーパスは,ユーザ発話のテキストやロボットの一人称視点を想定した画像というマルチモーダルな情報を統合的に活用し,ロボットがそのユーザの状況にあった行動 (気の利いた行動)を選択することを想定している。このデータで,入力をユーザの発話と周囲の状況,出力を気の利いた行動として教師ありで分類するベースラインモデルを構築した。このとき,特に状況についてシステムが正しく認識をできるよう,様々な説明的な特徴量のアノテーションを大力として利用した。これは例えば,ユーザ発話時点でのコーヒーテーブル上の物体,ユーザの把持物体,ユーザの姿勢などが含まれる. こうした特徴量をべースラインモデルの入力として利用した場合,大規模事前学習モデルを用いて抽出した特徴量のみを与える場合よりも気の利いた行動選択の精度が大きく向上することがわかった.
しかし,実際にロボットでこうした特徴量を利用する場合,状況に対する説明的な特徴量をいかに自動認識して利用できるかという問題が生じる. そこで本研究ではこれらの特徵量を自動認識した場合にどの程度の精度で気の利いた行動を選択できるか検証した。この検証には,一般に広く用いることができる音声認識, 物体認識, 姿勢推定などのモデルを利用した. 実験結果より,説明的な特徵量を自動認識した場合,アノテーションで与えた特徴量を使う
図 1 気の利いた行動の例: ロボットはバナナを持ってきている.
表 1 家庭内ロボットの行動カテゴリリストバナナを持ってくる,充電ケーブルを持ってくる, コップを持ってくる,ケチャップを持ってくる,宅
を持ってくる,テイッシュ箱を持ってくる, 充電ケーブルを片付ける,コップを片付ける,ケチャツプを片付ける,ミニカーを片付ける,ペットボトルを片付ける,リモコンを片付ける,スマホを片付ける,お菓子を片付ける,ティッシュ箱を片付ける, ゴミをゴミ箱に捨てる,缶切りを持ってくる,クッキングシートを持っでくる,グラスを持ってくる, おろし器を持ってくる,キッチンペーパーを持ってくる,レモンを持ってくる,オリーブオイルを持ってくる,じゃがいもを持ってくる,サランラップを持って’くる,水筒を持ってくる,缶切りを棚にしまう,クッキングシートを棚にしまう,グラスを棚にしまう,おろし器を棚にしまう,キッチンペーパー を棚にしまう,ペットボトルを泠蔵庫にしまう, サランラップを棚にしまう,タッパーをレンジに入れる,タッパーを冷蔵庫にしまう,水筒を棚にしまう
場合よりも行動選択の精度が大幅に低下するものの,事前学習モデルを用いて抽出した特徴量のみを用いる場合と比較して高い精度が実現されることがわかった。
## 2 タスク設定とコーパス
本研究で取り組む課題は,一般的なリビングやキッチンにおいてロボットがユーザの家事を手伝うという状況を想定したものである。 ユーザは要求が曖昧な発話や独話を行い,ロボットはユーザ発話とユーザ発話が行われた状況を見ながら気の利いた行動をとる状況を想定する. 図 1 にユーザとロボットのインタラクションの例を示す.ここでユーザの 「朝食が食べたい」という発話は,必ずしも特定の機能に対する要求として言語化されているわけではない. これに対して,ロボットはユーザ発話と机の上に“バナナ”があるなどの状況を勘案しつつ「バナナを持ってくる」という気の利いた行動を選択し,実際にバナナをユーザのもとに持ってくる.
こうした状況を想定して,ユーザの曖昧な発話, その発話が行われた状況を表すロボットの一人称視点を想定した画像,それに対応したロボットの気の利いた行動の三つ組で定義されたコーパスを収集した [6]. このコーパスにおいて,ユーザの曖昧な発話が入力されたとき,ロボットはその発話状況と発話内容の情報を活用し,あらかじめ定義された行動カテゴリの中から気が利いているとみなせるような行動カテゴリを出力する。 あらかじめ定義された全 40 種類の行動カテゴリのリストを表 1 に示す. 具体的には,どのような状況でロボットがこの行動をとったら気が利いていると思うかをクラウドワーカーに尋ね,ユーザの先行発話および室内の状況を入力してもらうことで状況-行動ぺアを収集した [4].
また,室内で家事を補助するロボットがユーザの曖昧な要求を受けたときに,発話内容のみからでは適切な気の利いた行動を選択することが難しい場合が存在する.例えば「あれ?もう一個足りない」という発話はユーザがグラスとお酒を持っている状況で,もう一つグラスが欲しいという状況における発話である.このとき発話内容のみから適切な行動である「グラスを持ってくる」を選択することは困難であるが,「ユーザがグラスを手に持っている」という画像中の情報を参照することで紐づけが可能となる。
また,ある環境でのロボットの一人称視点を想定したデータを用いることを想定したとき,大量のデータを用意することは難しい。 そこで,画像から得られる様々な抽象化レべルの情報を効率よく利用するため,状況を説明するようなラベル (説明的な特徴量) の付与を人手で行った. この際, 動画から最後のフレームの画像を代表画像としてクリップし,代表画像における物体や人物姿勢などのラベルを付与した。
収集されたユーザ発話および発話に紐付けられた画像,画像から得られる説明的な特徴量の例を図 2 に示す.Uttr はユーザ発話を意味し,action は対応する気の利いたロボットの行動を意味する. Viewpoint は画像を撮影したカメラの視点番号を意味し, 計 3 種類である. Position はソファやキッチンなど,ユーザが室内のどこにいるかを表す特徵量である. Pose は座っている,立っているといったユーザの姿勢を表す特徴量である.Has はユーザが持っている物体を表す特徴量である. Coffee table はコーヒーテーブル上に置かれた物体を表す特徴量である. Dining table はダイニングテーブル上に置か
図 2 コーパスに含まれる対話例
図 3 ベースライン分類器における特徴量の入力
れた物体を表す特徴量である. Kitchen はキッチンに置かれた物体を表す特徴量である。これらの特徴量は人手で付与されているが,画像認識などで自動で抽出することを指向したデザインになっている. これまでに提示したデータの収集には多大なコストが掛かるため,本コーパスでは 400 件の事例が収録されている.
## 3 マルチモーダル情報を活用する気 の利いた行動の分類器
収集したデータを用い,曖昧なユーザ発話と状況から気の利いたロボット行動を推定するベースラインモデルを構築する. 図 3 にベースライン分類器の概要を示す. 分類器は入力された状況に対して, その状況で気が利いているとみなすことができるロボットの正解行動を 40 クラスから選択する. 各特徵量の具体的な処理及び正解カテゴリの予測については次の通りである。まずユーザ発話 (uttr) は事前学習モデルである RoBERTa [7] に入力し, RoBERTa が出力した [CLS] ベクトルを特徴量ベクトルとする. また画像から抽出された特徴量である position, has, coffee table, dining table, kitchen はテキストであるため,これも [SEP]トークンで結合してそれぞれ RoBERTa へ入力し [CLS] ベクトルを特徴量ベクトルとする. Viewpoint については各 viewpoint に対応
する一次元ベクトルを embedding 層より取得する. これらの特徴量は画像から得られる説明的な特徴量 (description) である.これ以外にも,一般に用いられる画像の事前学習モデルを利用した特徵量として,画像 (image) を EfficientNet-B0 [8] に入力してべクトル化する.出力層においては,これらの手続きによって得られた特徴量べクトルをすべて結合し, 1 層の Multi Layer Perceptron (MLP)へと入力して各カテゴリに対応する確率值を算出する.
## 4 実験
行動選択のために状況に対する説明的な特徵量を用いる場合,実際にその特徵量が認識可能かという問題が生じる。そこで本節ではこれらの特徴量が人手で与えられた場合と自動認識の結果として与えられた場合の性能変化を調査する。ユーザ発話の音声認識は Google Speech-to-Text API ${ }^{1 } \text { を用いた. }$ また説明的な特徴量の認識には EfficientNet+MLPを用いた. 説明的な特徴量の全クラスは既知のクラスであると設定し学習を行った。特徴量認識の性能を表 2 に示す. Viewpoint はロボット自身の現在位置から一意に定まる値であるため推測していない.また has はそもそも含まれているインタラクションの数が少数であり学習が不可能であったため表 2 には含まれていない. 音声認識の評価には word error rate (WER), match error rate (MER), word information lost (WIL) [9]を用いた。音声認識の精度は中程度であるが,これはロボットがユーザから $2 \mathrm{~m}$ ほど離れた距離で音声認識を行う状況を想定した結果であることに注意されたい。説明的な特徴量についてはどれも高い精度で認識できており,特に position, pose については 100\%に近い精度で認識できている。これはユーザの位置,ポーズはそれぞれ 3 種類と非常に限られているからだと考えられる.図 5 に coffee table, dining table, kitchen に含まれる各オブジェクトについて,データセット中における出現回数と認識されなかった割合 (認識失敗率) の散布
(a)
(b)
図 4 気の利いた行動の選択に重要なオブジェクトが認識されなかったインタラクションの例
図 5 オブジェクトの出現回数と認識失敗率の散布図. 相関係数は -0.93 .
図を示す. 相関係数は -0.93 であり,オブジェクトの出現回数と認識されなかった割合には強い負の相関があることがわかる.
これらの自動認識した特徴量を用いるモデルの性能を表 3 に示す. 評価指標として, Accuracy (Acc.), Recall@5 (R@5), Mean Reciprocal Rank (MRR) [4] を用いた.Uttr は図 3 におけるユーザ発話のみをモデルへの入力とした場合を,uttr+img は発話に加え EfficientNet で作成した画像特徴を入力とした場合を,uttr+img+desc は uttr+img に加え画像から得られる説明的な特徴量 (description)を人手で与えた場合を意味する。“ (hat)” はユーザ発話または説明的な特徴量について自動認識に置き換えた場合を意味する. Has については自動認識器が学習できなかったため, どの場合も emptyとしてモデルへと与えた. 自動認識結果を用いる場合,どの場合についても uttr+img+desc と比較して大きく性能が低下している. Uttr+img+desc では正しい気の利いた行動を選択できているが,uttr+img+desc^では分類に重要なオブジェクトの認識を誤っておりかつ誤った行動を選択している例を図 4 に示す. どちらの例においても,気の利いた行動に関連したオブジェクトであるリモコンやゴミが認識できていない。これらのオブジェクトはデータセット中における出現回数が低いオブジェクトであった. 図 4 の例のように uttr+img+desc^が動作の対象となるオブジェクトを認識できておらず,行動選択も誤ったケースは全誤り中 $67.54 \%$ であった.
また $u t t r^{\wedge}+i m g+d e s c^{\wedge}$ と uttr^または $u t t r^{\wedge}+i m g$ との性能を比較した場合,R@5, MRRについては有意に性能が向上しているものの, accuracy は変化し表 2 自動特徴量認識の結果
表 3 自動認識した特徴量による分類結果. 対応のある $\mathrm{T}$検定で有意差を検定した。†やは $p<0.01$ を,†は $p<0.05$ を意味する。
ていないことがわかった. しかしuttr+img+desc^と uttr+img との性能を比較した場合,どの指標についても有意に性能が向上しており,説明的な特徴量のみを自動認識した場合は行動選択の精度が向上することが判明した。
## 5 おわりに
本研究では,ユーザの要求発話が曖昧である場合に周囲の状況を理解しつつロボットの気の利いた行動を選択する分類モデルを構築し,様々な特徵量の与え方について比較評価を行った. 具体的にはユー ザ発話および周囲の状況を自動で認識した結果を与えた場合の分類性能を評価した. その結果,自動認識結果であっても周囲の状況に関する説明的特徴量を与えることは気の利いた行動の識別に効果的であり,事前学習モデルを単純に用いる場合よりも性能が向上することが示唆された. 今後は周囲の状況を認識するモデルの精度を向上させ,実際のロボット上で動作する行動選択モデルとして実装する。
## 謝辞
本研究は理研の大学院生リサーチ・アソシエイト制度の下での成果である. 本研究の一部は科研費 (22H03654)の支援を受けた。
## 参考文献
[1] Ryan Blake Jackson and Tom Williams. Enabling morally sensitive robotic clarification requests. J. Hum.-Robot Interact., Vol. 11, No. 2, mar 2022.
[2] Felix Gervits, Antonio Roque, Gordon Briggs, Matthias Scheutz, and Matthew Marge. How should agents ask questions for situated learning? an annotated dialogue corpus. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 353-359, Singapore and Online, July 2021. Association for Computational Linguistics.
[3] Koichiro Yoshino, Yu Suzuki, and Satoshi Nakamura. Information navigation system with discovering user interests. In Proceedings of the 18th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 356-359, Saarbrücken, Germany, August 2017. Association for Computational Linguistics.
[4] Shohei Tanaka, Koichiro Yoshino, Katsuhito Sudoh, and Satoshi Nakamura. ARTA: Collection and classification of ambiguous requests and thoughtful actions. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 77-88, Singapore and Online, July 2021. Association for Computational Linguistics.
[5] Robert S. Taylor. The process of asking questions. American Documentation, pp. 391-396, 1962.
[6] 田中翔平, 湯口彰重, 河野誠也, 中村哲, 吉野幸一郎.気の利いた家庭内ロボット開発のための曖昧なユー ザ要求と周囲の状況の収集. 情報処理学会第 253 回自然言語処理研究会 (SIGNL), 2022.
[7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. In $\operatorname{arXiv}, 2019$.
[8] Mingxing Tan and Quoc Le. EfficientNet: Rethinking model scaling for convolutional neural networks. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings of the 36th International Conference on Machine Learning, Vol. 97 of Proceedings of Machine Learning Research, pp. 6105-6114. PMLR, 09-15 Jun 2019.
[9] Andrew Morris, Viktoria Maier, and Phil Green. From wer and ril to mer and wil: improved evaluation measures for connected speech recognition. 102004.
[10] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. PyTorch: An Imperative Style, High-Performance Deep Learning Library. In $\mathrm{H}$. Wallach, $\mathrm{H}$. Larochelle, A. Beygelzimer,
F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems 32, pp. 80248035. Curran Associates, Inc., 2019.
[11] Daisuke Kawahara. Kawahara Lab. RoBERTa . 2021.
[12] Hakan Cevikalp, Burak Benligiray, and Omer Nezih Gerek. Semi-supervised robust deep neural networks for multi-label image classification. Pattern Recognition, Vol. 100, p. 107164, 2020.
[13] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015.
## 付録
## 実験設定
モデルの実装には PyTorch [10], 日本語 Wikipedia および CC-100 で事前学習された RoBERTa [11]を用いた.また収集したロボットの一人称視点を想定した動画からクリップされた画像を事前学習された EfficientNet-B0 で特徵量ベクトルへと変換した.
RoBERTa および EfficientNet のパラメータもモデルの学習を通じてファインチューニングした. モデルの学習には hinge loss [12,4] を用い,パラメータの最適化には Adam [13] を使用し, 学習率は $1 \mathrm{e}-5$ とした.
## 評価指標
R@5 は分類モデルが出力した正解カテゴリの順位が上位 5 位以内に含まれている割合である。MRR $(0<M R R \leq 1)$ は次式の通り算出される.
$
M R R=\frac{1}{\left|U_{\text {test }}\right|} \sum_{i}^{\left|U_{\text {test }}\right|} \frac{1}{r_{x_{i}}}
$
ここで $r_{x_{i}}$ はユーザ発話 $x_{i}$ に対応する正解カテゴリについて分類モデルが出力した順位を意味し, $U_{\text {test }}$ はテストデータに含まれるユーザ発話の集合である. 全ての指標について,数値が大きいほど分類モデルの性能が高いことを意味する.各モデルの性能は五分割交差検証にて算出し,各分割データについて 10 回実験を試行した。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H6-2.pdf | # マルチエージェント強化学習に基づく 共同作業を自律的に行う対話システムの最適化
市川拓茉 東中竜一郎
名古屋大学大学院情報学研究科
\{ichikawa.takuma.w0@s.mail, higashinaka@i\}.nagoya-u.ac.jp
## 概要
対話で行われる複雑な共同作業では,各エージェントが自律的に行動することが望まれる.しかし,従来手法では,エージェントは相手の発話に応答するようにモデル化されており,自律性に限界がある. 本研究では,複雑な共同作業を自律的に行う対話エージェントの実現を目指し,マルチエージェン卜強化学習を用いた対話システムの学習手法を提案する。具体的には,相手の反応が得られなくても自律的に発話するための工夫として skip トークンを導入し,2体のエージェントに説得対話を実施させる. そして,相手が発話しない状況であっても,説得に最適な発話を行うように各エージェントを強化学習によって更新する。実験の結果,自然性や自律性に課題は残るものの, マルチエージェント強化学習によって,エージェントが自律的に説得的な発話が可能なことを確認した.
## 1 はじめに
近年,対話システムの普及に伴い $[1,2]$ ,より高度な対話システムの実現を目指して,人間と協調的にタスクを遂行する対話システムの研究が盛んである $[3,4,5]$. 対話で行われる複雑な共同作業では,各エージェントが自律的に行動することが望まれる。 しかし, 従来手法では, エージェントは相手の発話に応答するようにモデル化されており,自律性に限界がある $[6,7,8]$.
本研究では,複雑な共同作業を自律的に行う対話エージェントの実現を目指し,マルチエージェント強化学習を用いた対話システムの学習手法を提案する. 具体的には,相手の反応が得られなくても自律的に発話するための工夫として skip トークンを導入し, 2 体のエージェントに共同作業対話を実施させる. ここで,共同作業として,協調的に対話を行
図 1: 提案手法によって得られる対話例. 相手が発話しなくても(skipをしても)説得的な発話が可能.
うように再設計された説得対話を扱う.対話を実施させたのち,相手が発話しない状況であっても説得に最適な発話を行うように,各エージェントを強化学習によって更新する. 図 1 に提案手法により得られた対話例を示す. 実験の結果,自然性や自律性に課題は残るものの,マルチエージェント強化学習によって,エージェントが自律的に説得的な発話が可能なことを確認した。
## 2 関連研究
本研究は,共同作業における対話システムの研究と関連している. オンラインゲームである Minecraft において共同して建物を作成するシステム $[5,7]$ やユーザと一緒に物語・詩等を作成するシステム $[9,8]$等, 数多くの研究が存在する. しかし, これらの研究では,エージェントは相手の発話に応答するようにモデル化されており $[10,11]$, 自律的に発話することができない. 本研究では,行動しないことを示す skip トークンを導入し,自律的に発話を行うように各エージェントをマルチエージェント強化学習によって最適化する.
本研究は, 説得対話における強化学習の研究と関
図 2: マルチエージェント強化学習の流れ. 事前に定められた数の学習サンプルを生成したのち,対話に対する評価をもとに報酬を計算し,PPO アルゴリズムに基づいてエージェントを更新する。
連している. Shi ら [12] は,生成された発話について,予測された対話戦略をもとに報酬を与えて強化学習を行う手法を提案した. Samad ら [13] は, 発話に対する対話戦略および感情ラベルをもとに報酬を計算し,強化学習を行う手法を提案した.これらの研究は,タスク達成(説得の結果,被説得者が購入・寄付等を行うこと)の向上のために強化学習を用いているが,いずれも発話単位でのアノテーションをもとに報酬を計算している. 本研究は,対話全体に対する評価をもとに各発話の報酬を計算しており,アノテーションが不要という特徴がある.
## 3 提案手法
本研究では,複雑な共同作業を自律的に行う対話エージェントの実現を目指し,skip トークンの導入およびマルチエージェント強化学習を用いた学習手法を提案する.ここでは, skip トークンおよびマルチエージェント強化学習について述べる.
## 3.1 skip トークンの導入
従来手法では,エージェントは相手の発話に応答するようにモデル化されているため,相手の発話に依存した行動をとる必要があり, 自律性に限界がある. そこで,相手の反応が得られなくても自律的に発話するための工夫として,行動しないことを示す skip トークンを導入する。具体的には,ターン $t$ におけるエージェント $A_{i}$ の発話 $u_{t}^{i}$ を一文からなる発話文もしくは skip トークンと定義する。これにより,ターン制対話においても相手の発話が得られない状況を表現できる. 本手法では,模倣学習および強化学習によって, 各エージェントが相手の反応に依らずに行動できるよう最適化する.
## 3.2 マルチエージェント強化学習
skip トークンの導入により, エージェントは相手の反応が得られなくても発話できる. しかし, 模倣学習のみでは, エージェントは対話履歴の次に続く可能性が高い発話を行うだけであり,説得に最適な発話を行うためには必ずしも十分でない. そこで,本研究では,相手が発話しないような状況であっても,エージェントが説得に最適な発話を行うようにマルチエージェント強化学習による最適化を行う.図 2 に本研究で提案するマルチエージェント強化学習の流れを示す. 以降,具体的な流れを説明する。
## 3.2.1 学習サンプルの生成
2 体のエージェント $A_{i}$ および $A_{j}$ が交互に発話を行い,対話 $D=\left.\{u_{1}^{i}, u_{2}^{j}, u_{3}^{i}, u_{4}^{j}, \ldots, u_{T-1}^{i}, u_{T}^{j}\right.\}$ を得る. ここで, $u_{t}^{i}$ はターン $t$ における $A_{i}$ の発話であり,$T$ は対話の最大ターン数である. 各エージェントは言語モデル $p_{\theta_{i}}^{i}$ および $p_{\theta_{j}}^{j}$ で構成される。 $p_{\theta}$ は対話履歴 $C_{t-1}=\left.\{u_{1}^{i}, u_{2}^{j}, u_{3}^{i}, u_{4}^{j}, \ldots, u_{t-2}^{i}, u_{t-1}^{j}\right.\}$ を入力として次発話 $u_{t}$ を生成する。ここで, $u_{t}$ は一文からなる発話文もしくは skip トークンである。なお, $\theta$ は最尤推定によって模倣学習したものを使用する.
## 3.2.2 発話の評価
生成されたサンプル $\left(C_{t-1}, u_{t}\right)$ に対するスコア $r_{t}$ は自然性 $r_{1}$, 沉長性 $r_{2}$, タスク達成 $r_{3}$ の線形和として計算される.
エージェントが相手の発話に対して自然に応答できるように自然性を報酬に加える。自然性は次発話予測モデルによって判断され,与えられた対話履歴 $C_{t-1}$ に対して次発話 $u_{t}$ が自然である場合は $r_{1}=1$,自然でない場合は $r_{1}=-1$ のスコアが与えられる.
相手が発話しない状況でエージェントが同じ発話を繰り返さないように,壳長性のペナルティを報酬に加える. 冗長性は $C_{t-1}$ および $u_{t}$ をもとに, 単語の n-gram の重複に基づいて以下の式で定義される.
$
\operatorname{Rep}\left(C_{t-1}, u_{t}^{i}\right)=\max _{u_{\tau}^{i} \in C_{t-1}}\left(\frac{\operatorname{Ngram}\left(u_{\tau}^{i}\right) \cap \operatorname{Ngram}\left(u_{t}^{i}\right)}{\operatorname{Ngram}\left(u_{t}^{i}\right)}\right)
$
ここで, $\operatorname{Ngram}(u)$ は $u$ の n-gram の集合である.上記をもとに, $r_{2}$ は以下の式で計算される.
$
r_{2}=1-2 \operatorname{Rep}\left(C_{t-1}, u_{t}\right) \quad\left(-1 \leq r_{2} \leq 1\right)
$
複雑な共同作業を対象にした強化学習では, 重要な行動(説得対話では,他のユーザが寄付したかどうかの情報提供等)を知るために対話行為を定義しアノテーションを行うことがあるが,このようなアノテーションには専門性が必要でありコストが大きい. そのため, 共同作業全体の評価は可能であっても,個々の発話に対する評価が困難であることが多い,そこで,本研究では,対話に対する評価をもとに発話単位のスコアを計算する. タスク達成は対話分類モデルにより判断され, タスク達成の場合は $\hat{r_{3}}=1$, そうでない場合は $\hat{r_{3}}=-1$ のスコアが基準として与えられる. 発話単位のスコアは以下の式で定義される寄与率に基づいて計算される.
$
w_{t}^{i}=\operatorname{Prob}(D)-\operatorname{Prob}\left(D \backslash\left.\{u_{t}^{i}, u_{t+1}^{j}\right.\}\right)
$
ここで, $\operatorname{Prob}(D)$ は発話の集合である対話 $D$ を対話分類モデルによって分類した際の予測確率である. また, $r_{3}$ は以下の式で計算される.
$
r_{3}=\frac{w_{t}}{\max _{\tau \leq T}\left(\left|w_{\tau}\right|\right)} \hat{r}_{3} \quad\left(-1 \leq r_{3} \leq 1\right)
$
なお,スコアの安定化のため, 各対話における寄与率の絶対値の最大值で割ることで正規化する.
評価終了後, 学習サンプル $\left(C_{t-1}, u_{t}, r_{t}\right)$ を得る. ここで, $r_{t}$ は以下の式で定義される.
$
r_{t}=\alpha_{1} r_{1}+\alpha_{2} r_{2}+\alpha_{3} r_{3}
$
## 3.2.3 PPO による最適化
事前に定められた数(ホライゾンと呼ぶ)の学習サンプルを得たのち, 各エージェントを強化学習によって更新する. 強化学習アルゴリズムとしては,方策ベースの手法であり学習の安定性も高いという理由から, Proximal Policy Optimization (PPO) [14] を用いた. エージェントごとに得られた学習サンプルを使用し, 事前に決められたエポック数だけ PPO アルゴリズムに基づいて更新を行う.以上を 1 回の学習ループとし, 定められた回数だけ繰り返す。
## 4 実験
## 4.1 データセット
本研究では,説得対話のデータセットである PersuasionForGood [15] を用いて提案手法の有効性を検証した. PersuasionForGood は慈善団体への寄付を説得する説得者と被説得者との対話コーパスであり, 1,017 対話, 20,932 発話が含まれる.
PersuasionForGood で扱われている説得対話では,説得者が被説得者に寄付をするよう説得を行う. 本研究では, PersuasionForGoodを用いた一般的な研究と異なり $[12,13]$, 説得者と被説得者が互いの意図を持ちつつも協調的に対話を行うタスクとして再設計した. 具体的には,被説得者が寄付をすることを説得者,被説得者双方のタスク達成条件とした.
本研究では,相手の反応が得られなくても自律的に発話するための工夫として skip トークンを導入し,データセットを拡張している。 そのため, 複数文からなる発話は一文ごとに分解し, 話者が連続する箇所に skip トークンを挿入した.
## 4.2 実験設定
マルチエージェント強化学習において, 発話の評価に用いる次発話予測モデルおよび対話分類モデルには RoBERTa [16] を使用した. RoBERTa はテキストの分類タスク等に使用されるエンコーダモデルである。事前学習済みモデル1)を PersuasionForGood でそれぞれファインチューニングした. 学習時の各種ハイパーパラメータとしては,バッチサイズは 64, Optimizer は AdamW, 学習率は 2e-05 に設定した. 損失関数には Cross Entropy Loss を使用した。
エージェントには,言語モデルとして GPT-J [17] を使用した. GPT-J は大規模言語モデルである GPT-3 [18] のクローンとして開発・公開されているテキスト生成モデルである。事前学習済みモデル2) を skip トークンにより拡張された PersuasionForGood で模倣学習および強化学習した. 模倣学習時の各種ハイパーパラメータとしては,バッチサイズは 64 , Optimizer は AdamW,学習率は 2e-05 に設定した。損失関数には Cross Entropy Loss を使用した。
強化学習時の発話生成には Nucleus Sampling を使用し, 最大発話長は 36 , temperature は 1.0 , top-p は
図 3: 強化学習における報酬とタスク達成のスコアの推移. 実線は 3 回の試行の平均を表す.
1.0 とした. また,対話のターン数は 54 とした. 冗長性の算出には 1-gram を使用し,報酬計算時の重みはタスク達成(被説得者が寄付をすること)の向上を重視して $\left(\alpha_{1}, \alpha_{2}, \alpha_{3}\right)=(0.25,0.25,0.50)$ とした. PPO の各種ハイパーパラメータとしては, ホライゾンは 256 , エポック数は 4 , 学習ループの回数は 48 ,学習率は 1e-06 設定した. 公正な評価を行うため,異なる 3 種類のランダムシードで実験を行い,3 回の試行で報酬が最も高いモデルを評価に用いた。
## 4.3 学習結果
図 3 に強化学習における報酬とタスク達成のスコアの推移を示す. 説得者, 被説得者ともに, 学習が進むにつれて報酬が増加し, 最終的に高い值で収束した. このことから, 本手法によって個々のエー ジェントの報酬を同時に最大化できることが確認できた. タスク達成では,学習の初めは值が 0 付近に集まっており,模倣学習のみのモデルではタスク達成が不安定であることがわかる. 一方, 学習が進むにつれて值が大きくなり,最終的に高い值で収束した. このことから, マルチエージェント強化学習によって, エージェントが自律的に説得的な発話が可能なことを確認した。
## 4.4 人手評価
人手による評価を行うために,クラウドソーシングを用いた主観評価を実施した。具体的には,以下の2つのモデル,1)MLE:skipトークンにより拡張された PersuasionForGood で模倣学習したモデル,2) MARL:提案手法を用いて学習したモデル,が生成表 1: 生成された対話に対する主観評価結果(選ばれた割合)。太字は各項目における最高スコアを示す.
した対話について人手による主観評価を実施した。 2 つのパターンについてそれぞれ 20 種類の対話を生成し, MLE と MARL の対話のペアを計 120 ペア作成した,クラウドソーシング3)を用いて,計 40 人の作業者が評価を行った. 作業者は MLE と MARL の 2 つの対話を比較し,対話の自然性,話者の自律性,対話の説得性に関する質問それぞれについて, どちらの対話がより当てはまるか評価した.
表 1 に評価の結果(それぞれの対話が選ばれた割合)を示す. 説得性については MARL の方が值が大きいことから,マルチエージェント強化学習によって,エージェントが説得に最適な発話を行うことができることが確認できた。一方,自然性と自律性については MLE の方が值が大きいことから,本手法によって自然性や自律性を完全に担保できるわけではないことも分かった. 特に自然性については,強化学習時に報酬が増加したものの,報酬計算時に直前の発話のみを使用したことで長期的な自然性を考慮できなかったと考えられる。より適切な報酬設定は今後の課題である.
## 5 おわりに
本研究では,複雑な共同作業を自律的に行う対話エージェントの実現を目指し,skip トークンの導入およびマルチエージェント強化学習を用いた対話システムの学習手法を提案した. PersuasionForGoodで扱われる説得対話を対象にマルチエージェント強化学習を行った結果, 本手法によって個々のエージェントの報酬を同時に最大化できることを確認した。 また,実験の結果,自然性や自律性に課題は残るものの, マルチエージェント強化学習によってエー ジェントが自律的に説得に最適な発話が可能なことを確認した。
本研究では,話者の双方に役割がある共同作業に着目したが,今後は双方が等しい立場で行うような,より創造的な共同作業(キャッチコピーの作成 [19], Minecraft での建物の作成 [20] 等)に本手法を拡張したい.
3) https://www.mturk.com/
## 謝辞
本研究は科研費「モジュール連動に基づく対話システム基盤技術の構築」(課題番号 19H05692) の支援を受けた. また,本研究は名古屋大学のスーパーコンピュータ「不老」の一般利用を利用して実施した.
## 参考文献
[1] 東中竜一郎, 稲葉通将, 水上雅博. Python でつくる対話システム. オーム社, 2020.
[2] 中野幹生, 駒谷和範, 船越孝太郎, 中野有紀子, 奥村学 (監修). 対話システム(自然言語処理シリーズ). コロナ社, 2015.
[3] Charles Rich, Candace L. Sidner, and Neal Lesh. Collagen: Applying Collaborative Discourse Theory to HumanComputer Interaction. Al Magazine, Vol. 22, No. 4, p. 15, 2001.
[4] Raveesh Meena, Gabriel Skantze, and Joakim Gustafson. Data-driven models for timing feedback responses in a Map Task dialogue system. Computer Speech \& Language, Vol. 28, No. 4, pp. 903-922, 2014.
[5] Anjali Narayan-Chen, Prashant Jayannavar, and Julia Hockenmaier. Collaborative Dialogue in Minecraft. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5405-5415, 2019.
[6] Jin-Hwa Kim, Nikita Kitaev, Xinlei Chen, Marcus Rohrbach, Byoung-Tak Zhang, Yuandong Tian, Dhruv Batra, and Devi Parikh. CoDraw: Collaborative Drawing as a Testbed for Grounded Goal-driven Communication. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6495-6513, 2019.
[7] Prashant Jayannavar, Anjali Narayan-Chen, and Julia Hockenmaier. Learning to execute instructions in a Minecraft dialogue. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2589-2602, 2020.
[8] Tuhin Chakrabarty, Vishakh Padmakumar, and He He. Help me write a poem: Instruction Tuning as a Vehicle for Collaborative Poetry Writing. arXiv preprint arXiv:2210.13669, 2022.
[9] Andy Coenen, Luke Davis, Daphne Ippolito, Emily Reif, and Ann Yuan. Wordcraft: a Human-AI Collaborative Editor for Story Writing. arXiv preprint arXiv:2107.07430, 2021.
[10] He He, Anusha Balakrishnan, Mihail Eric, and Percy Liang. Learning Symmetric Collaborative Dialogue Agents with Dynamic Knowledge Graph Embeddings. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1766-1776, 2017.
[11] Daniel Fried, Justin Chiu, and Dan Klein. ReferenceCentric Models for Grounded Collaborative Dialogue. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2130-
2147, 2021.
[12] Weiyan Shi, Yu Li, Saurav Sahay, and Zhou Yu. Refine and Imitate: Reducing Repetition and Inconsistency in Persuasion Dialogues via Reinforcement Learning and Human Demonstration. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 34783492, 2021.
[13] Azlaan Mustafa Samad, Kshitij Mishra, Mauajama Firdaus, and Asif Ekbal. Empathetic Persuasion: Reinforcing Empathy and Persuasiveness in Dialogue Systems. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 844-856, 2022.
[14] John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, and Oleg Klimov. Proximal Policy Optimization Algorithms. arXiv preprint arXiv:1707.06347, 2017.
[15] Xuewei Wang, Weiyan Shi, Richard Kim, Yoojung Oh, Sijia Yang, Jingwen Zhang, and Zhou Yu. Persuasion for Good: Towards a Personalized Persuasive Dialogue System for Social Good. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5635-5649, 2019.
[16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019.
[17] Ben Wang and Aran Komatsuzaki. GPT-J-6B: A 6 Billion Parameter Autoregressive Language Model. https: //github.com/kingoflolz/mesh-transformer-jax, 2021.
[18] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Proceedings of the 34th Conference on Neural Information Processing Systems, pp. 1877-1901, 2020.
[19] 周旭琳, 市川拓茉, 東中竜一郎. キャッチコピー 共同作成タスクにおける対話の収集と分析.人工知能学会全国大会論文集第 36 回全国大会, pp. 2A6GS603-2A6GS603, 2022.
[20] 市川拓茉, 東中竜一郎. Minecraft での人間同士の共同作業における対話の分析. 言語処理学会第 28 回年次大会発表論文集, pp. 568-572, 2022. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H6-3.pdf | # 魅力的な対話応答生成のための複数教師による知識蒸留
Ritvik Choudhary 河原大輔
早稲田大学理工学術院
\{ritvik@fuji.,dkw@\}waseda.jp
## 概要
オープンドメイン対話応答生成は、未だに人間の精度には及ばないタスクの一つである。近年の生成モデルの発展にもかかわらず、モデルは知識を活用することができず、一般的で無味乾燥な応答が多くみられる。先行研究では、感情や知識ベースなどの外部文脈をモデルに付加することでこの問題に対処している。本論文では、対話応答生成にモデルのパラメータ内知識を利用した新たなアプローチを提案する。魅力的な対話応答を生成するための 2 つの能力を定義し、それぞれを持つ複数の教師モデルを構築する。教師モデルから関連する知識を蒸留することによって、より魅力的な対話応答生成が可能な生徒モデルを学習する。学習された生徒モデルの自動及び人手評価を行った結果、提案手法の有効性を確認した。
## 1 はじめに
人工知能が日常生活に普及するにつれ、単純な受け答えを超えた魅力的な対話ができる対話システムの実現が期待されている。オープンドメイン対話応答生成タスクは、そのような対話を生み出す可能性を秘めており、これまでにも多くの研究がなされている $[1,2]$ 。特に最近では、数千億パラメータに及ぶ超大規模言語モデル (LLM) の登場により、大きな進展がある [3]。しかし、LLM はサイズが大きく、 アクセスも制限されているため、さらなる学習やスケーラビリティに問題がある [4]。
そのため、本論文ではより広く使われている中規模モデル [5] に焦点を当てるが、これらのモデルは生成された応答において魅力的でないという問題がある [6]。根本的な原因の一つは、学習中にモデルが関連する知識を持たないことにあり、その結果、無味乾燥な応答が多くなってしまうことになる。
この問題に対処するため、先行研究ではペルソナ情報の追加 [7]、外部知識ベースの利用 [8]、また情報検索の応用 [9] が検討されている。これらの先行研究の多くは、生成モデルに知識を補うことで応答の品質を高めることに焦点を当てている。一方、モデルのパラメータ内知識を直接活用する手法の一つとして知識蒸留 [10] があり、対話生成にも適用されている [11]が多くない。本研究は、上記の対話応答生成の問題を解決するために、知識蒸留に基づく新たなアプローチを試みる。人間の学び方に倣い、魅力的な対話応答生成というタスクに必要な能力を複数の教師モデルに分割し、各教師のパラメータに保持されている関連知識を蒸留しながら、生徒モデルに応答生成を学習させることを目指す。
魅力的な対話応答を生成するには、以下の 2 つの能力が必要であると考える。(1) 会話能力 (conversational ability, 対話応答の発話に対する関連性)、(2) 情報提供能力 (informativeness, または知識性)。まず、それぞれの能力に対応する 2 つの教師モデルを学習する。次に、2つの教師モデルから知識蒸留を行い、応答生成のタスクにおいて生徒モデルを学習する。このアプローチにより、生徒モデルは、より魅力的な対話応答生成に必要な複数の能力を効果的に学習することができる。オープンドメインの対話データセットを用いた実験の結果、様々なベースラインを上回り、提案手法の有効性が示された。
## 2 関連研究
知識に基づく応答生成モデル自然言語生成において、知識に基づく seq2seq モデルの分野では様々な研究が行われている。近年の研究ではペルソナや共感情報を考慮する手法 [12] や、より適切で魅力的な応答を生成するために、知識に基づくオープンドメイン対話生成 [8]を発展させた手法もある。また、外部の知識ベースを照会し、応答を生成するように情報検索とテキスト生成を統合したアプローチもある [13]。外部知識べースを取り込むことを意図した
Expert distillation loss $L_{\mathrm{Ex}}$
Dialogue task-specific loss $L_{\mathrm{NLL}}$
図 1 提案手法の概要
既存の研究 [8] とは異なり、本研究はモデルのパラメータ内に蓄積された知識を利用することに焦点を置く。この点に関する先行研究には、言語モデルの内部知識の更新に注目しているもの [14] はあるが、提案手法は対話応答生成のタスクに内部知識を利用することを目的としている。
知識蒸留と対話応答生成知識蒸留 (Knowledge Distillation, KD) [10] は、当初コンピュータビジョンの分野で提案されたが [15]、最近では様々な言語処理タスクで利用されている [16]。しかし、対話応答生成における知識蒸留の利用は比較的少ない。近年では、知識蒸留を用いたデータ拡張 [11] の他、対話生成のためにカリキュラム学習と KDを組み合わせるアプローチ [17] が提案されている。本研究は、このアプローチ [17] と同様の分野ではあるが、より魅力的で情報量の多い応答を生成するために、複数の専門教師の学習と蒸留に焦点を当てている点が異なる。
## 3 提案手法
本節では、オープンドメインの対話応答生成において、複数の教師モデルから効果的に知識蒸留を行い、生徒モデルの生成結果の魅力度を向上させるための手法について述べる。まず、対話応答生成タスクを定式化し、次に提案手法を述べる。
## 3.1 対話応答生成
対話応答生成のタスクは、入力発話 $\mathbf{u}$ が与えられたときの応答 $\mathbf{r}=\left(r_{1}, r_{2}, \ldots, r_{m}\right)$ を予測する。入力発話 $\mathbf{u}$ が与えられたときに、モデルが確率 $p\left(r_{i} \mid r_{<i}, u ; \theta\right)$ に従って応答 $\mathbf{r}$ を生成できるように、 モデルのパラメータ $\theta$ を学習する。モデルパラメー タは次の損失関数、すなわち負対数尤度 (NLL) を最小化することで学習できる。
$
\mathscr{L}_{\mathrm{NLL}}(\theta)=-\sum_{i} \log p\left(r_{i} \mid \mathbf{r}_{<i}, \mathbf{u}\right)
$
## 3.2 複数教師による知識蒸留を用いた応答生成
本研究では、魅力的な応答生成に必要な 2 つの能力に着目する。会話能力と情報提供能力である。まず、オープンドメインと知識関連の対話データに対して、それぞれ $\operatorname{Ex}(\mathrm{D})$ と $\operatorname{Ex}(\mathrm{K})$ という 2 つのモデルを、3.1 節の NLL loss に従って学習する。これらのモデルは知識蒸留 (KD) を通して、生徒モデルの教師として機能する。図 1 に提案手法の概要を示す。
KD [10] は、ある教師と生徒モデルが与えられたとき、それらの出力確率分布間の Kullback-Leibler (KL) 距離を最小にすることによって、生徒の確率分布を教師に近づける手法である。生徒 $S$ と教師 $T$ の予測分布 ( $\mathbf{r}_{s}$ と $\mathbf{r}_{t}$ とする) に対して、KD は次の距離を最小化する。
$
\mathscr{L}(\mathrm{T})_{K D}=\mathrm{KL}\left(\mathbf{r}_{s} \| \mathbf{r}_{t}\right)
$
複数の教師モデルが存在する場合、生徒には各教師からの得る知識を最適化することが重要になる。 また、知識蒸留の先行研究 [18] では、生徒と教師モデルの出力確率分布の差が大きい場合、生徒モデルの学習に悪影響を及ぼすという、容量ギャップの問題が指摘されている。
そこで、カリキュラム学習やアクティブラーニングにおける生徒中心の学習方法 [19] にならい、学習中に教師モデルの蒸留信号を効果的に調整するための指標として、生徒による応答の難易度を考慮する。先行研究 [19] に従い、本研究では生成された応答に対する生徒モデルのエントロピー $H$ を難易度の指標とみなす。
$
H=-\sum_{i} p\left(r_{i} \mid \mathbf{r}_{<i}, \mathbf{u}\right) \log p\left(r_{i} \mid \mathbf{r}_{<i}, \mathbf{u}\right)
$
難易度を生徒モデルの自信としても考えることもできる。
上記の指標に基づき、バッチ内の応答を簡単なものから難しいものへと並び替え、各教師からの蒸留信号はその順序に従って分割する。例えば、難しい応答の場合、生徒 $S$ は学習しやすい教師の指導を受け、もう一方の教師から、より簡単な応答について指導を受けることになる。よって、教師モデルから蒸留信号の分割を以下のように定式化する。
$
\mathscr{L}_{\mathrm{Ex}}=\gamma \mathscr{L}(\operatorname{Ex}(\mathrm{D}))_{K D}+(1-\gamma) \mathscr{L}(\operatorname{Ex}(\mathrm{K}))_{K D}
$
ここで、 $\gamma$ は教師モデル間のバランスをとるためのパラメータとする。
式 (1)と (4)を組み合わせることで、生徒モデルの対話応答生成タスクで最適化すべき全体の損失関数 $\mathscr{L}$ を以下のように定義する。
$
\mathscr{L}=\mathscr{L}_{\mathrm{NLL}}+\lambda \mathscr{L}_{\mathrm{Ex}}
$
## 4 実験
本研究では、多様なオープンドメインの対話デー タセットを用いて提案手法を評価する。様々なべー スラインモデルの組み合わせと比較し、本研究のアプローチの有効性を確認する。
## 4.1 実験設定
本研究では様々なオープンドメインと知識的対話で fine-tuning された BART ベースの seq2seq モデルを教師と生徒モデルとして採用する。モデルの学習には Adam optimizer を用い、学習率 3e-5 のデフォルトパラメータで学習する。実装には Hugging Face ライブラリを使用する。
## 4.1.1教師モデル
3.2 節で述べたように,会話能力を表す $\operatorname{Ex}(\mathrm{D})$ と、情報提供能力を表す $\operatorname{Ex}(\mathrm{K})$ という 2 つの教師モデ
ルを学習する。Ex(D) はオープンドメインの対話データセットで学習した BART-large モデルであり、 $\operatorname{Ex}(\mathrm{K})$ は情報や知識が多い疑似対話データセットで学習した BART-base ${ }^{1)}$ モデルである。Ex(D) の単純な日常会話に比べ、 $\operatorname{Ex}(\mathrm{K})$ はより情報量の多い(多様な)データセットで学習される。そのため、知識の教師である $\operatorname{Ex}(\mathrm{K})$ は $\operatorname{Ex}(\mathrm{D})$ よりも難しいタスクを学習した教師であると想定される。すなわち、生徒にとって、 $\operatorname{Ex}(\mathrm{K})$ が $\operatorname{Ex}(\mathrm{D})$ よりも学習が困難な教師である。なお、提案手法では学習時、生徒による学習サンプルの難易度に基づいて教師を選択する。したがって、学習の過程では生徒にとって難易度の高いサンプルは、学習しやすい教師 $\operatorname{Ex}(\mathrm{D})$ の信号を受け、その逆も同様である。本研究では、 $\gamma=0.5$ に設定し、教師モデルは均等にバランスされている。
## 4.1.2 データセット
本研究では様々なオープンドメインの対話と知識に基づく対話データセットを用いて、教師と生徒モデルの fine-tuningを行う。
Open-domain dialogue datasets (ODD) 高品質な日常対話データセットとして DailyDialog [20] DailyDialog++ [21]、Cornell Movie-Dialogs Corpus [22] の 3 種類をマージして教師 Ex(D) と生徒モデルの学習に用いる。各モデルの学習サンプル数を 200,000 に固定する。
知識疑似対話データセット知識教師 $\operatorname{Ex}(\mathrm{K})$ の学習では、Wikipediaから抽出した擬似対話データセットである WikiDialog [23]を用いる。さらに、Reddit から抽出した対話データセット [13]を用いて別の教師 $\mathrm{Ex}\left(\mathrm{K}_{R}\right)$ を学習し、比較する。
なお、知識の対話データがより複雑であるため、教師モデルの学習サンプル数を 500,000 に設定する。
(\mathrm{K})$ について比較的安定した学習ができることから選択。
}
表 2 生成された応答の自動評価結果。ODD 4.1 .2 節の Open-Domain Dataset の集合である。
表 3 各評価観点において提案手法の勝率 (\%)
## 4.2 評価
提案手法の有効性を確認するため、ODD テストセットで生成された応答について自動評価と人手評価を行う。なお、教師モデルによって学習条件が異なるため、比較対象は同規模のベースラインに限定する。
ベースライン 4 つの異なるベースラインを学習し、比較する。まず、4.1.2 節で述べた ODD で直接学習したバニラ BART-base モデル (以下「バニラ」) は提案手法の同サイズの生徒モデルと直接比較する。次に、複数教師の効果を確認するため、どちらか一つの教師モデルのみで学習したベースライン (標準的な知識蒸留に相当、以下「Ex(D)-Distill」と 「Ex(K)-Distill」)を比較する。最後に、Wikipedia べー スのモデルを知識教師として使用する効果を測るため、Reddit ベース (4.1.2 節) の教師モデル Ex $\left(\mathrm{K}_{R}\right)$ を学習し、 $\operatorname{Ex}(\mathrm{K})$ と入れ替えた組み合わせ (「Multi $\left.\operatorname{Expert}\left(\mathrm{w} / \operatorname{Ex}\left(\mathrm{K}_{\mathrm{R}}\right)\right)\right.\lrcorner$ 以下、「ME-Ex $\left.\left.\left(\mathrm{K}_{\mathrm{R}}\right)\right.\lrcorner\right)$ を提案手法と比較する。
自動評価生成された応答に対して自動評価を行う。先行研究に従い, BLEU とパープレキシティ (PPL) [24] のスコアを算出する。
人手評価自動評価指標は、生成された対話応答の質とあまり相関がないことが先行研究で報告されている [25]。そこで、ACUTE-Eval の手法 [2] に従い、提案手法とベースラインモデルの応答をぺア
ごとに人手評価を行う。評価は、Amazon Mechanical Turk を介して 2 つの指標で行う。一つは会話能力 (Engagement) であり、その応答をした相手とさらに会話を継続したいかどうかを表す。もう一つは情報提供能力 (Informativeness) であり、その応答が知識に富んでいるかどうかを表す。評価者となるクラウドワーカーには、テストデータから無作為に選んだ 100 個の応答を上記の各指標に基づいて比較するように求める。各応答は 7 人の評価者による多数決で勝敗を決定し、提案手法の勝率を算出した。
## 4.3 結果
評価結果を表 2、表 3 にまとめる。BLEU では提案手法が各ベースラインを上回ることが確認された。さらに、提案手法の PPL も低い值となっている。なお、提案手法の PPL が最小値ではない原因は、生成された応答が多様であるためだと考えられる。しかし、前述したように、n-gram からなる指標は応答の品質を正確に表現していないことが示されている [25]。そのため、生成された応答の人手評価も実施した。人手評価では、提案手法によって全てのベースラインに対して双方の指標が改善した。さらに、単一教師 (通常の KD) のベースラインより提案手法が全体として勝率が高いため、会話能力と情報提供能力の双方がより魅力的な回答を生成する上で重要な役割を果たすことも示された。提案手法とベースラインによる生成応答の例を付録 A に示す。
## 5 おわりに
本論文では、モデルのパラメータに含まれる知識を学習、活用することで、より魅力的な対話応答生成のためのアプローチを提案した。具体的には、2 つの異なるドメインの対話について学習した複数の教師モデルから知識蒸留を行う手法を提案した。これにより、対象となる生徒モデルは両方の教師ドメインから学習することができ、自動評価と人手評価の双方で、より魅力的で情報量の多い対話応答生成ができることが確認された。
## 謝辞
本研究は LINE 株式会社との共同研究の助成を受けて行った。
## 参考文献
[1] Apoorv Kulshreshtha, Daniel De Freitas Adiwardana, David Richard So, Gaurav Nemade, Jamie Hall, Noah Fiedel, Quoc V. Le, Romal Thoppilan, Thang Luong, Yifeng Lu, and Zi Yang. Towards a human-like open-domain chatbot. In arXiv. 2020. abs/2001.09977.
[2] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an opendomain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online, April 2021. Association for Computational Linguistics.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[4] Conglong Li, Minjia Zhang, and Yuxiong He. The stabilityefficiency dilemma: Investigating sequence length warmup for training gpt models. In Advances in Neural Information Processing Systems, 2022.
[5] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[6] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[7] Peixiang Zhong, Chen Zhang, Hao Wang, Yong Liu, and Chunyan Miao. Towards persona-based empathetic conversational models. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 65566566, Online, November 2020. Association for Computational Linguistics.
[8] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledgepowered conversational agents. In International Conference on Learning Representations, 2019.
[9] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 3784-3803, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[10] Geoffrey Hinton, Oriol Vinyals, and Jeffrey Dean. Distilling the knowledge in a neural network. In NIPS Deep Learning and Representation Learning Workshop, 2015. abs/1503.02531.
[11] Rongsheng Zhang, Yinhe Zheng, Jianzhi Shao, Xiaoxi Mao, Yadong Xi, and Minlie Huang. Dialogue distillation: Opendomain dialogue augmentation using unpaired data. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3449-3460, Online, November 2020. Association for Computational Linguistics.
[12] Tatsuya Ide and Daisuke Kawahara. Multi-task learning of generation and classification for emotion-aware dialogue response generation. In Proceedings of the $\mathbf{2 0 2 1}$ Conference of the North American Chapter of the Association for Computational Lin- guistics: Student Research Workshop, pp. 119-125, Online, June 2021. Association for Computational Linguistics.
[13] Ritvik Choudhary and Daisuke Kawahara. Grounding in social media: An approach to building a chit-chat dialogue model. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Student Research Workshop, pp. 9-15, Hybrid: Seattle, Washington + Online, July 2022. Association for Computational Linguistics.
[14] Daliang Li, Ankit Singh Rawat, Manzil Zaheer, Xin Wang, Michal Lukasik, Andreas Veit, Felix Yu, and Sanjiv Kumar. Large language models with controllable working memory. arXiv preprint arXiv:2211.05110, 2022. abs/2211.05110.
[15] Yuang Liu, Wei Zhang, and Jun Wang. Adaptive multi-teacher multi-level knowledge distillation. Neurocomputing, Vol. 415 pp. 106-113, 2020 .
[16] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter. In 5th Workshop on Energy Efficient Machine Learning and Cognitive Computing @ NeurIPS 2019, 2019.
[17] Qingqing Zhu, Xiuying Chen, Pengfei Wu, JunFei Liu, and Dongyan Zhao. Combining curriculum learning and knowledge distillation for dialogue generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 12841295, 2021.
[18] Aref Jafari, Mehdi Rezagholizadeh, Pranav Sharma, and Ali Ghodsi. Annealing knowledge distillation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2493-2504, Online, April 2021. Association for Computational Linguistics.
[19] Burr Settles and Mark Craven. An analysis of active learning strategies for sequence labeling tasks. In proceedings of the 2008 conference on empirical methods in natural language processing, pp. 1070-1079, 2008.
[20] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multi-turn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing.
[21] Ananya B Sai, Akash Kumar Mohankumar, Siddhartha Arora, and Mitesh M Khapra. Improving dialog evaluation with a multireference adversarial dataset and large scale pretraining. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 810-827, 2020
[22] Cristian Danescu-Niculescu-Mizil and Lillian Lee. Chameleons in imagined conversations: A new approach to understanding coordination of linguistic style in dialogs. In Proceedings of the 2nd Workshop on Cognitive Modeling and Computational Linguistics, pp. 76-87, Portland, Oregon, USA, June 2011. Association for Computational Linguistics.
[23] Zhuyun Dai, Arun Tejasvi Chaganty, Vincent Y Zhao, Aida Amini, Qazi Mamunur Rashid, Mike Green, and Kelvin Guu. Dialog inpainting: Turning documents into dialogs. In International Conference on Machine Learning, pp. 4558-4586. PMLR, 2022.
[24] Gábor Melis, Chris Dyer, and Phil Blunsom. On the state of the art of evaluation in neural language models. In International Conference on Learning Representations, 2018.
[25] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics.
表 4 各モデルにおける応答生成の例
発話応答 $\left(\right.$ 提案手法) 応答 $\left(\operatorname{ME}-\operatorname{Ex}\left(\mathrm{K}_{\mathrm{R}}\right)\right) \quad$ 答 $($ バニラベースライン)
Removal Point? What're you It's Removal Point. That's I'm not talking about anything. I'm not talking I'm not talking talking about! where they put the boat. I'm talking
I know why you broke up with I know, but I cannot forgive I don't forgive you. I don't know what you are talkme in college. Can you forgive you. ing about. me?
Shes very striking, don't you No, I don't think so. Its prob- No. I don't know. I don't think so. think? Are these glasses ably just fashion.
a fashion where she comes
from?
## A 対話応答生成結果の例
主なベースラインと提案手法による発話に対する生成応答の例を表 4 に示す。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H6-4.pdf | # 自律移動型ロボットにおける 経験由来の情報量からの発話内容選択
吉原 大智 1,2 , 湯口 彰重 ${ }^{2,3}$, 河野誠也 ${ }^{2}$, 飯尾 尊優 4,2 , 吉野 幸一郎 2,3
1 筑波大学 ${ }^{2}$ 理化学研究所 GRP ${ }^{3}$ 奈良先端科学技術大学院大学 ${ }^{4}$ 同志社大学
s2120792@s.tsukuba.ac.jp, tiio@mail.doshisha.ac.jp
\{akishige.yuguchi, seiya.kawano, koichiro.yoshino\} [at] riken.jp
## 概要
ユーザとの共生空間で動作するロボットには、 ユーザから信頼され協調動作をスムーズに実行することが求められる。そのためには、ロボットがどのような外界観測を行いそこから何を記憶しどのような意図を生成したのかを、ユーザが理解できるように表出させることが重要である。外界観測結果や記憶・意図を表出させる有効な手段として、言語を用いたインタラクションがある。長期的なインタラクションを想定したとき、冗長なインタラクションを避けるため纪、何を言語化し伝えるかだけでなく、何を言語化せず伝えないかも重要である。本研究では、経験由来の情報量(エントロピー)をロボットが言語化する内容の選択に用いる。具体的には、 GPT由来の一般言語モデルとロボット自身の経験から学習した言語モデルの 2 種類を利用する。ロボットを使った案内タスクで被験者実験を行った結果、提案法がロボットの内部状態を必要十分に説明できることが示された。
## 1 はじめに
ロボットや人工知能技術の進展に伴い、人間の生活空間で自律的に動作するロボットが実現されようとしている。こうした自律型ロボットが人間の生活空間で動作しょうとする場合、ロボットの状態がどのようなものか、人間のユーザにとって明確である必要がある $[1,2]$ 。例えば、ロボットが何をでき何を記憶しているのかということをユーザが理解できなけ狄ば、ユーザは適切な命令をロボットにできず、協調作業などに支障が出る。言い換えれば、ロボットの内部状態が、ユーザにとって必要なタイミングで理解可能であることが重要である $[3,4]$ 。
しかし、ロボットは人間とは異なる動作原理で動作しており、人間であるユーザがロボットの意図や行動の理由を読み取ることはしばしば難しい $[5,6]$ 。言い換えれば、ユーザにとってロボットの行動予測は困難であり、ユーザにとってはいつ何をどのよう攺ボット要求してよいかわからないというユー ザビリティの問題が生じる。こうした不可視な内部状態の問題は、ロボットが得られる信頼性の問題にも繫がっている $[7,8,9,10]$ 。
この問題を解決する方法のひとつが、外界観測結果・記憶・意図といったロボットの内部状態をユーザに自然言語を用いて対話的に説明することである $[11,12,13,14,15,16,17,18]$ 。この考え方は、 Explainable AI (XAI) の考え方をロボット纪当てはめたもので、ユーザとの協調性を高めるための手法として注目されている $[4,6,13,19,20,21,22] 。$
しかし、ロボットの内部状態は観測結果・記憶・動作計画・バッテリー残量など種類が多く、実際にはどの情報を言語化(発話)し説明することがユー ザとの協調動作に有効かは明らかではない。無分別な言語化・説明はユーザビリティの低下に繋がるため、場面に応じた適切な量・内容の言語化が必要である [22, 23]。つまり、ロボットの内部状態のうち、何を言語化する・しないを決める基準を定め、説明することが重要である。
ロボットの内部状態を説明するとき、何を言語化するか決定する基準に関する研究では、ロボットの安全性に関する情報を重視することや [24]、ロボットのタスク遷移の要点を重視することが提案されている[21]。これらの研究は、主にユーザとロボットの初対面でのインタラクションを想定している。 しかしユーザの生活空間での活動するロボットは、 より長期的な観測・記憶を活用する必要がある場面も多い [25, 26]。また、ロボットの行動パターンがルーティンである場合、その報告は冗長となる一方
図 1 ロボットの内部状態とモジュール
で、行動パターンが何らかの理由でいつもと異なる場合はそれを報告する必要がある。つまり、生成した説明の必要十分性を担保するよう、ユーザの慣れや状況に応じて過不足なく説明を行うという視点が必要である [27]。
本研究では、過去のユーザとの対話をもとに口ボットが発話する対話戦略の下、発話内容をある基準によって削ることは説明の必要十分性の向上に有効なのかを検証する。ここで、この発話内容の選択に用いる基準のことを言語化基準と呼ぶ。この際、過去の記憶・経験と比較した場合の現在の観測の希少さを言語化基準として用いる。具体的には、過去の記憶・経験を利用した確率的言語モデルを構築し、この言語モデルに対する現在の観測事象のエントロピーを計測する「エントロピー基準」を用いる。このエントロピー基準によって説明の必要十分性が向上するか、ロボットを用いた被験者実験で評価・検証する。
## 2 タスク
本研究では、ロボットによる言語化の適切さを測るため、自律型ロボットにおいて案内タスクを設定し実験を行った。自律移動型ロボットはリビングを模した実験室内で案内タスクを行う。案内タスクとは、ユーザ役の実験者がある物体を探しており、ロボットにその物体を探していることを伝え、ロボットがその場所を教えるタスクである。ロボットは自身の観測と記憶からなる内部状態に基づいて物体がある場所を推定し、その物体がある地点まで案内する意図に基づき行動計画と発話計画を生成する。 このとき、ロボットは自身の認識結果と言語化規則 (詳細は付録の表 2)によってあらゆる認識結果を言語化する。この言語化内容のうち、何をユーザに対して発声し、また何を発声しないか決定するというのが本論文で取り組むタスクである。つまり図 1 で示すように、ロボットが持つ多様な観測結果が言語化された結果に対して、発声するかどうかを選択するフィルターを実装する。
## 3 情報量に基づく発話内容選択
本研究では、ロボットが生成した発話が、過去の記憶・経験と比較した場合にどの程度希少かに基づいて発話すべき内容を決定することを考える。このとき、確率的言語モデルにおけるエントロピー、あるいはパープレキシティ(ppl)の考え方を用いる。本章では各言語化候補(発話候補)に対してスコアを付与する方法について述べる。
## 3.1 言語モデルとパープレキシティ
今回用いるロボットは現在の観測や行動に対して言語化を行う規則を有するため、あらゆる内容がテキストとして保存される。このテキスト中に含まれる単語列 $s$ の同時生成確率を $P(s)$ とする。過去の観測結果の集合である $\delta$ から最尤推定、あるいは MAP 推定に基づいてモデルパラメータ $\theta$ を構築する。このパラメータを用いて現在言語化を行うか考慮している文 $s$ に対する尤度 $P(s ; \theta)$ を考える。このとき、この尤度が低いということは過去の観測集合 §からは遠い文、つまり希少性の高い文であるということが言える。逆に、この尤度が高い場合は希少性の低い文であり、ロボットからすると言語化する価値の低い可能性が高い文という仮説が成立する。
この尤度計算には計算機のまるめ誤差の問題から一般に負対数尤度を用いるため、文 $s$ に対する尤度、 つまりエントロピーおよびパープレキシティは以下の式で計算される。負の対数尤度なので数の大小は反転しており、エントロピーあるいはパープレキシティが高い方が希少性の高い文ということになる。
$
\begin{gathered}
H=-\log P(s ; \theta) \\
p p l=2^{H}
\end{gathered}
$
ここで $\theta$ の計算方法について 2 種類を試行する。一つ目は、ロボット自身の過去の経験のテキスト集合 $\delta$ から最尤推定によってパラメータを推定する方法である。もう一つは、Web 上に存在する大量テキストから学習された大規模言語モデル(一般言語モデル)が与えるパラメータを用いる場合である。前
者はロボット自身の経験上の希少性を用いることに相当し、後者は世の中一般の常識における希少性を利用することに相当する。
## 3.2 経験由来パープレキシティ
ロボットが過去に見聞きした内容の集合 $\delta$ に基づいて発声候補のパープレキシティを計算したものを以降では ppl_exp と記載する。ppl_exp は、2022 年 11 月 24 日時点でぶつくさ君の行った外界観測の結果から遡って物体認識 24,278 個、人物認識 917 個、音声認識 650 個、場所認識 385 個を規則に基づいて言語化した 407,535 文から学習した。これらの文を sentencepiece[28] でトークナイズし、fairseq[29] で言語モデル化した。
## 3.3 一般言語モデル由来パープレキシティ
一般言語モデルに基づいて発声候補のパープレキシティを計算したものを以降では ppl_GPT と記載する。一般言語モデル由来のパープレキシティの計算には、rinnna 社が公開している言語モデル rinna/japanese-gpt2-medium[30](以下 1 m_general と呼称) を利用した。経験由来パープレキシティと合わせて、 huggingface[31] により計算を行った。
## 3.4 パープレキシティの闇値
実際に各モデルからパープレキシティを計測したとして、発声する・しないの閾値をどう設定するかという問題がある。この閾值は、経験由来パープレキシティの計算に用いたデータ $\delta$ とは別の開発用データ (2022 年 11 月の物体認識 174,189 個、人物認識: 15,108 個、音声認識:40 個、場所認識:66 個) を利用して計算する。ここから言語化規則に基づいて作成された $1,323,448$ 文に付与可能な ppl_exp と ppl_GPTをそれぞれ計算し、その平均を閾値とした。
## 4 実験
実際に案内タスクでロボットに発話を行わせ、その様子をユーザに見せる被験者実験を行った。本節では比較に用いた条件、評価指標、結果について述べる。
## 4.1 比較条件
情報量基準に基づく発声候補の選択がユーザからの印象にどのような影響を与えるかについて検証する。今回は経験由来と一般言語モデル由来の 2 種類の手法が存在するため、以下の候補を比較条件とした。
・条件 1 : 全ての言語化を発声する
・条件 2: 全ての言語化を発声しない
・条件 3: ppl_exp が低いものを発声しない
・条件 4: ppl_GPT が低いものを発声しない
・条件 5: ppl_exp が高いものを発声しない
・条件 6: ppl_GPT が高いものを発声しない
・条件 7: 条件 3 かつ条件 4 のものを発声しない
- 条件 8 : 条件 3 または条件 4 のものを発声しない
ここで条件 5 は条件 3 の、条件 6 は条件 4 の反転条件である。また、条件 7,8 はそれぞれ条件 3,4 を組み合わせた and/or 条件である。
## 4.2 実験条件・評価指標
評価では、ロボットが実際に案内タスクを行っている様子を記録した動画を収録し、その動画をクラウドワーカーに見せることによって点数をつけてもらった。映像は 34 分程度となっている。なお、映像ではユーザは花瓶を探しているものとした。
評価項目としては、動画視聴の事前事後として以下の項目を付与してもらった。
事前アンケート
・ユーザの年齢・性別
・ロボット否定的態度尺度 (14 項目 5 尺度)[32]
## 事後アンケート
- 発話内容 (5 項目 5 尺度、 1 項目 7 尺度)
- 説明の適切性 (1 項目 5 尺度)
- 説明の必要十分性 (1 項目 7 尺度)
- 主体性 (1 項目 5 尺度)
-会話性 (1 項目 5 尺度)
- 説明の選択性 (1 項目 5 尺度)
- 説明内容の珍しさ (1 項目 5 尺度)
- $\operatorname{TAM}(20$ 項目 5 尺度)[33]
- 使用時の不安 (4 項目 5 尺度)
- 利用しようとする意向 (3 項目 5 尺度)
-ロボットの適応能力の知覚 (3 項目 5 尺度)
- 使いやすさの知覚 (5 項目 5 尺度)
- 有効性の知覚 (3 項目 5 尺度)
- 技術の信頼性 (2 項目 5 尺度)
$\cdot$自由記述
5 尺度の項目は 5 が最高、 1 が最低である。「説明の必要十分性」のみ 7 段階になっており、 4 がもっと
表 1 実験結果。必要十分性については、目標值である 4 との差分も記載
も必要十分、 1 が最も説明が足りない、 7 が最も説明が冗長となる場合に対応することに注意されたい。
参加者は、2022 年 12 月にクラウドソーシングで、全条件を同じ参加者に視聴してもらい比較評価するのは難しいため, 各条件 20 名ずつ計 200 名 (女性 102 名、男性 98 名、 19 歳 65 歳、平均 $41.6 \pm 9.19$歳) を集めた (条件 1 : 平均 $42.7 \pm 11.0$ 歳、条件 2: 平均 $39.5 \pm 10.6$ 歳、条件 3 : 平均 $39.7 \pm 6.8$ 歳、条件 4 :平均 $41.2 \pm 11.5$ 歳、条件 $5:$ 平均 $39.6 \pm 8.2$ 歳、条件 6: 平均 $41.2 \pm 8.7$ 歳、条件 $7:$ 平均 $43.1 \pm 10.0$ 歳、条件 $8:$ 平均 $44.9 \pm 7.5$ 歳)。
## 4.3 結果
まず、事前アンケートの各項目について、各条件間でクラスカル・ウォリス検定を行ったところ差は見られなかった。実験に関わる各アンケートについての実験結果を表 1 に示す。表から、今回必要とする説明の必要十分性に関しては、発声内容のフィルタをしない場合(条件 1)と比較して、フィルタをする場合はいずれもスコアが向上する(4 に近づく) ことが確認された。特に ppl_GPTのみを使う場合 (条件 4)が最もロボット発話の必要十分性を向上させることがわかった。またこのうち、スコアの絶対値を比較した場合には条件 1 対条件 2、条件 1 対条件 4、条件 1 対条件 8 、条件 3 対条件 4 の組み合わせで、スティール・デュワス検定( $\mathrm{p}<0.05 )$ における有意差が確認された。この結果から、全ての観測内容について言語化を行うよりも、一般言語モデルを用いて発声内容をフィルタする方が、対話ロボットの説明に感じる必要十分性が向上することがわかった。これらの場合いずれも、スコアの絶対値で比較すると有意差があるものの、 4 との差分の絶対値で見た場合には有意差はない。また、提案法の逆転条件である条件 5、条件 6 のスコアは 4 から大きく離れ、提案法の有効性を示唆する結果となった。
その他の項目では、発声内容のフィルタをしない場合(条件 1)が説明の適切性、主体性、会話性の上で高いスコアを得た。これらの項目は、ロボットの説明に感じる必要十分性とトレードオフの関係があると考えられる。説明の選択性については ppl_exp のみを使う場合(条件 3)が高い評価を得たが、これはロボットが自身の経験に基づいて発声内容を選択した結果、ユーザからもそうした選択をしていることが強く感じられたのではないかと考えられる。
また、各 TAM 尺度についても比較評価を行った。全体の傾向としては、and 条件(条件 7)が高いスコアを得る結果となったが、信頼性においてはppl_exp (条件 3)が一番高いスコアを得た。発声内容のフィルタをしない場合(条件 1)と比較すると、いくつかの項目では同等のスコアを得ている中で、それ以外の項目ではフィルタをする条件の方がスコアが向上している場合が確認できる。また、使用時の不安においては何も発声しない場合 (条件2) や or 条件 (条件 8)が高いスコアを得ている。この結果から、必要以上に発声を抑制することはユーザにとっての不安に直結することが見てとれる。
## 5 おわりに
本研究は、長期的なロボットとのインタラクションを想定したときに必要となるであろう、ユーザにとって有益な内部状態のみを発話させるロボットの実現のために、発話選択を発話が持つ情報量に基づいて行う枠組みを提案した。結果として、一般言語モデル由来の情報量を用いることで、ロボットが発生する内容の必要十分性を向上させることができた。今後は、ロボット自身の経験などをどのように併用することが適当か検討する必要がある。また、特定ユーザを対象とした長期的なインタラクションを行う場合についても検討する。
## 謝辞
本研究は JSPS 科研費 22 H04873 の支援を受けた。
## 参考文献
[1] Nikhil Churamani, Sinan Kalkan, and Hatice Gunes. Continual learning for affective robotics: Why, what and how?
In Proc. RO-MAN, pp. 425-431, 2020.
[2] Alessandra Rossi et al. How social robots influence people' s trust in critical situations. In Proc. RO-MAN, pp. 1020-1025, 2020
[3] Xiaofeng Gao et al. Joint mind modeling for explanation generation in complex human-robot collaborative tasks. In Proc. RO-MAN, pp. 1119-1126, 2020.
[4] Francisco Cruz et al. Explainable robotic systems: Understanding goal-driven actions in a reinforcement learning scenario. Neur. Compu. and App., pp. 1-18, 2021.
[5] S. Marchesi et al. Don' t overthink: fast decision making combined with behavior variability perceived as more human-like. In Proc. RO-MAN, pp. 54-59, 2020.
[6] Maartje MA de Graaf, Bertram F Malle, Anca Dragan, and Tom Ziemke. Explainable robotic systems. In Proc. HRI, pp. 387-388, 2018.
[7] Wenxuan Mou, Martina Ruocco, Debora Zanatto, and Angelo Cangelosi. When would you trust a robot? a study on trust and theory of mind in human-robot interactions. In Proc. RO-MAN, pp. 956-962, 2020.
[8] Connor Esterwood and Lionel P. Robert. Do you still trust me? human-robot trust repair strategies. In Proc. ROMAN, pp. 183-188, 2021
[9] Ilenia Cucciniello et al. Validation of robot interactive behaviors through users emotional perception and their effects on trust. In Proc. RO-MAN, pp. 197-202, 2021.
[10] Glenda Hannibal, Astrid Weiss, and Vicky Charisi. "the robot may not notice my discomfort" - examining the experience of vulnerability for trust in human-robot interaction. In Proc. RO-MAN, pp. 704-711, 2021.
[11] Arianna Pipitone and Antonio Chella. What robots want? hearing the inner voice of a robot. iScience, Vol. 24, No. 4, 2021. DOI: 10.1016/j.isci.2021.102371.
[12] David Gunning, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf, and Guang-Zhong Yang. Xai- explainable artificial intelligence. Science Robotics, Vol. 4, No. 37, p. eaay7120, 2019.
[13] Rossitza Setchi, Maryam Banitalebi Dehkordi, and Juwairiya Siraj Khan. Explainable robotics in humanrobot interactions. Procedia Computer Science, Vol. 176, pp. 3057-3066, 2020
[14] Qingxiaoyang Zhu, Vittorio Perera, Mirko Wächter, Tamim Asfour, and Manuela Veloso. Autonomous narration of humanoid robot kitchen task experience. In Proc. Humanoids, pp. 15-17, 2017.
[15] Zhao Han, Elizabeth Phillips, and Holly A. Yanco. The need for verbal robot explanations and how people would like a robot to explain itself. ACM Trans. HRI, Vol. 10, No. 4, pp. 1-42, 2021.
[16] Marcella Cornia, Lorenzo Baraldi, and Rita Cucchiara. Smart: training shallow memory-aware transformers for robotic explainability. In Proc. ICRA, pp. 1128-1134. IEEE, 2020.
[17] Koichiro Yoshino et al. Caption generation of robot behaviors based on unsupervised learning of action segments. In Convers. Dialog. Sys. for the Next Decade, pp. 227241. Springer, 2021
[18] Pradip Pramanick, Chayan Sarkar, and Indrajit Bhattacharya. Your instruction may be crisp, but not clear to me! In Proc. RO-MAN, pp. 1-8, 2019
[19] Fatai Sado, C Kiong Loo, Matthias Kerzel, and Stefan Wermter. Explainable goal-driven agents and robotsa comprehensive review and new framework. arXiv preprint arXiv:2004.09705, Vol. 180, , 2020.
[20] Maria Fox, Derek Long, and Daniele Magazzeni. Explainable planning. arXiv preprint arXiv:1709.10256, 2017.
[21] Tatsuya Sakai, Kazuki Miyazawa, Takato Horii, and Takayuki Nagai. A framework of explanation generation toward reliable autonomous robots. Adv. Roboti., Vol. 35, No. 17, pp. 1054-1067, 2021.
[22]湯口彰重, 河野誠也, 石井カルロス寿憲, 吉野幸一郎,川西康友, 中村泰, 港隆史, 斉藤康己, 美濃導彦. ぶつくさ君: 自身の外界認識と内部状態を言語化するロボット. 日本ロボット学会誌, Vol. 40, No. 10, pp. 932-935, 2022.
[23] Aaquib Tabrez and Bradley Hayes. Improving humanrobot interaction through explainable reinforcement learning. In Proc. HRI, pp. 751-753. IEEE, 2019.
[24] Hooman Hedayati, Mark D. Gross, and Daniel Szafir. What information should a robot convey? In Proc. IROS, pp. 6209-6216, 2021 .
[25] Takayuki Kanda, Takayuki Hirano, Daniel Eaton, and Hiroshi Ishiguro. Interactive robots as social partners and peer tutors for children: A field trial. HRI, Vol. 19, No. 1-2, pp. 61-84, 2004.
[26] Iolanda Leite, Carlos Martinho, Andre Pereira, and Ana Paiva. As time goes by: Long-term evaluation of social presence in robotic companions. In Proc. RO-MAN, pp. 669-674. IEEE, 2009.
[27] Kazunori Komatani, Shinichi Ueno, Tatsuya Kawahara, and Hiroshi G Okuno. User modeling in spoken dialogue systems for flexible guidance generation. In Proc. EUROSPEECH, pp. 745-748, 2003.
[28] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018.
[29] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proc. NAACL-HLT, 2019
[30] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料 (SLUD), Vol. 93,pp. 169-170, 2021.
[31] Thomas Wolf et al. Transformers: State-of-the-art natural language processing. In Proc. EMNLP, pp. 38-45, Online, October 2020. Association for Computational Linguistics.
[32] Tatsuya Nomura et al. Measurement of negative attitudes toward robots. Interaction Studies, Vol. 7, No. 3, pp. 437-454, 2006.
[33] Marcel Heerink, Ben Kröse, Vanessa Evers, and Bob Wielinga. Assessing acceptance of assistive social agent technology by older adults: the almere model. Interna. jour. of soc. roboti., Vol. 2, No. 4, pp. 361-375, 2010.
[34] 川西康友, 吉野幸一郎, 岡留有哉, 中村泰, 石井カルロス寿憲, 港隆史, 斉藤康己, 美濃導彦. ぶつくさ君 2 号 : 自律移動ロボットによる生活環境の認識. 第 25 回画像の認識・理解シンポジウム (MIRU), 2022.
## 付録
## A 実験で使用したロボット
使用する自律移動型対話ロボットプラットフォー
外観を図 2 に示す。
ぶつくさ君は内部状態として観測・記憶、案内夕スクを実行するという意図を持ち、観測や記憶を意図で処理して移動や発話を行う。システム全体は Robot Operating System (ROS) で管理されており、各外界観測はそれぞれ個別の ROS ノードとして処理され、記憶は MongoDB を用いて管理されている。 ぶつくさ君は、物体認識、人物認識、環境認識、音声認識、場所認識の外界観測を行い、その認識結果をいつ、どこで行ったのかという、場所・時間の情報と紐づけて記憶することができる。また、動作機能として移動、モーション、音声の生成ができ、 あらかじめ設定された部屋の地図上の特定の場所に移動や、任意のセリフを発話することができる。ぶつくさ君が動作する部屋の間取り図を図 3 に示す。
図 2 ロボットプラットフォームぶつくさ君
## B 言語化規則
ロボットの発話は表 2 の規則によって生成される。デフォルトとして、内部状態は説明の十分性を担保するために多少冗長と感じられてもすべて話したほうが良いという先行研究 [22] の知見に基づき、挨拶、行動、行動の理由、音声 - 場所認識の報告、音声・場所認識の記憶の報告を発話するように設定した。シナリオのターンテーキングはユーザの発話
図 3 実験室の間取り図
に対し特定のトリガーワードをロボットが音声認識することによって進行する。
表 2 案内タスクでの言語化規則。[場所]、[物体]、[音声]、[時間] は認識結果。
\\
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H6-5.pdf | # 発話者分離学習を用いた対話モデルによる 小学校の授業発話の分析
大西朔永 ${ }^{1}$ 椎名広光 ${ }^{2}$ 保森智彦 3
1 岡山理科大学大学院総合情報研究科 2 岡山理科大学情報理工学部
3 岡山理科大学教育学部
i22ed08bf@ous.jp \{shiina,yasumori\}@ous.ac.jp
## 概要
小学校段階の授業では,教員の説明や促進,質問等の発話と児童の返答が多くあり,一種の対話がなされている。これらの対話から教員の発話の種類や児童の学びの状況を分析することで,学びに関する分類を教員へフィードバックすることが可能と考えられる。自然言語処理分野では,文脈を捉えることが比較的可能となっている BERT の他に,対話に適したモデルとして対話応答生成で用いられる VHRED やGVT が提案されている. GVT に対して,本研究では発話者ごとの特徴に加えて,対話処理の内部に反映させる前に対話を事前分類する手法(拡張 GVTSC)を提案し,授業の発話の分析を行う。
## 1 はじめに
日本の小学校の授業では, 教員は児童の状況を見ながら授業を進めており, 児童は学習状況や意見,感想を発話することが多くあり,対話をしながら授業は進むと考えられる. 教員と児童や児童間では,一種の対話が成り立っており, 授業の理解を促したり示したりする発話や対話を自動的に分析することができれば,教員に対して多くのフィードバックが可能となる. 省察のデジタル化を分析した研究 [1] やシステムによる発話の分析 [2] がある. 日本の教員は省察等の時間が 48 か国で最も短く [3], システムによる分析手法の開発は急務である.
一方,自然言語処理分野では,Transformer[4]を用いた文脈を考慮した言語処理が可能な BERT[5] が提案されている. 対話処理に適したモデルでは,翻訳において用いられる RNN[6] をべースにした Encoder-Decoder モデル [7] を対話応答生成へ応用した研究 [8] がある. 長い入力系列に対応するために階層構造を取り入れた HRED[9] が提案され,
CVAE[10] の手法を取り入れた VHRED[11]では,潜在変数を用いることで応答生成に多様性を与えている.また,対話向け CVAE に Transformer を導入したGVT[12] が提案されている. 我々は発話者ごとの特徴を考慮するために,発話を発話者ごとに分離して入力し,発話者ごとの潜在変数を用いるように拡張を行った抬張 GVT モデル [13] を提案している。
本研究では,事前にクラスタリングを用いて発話者の特徴を抽象化する拡張 GVTSC モデルを提案すると共に,小学校の授業の対話に対して,拡張 GVTSC モデルによる発話の分析を行っている. 具体的には,小学校の算数の授業を録画し,教員と児童の発話に対して文字起こしを行った対話形式のテキスト情報を分析している。分析には,あらかじめ授業中の発話に対して学びに関連する複数のラベルを人手で付与した後に,その発話と近い距離にある発話を提案する拡張 GVTSC を用いて抽出している。
## 2 発話者のクラスタリングを追加し た拡張 GVTSC モデル
対話応答生成には,様々な対話に対しての応答と成り得る無難な応答を生成するために,応答の多様性が低くなるという課題が存在する [14, 15]. GVT モデルは,Decoder の入力にサンプリングした潜在変数を利用する手法であるが,発話者の特徴を潜在変数で表現し, サンプリングを行うことで, 応答の多様性をもたらしていると考えられる。しかし,先行研究では潜在変数が生成された応答の一貫性を低下させる傾向があることが示されている [16]. そこで,発話者ごとの特徴を考慮するために,クラスタリングを用いて発話者の特徴を抽象化し, Encoder においてその発話者の特徴を加味することで,一貫性と多様性を向上させる. 本研究では,GVT モデル及び,話者の分離を行っている拡張GVT モデル
図 1 拡張 GVTSC モデルの構造
に対して,事前に発話者を分類するクラスタリングを追加した 2 種類のモデル(GVTSC,拡張 GVTSC) を提案し,評価を行っている。
拡張 GVTSC モデルの概要を図 1 に示す. 拡張 GVT モデルに対して,発話者の特徴べクトルをクラスタリングを用いて作成する部分(図 1 の点線部分)を追加し,コンテキストのエンコードにおいて利用している.
次に,拡張 GVTSC モデルの処理について述べる. 最初に,発話者の特徵べクトルをクラスタリングを用いて作成する、コンテキストは対話を行う 2 者の発話をまとめたものであり,各発話者ごとに分割することが可能である.そこで,対話のコンテキストを発話者ごとに分割し,発話者ごとに処理を行っている. 発話者ごとの処理は同様であるため,発話者 1 の場合を述べる. Speaker1 TRS Encoder で発話者 1 のコンテキストをエンコードする. TRS Encoder では,入力系列の先頭に CLS トー クンを付加しており, Transformerによって出力ベクトルが計算される。発話者 1 のコンテキストのベクトル(Speaker1 Vector)として,CLS トークンのべクトルを取得する. Speaker1 Vectorに対して,クラスタリングを行う. 本研究では, クラスタリングに k-Means を使用している. クラスタ数 $\mathrm{k}$ にいては, ハイパーパラメータ同様実験において決定する必要がある. クラスタリングの結果,Speaker1 Vector が属するクラスタを予測し,そのクラスタの中心ベクトル(Speaker1 Cluster Vector)を取得する. 発話者 2 に対しても,発話者 1 と同様の処理を行い, Speaker2 Cluster Vectorを取得する。ここで,クラスタリングに使用している TRS Encoder は, 応答生成で訓練している TRS Encoderを共有している.ただし,クラスタリングの処理では,誤差逆伝搬による訓練は行われない.対話のコンテキスト全体は, Context TRS Encoder に入力し, 出力ベクトルを得る. コンテキストのエンコードでは,入力系列に発話者ごとのトークン(SPK1, SPK2)を追加し, SPK1 に Speaker1 Cluster Vector,SPK2 に Speaker2 Cluster Vector を入力する. また,各発話者ごとにコンテキストを分割し,それぞれを各 Speaker TRS Encoder に入力し, 出力べクトルを得る。その際には, Speaker1 TRS Encoder には入力系列に発話者 1 のトークン(SPK1)を追加し, Speaker1 Cluster Vectorを入力し,Speaker2 TRS Encoderには入力系列に発話者 2 のトークン (SPK2) を追加し,Speaker2 Cluster Vector を入力する.発話者ごとのコンテキストのエンコードにおいて,各発話者の特徴べクトルを利用することで,より発話者の特徴を考慮したエンコードを図っている。
事前・事後分布を多層パーセプトロン(MLP)によって近似した Prior Net $・$ Recognition Net から潜在変数 $z$ をサンプリングする. Prior Net は, Speaker TRS Encoder または, Context TRS Encoder の CLS トークンの出力ベクトルを基に,MLP によってコンテキストのベクトルの平均と分散を推定する。 その平均と分散に従う正規分布より潜在変数 $z$ をサンプリングする. Recognition Net では,Speaker TRS Encoder と Context TRS Encoder に加えて Response TRS Encoder の CLS トークンの出力ベクトルも用いて,MLPにより対話全体のべクトルの平均と分散を推定する. Prior Net と同様に推定した平均と分散に従う正規分布から潜在変数 $z$ のサンプリングを行う. TRS Encoder の CLS トークンの出力ベクトルは入力全体の表現したべクトルとみなすことができるため, CLS トークンの出力ベクトルから事前・事後分布を生成し,潜在変数 $z$ をサンプリングしている.
TRS Decoder では,入力系列の先頭の SOS トークンに通常の潜在変数に加えて,応答の発話者の潜在変数を入力することで,潜在変数を応答の生成に利用している。この際,TRS Decoder は,学習時には Recognition Net からサンプリングした潜在変数を利用し,生成時には Prior Net からサンプリングした潜在変数を利用する。
拡張 GVTSC モデルは,cをコンテキスト, $c_{\mathrm{s} 1}$ を発話者 1 のコンテキスト, $c_{\mathrm{s} 2}$ を発話者 2 のコンテキスト, $x$ を応答, $z$ を潜在変数, $v_{\mathrm{s} 1}$ を発話者 1 のクラスタベクトル, $v_{\mathrm{s} 2}$ を発話者 2 のクラスタベクトルとして,下記の ELBO を最大化することでモデル
の最適化を行う.
$
\begin{aligned}
& \mathscr{L}_{E L B O}(x, c) \\
&= \log p(x \mid c) \\
& \geqq \mathbb{E}_{q}\left(z \mid x, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right)\left[\log p\left(x \mid z, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right)\right] \\
&-K L\left(q\left(z \mid x, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \| p\left(z \mid c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right)\right) \\
&-K L\left(s\left(z \mid x, c_{\mathrm{s} 1}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \| r\left(z \mid c_{\mathrm{s} 1}, v_{\mathrm{s} 1}\right)\right) \\
&-K L\left(s^{\prime}\left(z \mid x, c_{\mathrm{s} 2}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \| r^{\prime}\left(z \mid c_{\mathrm{s} 2}, v_{\mathrm{s} 2}\right)\right)
\end{aligned}
$
ここで,KLは分布間の KL divergence であり,事前分布 $p, r, r^{\prime}$ は,下記の式で定義される.
$
\begin{aligned}
p\left(z \mid c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) & \sim \mathcal{N}\left(\mu_{p}, \sigma_{p}^{2}\right) \\
r\left(z \mid c_{\mathrm{s} 1}, v_{\mathrm{s} 1}\right) & \sim \mathcal{N}\left(\mu_{r}, \sigma_{r}^{2}\right) \\
r^{\prime}\left(z \mid c_{\mathrm{s} 2}, v_{\mathrm{s} 2}\right) & \sim \mathcal{N}\left(\mu_{r^{\prime}}, \sigma_{r^{\prime}}^{2}\right)
\end{aligned}
$
ここで,
$
\begin{aligned}
{\left[\mu_{p}, \log \left(\sigma_{p}^{2}\right)\right] } & =\operatorname{MLP}_{p}\left(c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \\
{\left[\mu_{r}, \log \left(\sigma_{r}^{2}\right)\right] } & =\operatorname{MLP}_{r}\left(c_{\mathrm{s} 1}, v_{\mathrm{s} 1}\right) \\
{\left[\mu_{r^{\prime}}, \log \left(\sigma_{r^{\prime}}^{2}\right)\right] } & =\operatorname{MLP}_{r^{\prime}}\left(c_{\mathrm{s} 2}, v_{\mathrm{s} 2}\right)
\end{aligned}
$
事後分布 $q, s, s^{\prime}$ は,下記の式で定義される.
$
\begin{aligned}
q\left(z \mid x, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) & \sim \mathcal{N}\left(\mu_{q}, \sigma_{q}^{2}\right) \\
s\left(z \mid x, c_{\mathrm{s} 1}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) & \sim \mathcal{N}\left(\mu_{s}, \sigma_{s}^{2}\right) \\
s^{\prime}\left(z \mid x, c_{\mathrm{s} 2}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) & \sim \mathcal{N}\left(\mu_{s^{\prime}}, \sigma_{s^{\prime}}^{2}\right)
\end{aligned}
$
ここで,
$
\begin{aligned}
{\left[\mu_{q}, \log \left(\sigma_{q}^{2}\right)\right] } & =\operatorname{MLP}_{q}\left(x, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \\
{\left[\mu_{s}, \log \left(\sigma_{s}^{2}\right)\right] } & =\operatorname{MLP}_{s}\left(x, c_{\mathrm{s} 1}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right) \\
{\left[\mu_{s^{\prime}}, \log \left(\sigma_{s^{\prime}}^{2}\right)\right] } & =\operatorname{MLP}_{s^{\prime}}\left(x, c_{\mathrm{s} 2}, c, v_{\mathrm{s} 1}, v_{\mathrm{s} 2}\right)
\end{aligned}
$
また, 学習が進むにつれて Decoder が潜在変数 $z$ の情報を考慮しなくなる KL vanishing 問題のため,KL アニーリング [17], BoW(Bag-of-Words)loss[10,18] の手法を取り入れている. KLアニーリングは式 1 の KL divergence の値について,学習が進むに連れて 0 から 1 に線形に増加する重みをつける手法である. BoW loss は応答に含まれる単語の集合を潜在変数から推定するサブタスクを追加する手法であり,潜在変数と応答中の単語の関連性を強くすることを目的としている.
## 3 対話モデルの評価実験
データセットにはおーぷん 2 ちんねる対話コー パス [19],小学校の授業対話データを用いた. 前処理として SentencePiece を用いてサブワードへの分表 1 各モデルについての自動評価結果
割を行っている.コンテキストの長さについては, 3-turn までの対話応答を評価している. 自動評価手法として,Dist-n[20]を用いて,生成した応答の多様性,BERT Score[21] を用いて参照応答との類似性について評価する。 Dist-Nは,N-gramの総数に対して N-gram の種類数が占める割合を算出し,この比率が高いほど,多様性が高いことを示す指標である。 BERT Score は,事前学習した BERT の埋め込みを使用して,モデルが生成した応答と参照応答の類似性を評価する手法である。
各モデルが生成した応答の自動評価結果を表 1 に示す. GVTSC モデルは,GVT モデルに対して,拡張 GVTSC モデルと同様に発話者のクラスタリングを追加したモデルである.
まず,おーぷん 2 ちゃんねる対話コーパスによる評価について述べる。なお,クラスタリング (k-Means)のクラスタ数は,予備実験における結果から,GVTSC モデルは 8,拡張 GVTSC モデルは 3 としている。表 1 の GVTSC モデルは,GVT に対して,多様性の評価では,全て向上している。また,拡張 GVT モデルと比較すると,GVTSC モデルは Dist-3 で約 0.045 高い評価を得ている. 拡張 GVTSC モデルでは,拡張 GVT モデルや GVTSC モデルと比較して,類似性の評価はほとんど差が見られない。 しかし,多様性の評価では,特に Dist- 2 で約 0.1 以上評価が向上している.
次に,小学校の授業対話データによる評価について述べる。なお,GVTSC モデルと拡張 GVTSC モデルのクラスタリング(k-Means)では,予備実験にお
表 2 拡張 GVTSC による 1 発話における類似発話
& \\
表 3 小学校の授業対話データに対する対話応答の生成例コンテキスト
発話 1: 12。
発話 2: 4 段の時は?
発話 3: 16。
発話 4: 5 段の時は?
発話 5: 24 。 $24,24,24,28$ 。え一。
## 応答
GVT: そうそうそう。はい,ここまでいいかな?同じです。
拡張 GVT: この式, 合ってそう? 違ってそう?
GVTSC: 合ってそうです。さあ,ここまでいいかな?え?式一個じゃないん?
拡張 GVTSC: この式, 合ってそう?違ってそう?
参照:これで合ってる?
ける結果からクラスタ数を 8 としている. GVTSC は,多様性の評価で GVT と拡張 GVT より高い評価を得ており,類似性の評価でも約 0.008 向上している. 拡張 GVTSC は, 多様性の評価では全てのモデルより高い評価を得ており,実際の応答の多様性に近い評価となっている。類似性の評価においても,最も高い評価となっており,GVT と比較すると約 0.018 向上している. Encoder におけるエンコード過程で発話者の特徴を考慮することで,潜在変数のサンプリングや Decoder での Attention に利用する Encoderの各トークンの出力ベクトルに影響を与えていると考えられる。
小学校の授業対話データの評価において生成された応答の例を表 3 に示す. 全てのモデルがコンテキストに関連した応答を生成することができており,多様性がある応答となっている.
## 4 拡張 GVTSC による発話の分析
本研究では拡張 GVTSC モデルを用いて対話のべクトル化を行っている. 対話データを用いて訓練した拡張 GVTSC モデルは,対話応答を生成するために必要なコンテキストの発話をべクトル化する能力を得ている. 対話のベクトルは,拡張 GVTSC モデルにコンテキストとして対話を入力し,拡張 GVTSC モデルの Context TRS Encoder と Speaker TRS Encoder が出力した CLS トークンのベクトルの和を計算することで作成している.
発話の分析では,授業の対話データについて,1 発話ごとのデータを作成し,ラベルなし発話について,ラベル付き発話との距離を求めている. 距離については,ベクトルで表現できていることから Cos 類似度とジャロ・ウィンクラー距離(JW 距離)を用いた. 表 2 に 1 発話における類似発話の例を示す.表 2 の 1 行目では,「数学的な見方」や「深い学び」 に関連する発話を抽出できている. 表 2 の 2 行目では,「児童の主体的な学びに逆行している」というラベルであるが,授業の終盤で授業を終わらせるための発話を抽出している. 表面的な文字列の類似度である JW 距離と $\operatorname{Cos}$ 類似度の差は大きく, ベクトルを用いた手法の有効性を示している. 定量的な評価として, $\operatorname{Cos}$ 類似度と JW 距離の相関係数を計算すると,表 2 の 1 発話の場合は無相関 (-0.004) となっている.
## 5 おわりに
本研究では,事前にクラスタリングを用いて発話者の特徵を抽象化する拡張 GVTSC モデルを提案した. 対話応答生成では,多様性の評価で実際の応答に近い評価を獲得した. 小学校の授業対話データに対しては,類似性の評価においても最も高い評価となった. そして,小学校の授業の対話に対して,拡張 GVTSC モデルを利用した機械学習の手法で発話の分析を試みた.対話モデルを用いた対話のべクトル化により, 表層的な類似性とは異なる傾向の分析が得られた。
今後は,教員と児童の対話に対して,発話者の属性が限られたドメインに適した対話モデルの開発を行い,少量の教師ラベルによるラベル推定を行いたいと考えている.
## 参考文献
[1] 保森智彦.「主体的・対話的で深い学び」を実現するための教師の発話の検討, pp. 45-52. B, 人文・社会科学, No. 57. 岡山理科大学紀要, 2021.
[2] yuchen Wang, 大井翔, 松村耕平, 野間春生. 新任教員の授業力向上のための授業振り返りシステムに関する研究. 情報処理学会インタラクション, pp. 753-757, 2021.
[3] 国立教育政策研究所. 教員環境の国際比較 OECD 国際教員指導環境調査 (TALIS)2018 調査報告書. ぎょうせい, 2018 .
[4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017.
[5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018
[6] Klaus Greff, Rupesh K Srivastava, Jan Koutník, Bas R Steunebrink, and Jürgen Schmidhuber. Lstm: A search space odyssey. IEEE Transactions on Neural Networks and Learning Systems, Vol. 28, No. 10, pp. 2222-2232, 2016.
[7] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[8] Oriol Vinyals and Quoc Le. A neural conversational model. In ICML Deep Learning Workshop 2015, 2015.
[9] Iulian V. Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, and Joelle Pineau. Building end-toend dialogue systems using generative hierarchical neural network models. In Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence, AAAI'16, p. 3776-3783. AAAI Press, 2016.
[10] Tiancheng Zhao, Ran Zhao, and Maxine Eskenazi. Learning discourse-level diversity for neural dialog models using conditional variational autoencoders. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 654-664, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[11] Iulian Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron Courville, and Yoshua Bengio. A hierarchical latent variable encoder-decoder model for generating dialogues. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, No. 1, Feb. 2017.
[12] Zhaojiang Lin, Genta Indra Winata, Peng Xu, Zihan Liu, and Pascale Fung. Variational transformers for diverse response generation. arXiv preprint arXiv:2003.12738, 2020.
[13] Takamune Onishi, Sakuei Onishi, and Hiromitsu Shiina.
Improved response generation consistency in multiturn dialog. In 2022 12th International Congress on Advanced Applied Informatics (IIAI-AAI), pp. 416-419, 2022.
[14] Alessandro Sordoni, Michel Galley, Michael Auli, Chris Brockett, Yangfeng Ji, Margaret Mitchell, Jian-Yun Nie, Jianfeng Gao, and Bill Dolan. A neural network approach to context-sensitive generation of conversational responses. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 196-205, Denver, Colorado, May-June 2015. Association for Computational Linguistics.
[15] Richárd Csáky, Patrik Purgai, and Gábor Recski. Improving neural conversational models with entropy-based data filtering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5650-5669, Florence, Italy, July 2019. Association for Computational Linguistics.
[16] Bin Sun, Shaoxiong Feng, Yiwei Li, Jiamou Liu, and Kan Li. Generating relevant and coherent dialogue responses using self-separated conditional variational AutoEncoders. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5624-5637, Online, August 2021. Association for Computational Linguistics.
[17] Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 10-21, Berlin, Germany, August 2016. Association for Computational Linguistics.
[18] Xianda Zhou and William Yang Wang. MojiTalk: Generating emotional responses at scale. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1128-1137, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[19] Michimasa Inaba. A example based dialogue system using the open 2channel dialogue corpus. Journal of Japanese Society for Artificial Intelligence, Vol. 87, pp. 129132, 2019.
[20] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[21] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representation, 2019. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H7-1.pdf | # 対話行為の分布を利用した雑談対話システムの評価指標
榮田亮真 井手竜也 村田栄樹 河原大輔
早稲田大学理工学術院
\{s.ryoma6317@akane., t-ide@toki. , eiki.1650-2951@toki. , dkw@\}waseda.jp
## 概要
本論文では,雑談対話システムのふるまい全体を考慮して評価を行うための新たな指標として,発話が持つ役割である対話行為の分布を利用することを提案する。人間とシステムの各発話に対話行為が付与された対話コーパスの分析から,人間は多様な対話行為を使い分けていること,また,対話相手の発話を踏まえて対話行為を決定していることがわかった. 分析に基づき, 対話行為のエントロピーと, 発話の対話行為が,対応する応答の対話行為の決定に与える相互情報量で雑談対話システムを評価する。提案指標を様々な雑談対話システムに適用した評価実験によって,指標の妥当性が確認された。
## 1 はじめに
現在の雑談対話システムの評価方法は課題が残ったまま利用されている. 評価は人手評価と自動評価に分けることができ,人手評価はクラウドソーシングによるもの,自動評価は BLEU [1], Distinct [2] などの指標によるものが一般的である. さらに近年では,BERT [3] などの事前学習モデルを人手評価デー タで Fine-tuning したモデルが提案されている $[4,5]$.
既存の評価指標の多くは,雑談対話システムの 1 ターンや 1 対話の応答を評価するものである.このような評価指標はシステムのふるまい全体を見ていないため,決まった数パターンの応答しか返すことができないシステムを高く評価することがある。また,Distinct はるるまい全体を評価する指標だが,表面的な語彙の多様性をはかるだけである。
本論文では,既存手法の問題点に鑑み,雑談対話システムのふるまい全体を見て,Distinct よりも適切に,システムを評価することのできる評価指標を提案する. 新たな評価指標は, 対話における各発話の役割を表す対話行為 [6] の分布に注目したものである. 指標の考案のためまず,人間とシステムの発話に対話行為が付与された対話コーパスを構築し,分析を行う.コーパスの分析により,システムと比べて人間は対話行為を多様に使い分けていること, また,対話相手の発言を踏まえて,対話行為を決定していることがわかった. 分析に基づき, 対話行為の多様性を表すエントロピー $(\mathrm{DAE})^{1)}$ と,どれだけ相手の発言の対話行為を考慮しているかを表す相互情報量 $(\mathrm{DAMI})^{2}$ )に注目することで,システムを評価することを提案する。DAE は Distinct とは異なり, おうむ返しばかりをするシステムに低いスコアを与える. DAMI は応答だけでなく, その直前の発話にも注目したもので,対話の評価として Distinct よりも適切であると考えられる. DAE,DAMI の算出には発話に対話行為を付与することが必要だが,付与方法として,人手付与と対話行為分類モデルによる自動付与の両方を検討する。
提案指標の妥当性検証のため, 様々な雑談対話システムに対して,提案指標を算出する実験を行った. 実験から,提案指標の DAE,DAMI が対話システムの性能を反映した指標であることがわかった.
## 2 関連研究
既存の雑談対話システムの評価方法の多くが,1 つのユーザ発話とそれに対応するシステム応答を見て評価を行うターンレベルの評価である。ターンレベルの関連度の人手評価 [7] は,おうむ返しやありきたりでつまらない応答についても高い評価を与える.これは,おうむ返しやありきたりな応答を多く返すことで知られている深層学習による雑談対話システム $[8]$ の評価指標として不適切である.
対話行為(Dialog Act)とは,対話において各発話が持つ役割である. Stolcke ら [6] は 42 種類の対話行為を提案し,対話行為を付与した対話コーパスである SwDAを構築した. 対話行為が付与された他のコーパスとしては,日常的な対話を収集した DailyDialog [9] などが存在する. また,深層学習モ
図 1: 対話行為の体系 (Inform、Question、Directive は DailyDialog で提案されたもの)
表 1: 対話行為の分布(太字は各対話行為について人間とシステムのどちらが多いかを示している)
デルによって対話行為を分類することを目指した研究も存在する $[10,11,12]$.
## 3 対話行為データセットの構築
雑談対話システムの評価指標の考案のため,人間とシステムの各発話に対話行為が付与された対話コーパスを構築する.このコーパスを対話行為デー タセットと呼ぶ.
## 3.1 対話行為の体系
本論文では, 10 種類の対話行為で構成される体系を提案する (図 1). 能動的な発言は、DailyDialog [9] で提案された対話行為をもとに分類した。
## 3.2 応答生成モデル
対話システムによる発話の対話行為を収集するために,T5 [13] の日本語版3)を Fine-tuning したシス
テムを用いてシステム発話を得る. Fine-tuning に用いるデータセットは Twitter から Twitter API を用いて収集したツイートリプライ対で,800,000 ペアである。
## 3.3 対話行為のアノテーション
3.1 節に示した対話行為の体系に基づき,クラウドソーシングでアノテーションを行う.アノテー ションの対象は,ある発話に対する人間の応答とシステムの応答それぞれ 6,820 文である. 発話と人間による応答は Twitter から TwitterAPI を用いて収集したマルチターン対話で,システムによる応答は 3.2 節の応答生成モデルから得たものである. 対話をクラウドワーカに見せ,最後の発話に関して,当てはまる対話行為を全て選択してもらう.1つの発話につき 5 人に尋ね, 2 票以上かつ最多の票を集めた対話行為を採用する. 複数の対話行為が採用対象になった場合,それらの中からランダムに 1 つ選択する. 収集したデータセットの分布を表 1 に示す. 人間の方が多様に対話行為を使い分けていることがわかる.
## 3.4 対話行為の遷移
対話においては,ある対話行為の後には特定の対話行為が現れやすいといった傾向が存在すると考えられる。その傾向における人間とシステムの違いを見るため,構築したデータセットにおいて対話行為の遷移を分析する。遷移を示したヒートマップを図 2 に示す. ヒートマップの各行は,その行名の対話行為の後にどの対話行為が来るかの条件つき確率分布を, 事前確率分布で補正した值 $\frac{P\left(a_{t+1} \mid a_{t}\right)}{P\left(a_{t+1}\right)}$ を表している. $a_{t}$ は対話における $\mathrm{t}$ 番目の発話の対話行為を表す。事前確率分布による補正をすることで,それ以外の状況と比較したときに,特定の状況下で,ある対話行為が現れやすいことを表現した値となる。 ヒートマップから,人間はシステムに比べて,対話相手の対話行為を踏まえてどんな対話行為を返すべきかを決定しているという傾向がわかる。
## 4 対話行為分布を利用した雑談対話 システムの評価
3 節の対話行為データセットの分析を踏まえて,雑談対話システムを評価するための 2 つの指標を提案する.
3) Hugging Face Hub: sonoisa/t5-base-japanese
(a) 人間の発話の対話行為遷移
(b) システムの発話の対話行為遷移
図 2: 対話行為遷移を示したヒートマップ
表 2: 人手付与された対話行為に基づく評価指標による評価結果と Distinct(太字はそれぞれの比較対象についてスコアが最大のものを示している)
## 4.1 エントロピー (DAE)
3.3 節による分析から,人間は対話の中で,さまざまな対話行為を使い分けていることがわかる. そのため,対話システムの評価指標としてシステム発話の対話行為の多様性が利用できると考えられる。分布の多様性は,エントロピー4)で計算される.
## 4.2 相互情報量 (DAMI)
3.4 節の分析から人間は,相手の発言の内容に応じて対話行為を使い分けていることがわかる. このことは,直前の発話の対話行為が対象発話の対話行為の決定に与える相互情報量 ${ }^{5}$ を用いて定量的に表現することができる.
## 5 評価指標の検証
対話行為を付与する方法として人手付与と対話行為分類モデルによる自動付与の 2 つがあり,それぞれにおける評価指標の妥当性を検証する。
4)定義は付録に示す。
5)定義は付録に示す.
## 5.1 人手付与による評価
## 5.1.1 実験設定
本実験では,対話行為を 3.3 節と同様に,クラウドソーシングで収集する.評価指標算出のためのシステム発話は 6,000 文であり,3.3 節でシステム発話を得た Twitter上のマルチターン対話 6,820 文のうち,6,000 文の応答として得たものである. 対話システムの構築は事前学習モデルである T5)[13], $\mathrm{mT5}^{7)}$ [14] を Fine-tuning して行う. Fine-tuning に用いるデータセットは,3.2 節で用いたものと同じツイートリプライ対である. 日本語 $\mathrm{T} 5$ は単一のモデルサイズしか公開されていないため,学習データ量をシステムの性能とみなし,提案指標の比較を行う.データセット全量を用いたシステムに加えて,8,000 ペア, 80,000 ペア, 400,000 ペアを使用して Fine-tuning したシステムも構築する. なお,データセット全量を用いたシステムとはすなわち,3.2 節のシステムである. mT5 については,モデルパラメータの多さをシステムの性能とみなす。また,入力をそのまま返すおうむ返しシステムと人間による発話についても提案指標を算出する.
## 5.1 .2 実験結果
実験結果を表 2 に示す. T5 について,Fine-tuning に用いたデータ量が多いシステムの方が高いスコアを得た。また, $\mathrm{mT5}$ について,パラメータ数が多い base モデルの方が高いスコアを得た. これらの結果から,提案指標は妥当なものであると言える. さらに,人間はどちらの指標においても最も高いスコア
6) Hugging Face Hub: sonoisa/t5-base-japanese
7) Hugging Face Hub: google/mt5-small, mt5-base
図 3: バッチサイズに対する比較結果の変化
表 3: 自動付与された対話行為に基づく対話システムの評価結果
を得た.Distinct はおうむ返しだけを返すシステムに対しても高いスコアを与えたが,提案指標の値は 0 である.
## 評価に一貫性はあるか
評価指標においては,異なるテストコーパスを用いても一貫した結果であることが重要であるため,検証を行う. 比較したい 2 つのシステムについて, クラウドソーシングで収集した 6,000 発話からバッチサイズ分の発話をサンプリングし,エントロピー を計算する、サンプリングを繰り返し,エントロピーの大小が一貫しているかを確認する. サンプリング時には, 同一の発話に対応する 2 つのシステムの発話をサンプリングすることに注意する.比較は以下の 3 ペアに関して行う.
- mT5-base vs mT5-small
- T5-800k vs T5-400k
- human vs T5-800k
バッチサイズを $500,1000,1500,2000$ と変更させる. サンプリングの繰り返し回数は 20,000 回とする. 実験結果を図 3 に示す. 2,000 文のテストコーパスを用いれば,一貫した結果が得られることがわかる.
## 5.2 自動付与による評価
発話の対話行為の分類モデルを構築し,5.1 節と同様の実験を行う.
## 5.2.1 実験設定
モデルの構築は事前学習モデル $\mathrm{BERT}^{8}$ を Finetuning して行う. 学習コーパスは対話行為データセットで,人間の発話とシステムの発話の両方を用いる. 表 1 から,学習データ数は対話行為ごとに偏りがある.データ数の偏りは学習に悪影響であると考えられるため,各対話行為のデータ数を,最多の対話行為である「意見」に合わせるアップサンプリングを行う。学習用と検証用にデータセットを $4: 1$ に分割し,検証用のデータセットに対してクロスエントロピーロスが最小であったエポックを採用する. テストコーパスは Twitter 上のマルチターン対話を各対話システムに入力して得た応答で,学習に用いたデータセットとは異なる 3,880 文である.
## 5.2.2 実験結果
自動付与した対話行為を利用して評価指標を計算した結果を表 3 に示す. $\mathrm{T} 5$ と人間については妥当な結果が得られているのに対し, mT5 は正しく評価できなかったことがわかる。これは学習データの発話が $\mathrm{T} 5$ と人間によるものであることが原因と考えられる. 自動付与による評価を実用化するためには,分類モデルの改善が必要である.
## 6 おわりに
本論文では,雑談対話システムのふるまい全体を評価することのできる指標を提案した. 提案指標は,システム発話の対話行為の分布から算出されるエントロピーと相互情報量であり,データセットの分析によって得た人間とシステムの発話の特徵に基づくものである. 様々な対話システムを対象に提案指標を算出する実験によって,提案指標がシステムの良さを反映した妥当な指標であることがわかった. 提案指標は応答の対話行為だけを見ており,内容の質を見ていない. 応答がその対話行為の応答として質が高いかを評価する手法を確立し,統合することが今後の課題である.
8) HuggingFace Hub: cl-tohoku/bert-base-japanese-whole-wordmasking
## 謝辞
本研究は 2022 年度国立情報学研究所 CRIS 委託研究の助成を受けて実施した。
## 参考文献
[1] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[2] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[4] Tianyu Zhao, Divesh Lala, and Tatsuya Kawahara. Designing precise and robust dialogue response evaluators. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 26-33, Online, July 2020. Association for Computational Linguistics.
[5] Sarik Ghazarian, Johnny Wei, Aram Galstyan, and Nanyun Peng. Better automatic evaluation of open-domain dialogue systems with contextualized embeddings. In Proceedings of the Workshop on Methods for Optimizing and Evaluating Neural Language Generation, pp. 82-89, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[6] Andreas Stolcke, Klaus Ries, Noah Coccaro, Elizabeth Shriberg, Rebecca Bates, Daniel Jurafsky, Paul Taylor, Rachel Martin, Carol Van Ess-Dykema, and Marie Meteer. Dialogue act modeling for automatic tagging and recognition of conversational speech. Computational Linguistics, Vol. 26, No. 3, pp. 339-374, 2000.
[7] Sarah E. Finch and Jinho D. Choi. Towards unified dialogue system evaluation: A comprehensive analysis of current evaluation protocols. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 236-245, 1st virtual meeting, July 2020. Association for Computational Linguistics.
[8] Shaojie Jiang and Maarten de Rijke. Why are sequenceto-sequence models so dull? understanding the lowdiversity problem of chatbots. In Proceedings of the 2018 EMNLP Workshop SCAI: The 2nd International Workshop on Search-Oriented Conversational AI, pp. 81-86, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[9] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multiturn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing.
[10] Ji Young Lee and Franck Dernoncourt. Sequential shorttext classification with recurrent and convolutional neural networks. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 515-520, San Diego, California, June 2016. Association for Computational Linguistics.
[11] Hamed Khanpour, Nishitha Guntakandla, and Rodney Nielsen. Dialogue act classification in domainindependent conversations using a deep recurrent neural network. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2012-2021, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee.
[12] Vipul Raheja and Joel Tetreault. Dialogue Act Classification with Context-Aware Self-Attention. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3727-3733, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[13] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020 .
[14] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, Online, June 2021. Association for Computational Linguistics.
表 4: 意見の分布
## A 意見の細分化
表 1 から,人間とシステムどちらにおいても,「意見」の発話が多いことがわかる.そこで,「意見」を細分化して,さらなる特徴の違いを見る。「意見」を,「意見の対象」と,「意見の属性」によって 6 種類に分類する. 分類の詳細を表 4 に示す.アノテーションの対象は 3.3 節の収集で「意見」の対話行為が付与されたものである.マルチターンの対話をクラウドワーカに見せ,最後の発話に関して,6種類の選択肢から1つを選択してもらう. 1 つの発話に関して 5 人に尋ね,2 票以上かつ最多の票を集めた対話行為を採用する. 複数の対話行為が採用対象になった場合,ランダムに 1 つの対話行為を選択する. 収集したデータセットの分布を表 4 に示す.システムは対話相手に対するポジティブな意見を多く生成することがわかる.これはシステムからは同意の発話が多いことを示している.また,システムが対話相手以外に対する意見を生成することは少ないことがわかる.これは,対話相手以外に対する意見を生成するには,直前の発話に含まれないが対話相手との間で共有している知識や,世界知識が必要であるためと考えられる. 意見という 1 つの対話行為を詳細に見ても,人間の方が対話行為に多様性があることがわかる.
## B 対話行為遷移の例
図 2a に示したヒートマップにおける,頻出の遷移の会話例を以下に示す.
(1) 質問 $\rightarrow$ 質問
a.なんか小さい頃公園で飲んだ水道みたいな味しました
b.鉄の味するってやつすか (質問)
c.カルキなんですかね.ネバっとする感じの (質問)
お互いがわからないことについて話している状況表 5: 対話行為分類モデルの性能
(2) 提案 $\rightarrow$ 提案
a. 音声録音して送ってくれ
b.土日飯行くならその時にでも (提案)
c.土曜は無理だから日曜なら (提案)
お互いに提案を繰り返し,約束を決めているような状況
(3)命令・お願い $\rightarrow$ 命令・お願い
a. 久しぶりのお休みだから娘達にご飯行こうって誘ってもフラれてしまった私。. あちこち生誕隼備買いにいこ
b. たまにはご馳走して (命令・お願い)
c.じゃあ今すぐ日本橋に来てください (命令・お
願い)
お願いされたことについて交換条件を提示しているような状況
## C 評価指標の数学的定義
DAE は以下で定義される。
$
D A E=-\sum p\left(a_{u}\right) \log p\left(a_{u}\right)
$
DAMI は以下で定義される.
$H\left(a_{u_{t+1}} \mid a_{u_{t}}\right)=-\sum p\left(a_{u_{t}}\right) \sum p\left(a_{u_{t+1}} \mid a_{u_{t}}\right) \log p\left(a_{u_{t+1}} \mid a_{u_{t}}\right)$
$
D A M I=H\left(a_{u_{t+1}}\right)-H\left(a_{u_{t+1}} \mid a_{u_{t}}\right)
$
## D 対話行為分類モデルの性能
5.2.1 節で構築した対話行為分類モデルの性能を表 5 に示す. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H7-2.pdf | # フォローアップ発話を用いた日本語対話の自動評価
川本 稔己 ${ }^{1,2}$ 岡野 裕紀 $^{1}$ 山崎 天 ${ }^{2}$ 佐藤 敏紀 ${ }^{2}$ 船越 孝太郎 ${ }^{1}$ 奥村 学 $^{1}$
1 東京工業大学 ${ }^{2}$ LINE 株式会社
\{kawamoto, okano, funakoshi, oku\}@lr.pi.titech.ac.jp
\{takato.yamazaki, toshinori.sato\}@linecorp.com
## 概要
対話の人手評価には時間とコストがかかるため,人手評価と自動評価の相関を向上し自動評価の信頼性を高めていくことは重要である. 本稿では,フォローアップ発話が生成される尤度を利用して対話を評価する FED と FULLという自動評価指標に着目し検証と改善を行う. 日本語対話データを利用した実験の結果, FED と FULL は人手評価との相関があまり見られなかったが, 我々の改善した手法の相関係数は 0.58 で最も高い値となった. また, 我々の改善した手法を用い, 対話データから対話システムの順位を予測した結果, 高い相関を示し, 特にオープンドメインの対話は正解の順位と完全に一致した.
## 1 はじめに
近年の事前学習済み言語モデルによる性能向上に伴い, 年々優れた対話システム $[1,2,3,4]$ が発表されているが, 対話システムの優劣を評価するためには最終的に人手評価を行うことが一般的である [5]. しかし, 人手評価には時間とコストがかかるため, 開発段階では自動評価を利用して評価できれば効率的である. 本研究では, 対話の人手評価と相関があり信頼性の高い自動評価指標を提案することを目指す.
対話の自動評価指標には正解の応答が必要な指標と不要な指標がある. 正解の応答が必要な指標としては BLEU [6], FBD [7] 等が挙げられ, 正解の応答が不要な指標としては Perplexity や USR [8] 等が挙げられる. 正解の応答が必要な指標は, 多様な応答が許容される対話の性質上適切に評価ができなかったり, 正解の応答を作成するための時間とコストがかかるという問題がある. よって本稿では, 正解の応答が不要な指標の 1 つであり, 人手評価との相関が高いことが報告されている [5], FED [9] と, FEDを発展させた FULL [10] に着目する. FED と FULL が日本語対話に利用できるか検証し, 先行研究から考えら
れる問題点(3 節参照)を改善することを試みる. 実験の結果, 我々の改善した手法は先行研究より人手評価との相関が高いことを確認した. さらに, 対話データから対話システムの順位を予測したところ, オープンドメインの対話とシチュエーションに特化した対話それぞれで高い相関を示し, 特に,オープンドメインの対話は正解の順位と完全に一致した.
## 2 先行研究
本節では, 対話の自動評価指標である FED と, FED を発展させた FULL について説明する. FED は, 対話履歴が与えられたときに, それに続くフォローアップ発話の対数尤度を測ることによって評価を行う指標である. FED の評価項目とフォローアップ発話の例を図 1 に示す. 評価項目は大きく分けてターンレベルと対話レベルの 2 種類があり, ターンレベルでは, 対話において評価したい話者の発話の後にフォローアップ発話を付与し対数尤度を算出する。一方,対話レベルでは, 対話の最後にフォローアップ発話を付与し対数尤度を算出する. 各レベルごとに評価項目は複数あり, ターンレベルでは 8 個, 対話レベルでは 10 個, 計 18 個の評価項目が使われている. 各評価項目には, 平均 4.05 個のフォローアップ発話が設定されており,フォローアップ発話は, ポジティブとネガティブの 2 種類に分けられる. 図 1 に示すように, フォローアップ発話の例として, Interesting の項目に当てはまるポジティブの発話は”Wow that is really interesting., といった, 前の発話が面白い場合に尤度が上がる発話を利用し, ネガティブの発話は”That's really boring."といった, 前の発話が面白くない場合に尤度が上がる発話が利用されている. 対数尤度の計算には, 公開されている DialoGPT [11] を使用している. 追加でデータの準備やモデルの訓練をする必要がないため,他の対話自動評価指標 $[12,13]$ と比べて比較的手軽に評価を行うことができる. また, Tianbo ら [5] が行った自動評価と人手
図 1 FED の評価項目と各項目に設定されているフォローアップ発話の例. フォローアップ発話のうち, ポジティブを青色, ネガティブを赤色で示している. ネガティブ発話しか表示されていない評価項目はポジティブ発話が定義されていないことを示す.
評価の相関を測る実験で FED と人手評価の相関が 0.59 と報告されており, 彼らの論文中で使われた自動評価指標の中では最も高い相関を得ている.
FULL は FED を発展させた指標であり, FED との差分としては, (1) FEDでは対話履歴とフォローアップ発話を含めた対数尤度を算出していたが, 対話履歴が与えられた場合のフォローアップ発話の条件付き対数尤度に変更したこと, (2) 各評価項目を撤廃し, 5 つのフォローアップ発話のみに限定したこと, (3) 複数の言語モデルで比較を行い, DialoGPT から BlenderBot [14] に変更したことである. FED デー タセットで人手評価との相関係数を計った結果, state-of-the-art となる 0.69 が報告されている.
## 3 先行研究の問題点と調査
本節では, FED・FULL から考えられる問題点と,問題点を改善するための手法を説明する. 2 節で述べたように FED は, 18 個の評価項目を用いているが, Semantically Appropriate, Understandable, Fluent の 3 つの項目のポジティブのフォローアップ発話は全く同じ発話が使用されている.それ以外にもフォローアップ発話が同一である評価項目が存在し, 全ての評価項目が独立した項目として測れているか疑わしい. そのため, 我々は対話評価を行う際に, 18 項目全てを用いるよりも,一部の評価項目を用いたほうが優れているのではないかと仮説を立てた. 具体的には, 検証データで最も高かった評価項目の組み合わせのみを選択し, その組み合わせを使ってテストデータで相関係数の評価を行った.
一方, FULL で限定された 5 個のフォローアップ発話は, FED データセットで相関が高かった発話が選ばれており, 別のデータセットでも適切なフォロー アップ発話なのか不明であるため, FULL で 5 発話に限定しない手法も比較する. さらに, 限定された 5 発話は全てネガティブのフォローアップ発話なので, ポジティブの発話のみや, ネガティブの発話のみを使って評価を行う. それ以外にも, GPT [15]のような基盤モデル [16] を用いて対数尤度を算出するため, フォローアップのテキストが発話である必要はない可能性があり, 評価項目名をそのままフォローアップとした手法の評価も行う。
## 4 実験
## 4.1 実験設定
本実験では, 対話ごとにつけられた人手評価と各手法によって得られる自動評価の相関係数を比較することで自動評価指標を評価する。評価データには, 対話システムライブコンペティション 3 [17] (以降, 対話コンペ 3)で行われた予選のデータ1)を使用する. 対話コンペ 3 にはオープントラックとシチュエーショントラックの 2 種類のトラックがあり,オープントラックではオープンドメインの対話, シチュエーショントラックではシチュエーションに沿った対話が行われている. どちらのトラックもワーカとシステムがチャットベースで対話を行っており, 人手評価は対話を行ったワーカが行う. オープントラックの評価指標は以下の 3 つでそれぞれ 5 段階で評価している.
・自然性:対話が自然かどうか
・話題追随:システムはユーザが選択した話題に関して適切に応答できたかどうか
・話題提供:システムはユーザが選択した話題に
1) https://dialog-system-live-competition.github.io/ dslc3/data.html
表 1 対話コンペ 3データセットのサイズ.
関して新たな情報を提供できたかどうか
これら 3 指標の平均点を各対話における人手評価のスコアとした. シチュエーショントラックの評価指標は以下の 1 項目で, 同様に 5 段階で評価している.
・どれくらいシチュエーションに適しており、かつ、人らしい会話か
データセットのサイズを表 1 に示す. 対話コンペ 3 に参加した一部のチームのデータは公開されておらず, 公開されているデータのみを実験の対象とした.
尤度を計算するための言語モデルは日本語で学習された $\mathrm{GPT}^{2}$ を利用した. フォローアップ発話は FED・FULL のフォローアップ発話を第一著者が人手で日本語に翻訳した. 対話ごとの人手評価と自動評価の相関は Spearman の順位相関係数と Pearson の相関係数を利用し算出する. 2 分割交差検証を行い 2 つの相関係数の平均を最終的な結果とする。
## 4.2 手法
実験では以下の手法を比較する。
FED FEDを日本語に適応した手法.
FULL FULLを日本語に適応した手法.
FED-Cond FED に 2 節で説明した FULL との差分, (1) 条件付き対数尤度を適用した手法.
FED-Cond-Pos FED-Cond のポジティブのフォローアップ発話のみを用いた手法.
FED-Cond-Neg FED-Cond のネガティブのフォローアップ発話のみを用いた手法.
FED-Cond-Tag FED-Cond のフォローアップとして, 発話の代わりに評価項目名を用いた手法.
FED-Selected FED の評価項目から検証データで選ばれた項目のみを用いた手法.
FED-Cond-Selected FED-Cond の評価項目から検証データで選ばれた項目のみを用いた手法.
## 4.3 実験結果
実験結果を表 2 に示す. 先行研究である FED と FULL の相関係数は,オープントラックではマイナ
2) https://huggingface.co/rinna/japanese-gpt-1b表 2 実験結果. Spear. は Spearman の順位相関係数, Pear. は Pearson の相関係数を示す
スで相関がないこと,シチュエーショントラックでは, Spearman の順位相関係数が 0.27 と多少の相関はあることがわかったが, 英語対話の評価結果とは大きく乘離があることを確認した. 先行研究をそのまま日本語対話の評価に適用することは難しいことがわかった。
FEDを条件付き対数尤度に変更した FED-Cond は, FED より高い相関を得ていることから, 2 節で説明した FULL との差分である, (1) の条件付き対数尤度は効果的であることを示しており, FULL より高い相関を得ていることから, (2) の 5 発話に絞ることは日本語対話の評価に悪影響を与えていることを示している. FED-Cond-Pos と FED-Cond-Neg を比較すると,オープントラックにおいては, ポジティブのフォローアップ発話のほうが効果的であるが, シチュエーショントラックにおいては, ネガティブのフォローアップ発話のほうが効果的であった. 効果的な発話が 2 つのトラックで異なったのは, シチュエー ショントラックの設定が”先輩からの「同窓会の幹事の依頼」を断りたい状況”であるため, システムの発話がネガティブに当てはまる場合が多かったことが理由として考えられる. その上で, FED-Cond の方が高い相関係数を得ていることから, ポジティブとネガティブどちらの発話も使ったほうが効果があると考えられる. FED-Cond-Tag は, どちらのトラックでも相関は見られず, 基盤モデルで実験を行う場合も評価項目名をフォローアップとして与えるより,評価項目の意図を反映するような発話を用いたほうが良いことがわかる. その上で, 検証データを用いて評価項目を選ぶ FED-Cond-Selected は他の手法と比較してどちらのトラックでも最も高い相関係数を得た. よって, 18 個の評価項目から一部の項目を使用することで相関係数が向上することを確認した.
表 3 オープントラックのランキング結果. 結果は”チー ム名 (スコア)" で表記する. 赤が正しく順位を予測できたチーム, 青が誤って順位を予測したチームを示す.
## 4.4 ランキング
本稿で提案した手法 FED-Cond-Selected は最も高い相関があることを確認したが, 今回使用したデー タセットである対話コンペ 3 予選の本来の目的は, チームのランキングを決めることである. よって, 対話それぞれの自動評価スコアをチームごとに平均することでチームのランキングを試みる.
ランキング結果とその Spearman の順位相関係数を, オープントラックは表 3 に, シチュエーショントラックは表 4 に示す. チーム名はわかりやすさのために順位の高い方からアルファベット順で表記した. オープントラックで, FED・FULLが正しく順位を予測したのはそれぞれ 1,2チームだけであったが, FED-Cond-Selected は正解の順位と完全に一致した.一方で, シチュエーショントラックでは, どの手法も正しく順位を予測したのは数チームであり, 相関係数は FULL が最も高かったが, FED-Cond-Selected も 0.77 と高い相関を示した。
## 4.5 考察
実験結果から, オープントラックで行われたオー プンドメイン対話に関しては比較的高い相関が見られ, ランキングが正解と一致したことから, 本稿で提案した手法は対話の自動評価を行える可能性があることを示唆している. 一方, シチュエーショントラックに関してはオープントラックと比べて相関係数が低く,ランキングが一致するチーム数も少なかった. これは, シチュエーショントラックの指標である”どれくらいシチュエーションに適しており、かつ、人らしい会話か” の前半部分であるシチュエーションに適しているかを今回使用したフォローアップ発話では測れなかった可能性があり,シチュエーションに特化した評価項目とそのフォローアップ発話を新たに作成することで対応できる可能性がある.
また, FED-Cond-Selected において, 2 分割交差検証で最も高い相関係数を得た評価項目の組み合わせは,オープントラックでは Specific, Relevant, Fluent の 3 項目と Interesting, Specific, Correct, Fluent $の 4$ 項目, シチュエーショントラックでは Interesting, Engaging, Specific, Fluent, Depth $の 5$ 項目と Specific, Relevant, Semantically Appropriate, Depth, Understand $\sigma 5$ 項目であった. 評価する対話の性質や目的, 状況により必要な項目は変化すると考えられるが, 今回使われた項目数は最大で 5 項目であることから, 18 項目全てを利用する必要はないことを確認した. 選ばれた評価項目で互いのトラックを評価すると,オープントラックの組み合わせを使用したシチュエーショントラックの Spearman の順位相関係数は 0.320 , シチュエーショントラックの組み合わせを使用したオープントラックの Spearman の順位相関係数は 0.529 となり,性能の劣化はあまり見られなかった.
## 5 おわりに
本稿では, 対話の自動評価指標である FED・FULL が日本語対話の評価に利用できるか検証した結果,人手評価とはほとんど相関がないことを確認したが, 一方で 18 個の評価項目からいくつかの項目だけを選んで利用することで相関係数が向上することを示した. その上で, 選んだ項目のみを用いる手法でシステムの順位を予測したところ, オープンドメインの対話とシチュエーションに特化した対話のどちらも高い相関を示した. 今後の展望としては, 今回提案した手法をさらに発展させて, 使用するフォロー アップ発話を対話ごとに動的に選んで自動評価を行う枠組みを構築したい. また, 今回選ばれた評価項目を他の対話データに適用したときに, 同様の結果を得られるか検証を行っていきたい。
## 参考文献
[1] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[2] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, et al. Blenderbot 3: a deployed conversational agent that continually learns to responsibly engage. arXiv preprint arXiv:2208.03188, 2022.
[3] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020.
[4] Romal Thoppilan, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, et al. Lamda: Language models for dialog applications. arXiv preprint arXiv:2201.08239, 2022.
[5] Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, and Qun Liu. Achieving reliable human assessment of open-domain dialogue systems. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6416-6437, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[6] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[7] Jiannan Xiang, Yahui Liu, Deng Cai, Huayang Li, Defu Lian, and Lemao Liu. Assessing dialogue systems with distribution distances. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 2192-2198, Online, August 2021. Association for Computational Linguistics.
[8] Shikib Mehri and Maxine Eskenazi. USR: An unsupervised and reference free evaluation metric for dialog generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 681-707, Online, July 2020. Association for Computational Linguistics.
[9] Shikib Mehri and Maxine Eskenazi. Unsupervised evaluation of interactive dialog with DialoGPT. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 225-235, 1st virtual meeting, July 2020. Association for Computational Linguistics.
[10] Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, and Walter Daelemans. Open-domain dialog evaluation using follow-ups likelihood. In Proceedings of the 29th
International Conference on Computational Linguistics, pp. 496-504, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics.
[11] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT : Large-scale generative pretraining for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 270-278, Online, July 2020. Association for Computational Linguistics.
[12] Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, and Jie Zhou. Conversations are not flat: Modeling the dynamic information flow across dialogue utterances. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 128-138, Online, August 2021. Association for Computational Linguistics.
[13] Chen Zhang, Yiming Chen, Luis Fernando D'Haro, Yan Zhang, Thomas Friedrichs, Grandee Lee, and Haizhou Li. DynaEval: Unifying turn and dialogue level evaluation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5676-5689, Online, August 2021. Association for Computational Linguistics.
[14] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online, April 2021. Association for Computational Linguistics.
[15] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019.
[16] Rishi Bommasani, Drew A Hudson, Ehsan Adeli, Russ Altman, Simran Arora, Sydney von Arx, Michael S Bernstein, Jeannette Bohg, Antoine Bosselut, Emma Brunskill, et al. On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258, 2021.
[17]東中竜一郎, 船越孝太郎, 高橋哲朗, 稲葉通将, 角森唯子, 赤間怜奈, 宇佐美まゆみ, 川端良子, 水上雅博, 小室允人, ドルサテヨルス. 対話システムライブコンペティション 3. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 90, p. 23, 2020. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H7-3.pdf | # 基盤モデルを用いたフェイスアクト分類
櫻井大雅 ${ }^{1}$ 宮尾祐介 ${ }^{1}$
1 東京大学
\{hsakurai, yusuke\}@is.s.u-tokyo.ac.jp
## 概要
本研究では二つの仮説に基づき,人間関係に関する欲求のフェイスに影響を及ぼす発話行為であるフェイスアクトを,基盤モデルの一つである GPT-3 を用いて分類する。まず,GPT-3がフェイスアクトが何であるかを把握していると仮定し,その能力を few-shot 学習によって引き出せるか否かを検証する。次に,事前学習がフェイスアクト分類に有益であると仮定し, fine-tuning した GPT-3を先行研究のモデルと比較する. few-shot 学習によるフェイスアクト分類は困難な一方で, fine-tuning した GPT-3 は先行研究を上回る分類精度を発揮した。
## 1 はじめに
ポライトネス理論は,人間関係を円滑にするために用いられる言語的配慮を説明する理論である. 今日広く知られているものは,ブラウンとレヴィンソン $(\mathrm{B} \& \mathrm{~W})$ がフェイスと呼ばれる概念を援用して定義した [1]. フェイスとは,抑圧からの解放や自尊心といった人間の生来的な欲求であり,フェイスに影響を与える発話行為をフェイスアクトと呼ぶ. フェイスやフェイスアクトは, 社会言語学や語用論の分野で確立された概念であり,最近では説得対話システムの開発においても注目されている $[2,3]$.
フェイスアクト分類は,ある発話が持つフェイスアクトの種類を判定するタスクである. 先行研究 [3] は階層型ニューラルネットワークによる教師あり学習を用いたが,このようなモデルは特定のドメインでの学習が必要であり汎化性に欠ける.
本研究では基盤モデルのフェイスアクト分類に対する有用性について, 基盤モデルの一つである GPT-3[4] を用いて二つの仮説を検証する。一つ目は,GPT-3がフェイスアクトに関する知識を獲得しているという仮説である.これを検証するため,発話とフェイスアクトのペアを正解例としてテストデータと共に与える few-shot 学習を行うことで,
フェイスアクト分類が可能になることを確認する. few-shot 学習は教師あり学習よりもドメインに対する依存性が低いため,より汎用的な分類が可能になると考えられる。二つ目は,GPT-3 はフェイスアクトに関する知識を持たないとしても,事前学習を通じて分類に有用な知識を得ているという仮説である.これを検証するため,発話とフェイスアクトのペアを訓練データとする教師あり学習を行ったモデルを用いてフェイスアクトを分類する。
実験により, few-shot 学習ではフェイスアクトの分類が困難であることが判明した. すなわち, GPT-3 はフェイスアクトの知識を有していないか,知識を有しているとしても今回の実験では活用できなかった可能性がある。一方,fine-tuning した GPT-3 は先行研究を上回る分類精度を発揮し, 訓練データを $25 \%$ 程度に減らして fine-tuning を行った場合に先行研究と同程度の精度が得られることを確認した. 加えて fine-tuning した GPT-3 の出力を精査し,分類性能向上における課題を分析した.
## 2 背景
## 2.1 フェイスとフェイスアクト
他者との人間関係に関連する欲求であるフェイスの概念はゴッフマン [5] によって導入され,B\&W のポライトネス理論でポジティブフェイスとネガティブフェイスの二種類に分類された. 前者は他者から認められたり,好かれたりしたいといった欲求である一方で,後者は自身の自由や領域を他人に侵されたくないといった欲求である.
フェイスアクトは,話者や聴者のフェイスに影響を与える発話行為である. 先行研究 [3] は以下の三基準を用いてフェイスアクトを八種類に分類した。
・フェイスアクトが話者(s)に向けられたものか, それとも聴者 $(\mathbf{h})$ に向けられたものか
・フェイスアクトがポジティブフェイス (pos) に
表 1 フェイスアクトが付与された会話の一部 [3]. 二人の会話参与者のうち,一人は説得者 ER,もう一人は被説得者 $\mathrm{EE}$ の役割を持ち,ERはEEに寄付を促す。
話者発話 1 ラベル
ER Would you be interested today in making a do- hnegnation to a charity?
EE I've seen a lot of commercials about them, but hpos+ never did a lot of research about them.
ER They are actually really great.
spos+
向けられたものか,それともネガティブフェイス(neg)に向けられたものか
・フェイスが守られたのか (+),それとも攻撃されたのか (-)
## 2.2 フェイスアクト分類
本研究は, 先行研究 [3] の定式化を踏襲している.会話 $D$ を構成する $n$ 個の発話 $D=\left[u_{1}, u_{2}, \ldots, u_{n}\right]$ に対し,フェイスアクト $y_{1}, y_{2} \ldots, y_{n}$ をつずつ割り当てる. ラベル $y_{i} \in Y$ は八種類のフェイスアクト,または other(フェイスに影響しない挨拶やフィラー,会話の本題と無関係な発話等)のいずれかである.
フェイスアクト分類に用いられる代表的なデー タセットは, Save the Children (STC) という慈善団体への募金活動に関する二者間での説得対話 [6] フェイスアクトをアノテーションしたものである [3]. 表 1 にデータセット中の会話の例を示す.このデータセット中の発話は,データセットに現れない sneg-を除く七つのラベルに, other(フェイスアク卜なし)を加えた八つのいずれかに分類される.
## 2.3 GPT-3
GPT-3 は基盤モデルの一つであり,分類,質問応答,翻訳など様々なタスクに適用可能である [4]. GPT-3 の能力を引き出すには,自然言語で書かれたクエリのプロンプトを用いることが多い $[7,4]$. 頻繁に用いられるプロンプトの形式に質問応答形式 $[8,9,10]$ がある. 要約や感情分析などのタスクが対象とする文章を質問形式で GPT-3 に入力し, 出力をタスクの答えとみなす形式である. 先行研究では, プロンプトにタスクの指示を含めることで無効なラベルの生成が抑制されると報告されている [11].
プロンプトを用いて GPT-3 の言語理解能力を発揮する基本的な方法の一つが few-shot 学習である. few-shot 学習では,プロンプトはタスクに関する説明と数個の正解例, さらにテストデータから構成される。また, few-shot 学習以外で GPT-3を活用する方法は,対象とするタスクに関する十分な訓練デー タを用いて, 教師あり学習でモデルを訓練する手法 (fine-tuning) が考えられる. fine-tuning した GPT-3 に推論のためのテストデータのみをプロンプトとして与え,モデルの出力を分類結果とみなす.
## 3 手法
本研究ではまず,few-shot 学習を用いたフェイスアクト分類を行う。次に, fine-tuning したGPT-3を用いてフェイスアクト分類を行う.最後に,訓練データの量を元の $25 \% , 50 \% , 75 \%$ にそれぞれ減らして fine-tuning したモデルを用いてフェイスアクト分類を行い,分類精度が変化する様子を確認する.
## 3.1 プロンプト
2.3 節で述べた先行研究に基づいてプロンプトを設計する. 本研究では,表 2 に示す「タスクの説明・発話履歴・ラベル」の三つ組をデモンストレーションと呼ぶ. デモンストレーションは,分類タスクで頻繁に用いられる質問応答形式を骨子としている.本研究で用いるラベルは, Yes/No, Positive/Negative, True/False などの一般的な選択肢ではないため,無効なラベルの生成抑止を目的として,有効なラベルの一覧をデモンストレーション中に含めた.
few-shot 学習ではデモンストレーションを複数並べたものを用意し, その末尾にデモンストレーションの形式に従ったテストデータを加えたものを一つのプロンプトとみなす. 一方 fine-tuning では, 正解ラベルを除いたデモンストレーションをプロンプトとし,正解ラベルを生成するように訓練を行う。
また, 先行研究 [3] では,過去の発話を考慮することがフェイスアクト分類に有効と主張している. そこで本実験では発話履歴の長さを変え,その効果を検証する.履歴の長さは,フェイスアクト分類の対象となる発話のみをデモンストレーションに入れる場合を長さ 1 とし,それに加えて過去の発話を一つ,または二つ含める場合の計三種類を検証する。
## 3.2 データ分割とその扱い
本研究では 2.2 節で述べたデータセットを用いる. 内訳は付録 A の表 6 に記載する. GPT-3 の fine-tuning を行うため,データセットの $80 \%$ を訓練データに,残りの $20 \%$ をストデータに分割する.
表 2 発話履歴の長さが 3 の場合のデモンストレーションを示す. 灰色で網掛けされた部分は発話に応じて変更され,それ以外の部分は実験全体を通じて固定される。テストデータでは “Answer:”の直後を空欄とする.GPT-3 はその空欄を埋めるトークン列(図中では枠線で囲まれた hpos-が該当する)を出力し,それが分類結果と見なされる.
デモンストレーション (プロンプトの一部)
Question: Read the following script, and classify EE 's last utterance of the script " Not really, please tell me anything! " based on whether its face act is spos+, spos-, hpos+, hpos-, sneg+, hneg+, or hneg-. If there is no corresponding face act, then classify it as other. Note that "STC" stands for "Save the Children."
Script:
ER: I'd like to tell you about an organization called Save the Children.
ER: Have you heard about them?
EE: Not really, please tell me anything!
Answer: hpos-
なお,few-shot 学習では,訓練データはプロンプトに含めるデモンストレーションを作成するためにのみ使用し,テストデータの分類結果を報告する。 few-shot 学習では, データセット中の八種類のラベルについて, 訓練データから発話を二つずつ無作為に抽出してデモンストレーションを作成する。また,プロンプト内のデモンストレーションの内容や順序などの影響を抑えるために,中身が異なる三種類のプロンプトを用意し,それらを用いた場合の分類結果の平均をとる。一方 fine-tuning においては,訓練データ中のフェイスアクトの分布の偏りを軽减するためにオーバーサンプリングを適用する.
## 4 結果
各設定における実験結果を表 3 に記載する。まず few-shot 学習では, 分類性能は全体として先行研究よりも低くなった. また, 発話履歴を長くすることで無効な出力が増えると同時に性能が低下する傾向が見られた.これは分類対象の発話に焦点が当て難くなったためであると考えられる。一方で spos+や hneg-, other などは他のラベルと比較して F1 スコアが高くなっており,未知のタスクであっても few-shot 学習によりフェイスアクトの傾向を把握し,分類を行うことは不可能ではないことが窥える.
一方で fine-tuning では全ての設定で先行研究を上回る精度を得た. 加えて,履歴が長いほど各フェイスアクトのF1 スコアが向上した. 訓練データが少ないラベル (spos-, hpos-, sneg+, hneg+) の予測は,訓練データが豊富にあるものと比べて分類性能が落ちた. 図 1 に示す通り,訓練データを $25 \%$ 程度に減らしたとしても先行研究と同程度の性能が維持されたが,データを増やすことによる性能向上の恩恵はそれほど大きくはない.これは全体の性能向上にはデータ数が僅少なラベルの分類性能を向上させ
図 1 訓練データの量を変えてモデルを fine-tuning した場合の分類結果を示す. 赤波線は先行研究 [3] で得られた F1 スコアのマクロ平均である. 左端の点群は訓練データを用いない場合(zero-shot 学習)の結果を示している.
る必要があり,データ数そのものを増やすよりも, ラベルの偏りを減らす必要があると示唆している。
## 5 考察
few-shot 学習と比較した fine-tuning の利点と, fine-tuning を行っても分類が困難な実例を考察する。
## 5.1 fine-tuning $の$ 利点
一つのフェイスアクトに対して二つの例のみ与える few-shot 学習に比べ, fine-tuning では様々なパターンの発話を提供できる。そのためフェイスアクトの類型化に成功した可能性があり, few-shot 学習と比べて分類精度が向上した. また, fine-tuning $の$方が few-shot 学習よりも履歴を意識した分類が可能となった。その効果は,F1 スコアのマクロ平均の向上に関係した spos-の分類を通じて見てとれる. 要求を拒否する発話は一文が短く,また遠回しに言われることも多いため, 過去の履歴を参照する必要がある。例えば表 4 の最後の発話は,EE が ER の要求
表 3 それぞれの設定におけるフェイスアクト分類の結果を示す. Dutt は先行研究 [3] で得られた結果を示しており, “Few” は few-shot 学習における結果,“Fine” は fine-tuning の結果を示している. “Few”と “Fine” の右横の数字は発話履歴の長さを示している。“Acc”は accuracy,“F1”はそれぞれのラベルに対する F1 スコアのマクロ平均,そして “\#Inv”は,全 2174 件のテストデータのうち,出力が有効なフェイスアクトではなかったものの数を示す. フェイスアクトの列にあるそれぞれのセルは,特定の実験設定における precision,recall,そして F1 スコア(p/r/f1)を示している. few-shot 学習の結果は 3 回の試行の平均を取ったものである.
& - & - & & & .69 & .60 & \\
表 4 最後の発話が spos-に分類される会話の例.
表 5 fine-tuning した GPT-3 では分類できなかった発話の例. 予測の列は発話履歴の長さが 3 であった時の GPT-3 の予測を示している。
& sneg+ hpos+ \\
を拒否する発話であるため spos-に分類される.このように短い発話は同じ発話であってもフェイスアクトが一意に定まらず,発話履歴はその曖昧性を解消するために有用な情報を与えうる。
## 5.2 fine-tuning では対応が難しい事例
表 5 で最初に挙げる二つのパターンは,高度な自然言語理解が必要で,現在の手法では本質的に解決困難な問題である.後者の二つのパターンは,デー タセットの性質に関連するものである.
第一の問題は婉曲表現に対する弱さである.表 5 の最初の例は,「よく知らない団体には寄付できない」という躊躇を含意している.話者が自身の都合を述べる発話は間接的に伝えられることが多く, フェイスアクトの分類が困難な場合がある。
第二の問題は,GPT-3 が話者の立場を正確に把握できないことである.表 5 の二番目の例のように, EEが他の団体(Make-A-Wish)に寄付する意思を示
した場合,EE は ER の要求よりも自分の意志を優先しているために spos+と分類される。一方で EE が 「STC に寄付する」と言えば,ER の願望に合致し, ER の面目を保てるためhpos+に分類される. このように,同じ「寄付」という行動であっても話者の立場によってフェイスアクトは変化しうる。
第三の問題は,未来の発話が参照できないために,完了していない発話が分類し難い点である.元データの正解ラベルは会話全体を見ることで付与される場合があり,特に短い発話は前後の発話と同じラベルが付与される。例えば表の三番目の例は,それだけでは spos+に分類されないが,直後の ER の発話が「STC はお金を有効に使っている」と主張しているため,連続する会話を踏まえて STC の正当性を支持するものと見なされ,spos+に分類される。
第四の問題は,類似した特徴を持つフェイスアクトが判別しにくいことである。例えば表 5 の例 4-a と 4-b は,ER が EE に善行を促す発話(hpos+) と,ER が寄付の負担を減らすことを目的とした発話(hneg+)の 2 通りの解釈が可能であるため,似た内容の発話であってもラベルが一致していない.
## 6 おわりに
本研究では,GPT-3 を用いた few-shot 学習によるフェイスアクト分類が現状では困難であると明らかにした一方で,fine-tuning を用いることで従来のモデルよりも性能が向上することを確認した。また,訓練データを $25 \%$ 程度に減らしても先行研究と同程度の性能を維持することを確認した. 今後は他の説得対話データセットにアノテーションを施し,汎用的なフェイスアクト分類に基盤モデルが有効であるかを検討したい.また,より高度なプロンプトの設計手法を採用することも有望な方針である.
## 謝辞
理化学研究所の吉野幸一郎氏には,本研究を始めるにあたり貴重なご助言を賜りました。ここに感謝の意を表します。本研究は JSPS 科研費 JP19H05692 の助成を受けたものです.
## 参考文献
[1] Penelope Brown and Stephen C Levinson. Universals in language usage: Politeness phenomena. In Questions and politeness: Strategies in social interaction, pp. 56-311. Cambridge University Press, 1978.
[2] Ritam Dutt, Sayan Sinha, Rishabh Joshi, Surya Shekhar Chakraborty, Meredith Riggs, Xinru Yan, Haogang Bao, and Carolyn P. Rosé. Resper: Computationally modelling resisting strategies in persuasive conversations. In Paola Merlo, Jörg Tiedemann, and Reut Tsarfaty, editors, Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, EACL 2021, Online, April 19 23, 2021, pp. 78-90. Association for Computational Linguistics, 2021.
[3] Ritam Dutt, Rishabh Joshi, and Carolyn P. Rosé. Keeping up appearances: Computational modeling of face acts in persuasion oriented discussions. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 7473-7485. Association for Computational Linguistics, 2020.
[4] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, MariaFlorina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020.
[5] Erving Goffman. Interaction Ritual: Essays in Face to Face Behavior. AldineTransaction, 1967.
[6] Xuewei Wang, Weiyan Shi, Richard Kim, Yoojung Oh, Sijia Yang, Jingwen Zhang, and Zhou Yu. Persuasion for good: Towards a personalized persuasive dialogue system for social good. In Anna Korhonen, David R. Traum, and Lluís Màrquez, editors, Proceedings of the 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28- August 2, 2019, Volume 1: Long Papers, pp. 5635-5649. As- sociation for Computational Linguistics, 2019.
[7] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[8] Zihao Zhao, Eric Wallace, Shi Feng, Dan Klein, and Sameer Singh. Calibrate before use: Improving few-shot performance of language models. In Marina Meila and Tong Zhang, editors, Proceedings of the 38th International Conference on Machine Learning, ICML 2021, 18-24 July 2021, Virtual Event, Vol. 139 of Proceedings of Machine Learning Research, pp. 12697-12706. PMLR, 2021.
[9] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed H. Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. CoRR, Vol. abs/2201.11903, , 2022.
[10] Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, and Pontus Stenetorp. Fantastically ordered prompts and where to find them: Overcoming few-shot prompt order sensitivity. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), ACL 2022, Dublin, Ireland, May 22-27, 2022, pp. 8086-8098. Association for Computational Linguistics, 2022.
[11] Ke-Li Chiu and Rohan Alexander. Detecting hate speech with GPT-3. CoRR, Vol. abs/2103.12407, , 2021.
表 6 左から八列はデータ中のラベルの分布を示しており, 最右列は会話の数を示している. 発話は一つのフェイスアクトがアノテーションされたテキストを指し,会話は特定の二人の会話参与者がやりとりする発話の全体を指す.
## A データセットの分割
表 6 に,本実験における訓練データとテストデー タの内訳を示す.ドナー会話は EE が募金に賛同した会話を示し,非ドナー会話は EE が募金に賛同しなかった会話を示す. 本実験では,ドナー会話と非ドナー会話のうちそれぞれの $80 \%$ 無作為に抽出したものを訓練データとし,残りをテストデータとした.
## B モデルと推論時の設定
本実験では四種類の GPT-3 のモデル(Ada, Babbage, Curie, Davinci) のうち, Curie と Davinciを採用した. few-shot 学習では, 1750 億のパラメータを持つ最も強力な Davinci モデル (text-davinci-002) を採用した。一方で fine-tuning では,二番目に性能の良いモデルである 130 億のパラメータを持つ Curie モデル(text-curie-001)を採用した. モデルの学習や推論をさせる際には, OpenAI の API ${ }^{1)}$ を利用した. また, fine-tuning のハイパーパラメータは OpenAI の API のデフォルトの設定を利用した.
推論に関するモデルのパラメータには「温度」と 「出力トークン数」がある. 本実験では, 出力のランダム性を排するために温度を 0 に設定した.また, 出力トークン数は 3 とした. GPT-3 のトークナイゼーションでは other が 1 トークンであり,他のフェイスアクトは全て 3 トークンである. そのため,フェイスアクトに無関係なトークンはなるべく出力しないようにするために, 最大 3 トークンまでしか出力しない設定とした.
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H7-4.pdf | # A Frustratingly Simple Conditional Likelihood-based Method for Dialogue Orientation Estimation
Yin Jou Huang, Sadao Kurohashi
Kyoto University
\{huang, kuro\}@nlp.ist.i.kyoto-u.ac.jp
}
\begin{abstract}
During a conversation, the participants constantly switch between strategies of different orientations. A participant can either adopt a forward strategy to advance the conversation toward a desirable direction, or a backward strategy to address previous conversation contents. In this work, we use dialogue orientation as a measure of an utterance's intention to change the conversational topic and propose a conditional likelihood-based method for dialogue orientation estimation. We performed experiments in both Japanese and English and verified the effectiveness of our proposed method.
\end{abstract
## 1 Introduction
During a conversation, an interlocutor can choose to direct the conversation towards a new direction (forward strategy), or simply address what is previously said (backward strategy) [1]. Take Figure 1 as an example. In response to the utterance "I like to read in my spare time.", the utterance "What genre of books do you prefer?" is a forward utterance that prompts the subsequent discussion of book genres. On the other hand, the response "Reading is a good pastime!" is a backward utterance that makes comments on the previous utterance. Dialogue orientation is used to quantify the forward/backward strategies. In this work, we define dialogue orientation as the degree of an utterance's intent to direct the conversation toward a specific topic. By this definition, a typical forward utterance would have a high orientation score, and a backward utterance would have a low orientation score.
A good interlocutor controls the flow of the dialogue by adequately switching between strategies of different dialogue orientations. If the backward strategy is overly dominant, the conversation may be dull. On the other
Figure 1: Forward and backward utterances.
hand, excessive use of the forward strategy may progress the conversation too hastily and make it difficult to build rapport between the interlocutors. Thus, controlling dialogue orientation is critical for building engaging dialogue systems.
Previous work of dialogue orientation focused on counseling dialogues and categorized counselors' utterances into backward utterances that show empathy and forward utterances that guide the patient to a calmer state [1,2]. They use singular value decomposition to acquire utterance representations and calculate the orientation score based on the variance of preceding and following utterances. Inspired by their work, we further improved the dialogue orientation estimation method to be more robust, and also considered the semantic relations of the target utterance and the surrounding context.
In this paper, we propose a simple conditional likelihood-based method for dialogue orientation estimation. We observe that while a forward utterance is semantically related to both its preceding and following contexts, a backward utterance is semantically related only to its preceding context but not its following context. Based on the above characteristics, we calculate the conditional like-
lihood of a target utterance under different contexts and calculate the orientation score of the utterance. After the orientation scores are calculated, we use a heuristic method to decide the threshold value between backward and forward strategies and get the discrete orientation labels.
We conduct experiments in both Japanese and English, using DailyDialog dataset [3] and Kyoto University Hobby Chat Dialogue Corpus (KUHCC) [4] respectively. Evaluations on manually labeled data and showed improved results over previous method. We also perform a thorough analysis of the characteristics of dialogue orientation and verified the effectiveness of our proposed method.
## 2 Dialogue Orientation Estimation
In this section, we introduce our proposed method for dialogue orientation estimation. We train a conditional utterance prediction model and use the model to estimate the dialogue orientation of a given utterance. Also, we propose a heuristic method to deduce discrete orientation labels.
## 2.1 Conditional Utterance Prediction Model
We train a conditional utterance prediction model to capture the semantic relations among utterances. Taking the history and future contexts as input, the model predicts the utterance that fits the given context.
For each utterance $u_{t}$ in the corpus, we take $k$ preceding utterances as history context and $j$ following utterances as future context. The model input is defined as follows:
$
u_{t-k}[\mathrm{SEP}] \ldots u_{t-1}[\mathrm{MASK}] u_{t+1}[\mathrm{SEP}] \ldots u_{t+j}
$
where special token [SEP] indicates the utterance boundaries, and [MASK] indicates the position of the target utterance. Given the above input, the model generates the target utterance $u_{t}$.
## 2.2 Conditional Likelihood-based Dialogue Orientation Score
Based on the conditional utterance prediction model (Section 2.1), we calculate the conditional likelihood-based dialogue orientation score.
The following is the intuition of our proposed method: Since a forward utterance directs the conversation topic toward a specific direction, it imposes semantic constraints on its subsequent utterances. Thus, the future context provides important information for predicting a forward utter- ance. Take the forward utterance in Figure 1 as an example. It is difficult to predict the forward utterance accurately only by looking at the history context. However, if we look at the future context ("I enjoy fantasy and sci-fi the most."), we can get a rough idea that the utterance before it is talking about genres of books.
In contrast, a backward utterance addresses previous conversational contents and does not impose strong additional constraints on its following context. Thus, the future context of a backward utterance often provides little information in the prediction of the backward utterance.
Based on the above observations, we consider the conditional likelihood of a target utterance $u$ given different contexts. For typical forward utterance $u^{f}$ and backward utterance $u^{b}$, we expect the conditional likelihood of $u$ to exhibit the following property:
$
\left.\{\begin{array}{l}
p\left(u^{f} \mid \text { history }, \text { future }\right)>p\left(u^{f} \mid \text { history }\right) \\
p\left(u^{b} \mid \text { history }, \text { future }\right) \approx p\left(u^{b} \mid \text { history }\right)
\end{array}\right.
$
with history and future being the history and future context of $u$.
We use perplexity to measure the conditional likelihood and calculate the dialogue orientation score. Given $k$ preceding utterances and $j$ future utterances of the target utterance $u_{t}$, we calculate the perplexity of $u_{t}$ conditioned on both history and future context ( $\left.p p l_{A L L}\right)$, and the perplexity of $u_{t}$ conditioned on history context alone ( $p p l_{H I S T}$ ):
$
\left.\{\begin{array}{l}
p p l_{A L L}=p p l\left(u_{t} \mid u_{t-k}, \ldots, u_{t+1} ; u_{t+1}, \ldots, u_{t+j}\right) \\
p p l_{H I S T}=p p l\left(u_{t} \mid u_{t-k}, \ldots, u_{t-1}\right)
\end{array}\right.
$
We define the orientation score under this condition as:
$
s_{t}(k, j)=-\left(p p l_{A L L}-p p l_{H I S T}\right)
$
Note that the value of $s_{t}(k, j)$ depends on the length of history and future context ( $k$ and $j$ ). To calculate the orientation score of $u_{t}$, we fix the history context size to $k=3$ and take the future context size $j$ that gives the highest $s_{t}(k, j)$ :
$
s_{t}=\max _{j \in[1,5]} s_{t}(k, j)
$
Multi-sentence utterances An utterance can contain more than one sentence, and different sentences could exhibit different orientation strategies. Thus, in addition to the utterance-level orientation scores $\left(u_{t}\right)$, we also calculate the sentence-level orientation scores. Replace $u_{t}$ with its constituent sentence in equation (3) gives the sentencelevel orientation score.
(a) DailyDialog.
(b) KUHCC.
Figure 2: Distribution of the forward and backward utterances.
## 2.3 Discrete Orientation Label
The scores calculated in Section 2.2 provide a measure of dialogue orientation, but how large/small does a score have to be to suggest a forward/backward strategy? In this section, we introduce a heuristic method to decide a threshold value between forward and backward utterances.
In dialogues between human interlocutors, a speaker tends to first address the previous conversational content (backward) and then advance to some new topic (forward), but not vice versa. We focus on utterances with multiple sentences, and calculate the orientation score of the first and the last sentence. If the last utterance exhibits a higher orientation score than the first utterance, then the utterance is likely to exhibit the 'backward-then-forward' pattern. Figure 2 shows the distribution of orientation score of the first and last sentences in multi-sentence utterances (DailyDialog dataset). Here, we view the first sentence as a backward utterance and the last sentence as a forward utterance.
Next, we fit Gaussian distributions to the orientation scores of the last sentences (forward) and first sentences (backward), respectively. We use the intersection of the two Gaussian curves as the threshold value $\delta$ between forward and backward orientation scores. Using this threshold value, we classify utterances with an orientation score larger than $\delta$ as forward utterances, and the ones with an orientation score smaller than $\delta$ as backward utterances.
## 3 Experiments
In this section, we conduct experiments to verify the effectiveness of our proposed orientation estimation method.
Table 1: Orientation prediction accuracy of different orientation estimation methods.
## 3.1 Experimental Settings
In this work, we conduct experiments in English and Japanese. For English, we use the general-purpose DailyDialog dataset [3]. The dataset contains 13,118 dialogues of 10 different categories. For Japanese, we use the KUHCC [4] corpus. The corpus contains 4, 911 dialogues collected with crowdsourcing. In each dialogue, the two participants talk about their hobbies.
We use the pretrained BART base model [5] for the conditional utterance prediction model. For each target utterance, we take the previous $k=3$ utterances as the history context and randomly use $j=5$ utterances as the future context. The threshold value obtained by the discrete label deduction method method in Section is $\delta_{e n}=0.209$ for English and $\delta_{j p}=0.053$ for Japanese corpus.
## 3.2 Evaluation
We perform quantitative analysis with manually labeled samples. We manually labeled 158 utterances in the KUHCC corpus with orientation labels (forward or backward). Similarly, for the DailyDialog corpus, 160 labeled utterances are collected as the evaluation set.
Table 1 shows the accuracy score of our proposed method (Proposed) and the orientation estimation method
$\mathrm{S}_{1}$ : I love watching baseball. However, I haven't watched any game since last year. $S_{2}$ : You haven't been to even one game?
$S_{1}$ : I really want to go, but the tickets are difficult to come by due to the restrictions.
B $\quad \mathrm{F}$
$\mathrm{S}_{1}$ : I love watching soccer.
$S_{2}$ : You go watch the game in person?
F
$S_{1}$ : I got into the habit only several years ago, I haven't got the chance to watch in person.
$\mathrm{S}_{1}: \mathrm{I}$ am the fan of the baseball player Martin
$S_{2}$ : I don't know much about baseball, but I have heard of him!
$\mathrm{S}_{1}$ : I just went to a game in Makuhari last weekend.
B
$S_{2}$ : You go watch the game in person?
$\mathrm{S}_{1}$ : Yeah, it was really exciting!
Table 2: Case analysis. The target utterance is in bold font and the correct label is highlighted in bold. The correct orientation label is highlighted in bold. Examples from the KUHCC corpus are translated into English.
proposed by Zhang et al. [1] (Baseline). The proposed method outperformed the baseline method by 21.3 points for DailyDialog, and 4.3 points for KUHCC corpus.
## 3.3 Case Study
We perform a case study of the predicted orientation labels (Table 2).
Indirect utterance The first row of Table 2 shows an example of indirect utterance whose surface form differs from its intent. The target utterance is in the interrogative form, but its intent is confirmation rather than asking for information. Since typical questions are followed by corresponding answers to fulfill the turn-taking rules of communication [6, 7], they lean towards the forward end of the orientation spectrum. However, a question could have intents other such as confirmation or irony [8], which indicates a backward strategy. Our proposed method classified this utterance as backward correctly, while the baseline method classified it as forward. We speculate that the baseline method is influenced by the textual indicators of questions ${ }^{1)}$ and has the tendency to classify the utterance with question form as forward. This example shows that our proposed method predicts the orientation not only based on the surface form but also on the semantic relations between the target utterance and the surrounding context.
Context dependency The second and third rows in Table 2 illustrate that an utterance could have a different orientation depending on the context. In the first sample, the utterance "You go watch a game in person?" is
1) Many languages have textual indicators of questions, such as question marks, interrogative words such as the 5W1H in English, the $k a$ in Japanese, to name a few. a forward utterance and leads to further discussion about different ways of watching soccer games. However, in the second sample, the same utterance is a backward utterance that aims to express the emotion of surprise. The proposed orientation estimation method correctly predicts both samples. The above examples illustrate that our proposed method can adequately reflect the difference in context when predicting the orientation.
## 4 Conclusion
In this work, we studied dialogue orientation, which is an important dialogue characteristic indicating the forward strategy and backward strategy of conversation. We proposed a simple conditional likelihood-based method for estimating dialogue orientation. We applied our proposed dialogue orientation estimation method to Japanese and English corpora and conducted a thorough analysis. The analysis illustrated the robustness of our model in handling cases of misleading surface forms. Also, the proposed model adequately captures the context-dependent nature of dialogue orientation.
For future work, we consider downstream applications of dialogue orientation. We expect the dialogue orientation measure to be helpful in dialogue analysis, such as dialogue breakdown detection, quality control of crowdsourced dialogue data, etc. Also, incorporating and controlling dialogue orientation to a dialogue agent can lead to more engaging conversations.
## Acknowledgement
This work was supported by project JPNP20006, commissioned by New Energy and Industrial Technology Development Organization (NEDO). Also, this work was supported by JST, CREST Grant Number JPMJCR20D2, Japan.
## References
[1] Justine Zhang and Cristian Danescu-Niculescu-Mizil. Balancing objectives in counseling conversations: Advancing forwards or looking backwards. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5276-5289, Online, July 2020. Association for Computational Linguistics.
[2] Brian L Mishara, François Chagnon, Marc Daigle, Bogdan Balan, Sylvaine Raymond, Isabelle Marcoux, Cécile Bardon, Julie K Campbell, and Alan Berman. Which helper behaviors and intervention styles are related to better shortterm outcomes in telephone crisis intervention? results from a silent monitoring study of calls to the us 1-800-suicide network. Suicide and Life-Threatening Behavior, Vol. 37, No. 3, pp. 308-321, 2007.
[3] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multi-turn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing.
[4] Takashi Kodama, Frederic Bergeron, Hayato Atarashi, Ribeka Tanaka, Wataru Sakata, and Sadao Kurohashi. Japanese Dialogue Collection Platform Available in Crowdsourcing. In Proceedings of the 27th Annual Conference of the Association for Natural Language Processing (In Japanese), pp. 859-864, 2021.
[5] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[6] Emanuel A Schegloff and Harvey Sacks. Opening up closings. 1973.
[7] Silvia Pareti and Tatiana Lando. Dialog intent structure: A hierarchical schema of linked dialog acts. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA).
[8] John R Searle. Indirect speech acts. In Speech acts, pp. 59-82. Brill, 1975. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H7-5.pdf | # ゼロ照応解析に基づく 項省略補完を取り入れた対話応答生成
上山彩夏 狩野芳伸
静岡大学大学院総合科学技術研究科
aueyama@kanolab.net kano@inf.shizuoka.ac.jp
## 概要
人間同士の対話では,言外の情報が重要である.昨今の対話システムには,対話履歴から応答を直接生成する手法が広く用いられているが,対話履歴内の述語の項は頻繁に省略されるため,統計的なパターンを学習するのみでは,言葉には表れない発話意図を波み取ることが難しい,そこで,対話履歴内の省略された情報を推測し,明示的に補完した対話履歴から応答を生成する Dialogue Completion using Zero Anaphora Resolution framework (DCZAR) を提案する。自動評価及び人手評価の結果,DCZAR が応答の首尾一貫性と魅力度を大幅に向上させることを確認した。
## 1 はじめに
人間同士の対話は,常識的知識や共有認識からなる共通基盤に依存している $[1,2]$. 表 1 の対話では,多くの情報が省略されているが,2人の話者は常識的知識や文脈をもとに相手の意図を汲み取ることができている.昨今の対話システムは深層学習技術の発展により,着実に性能が改善されているものの $[3,4,5]$, 表 1 のような発話の意図を正確に捉えることはできていない $[6,7]$. これは,人間とシステ么の間に共通基盤が存在しないことに起因すると考えられる. 既存の対話システムは,対話履歴から応答を直接生成する手法が広く用いられており, 共通基盤構築の過程を明示的に扱っていない。また,対話履歴には多くの省略があるため, 発話の意図を学習することが困難となっている。この問題に対し,外部知識を導入し,人間の常識的知識をモデルに与えることで,人間とモデルのギャップを埋める知識ベース $(\mathrm{KB})$ を用いる手法が数多く提案されているが $[8,9,10], \mathrm{KB}$ の構築にかかるコストは大きく,異なるドメインやモデルへの転用も容易ではない.表 1 対話例. highlight は省略された情報.
話者 A: 最近、友人が学校に来ていません。私は友人に連絡して良いですかね?
話者 B:友人が 1 人で悩んでいるかもしれないので、あなたは友人に連絡すべきです。
本研究では,外部知識を利用せずに,発話の意図を捉える手法を検討する.対話相手の発話意図を汲み取るためには,登場する人物や事物の役割とその変遷を把握することが重要である。そのため,それら人物や事物とその役割を推測し,明示的に取り入れることで,相手の意図に沿った応答を生成できるようになり,首尾一貫した対話が実現できると期待される.そこで,省略された照応を推測するゼロ照応解析の考えから着想を得て,対話履歴内の省略された情報を推測し,明示的に補完した対話履歴から応答を生成するゼロ照応解析に基づく対話応答生成フレームワーク (Dialogue Completion using Zero Anaphora Resolution framework; DCZAR) を提案する。DCZAR は,述語項構造解析 (Predicate Argument Structure analysis; PAS) モデル, 対話補完 (Dialogue Completion; DC) モデル,応答生成 (Response Generation; RG) モデルの 3 つのモデルで構成する. PAS モデルは対話履歴内の省略された項を解析し,DC モデルは補完する項と補完位置を決定し,明示的に補完する。その後, RG モデルは補完された対話履歴から応答を生成する. PAS モデル, $\mathrm{RG}$ モデルは事前学習済みモデルを各タスクに対応するデータセットで fine-tuning したモデルで, DC モデルは事前学習済みモデルを fine-tuning せずに利用する. 本研究では,2 種類の事前学習タスク (Cloze [11], PZERo [12]) と 2 種類のデータセット (Wikipedia,Twitter)を組み合わせ,計 4 種類の事前学習済みモデルを構築し,各タスクにおいてどのモデルが優れた性能を達成するか検証した。
本研究の主要な貢献は以下の三点である.
・ゼロ照応解析に基づく項省略補完を応答生成モデルに取り入れることで,応答の首尾一貫性と魅力度が大幅に向上することを示した (4.5 節).
・対話データに類似した特徴を持つ Twitter デー タにより事前学習することで,ゼロ照応解析の性能を向上させた (4.3 節).
・対話補完モデルが対話に含まれる省略を十分な性能で補完できることを確認した (4.4 節).
## 2 関連研究
## 2.1 対話応答生成
対話応答生成は,対話履歴に続く応答を生成するタスクであり,ソース文からターゲット文を生成する系列変換問題として定式化できる $[7,13]$.
## 2.2 ゼロ照応解析
ゼロ照応解析は, 与えられた文章に対し, 述語の省略された引数 (ガ格, Э格,二格)を検出し,その先行詞を同定するタスクであり,述語項構造解析夕スクの一部として定式化できる. ゼロ照応は述語とその項の位置関係に応じて, 文内ゼロ ${ }^{1)}{ }^{\text {(intra }) \text {, 文間 }}$
た,述語の引数が述語と直接係り受け関係にある場合,その引数は構文従属引数 (dep) である.
日本語ゼロ照応解析に関して,様々な研究が行われてきた [15,16,17]. Konno ら [12] は,ゼロ照応解析にはゼロ代名詞と先行詞の文脈的なつながりを理解するための常識的な知識が重要だと考え,以下の事前学習タスクと fine-tuning 手法を提案した.
擬似ゼロ代名詞解析 (PZERO) 入力系列に 2 回以上出現する名詞句のうち 1 つを [MASK] に置換し, [MASK] に埋まるべき名詞句を入力系列 $X$ から選択する事前学習タスクである. [MASK] を系列 $X$ から選択するタスクは, ゼロ代名詞に対応する先行詞を同定するタスクと類似しているため,モデルがゼロ照応解析に必要な知識を獲得できると期待される.
類似ゼロ代名詞に基づく項選択 (AS-PZERO) PZERO で訓練されたパラメータを用いて,PZERO と同様の形式で述語項を解析する手法である. モデル
1)先行詞が同一文中に存在する.
2)先行詞が述語の文より前方に存在する
3)先行詞が文中に存在しない。
は,系列 $X$ 及び $X$ に含まれる述語を入力として受け取り,述語の項となる単語を $X$ から選択する. 述語の項が入力系列に存在しない場合は,モデルに [CLS] を選択させ,項をさらに4つのカテゴ $リ^{4)}$ (author, reader, general, none)へ分類する.
## 3 提案手法
我々が提案する DCZAR の概要を図 1 に示す.
PAS モデル長さ $T$ の対話履歴 $X=\left.\{x_{1}, x_{2}, \ldots, x_{T}\right.\}$ に対して,述語項構造解析を行い, $X$ に含まれる $n$ 個の述語 $P=\left.\{p_{1}, p_{2}, \ldots, p_{n}\right.\}$ の $l$ 格方の項 $A_{l}=\left.\{a_{l, 1}, a_{l, 2}, \ldots, a_{l, n}\right.\}$ を予測する.
DC モデル対話履歴 $X$ と述語 $P$, PAS モデルが予測した述語の項 $A_{l}$ を用いて, $X$ 内の省略を明示的に補完する。補完を行う際には,補完する項とその補完位置を決定する必要がある。 ある述語 $p_{i}$ とその直前の述語 $p_{i-1}$ の間 (探索範囲 $r_{i}$ ) に項 $a_{l, i}$ の先行詞が出現しているかを確認し,現れていなければ, その項は補完の対象とする. その後,項 $a_{l, i}$ を $r_{i}$ 内の各トークン間に挿入する場合と項 $a_{l, i}$ を挿入しない場合の文を作成し,文章の自然さを表す指標である Pseudo-log-likelihood scores (PLLs) [18] を算出する.そして,最もスコアが高い文を適切な位置に補完された文とみなし, RG モデルの入力に利用する。
RG モデル DC モデルに補完された対話履歴とそれに続く応答により訓練されたモデルであり,推論の際は対話履歴のみを入力とし,応答生成を行う。
## 4 実験
## 4.1 事前学習
2 種類のタスク (Cloze [11],PZERO [12])と 2 種類の日本語データセット (Wikipedia,Twitter)を組み合わせ,計 4 種類の事前学習済みモデル (wiki-cloze, twitter-cloze, wiki-pzero, twitter-pzero)を構築した。また,モデルの初期パラメータとして, bert-base-japanese-whole-word-maskingを用いた.
## 4.2 比較モデル
4.1 節に示した事前学習済みモデルを PAS,DC, RG の各モデルに使用し,性能比較を行った。比較パターンを表 2 に示す. 例えば,(e) の RGwiki-cloze
表 3 PAS モデルの自動評価結果 $\left(F_{1}\right)$
は前処理として,PASwiki-cloze とDCwiki-cloze を用いる。また,(a)から (d) は補完を一切行わないべー スラインモデルであり,(h) は提案する事前学習済みモデル (twitter-pzero) のみを組み合わせたモデルである。なお,DC モデルで利用する PLLs は Cloze タスクが解けるモデルを必要とするため, (g) と (h) の DC モデルは, wiki-pzero と twitter-pzero の代わりに wiki-cloze と twitter-clozeをそれぞれ適用している。
## 4.3 実験 1 : PAS モデル単体の性能評価
本実験では,表 2 に示した (e) から (h) の PAS モデルの述語項構造解析の性能 $\left(F_{1}\right)$ を評価した. PAS モデルは事前学習済みモデルに対し, NAIST Text Corpus 1.5 [14]を用いて, AS-PZERO による fine-tuning を行ったモデルである. PAS モデルへの入力は,述語を含む文とその前方文で,述語に対応する先行詞表 4 DC モデルの人手評価結果
と格情報を出力するように学習される。
実験結果を表 3 に示す. 提案した PAS twitter-pzero がゼロ照応解析において, 最も高い性能を達成した. Twitter データで事前学習したモデルは, Wikipedia データで事前学習したモデルと比較して性能が高く, 特に外界ゼロ $(e x o)$ で大きな向上を示している.
## 4.4 実験 2:DC モデル単体の性能評価
本実験では,表 2 に示した (e)から (h)の DC モデルの補完性能を人手評価により評価した. 人手評価には, JPersonaChat と JEmpatheticDialogues [19] から 4 つのモデルごとにランダムサンプリングした各 250 件を用いた. 5 人の評価者に対し,補完前の対話履歴と補完後の対話履歴を提示し, 補完した項と補完位置の双方が適切かを決定してもらった。
表 4 に実験結果を示す. 提案した DC twitter-pzero が対話補完において, 最も性能が高かった. Cloze, PZERO ともに, Wikipedia データではなく, Twitter データを事前学習に用いることで, 性能が向上している $(74.80 \rightarrow 77.20,72.40 \rightarrow 84.80)$. また,表 3 においても,(h) が最も優れた性能を示していることから,対話補完の性能は述語項構造解析の性能に関連していると考えられる。
## 4.5 実験 3:DCZAR の性能評価
本実験では,表 2 亿示した (a)から (h) の対話応答生成の性能を自動評価及び人手評価により評価し
表 $5 \mathrm{RG}$ モデルの自動評価結果
} \\
表 $6 \mathrm{RG}$ モデルの人手評価結果. */**は,カイ二乗検定で $p<0.05 / 0.01$ での統計的有意差があることを示す. N/A は,多数決で「分からない」が選択された場合と 3 人の評価者で評価が割れた場合の件数である.
& & \multirow{2}{*}{ 魅力度 } \\
(e) & + DCZAR (ours) & 28 & $\mathbf{5 4}^{* *}$ & $\mathbf{5 5}^{* *}$ \\
& N/A & 42 & 1 & 1 \\
(f) & + DCZAR (ours) & $\mathbf{3 4}$ & $\mathbf{5 7}^{* * *}$ & $\mathbf{5 4 * *}$ \\
& N/A & 36 & 0 & 0 \\
(g) & + DCZAR (ours) & 33 & $\mathbf{5 2 * *}$ & 47 \\
& N/A & 33 & 3 & 2 \\
(h) & + DCZAR (ours) & $\mathbf{3 8}$ & $\mathbf{6 2 * *}$ & $\mathbf{5 9 * *}$ \\
& N/A & 30 & 0 & 0 \\
た. RG モデルは,BERT を Encoder 及び Decoder に利用する BERT2BERT [20] に対し, JPersonaChat と JEmpatheticDialogues を用いて, fine-tuning を行ったモデルである. (a) から (d) はベースラインモデル, (e) から (h) はDCZAR を適用した提案モデルであり,ベースラインモデルの入力には,データセットに含まれる対話履歴 $H$ をそのまま利用し, 提案モデルの入力には, $H$ 内の省略を補完した対話履歴 $H^{\prime}$ を用いた。
自動評価には,BLEU [21],ROUGE-L [22], DISTN [23],BERTScore [24] を採用した. 人手評価は, JPersonaChat と JEmpatheticDialogues から,4 種類の事前学習済みモデルごとにランダムサンプリングした 100 件,計 400 件を全ての評価者が全件評価した. 3 人の評価者に対し, 対話履歴とベースラインモデル,提案モデルが生成した 2 つの応答を提示乙,異なる評価基準 (文法的流暢性,首尾一貫性,魅力度) に基づいて 1 つを選択するか,「分からない」 を選択するペアワイズ比較を行った.最終的な評価値は,3名の多数決によって決定した.
表 5 に自動評価結果を示す. BLEU-1, 3, 4 及び ROUGE-L においては,提案モデルがベースラインモデルを上回ることを確認したが,有意な差は見られなかった. 提案手法は,項を補うことによって, より首尾一貫した応答が生成できると期待されるが,その貢献は単語統計の結果には変化をもたらさないと考えられるため,これら自動評価尺度は必ずしも適切な評価尺度とは言えない。
表 6 に人手評価結果を示す. 文法的流暢性は,全てのモデルにおいて有意差が認められなかったが, RGtwitter-cloze+DCZAR と RGtwitter-pzero+DCZAR はベースラインモデルの性能を上回った. 有意差が認められなかった原因は,他の観点と比較して, N/A の件数が多いことが考えられる.首尾一貫性は,全ての提案モデルがベースラインモデルと比較して,有意に向上している。これは,応答を生成する際に,省略を明示的に補完した対話履歴を用いることが首尾一貫性の評価に寄与することを示している.魅力度は,RGwiki-pzero+DCZAR 以外の全てのモデルにおいて,ベースラインモデルと比較して,有意に向上している. 人手評価の結果より, DCZAR はより首尾一貫した,魅力的な応答の生成に貢献することが示された。
## 5 おわりに
本研究では,対話履歴内の省略された情報を推測し,明示的に補完した対話履歴から応答を生成する DCZAR を提案した. 実験の結果,DCZARを適用することで,より首尾一貫した,魅力的な応答を生成できることが分かった.今後の展望として,異なるタスクや他の言語への適用などが挙げられる.
## 謝辞
本研究は JSPS 科研費 JP22H00804,JP21K18115 の
助成及び JST AIP 加速課題 JPMJCR22U4 の支援を受
けたものです.
## 参考文献
[1] Robert C. Stalnaker. Assertion. pp. 315-332, 1978.
[2] Herbert H. Clark and Edward F. Schaefer. Contributing to discourse. Vol. 13, No. 2, pp. 259-294, 1989.
[3] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internetaugmented dialogue generation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 8460-8478, 2022.
[4] Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George Bm Van Den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, and et al. Improving language models by retrieving from trillions of tokens. In Proceedings of the 39th International Conference on Machine Learning, pp. 2206-2240, 2022.
[5] Romal Thoppilan, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, and et al. LaMDA: Language models for dialog applications. arXiv:2201.08239, 2022.
[6] Tiancheng Zhao, Ran Zhao, and Maxine Eskenazi. Learning discourse-level diversity for neural dialog models using conditional variational autoencoders. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 654-664, 2017.
[7] Iulian Vlad Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron Courville, and Yoshua Bengio. A hierarchical latent variable encoder-decoder model for generating dialogues. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, 2017.
[8] Xueliang Zhao, Wei Wu, Can Xu, Chongyang Tao, Dongyan Zhao, and Rui Yan. Knowledge-grounded dialogue generation with pretrained language models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 3377-3390, 2020.
[9] Mihail Eric, Nicole Chartier, Behnam Hedayatnia, Karthik Gopalakrishnan, Pankaj Rajan, Yang Liu, and Dilek Hakkani-Tur. Multi-sentence knowledge selection in open-domain dialogue. In Proceedings of the 14th International Conference on Natural Language Generation, pp. 76-86, 2021.
[10] Yan Xu, Etsuko Ishii, Samuel Cahyawijaya, Zihan Liu, Genta Indra Winata, Andrea Madotto, Dan Su, and Pascale Fung. Retrieval-free knowledge-grounded dialogue response generation with adapters. In Proceedings of the Second DialDoc Workshop on Document-grounded Dialogue and Conversational Question Answering, pp. 93-107, 2022.
[11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019.
[12] Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, and Kentaro Inui. Pseudo zero pronoun resolution improves zero anaphora resolution. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3790-3806, 2021.
[13] Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay Pujara, Xiang Ren, Yang Liu, and Dilek
Hakkani-Tur. Think before you speak: Explicitly generating implicit commonsense knowledge for response generation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 1237-1252, 2022.
[14] Ryu Iida, Mamoru Komachi, Naoya Inoue, Kentaro Inui, and Yuji Matsumoto. Annotating predicate-argument relations and anaphoric relations: Findings from the building of the naist text corpus. Vol. 17, No. 2, pp. 25-50, 2010.
[15] Ryohei Sasano and Sadao Kurohashi. A discriminative approach to Japanese zero anaphora resolution with large-scale lexicalized case frames. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 758-766, 2011.
[16] Souta Yamashiro, Hitoshi Nishikawa, and Takenobu Tokunaga. Neural Japanese zero anaphora resolution using smoothed largescale case frames with word embedding. In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation, 2018.
[17] Masato Umakoshi, Yugo Murawaki, and Sadao Kurohashi. Japanese zero anaphora resolution can benefit from parallel texts through neural transfer learning. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1920-1934, 2021.
[18] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, 2020.
[19] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformerbased japanese chit-chat systems. arXiv:2109.05217, 2021.
[20] Sascha Rothe, Shashi Narayan, and Aliaksei Severyn. Leveraging pre-trained checkpoints for sequence generation tasks. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 264-280, 2020.
[21] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
[22] Chin-Yew Lin and Franz Josef Och. Automatic evaluation of machine translation quality using longest common subsequence and skip-bigram statistics. In Proceedings of the 42nd Annual Meeting of the Association for Computational Linguistics, pp. 605-612, 2004.
[23] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics, pp. 110-119, 2016.
[24] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020 .
[25] Hirotoshi Taira, Sanae Fujita, and Masaaki Nagata. A Japanese predicate argument structure analysis using decision lists. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 523-532, 2008.
[26] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 2204-2213, 2018-07.
[27] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, 2019.
## A データセットの統計情報
Wikipedia 日本語 Wikipedia のダンプデータ6)を訓練/検証セットに含まれる事例数が $15 \mathrm{M} / 3 \mathrm{k}$ (トークン数は $763 \mathrm{M} / 220 \mathrm{k})$ になるように分割した. 本データを PZERO に用いる際には,名詞句を同定する必要があるが,Konno ら [12] と同様の手法で行った.
Twitter Twitter $\mathrm{API}^{7}$ )を用いて収集したツイートを訓練/検証セットに含まれる事例数が $70 \mathrm{M} / 30 \mathrm{k}$ (トークン数は $504 \mathrm{M} / 200 \mathrm{k}$ ) になるように分割した. 名詞句の同定は,Wikipedia と同様の手法を採用した.
NAIST Text Corpus 1.5 述語と表層格の関係などが付与されたコーパスである. Taira ら [25] の手法に従って,訓練/検証/評価セットに分割した。
JPersonaChat PersonaChat [26] の日本語版で, Sugiyama ら [19] の手法に従って, 対話履歴と応答のペアを作成し,訓練/検証/評価セットに含まれる対話数が $50 \mathrm{k} / 3 \mathrm{k} / 4 \mathrm{k}$ になるように分割した。なお,本研究ではペルソナ記述文は利用していない.
JEmpatheticDialogues EmpatheticDialogues [27] の日本語版で, Sugiyama ら [19]の手法に従って, 対話履歴と応答のペアを作成し, 訓練/検証/評価セットに含まれる対話数が $50 \mathrm{k} / 3 \mathrm{k} / 7 \mathrm{k}$ になるように分割した.
## B 生成応答例の分析
表 7 に生成した応答例を示す.
## 文法的流暢性で評価に差が無かったのはなぜか?文法的流暢性8) において,有意差が認められなかっ たのは,他の観点と比較し, N/A が多いことに起因 すると考えられる. 対話例 1 は 3 人の評価者が「分 からない」を選択して,N/A に分類された例である。 この例では,2つのモデルが異なる内容の応答を生成しているものの, どちらの応答も文法的には誤っ ておらず,このような場合には判断が難しいと考え られる。
## 提案手法は首尾一貫性の向上に寄与しているか?
対話例 2 は, 提案モデルの応答がより首尾一貫9) していると評価された例の 1 つである. 対話例 2 の対話履歴には, 「夫 $」$ 「ご主人」,「妻」,「専業主
6) https://dumps.wikimedia.org/jawiki/latest/ jawiki-latest-pages-articles.xml.bz2
7) https://developer.twitter.com/en/products/ twitter-api
8)どちらの応答が文法にかなっているか,日本語として流暢か (対話履歴の内容は考慮しない)。
9)どちらの応答が対話履歴の内容を考慮しているか,対話履歴と応答の内容が一貫しているか.表 7 生成応答例. highlight は提案モデルにより補完された項を表す。
\\
婦」といった人物の役割を表す名詞が多く存在しており,さらに「贈る」に対応する項が省略されているため,誰に関する話をしているのかが判断しづらい. RGtwitter-pzeroは妻に関する話だと誤った解釈をして,応答を生成しているが,提案した $\mathrm{RG}$ twitter-pzero+DCZAR は夫に関する話だと正しく解釈をして,応答を生成している。これは,省略された項を明示的に補完することが首尾一貫性の向上に寄与していることを示唆している.
魅力的な応答の特徵は何か?対話例 3 は,提案モデルの応答がより魅力的 ${ }^{10)}$ であると評価された例の 1 つである. 対話例 3 より,魅力的だと評価される応答は,より具体的で首尾一貫した応答であると考えられる。そこで,首尾一貫した応答ほど魅力的な応答であるという仮説を立て,各指標間の相関について分析した. その結果,「文法的流暢性」と「魅力度」における相関係数は 0.223 であり,「首尾一貫性」と「魅力度」における相関係数 0.850 であった. このことから,首尾一貫している応答と魅力的な応答には強い相関があることが示され,内容が一貫した話者と対話を継続したいと感じる傾向にあることが明らかになった.
と対話を継続したいと感じるか. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H8-1.pdf | # 語彙と品質を考慮したデータ水増しの言語教育支援への適用
中町 礼文 ${ }^{1}$ 西内 沙恵 ${ }^{2}$ 浅原 正幸 3 佐藤 敏紀 ${ }^{1}$
${ }^{1}$ LINE 株式会社 2 北海道教育大学 3 国立国語研究所
\{akifumi . nakamachi, toshinori.sato\}@linecorp.com
nishiuchi.sae@a.hokkyodai.ac.jp
masayu-a@ninjal.ac.jp
## 概要
本研究では,テキスト生成のための基盤モデルを用いて, 語彙と品質を考慮したデータ水増しのシステムを提案した. 提案手法によるコーパス構築の応用可能性の検証として, 言語教育支援に向けたコー パス構築を行った. 本研究では, 提案手法を用いて,語彙, 難易度, テキストの組からなる約 500 件程度の元データを, 4 倍以上に拡充した. また, 生成したデータのみによる文難易度推定器が, 人手により作成した推定器構築用の学習データを用いた推定器と同等以上の性能を持つことを確認し, 提案手法によるコーパスの自動構築の応用可能性を示した.
## 1 はじめに
自動採点や, 問題文の自動生成をはじめとした言語教育支援において, 良質な言語資源が必要不可欠である.しかし, 人手により,レベル・語彙が制御された例文データを作例する事は非常にコストが高い. そこで, 教科書や試験問題をはじめとする, 言語教育向けの高品質なリソースから文を抽出して, コーパスを作成することが考えられる. 高品質なりソースには限りがあり, また, 画一的なリソースからのデータ収集では, 個々の学習者に対しての適切なレベル・語彙を用いた例文の作例に対応できない. コーパス構築の効率化や, 個々の学習状況に応じた言語学習支援に向けて, 語彙や品質がある程度保証された言語資源の拡張手法の適用が考えられる。
言語資源の拡張手法として, データ水増し (Data Augumentation, DA) が広く研究されている. 特に, GPT-3 [1]をはじめとする,テキスト生成のための基盤モデルを用いた,スタイルを維持したテキスト生成でデータ水増しを行う手法 $[2,3]$ が存在する.
本研究では, GPT-3 と同等な形式の, 日本語のテキスト生成のための基盤モデルである HyperCLOVA[4]表 1: JLPT の習熟度の目安
を用いて, 語彙と品質が考慮された文生成システムを提案する. 非母語話者の言語学習支援への適用を通じて, 提案手法のコーパス自動構築の応用可能性の検証を行う.テキストの品質については, 日本語能力試験 (JLPT) の習熟度 (表 1) ${ }^{1}$ ) に基づく.まず, 語彙と品質がある程度保証されたコーパスの自動構築を行い, 語彙を適切に含めた例文が作成できることをを検証する.さらに,作成したコーパスのみによる文難易度推定の性能を検証する.これらの検証を通じて, 記述文の自動採点や, 語彙・文法問題などの作問支援への応用可能性を確認する.
図 1: 難易度を考慮した例文生成システム
図 2: 語彙と難易度を考慮した例文生成システム
## 2 関連研究
言語処理において, データ水増しは広く研究されている. 単純な手法として, テキスト内の語彙を削除・置換・類義語辞書を用いた変換で水増しする EDA[5] がある. EDA は, 機械学習の精度改善のためのデータとしては利用できるが, 単純な単語操作のため,テキストの文法性が保障されない.
また, 基盤モデルを用いた判別タスク向けのデー タ水増しとして, 小規模な生成型の基盤モデルをファインチューニングして例を作成し, 生成されたテキストを判別器でフィルタする手法 $[6,7,8]$ が存在する. 小規模な生成型の基盤モデルのファインチューニングによる手法では, ファインチューニングのためにある程度コーパスが必要である.
ごく小規模な資源による文法性がある程度保たれたデータ水増しを行う手法として, 大規模な基盤モデルである GPT-3を用いた Prompt ベースのデータ水増しがある. GPT3Mix[2] では, テキストとラベルからなる Promptを与えて, テキストとラベルのぺアを作成する. また, Sahu ら [3] は, あるラベルのテキストのみで構成した Prompt で, ラベルが考慮されたテキストを作成した. 既存の大規模な基盤モデルの Prompt に基づく手法は, 出力したい語彙を考慮することや, 出力したテキストの品質評価のフィルタリングなどは行われていない.
## 3 語彙と品質を考慮した例文生成
本研究では, 出力したい語彙を含む Prompt によるデータ生成と, 判別器を用いたフィルタリングを組み合わせることで, 語彙表現と品質がある程度保たれたデータ水増しのフレームワーク (Word-considered GPTDA) を提案する. 本研究では, GPT-3 と同様な形式の日本語の基盤モデルである HyperCLOVA ${ }^{2}$ を用いる. システムの概要は, 図 2 に
$ モデルを用いた.
}
示したように, 出力したい難易度 $N$ と単語を与え, 言語教育支援に向けた Prompt を作成する. 生成結果に対して, 難易度判別器や語彙の出力の有無によりテキストをフィルタすることで, 難易度や語彙の制約を満たしたテキストの生成を促す。
## 3.1 言語教育支援のための Prompt
本研究では, 2 種類の Prompt を提案する. まず, 文難易度判定に向けて, 図 3 で示したデータ水増しの Prompt を検証する.さらに, 語彙や文法問題の問題文の自動生成に向けて, ある語彙表現を含む例文を生成するため, 図 4 に示した, 出現語彙を考慮した Prompt を検証する. また, 図 3 の基礎 Prompt において, 最後の例文の先頭 4 文字を与える場合 Conditional 設定) と,与えない場合を検証する.
## 3.2 Prompt のための例文データ
Prompt 内で用いる例文として, JLPT の 2018 年の試験問題 3 ) の全文を書き起こし, 例文データを作成した. さらに, 作成した難易度推定器の評価のために, 2012 年の試験問題 3)も同様に書き起こした. また, 単語を関連付けた Prompt に向けて, JLPT 向けの学習参考書に付属する単語リスト ${ }^{4)}$ から, 語彙難易度辞書を書き起こした. また, 語彙難易度辞書と 2018 年の試験問題を用いて, (難易度 $N$ の語彙, 難易度 $N$ の例文) となるような語彙と例文の組み合わせコーパスを作成した。
Prompt の例文の構成の比較として, 3 種類のサンプリングを検証する。
1. Random Level: 全ての難易度のテキスト集合からサンプリング.
2. Baseline: 難易度 $N$ の Prompt の例文として, 難易度 $N$ のテキスト集合からサンプリング.
^{4)}$ https://www.ask-books.com/jp/jlpt-try/try-wordlist/
}
図 3: Base Prompt
3. Word-considered: 語彙と難易度の組み合わせコーパスのうち, 難易度 $N$ の事例からサンプリング.
それぞれのサンプリングでは, 4 件のデータを重複なくサンプリングする. 多様な表現を出力するため,生成のたびにサンプリングを再実行する. 単語や文の件数を, 表 2 に示す。
## 3.3 難易度推定器を用いたフィルタリング
水増しデータの文難易度フィルタリングに向けて, 中町ら [9] と同様の手法で, JLPT の 2018 年の試験問題の書き起こしデータによる, 文難易度の推定器を作成した. JLPT の 2012 年の試験問題の書き起こしデータを用いて, 作成した推定器を評価した. 評価結果は表 2 に示す。
## 3.4 生成の後制御
no-filter 以外の全ての設定について, 生成例の推定難易度と, 指定した難易度が一致しない水増しデータを破棄する事後フィルタリングを行う。また, より強く難易度の制約を与えるため, データ作成中にフィルタリングを行い, 与えた難易度 $N$ と, 生成例の推定難易度が一致しない場合再生成を行う, in-filtering 設定を検証する. in-filtering 設定において,与えた語が出力されない場合や, 意図していない難易度のテキストが生成される場合がある. その場合,最大 10 回の再生成を行い, 与えた語彙が含まれている例文のうち, 推定難易度と難易度が最小な候補を出力する. あるいは, 与えた語彙が含まれない場合,再生成したテキストのうち, 推定難易度と難易度が最小な候補を出力する. さらに, 出力の語彙の含有を保証するため, 指定した語彙が含まれない生成例を破棄する word-filtering (wf) の設定を検証する。
## 4 実験
語彙と難易度が考慮された例文生成の検証として, 提案手法による出力が通常の GPTDA による出力よりも, 語彙や文難易度を制御できることを確認する. また, 水増しデータのみを用いた難易度推定器与えられた単語を含む例文を作成してください。
単語: $\left.\{\right.$ 難易度 $N$ の単語 $w_{-}$1 \}例文: \{w_1 を含む難易度 $N$ の例文_1\}
単語: 難易度 N の単語 w_n\}例文: \{w_n を含む難易度 N _ i の例文_n \}単語: $\{$ 難易度 $N$ の単語 $w\}$ 例文:
図 4: Word-considered (W-c) Prompt
を作成し性能評価を行うことで, 難易度推定への応用可能性を検討する。
## 4.1 データ水増しの実験
全てのデータ水増しにおいて, 1 時間以下で 5,000 件のデータを生成している. 表 2 のように, ほぼ全ての手法で, $40 \%$ 以上 $(5,000$ 件の生成のうち 2,000 件以上) の割合で, 生成したテキストの難易度が考慮されている. 特に, 出力の先頭 4 文字を与えた Conditional GPTDA では, 事後フィルタリングを行っても 5,000 件中 4,758 件の出力が意図した難易度であった. しかし, 出力の多様性の観点からは, 内容の重複が多くなる傾向があった。
また, 出力の難易度制御能力の検証として, 全ての難易度の例文からランダムにサンプリングした Random Level 設定と, 難易度を考慮した通常の GPTDA を比較した。それぞれの設定による水増しデータに対して, 難易度推定器によるフィルタリングを行うと, 表 2 に示すように Random Level GPTDA では, 与えた難易度以外のデータが多く作成されていることが確認された. Random Level 設定と, Word-considered 設定を組み合わせた手法では, 出力の難易度制御が行えないことが確認された。
さらに, 出力の語彙制御について, 提案手法が, 難易度と語彙をどの程度考慮できているかを確認した. Word-considered の手法において, 難易度が制御された出力の 8 割以上は語彙も制御されている. 特に, Word-considered GPTDA (in-filtering, wf) では, 元の語彙と例文のデータ 587 件から生成した 5,000 件のデータのうち, 2, 636 件のサンプルでは語彙と難易度が制御された。
## 4.2 水増しデータを用いた文難易度推定
作成したデータのみで難易度推定器を作成し, 2012 年の JLPT の試験問題から作成したデータで性能評価を行った. 実験は, 中町ら [9] による文難易度判別器と同様の実験設定で行った.
表 2 のように,後処理を行わない GPTDA (nofiltered) や, 難易度を考慮しない Random Level GPTDA
表 2: データセットと難易度判定器の評価結果
※ no-filter 以外は, 5,000 件の水増しデータを難易度推定器でフィルタ.
表 3: 単語を考慮した GPTDA の生成例
\\
は, 全ての指標において試験問題で作成した推定器より性能が低かった. 水増しデータのみを使用したモデルの大部分が, 水増し元のデータのみを使用したものと同等かそれ以上の予測精度であった. 難易度の完全一致の観点においては, Accuracy やF1 の指標より, Conditional GPTDA が最も高精度であった。一方で, 単語を考慮した GPTDA は, 誤判別した際でも, 大きく推定を誤る比率が減っているため, Kappa や Pearson などが高い傾向があった. また, 語彙が制御されているため, 語彙や文法表現などのための問題文生成としての活用も可能である.
## 5 終わりに
本研究では, HyperCLOVA を用いて生成的なデー 夕水増しを行い, 水増しデータをフィルタリングすることで, 言語教育支援に向けた語彙と品質を考慮できるデータ水増し手法を検証した. 実験の結果, 少数の元データからでも, 語彙と品質がある程度制御されたデータの自動生成を高速に行えた. 今後, 水増しデータを用いたフィルタを用いることで, フィルタのためのコーパスを必要としない手法の検証や, 生成・フィルタを再帰的に繰り返すことによる表 4: 単語を考慮しない GPTDA の生成例
} & Level & Text \\
精度改善などを検証していく. また, 作成した言語教育向けコーパスに対して, 専門家による難易度のアノテーションを行い, 言語資源の公開を目指す. さらに, 言語教育支援に向けて, 語彙・文法問題などの演習問題の自動作成に取り組む。
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Advances in Neural Information
Processing Systems, pp. 1877-1901, 2020.
[2] Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-Woo Lee, and Woomyoung Park. GPT3Mix: Leveraging Largescale Language Models for Text Augmentation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 2225-2239, 2021.
[3] Gaurav Sahu, Pau Rodriguez, Issam Laradji, Parmida Atighehchian, David Vazquez, and Dzmitry Bahdanau. Data Augmentation for Intent Classification with Off-the-shelf Large Language Models. In Proceedings of the 4th Workshop on NLP for Conversational AI, pp. 47-57, 2022.
[4] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, 2021.
[5] Jason Wei and Kai Zou. EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks". In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 6382-6388, 2019.
[6] Ateret Anaby-Tavor, Boaz Carmeli, Esther Goldbraich, Amir Kantor, George Kour, Segev Shlomov, Naama Tepper, and Naama Zwerdling. Do Not Have Enough Data? Deep Learning to the Rescue! Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 7383-7390, 2020.
[7] Yufei Wang, Can Xu, Qingfeng Sun, Huang Hu, Chongyang Tao, Xiubo Geng, and Daxin Jiang. PromDA: Promptbased Data Augmentation for Low-Resource NLU Tasks. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 4242-4255, 2022.
[8] Ruibo Liu, Guangxuan Xu, Chenyan Jia, Weicheng Ma, Lili Wang, and Soroush Vosoughi. Data Boost: Text Data Augmentation Through Reinforcement Learning Guided Conditional Generation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 9031-9041, 2020.
[9] 中町礼文, 佐藤俊紀, 西内沙恵, 浅原正幸, 奥村学. 日本語能力試験に基づく日本語文の難易度推定. 言語処理学会第 28 回年次大会発表論文集, pp. 658-663, 2022.
## A GPTDA (no-filtered) の生成例
表 5: GPTDA (no-filtered) の生成例
\\
語彙や難易度推定器によるフィルタリングを全く行わない GPTDA の生成例を表 5 に示す. Level は, システ厶に入力で与えた出力したい難易度で, Pred は 2018 年試験問題で作成した難易度推定器による難易度フィルタリングの予測結果である.
事後フィルタリングでは, 難易度推定器によって, Level と Pred が一致している 16 件のみを出力する. 難易度を考慮する Prompt により, 一定程度, 通常の GPTDA でも, ある程度出力の難易度が考慮されており, さらに事後フィルタリングを行うことで, 難易度が揃っている.
また, N1 の”お支払い方法...”の出力や, N2 で”A: 1.In Japan...”のように, 試験問題として不適な生成が見られる. Conditional 設定で実際の試験問題の冒頭 4 文字を与えることでこのような生成を防ぐことができる. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H8-2.pdf | # Utilizing Pseudo Dialogue in Conversational Semantic Frame Analysis
Shiho Matta, Yin Jou Huang, Hirokazu Kiyomaru, Sadao Kurohashi
Kyoto University
\{matta, huang, kiyomaru, kuro\}@nlp.ist.i.kyoto-u.ac.jp
}
\begin{abstract}
Semantic frame analysis aims to extract structural knowledge from unstructured texts. A semantic frame analyzer is usually trained using manually annotated dialogue data. However, it is costly to gather and annotate dialogue data. In this paper, we propose a method to create pseudo data in addition to real training data to improve the performance of semantic frame analysis. Experiments showed that compared to only using real training data, our method successfully improved the performance of semantic frame analysis on a cooking dialogue corpus by incorporating pseudo data.
\end{abstract
## 1 Introduction
When we try to understand what important events are mentioned in a dialogue context, we need to identify words that represent those events. A semantic frame is a knowledge structure that represents a specific event mentioned in the context [1]. The main action of the event is indicated by a trigger, and details about the action are supplemented by arguments.
In this paper, we focus on the task of semantic frame analysis [2] to extract events from dialogues in Japanese. Figure 1 shows an utterance from a dialogue with its semantic frames. In this piece of dialogue, the trigger is “休ませて,” and it has three arguments: “タルト生地, “最低でも 1 時間,” and “冷蔵庫” with their types labeled respectively. Semantic frame analysis aims at identifying these components in a given context.
One of the main challenges of semantic frame analysis is the paucity of data. However, collecting a large amount of dialogue data costs more money and time compared to monologue and written-style data, not to mention we have to properly label the data with semantic frames to use them as training data.
Figure 1: An example of dialogue annotated with semantic frames.
To solve the aforementioned problem, we propose a method to generate pseudo dialogues with semantic frame annotation as extra training data (Figure 2). Our proposed method contains three key components: the frame analyzer, the pseudo dialogue generator, and the pseudo annotation mechanism. First, the frame analyzer extracts semantic frames from written-style texts. Second, the pseudo dialogue generator is given semantic frames and generates pseudo dialogue based on them. Last, we apply pseudo annotation on the pseudo dialogue by identifying the location of triggers and arguments.
To apply our method, we first train the frame analyzer and the pseudo dialogue generator with a moderate-sized annotated dataset so they could learn how to extract semantic frames from texts and generate pseudo dialogues based on them. Once the models are trained, we feed texts into this pipeline and obtain pseudo annotated data. We refer to this synthesized data as silver data and the data used to initialize the method as gold data.
Experiments show that compared to the baseline model trained only on gold data, a performance gain is achieved by incorporating annotated pseudo dialogues as silver data.
## 2 Related Work
Our method can be seen as a data augmentation method as it increases the number and diversity of training examples without explicitly collecting new data [3]. Dai et al. [4] propose to generate pseudo dialogues as data augmentation
Figure 2: Overview of the proposed method.
for conversational question answering. However, due to the difference in the target tasks, it is not directly applicable to semantic frame analysis. Ding et al. [5] represent labeled data by intertwining words and word-level tags and generate synthetic labeled data for sequence labeling tasks. However, the labeled sequence is drastically different from natural language text, making it difficult to take full advantage of the pre-trained language models [6].
## 3 Proposed Method
As shown in Figure 2, our pipeline for producing silver data consists of three parts: the frame analyzer, the pseudo dialogue generator, and the pseudo annotation mechanism. In this section, we explain how we construct pseudo data using this pipeline, as well as how we use the pseudo data to enhance the frame analyzer's performance.
## 3.1 Semantic Frame Analysis
Semantic frame analysis is the task of locating triggers and arguments in a given text and identifying their types. The semantic frame analysis component, which we refer to as the frame analyzer, takes a piece of text as input. We first locate triggers in the text (trigger detection), then for each trigger, we locate its arguments (argument detection). Both trigger detection and argument detection are formulated as sequence labeling problems with the BIO tagging scheme. For the baseline, we train a RoBERTa [7] base model on gold data in which the dialogues are annotated with triggers and arguments.
Once the frame analyzer has been trained, we feed it with written-style monologue texts, which are abundant, and obtain a large number of semantic frames. These semantic frames serve as seeds for pseudo dialogues.
## 3.2 Pseudo Dialogue Generation
For the pseudo dialogue generation part, we fine-tune a BART model [8] using semantic frame and dialogue pairs from the gold data so it takes semantic frames as the input and outputs pseudo dialogue. As semantic frames are structural data, we serialize them to feed them into the model by a rule-based conversion method. We show an example in Figure 2 (see Natural Language Style Semantic Frames). Once it is fine-tuned, we feed it with the semantic frames extracted by the frame analyzer and generate pseudo dialogues. Note that at this point, the pseudo dialogues are plain text in dialogue form and do not contain any annotation.
## 3.3 Pseudo Label Assignment
We need to apply pseudo annotations to pseudo dialogues to use them as silver data for the frame analyzer. This involves identifying the triggers and arguments present in the dialogues, which are components of the semantic frames used to generate them.
Trigger To align components in semantic frames and tokens in pseudo dialogues, considering the various conjugation forms of Japanese predicates (triggers), we use a two-step method: parsing triggers with a Japanese morphological analyzer and obtaining its base form, then parsing the pseudo dialogue also using the tool and checking if any token's base form matches the trigger's base form. If none match, we discard the semantic frame as the trigger is at the core of a semantic frame.
Argument To locate the arguments of a trigger in the pseudo dialogue that may have undergone slight modifications during the generation process, we perform a string similarity search in a certain span before and after the trigger for each argument. The nearest candidate to the trigger with the highest similarity score will be selected. If the score is below a threshold, the candidate is discarded to avoid matching to something completely irrelevant.
## 3.4 Pseudo Data Construction and Incorporation
To mass-produce silver data, we feed written-style monologue texts into the frame analyzer trained on gold data, generate pseudo dialogues and apply pseudo annotation to them. Instead of feeding an entire dialogue as the input into the frame analyzer, we divide them by utterance for trigger detection. For argument detection, we divide them by the range in which we search for arguments around a trigger. Note that we also divide the gold data into segments using this method.
To utilize silver data to enhance the frame analyzer's performance, we first train it on silver data until the validation loss stops improving, then we continue training it using the gold data.
## 4 Experiment
We conduct experiments on the culinary interview dialogue corpus dataset to investigate the effectiveness of the proposed method.
## 4.1 Dataset
We use the Culinary Interview Dialogue Corpus (CIDC) dataset [9] as gold data. The CIDC dataset contains dialogues between an interviewer and an expert exchanging information on how to make a dish. A piece of data in the dataset contains utterances from both people, and the semantic frames inside it are manually annotated. The CIDC dataset contains 308 dialogues with an average length of 2,061 words. There are 11 types of triggers and 5 types of arguments defined in the dataset.
As an external source to acquire a large number of data for pseudo dialogue generation, we use the Cookpad recipes [10], aiming to produce semantic frames with diversity. Each recipe has the "steps" section that explains how the dish is made. We feed the part into the frame analyzer. Unlike the CIDC dataset containing dialogues, Cookpad recipes are written-style texts. Even though the frame analyzer is trained only on dialogue data, it works with Cookpad recipes without major drawbacks because written texts are usually more straightforward than spoken language. We have up to 1.6 million Cookpad recipes. $100 \mathrm{k}$ recipes can eventually be converted to roughly $493 \mathrm{k}$ pieces of training data for trigger detection and $273 \mathrm{k}$ for argument.
## 4.2 Experimental Settings
We used a Japanese RoBERTa base model ${ }^{1}$ ) as the backbone of the frame analyzer. We split the gold data, which contains 308 dialogues, and used 278 dialogues for training, 15 for validation, and 15 for testing. After being divided into smaller pieces for input (see Section 3.4), the gold training data contains $57 \mathrm{k}$ for trigger detection and 19k for argument detection. We prepared silver data of different sizes, starting from 1 time the size of the gold data up to 16 times to see to what extent the frame analyzer could benefit. For the pseudo dialogue generator, we fine-tuned a Japanese BART ${ }^{2}$ large model on the CIDC dataset. We segmented the dialogues in it using a heuristic method, which resulted in 1,391 dialogue sessions.
We compared the baseline model trained on gold data only and our proposed model that is first trained on silver data, then on gold data. We evaluated them by calculating the weighted f1-score of trigger detection and argument detection.
## 4.3 Result and Analysis
Table 1 and Table 2 show the result of semantic frame analysis using different sizes of silver data. We noticed that incorporating even a small size of silver data can bring
Table 1: Performance of trigger detection.
Table 2: Performance of argument detection.
reasonable performance gain. The best weighted f1-score was achieved when we used silver data 8 times the size of gold data.
## 5 Case Study
We looked into detection results by the frame analyzer.
Improved Cases As shown in Figure 3a, the proposed model predicted the trigger with a proper type label. This example suggests that our model looked further into the context of the sentence.
We found that the proposed model can recognize targets that the baseline model cannot. In Figure 3b, given the context, “入れる” in “包丁を入れる” can be interpreted as "to cut something with a knife," so it does indicate a cooking event. The proposed model also recognizes more instances of argument types TIME, TEMPERATURE, and MANNER.
We noticed that both models struggle and make discontinuous or partially incomplete predictions when it comes to target arguments that have spans of more than three tokens. Nevertheless, our proposed model does slightly better in long-span targets (Figure 3c).
Unsolved Cases An unsolved case of trigger detection is shown in Figure 3d. In this case, although SIMMER is the right type considering the context of the whole dia-
(a) Trigger detection improved case (type correction).
(b) Trigger detection improved case (previously undetected).
(c) Argument detection improved case (span correction).
(d) Trigger detection unsolved case (incorrect type).
(e) Argument detection unsolved case (incorrect type and span).
Figure 3: Improved and unsolved cases. The blue line is the baseline and the orange dotted line is the proposed model. The gray line is the true label.
logue, the input is too short for the frame analyzer to make the right decision since trigger detection is done on the utterance level. We plan to extend the input length for trigger detection to provide further information to the frame analyzer to resolve this problem.
As mentioned above, long-span targets are harder tasks. In the example in Figure 3e, both models could not solve the case perfectly.
## 6 Conclusion
In this paper, we proposed a method to create pseudo data in addition to real data to help improve the performance of semantic frame analysis. Experimental results showed that we successfully enhanced the overall performance of the frame analyzer by incorporating pseudo data. We believe this kind of data augmentation will benefit tasks with low quantity of training materials.
## Acknowledgement
This paper is based on results obtained from a project, JPNP20006, commissioned by the New Energy and Industrial Technology Development Organization (NEDO).
## References
[1] Collin F. Baker, Charles J. Fillmore, and John B. Lowe. The Berkeley FrameNet project. In 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics, Volume 1, pp. 86-90, Montreal, Quebec, Canada, August 1998. Association for Computational Linguistics.
[2] Dipanjan Das, Desai Chen, André F. T. Martins, Nathan Schneider, and Noah A. Smith. Frame-semantic parsing. Computational Linguistics, Vol. 40, No. 1, pp. 9-56, March 2014.
[3] Steven Y. Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard Hovy. A survey of data augmentation approaches for NLP. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 968-988, Online, August 2021. Association for Computational Linguistics.
[4] Zhuyun Dai, Arun Tejasvi Chaganty, Vincent Y Zhao, Aida Amini, Qazi Mamunur Rashid, Mike Green, and Kelvin Guu. Dialog inpainting: Turning documents into dialogs. In Proceedings of the 39th International Conference on Machine Learning, pp. 4558-4586. PMLR, July 2022.
[5] Bosheng Ding, Linlin Liu, Lidong Bing, Canasai Kruengkrai, Thien Hai Nguyen, Shafiq Joty, Luo Si, and Chunyan Miao. DAGA: Data augmentation with a generation approach for low-resource tagging tasks. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6045-6057, Online, November 2020. Association for Computational Linguistics.
[6] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, Vol. 1, No. 8, p. 9, 2019.
[7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
[8] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[9] Taro Okahisa, Ribeka Tanaka, Takashi Kodama, Yin Jou Huang, and Sadao Kurohashi. Constructing a culinary interview dialogue corpus with video conferencing tool. In Proceedings of the Thirteenth Language Resources and
Evaluation Conference, pp.3131-3139, Marseille, France, June 2022. European Language Resources Association.
[10] Jun Harashima, Michiaki Ariga, Kenta Murata, and Masayuki Ioki. A large-scale recipe and meal data collection as infrastructure for food research. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2455-2459, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H8-3.pdf | # BERT を用いた日本語文のボトムアップ語順整序とその評価
山添壮登 $1, a)$ 大野誠寛 $1, b)$ 松原 茂樹 $2, c$ )
1 東京電機大学大学院未来科学研究科 2 名古屋大学情報連携推進本部
a) 21 fmi21@ms . dendai .ac.jp b) ohno@mail.dendai.ac.jp
${ }^{c}$ matsubara.shigeki.z8@f.mail.nagoya-u.ac.jp
## 概要
文法的な誤りがないだけでなく,読みやすい語順の文を生成する技術は文生成において重要な技術となる。本稿では,係り受け関係が既知という前提のもと,任意の受け文節に係る文節集合内の文節を適切な順序に並べ, 1 文全体をボトムアップに語順整序する手法を提案する. 本手法では, 同一文節に係る 2 文節間の前後関係を BERTにより推定し,その確率值を用いて語順を決定する. 語順整序実験及び主観的評価を行い,本手法の有効性を確認した。
## 1 はじめに
日本語は語順が比較的自由であるといわれているが,語順に関する選好がないわけではない [1]. そのため,文法的な誤りがないだけでなく,読みやすい語順であることも文生成において重要となる。語順整序に関する研究は,推敲支援や文生成などへの応用を目的に,これまでにもいくつか行われている $[2,3,4,5,6,7,8,9,10,11]$. このうち, 内元ら [2] は, 日本語の語順の傾向をコーパスから学習する手法として, 日本語における語順決定に関わる様々な要因を素性として用いて, 統計的に語順を整える手法を提案している。 また,高須ら [3] は,文生成への応用を目的に, 内元らの素性に加えて RNN 言語モデル (RNNLM) を用いた語順整序手法を提案している. 内元ら [2] や高須ら [3] は, 同じ文節に係るもの同士でまとめた各文節集合を対象として語順整序を行っているが,1 文全体の語順整序は行っていない. また, Kuribayashi ら [4] は, 日本語文の語順を評価するために言語モデルを利用することを提案し, 語順分析において言語モデルを用いることの有用性を示した. しかし, 1 文中の動詞や文節数を制限しており,複雑な文を対象としていない。
本稿では,文生成のための要素技術として,1 文を構成する全ての文節の集合を読みやすく並べる手法を提案する. 具体的には,文節間の係り受け関係は既知であることを前提として,1 文の係り受け構造を表す木(以下,係り受け木)に対して, BERT[12] に基づくモデルをボトムアップに適用し,語順整序を行う手法を提案する.語順整序実験の結果,先行研究を上回る精度を達成した。
## 2 文生成における語順整序
本研究では,文を構成する文節集合と,それら文節間の係り受け関係は既知であるとして,それらを入力とし,その入力文節集合内の文節を読みやすく並べることを試みる.これらの入力が既知であるとの仮定は,文生成や機械翻訳への応用を念頭においたものであり,文を生成するにあたって,その文で表したい内容は決まっている状況を想定したものである. この仮定は, 内元ら [2] や高須ら [3] の先行研究の問題設定においても見られるものである.
内元ら [2] は, 1 文の係り受け構造は既知であるとして,任意の受け文節 $b_{r}$ に係る文節の集合 $B_{r}=\left.\{b_{r_{1}}, b_{r_{2}}, \cdots, b_{r_{n}}\right.\}(n \geq 2)$ に対して, $B_{r}$ から考えられる順列 $\left.\{\mathbf{b}^{k} \mid 1 \leq k \leq n\right.$ ! $\}$ の中で最も読みやすい順列を求める問題として語順整序を定義している. ここで, $\mathbf{b}^{k}$ は $k$ 番目の順列とする. 内元らは,構文情報を中心とした素性に基づいた最大エントロピーのモデルを用いて語順整序する手法を提案している.
また高須ら [3] は,内元ら [2] の問題設定を引継ぎ,内元らの素性から主な素性1)を選択して学習したSVM によるモデルと,自然な語順をとらえることが期待できる RNN 言語モデルを併せて用いた. 具体的には, $B_{r}$ から考えられる全ての順列 $\left.\{\mathbf{b}^{k} \mid 1 \leq k \leq n !\right.\}$ の中から,式 (1)のScore $\left(\mathbf{b}^{k}\right)$ が最大となる順列 $\mathbf{b}^{k}$ を求めている.
$
\operatorname{Score}\left(\mathbf{b}^{k}\right)=\alpha S_{R N N L M}\left(\mathbf{b}^{k}\right)+(1-\alpha) S_{S V M}\left(\mathbf{b}^{k}\right)
$
ここで, $S_{R N N L M}\left(\mathbf{b}^{k}\right)$ と $S_{S V M}\left(\mathbf{b}^{k}\right)$ はそれぞれ
RNNLM とSVM によるモデルを用いて求めた $\mathbf{b}^{k}$ のスコアを意味する。
しかし,上記の両研究はともに,1 文を構成する全ての文節の集合の部分集合である $B_{r}$ のみを語順整序の対象にしており,実際には 1 文全体の語順整序を行っておらず, 1 文単位での評価も行っていない. また高須らの研究では, 各文節を修飾する文節列を考慮せず, $B_{r}$ 内の各文節を単に並べ替えた単語列(すなわち,1 文全体を並び替えた際には実際には出現すると限らない文字列)に対して RNNLM を適用しスコアを計算している。
## 3 BERT を用いたボトムアップ語順整序
本手法では,1 文全体を構成する文節集合と,その係り受け構造を入力とし,入力文節集合内の文節を読みやすく並べたものを出力する.その際,1文の文節集合とその係り受け構造を表す係り受け木を作成し,その木に対してボトムアップに処理を施す.また,BERTを用いて 2 文節間の前後関係の判定を繰り返し,1 文全体を語順整序する。
## 3.1 ボトムアップ処理
本手法におけるボトムアップ処理を以下に示す.
1. 入力の文節集合と,その係り受け構造を表す係り受け木を作る。具体的には,入力文の各文節を 1 つのノードとして配置する。係り受け関係を表すエッジを用いて,それらの間を結ぶ。 なお,以下の手順 2 と手順 3 において,複数のノードが 1 つのノードにまとめ上げられる操作がある. したがって,ノードは文節列(長さ 1 も含む)を表し,エッジは子ノード(の最終文節)が親ノードに係る係り受け関係を表すものとする。
2. 葉ノードのみを子に 1 つもつ親ノードと,その子ノードとをまとめ上げ 1 つのノードにする. その際,係り受けの後方修飾性を考慮し,子と親とをこの順に連接した文節列を新たなノードとする.この手順は,葉ノードのみを子に 1 つもつ親ノードがなくなるまで繰り返す。
3. 葉ノードのみを子に複数もつ親ノードと,その子ノード集合とをまとめ上げ 1 つのノードにする。その際,BERTによるモデルを用いて子ノード集合内の適切な語順を求め, その語順で連接した文節列の後ろに親ノードを繋げた文節列を新たなノードとする。手順 1
手順 2 あの島が急いで丘に
手順 3-1 あの島が急いで丘に登ると
手順 3-2 急いで丘に登るとあの島が見えた。
図 1 ボトムアップな語順整序の例
4. 手順 2 と手順 3 を,係り受け木が根ノード 1 つになるまで繰り返す。
上記手順の具体例を図 1 に示す.まず手順 1 では,入力の 6 文節とそれらの間の 5 つの係り受け関係から,図 1 の最上部の係り受け木を作る。手順 2 では,葉ノードのみを子に 1 つ持つ親ノードである 「島が」と,その子である「あの」が「あの島が」にまとめ上げられる。手順 3-1 では, 葉ノードである 「急いで」と「丘に」の語順が計算され, 双方の親ノードである「登ると」と共に,計算結果の語順に従い「急いで丘に登ると」にまとめ上げられる。手順 3-2では,共通する親ノード「見えた.」の子ノー ドであり葉ノードの「あの島が」と「急いで丘に登ると」の語順が計算され,それら 3 つのノードが 「急いで丘に登るとあの島が見えた.」という 1 つのノードにまとめ上げられる。係り受け木が根ノードのみになったため,語順整序が完了する。
なお,高須らの手法 [3] における非ボトムアップ処理では,根ノード「見えた。」に係る子ノードを語順整序をする際に,子ノード「島が」と「登ると」 は子孫のノードとまとめ上げられることはなく, これらの文節のみからなる「島が登ると」と「登ると島が」のどちらがより読みやすいかを,機械学習モデルを用いて判断することになる.
## 3.2 BERT を用いた語順整序
3.1 節で説明したように,BERT[12]に基づくモデルを用いて同一の親を持つ兄弟ノードを語順整序する.ここでは,ノード $v_{r}$ の子ノード集合 $V_{r}=\left.\{v_{r_{1}}, v_{r_{2}}, \cdots, v_{r_{n}}\right.\}$ を語順整序する際の計算について説明する. 親ノード $v_{r}$ の子ノード集合 $V_{r}=\left.\{v_{r_{1}}, v_{r_{2}}, \cdots, v_{r_{n}}\right.\}$ が与えられたとき,本手法は $V_{r}$ から考えられる全ての順列 $\left.\{\mathbf{v}^{k} \mid 1 \leq k \leq n !\right.\}$ の中から, 式 (2) の $S\left(\mathbf{v}^{k}\right)$ が最大となる順列 $\mathbf{v}^{k}$ を求めている.ここで, $S\left(\mathbf{v}^{\mathbf{k}}\right)$ は順列 $\mathbf{v}^{\mathbf{k}}$ の読みやすさを示すスコアを表す. 順列 $\mathbf{v}^{\mathbf{k}}$ はノード列 $v_{1}^{k} v_{2}^{k} \cdots v_{n}^{k}$ であり, $v_{i}^{k}$ は順列 $\mathbf{v}^{k}$ における $i$ 番目のノードを意味す
図 2 BERT に基づく $P_{B E R T}\left(o_{i, i+j}^{k} \mid v_{r}\right)$ の推定モデル
る.このとき, $S\left(\mathbf{v}^{\mathbf{k}}\right)$ は以下のように算出される.
$
S\left(\mathbf{v}^{\mathbf{k}}\right)=\prod_{i=1}^{n-1} \prod_{j=1}^{n-i} P_{B E R T}\left(o_{i, i+j}^{k} \mid v_{r}\right)
$
ここで $o_{i, i+j}^{k}$ は,ノード $v_{i}^{k}$ が $v_{i+j}^{k}$ より文頭側に現れる前後関係を意味する。 $P_{B E R T}\left(o_{i, i+j}^{k} \mid v_{r}\right)$ は,ノード $v_{i}^{k}$ および $v_{i+j}^{k}$ が親ノード $v_{r}$ に係るとき, 語順 $o_{i, i+j}^{k}$ が適切である確率を BERT に基づくモデルによって推定した値である.
図 2 に本手法における BERT モデルの概要を示す. BERTへの入力は, 兄弟である葉ノード $v_{i}^{k}$ と $v_{i+j}^{k}$ とそれらの親ノードとの 3 者を結合し, 先頭に [CLS]を,それぞれの後に [SEP] を付与したうえで, サブワード分割を施したものとする。本手法では, BERT の出力のうち [CLS] に対応する出力のみを取り出し, 2 層の Linear 層と Sigmoid を介し, 入力が読みやすい語順である確率を出力する.
## 4 評価実験
本手法の有効性を示すために,新聞記事文を用いた語順整序実験を実施した. なお,本研究では新聞記事文は読みやすい語順であるとみなす。
## 4.1 実験概要
実験には,新聞記事文に形態素情報及び文節境界情報,構文情報が人手で付与された京都大学テキストコーパス Ver. 4.0[13]を用いた. 1 月 1 日から 8 日までと 1 月 10 日から 6 月 9 日までの 25,388 文を学習データとし ${ }^{2)}, 1$ 月 9 日と 6 月 10 日から 6 月 30 日までの 2,368 文から,1,050 文を開発データ,1,164 文をテストデータとした ${ }^{3)}$.
評価指標は二文節単位一致率(2つずつ文節を取
2)同じ親を持つ複数の子ノード集合から 2 つずつノードを取り出したときに作られる前後関係のうち, 正解の語順と同じ語順を正例,異なる語順を負例とし,学習データを作成した.
3)残りの 154 文は 3.1 節の手順 2 を単純に繰り返すことで構文情報のみから 1 文全体の語順が確定するため,除外した.表 1 実験結果
り上げ,それらの前後関係が元の文と一致しているものの割合 ${ }^{4}$ ) [2] と文単位一致率(元の文の語順と完全に一致している文の割合)[14]を採用した.
比較のため, 以下の 4 つの手法を用意した. [BERT ${ }^{-}$]: 本手法においてボトムアップ処理の代わりに非ボトムアップ処理を用いる手法.
$\left[\mathbf{R N N L M}^{-}+\mathbf{S V M}^{-}\right]$: 高須ら [3] による手法. 非ボトムアップ処理を採用. 式 (1) の $\alpha=0.15$.
[RNNLM+SVM]: $\left[\mathrm{RNNLM}^{-}+\mathrm{SVM}^{-}\right]$においてボトムアップ処理を採用した手法. 式 (1) の $\alpha=0.19$.
$\left[\mathrm{SVM}^{-}\right]:\left[\mathrm{RNNLM}^{-}+\mathrm{SVM}^{-}\right]$において SVMを単体で用いる手法. 式 (1) の $\alpha=0$. 内元らの手法 [2] の ME SVM に差し替えた再実装手法とみなす。
前学習モデルには,京都大学の公開モデル(BASE WWM 版 $)^{6)}$ 用いた. Linear 層 2 層の次元数はそれぞれ 768 と 200 とし,それぞれの入力を 0.1 の確率でドロップアウトさせた. 学習アルゴリズムは AdamW を用い,パラメータの更新はミニバッチ学習 (学習率 1e-6, バッチサイズ 16) により行った. 損失関数には BCELoss を使用した. 同一パラメータで 5 つのモデルを作成し,それらの各一致率の平均を評価值とした.エポック数は,開発データにおいて文単位一致率が最良だった 6 とした。
## 4.2 実験結果
表 1 に実験結果を示す. 本手法 [BERT] は,両一致率において他の各手法を有意に上回っており $(p<0.01)$, 本手法の有効性を確認した。
図 3 に, 本手法 [BERT] と 2 番目に高精度だった $\left[\mathrm{BERT}^{-}\right]$の各手法において, 文の長さごとに文単位一致率を集計したグフラを示す。ほとんどの文長において [BERT] が [BERT $\left.{ }^{-}\right]$を上回った. [BERT] は, ボトムアップに処理することにより,各文節の子孫の文節の情報を適切に考慮できるため,特に長い文
4)冗長な計測を避けるため,それぞれの祖先文節の語順によって語順が定まるような文節の組は除外した.
5) https://pytorch.org/
6) https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese/
図 3 文長ごとの文単位一致率
図 $4\left[\mathrm{BERT}^{-}\right]$が正解し [BERT] が不正解だった例
に対して,非ボトムアップ処理を行う $\left[\mathrm{BERT}^{-}\right]$よりも高精度に語順整序できたと考えられる。
次に, $\left[\mathrm{BERT}^{-}\right]$が正解し, [BERT] が不正解だった例を図 4 に示す.この例では,「誇る。」の3つの子ノードを語順整序する際に,本手法が最長の係り句「昨年の… 実施済みであると」を文頭に配置し不正解となった. 本手法は,長い係り句が文頭に表れやすいという傾向を反映し並べているが,正解は最長の係り句が文頭に表れない比較的珍しい語順であったため誤ったと考えられる。一方,1文単独で提示されただけでは,図4の2文は同程度に読みやすいとも考えられ,文脈無の評価では,必ずしも正解だけが唯一の正しい語順とは言えないことが分かる.
## 5 語順整序結果に対する主観的評価
本節では,被験者実験を行い,本手法による語順整序結果の読みやすさを正解文と比較しつつ,主観的に評価した. 実験では,文脈の有無による読みやすさの変化も確認するため、1 文を単独で提示する場合と、文脈を含めて提示する場合の 2 パターンで評価した.いずれの被験者も同一の 10 名である.
## 5.1 文単位での主観的評価
1 文を単独で提示した際の読みやすさを評価する実験では、[BERT] による出力文とその正解文の 2 文を一組として同時に提示し,被験者が読みやすいと感じた方を選択した. 各被験者はランダムに抽出
(a) 文単位の場合
(b) 文脈有の場合図 5 主観的評価の結果
した同一の 50 組 100 文に対して評価を行った. なお実際には,ダミーをランダムに加えた計 125 組を各被験者は評価している。また, 1 組中の 2 文は語順のみが異なる。
その結果を図 $5 \mathrm{a}$ に示す. 本手法を選択した割合は,最も多い人で $64.0 \%$ ,最も少ない人で $42.0 \%$ だった. 過半数の文に対して,正解を選択した人と,本手法を選択した人は共に 5 人おり,本手法は正解文と同程度に読みやすい語順を生成できていると考えられる。
## 5.2 文脈を含む場合での主観的評価
文脈を含む場合の被験者実験では,5.1 節と同一の 50 組 100 文を対象に,その各組の 2 文に加えて,文脈としてその直前の 3 文も同時に提示し、被験者が読みやすいと感じた方を選択した。なお,対象文が属する記事の中で最大 3 文とし,例えば対象文が記事の冒頭にある場合,文脈は提示されないものとした.
その結果を図 $5 \mathrm{~b}$ に示す. 本手法を選択した割合は,最も多い人で $58.0 \%$ ,最も少ない人で $40.0 \%$ だった. 過半数の文に対して,正解を選択した人が 6 人,本手法を選択した人が 3 人だった. 文脈有で評価する場合, 文単位でのみ学習した本手法の結果は,文脈を含めて推敲された新聞記事文と比べて読みやすいとは言えないことが分かった.
## 6 おわりに
本稿では,文を構成する文節集合とその係り受け木に対して,ボトムアップに BERT を適用することにより,1 文全体の適切な語順を同定する手法を提案した. 実験の結果,BERT 及びボトムアップ処理の有効性を確認した.また主観的評価の結果,語順整序において文脈を考慮する必要性を確認した。
## 謝辞
本研究は,一部,科学研究費補助金基盤研究 (C)
No. 19K12127により実施した.
## 参考文献
[1] 日本語記述文法研究会. 現代日本語文法 7. くろしお出版, 2009.
[2] 内元清貴, 村田真樹, 馬青, 関根聡, 井佐原均. コーパスからの語順の学習. 自然言語処理, Vol. 7, No. 4, pp. 163-180, 2000.
[3] 高須恵, 大野誠寛, 松原茂樹. RNNLM と SVM を用いた日本語文の語順整序. 情報処理学会第 82 回全国大会講演論文集, 第 2020 巻, pp. 453-454, 2020.
[4] Tatsuki Kuribayashi, Takumi Ito, Jun Suzuki, and Kentaro Inui. Language models as an alternative evaluator of word order hypotheses: A case study in Japanese. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 488-504, 2020.
[5] 横林博, 菅沼明, 谷口倫一郎. 係り受けの複雑さの指標に基づく文の書き換え候補の生成と推敲支援への応用. 情報処理学会論文誌, Vol. 45, No. 5, pp. 1451-1459, 2004.
[6] Katja Filippova and Michael Strube. Generating constituent order in German clauses. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 320-327, 2007.
[7] Karin Harbusch, Gerard Kempen, Camiel van Breugel, and Ulrich Koch. A generation-oriented workbench for performance grammar: Capturing linear order variability in German and Dutch. In Proceedings of the 4th International Natural Language Generation Conference, pp. 9-11, 2006.
[8] Geert-Jan M. Kruijff, Ivana Kruijff-Korbayovà, John Bateman, and Elke Teich. Linear order as higher-level decision: Information structure in strategic and tactical generation. In Proceedings of the 8th European Workshop on Natural Language Generation, pp. 74-83, 2001.
[9] Eric Ringger, Michael Gamon, Robert C. Moore, David Rojas, Martine Smets, and Simon Corston-Oliver. Linguistically informed statistical models of constituent structure for ordering in sentence realization. In Proceedings of the 20th International Conference on Computational Linguistics, pp. 673-679, 2004.
[10] James Shaw and Vasileios Hatzivassiloglou. Ordering among premodifiers. In Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics, pp. 135-143, 1999.
[11] Allen Schmaltz, Alexander M. Rush, and Stuart Shieber. Word ordering without syntax. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2319-2324, 2016.
[12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Lin- guistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019.
[13] Daisuke Kawahara, Sadao Kurohashi, and Kôiti Hasida. Construction of a Japanese relevance-tagged corpus. In Proceedings of the 3rd International Conference on Language Resources and Evaluation, pp. 2008-2013, May 2002
[14] 山添壮登, 大野誠寛, 松原茂樹. 言語モデルと構文情報を用いた日本語文のボトムアップ語順整序.情報科学技術フォーラム講演論文集, 第 20 巻, pp. 295-296, 2021. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H8-4.pdf | # Decoder ベースの大規模言語モデルに基づく テキスト生成の自動評価指標
笠原智仁 ${ }^{1}$ 河原大輔 1
山崎天 ${ }^{2}$ 新里顕大 ${ }^{2}$ 佐藤敏紀 ${ }^{2}$
1 早稲田大学理工学術院 ${ }^{2}$ LINE 株式会社
\{tomo_k@ruri.,dkw@\}waseda.jp
\{takato.yamazaki,kenta.shinzato, toshinori.sato\}@linecorp.com
## 概要
テキスト生成の自動評価はタスクの精度を向上させる上で欠かせないものである。本研究では、 Decoder ベースの言語モデルの大規模化が進む動向を踏まえ、それらに基づくテキスト生成の自動評価指標を提案する。翻訳評価と意味的類似度計算の 2 種類の日本語のタスクで実験を行い、Encoder ベー スの言語モデルと比較して、同等かそれ以上の精度を出すことが可能であることを示す。
## 1 はじめに
ニューラルネットワークによるテキスト生成モデルは機械翻訳、対話システム、文章要約など、様々なタスクで用いられる。しかし、モデルからの出力はオープンエンドであり、正解も 1 つとは限らないため、生成結果の評価は難しい。人手による評価は精度が高く、よく用いられるが、時間的、金銭的コストが高いという問題がある。そのため、テキスト生成モデルを迅速に開発するためには自動評価が必要不可欠となる。
テキスト生成の自動評価手法として、かつては BLEU [1] や ROUGE [2] などのような、生成テキストと正解とされるテキストとの間の表層的な単語の重複による評価が主流であった。近年では、BERT [3] や BART [4] などの自己教師有り学習モデルの発展に伴い、それらを活用したより精度の高い自動評価手法が提案されている $[5,6,7,8,9,10]$ 。これらの手法では主に Transformer [11] アーキテクチャの Encoder ベースのモデルや Encoder-Decoder ベースのモデルが用いられるが、Decoder ベースのモデルを利用した手法の研究はなされていない。
しかしながら、自己教師有り学習モデルは
Decoder ベースのモデルの大規模化が顕著であり、 GPT3 [12]、Megatron-Turing [13]、PaLM [14] などが開発されている。以降、Transformer の Decoder ベー スの自己教師有り学習された大規模言語モデルを LLM と呼ぶ。一方で、Encoder ベースのモデルは Decoder ベースのモデルと比較するとそこまで大規模化が進んでいない。
これらを踏まえ、本論文では LLM を用いたテキスト生成の自動評価手法を提案する。翻訳評価と意味的類似度計算 (Semantic Textual Similarity, STS) の 2 種類の日本語のタスクで実験を行い、既存のテキス卜生成自動評価手法と同等かそれ以上の精度を出すことが可能であることを示す。LLMを 3 種類の Tuning 手法でそれぞれ学習し、Fine-Tuning よりも低コストな学習手法である LoRA-Tuning [15] において最も高い精度を出すことが可能であることを示す。 また、本手法ではテキストの埋め込みも得られるため、テキスト間の意味的比較なども可能であり、応用範囲が広い。
## 2 関連研究
## 2.1 テキスト生成の自動評価指標
テキスト生成を自動評価する際に必要となるものは、モデルによって生成されたテキストと正解とされるテキストである。古典的な自動評価指標である、BLEU や ROUGE、METEOR [16]、CIDEr [17] などではこれら 2 つのテキスト間で N-gram がどれほど重複するかに基づいて評価する。これらの手法では N-gram が完全に一致していなければスコアが上がらないため、類義語が含まれている場合でもスコアが上がらないという久点がある。編集距離に基づいて評価を行う TER [18] なども同様の欠点を持つ。
METEOR については類義語辞書を利用することでこの欠点を克服することを目指したが、文脈を考慮した類義語判定までは行うことができない。
自己教師有り学習モデルの埋め込みを利用することで、文脈を考慮した上で類義語を似ていると判断することが可能となる。BERTScore [5] は生成テキストと正解テキストをそれぞれ BERTによって埋め込み、その類似度でスコアを計算する手法である。 BARTScore [6] では Encoderに 1 つ目のテキストを、 Decoderに2つ目のテキストを入力し、2つ目のテキストの生起確率に基づいてスコアを計算する。
テキストペアとその類似度ラベルのデータセットを用いて自己教師有り学習モデルを Fine-Tuning することで精度を上げる手法もある。翻訳評価のデータセットで学習したモデルとして BLEURT [7] COMET [8] などが、STS データセットで学習したモデルとして Sentence-BERT [9] などが挙げられる。 SimCSE [10]のように自然言語推論データセットを用いて Contrastive Learning を行うことにより文の埋め込みを学習し、それをテキストペアの類似度計算に利用する手法も存在する。これらの自己教師有り学習を利用する手法は Encoder モデルが用いられることが多く、Decoder モデルを使用する手法の研究はなされていない。
## 2.2 自己教師有り学習モデルのチューニン グ手法
自己教師有り学習モデルをタスクへ適応させる手法として最も主流なものは、モデルのパラメータ全てをチューニングする Fine-Tuning である。しかし、大規模なモデルの Fine-Tuning はコストが高いため、一切パラメータをチューニングせずに複数の例 (Prompt) だけをモデルに入力してタスクを解く Few-Shot Learning [12] や、少数のパラメータのみをチューニングする Prompt-Tuning や LoRA-Tuning などの手法が提案されている。Prompt-Tuning は学習によって Promptを最適化する手法であり、離散的な語彙の中から最適な単語を選択する手法 [19] と、連続的な埋め込みべクトルを用意してそれを最適化する手法 $[20,21,22,23,24]$ が存在する。LoRA-Tuning は Transformerアーキテクチャの各層に含まれる重み行列に対して階数分解を行ったパラメータを追加し、そのパラメータのみを学習する手法である。
図 1 提案モデルのアーキテクチャと入出力関係
## 3 提案手法
本論文では LLM を用いたテキスト生成の自動評価指標を提案する。具体的には、テキストペアとその類似度ラベルのデータセットを用いてLLMを LoRA-Tuning することによって自動評価システムを構築する。
## 3.1 アーキテクチャと入出力関係
提案モデルのアーキテクチャと入出力関係を図 1 に示す。テキストのペアをモデルに入力し、その類似度を出力する。類似度の算出は以下の手順で行う。
1. テキストペアをそれぞれ LLM に入力
2. EOSトークンの 1 つ前の文末のトークンに対応する埋め込みをそれぞれ得る
3. 2 つの埋め込み間の $\cos$ 類似度を計算
4. 1 層の $\mathrm{FNN}$ 層に $\cos$ 類似度を入力し、その出力をテキストペアの類似度とする
なお、 1 層の FNN 層を通す理由は $\cos$ 類似度の値をデータセットのラベル分布に変換するためである。また、予備実験の結果から EOS トークンではなく文末のトークンの埋め込みを利用することとした。本手法では手順 2 で得られた埋め込みをテキストの埋め込みべクトルとして利用することも可能である。
## 3.2 学習方法
データセットの正解ラベルはあらかじめ $0 \sim 1$ の間に正規化する。 3.1 節の手順通りにテキストペアの類似度を算出し、その値とラベルとの間の平均二乗誤差に基づいて、LoRA-Tuning のために新たにモデルに追加したパラメータと FNN のパラメータのみを更新する。なお、FNN の初期値は weight を 1、 bias を 0 に設定する。
表 1 自動評価指標による評価と正解ラベルとの相関係数 (WMT20 en-ja)
## 4 実験
実験に使用する GPU は 40GB の GPU メモリを搭載している NVIDIA A100 SXM4 である。
## 4.1 データセット
実験に使用するデータセットは WMT20 [25] の英語から日本語への翻訳タスク (WMT20 en-ja) のデータセットと、日本語言語理解ベンチマーク JGLUE [26] に含まれる JSTS である。WMT20 のデー タセットには人手による翻訳文、機械翻訳モデルによる翻訳文とその評価ラベル (Direct Assessment) が含まれる。JSTS は日本語の STS データセットであり、文ペアとその類似度ラベルからなる。なお、 WMT20 についてはデータセットが Train、Valid、 Test にあらかじめ分けられていないため、ランダムに 8:1:1 の割合で分割した。
## 4.2 実験設定
実験には、日本語のコーパスで事前学習がなされた GPT2-xsmall (37M) ${ }^{1)}$ 、 small $(110 \mathrm{M})^{2) 3}$ ) , medium $\left.(336 \mathrm{M})^{4}\right)$ と、LINE 社が開発した HyperCLOVA [27] と呼ばれる GPT3 ライクなモデルのパラメータ数 $6.9 \mathrm{~B}$ のモデルを用いる。 4.1 節の 2 種類のデータセットに対してそれぞれモデルを学習させる。
1) https://huggingface.co/rinna/japanese-gpt2-xsmall
2) https://huggingface.co/nlp-waseda/
gpt2-small-japanese
3) https://huggingface.co/rinna/japanese-gpt2-small
4) https://huggingface.co/rinna/japanese-gpt2-medium
LoRA-Tuning $の$ 他に Prompt-Tuning $と$ Fine-Tuning も比較対象として実験する。Prompt-Tuning ではテキストをトークン列に変換する際、文末のトークンの後ろに新たに追加した特殊トークンを配置し、 そのトークンの埋め込みと FNN のパラメータのみを最適化する。Fine-Tuning では図1のアーキテクチャを用いた上で、モデルのすべてのパラメータと FNN のパラメータを更新する。なお、HyperCLOVA の Fine-Tuning については GPUメモリの不足により実験することができなかった。
また、ベースラインとして、RoBERTa-large (337M) $[28]^{5}$ の Fine-Tuning、BERTScore $\left.{ }^{6}\right)$ BLEURT $^{7)}$ と比較する。BERTScore では Train データを用いて埋め込みを得るための最適な出力層を選択した。 BLEURT では追加の学習はしておらず、日本語を含む多言語で学習された BLEURT-20 [29]を利用した。学習時のハイパーパラメータを付録 A に示す。
## 4.3 実験結果・議論
WMT20 en-ja とJSTS における、自動評価指標による評価と正解ラベルとの相関係数を表 1 、表 2 に示す。どちらのデータセットにおいても 3 種類の Tuning 手法の全てにおいてモデルサイズが大きくなるほど精度が上がることが分かる。 WMT20 en-ja によって LoRA-Tuning した GPT2-xsmall
表 2 自動評価指標による評価と正解ラベルとの相関係数 (JSTS)
表 3 LoRA-Tuning した rinna GPT2-xsmall と HyperCLOVA 6.9B による自動評価例 (WMT20 en-ja)
& & 0.52 & 0.74 & 0.51 \\
と HyperCLOVA による自動評価例を表 3 に示す。 GPT2-xsmall に対して HyperCLOVA による自動評価の方が、正解ラベルとの相関が強いことが分かる。 WMT20 en-ja では Prompt-Tuning、Fine-Tuning、 LoRA-Tuning の順に精度が上がっていく傾向が見られ、HyperCLOVA を LoRA-Tuning したモデルが最も精度が高くなった。一方で JSTS では、PromptTuning、LoRA-Tuning、Fine-Tuning $の$ 順に精度が上がっていく傾向が見られたが、RoBERTa-large を Fine-Tuning したモデルが最も精度が高くなった。ただし、HyperCLOVAを LoRA-Tuning したモデルも人間 (Human) と同等の精度になっている。テキストペアの類似度に関するタスクに真の正解は無いため、 Human の精度に近い値が出ていればそれ以上の精度向上に意味は無いと考える。すなわち、JSTS においてはモデルにとってタスクが容易すぎるために、手法の比較が正しく行えていない可能性がある。
3 種類の Tuning 手法の Epoch 数を揃えた上での学習時間の比は Prompt:LoRA:Fine $=0.89: 1: 1.24$ となり、GPUメモリ使用率の比は Prompt:LoRA:Fine = 0.96:1:1.33 となった。なお、Prompt-Tuning は他の Tuning 手法と比較して学習が収束しにくい傾向があるため、収束に必要な Epoch 数は大きくなる。
## 5 おわりに
本論文ではLLMを用いたテキスト生成の自動評価手法を提案した。LLM のモデルサイズが大きい場合には、Encoder モデルを用いた自動評価指標よりも高い精度を出すことが可能である。3 種類の Tuning 手法を比較し、Fine-Tuning よりもコストの低い LoRA-Tuning において、Fine-Tuning と同等かそれ以上の精度を達成できることを示した。今後、LLM のモデルサイズが大きくなるにつれて、それらを用いた本手法の精度も向上していくと考えられる。
## 謝辞
本研究は LINE 株式会社との共同研究の助成を受けて行った。
## 参考文献
[1] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL2002, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[2] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT2019, pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In ACL2020, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[5] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. ICLR2020, 2020.
[6] Weizhe Yuan, Graham Neubig, and Pengfei Liu. Bartscore: Evaluating generated text as text generation. NeurIPS2021, Vol. 34, pp. 27263-27277, 2021.
[7] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In ACL2020, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics.
[8] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In EMNLP2020, pp. 2685-2702, Online, November 2020. Association for Computational Linguistics.
[9] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In EMNLPIJCNLP2019, pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics.
[10] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In EMNLP2021, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. NeurIPS2017, 2017.
[12] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. NeurIPS2020, Vol. 33, pp. 1877-1901, 2020.
[13] Shaden Smith, Mostofa Patwary, Brandon Norick, Patrick LeGresley, Samyam Rajbhandari, Jared Casper, Zhun Liu, Shrimai Prabhumoye, George Zerveas, Vijay Korthikanti, et al. Using deepspeed and megatron to train megatron-turing nlg 530b, a large-scale generative language model. arXiv, 2022. abs/2201.11990
[14] Aakanksha Chowdhery, Sharan Narang, and Jacob Devlin et al. Palm: Scaling language modeling with pathways. arXiv, 2022. abs/2204.02311.
[15] Edward J Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. Lora:
Low-rank adaptation of large language models. arXiv, 2021. abs/2106.09685
[16] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics.
[17] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 4566-4575, 2015.
[18] Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In AMTA2006, pp. 223-231, Cambridge, Massachusetts, USA, August 8-12 2006. Association for Machine Translation in the Americas.
[19] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In EMNLP2020, pp. 4222-4235, Online, November 2020. Association for Computational Linguistics.
[20] Guanghui Qin and Jason Eisner. Learning how to ask: Querying LMs with mixtures of soft prompts. In NAACL-HLT2021, pp. 5203-5212, Online, June 2021. Association for Computational Linguistics.
[21] Xiang Lisa Li and Percy Liang. Prefix-tuning: Optimizing continuous prompts for generation. In ACL-IJCNLP2021, pp. 4582-4597, Online, August 2021. Association for Computational Linguistics.
[22] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In EMNLP2021, pp. 3045-3059, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[23] Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, and Jie Tang. Gpt understands, too. arXiv, 2021. abs/2103.10385
[24] Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou', and Daniel Cer. SPoT: Better frozen model adaptation through soft prompt transfer. In ACL2022, pp. 5039-5059, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[25] Nitika Mathur, Johnny Wei, Markus Freitag, Qingsong Ma, and Ondřej Bojar. Results of the WMT20 metrics shared task. In Proceedings of the Fifth Conference on Machine Translation, pp. 688-725, Online, November 2020. Association for Computational Linguistics.
[26] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In LREC2022, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[27] Boseop Kim, HyoungSeok Kim, and Sang-Woo Lee et al. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In EMNLP2021, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[28] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. abs/1907.11692.
[29] Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, and Thibault Sellam. Learning compact metrics for MT. In EMNLP2021, pp. 751-762, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics
## A ハイパーパラメータ
モデルの学習時に設定したハイパーパラメータを表 4 に示す。
表 4 モデルの学習時に設定したハイパーパラメータ
& & & \\
Epoch Num & 10 & 10 & 30 & 10 \\
LoRA Dim & - & 4 & - & - \\
LoRA Alpha & - & 32 & - & - \\
LoRA Dropout & - & 0.1 & - & - \\
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H8-5.pdf | # ライトノベルからショートショートへの変換法
山田真彦 天沼博 松澤和光
神奈川大学大学院 工学研究科
r202170165yp@jindai.jp amanuma@kanagawa-u. ac.jp
matsuk90@jindai.jp
## 概要
本稿では、ライトノベルをショートショートへ変換するための手法を提案する。この手法により、人間の物語生成を支援する事が出来ると期待する。まず、ライトノベルから特定の語句を含む文章などを除外し、残りの文章数から 3 分割する。次にそれぞれからショートショートを構成できそらな文章を選び、その文章に含まれる固有名詞を抜き出す。最後にそれぞれの文章群から抜き出した固有名詞を含む文章をさらに抜き出し、文章の登場順に並べ完成系とする。作品によって抜き出す文章量が一定ではないため、文章を抜き出すための新たな基準を設ける事が今後の課題である。
## 1 はじめに
最近、AIによる文章生成に大きな技術進歩があり、「AI のべりすと」や「ChatGPT」が大変な話題になっている。これらのシステムでは、利用者の簡単な入力情報を元にして自然な文章による「簡易な物語」 が自動生成される[1]。ただし、これらの仕組みは基本的に DeepLearning 系の技術であり、膨大なテキストデータを元にして文章 (の流れ・接続)として生起確率の高い、「いかにもそれっぽい」「ありがちな」文章を生成しているに過ぎない。真の意味での「言語理解」の研究は未だ発展途上にあり、現在の AI は言語を理解して物語を生成しているわけではない。
確かに、生成された文章によっては物語的な「匂い」が感じられるものもあるようだが、それは読み手が勝手に自分なりの意図を投影して、無理に読み取っているだけだと推測される。物語を生成する上で、AIに何らかの創造的な意図が存在しているわけではないのだ。そんな「空虚な物語」を「読む意味」 が果たしてあるのだろうか。
物語を生成する主体は、現状ではやはり人間でしかないと考える。その上で、その創造過程を AI に様々な形で手伝い協力してもらうことは大いに有用だろう。この考えに基づいて、本研究では人間の物語生成を支援する新しい手法を提案する。具体的には、既存のライトノベルから「物語(的な要素)」を多様に抽出し、これをショートショートの形に変換する手法である。俗にライトノベルと呼ばれるジャンルでは、純文学に見られるような明確なテーマに基づいた作品よりも、作者の奔放な創作意欲のままに「荒削り」に量産された作品が多いと言われる。 そうした作者本人にとってさえ未整理・多彩・多重に織り込まれた物語要素を、個々の完結した小さな物語 (ショートショート)として抜き出すことにより、今後の新たな創作や他の作者との共同制作、複数作品のリミックス等に役立つことが期待できる。
ショートショート生成の既存研究としては、ショ
ートショートを模範利用した新たなショートショー トの自動作成や、ショートショートの会話文を抜き出し他の作品に置換して自動生成を行うものがある [2、3]。しかしこれらは、既存のショートショートの表現を一部変更し別の作品とする研究であり、ライトノベルのような長編作品から物語を抽出しショー トショートに変換する研究やシステム開発は存在しない。
作品をショートショートに変換するにあたり、どのような観点から変換すべきかと考えた際に、落語の三題噺と呼ばれる形態に着目した。三題噺とは、 3 つの題目から 1 つの話を作るというものである。本研究では作品の全文を 3 分の 1 ずつに分け、それぞれからショートショートを構成の元とできそうな文章に含まれる単語を抜き出し、それを含む他の文章をそれぞれの文章群から抜き出し繋ぎ合わせる事でショートショートとする手法を提案する。
## 2 提案手法
## 2. 1 手法の概要
提案手法を図 1 に示す。まず、使用作品の本文(章タイトル、あとがき及び巻末の外伝作品等を除く)の内容全てを句点や感嘆符、疑問符などの文章の終わりごとに列に変換したテキストファイルを用意する。 そして、この列の中から不要な文章とする条件を満たした文章を除外する。この不要な文章とする条件については 2.2 節にて示す。次に変換したテキストファイルの行数を数え、その行数の 3 分の 1 ずつに分割し 3 つの文章群(それぞれ前、中、後)とする。その後、それぞれの文章群からショートショート構成の元となる文章を抜き出し、抜き出した文章内の固有名詞を含む文章をすべて抜き出すことを前中後全てで行い、登場順に並べてショートショートとする。 この時、構成元となる文章内に固有名詞が複数個存在する場合は人名、特に主人公や物語における重要人物の名前を優先的に選択する。本稿では構成元とする文章および文章内の固有名詞の選択においては、 2.3 節に示す条件及び方法を用いて、文章群の中から条件を満たす文章を事前に選択し、別のデータとして使用している。
図 1 提案手法の概要
## 2.2 不要な文章の条件
本研究において以上の処理の他に、文字数の制限及び一部語句、記号を含む文章の削除も行う。文章の削除の基準は以下のようになっている。
- 11[字]以下の文章
- 42[字]以上の文章
- 「」、『』、()、《》の組み合わせの内片方のみの文章
- 「言」、「叫」、「呟」、「つぶや」を含む文章文字数の制限については、試行を行った結果、極端に長い、もしくは短い文章はショートショート作成に不向きである考えられるため、11[字] (10[字] +句点、感嘆符、疑問符等) 以下 $の$ 文章及び 42[字] (41[字] +句点、感嘆符、疑問符等)以上の文章は削除を行った。
3 つ目の条件については全ての作品において、会話文や心情描写において複数の文が含まれる事があり、以上の組み合わせのうち片方のみの文章が多く見られたため、このような条件を設けた。どちらかのみの文章を含めた場合、片方のみが抜き出された時に文章として成立せず、また片方のみの文章のほとんどが作品の内容に影響を及ぼさないため、抜き出す文章として不要であると考えたからである。
4 つ目の条件については、 3 つ目の条件や会話文に固有名詞が含まれていない場合が多いため、直前の会話文が出力結果に存在しないにも関わらず、「言った」や「叫ぶ」、「つぶやく」といった文章が多く出力されていたため、直前の会話文に関連しているこれらの文章は不要であると判断し削除に至った。
## 2.3 構成元とする文章の基準
## 2. 3.1 構成元とする文章の条件
ショートショートを構成しそうな文章を抜き出す条件を以下に示す。
- 固有名詞(内容に深く関わるもの)を含む文章
・文末が「た」、「だ」で終わる文章
- 疑問や問いかけの内容の文章
1 つ目についてはこれまでに書いた通り、出力する内容は固有名詞を元に作成しているため、最も重要な条件である。しかし全ての固有名詞を対象にしているわけではなく、作品の内容に深く関わるものであり、内容に関係ない固有名詞は対象外である。
2 つ目と 3 つ目に関しては、星新一のショートショートの作品パターンを参考にした。先行研究より、星新一のショートショートの展開パターンとして最も多いのは真実の発覚であり、謎の掲示、発覚及び解消を表すものである[4]。これに該当する文章は文末が「だった」、「なのだ」といった「た」や「だ」 で終わるもの、もしくは「だろうか?」や「なのだ万う?」といった疑問や問いかけを示す表現が入っているためこの条件を設けた。
## 2. 3.2 文章を選択する方法
本研究では、2.3.1 節の条件を元に前中後それぞれの文章群から構成元となる文章を事前に選択してい
る。選択方法は以下の通りである。まず条件を満たす文章を前の文章群は登場順に、中と後は文末から逆順に文章を探す。前の文章群のみ登場順に文章を探すのは、多くの作品において序盤に世界観の説明や、内容全体において重要となる疑問が書かれているため、登場順に確認した方が良いと考えたからである。また中と後に関しては、物語が進むにつれて情報が増えていき、特に終盤の文章は重要性が高い事が多いため、文末から文章を探すべきであると考えた。中の文章群においては、後のものよりも重要性は薄いがショートショート作成には十分な文章を獲得できるのではないかと考え、後と同様の方法で文章の選択を行った。
また上記の方法に加えて、中と後の文章群の文章は前の文章群のものとは違う固有名詞を含む文章を選択するようにした(後の場合は中のものとも違う固有名詞を選択する)。つまり、上記の方法で文章を探した際に、他の文章群で選択された固有名詞のみを含む文章が先に登場した場合はその文章は無視し、条件に合った上で別の固有名詞を含む文章が登場するまで文章の探索を続ける。また見つけた文章が複数の固有名詞を含んでいた場合は、他の文章群で選んでいない固有名詞の中から選択する。この処理については、多くの作品においてこの処理を行わなかった場合、使用する固有名詞が同じ事が多く、作品によっては全て同じ固有名詞の場合もあった。これでは三題噺に着目した今回の手法とは合わないため、文章群ごとに固有名詞を変更するに至った。
## 3 評価実験
## 3.1 使用する作品について
本研究ではライトノベル作品を 10 タイトル使用する $[5,6,7,8,9,10,11,12,13,14]$ 。これらは有名な作品から無作為に選んだものである。
## 3.2 出力結果の文字数の目標
本稿における出力結果の文字数の目標を 4000[字] とする。これは「坊っちゃん文学賞」というショー トショートの文学賞の募集条件が 4000[字]以内であるからである[15]。
## 3.3 実験結果
出力結果を表 1 、図 2 に示す。表 1 より、文字数の目標に達した作品は[5]、[6]、[7]、[8]、[12]、[13]、表 1 実験結果
図 2 実験結果のグラフ
[14]の 7 作品であり、他の作品においては[9]、[10]が 4000[字]台であり、[11]に関しては 8464[字]と目標字数を大きく超えるという結果となった。
[11]の出力結果の文字数が多いのは、[11]の文章において代名詞がほとんど使用されておらず、登場人物の名前がそのまま使用されている場合が多いため、抽出される文章が他作品と比べて多くなったからであると考える。これに関しては、文章群ごとに抽出する文字数の上限を設け、それを上回った場合は重要ではない文章を探し削除する処理を行う必要があると考える。そのために固有名詞を含む文章の中から不要な文章を削除するための新たな基準の検討が今後の課題である。
[9]に関しては、数文削除すれば目標字数内に収まるため、[11]の場合と同様に不要な文章を削除するための基準を設ければよいと考える。[10]も同様であり、[9]よりも削除する文章は多いが、4000[字]台に留まっており、出力結果の内容においても、 7 割近くの文章が前の文章群から抽出されたものである
ため、新たな基準によって前の文章群から抽出する文章の数を減らす事により解決可能であると考える。
また、目標字数以内に収まった作品においては[6]作品が 2000[字]から 4000[字]の範囲であるが、[8]は 2000[字]を下回り 1106[字]となっている。この原因は 2 点あると考える。 1 つは、元とした固有名詞は重要であるが、それに関する出来事についての説明が主であるため固有名詞自体の登場する回数が少ない点である。これについては、本研究が固有名詞からショートショートを作成する手法を行っているために起きた状況であり、このような場合は固有名詞に関係のある文章と固有名詞を関連付け、こちらも抽出するといった処理が必要であると考える。もう 1 つは、他の文章群では多く登場するが、参照した文章群ではあまり登場しなかったという点である。今回の場合は後の文章群で選択した固有名詞に起きた状況であり、物語が進むにつれて他の要素が増えて話の流れが変化した事で、この固有名詞が触れられなったため登場しなくなったと考えられる。
## 3.4 出力結果の内容について
出力結果の内容を読んだ結果、ほとんどの内容に整合性がなく、物語というには不完全であった。 また出力結果において、以下の 4 点が目立った。
- 指示詞の内容の変化、及び不在
- 内容の急な転換
- 会話文の発言者の変化
- 同じ発言者の会話文の連続
指示詞の内容の変化及び不在に関しては、指示詞が指している文章が除外され、それ以前の文章に続く形となるため、指示詞の内容が変化、もしくは存在しない内容に対して指示詞を使用しているといったものになっている。これについては、文章内の指示詞とそれの指す内容をセットとして扱うような事前処理が必要であると考える。
内容の急な転換は、主に次の文章群が切り替わった後、もしくは本文中において元となる固有名詞が次に使用されるのが十数行から数十行後であった場合に起こる。これは固有名詞を含まない文章を削除した事により、出力される文章の間での出来事や説明が取り除かれてしまい、次に出力される文章の時点では既に別の話題に変わっているという状況になるからであると考える。対処法として、同じ文章群内であれば次の文章までに間隔がある場合は、前後の内容に関係のある文章を出力される文章間から追加で抽出し、文章群をまたぐ場合は、文章群の最後の文章と、関係のある次の文章群の序盤の文章をどちらも抽出するといった処理が必要であると考える。会話文の内容や発言者の変化も指示詞の場合と同様に、発言者に関する情報を含む文章が除外され、抜き出された前後の文章の関係で別の発言者による会話のように捉えられてしまうといったものである。 これに関しては、会話文の内容からどの人物による発言かを判別し、その人物に関する前後の文章とセットにするといった処理が必要であると考える。
同じ発言者の会話文の連続については固有名詞が人名の際に多く起こり、その人物を呼ぶ、考えるといった内容の会話文が連続して抜き出される事である。これは前後の文章内に人名が含まれていなため、文章が除外されてしまったために起きたものと考えられる。この場合、連続して出された会話文のほとんどが内容と関係がない文章となっているため、発言者の変化の時のように発言者を判別し、同じ発言者の会話文が連続した場合 1 文目以降を削除するという処理を行うのが最適であると考える。
## 4 おわりに
本研究では、三題噺の発想に着目しライトノベルからショートショートを作成する手法を提案した。結果としては 10 作品中 6 作品が 2000[字]から 4000[字]の範囲に収まったが、1 作品は 1000[字]台と少なく、 3 作品は目標字数よりも多くなった。文字数が多い作品に関しては、文章群ごとに抽出する文字数の上限を設け、上限を超えた場合に不要な文章を削除するための新たな基準の検討が必要である。 また、文字数が少ない場合の中で指定した固有名詞の登場回数が少なかった場合は、その固有名詞に関係する文章を関連付けて固有名詞を含む文章と共に抽出するという処理が必要であると考える。
また、作成されたショートショートの内容に整合性を持たせるために、指示詞とその内容の文章のセット化、離れた文章の内容をつなぐための文章の追加、会話文と発言者の関連付け、同じ発言者による会話文が連続した際に会話文を減らすための処理の方法の検討も今後の課題となる。
特に出力結果の内容の部分に多くの課題が残る形となってしまったが、今後の研究により実現されることに期待する。
## 参考文献
1. 一. 超話題の人工知能 ChatGPT に“小説”や“詩” を書いてもらい、“プログラム”は実行してみた。 (オンライン) (引用日:2022 年 1 月 5 日.) https://weekly.ascii.jp/elem/000/004/116/4116274/
2. 模倣と置換に基づく超短編小説の自動生成. 緒方健人他. 2014 年度人工知能学会全国大会(第 28 回). 2014.
3. 会話を中心とした超短編小説の自動生成. 高木大生他. 2014 年度人工知能学会全国大会(第 28 回). 2014.
4. 星新一ショートショート文学の物語パターン抽出. 佐藤知恵他. 情報知識学会誌, 2010 , 第 20 巻.
No.2. 123-128.
5. 大森藤ノ. ダンジョンに出会いを求めるのは間違っているだろうか. $\mathrm{SB}$ クリエイティブ株式会社, 2014.
6. 香月美夜. 本好きの下克上〜司書になるためには手段を選んでいられません〜第一部兵士の娘 I. TO ブックス, 2020.
7. 上遠野浩平. 恥知らずのパープルヘイズ —ジョジョの奇妙な冒険より一. 株式会社集英社, 2011.
8. 伏瀬. 転生したらスライムだった件11. 株式会社マイクロマガジン社, 2014.
9. 谷川流. 涼宮ハルヒの憂鬱. 株式会社角川書店, 2003.
10. 時雨沢恵一. キノの旅 the Beautiful World. 株式会社 KADOKAWA, 2020.
11. 鎌池和馬. とある魔術の禁書目録. 株式会社 KADOKAWA ,2018.
12. 佐島勤. 魔法科高校の劣等生(1) 入学編〈上〉.株式会社 KADOKAWA, 2019.
13. ソードアート・オンライン 1 アインクラッド.株式会社 KADOKAWA, 2020.
14. 丸山くがね. オーバーロード 1 不死者の王. 株式会社 KADOKAWA, 2020.
15. 一. 坊っちゃん文学賞-ショートショート募集. (オンライン)(引用日:2022 年 12 月 18 日.) https://bocchan-shortshort-matsuyama.jp. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H9-1.pdf | # 大規模言語モデルにおける文生成方向に関する依存性の検証
谷口大輔 1 脇本 宏平 ${ }^{2}$ 丹羽彩奈 1 岡崎 直観 1
1 東京工業大学 2 株式会社サイバーエージェント
\{daisuke.taniguchi@nlp., ayana.niwa@nlp., okazaki@\}c.titech.ac.jp
wakimoto_kohei@cyberagent.co.jp
## 概要
大規模言語モデルは様々な自然言語処理タスクで使用され,高い性能を示してきた。ところが,事柄が記述される順序は言語によって偏りがあるため,通常の左から右に(順方向に)単語を予測する言語モデルではなく, 右から左に(逆方向に)単語を予測するように学習した言語モデルの方が解きやすいタスクが存在するかもしれない. 本研究では,言語モデルがタスクを解くときに単語の生成方向が与える影響を検証するため,順方向あるいは逆方向に学習した二種類の大規模言語モデルを常識推論タスクに適用し,その性能の比較・分析を行う。そして, これまで十分に利用が検討されてこなかった逆方向言語モデルの可能性を報告する.
## 1 はじめに
近年,GPT-3[1]をはじめとする大規模言語モデルは,様々な自然言語処理タスクで高い性能を示している. 言語モデルは,単語列に対して確率を計算するものであり,ある単語列が与えられた時,その次に続く単語を一つずつ予測する処理を繰り返すことで,単語列を逐次的に生成できる。 $x$ を入力文, $s_{i}$ を入力文中のトークン,$n$ を入力文の長さとした時,言語モデルの学習は,コーパス上で
$
p(x)=\prod_{i=1}^{n} p\left(s_{i} \mid s_{<i}\right)
$
という式を最大化することで行われる.
ここで,言語において事柄が記述される順序には偏りがあるため,言語モデルの学習コーパスにはその偏りが内在しているはずだという点に着目する。例えば日本語では,理由を説明した後に結果や結論を記述する傾向があるため [2],日本語のコーパスはその傾向を反映し,理由などの前提が先,結論が後に記述される文を多く含むと考えられる。一方
で,結論を先,理由を後に記述する文は相対的には少ないと考えられる. 自己回帰型の大規模言語モデルの学習は, 過去のトークン列から現在のトークンを予測するという部分に時刻に関する非対称性があるため,単語の並び順に関する順序の偏りの影響を受けていると考えられる。そこで,本研究ではテキストを順方向に入力して学習した通常の言語モデルではなく,逆方向に入力して学習した言語モデルの方が解きやすいタスクが存在すると考える.
日本語での具体例として,何らかの結論を表す文が与えられ,それに対して尤もらしい理由を説明する文を生成する常識推論のタスクを考える.前述の通り,日本語では理由が先,結論が後で記述される文が多いため,言語モデルの単語の生成方向を考えると,結論で条件付けして理由を生成するタスクは,順方向よりも逆方向の言語モデルの方が解きやすいと予想される。これまでにも,逆方向の言語モデルで文を生成する研究 $[3,4]$ は存在していたが,同一タスクを順方向・逆方向の言語モデルで解き, その性能差を単語の並び順の偏りに位置付けて検証した研究はない.
本研究では,言語モデルにおける単語の生成方向がタスク処理に与える影響を検証するため,日本語コーパスで学習した GPT-2 [5] medium 相当の順方向および逆方向の言語モデルを利用する。常識推論のデータセットである Choice of Plausible Alternatives (COPA) [6] を人手で日本語に翻訳したもの ${ }^{1)}$ を評価データとし,zero-shotによる生成的な常識推論タスクに両モデルを適用し,その性能の比較・分析を行う。その実験結果から,これまで利用が十分に検討されてこなかった逆方向言語モデルの方が,通常の順方向言語モデルよりも有利に処理できる文生成夕スクが存在することを報告する2).
散歩に行く。というのもので、散結論い美気だ。結果として、! だからだ天気いい、ならなぜ逆順に1 理由
図 1 順方向(GPT-2)および逆方向(RGPT-2)の言語モデルの使用例・タスク例
## 2 検証方法
本研究では,単語の生成の順番が順方向および逆方向の大規模言語モデルを学習する. 両モデルとも, MeCab と WordPiece[7] による東北大 BERT-v2 $2^{3}$ のトークナイザを利用し,GPT-2 medium 相当の日本語言語モデルを学習した。
## 2.1 逆方向言語モデル
本研究で用いる逆方向言語モデルを説明する。通常の順方向言語モデルの学習は, 式 1 の最大化によって行われるが,逆方向言語モデルの場合は以下の式 2 の最大化を行うこととなる.
$
p(x)=\prod_{i=n}^{1} p\left(s_{i} \mid s_{>i}\right)
$
つまり,未来のトークン列から現在のトークンを予測する学習が行われ,結果として,文末から文頭の向きに単語列を生成するモデルを構築できる。
以降,本研究で用いる順方向言語モデルを GPT-2,逆方向言語モデルを Reversed GPT-2 (RGPT-2) と称する.RGPT-2 の実際の学習では,入力文を順方向言語モデルと同じトークナイザによって処理した後, トークン列を逆順に並び替えてモデルへの入力とし,通常の言語モデルの学習を行うことにより,実質的に式 2 の最大化を行う.
## 2.2 生成的な常識推論タスク
GPT-2 と RGPT-2 の性能比較を行うため, 生成的な常識推論タスクを考える,具体的には,結論の文が与えられ,それに対する理由を生成するタスクと,それとは逆に,理由の文が与えられ,それに対する結論を生成するタスクの二つである. これら二
bert-base-japanese-v2
つのタスクは,入力と出力が入れ替わったタスク対であるため,言語モデルの文生成方向に関する依存性により,各タスクでモデルの性能に差が生じると予想される. GPT-2 と RGPT-2 がこれらのタスクを解く例を図 1 に示す。
結論から理由を推論するタスク理由などが先で,結論が後で記述されやすいという,日本語における説明の順序の偏りにより,RGPT-2 の方が GPT-2 よりも解きやすいと考えられる.そこで,与えられた結論に対して,言語モデルによる理由の生成を zero-shot にて行う. 各モデルが出力した理由が,結論に対する理由付けとして適切かどうかを評価する。
理由から結論を推論するタスク GPT-2 の方が RGPT-2 よりも解きやすいと考えられる. 与えられた理由に対して,言語モデルによる結論の生成を zero-shot にて行う. 各モデルが出力した結論が,理由から導かれる結論として適切かどうかを評価する。
## 2.3 プロンプティング
本研究では,理由から結論,および結論から理由を生成するタスクを,プロンプトによる zero-shot 生成タスクとして解く. 図 1 に GPT-2 および RGPT-2 によるタスクの解き方を示す. なお,図中の赤字は,接続表現を表す。
GPT-2 与えられる結論(または理由)に続けて,接続表現を連結したものをプロンプトとし,それに続く単語列として理由(または結論)を出力する。
RGPT-2 与えられる結論(または理由)の直前に,接続表現を連結したものをプロンプトとし,これをトークン単位で逆順にした上で,言語モデルに入力する. その続きをモデルに生成させ,その出力をトークン単位で逆順にしたものが,理由(または
結論)の出力となる.
本研究では,GPT-2 と RGPT-2 の常識推論における能力を公平に比較したいので,用いるプロンプトによる不公平をできるだけ排除する必要がある. 理由を生成するタスクを考えると,GPT-2 では「(結論)なぜなら,(理由)」のようなプロンプト,RGPT-2では「(理由)ので,(結論)」のようなプロンプト4)を用いることになる. GPT-2 と RGPT-2 で同じプロンプトを用いることが理想ではあるが, (日本語でそのような言い方がされないため)現実には不可能で,実験に用いるプロンプトは両者で異なるものにならざるを得ない.
そこで,順方向と逆方向の言語モデルの比較において,常識推論に優れたプロンプトの存在も利点・欠点に含まれると考え, 両者の言語モデルにとってできるだけよいプロンプトを選び,実験を行うこととする.
## 3 実験
## 3.1 実験設定
大規模言語モデル GPT-2,RGPT-2 の学習には, rinna 株式会社5) が提供しているコードベース6 ${ }^{6}$ を使用した.学習コーパスはコードベースに従い,日本語の CC-100 と, Wikipedia のダンプ7)を使用した. これらは自然な日本語文を多く含み,日本語において事柄が記述される順序の偏りを内包していると期待される.このコーパス上で両モデルをそれぞれ, バッチサイズ 3 で 4,680,000 ステップ学習した. 検証用データにおけるパープレキシティはそれぞれ, 9.80,9.79で,同程度のパープレキシティと言える.
データセット生成的な常識推論のデータセットとして, Choice of Plausible Alternatives (COPA) [6] を人手で日本語に翻訳したものを使用する。COPA は本来,原因(または結果)を表す前提文に対する結果(または原因)としてふさわしい文を,二つの選択肢から選ぶ問題であるが,本実験では,そのうちの正解文と前提文のみを抽出し, 理由(原因)と結論(結果)の文ペアとして用いる。また,GPT-2 と RGPT-2 の性能を極力公平に評価するため,「彼
4) 日本語として読みやすい順序で記述したが,RGPT-2 は右から左の向きに単語列の予測を行うことに注意されたい.
5) https://rinna.co.jp/
6) https://github.com/rinnakk/ japanese-pretrained-models
7) 2021 年 12 月 13 日時点のもの
(ら)」,「彼女(ら)」「それ(ら)」,「そこ」といった代名詞が理由・結論のいずれにも含まれないぺアのみを評価対象とした ${ }^{8)}$. 開発データは 186 件,評価データは 182 件である.
接続表現理由・結論のプロンプティングに利用する接続表現の候補を,言語モデルの学習コーパスの中から手動で収集した. GPT-2による理由の推論と RGPT-2 による結論の推論,および GPT-2 による結論の推論と RGPT-2 による理由の推論で同じ接続表現の候補を利用することとし,各 8 件ずつ候補を用意した.それらの接続表現が学習コーパス内で出現した回数を付録 A に示す. 実験では,開発データの全事例における zero-shot 生成の BLEU スコアが高くなるものを採用し,両モデルの性能を比較する。
自動評価自動評価指標として,BLEUスコアとパープレキシティを使用する。BLEU の測定には SacreBLEU [8]を用い, 2.3 節と同様に,モデルによって生成した理由または結論と, 評価データの参照文との間でスコアを計算する.接続表現の品質のばらつきによる影響を抑えるため,8 個の接続表現の候補のうち,開発データでの BLEU が最も高い 5 個をモデルの性能比較に用いる。 パープレキシティは,言語モデルの確率推定において,出力すべき文がどれだけ妥当と予測されるかを計測する.
人手評価人手評価では開発データでの BLEUが最も高い接続表現で推論した理由・結論を評価してもらう. 評価者は株式会社サイバーエージェントのアノテータで, 出力した理由(または結論)の内容や形式が,モデルに前提として与えた結論(または理由)に対してどれだけ適切か, 絶対評価と相対評価をお願いした. 評価基準を表 1 に示す. 絶対評価では,定められた基準に従って各モデルの出力を評価する.相対評価では,同じ前提文に関して, GPT-2 と RGPT-2 のどちらの出力が優れているかを比較してもらう. 相対評価でも絶対評価と同様の基準を採用するが,3 段階の基準では表せないような僅かな差も評価できる. 優劣を判断できない場合は 「わからない」という回答してもらうことにした。
## 3.2 実験結果
自動評価表 2 に自動評価の結果を示す(詳細は付録 B 参照のこと). 開発データでの BLEU スコア
8)例えば RGPT-2 に代名詞が含まれる文を入力した場合,逆方向の文生成が持つ特性により,常識推論タスクのみならず,代名詞が指している名詞を復元するタスクが意図せず含まれ,文生成が不当に難しくなる可能性がある.
表 1 人手評価の基準
& \\
表 2 自動評価結果表 3 理由推論の人手評価結果 [\%] 表 4 結論推論の人手評価結果 [\%]
がトップ 5 に入る接続表現のみで,評価データにおける評価値の平均をとったものを比較する.BLEU
RGPT-2 が,結論の推論では GPT-2が優れており,仮説通りの結果となっている。ただ,いずれも BLEU スコアの絶対値は低い。これは理由または結論に対して様々な説明が可能であることに起因すると考えられる.
一方,パープレキシティではその優劣が逆転している. パープレキシティの評価では理由と結論の両方がモデルに与えられるため,このタスクにおけるモデルの文生成能力を評価するという目的に合致しないことが原因と考えられる。
人手評価自動評価における BLEU スコア(表 $8,9,10,11 )$ により,人手評価で使用する接続表現を決定した. 図 1 のように,GPT-2による理由の推論では「というのも、」,結論の推論では「。結果として、」, RGPT-2による理由の推論では「ので、」, 結論の推論では「なぜなら、」を使用した.
表 3 と 4 に,人手評価の結果を示す. 絶対評価で 「高」と評価された割合,および相対評価の結果によると, 本研究の仮説通り, 理由の推論は RGPT-2 が,結論の推論は GPT-2 が優れている結果となり,本タスクを解くことに関する性能に差が表れることを確認できた. すなわち,通常の左から右の言語モデルではなく, 文生成向きが右から左となっている逆方向の言語モデルの方が解きやすいタスクが存在
することが示唆される.
出力例モデルによる実際の出力例と相対評価の結果を表 5 に示す.「私は運動した。」という結論に対して GPT-2 による「腰が痛くて動けない」という理由は適切でなく, RGPT-2 の方が適切に理由付けできている。また,「私は 1 日中勉強した。」という理由に対する結論としては,「良い点数を取れた」 という GPT-2 の出力内容が自然である. RGPT-2 は, GPT-2 に比べて長い文を出力する傾向にあった.
## 4 おわりに
日本語における説明の順序の偏りが大規模言語モデルに与える影響を検証するため,単語列の生成向きが順方向あるいは逆方向の大規模言語モデルを構築し,生成的な常識推論タスクに適用した。実験の結果,結論に対して理由を生成するタスクでは逆方向言語モデルが優れており,理由に対する結論を生成するタスクでは順方向言語モデルが適していることが分かった。これらのタスクにおける両モデルの性能差は,日本語における,事柄を記述する順序の偏りが言語モデルに引き継がれているためだと推測される。
本稿では,これまでまだ利用が十分に検討されてこなかった,単語列の生成の向きに関して逆方向の言語モデルの価値を示した. 今後は, 日本語以外の言語での実験や,常識推論以外のタスクでの検証を進めていきたい.
## 謝辞
本研究にあたってご助言いただいた,株式会社サイバーエージェントの皆様に感謝いたします。
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[2] 影山太郎. 動詞意味論: 言語と認知の接点. 日英語対照研究シリーズ, No. 5. くろしお出版, 1996.
[3] Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, and Yejin Choi. Reflective decoding: Beyond unidirectional generation with off-the-shelf language models. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1435-1450, Online, August 2021. Association for Computational Linguistics.
[4] 山田康輔, 人見雄太, 田森秀明, 岡崎直観, 乾健太郎. 指定語句を確実に含む見出し生成. 言語処理学会第 27 回年次大会, 2021.
[5] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019.
[6] Melissa Roemmele, Cosmin Adrian Bejan, and Andrew S Gordon. Choice of Plausible Alternatives: An Evaluation of Commonsense Causal Reasoning. In AAAI Spring Symposium: Logical Formalizations of Commonsense Reasoning, 2011.
[7] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. CoRR, Vol. abs/1609.08144, , 2016.
[8] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics.
## A 接続表現の出現回数
本研究で用いている各接続表現が、言語モデル学習コーパス内に出現した回数を表 6 と 7 に示す.「(理由) ので、(結論)」のように,順方向に理由から結論を導く接続表現の方が,結論から理由を導く接続表現よりも多いことが分かる.ただし,表に示した接続表現の出現回数は,理由と結論を接続する用法以外の表現も含む場合があるため,注意が必要である。
表 6 順方向に結論から理由を導く接続表現
表 7 順方向に理由から結論を導く接続表現
## B自動評価の結果の詳細
表 8,9,10,11 に自動評価の結果の詳細を示す。使用する接続表現に依存して,言語モデルによる理由・結論の推論の性能が大きく変化することが分かる.
表 8 GPT-2 による理由の推論の自動評価開発評価
表 10 GPT-2による結論の推論の自動評価開発評価
表 9 RGPT-2 による理由の推論の自動評価開発
表 11 RGPT-2による結論の推論の自動評価開発
評価
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H9-2.pdf | # 画像キャプショニングのための制約語の抽出法
芳賀あかり ${ }^{1}$ 平尾努 2 帖佐克己 ${ }^{2}$
本多右京 ${ }^{1}$ 出口祥之 ${ }^{1}$ 渡辺太郎 ${ }^{1}$
1 奈良先端科学技術大学院大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所
\{haga. akari. ha0, honda.ukyo.hn6, deguchi.hiroyuki.db0, taro\}@is.naist.jp
\{tsutomu.hirao.kp, katsuki.chousa.bg\}@hco.ntt.co.jp
## 概要
従来の画像キャプショニングには画像とは無関係の語を含むキャプションをしばしば生成するという問題がある。これを解決するため,画像に関連する語をあらかじめ与えた上でキャプションを生成する手法が提案されているが,その自動決定法については議論がされていない. 本研究では, 物体検出器が出力するラベル (物体名)をその信頼度スコアと顕著性スコアを組み合わせてランキングすることでキャプションに含めるべき語を決定する手法を提案する. 提案法で得た単語と人手生成の正解キャプション中の単語を比較した結果,自動抽出した単語のうち半数程度はキャプションに含まれていた. さらに人手評価を行ったところ,キャプションには含まれない単語であっても,その多くはキャプション生成が可能な程度に画像に関連した語であることがわかった.
## 1 はじめに
画像キャプショニングとは,画像を説明する一文を生成するタスクであり,Vision and Language 分野における主要なタスクの一つである。近年では, Vision transformerによる系列変換モデルで実現されることが多くなってきたが,Transformer に基づく系列変換モデルには,流暢な文を生成する一方,入力とは関連のない文をしばしば生成するという問題がある [1]. 画像キャプショニングも例外では無く,画像には写っていないものや画像とは関連ない語を含むキャプションを生成する Object hallucination という問題が生じることが知られている [2]. この問題を抑制するための一つの方法として語彙に制約を与えてキャプションを生成する手法が提案されている [3]. しかし,この手法ではキャプションに含めるべき語 (以下,制約語)をどのように決定するか議論していない,もちろん,人手で与えることも可能ではあるが大量の画像を処理する場合にはコストの観点から現実的でない。
そこで,本研究では制約語を画像から自動的织抽出する方法を提案する。人間は画像の構図,視覚的顕著性などに基づきキャプションに含める語を決定していると考えられることから,画像に対して物体検出器が出力するラベルをとの信頼度スコアと顕著性スコアを組み合わせることでランキングし,その上位 $n$ 件を制約語とする手法を提案する。
$\mathrm{MSCOCO}$ キャプションの検証セットのキャプションに提案法で抽出した制約語が含まれる割合,制約語の平均正解率は $49.9 \%$ であった. ただし,人手評価を行ったところ,正解率の低い画像でもキャプションに含めてよい語は $50 \%$ を超え,正解率が高い画像ではそれが約 $80 \%$ 達した。
## 2 準備
物体検出とは画像に写る物体を矩形 (以下, バウンディングボックス) で特定し,その名称をラベルとして出力する. ラベルはあらかじめ定められているので,その決定は多值分類問題に帰結する。
物体検出器により決定できるラベル数は大きく異なる. たとえば,Detic [4] は CLIP [5]を使用することにより,学習データにはないラベルを検出可能としており,21,000ラベルまでの異なる粒度で物体検出を行うことができるという特徴がある. Detic は COCO, Objects365, OpenImages, Lvisの4つのカスタムラベルセットを提供しており,容易に異なるラベルセットで物体検出を行うことができる。各ラベルセットはそれぞれ 80,365,500,1203 カテゴリである. 使用するラベルセットにより検出する物体の粒度が異なり,カテゴリ数が少ないほどカテゴリの抽象度が高くなり,カテゴリ数が多いほど具体的になる。例えばカテゴリ数 80 の COCO ラベルセッ
トで行った物体検出では「bird」ラベルを与える物体を,カテゴリ数 365 の objects365 ラベルセットでは「goose」や「duck」と,より具体的なラベルを与える。
一方,画像には人間の視覚注意により注視を集めやすい領域とそうでない領域がある。これを画像の各ピクセルに対してスコアを与えることで表現したものを顕著性マップと呼び,画像中の顕著な場所, すなわち目立つ領域の特定に活かすことができる [6]. Hou らが提案した Spectral Residual アプローチ [7] は,画像データを周波数に変換して分析を行うことで顕著性マップを作成する. この手法は特徴量やカテゴリなどの物体に関する事前知識を利用せず,高速かつ頑健に顕著性を検出することができる。また,Montabone らは解像度を下げない,きめ細かい顕著性マップを作成する方法を提案しており,このマップは明確な境界線を抽出するという特徵がある [8]. 本研究では Spectral Residual アプロー チを用いて顕著性マップを作成する。
人間が画像に対しキャプションを生成する際,多くの場合は画像に写っている物体に言及するであろうし,複数の物体が写っているのであればどこに焦点をあてるべきかの取捨選択も行うであろう.たとえば,図 1 には様々な物体が写っているが,人間がキャプションを生成する際には「cat 」,「glove $\lrcorner ,$「ball」といった物体に言及するだろう. 実際,この画像に対するキャプションには「cat」,「baseball glove $\lrcorner$ 「ball」という語が利用されている。一方, フォーカスされていない右後方の机や左後方のサイドテーブルには言及していない。つまり,人間は画像中の顕著性の高い物体について言及すると考えるのが自然である.そこで,本稿では物体検出と画像の顕著性マップを組み合わせることで人間がキャプションで言及すると考えられる顕著なラベルを特定し,制約語として用いる。
## 3 提案手法
本稿では,物体検出器が検知した物体のラベルのスコアをその信頼度スコアと物体のバウンディングボックス内部の顕著性スコアの重み付き線形和で計算し,ランキングすることでより確度の高い制約語を得る。
制約語候補の抽出画像に対して物体検出器を適用し,それが出力するすべてのバウンディング
1) MSCOCO val2014 COCO_val2014_000000518974.jpg
図 1 物体検出例 ${ }^{1}$
ボックス $(b)$ とラベル $(\ell)$ の対を得る.この時,バウンディングボックスに対しては割り当てられたラベルに対する信頼度スコア Conf. $(b, \ell)$ が与えられる.そして,信頼度の低いラベルは削除するため Conf. $(b, \ell) \geq 0.5$ となるラベルのみを制約語候補として利用する.
制約語候補の顕著性スコアの計算顕著性スコアは画像中のすべてのピクセルに対して与えられるので,制約語候補の顕著性スコアを計算するにあたっては,対応するバウンディングボックス内部の各ピクセルの顕著性スコアを利用する。本稿では,バウンディングボックス内部における顕著性スコアの最大値を制約語候補の顕著性スコア Sal. $(b, \ell)$ とし,次の式で計算する。
$
\text { Sal. }(b, \ell)=\max _{r_{k} \in b} \operatorname{Sc}\left(r_{k}\right)
$
ここで $r_{k}$ は物体検出器が検出したバウンディングボックス内の $k \times k$ ピクセルのボックスをあらわし, $\mathrm{Sc}\left(r_{k}\right)$ はその顕著性スコアである。 バウンディングボックス内の $i$ 行 $j$ 列目の顕著性スコアの值を $x_{i, j}$ とするとき, $\operatorname{Sc}\left(r_{k}\right)$ は次のように計算する.
$
\operatorname{Sc}\left(r_{k}\right)=\sum_{i=0}^{k-1} \sum_{j=0}^{k-1} x_{i, j}
$
顕著性スコアの算出までの流れを図 2 に示す. 図 2 の例では制約語候補が bird であり,太枠の長方形が制約語候補 bird に対応するバウンディングボックスを示す。バウンディングボックス内の顕著性スコアの最大值を 1 ピクセルを基本単位として与えるとどのようなバウンディングボックスに対しても非常に高い值をとる可能性がある。これを緩和するため, バウンディングボックス内にそれよりも小さな正方形のボックスを設け内部のピクセルに対する顕著性スコアの和 $\mathrm{Sc}\left(r_{k}\right)$ を計算し,バウンディングボックス内のすべての可能な正方形ボックスの顕著性スコア $\mathrm{Sc}\left(r_{k}\right)$ の最大值を制約語候補の顕著性スコアと
する. 図 2 の例では,バウンディングボックス内に $k \times k(k=3)$ ピクセルの正方形ボックスを設け, 各ピクセルの顕著性スコア,0.7,0.5, ..0.7 を合計し, 正方形ボックスの顕著性スコアとする。次に,正方形ボックスをバウンディングボックス内部で 1 ピクセルスライドさせ,同じように合計を計算する.これを繰り返して全ての $k \times k$ ボックスのスコアを計算し,この最大値を制約語候補 bird の顕著性スコアとする。
制約語候補のランキング制約語候補のスコア $F$ を物体検出器の信頼度スコアと顕著性スコアの重み付き線形和として以下の式で定義する.
$
F(b, \ell)=\alpha \operatorname{Sal} .(b, \ell)+(1-\alpha) \operatorname{Conf} .(b, \ell)
$
ここで, $\alpha(0 \leq \alpha \leq 1)$ は 2 つ項のバランスをとるためのパラメータである. 画像中の各制約語候補に対し上記スコアを計算しその上位 $n$ 件を制約語とみなす.
## 4 実験
制約語の正解データはないため,提案法で得た制約語が人手で作成された正解のキャプションにどれだけ含まれるかで評価を行った.
## 4.1 実験設定
データセットは MSCOCO の val2014を採用し,自動評価には 40500 画像を使用した. 物体検出には imagenet データセット [9]を用いて学習されたモデルであるDetic[4]を用いた。顕著性マップは Spectral Residual アプローチを実装した OpenCV の SpectralResidual 関数を用いて取得した. パラメータは $k=20, \alpha=0.2$ を採用している.
## 4.2 自動評価
抽出した制約語候補のうち,人手作成のキャプションに含まれる語の割合, 正解率を用いて自動評価を行った. なお, Detic のラベルセットは Object365, Open Images, Lvis の 3 種を用いた. ラべル数はそれぞれ,365,500,1203 となる.ラベル数が少ないほど抽象的で多いほど具体的な名称ラベルを与える。
キャプションに制約語が含まれているか否かは語の完全一致で行う. しかし, 完全一致で評価した場合,同義語,類義語が無視されてしまうため,類語も正解とする処理も取り入れた. ここでの類語とは表 1 カテゴリ数による正解率の変動
\\
Open Images & 500 & 0.440 & 0.478 \\
Lvis & 1203 & 0.408 & 0.490 \\
異なるラベルセットで物体検出を行った結果,同じバウンディングボックスを指しているラベルを指し,これらも正解として扱い評価を行う。例えば, あるバウンディングボックスの物体を bird と表すラベルセットと, goose と表すラベルセットがあるとする。この場合, bird と goose を類語とする。なお,バウンディングボックスの一致については物体検出で使用される一般的な評価指標である IoU (Intersection over Union) が 0.8 以上である場合に一致とみなした. 二つの任意の図形 $A, B$ の IoU は以下のように計算される [10].
$
I o U=\frac{|A \cap B|}{|A \cup B|}
$
顕著性スコアの効果制約語のスコアを計算する際のパラメータ $\alpha$ を動かして, 顕著性スコアの効果を調べた. その結果を図 3 に示す. 図の縦軸は正解率,横軸はパラメータ $\alpha$ の値であり, $\alpha=0$ が物体検出の信頼度スコアのみ, $\alpha=1$ は顕著性スコアのみを利用することを表す. 全てのカテゴリ数において $\alpha=0.2$ 付近で正解率が向上していることから,物体検出の信頼度スコア, 顕著性スコアのみではなく,双方を考慮することの有効性がわかる.以下は $\alpha=0.2$ を採用した結果である.
カテゴリ数による正解率の変動各ラベルセットでの評価結果を表 1 に示す. 表より,完全一致の正解率でみた場合,Lvisを用いた場合が最も低く, Object365を用いた場合が最も高い。この結果は, MSCOCO データセットのキャプションが比較的抽象的な語を用いて記述されている,つまり,Livsのような具体的なラべルを利用すると語の完全一致では不利になるからであると考える. 実際,類語処理を導入すると正解率はどのラベルセットでも 5 割近くになっており,顕著な差はみられなくなることがこれを支持している.
## 4.3 人手評価
自動評価は類語も含めて評価をしているが,すべての類語を網羅できているとは限らず,不当に低いスコアになっている可能性がある. そこで,自動評価の結果が悪いもの・良いもののうちそれぞれラン
図 2 制約語候補の顕著性スコアの算出 ${ }^{2)}$
図 3 パラメータ $\alpha$ による正解率の変動
ダムに 25 件サンプリングし,人手評価を行った。自動評価の結果が悪いものとは正解率が 0.2 以下,良いものとは正解率が 0.8 以上のものをさす. 評価指標として,キャプションに含まれて良いラベルの割合,またキャプションに必須のラベルの割合を主観で評価した。
例えば図 4 のような画像の場合,surf, surfboard, wet suit, person などの語をキャプションに含まれる可能性があるラベルとみなし, surf や person のように中心的な語を必須のラベルとみなした. 自動評価の結果が悪いものの結果を表 2 , 良いものの結果を表 3 に示す. 表 2 より, 自動評価の結果が悪いのものでも, $\alpha=0.2$ ではキャプションに含まれてもいいだろうというラベルは 5 割以上あることがわかる. $\alpha=0$ のとき,差は小さいもののもっとも良い結果となった理由は, 物体を多く検知するような場合,顕著性スコアの高い領域と人間がキャプションを生成する際に着目する領域にずれが生じるからではないかと考える. さらに, 表 3 より, 自動評価の結果が良いものでは,キャプションに含まれてもいいだ万うというラベルは 8 割近くあり,キャプション必須のラベルは 6 割以上含まれている.ここで, $\alpha=0$ は顕著性スコアのみ, $\alpha=1$ は物体検出の信頼度スコアのみとなっており,自動評価の結果が良いものでは $\alpha=0.2$ で最も高い割合となったことから, 両者を用いることの有効性が手動評価でも明らかと
図 4 人手評価に使用した画像の例 ${ }^{3}$
表 2 人手評価結果(正解率 $\leq 0.2$ )
} & \\
0.2 & 0.522 & 0.376 \\
0.5 & 0.509 & 0.353 \\
1.0 & 0.458 & 0.322
表 3 人手評価結果(正解率 $\geq 0.8 )$
& \\
0.2 & 0.799 & 0.641 \\
0.5 & 0.781 & 0.617 \\
1.0 & 0.739 & 0.560 \\
なった.
## 5 おわりに
本論文では,物体検出と画像の顕著性を示す顕著性マップを用いて制約語を自動的に抽出・ランキングする手法を提案した。さらにランキング上位の制約語がキャプションにどの程度含まれているか評価を行った。その結果, 自動評価と人手評価双方により物体検出スコアと顕著性スコア双方を考慮することの有効性を示した. 本手法で自動抽出した制約語を実際に画像キャプショニングへ組み込むことが今後の課題である.
2) MSCOCO val2014 COCO_val2014_000000324670.jpg
3) MSCOCO val2014 COCO_val2014_000000374010.jpg
## 参考文献
[1] Guangxiang Zhao, Junyang Lin, Zhiyuan Zhang, Xuancheng Ren, Qi Su, and Xu Sun. Explicit sparse transformer: Concentrated attention through explicit selection. CoRR, Vol. abs/1912.11637, , 2019.
[2] Anna Rohrbach, Lisa Anne Hendricks, Kaylee Burns, Trevor Darrell, and Kate Saenko. Object hallucination in image captioning. In EMNLP, 2018.
[3] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Guided open vocabulary image captioning with constrained beam search. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 936-945, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
[4] Xingyi Zhou, Rohit Girdhar, Armand Joulin, Philipp Krähenbühl, and Ishan Misra. Detecting twenty-thousand classes using image-level supervision. In ECCV, 2022.
[5] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In International Conference on Machine Learning, pp. 8748-8763. PMLR, 2021.
[6] Laurent Itti, Christof Koch, and Ernst Niebur. A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on pattern analysis and machine intelligence, Vol. 20, No. 11, pp. 1254-1259, 1998.
[7] Xiaodi Hou and Liqing Zhang. Saliency detection: A spectral residual approach. In 2007 IEEE Conference on Computer Vision and Pattern Recognition, pp. 1-8, 2007.
[8] Sebastian Montabone and Alvaro Soto. Human detection using a mobile platform and novel features derived from a visual saliency mechanism. Image and Vision Computing, Vol. 28, No. 3, pp. 391-402, 2010.
[9] Kaiyu Yang, Klint Qinami, Li Fei-Fei, Jia Deng, and Olga Russakovsky. Towards fairer datasets: Filtering and balancing the distribution of the people subtree in the imagenet hierarchy. In Conference on Fairness, Accountability, and Transparency, 2020.
[10] Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, and Silvio Savarese. Generalized intersection over union: A metric and a loss for bounding box regression. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 658-666, 2019. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H9-3.pdf | # 因果的プロンプトによる NLI の敵対的ロバスト性の強化
Pride Kavumba $^{1,2}$ Ana Brassard $^{2,1} \quad$ Benjamin Heinzerling $^{2,1}$
坂口 慶祐 ${ }^{1,2}$ 乾 健太郎 1,2
1 東北大学 2 理化学研究所
kavumba.pride.q2@dc. tohoku.ac.jp
\{ana.brassard, benjamin.heinzerling\}@riken.jp
\{keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp
## 概要
因果的プロンプトは, \{label\} because \{explanation $\}$ というテンプレートを用いることで,与えられた入力に特定のラベルを割り当てるだけでなく,このラベルをサポートする説明を生成することができる. この種のプロンプトはもともとモデルの解釈可能性を向上させる目的で導入されたが,本論文では,因果的プロンプトが自然言語推論ベンチマークにおける敵対的摂動に対して,頑健性を向上させる効果があることを示す.
## 1 はじめに
因果的プロンプトは,言語モデルに与えられた入力に特定のラベルを割り当てるだけでなく,そのラベルをサポートする説明を言語モデルに生成させる. 前提 "A soccer game with multiple males playing" と仮説 “Some men are playing a sport” を持つ自然言語推論(NLI)の例を見てみよう. predict-only の設定では,モデルは entailment のようなラベルを生成する必要がある. 因果的プロンプトでは,モデルもラベルとこのラベルをサポートする説明,例えば “It is entailment because playing soccer is playing a sport"生成しなければならない。
因果的プロンプトの当初の目的は,モデルの解釈可能性を向上させることであった [1]. この論文では,因果的プロンプトが敵対的な設定におけるモデル性能の向上にもつながる点を調査する. Adversarial NLI[2] のような敵対的ベンチマークは, SNLI[3] のような従来のベンチマークに含まれる表層的手がかり (superficial cue) による「ショートカット」要因を取り除いたものである.
敵対的ベンチマークにおける因果的プロンプトの利点を調査するにあたり,本論文では因果的プロン
プトで自然言語推論タスクを解くために言語モデルを細かく設定し,その性能を Predict-only の設定と比較した. 実験の結果,4つの敵対的な NLI データセットと 2 つの非敵対的な NLI データセットにおいて,因果的プロンプトが一貫してパフォーマンスを向上させることを発見した (§4). この性能向上は,異なるアーキテクチャサイズや異なるプロンプトのバリエーションにおいても一貫している. さらに分析を進めた結果,ラベルの具体的な言語化と説明とラベルの因果関係の両方が,モデルの性能に重要であることが明らかになった。最後に,Predict-only の設定においてモデルがショートカットを可能にする表層的なな手がかりに頼っていないことを確認した.
## 2 因果的プロンプト
自然言語推論(NLI)では,与えられた入力に entailment や contradiction といったラベルを割り当てるようにモデルが学習される [3]. NLI データセットはモデル性能を評価する観点で優れている. しかし,これまでの研究では,NLI や他のデータセットには情報があることが示されている $[4,5,6]$. 例えば, Gururangan et al.[4] は SNLI において,「not」などの否定語が contradiction ラベルと強く結びついていることを発見した.したがって,入力に「not」が含まれる場合に contradiction と予測することが多いモデルは,高い精度を得ることができるが,実際には自然言語推論に関する言語能力を獲得していることにはならない。その結果,表層的な手がかりに依存するモデルは元々訓練されたデータセットでは高い精度を出すが,表層的な手がかりを含まない入力に対しては精度が低下するということが起きてしまう。
情報の問題に対処するためには,いくつかのアプ
ローチがある,一般的には,既存のデータセットから表面的な手がかりを削除するなど,データセットを慎重に作成するアプローチが多い。これは,敵対的フィルタリング (adversarial filtering) アドバー セーリエルフィルテリングによってサンプルを削除するか $[7,8,9]$, データセットを反実仮想的な例で補強することで実現できる $[6,10]$. その他には敵対的トレーニングなどのトレーニング方法に着目したアプローチもある $[11,12,13]$. しかし, この方法では複雑な学習設定と高い計算量が必要になる. また,解説付きのマルチタスク学習をべースにしたアプローチもある [14].
Predict-only パラダイムとは異なり,因果的プロンプトでは予測に対するフリーテキストの説明をモデルに生成させる必要がある. モデルの解釈性を向上させるために, Narang et. al. [1] は予測や自由記述の説明を求めるプロンプトを導入した. 本書では, このパラダイムを因果的プロンプトと呼ぶことにする.
これまでの研究では,様々な条件下でモデルの解釈性を向上させるために,因果的プロンプトを採用する様々な方法が検討されてきた. [15] は因果的プロンプトの説明の忠実度を, $[16,17]$ はモデルから質の高い説明を抽出する方法を研究している.
このように,因果的プロンプトの解釈可能性は盛んに研究されているが,敵対的な頑健性については特に調査されていない. 因果的プロンプトは元のラベルと説明文からなる出力形式を持つため, 説明文を生成する際に表層的な手がかりがモデルによって利用される可能性は低いと推測される. したがっ $\tau$ ,我々は因果的プロンプトが敵対的頑健性に正の効果をもたらすと仮説を立て,以下の節でこの仮説を検証する。
## 3 手法
プロンプトフォーマット各 NLI 問題は premise と hypothesis を提供し, モデルは entailment, neutral, contradiction の 3 つのラベルのうち 1 つを出力する必要がある.これに対して,以下のようなプロンプト形式を因果的プロンプトと呼ぶことにする。
- INPUT: Is this true and why? \{premise\} implies \{hypothesis\}
- OUTPUT: $\{$ Yes or No $\}$ it is $\{$ label $\}$ because \{explanation \}
ここでは,入力と出力の両方が(ラベルではなく)自然文になっており,タスクは自然言語の質問と回答という形式をとっている. 予測は大きく 2 のステップに分かれる. まず,与えられた前提と仮説に含意関係があるかという分類問題に対し entailment, neutral, contradiction のいずれかのラベルを予測する. そしてラベルに応じて, entailment の場合は “Yes it is ...” が, neutral と contradiction の場合は “No it is ...” が出力する. 本稿ではこれを「マルチステップ・バーバライザー」と呼ぶ.これは,一段階または一語のバーバライザーを使用した従来の研究とは異なる。例えば, entailment は “yes”, contradiction と neutral は “no”, “maybe” と一語で表されることが多い [19]. 最後に,予測の根拠を説明することで出力は完了する. 本研究では, 因果的プロンプトが敵対的頑健性に及ぼす効果に着目し,プロンプトが性能へ与える効果を検証した。
ベンチマーク e-SNLI [14], Adversarial NLI (ANLI) [2], SNLI Hard [4], NLI Diagnostic [20], Heuristic Analysis for NLI Systems (HANS) [21], CounterfactuallyAugmented NLI (Counter-NLI) [10] でモデルを評価する。
トレーニングセットアップモデルのトレーニングには,3/4 の e-SNLI とすべての ANLI データが使用される。なお,ANLIでは一部の説明のみで,足りない部分はプロンプトテンプレートを修正して対応した。
## 4 実験結果
因果的プロンプトは敵対的ロバスト性を向上させるか? 因果的プロンプトを用いた学習により,ほぼすべてのベンチマークですべてのモデルの性能が向上し,これまで報告されている State-of-the-art の精度を上回るケースも見られた (表 1).T5-3B [22] はサイズが小さいにもかかわらず全体的に高い性能を示したが,これは T0 [23] がメモリの制限により, 他のモデルで使用するバッチサイズとシーケンス長の $1 / 4$ を使用したためである. また, HANS データセットは、 $\mathrm{T} 5$ と $\mathrm{T} 0$ モデルにとって挑戦的であることが証明された。 5 と T0 モデルは、 Subsequence(Sub) や Constituent(Cons) の敵対的攻撃に対してまだ脆弱な可能性がある。このモデルの Lexical Overlap (Lex) と subsequence、Constituent の格差は,さらなる分析のための興味深い道であると思われるが本稿の範囲外である。他のすべてのべンチマークにおいて, 因果的プロンプトモデルは, ドメ
表 1: predict-only (PR) と因果的プロンプト (EXP) でトレーニングされたモデルの平均予測精度. 現在の最新技術は WT5 [1], BERT-Sup-ATT [18], InfoBERT [12], RoBERTa-AFLITE [9], BERT [10], RoBERTa-AFLITE [9] e-SNLI、ANLI、および SNLI-Hard は、ドメイン内のテストセットである.
イン内設定と敵対的ドメイン外設定の両方に対して明確な改善を示している。このように,因果的プロンプトは敵対的攻撃に対するモデルの頑健性を概ね向上させ,全体として NLI 予測性能を向上させたと結論付けることができる.
結果はアーキテクチャ/サイズに依存するか? モデルサイズが性能に与える影響を調べるため,パラメータが 6,000 万から 30 億までの 6 種類のモデルを評価した。これらのモデルには,125M と $400 \mathrm{M}$ のパラメータを持つ BART [24] の 2 つのバリエー ションと,60M,770M,3B のパラメータを持つ T5 の 3 つのバリエーションが含まれている. 表 1 からわかるように,ANLI データセットでは,モデルサイズと性能の間に明確な関係があり,より大きなモデルがより良い結果を出していることがわかる.
## モデルは表層的手がかりの影響を受けているか? モデルが表層的な手がかりの影響を受けているか 調べるため, 先行研究に従って仮説のみで学習した モデルの性能を比較した [4]. 仮説のみで学習する、 つまり、前提がない不完全なタスク設定になるた め,表層的な手がかりの影響を受けないモデルはラ ンダムな精度になると考えられる。
本実験ではラベル予測のみを学習し他モデルと因果的プロンプトで学習したモデルを比較した. その結果, predict-only モデルはランダム性能を上回っている $(63.7 \%$ vs $33.3 \%)$ 一方、因果的プロンプトモ
デルはランダムな精度になっており, 表面的な手がかりの影響を受けていないことがわかった。
## 因果的プロンプトはトークンとラベルの関連性を弱めるか? 入力の単語と学習セットのラベルの関係を理解するために,それらの間の自己相互情報量 (PMI) を計算する。これにより,特定のラベルと強 く結びついている言葉や,因果的プロンプトを使用 したときにその結びつきがどのように変化するかを 特定することが可能になる.
$
\text { PMI }(\text { word }, \text { label })=\log \frac{p(\text { word, label })}{p(w o r d, \cdot) p(\cdot, \text { label })}
$
Gururangan et al. [4] と同様に,ラベルと最も強く関連する単語を強調するため,PMI の計算には add-100 スムージングを適用した。
実験の結果,因果的プロンプトを用いることで入力語とラベルの関連性が低下することがわかった. 例えば,「frowning」というネガティブな単語は contradiction というラベルと強く結びついているが,因果的プロンプトを使うとこの関連はなくなる (付録 A,図 1).この結果は,仮説のみのモデルの結果とも一致する。
## モデルはプロンプトの微小な違いに敏感か? れまでの研究で,モデルはプロンプトに対して非常 に敏感であることが示されている [19]ため,我々も クラウドソーシングのプロンプトソースプロジェ
表 2: e-SNLI と CounterNLI (CNLI) の開発セットに関するプロンプトの感度. 数値は predict-only/因果的プロンプトの平均精度である.因果的プロンプトの標準偏差が低いほど,安定性が高いことを示している。
表 3: 切除した説明文を用いて学習させた $\mathrm{T} 0$ モデルの平均予測精度
クトから入手した 5 種類のプロンプトを用いて比較を行った. 各モデルについて, 3 種類のランダムシードで 3 回の実験を行った. なおリソースの制限から,この実験では $\mathrm{T} 0$ を除外し,e-SNLI からランダムにサンプリングした 2 万個のインスタンスのみを使用した。
実験の結果,因果的プロンプトモデルはより優れた汎化性を示し, 敵対的な攻撃に対してより頑健である (表 2)ことがわかった。
説明には因果関係が必要か?説明における因果関係の有無の影響を調べるため,因果的プロンプトの説明文を,全くランダムな文から類似の文まで,無関係の文に置き換えたモデルで実験を行った. 具体的には,(i)ランダムな文字,(ii)ランダムな単語,(iii)BookCorpus [25] の低類似度文,(iv) BookCorpus の高類似度文の設定を比較し, 元の説明文との類似度は SentenceBERT [26] を用いた.すべてのモデルは e-SNLI からランダムにサンプリングした 20K 個のインスタンスで学習させた. 実験の結果,元の説明文を用いた生成が最も高い精度を示した. ランダムな説明や無関係な説明では性能が低下するため,因果関係のある説明を予測するようにモデルを訓練することで,敵対的な頑健性が向上する
ことが確認された (表 3).
因果的プロンプトはモデルのパフォーマンスを向上させるか? このことを確認するために, 1 段階の発話によるプロンプト (\{label $\}$ because \{explanation \}) と多段階の発話によるプロンプト (Yes/No it is $\{$ label $\}$ because $\{$ explanation $\}$ ) を用いて,説明を加えた場合と加えない場合の両方を $\mathrm{T} 0$ に学習させた. predict-only モデルは,シングルステップ・バーバライザーで $87.2 \%$ ,マルチステップ・ バーバライザーで $88.4 \%$ の精度を達成した。一方,因果的プロンプトモデルはシングルステップ・バー バライザーで $90.9 \%$ ,マルチステップ・バーバライザーで $91.6 \%$ という精度を達成した. predict-only と因果的プロンプトのいずれの設定でも,多段階のバーバライザーを追加することで,1 段階のものよりも改善が見られた。
## 5 おわりに
本研究では,因果的プロンプトが自然言語処理モデルの敵対的頑健性に与える影響について検討した. 実験の結果から,因果関係のプロンプトを使用することで,敵対的な攻撃に対するモデルの頑健性を向上させることができることが示された.具体的には,因果的プロンプトモデルは,(1)表層的な手がかりによる影響を受けなくなったこと,(2)因果関係の説明や多段階の言語化で最も効果的であること,(3)プロンプト形式の違いに頑健であること, (4) モデルサイズが大きくなると性能が向上すること,そして (5) 因果的プロンプトの使用により入力単語とラベルの関連性が低下すること,を示した。
## 6 謝辞
本研究は,JST,CREST,JPMJCR20D2 の支援を受けたものである。本研究は JSPS 科研費 JP21K21343,
21K17814 の助成を受けたものです.
## 参考文献
[1] Sharan Narang, Colin Raffel, Katherine Lee, Adam Roberts, Noah Fiedel, and Karishma Malkan. Wt5?! training text-to-text models to explain their predictions, 2020.
[2] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Adversarial NLI: A new benchmark for natural language understanding. In 58th Annual Meeting of the ACL. ACL, 2020.
[3] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In 2015 EMNLP, pp. 632-642, Lisbon, Portugal, September 2015. ACL.
[4] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In 2018 Conference of the North American Chapter of the ACL: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. ACL.
[5] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In 2018 EMNLP, pp. 4208-4219, Brussels, Belgium, October-November 2018. ACL.
[6] Pride Kavumba, Naoya Inoue, Benjamin Heinzerling, Keshav Singh, Paul Reisert, and Kentaro Inui. When choosing plausible alternatives, clever hans can be clever. In First Workshop on Commonsense Inference in Natural Language Processing, pp. 33-42, Hong Kong, China, November 2019. ACL
[7] Rowan Zellers, Yonatan Bisk, Roy Schwartz, and Yejin Choi. SWAG: A large-scale adversarial dataset for grounded commonsense inference. In 2018 EMNLP, pp. 93-104, Brussels, Belgium, October-November 2018. ACL
[8] Rachel Rudinger, Jason Naradowsky, Brian Leonard, and Benjamin Van Durme. Gender bias in coreference resolution. In 2018 Conference of the North American Chapter of the ACL: Human Language Technologies, Volume 2 (Short Papers), pp. 8-14, New Orleans, Louisiana, June 2018. ACL
[9] Ronan Le Bras, Swabha Swayamdipta, Chandra Bhagavatula, Rowan Zellers, Matthew Peters, Ashish Sabharwal, and Yejin Choi. Adversarial filters of dataset biases. In Hal Daumé III and Aarti Singh, editors, 37th International Conference on Machine Learning, Vol. 119 of PMLR, pp. 1078-1088. PMLR, 13$18 \mathrm{Jul} 2020$.
[10] Divyansh Kaushik, Eduard Hovy, and Zachary C Lipton. Learning the difference that makes a difference with counterfactually augmented data. ICLR, 2020.
[11] Yonatan Belinkov, Adam Poliak, Stuart Shieber, Benjamin Van Durme, and Alexander Rush. On adversarial removal of hypothesis-only bias in natural language inference. In Eighth Joint Conference on Lexical and Computational Semantics (*SEM 2019), pp. 256-262, Minneapolis, Minnesota, June 2019. ACL.
[12] Boxin Wang, Shuohang Wang, Yu Cheng, Zhe Gan, Ruoxi Jia, Bo Li, and Jingjing Liu. Infobert: Improving robustness of language models from an information theoretic perspective. In ICLR, 2021.
[13] Xiaodong Liu, Hao Cheng, Pengcheng He, Weizhu Chen, Yu Wang, Hoifung Poon, and Jianfeng Gao. Adversarial training for large neural language models, 2020.
[14] Oana-Maria Camburu, Tim Rocktäschel, Thomas Lukasiewicz, and Phil Blunsom. e-snli: Natural language inference with natural language explanations. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems 31, pp.
9539-9549. Curran Associates, Inc., 2018.
[15] Sarah Wiegreffe, Ana Marasović, and Noah A. Smith. Measuring association between labels and free-text rationales. In 2021 EMNLP, pp. 10266-10284, Online and Punta Cana, Dominican Republic, November 2021. ACL
[16] Ana Marasovic, Iz Beltagy, Doug Downey, and Matthew Peters. Few-shot self-rationalization with natural language prompts. In Findings of the ACL: NAACL 2022, pp. 410-424, Seattle, United States, July 2022. ACL
[17] Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, and Yejin Choi. Reframing human-AI collaboration for generating free-text explanations. In $\mathbf{2 0 2 2}$ Conference of the North American Chapter of the ACL: Human Language Technologies, pp. 632-658, Seattle, United States, July 2022. ACL.
[18] Joe Stacey, Yonatan Belinkov, and Marek Rei. Supervising model attention with human explanations for robust natural language inference, 2021
[19] Timo Schick and Hinrich Schütze. It's not just size that matters: Small language models are also few-shot learners. In 2021 Conference of the North American Chapter of the ACL: Human Language Technologies, pp. 2339-2352, Online, June 2021. ACL.
[20] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. ACL.
[21] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In 57th ACL, pp. 3428-3448, Florence, Italy, July 2019. ACL.
[22] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020.
[23] Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen, Abheesht Sharma, Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, and Alexander M. Rush. Multitask prompted training enables zero-shot task generalization, 2021.
[24] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In 58th Annual Meeting of the ACL, pp. 7871-7880, Online, July 2020. ACL.
[25] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In The IEEE International Conference on Computer Vision (ICCV), December 2015.
[26] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In 2019 EMNLP and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. ACL.
## A PMI
(a) Predict-only $の$ PMI
(b) 因果的プロンプトの PMI
図 1: 仮説語句の PMI 統計. (a) Predict-only 設定での PMI. (b) 因果的プロンプト設定での PMI. 仮説に含まれる単語は、Predict-only ラベルと強く結びついている. 因果的プロンプトでは、仮説語とラベルの関連は負の関連に低下する。
入力の単語と学習セットのラベルの関係を理解するために,それらの間の自己相互情報量 (PMI) を計算する。これにより, 特定のラベルと強く結びついている言葉や,因果的プロンプトを使用したときにその結びつきがどのように変化するかを特定することが可能になる.
$
\text { PMI }(\text { word }, \text { label })=\log \frac{p(\text { word }, \text { label })}{p(\text { word }, \cdot) p(\cdot, \text { label })}
$
Gururangan et al.[4] と同様に,ラベルと最も強く関連する単語を強調するため, PMI の計算には add-100 スムージングを適用した。
実験の結果,因果的プロンプトを用いることで入力語とラベルの関連性が低下することがわかった. 例えば,「frowning」というネガティブな単語は contradiction というラベルと強く結びついているが,因果的プロンプトを使うとこの関連はなくなる (図 1).この結果は, 仮説のみのモデルの結果とも一致する。 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H9-4.pdf | # 日本語に特化した 60 億パラメータ規模の GPT モデルの構築と評価
麻場直喜 梅沢知紀 川村晋太郎
株式会社リコー
}
\{naoki.asaba, tomoki. umezawa, shintaro. kawamura\}@jp. ricoh.com
## 概要
GPT-3をはじめとする Transformerベースの大規模な事前学習済及言語モデルは,様々な下流タスクを高精度に解けることが報告されている。一方でこれらの大規模言語モデルの多くは英語を対象言語としており, 日本語を対象言語とした検証はまだ少ない.本稿では, 60 億パラメータの日本語 GPT モデル (Japanese-GPT-6B)の事前学習を行い, 日本語言語理解ベンチマーク JGLUE の質問応答タスク 2 種を用いて, in-context learning による few-shot 性能評価を行った結果について報告する.
## 1 はじめに
近年, Transformer[1]をベースアーキテクチャとしたニューラル言語モデルの大規模化が活発に進められている. 特に Transformer の decoder のみを用いた言語モデルで, 重みパラメータ数を大規模化かつ学習データ量を大規模化して事前学習を行った GPT-3[2]や PaLM[3]などのモデルが, 様々な下流夕スクを高精度に解けることが報告されている. 本稿では, これら decoder に特化した大規模な言語モデルを, BERT[4]に代表される encoder に特化したマスク言語モデルや, T5[5]に代表される系列変換モデルと区別する意味で, 大規模生成系言語モデルと呼ぶこととする. なお, 大規模か否かを分ける境界の定説はないが,本稿では重みパラメータ数が概ね数十億 $($ 十億 $=$ Billion, 以後 ' $\mathrm{B}$ ’ と表記)以上のものを大規模と想定している.
大規模生成系言語モデルは,プロンプトと呼ばれるタスク説明文と少数の例文を与えるのみで, 重みパラメータを更新することなく様々な言語タスクを高精度に解くことができる. この手法は in-context learning[2]や prompt-based learning[6]と呼ばれ, 汎用性と高精度を両立した新パラダイムといえる。このパラダイムシフトはビジネス応用において重要であ
り,大規模生成系言語モデルへの入力プロンプトを最適化するプロンプトエンジニアリングや, 出力文に対する後処理技術を含めた使いこなし方を確立できれば,様々なユースケースに対する素早い実用化が期待できる.
しかし, 既存の大規模生成系言語モデルの多くは英語を対象としており,日本語を対象とした検証はまだ少ない。言語資源の観点からも, 公開テキストデータ, 公開事前学習済みモデル, 公開ベンチマー クデータセットなどはいずれも英語と比較して日本語では少ない. 例えば英語モデルにおいては, 公開の事前学習済みモデルである GPT-J-6B[7]は6B パラメータ, OPT[8]は 175B パラメータ, 非公開の事前学習済みモデルである PaLM は 540B パラメータである。一方で日本語モデルにおいては, 公開の事前学習済みモデルとしては株式会社 ABEJA の 2.7B パラメータ(gpt-neox-japanese-2.7b), 非公開の事前学習済みモデルとしては同じく株式会社 ABEJA の 13B パラメータが最大と思われる[9].
本研究では, 日本語に特化した大規模生成系言語モデルの実用化を目指して, 6B パラメータの日本語 GPT モデル(Japanese-GPT-6B)を開発している. 本稿では,日本語言語資源を用いた大規模生成系言語モデルの事前学習及び性能評価事例の共有を目的とし,日本語 170B トークンで事前学習して評価を行った結果について報告する。評価では日本語言語理解心゙ ンチマーク JGLUE[10]の質問応答タスク 2 種を用いて, in-context learning による few-shot 学習性能を評価した。結果は GPT-J-6B と比較して優位であり,日本語特化の効果を確認した。
## 2 モデル構築
## 2. 1 モデル設計
本稿で報告する Japanese-GPT-6B は Transformer の decoder に特化した自己回帰モデルであり,GPT-3
のアーキテクチャを踏襲している. 重みパラメータ数は GPT-J-6B 同等の 6B に設定した. 表 1 に主なモデルネットワーク仕様を示す.
トークナイザは, 2.2 節で述べる日本語学習データの一部を用いて SentencePiecei[11]のユニグラム言語モデルを学習して構築した. 語彙数は約 5 万とし,
SentencePiece $の$ byte-fallback を有効にすることで未知語の発生を防いでいる.
## 2.2 学習データ
Japanese-GPT-6B の事前学習には以下 4 つの公開データの日本語版を用いた.
- Wikipedia:インターネット百科事典
- CC100, OSCAR, mC4 : Web 上のテキストをスクレイピングした Common Crawl コーパスを言語分類及びクレンジングしたデータ
日本語版の概算データ容量は Wikipedia $7 \mathrm{~GB}, \mathrm{CC} 100$ 70GB, OSCAR 100GB, mC4 800GB である. これらの学習データに対して, 追加のクレンジング処理と,
2.1 節で述べたトークナイザを用いたトークン化処理を行った. また,一部のデータを事前学習におけるバリデーション用の開発データとして分割し, 最終的に学習データ量は合計 170B トークンとした.
## 2.3 学習環境
Japanese-GPT-6B の事前学習では 80 個の NVIDIA A100 40GB GPU を用いて分散学習を行った. 学習を実行するプラットフォームは Amazon SageMaker を用いた. NVIDIA DGX A100 320GB のインスタンスに搭載された 8 個の A100 GPU にテンソルパラレルでモデルをロードし,そのインスタンスを 10 台用いてデータパラレルで並列化した。
学習コードは Amazon Web Services, Inc.が公開している分散学習向けGPT2学習コードサンプルiをべ ースとした. ディープラーニングのフレームワークは PyTorch である.
## 2.4 ハイパーパラメータ
表 2 に, Japanese-GPT-6B $の$ 事前学習における主なハイパーパラメータを示す.
https://github.com/aws/amazon-sagemaker-examples/tree/main /training/distributed_training/pytorch/model_parallel/gpt2表 1 Japanese-GPT-6B の主なネットワーク仕様
表 2 Japanese-GPT-6B の事前学習における主なハイパーパラメータ
バッチサイズは GPT-J-6B と同様に $1 \mathrm{M}$ トークンとした.
学習コストの制約から,学習データ $170 \mathrm{~B}$ トークンを一通り学習した時点で事前学習を終了した。すなわちエポック数を 1 とし, 学習ステップ数は $170 \mathrm{k}$ ステップとなった.
学習率の最大值は GPT-3 6.7B モデルと同様に 1.2 $\times 10^{-4}$ とした. 但し, GPT-3 6.7B モデルのバッチサイズが $2 \mathrm{M}$ トークンであることを考慮すると Japanese-GPT-6B はその 1/2であるため, ノイズスケ ールは 2 倍となることに注意が必要である.
上記ハイパーパラメータにて事前学習 1 エポックの所要時間は 14 日であった。
## 3 評価
2 節で述べた事前学習を行った Japanese-GPT-6B に対して, 下流タスク性能の評価を行った. 主な比較対象は公開の大規模生成系言語モデルである GPT-J-6B とした. 表 3 に各モデルの仕様を示す. Japanese-GPT-6B と GPT-J-6B のモデルサイズは同等で, 主な違いは日本語特化の有無であり, 日本語に特化することの効果を測る。
## 3. 1 評価方法
本評価においては事前学習済みモデルのファインチューニングは行わず,プロンプトとしてタスク説明文と少数の例文を与える in-context learning による few-shot 学習でタスクを解くこととする.
表 3 評価対象の大規模生成系言語モデルの仕様. Japanese-GPT-6B の学習データとトークナイザは日本語に特化しており,学習データの末尾の“-ja”は各データの日本語版であることを示す.
& 170B tokens & SentencePiece \\
評価用のタスク及びデータセットとしては,日本語の生成系タスクのベンチマークで公開されているものはないため,生成系タスクに近いタスクとして日本語言語理解ベンチマーク JGLUE iiiから下記 2 種の質問応答タスクを採用する.
- JCommonsenceQA
- JSQuAD
使用した JGLUE のバージョンは v1.1.0 である. テストデータは非公開であるため, 開発データセットと同量のデータ (JCommonsenceQA は question 数が同量, JSQuAD は title 数が同量)を学習データセットからランダム分割してテストデータセットとして用いた. 残りの学習データセットから few-shot 用の例文を抽出してプロンプトを作成した.プロンプトのチューニングには開発データセットを用いた.
表 4 に, 各評価タスクにおけるプロンプト及び生成した回答文の例を示す,各タスクに対する回答は文生成によって行う. 回答文生成には Transformers ${ }^{\text {iv }}$ を用いた。常に確率最上位のトークンを生成する貣欲法にて文生成を行った.
JCommonsenceQA 常識的知識を問う質問文に対して, 選択肢として与えられた 5 択から最も適切な回答を 1 つ選択するタスクである. JGLUE デー タセットの選択肢には 1 から 5 の選択肢番号が付与されているが本評価ではその選択肢番号は用いず,選択肢の各文字列を生成させて Exact Match で正否を判定して Accuracy を算出した. 生成文が選択肢の文字列のいずれにも合致しない場合は不正解とした。 Exact Match は JCommonsenceQA ベンチマークを解く条件としては厳しい制約であるが,大規模生成系言語モデルの実用に向けては直接的に回答を生成してほしいという期待からそのように設定している.
プロンプトとして与える例文の数は 3 例とした.
JSQUAD 与えられたコンテキストに関する質問に対して,回答をコンテキストから抽出するタスクである。評価指標は Exact Match と F1 であり,F1 は文字単位で算出した. 回答は文生成で行うため,生成文はコンテキストから抽出されるとは限らないが,評価指標算出においては回答がコンテキストから抽出されているか否かは不問とした。プロンプトとして与える例文の数は 2 例とした. テストデータ 4,777 件のうち 6 件で GPT-J-6B の最大トークン長 2,048 トークンを超えたため, その 6 件はいずれのモデルのテストデータからも除外した.
## 3. 2 評価結果
表 5 に, 本評価タスクにおける評価結果を示す.本評価の 2 つの質問応答タスクのいずれも,我々の Japanese-GPT-6B が GPT-J-6B と比較して性能が高い結果であった。これは日本語の質問応答タスクに対して,日本語に特化したモデルであることによる効果と考えられる。
表 6 に, JCommonsenceQA の評価において生成文が選択肢のいずれかに合致した割合 (選択肢合致率) と,合致しなかった具体的な生成例を示す. いずれのモデルも選択肢合致率は約 $99 \%$ であり,約 1\%は選択肢と合致しなかった。しかし選択肢と合致しなかった場合でも意味としては合致しているものが多く見られた.これらの結果は JCommonsenceQA のような形式のタスクを in-context learning による few-shot 学習で正しく解くには, さらなる大規模化が望ましいことを示唆している可能性がある.これについてはさらなる検証が必要であり, 今後の課題とする.
表 4 各評価タスクにおけるプロンプト及び生成した回答文の例. プロンプトを太字以外のテキストで, 生成した回答文を太字のテキストで示す. プロンプトはタスク説明文,例文,テスト用問題文で構成される.
& \\
表 5 JGLUE データセットを用いた in-context learning による few-shot 性能評価結果
表 $6 \mathrm{JC}$ CommonsenceQA データセットを用いた in-context learning による few-shot 性能評価における,選択肢合致率(テストデータ 1,119 件のらち,生成文が選択肢のいずれかに合致した件数の割合)と,合致しなかった生成例. タスク説明文や例文は省略し, テスト用問題文と生成した回答文 (太字)のみを記載している.
\\
## 4 おわりに
本稿では, $6 \mathrm{~B}$ パラメータの日本語 GPT モデル
(Japanese-GPT-6B)の事前学習を行い, 公開データセット JGLUE の質問応答タスク 2 種を用いて in-context learning による few-shot 性能評価を行った結果について報告した. 評価結果より, 我々の Japanese-GPT-6B は GPT-J-6B と比較して質問応答性能が優位であり, 日本語特化の効果を確認した.今後の展望としては, JGLUE の他のタスクでの in-context learning による few-shot 性能評価と, 同じくJGLUE データセットを用いてファインチューニングした場合の性能評価を行う予定である。 さらには生成系言語モデルの本来の用途である言語生成夕スク性能の評価と, 生成文に対する後処理技術の検討を行い,大規模生成系言語モデルのビジネス応用を目指す。
## 謝辞
本研究のモデル構築にあたり, Amazon Web
Services, Inc.の Amazon Machine Learning Solutions Labによる支援を頂きました。感謝いたします。
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017.
[2] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems, 2020.
[3] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, Parker Schuh, Kensen Shi, Sasha Tsvyashchenko, Joshua Maynez, Abhishek Rao, Parker Barnes, Yi Tay, Noam Shazeer, Vinodkumar Prabhakaran, Emily Reif, Nan Du, Ben Hutchinson, Reiner Pope, James Bradbury, Jacob Austin, Michael Isard, Guy Gur-Ari, Pengcheng Yin, Toju Duke, Anselm Levskaya, Sanjay Ghemawat, Sunipa Dev, Henryk Michalewski, Xavier Garcia, Vedant Misra, Kevin Robinson, Liam Fedus, Denny Zhou, Daphne Ippolito, David Luan, Hyeontaek Lim, Barret Zoph, Alexander Spiridonov, Ryan Sepassi, David Dohan, Shivani Agrawal, Mark Omernick, Andrew M. Dai, Thanumalayan Sankaranarayana Pillai, Marie Pellat, Aitor Lewkowycz, Erica Moreira, Rewon Child, Oleksandr Polozov, Katherine Lee, Zongwei Zhou,
Xuezhi Wang, Brennan Saeta, Mark Diaz, Orhan Firat, Michele Catasta, Jason Wei, Kathy Meier-Hellstern, Douglas Eck, Jeff Dean, Slav Petrov, and Noah Fiedel. PaLM: Scaling Language Modeling with Pathways. arXiv preprint arXiv:2204.02311, 2022
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018
[5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683, 2019.
[6] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. arXiv preprint arXiv:2107.13586, 2021.
[7] Wang Ben and Komatsuzaki Aran. GPT-J-6B: A 6 Billion Parameter Autoregressive Language Model. https://github.com/kingoflolz/mesh-transformer-jax, 2021.
[8] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. OPT: Open Pre-trained Transformer Language Models. arXiv preprint arXiv:2205.01068, 2022
[9] ABEJA で作った大規模 GPT モデルとその道のり
https://tech-blog.abeja.asia/entry/abeja-gpt-project202207, 2022.
[10] 栗原健太郎,河原大輔,柴田知秀. JGLUE:日本語言語理解ベンチマーク。言語処理学会第 28 回年次大会, 2022 .
[11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018 | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
H9-5.pdf | # 日本語の大規模な基盤モデルに対する LoRA チューニング
王昊 ${ }^{1}$ 中町礼文 ${ }^{2}$ 佐藤敏紀 ${ }^{2}$
1 早稲田大学 ${ }^{2}$ LINE 株式会社
conan1024hao@akane.waseda.jp
\{akifumi.nakamachi, toshinori.sato\}@linecorp.com
## 概要
本研究では, 日本語の大規模基盤モデルを用いて, テキスト分類・生成タスクにおける LoRAチューニング [1]を検証した. 具体的には, XLSum[2] (要約), JNLI[3] (含意関係認識), JCommonsenseQA[3] (常識推論) の三つのタスクにて, LoRA チューニングとファインチューニングを行い, チューニングしたモデルの精度や必要なパラメータ数や学習時間などの比較を行った. 比較実験により,ファインチューニングと比較して, LoRA チューニングは計算時間やメモリ使用量を大幅に低減でき, 推論の精度がファインチューニングと同等以上であることを確認した.
## 1 はじめに
自然言語処理の諸課題において, 大規模なテキストデータを用いた事前訓練による基盤モデルに基づく手法が広く存在している. 特に, GPT-3[4] をはじめとする超大規模な基盤モデルの追加訓練を伴わない Prompting に基づく手法が, 対話システム [5] などで高い精度を達成している. 一方で, 超大規模な基盤モデルによる Prompting に基づく手法では, Prompt の複雑な前処理や, 事後フィルタリングを用いた再生成を伴う出力制御などに膨大な計算コストが必要になる.また, 比較的に小規模な基盤モデルでも追加訓練によって, 特定タスクにおいて超大規模な基盤モデルと匹敵する精度が出せる場合がある. さらに, 超大規模な基盤モデルでも追加訓練によって, 特定タスクにて Prompting に基づく手法より高い精度を達成できる場合がある. 計算コストや精度の改善に向けて, 基盤モデルにおける軽量な追加訓練 $[6,7,8]$ がある. 本研究では, GPT-3 と同様な形式の日本語の基盤モデルを用いて, LoRA チューニング [1] と通常のファインチューニングの比較検証を行い, メモリ使用量や訓練に必要な計算時間などの計算コストの評価や予測性能を評価した. 実験により, LoRAチュー
図 1: LoRA のアーキテクチャ
ニングはファインチューニングと同程度の性能を大幅に低い計算コストで達成できることを確認した。
## 2 LoRA チューニング
パラレルコーパス $\mathbf{Z}=\left.\{\left(x_{i}, y_{i}\right)\right.\}_{i=1 \cdots N}$ を用いた基盤モデル $P_{\Phi}(y \mid x)$ の追加訓練のデファクトスタンダードな手法として, 全てのパラメータ $\Phi$ を, 式 1 のように最適化するファインチューニングがある. ファインチューニングでは, 事前訓練と同様に基盤モデルのパラメータ $\Phi$ 全てを更新するため, モデルのサイズと比例して計算コストが増大する. LoRA チューニングでは, 式 2 のように, 小規模なパラメー タ $\Delta \Phi(\Theta)$ を導入し, 基盤モデルのパラメータ $\Phi_{0}$ を固定し $\Phi_{0}+\Delta \Phi(\Theta)$ とし, $\Delta \Phi(\Theta)$ のみを更新する. 特に, 図 1 で示すように, 基盤モデルのパラメータ $\Phi_{0}$ のうち, パラメータ $W_{0} \in \mathbb{R}^{d \times k}$ を持ち, 入力 $z$ から密ベクトル $h$ を出力する線形層 $h=W_{0} z$ に対して, 低ランク行列 $A \in \mathbb{R}^{r \times k}, B \in \mathbb{R}^{d \times r}, r \ll \min (d, k)$ を用いて $h=W_{0} z+B A z$ とし, $B, A$ のみを最適化する.
$
\begin{aligned}
& \max _{\Phi} \sum_{(x, y) \in \mathbf{Z}} \sum_{y_{i}}^{|y|} \log \left(P_{\Phi}\left(y_{t} \mid x, y<t\right)\right) \\
& \max _{\Theta} \sum_{(x, y) \in \mathbf{Z}} \sum_{y_{i}}^{|y|} \log \left(P_{\left.\Phi_{0}+\Delta \Phi(\Theta)\right)}\left(y_{t} \mid x, y<t\right)\right)
\end{aligned}
$
表 1: データセットの統計量
超大規模な基盤モデルの $W_{0}$ のランク $d$ は非常に大きく, 例えば 1750 億のパラメータを持つ 175B GPT-3 は $d=12,288$ であるのに対し, $r$ は 1 でも 2 でも実行できる. 英語における先行研究による $175 \mathrm{~B}$ GPT-3 を用いた検証では, GPUメモリを三分の一, 学習可能なパラメータ数を一万分の一に削減しつつ, ファインチューニングと同等以上の精度を達成している. GPT-3 の他に, RoBERTa ${ }_{\text {base }}$ [9], DeBERTa ${ }_{x x l}[10]$, GPT $2_{\text {medium }}[11]$ による検証でも, ファインチューニングと同等以上の精度であった。
他手法との比較として, Adapter チューニング [7] では, Transformer[12] の各部分に Adapter 層が追加されることにより, 推論時の計算コストが LoRA チューニングよりも増加する. また, Prefix チューニング [8] では, 入力の一部を接頭辞に分ける必要があるため入力長が短くなるが, LoRA チューニングでは, 入力長を元のモデルのままに保つことができる.
## 3 実験
本実験では, LINE が作成している日本語の GPT のうち, 10 億個のパラメータを持つ $1 \mathrm{~B}$ モデルと 67 億個のパラメータを持つ 6.7B モデルを使用し, XLSum[2], JNLI[3], JCommonsenseQA[3] のタスクで, LoRA チューニングとファインチューニングの比較検証を行った。
## 3.1 データセット
基盤モデルの言語理解の性能評価として, 含意関係認識タスクの JNLI や, 常識推論タスクの JCommonSenseQA の評価を行った. また, 自然言語生成の生成を測るため, 要約ベンチマークデータセットの XLSumのうち, 日本語のサンプルのみを抽出し評価を行なった。
## 3.1.1 JNLI
日本語の言語理解ベンチマークデータセットの JGLUE[3] に含まれる含意関係認識タスクである. 含意関係認識タスクでは, text1, text2 の 2 つの文の間に含意関係があるかを含意/中立/矛盾の 3 段階で判定
する. 比較実験では, モデルに対して文のぺアをモデルに与えて, 含意/中立/矛盾のいずれかの label のテキストを生成させる. 評価は Accuracy を用いる.
## 3.1.2 JCommonsenseQA
日本語の言語理解ベンチマークデータセットの JGLUE[3] に含まれる常識推論能力を評価するタスクである. 質問文 (question) と 5 つの選択肢のテキスト (choice0 - 4) のを与え, 正解のテキスト (label) を出力する. ラベルのインデックスを直接出力する BERT[13] などと異なり,ラベルテキストを生成する形式の本実験では, 選択肢にない回答を出力する場合が存在する. そこで本実験では, モデルに対して質問文と選択肢を与え,生成されたテキストに対しての Exact Match (出力文字列と正解文字列が完全一致した出力を返した割合)を評価指標として用いる.
## 3.1.3 XLSum
XLSum は, BBC の記事の本文や要約文から作成された 44 言語を含むニュース要約タスクであり, 本文から要約文を生成する. 日本語の GPT の評価として, 本研究では XLSum の日本語部分のみを用いる.自動評価の指標として ROUGE[14] を用いる.
## 3.1.4 データセットの分割
JNLI と JCommonsenseQA は Train データと Validation データのみが公開されており Test データが公開されていない. そこで, 本研究でハイパーパラメー タの探索などのための擬似的な Validation データとして元の Validation データの半分を用い, 残り半分を比較検証の際の Test データとして用いた. それぞれのタスクのサンプル数と, モデルへの入力フォー マットは, 表 1 に示す.
## 3.2 モデル
本研究では GPT-3 と同様な形式の基盤モデルを使用し比較実験を行う. モデルは LINE が独自に構築した JPLM コーパスで事前学習を行った. 1B モデルの Layer 数は 24, Hidden Dimension は 2, 048, Attention
※ XLSum の評価指標は ROUGE-1/ROUGE-2/ROUGE-1.
Head は 16 で, 6.7B モデルの Layer 数は 32 , Hidden Dimension は 4, 096, Attention Head は 32である. 両モデルの Max Position Embedding は 2, 048 である.
## 3.3 実験設定
本実験では, $1 \mathrm{~B}$ モデルと $6.7 \mathrm{~B}$ モデルそれぞれに対し, LoRA チューニング (LoRA) とファインチュー ニング (FT)を行い, 予測性能や学習時間, メモリ使用量などの比較した. LoRA, FT それぞれの実験に用いたハイパーパラメータの探索範囲を表 3 に示す. LoRA Weight は, Self-Attention の内部の query, key, value の 3 つの線形層と, 出力層 (output)の重み $W_{q}, W_{k}, W_{v}, W_{o}$ への LoRA の適用の組み合わせの設定を表す. LoRA $r$ は, LoRA における低ランク行列の $r$ である. また, 特に JNLI や JCommonsenseQA において, ラベルを直接生成できる BERT 系モデルと異なり, モデルが存在しない解答のテキストを生成する場合があるため, そのような場合は, 解答失敗として取り扱った. 本実験では NVIDIA A100 (80GB) を用いた. また, 6.7B FTについては, モデルのサイズの都合上, 8 枚の NVIDIA A100 (80GB) を用いている.
表 3: 比較実験に用いたハイパーパラメータ
## 3.4 実験結果
表 2 に示した結果より, 本研究でのハイパーパラメータの探索範囲内では, 1B-LoRA は JNLI 以外のタスクにおいて, 適切な推論を行えなかった. 特に, JCommonsenseQA では, 1B-FT はほぼ全ての入力に対して解答候補のいずれかを生成したが, 1B-LoRA では解答候補が出力されることはなかった. 以上より 1B-LoRA は, タスクの難易度やハイパーパラメー タの探索範囲に敏感であると考えられる。
また, 6.7B FT について, XLSumをのぞいて, 6.7B LoRA とほぼ同程度の精度であったが, GPUメモリの使用量や訓練の計算時間が膨大であった. 特に, 6.7B LoRA や 1B の実験では 1 枚の GPU 上でモデルを訓練できるが, 6.7B FT は 8 枚の GPUを用いてのみ訓練が可能だった。
6.7B FT 1B FT などと比較して 6.7B-LoRA は全てのタスクにおいて, 大幅に小規模なメモリと計算時間で高い性能であった. 実験結果より, 6.7B-LoRA は,ハイパーパラメータの探索を広く行うことで, 小規模なモデルより高い性能を得られた。
また, BERT 系モデルとの比較の参考として, RoBERTa-large の評価結果を引用している.1)よって,直接的な比較は行えないが, BERT 系のモデルと同等以上の予測性能であることを確認できた.
^{1)}$ https://github.com/yahoojapan/JGLUE. JGLUE の評価では, Validation データ全てを用いて評価を行っているため, 本研究の他の実験と評価データが異なる.
}
表 4: XLSum の生成例
}} \\
## 3.5 ハイパーパラメータ探索
$\mathrm{Hu}$ ら [1] は, LoRA の学習率として $2 e-4$ を用いているため, 本実験も $2 e-4$ を探索範囲に含めた. ハイパーパラメータの探索の結果, 大規模なモデルのチューニングは, 小規模なモデルに比べてハイパーパラメータに敏感であることが確認された. 特に, LoRA チューニングの性能は, 学習率などのハイパーパラメータだけでなく, LoRAを適用する箇所や $r$ などのハイパーパラメータも強い影響があり, 多くのハイパーパラメータでは学習が適切に行えなかった. LoRA の Attention の重みタイプと低ランク分解行列の次元 $r$ については, JNLI と JCommonsenseQA の両タスクにおいて, 一番コストが小さい組み合わせ $($ Weight Type $=$ $W_{q}+W_{v}$, Adapter Dim =4) が最適となっている一方, XLSum において一番コストが高い組み合わせ $\left(\right.$ Weight Type $=W_{q}+W_{k}+W_{v}+W_{o}$, Adapter Dim $\left.=16\right)$ が最適であった. LoRAチューニングは, タスクに応じて, 最適な低ランク行列が大きく異なると考え
られる.また, 6.7B FT でも, 1B FT と比較してより広範な探索が必要であり,超大規模な基盤モデルのチューニングは, 効率的なハイパーパラメータの探索が重要であることが確認された.
## 4 まとめ
本研究では, 日本語の大規模な基盤モデルを用い $\tau$, 含意関係認識, 常識推論, テキスト要約の 3 つのタスクを用いてファインチューニングと LoRA チューニングの比較を行った. 実験結果より, 日本語の大規模な基盤モデルのチューニングにおいて, LoRA チューニングがメモリ消費量や計算時間の観点で効率的であることを確認した。
## 謝辞
本研究は LINE 株式会社でのインターン成果である。
## 参考文献
[1] Edward J Hu, Yelong Shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. In International Conference on Learning Representations.
[2] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-Sum: Large-Scale Multilingual Abstractive Summarization for 44 Languages. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4693-4703, 2021.
[3] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In Proceedings of the 13th Language Resources and Evaluation Conference, pp. 2957-2966, 2022.
[4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems, pp. 18771901, 2020.
[5] 山崎天, 川本稔己, 大萩雅也, 水本智也, 小林滉河, 吉川克正, 佐藤敏紀. ペルソナ一貫性の考慮と知識ベー スを統合した HyperCLOVA を用いたマルチモーダル雑談対話システム. 第 96 回言語・音声理解と対話処理研究会 (第 13 回対話システムシンポジウム), pp. 113-118, 2022.
[6] Elad Ben Zaken, Yoav Goldberg, and Shauli Ravfogel. BitFit: Simple Parameter-efficient Fine-tuning for Transformer-based Masked Language-models. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 1-9, 2022.
[7] Ruidan He, Linlin Liu, Hai Ye, Qingyu Tan, Bosheng Ding, Liying Cheng, Jiawei Low, Lidong Bing, and Luo Si. On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 2208-2222, 2021.
[8] Xiang Lisa Li and Percy Liang. Prefix-Tuning: Optimizing Continuous Prompts for Generation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 4582-4597, 2021.
[9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint
arXiv:1907.11692, 2019
[10] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Chen Weizhu. In International Conference on Learning Representations.
[11] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. 2019.
[12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, 2017.
[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41714186, 2019.
[14] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In Text Summarization Branches Out, pp. 74-81, 2004. | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P1-10.pdf | # Doc2Vec と BERT を用いた比較法研究における類似条項の対応付け
小関 龍也 ${ }^{1}$ 長 裕樹 $^{1}$ 中村 誠 $^{1}$
${ }^{1}$ 新潟工科大学 工学部
mnakamur@niit.ac.jp
## 概要
比較法学研究において、日本法と外国法について、自動で類似部分を条項単位で対応づけられれば有用である。本研究の目的は、外国法と日本法の類似条項の対応付けについて BERT と入力長制限のない Doc2Vecの性能評価をすることである。本研究では、 いくつかの類似文書検索によって生成された文書べクトルの類似度を用いて、類似条項の検索を行う。実験から、類似した日本法同士の対応付けでは Jaccard 係数が最も高い性能を示したが、NNである Doc2Vec と BERT についても類似条項の対応付けに有効であることを確認した。
## 1 はじめに
比較法とは、種々の法体系における法制度又は法の機能を比較することを目的とする学問である。比較とは(1)比較されるものの間にある類似点と相違点を明らかにする。(2)類似点と相違点の生じる原因を明らかにする。(3)相違点の存する場合は、どちらがより優れているか評価することであるとされている[1,2]。また、今日最も確固とした法体系を持つのは国家であるから、比較法は通常国家法相互の比較を指す[3]。比較法の実務的な効用として、自国法の立法的整備、解釈・適用の改善が挙げられる。実際に法制審議会において、図 1 のように比較法として日本法と諸外国法の類似条項が提示された例がある。
図 1 法制審議会における実際の対応付け比較法研究においては、日本法と外国法の類似点を足掛かりとして研究を行う場合がある。このとき日本法と外国法との類似部分を対応付けたデータを作成することが考えられる。しかし、正確な対応付けには、専門的な知識が必要であり、非常に労力がかかる。このとき自動で対応付けが出来れば、比較法研究に寄与寸るとともに、一般にも海外とのビジネスをする際などに有用である。
類似条項の対応付けはそれぞれの条文を 1 つの文書とした類似文書検索と捉えられ、すでに研究されている[4,5]。それらの研究では単語の一致数に着目し、Jaccard 係数や Dice 係数で条項間の類似度を計算している。しかし、それらの手法により日本法と外国法を対応付けしたところ、ほとんどの条項間で高い類似度が得られず対応付けに失敗している。その後、BERT による文書ベクトルを用いることで、 より高性能なモデルが提案された $[6,7,8]$ 。しかしながら、法律文の特徴ともいえる文の長さが BERT の入力長制限を受け、性能の低下を招いていることが確認された。そこで本稿では、入力長制限がない Doc2Vecを導入する。
したがって、本研究の目的は、外国法と日本法の類似条項の対応付けについて BERT と Doc2Vec の性能評価をすることである。
## 2 類似文書検索
本節では、類似文書検索において類似度を計算する方法について述べる。
## 2.1 Jaccard 係数
類似文書検索においてはそれぞれの文書を単語の集合とすることで Jaccard 係数を計算することができる。Jaccard 係数を式(1)に示す。
$
\operatorname{Jaccard}(A, B)=\frac{|A \cap B|}{|A \cup B|}
$
Jaccard 係数は計算が単純である反面、単語の重要度を考慮しておらず、類義語も全く別の単語としてしまうといった久点がある。
## 2.2 BM25
BM25 は文書におけるクエリの単語の出現頻度に基づいて、文書集合を順位付けする手法である[9]。文書のベクトルを算出することができ、コサイン類似度で類似文書検索を実現している。
単語 $q_{1}, q_{2}, \cdots, q_{n}$ を含むクエリ $Q$ が与えられたときの文書 $D$ のスコアは以下の式(2)から式(4)のとおりである。
$
\begin{gathered}
\operatorname{score}(D, Q)=\sum_{i=1}^{n} \operatorname{IDF}\left(q_{i}\right) \cdot T F\left(q_{i}\right) \\
\operatorname{IDF}\left(q_{i}\right)=\log \frac{N-n\left(q_{i}\right)+0.5}{n\left(q_{i}\right)+0.5} \\
\operatorname{TF}\left(q_{i}\right)=\frac{f\left(q_{i}, D\right) \cdot\left(k_{1}+1\right)}{f\left(q_{i}, D\right)+k_{1} \cdot\left(1-b+b \cdot \frac{|D|}{a v g d l}\right)}
\end{gathered}
$
## 2.3 Doc2Vec
Doc2Vec は Word2Vec の入力を文、段落、文書などの連続する表現に拡張したもので、文書の特徴べクトルを出力する手法である[10]。Word2Vec から単語ごとの NNを文書ごとの NNに書き換えることで、文書の特徴を計算する。Doc2Vec には 2 つのモデルがあり、CBOWを発展させた PV-DM[10]と skip-gram を発展させた PV-DBOW[11]があり、本稿では PVDBOW モデルで学習を行った。
## 2.4 BERT
BERT は、ニューラル言語モデルのひとつで、多くの NLP タスクにおいて高い性能を示している[12]。現在では複数の事前学習済みモデルが公開されており、ファインチューニングを行うだけで高精度な分類を行うことができる。また、最終層の出力を取り出すことで入力した文書の各トークンに対する単語ベクトルを得ることができる。しかし、基本的な BERT-BASE モデルは wikipedia などの一般の文書をコーパスとしているため、医療等の特定のドメインでは性能が低いことが報告されている[13]。法律ドメインにおいては、英語のモデルとして LEGALBERT モデル[14]が公開されているが、先行研究では性能が向上しなかったため[7]、本稿では採用しない。
## 3 提案手法
法律 A と法律 B 間の対応付けを条単位で行ら流れを図 2 に示す。
1. 法律 A および法律 B の言語が統一された電子テキストを用意する
2. 条文を 1 文書とする
3. 文書間の類似度を算出する
4. 文書間において、互いに最も類似する文書であるとした場合、条文を対応付けする
図 2 対応付けの流れ
## 4 実験
## 4.1 実験の手順
本稿では、以下のような 3 段階の実験を行った。
実験1. 日本法同士の対応付け
実験2. 英訳した日本法同士の対応付け
実験3. 英訳した日本民法と英訳したドイツ民法との対応付け
類似する条文の対応付けに文書ベクトルの類似度を用いるが、一般の文書と同様に法令文書でも BERT によるべクトル化が有効とは限らない。そこで、外国法との実験を行う前に、まずは日本法同士の対応付けを行う。ここでは内容が似ている電気事業法(昭和 39 年法律第 170 号)とガス事業法(昭和 29 年法律第 51 号)を取り上げる。類似条文の対応付けにおける BERT の性能を Jaccard 係数、BM25、 Doc2Vec による対応付けとの比較により検証した。次に、外国法を対応付ける場合はどちらかの言語に統一する。英訳は翻訳データが多いことから、外国法を対象とした場合でも翻訳精度が高いと考えられる。そこで、政府提供の英訳された日本法で対応付けを行い、日本語の場合と同様に対応付けが行え
るかを調べた。
最後に政府提供の英訳済み日本民法(家族法)と政府提供の英訳済みドイツ民法との対応付けを行った。
## 4.2 実験の詳細
実験 1 について、実験データの文書を日本語の事前学習済み BERT モデルに入力し、最終層の[CLS] と [PAD]を除く出力を平均したものを文書ベクトルとした。事前学習済タモデルには cl-tohoku/bert-basejapanese-whole-word-masking を利用した。BERT の入カトークン数は最大の 512 とし、それを超えるトー クンは無視した。異なる法令の文書ベクトル同士のコサイン類似度をすべての組み合わせで計算した。 ある文書に対して最もコサイン類似度が高い文書を参照し、その文書から見て最も類似度が高くなる文書が元の文書である場合に、2つの文書を対応付けた。そして、電気事業法とガス事業法の対応付け結果は正解データを用いて評価した。
次に、Jaccard 係数、BM25、Doc2Vec を用いた場合と比較するため、同じ文書を MeCabによって形態素に分割し、それぞれの文書間の類似度で対応付けを行った。MeCab の辞書には Neologd を使用した。 また、Doc2Vec のモデル作成には電気事業法とガス事業法を使用した。
実験 2 では、対応付け実験を英訳版の法令で行った。BERT の英語事前学習済みモデルには bert-baseuncased を用いた。
実験 3 では、上記のような 1 対 1 の対応付けでは、 ほとんど正しい対応付けがないことが分かった。そこで、日本法から見てドイツ法の類似度上位 5 ヶ条を対応させる方法をとった。結果は、正答率に基づいて評価した。
## 4.3 実験データ
本実験で使用する法令は、日本語の法令データは e-Govi、日本法の英語訳データは日本法令外国語訳
式で入手した。その抜粋を図 3 に示す。また、ドイツ法は政府提供の民法の英語版iiiの book4を取り出した。これも条文のみを条単位でまとめて 1 文書とした。図 1 はその一部である。
図 3 電気事業法とガス事業法の例
JLT の英訳は最新の法令データではないため、条数や内容の一部が異なる。それぞれのファイルから article タグ配下にあるテキストを抽出して、それぞれを 1 つ文書として扱った。本実験で使用した法令を表 1 に示す。
表 1 使用法令
\\
## 4.4 評価方法
電気事業法とガス事業法の対応付け結果を正解デ一タと比較した。正解データは法律の専門家 2 人による人手で、複数の条との対応を許可して作成した。評価手法は先行研究[7] に従って、Accuracy、Recall、 Precision、F1 値を算出した。
また、日本民法のドイツ民法に対しての対応付け結果は、新注釈民法[15] と新版注釈民法[16,17]から作成した正解データと比較して評価した。このとき、法律間の対応数は 108 個あった。
## 5 結果と考察
## 5.1 実験結果
実験 1 の対応付け結果を表 2、実験 2 の対応付け結果を表 3、実験 3 の対応付け結果を表 4 に示す。
表 2 日本語で対応付けした場合の評価結果
表 3 英語で対応付けした場合の評価結果
表 4 日本民法のドイツ民法に対しての対応付け評価結果
## 5.2 実験 1: 日本法同士の対応付け(表 2)
全ての手法で 0.7 を超える $\mathrm{F} 1$ 値が得られた。その中でも Jaccard 係数の值が高く、これは電気事業法とガス事業法の条文が、図 3 の下線部に示すように単語単位で類似しているためだと考えられる。
また、NN である Doc2Vec と BERT 間では、 Doc2Vec による F1 值が高かった。これは 512 トー クン以降の入力を無視する BERT の入力長制限による影響があると考えられる。
## 5.3 実験 2: 英訳版での対応付け(表 3)
英訳版は、法改正が反映されていないにもかかわらず、現行法の正解データを用いたため、正解に誤りがある。そのため、全体的に評価値が低い。英訳したデータを対応付けた場合、BERT は同じ NN である Doc2Vec と比較して大きく下回った。これは JLT による英訳が元の条文と相違が無いよう、 1 文の長さや構文構造の複雑さなど、標準英語とはかけ離れた文体であるため、英語 Wikipedia を使って学習した BERT では上手く解析できなかった一方、対象法令で学習した Doc2Vec では高い精度を示したと考えられる。また、BERT は 512 トークンの入力長制限による言語的な違いが現れ、精度が振るわなかった可能性も考えられる。
## 5.4 実験 3: 外国法との対応付け(表 4)
既存の手法である Jaccard 係数と BM25 を比較すると BM25 の方が高精度であった。これは法令間に出現する単語が大きく異なることが考えられる。そのため、単純に文書間の単語集合から類似度を求める Jaccard 係数が F1 値で最も低い值を示しているのに対し、文書の特徵的な単語から類似度を求める BM25 では、Jaccard 係数に比べ正しく求めることができたと考えられる。また、NN 間の比較では BERT の方が F1 值で高い値を示していた。対象法令で学習した Doc2Vec よりも汎用的なモデルを持つ BERT が高い性能を示したことから、国家間の英訳された条例では Doc2 Vec による単語・文脈の意味表現より、 BERTがより深く表現できていると示唆された。
## 6 おわりに
実験から、BERT を用いた類似条項の対応付けが有効であることが分かった。また、英訳で対応付けを行う場合には Doc2Vec の性能が高くなるという結果が得られた。
今後は BERT の事前学習及び、ファインチューニングの最適化を行っていきたい。
## 謝辞
本研究は、科学研究費補助金 (19H04427、代表 : 中村誠)の助成を受けたものである。
## 参考文献
[1] 貝瀬幸雄, 比較法学入門, 日本評論社, 2019-0225
[2] 五十嵐清, 比較法ハンドブック, 勁草書房, 201902-20
[3] 滝沢正, 比較法, 三省堂, 2020-10-10
[4] 比較法研究における外国法との類似条項の対応付けと翻訳精度との関係について. 長裕樹. 中村誠,電子情報通信学会信越支部大会, 2021 年, p. 115
[5] The legislative study on Meiji civil code by machine learning. Kaito Koyama, Tomoya Sano, Yoichi
Takenaka. Proceedings of the International Workshop on Juris-Informatics 2021, pp.41-53
[6] 長裕樹, 中村誠. BERT を用いた比較法研究における類似条項の対応付け。言語処理学会第 28 回年次大会発表論文集, pp.948--951
(2022)
[7] Hiroki Cho, Aki Shima, Makoto Nakamura. Mapping Similar Provisions between Japanese and Foreign Laws. In: Proceedings of 16th International Workshop on Juris-Informatics 2022, pp.195--206 (2022)
[8] 小関龍也, 中村誠. 法律間の類似条項の対応付け手法の検討. 2022 年度電子情報通信学会信越支
部大会, p. 56
(2022)
[9] S.E. Robertson, H. Zaragoza and M.J.Taylor, "Simple BM25 extension to multiple weighted fields", DBLP, PP.42- 49 (2004)
[10] Quoc V. Le, Tomas Mikolov, "Distributed
Representations of Sentences and
Documents",arXiv:[1405.4053(2014)
[11] Jey Han Lau, Timothy Baldwin. "An Empirical Evaluation of doc2vec with Practical Insights into Document Embedding Generation”, arXiv:1607.05368(2016)
[12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, abs/1810.04805, 2019
[13] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and JaewooKang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR. 2019
[14] LEGAL-BERT: The muppets straight out of law school. Chalkidis, I., Fergadiotis, M., Malakasiotis, P., Aletras, N., \& Androutsopoulos, I., Findings of the
Association for Computational Linguistics: EMNLP 2020, pp.2898-2904
[15] 二宮周平(編),新注釈民法(17)親族(1)725 条 791 条,有斐閣 (2017)
[16] 中川善之助, 山畠正男(編), 新版注釈民法(24)
親族(4)792 条 817 条の 11 ,有斐閣 (1994)
[17] 於保不二雄, 中川淳(編), 新版注釈民法(25)親
族(5)818 条 881 条,有斐閣 (1994) | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P1-11.pdf | # Fusion-in-Decoder を用いた論文分類手法の検討
奥田あずみ 美野秀弥 後藤淳
NHK 放送技術研究所
\{okuda.a-gc,mino.h-gq, goto.j-fw\}@nhk.or.jp
## 概要
テキストを適切なカテゴリに分類するテキスト分類技術は言語処理において重要な技術の 1 つである. 特に,近年,大量のテキストデータを扱うことが増え,テキスト分類の需要は高まっている. そこで,本稿では,大量の論文を分析するための論文のラベル分類タスクに取り組む.質問応答タスクで用いられている Fusion-in-Decoder の手法を参考に,論文などの長いテキストに対しても高精度のラベル分類できるような手法を提案した. 論文のラベル分類タスクで評価実験を行った結果,提案手法の効果を確認した。
## 1 はじめに
テキストを適切なカテゴリに分類するテキスト分類技術は言語処理において重要な技術の 1 つであり,多くの手法が提案されている [1]. 特に,近年は計算機などのハードウェアの技術進歩により大量のテキストデータが扱えるようになり,テキスト分類の需要は高まっている. 最近では,新型コロナウイルスに関する論文が大量に公開され1),それらの論文の迅速な解析が求められた. そこで, 本研究では,論文のラベル分類タスクに取り組む.
BERT [2] などの事前学習モデルには入力長の制限値が設定されており,論文などの文長の長いデータを一度に扱えない課題がある. この課題への対応として,論文の全文を事前学習モデルの入力長の制限值以下に分割して複数のラベルを出力し,複数のラベルを結合して単一ラベルを出力する手法が提案されているが [3], 分割された各データのラベル分類に対する重要度を考慮しておらず,十分な精度が達成できていない可能性がある.そこで,本研究では,長文のテキストのラベル分類の高精度化のため
に,質問応答 $(\mathrm{QA})$ タスクで用いられている手法を応用した手法を提案する.具体的には,論文の重要な情報が集約されていると考えられる概要部分を用いて論文の全文からラベル分類に有効な文集合を抽出し,抽出した文集合の各文のベクトル表現を結合してラベルを推定する.質問応答タスクで高い性能を達成している Fusion-in-Decoder [4] を用いることで,ニューラルネットワークを用いたベクトル表現の結合を実現した.新型コロナウイルスの科学技術論文データ CORD-19 [5] を用いた評価実験を行い,提案手法の効果を確認した。
## 2 関連研究
論文のラベル分類の手法に Sentence-LabelClassification(SLC) [3] がある. SLC は学術論文のような長い文章に対し,BERT [2] の入力長の制限値 (512 トークン) 以下になるように 1-3 文程度の短い文集合に分割し,その単位ごとに BERT モデルを用いて追加学習を行う.分割した文集合それぞれでモデルを学習するため学習データが増え, 低頻度ラべルの学習に効果がある。しかし,この手法は,ラべルの統合時に各出力の平均值などを用いており, 各文の重要度を考慮できていないため, 改善の余地がある.
本稿では,SLCを改善するために,質問応答 (QA) タスクで用いられている手法を参考にして,ラべル統合時にニューラルネットワークを用いる手法を提案する。QAタスクの多くは,質問と回答を見つけ出すための文書集合から解答を見つけ出すタスクである. Karpukhin ら [6] は文書集合から関連する箇所を検索する Dense Passage Retriever (DPR) を提案し,オープンドメイン $\mathrm{QA}$ タスク ${ }^{2}$ で高精度な結果を達成した. Lee ら [7] は, オープンドメイン QA タスクに取り組み,Open-Retrieval Question
## retriever
図 1 提案手法の概要
Answering (ORQA) モデルを提案した. ORQA モデルは,解答を得るのに適切な文集合を外部知識から検索する retriever と, retriever が検索した文集合と質問を合わせたものから解答を見つけ出す reader の 2 つで構成される. Izacard ら [4] は, ORQA モデルをべースに, reader 部分を改良して Fusion-in-Decoder (FiD) を提案した。さらに,Izacard ら [8] は reader の知識を用いて retriever を学習する手法を提案し, $\mathrm{QA}$ タスクの精度を向上させた. 本稿では,Izcard らの FiDの手法を論文のラベル分類に応用している。
## 3 提案手法
## 3.1 概要
本研究では, Izcard らが提案した reader と retriever の 2 つの機構を持つ Fusion-in-Decoder (FiD) を,論文のラベル分類に応用する手法を提案する. 提案手法の概要図を図 1 に示す.
reader は,ラベル分類に有効な情報 (question)と論文中のラベル分類に有効な文集合 (ctxs) を入力とし, 論文のラベル (answer) を出力するモデルである.入力には,文集合中の各文 (context) に加え, context とは別の answer を推定するのに有効な情報である questionを用いることができ, question と context を合わせたものを passage と呼ぶ. passage は複数用意することができ,それぞれ reader の encoder に入力
して埋め込み表現を得る。そして,獲得した複数の出力結果を連結して decoder に入力して answer を生成するように学習する。
retriever は,論文全体を入力とし,ラベル分類に有効な文集合である ctxs を検索するモデルである. reader は複数の passage を encoderに入力してラベル分類を行う過程で, question と passage との cross-attention スコアが計算される. cross-attention スコアの高い passage は answer の推定に寄与しているという仮定のもと, retriever は,ラベル分類に有効な文集合を抽出するため,cross-attention スコアと question と passage の埋め込み表現の内積が関連付くように学習する。
reader が用いる passage は retrieverにより更新される. retriever は学習時に reader が出力過程で計算する cross-attention スコアの結果を用いる. reader と retriever は相互に関係しており,reader と retriever を繰り返し学習することでそれぞれのモデルを高精度化する。
## 3.2 手順
Izcard ら [4] は retrieverの検索対象として, wikipedia のような大量のデータを含む外部知識を用いている. 本研究では,図 1 にあるように,論文全文を文単位で分割して格納した論文データベースを外部知識とみなし,retrieverを用いて論文データベー ス内の全文からラベル分類に有効な文を抽出する.
学習データは,短いテキストである論文の概要部分 (abstract),長いテキストである論文全文 (fulltext),論文のジャンルを表すラベル (answer),の 3 つで構成される.
学習時の具体的な手順は以下の通りである.
1. reader の学習学習データの abstract と fulltextを 1 文ごとに分割する. reader の encoder に分割した abstract を context として入力し, 正解ラベルを answer として reader の最初の学習を行う. question には全論文共通で “What genre best describes this abstract?”3)を用いる.
2. retriever の学習訓練済みの reader が途中で計算する cross-attention スコアをもとに, question と context の内積が適切な值となるように retriever を学習する。
3. retriever による推論 2 で学習した retrieverにより論文データベースから関連する文を faiss [9] で最近傍探索を行い関連度が高い文を抽出する. 極端に短い文は抽出しないようにした。この抽出作業を passage retrieval と呼ぶ.
4. reader の再学習 question と 3 で抽出した context とを readerに入力して再度 readerを学習する。
5. 交互に学習 3-5を繰り返し, reader と retriever を交互に学習する。
ラベル分類を行う際は, abstract を 1 文ごとに分割して最終的に得られた reader にかけ, 出力結果の answer が推定ラベルとなる.
## 4 実験
## 4.1 実験設定
Allen Institute for AI が収集していた新型コロナウイルス感染症 (Covid-19) に関する科学論文リソースである The Covid-19 Open Research Dataset (CORD-19) を用いて実験を行った. CORD-19 は PubMed Central やWHO など, 複数のリソースから学術文献検索サービス Semantic Scholar で検索して取得した論文を統合しており,著者名や投稿日時や取得ソースが abstract と併せてメタデータに記載されている. 本稿では CORD-19 から抽出した bioRxiv に投稿された 7127 本の論文と,各論文に付与された 25 種類の研究分野のラベルを用いた. 提案手法のモデルに入
表 1 実験結果. question には共通の文を用いた. context
力するデータは付録 A のような JSON 形式のデータである.
context の集合である ctxs は retriever の結果を用いるが,初回の reader の学習時には retriever の学習は行われず用いることができない。そこで,ctxs の初期値として, 論文の abstract がラベル分類に有効な文集合であると仮定し,学習データの各論文の abstractを文単位に分割したものを用いた。単語の分散表現には T5 (Text-to-Text Transfer Transformer) [10]を用いた. retrieverの出力には論文データベー スの検索結果から 10 単語以下で構成される文を除いた Top 20 を用いた.
比較手法には Sentence-Label-Classification(SLC) [3] を用いた。
評価には分類タスクで一般的に用いられている Micro-F1 と Macro-F1を用いた.
## 4.2 実験結果
実験結果を表 1 に示す. 繰り返し回数は, reader と retrieverの学習の回数を示す.
先行研究であるSLC と繰り返し回数 0 回の提案手法を比較すると,Macro-F1 はほぼ変わらず, Micro-F1 は向上した. SLC は文ごとにラベル分類を行い,それらの結果をもとにルールベースでラベルを推定する。一方,提案手法は文ごとの encoder 結果を連結し,それを decoder で処理してラベルを推定しており,ニューラルネットワークを用いた手法である. 提案手法が SLC より Macro-F1 で向上した要因として, ラベル分類にニューラルネットワークを用いる利点が考えられる. context 中のすべての文の重要度を考慮せずにラベル分類する SLC とは異なり,提案手法は文集合中のどの文がラベル分類に重要かを考慮したラベル分類が可能になっている。
次に, retriever と reader の学習を繰り返して, retrieverによる passage retrieval の効果を検証した。繰り返し 1 回目では, retrieve を用いない場合 (繰り返し回数:0) と比較して, Micro-F1 は若干向上し
表 2 分析用の実験結果
たが,Micro-F1 は下がった. さらに繰り返し回数を重ねると,4 回目まで Micro-F1 はほぼ変わらず, Macro-F1 は向上した. 5 回目で Micro-F1,Macro-F1 ともに数値が下がったため, 学習の繰り返しを終了した. 提案手法を用いた QA タスクにおける実験 [4] でも,4 回目程度まで性能が向上したと報告されており,本研究でも同様の傾向となった.
## 5 分析
本章では,retriever を用いない場合の reader の性能を分析する.
## 5.1 初期 context に全文を利用
提案手法では, reader で用いる context の初期値 (繰り返し回数:0) にラベル分類に有効な情報であると考えられる abstract を用いた. しかし, contextには大量のデータを用いることが可能である. そこで, context の初期値に論文全文を入れて 4 章と同様の実験を行った.
表 2 の 2 行目が実験結果である. 4 章の実験の繰り返し回数 0 回の結果 (表 2 の 1 行目) と比較して Micro-F1,Macro-F1 ともに精度が向上した. この結果より,context に入力するデータ数を増やすことで精度が向上すると考えられる。一方で,reader の context の初期值に論文全文を用いると計算に時間がかかるという課題がある. 本研究の実験環境4)では,readerの学習に全文で約 9 時間,abstract のみでは約 3 時間かかった。
## 5.2 question に abstract を利用
4 章の実験の繰り返し回数 0 回の結果 (表 1 の 2 行目) は,retriever を用いずに abstract を用いてラベルを推定しており,abstractにラベル分類に有効な情報が含まれているかの判断材料となる. Micro-F1 の值は SLC (表 1 の 1 行目)よりも高いことから, Abstract にはラベル分類に有効な情報が含まれていると考えられる。そこで, questionに共通の固定ベクトルを用いるのではなく, abstract の分散表現ベクトルを用いて実験を行った. 表 2 の 3 行目が実験結果であ
4) NVIDIA V100 1 コアを用いて実験を行った.
る. 4 章の実験の繰り返し回数 0 回の結果 (表 2 の 1 行目) と比較して Micro-F1,Macro-F1 ともに精度が向上した. この結果より, question にラベル分類に有効な情報を入力することでラベル分類の精度が向上すると考えられる。
## 6 まとめ
本研究では,質問応答タスクで用いられている, retriever と reader からなる Fusion-in-Decoder を分類タスクに応用して,論文のラベル分類に取り組んだ. retriever では,文章全体の特徴を表す短い文と question を用いて長いテキストからラベル分類に有効な文集合を抽出し,reader では抽出された複数の文を統合し,ラベル分類を行った. 新型コロナウイルス関連の論文を集めたデータセットを用いてラべル分類実験を行い提案手法の効果を確認した. 今後は,より有効な question の選び方や単語埋め込み表現の改善を通じて,retriever の性能を上げる方法を検討する.また,異なるデータセットでの実験を行い,他の先行研究とも比較して提案手法の有効性を示したい.
## 謝辞
貴重なコメントや議論を頂いた NHK 放送技術研究所の山田一郎シニアリード,宮﨑太郎研究員,安田有希研究員,石渡太智研究員に感謝します。
## 参考文献
[1] Shervin Minaee, Nal Kalchbrenner, Erik Cambria, Narjes Nikzad, Meysam Chenaghlu, and Jianfeng Gao. Deep learning-based text classification: A comprehensive review. ACM Comput. Surv., Vol. 54, No. 3, pp. 62:162:40, 2021.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[3] 奥田あずみ, 宮﨑太郎, 美野秀弥, 後藤淳. 文単位の分類器を用いた論文分類手法の検討. 2021 年映像情報メディア学会冬季大会, 2021.
[4] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 874-880, 2021.
[5] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer, 2020.
[6] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics.
[7] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent retrieval for weakly supervised open domain question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6086-6096, Florence, Italy, July 2019. Association for Computational Linguistics.
[8] Gautier Izacard and Edouard Grave. Distilling knowledge from reader to retriever for question answering. In The International Conference on Learning Representations, 2021
[9] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019.
[10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020 .
## A 入力例
\{
"id": "047xpt2c",
"question": "What genre best describes this abstract?",
"answers": [
"pharmacology and toxicology"
],
"ctxs": [
"text": "A novel coronavirus SARS-CoV-2, also called novel coronavirus 2019 (nCoV-19), started to circulate among humans around December 2019, and it is now widespread as a global pandemic.",
"id": "047xpt2c0",
"title": " "
\} ,
"text": "The disease caused by SARS-CoV-2 virus is called COVID-19, which is highly contagious and has an overall mortality rate of $6.96 \%$ as of May $4,2020 . "$,
"id": "047xpt2c1",
"title": "
\} ,
"text": "There is no vaccine or
antiviral available for SARS-CoV-2.",
"id": "047xpt2c2",
"title": " "
\},
]
\} | NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P1-12.pdf | # 大規模言語モデルを用いた情報検索のための coarse-tuning 手法の提案
欅 惇志 1 田中 リベカ ${ }^{2}$
1 一橋大学ソーシャル・データサイエンス教育研究推進センター
2 お茶の水女子大学 文理融合 AI・データサイエンスセンター
a.keyaki@r.hit-u.ac.jp tanaka.ribeka@is.ocha.ac.jp
## 概要
大規模言語モデルを用いた情報検索 (LLM-IR)の fine-tuning では,タスクに特化した学習に加えて, クエリの埋め込み表現(クエリ表現)とクエリー 文書の関係を学習する必要がある. 本研究では, pre-training と fine-tuning を繋ぐ中間段階の学習として coarse-tuning を導入する. coarse-tuning においてクエリ表現とクエリー文書の関係を学習することで, fine-tuning の負荷を軽減して学習効果の向上を目指す.その際,クエリー文書ペアの適切性を推定する Query-Document Pair Prediction (QDPP) を提案する.評価実験の結果,提案手法によって情報検索タスク Robust04 の検索性能 (nDCG@20) が 6\% 向上した.
## 1 はじめに
BERT [1] の登場によって情報検索コミュニティにおいてパラダイムシフトが生じた. BERT 以前にも深層学習ベースの情報検索手法 (pre-BERT 深層学習) $[2,3,4]$ は多数提案されていたが,文献 [5] における徹底的な実験によって,適切にハイパーパラメータ・チューニングされた古典的手法 [6] に対して pre-BERT 深層学習ベースの手法は実質的な性能改善はないということが示された. そのような中, BERT の登場により,大規模言語モデルを用いた情報検索 (LLM-IR) 手法の性能は大幅に改善した [7].
ただし,本来は大規模言語モデルを用いた finetuning では軽微な追加学習で高性能の達成が期待されるにも関わらず,実情は情報検索データセットを用いて fine-tuning をするだけでは大幅な性能改善はもたらされない [8]. 高い性能を発揮するためには高コストな fine-tuning(例えば,BERT の出力を情報検索特化型のネットワークに入力して行う追加の学習 $[9,10]$ や大量データ [11] を用いた fine-tuning)
が必要である. 非事前学習型の Transformer ベースの検索手法 $[12,13]$ よりも BERT などの事前学習をベースとした検索手法がより高性能を示すことから,大量の言語資源を用いた事前学習の効果は明らかであるものの,高コストな fine-tuning を前提とした LLM-IR では事前学習の恩恵を最大限に受けられているとはいえない.
高コストな fine-tuning が必要となる一因として,入力データ構造の違いが考えられる. 大規模言語モデルの pre-training の入力は自然文のテキストである. 対して,情報検索タスクの入力は,数語程度の単語列であるクエリと数十から数百語程度の自然文である文書という不均衡な二つ組から構成されるデータ構造を持つ. 更に,クエリは自然文の文法に従わない [14] ため,自然文を用いて訓練されたモデルとは䶡敬がある1). BERT の pre-training においても,クエリの性質を反映した埋め込み表現(クエリ表現)を適切に学習できていない可能性が高い. また,クエリと文書は文法や語数に大きな相違があるものの,出現語には一定の傾向がある.すなわち,クエリに適合する候補文書中にはクエリ語やその関連語が出現し ${ }^{2)}$ ,無関係な文書には出現しない. BERT の pre-training では,このようなクエリー 文書の関係も学習されていない。従って,LLM-IR の fine-tuning では,後段タスク(クエリに対する適合度順の検索結果作成)に特化した学習に加えて, クエリ表現とクエリー文書関係の学習を全て同時に行う必要がある.以上の理由から LLM-IR における fine-tuning が高コストになっていると推測される.
そこで,本研究では, pre-training と fine-tuning を繋ぐ中間段階の学習である coarse-tuning を提案す
図 1 coarse-tuning モデルの概要図
る. coarse-tuning においてクエリ表現とクエリー文書関係を学習することで,fine-tuning ではクエリに対する文書の適合度の推定に注力し, 検索性能を改善することを目指す.
BERT の事前学習では単語の穴埋め問題を解く Masked Language Model (MLM) と文の連続性を予測する Next Sentence Prediction (NSP) が採用されている. 本研究においても, クエリ表現の学習に MLM を用いる。加えて,クエリ一文書関係の学習では, NSP に着想を得て,クエリー文書ペアの適切性を推定する Query-Document Pair Prediction (QDPP) を提案する. 本稿では,クリックログ(検索エンジンに発行されたクエリとクリックされた検索結果中の文書の情報)からクエリー文書ペアを作成する。
情報検索データセットである Robust04 における性能評価の結果,fine-tuning に先立ち coarse-tuning を適用することで,nDCG@20 が 6\%向上した.また,文書からクエリを推定するタスクにおいて, coarse-tuning によってクエリ表現やクエリ-文書関係が学習されたことを示唆する結果が得られた。
## 2 提案手法
coarse-tuning の学習モデルの概要を図 1 に示す. モデルのアーキテクチャは, BERT と同様に, 複数層の双方向 Transformer で構成される. coarse-tuning では MLM と QDPP が同時に行われることで,クエリ表現とクエリー文書の関係が学習される。
## 2.1 モデルの入カ
coarse-tuning の学習モデルは情報検索タスク特化型であるため,クエリと文書が入力される。クエリ
と文書はそれぞれトークン化され,特殊トークンとともに単一のシーケンスとして結合される。その際,文書トークンの末尾が最大トークン長を超える場合には,最大トークン長以降の文書トークンは除去する。また,一般的にクエリ長よりも文書長が大きい傾向があるが,稀に長文クエリが存在する.長文クエリは無意味な文字列であったり,そうでなくても学習への悪影響が懸念されるため, 経験則的に最大トークン長の半分よりも大きなトークン長を持つクエリはノイズとして除外する。なお,特殊トークンには,BERT で用いられる [CLS][SEP] [PAD] に加えて,[Q] と [D] が含まれる。 [Q] と [D] は LLM-IR 9 fine-tuning で用いられる特殊トークン [20] である. [Q] はクエリトークンの前に挿入され, クエリを表す. [D] は文書トークンの前に挿入され,文書を表す。
## 2.2 Masked Language Model
深い双方向のクエリ表現の学習のため MLM による学習を行う.まず,クエリと文書それぞれをトー クン化する。その後,一定割合のトークンをランダムにマスク化([MASK]トークンと置換)する。マスク化されたトークンに対して,マスク化前のオリジナルのトークンを推定することで学習が行われる。
## 2.3 Query-Document Pair Prediction
QDPP では,入力されたクエリと文書ペアが適切か (IsPair) 不適切か (NotPair) を推定するタスクを通して,クエリ一文書の関係を学習する。クエリー文書ペアの適切性判断として最も信頼性の高い情報源は,情報検索データセット中の qrel(クエリー文書に
対する適合性判定)である. しかしながら qrel のアノテーションコストは高く,大量に作成することは難しいため, 汎用的なクエリー文書関係の学習に用いるデータセットとしては適切とはいえない。これを踏まえると, coarse-tuning 用のデータが満たす条件は下記の通りである。
・クエリと文書を含む
・クエリー文書の何らかの関係性を保持する
$\cdot$(研究用途で) されている
これらの条件を満たすデータとして, ORCAS (Open Resource for Click Analysis in Search) [21] が該当する. ORCAS は研究用途で利用可能なクリックログデータセットであり, 1,900 万のクエリ-文書ペア (1,000万種類のクエリ)が含まれる. Bing で収集された膨大な量のログからノイズを除去したうえで, $k$-匿名化と不適切なクエリの除去を行っている.
クエリー文書のクリック関係は適合性とも関連を持ち,クリックされた文書を擬似適合文書として扱うことで性能改善が実現した事例も多数存在する [22, 2, 23]. 従って, 本研究では,クリック関係を持つクエリー文書を適切なクエリー文書ペアとする。
## 2.4 学習手順
coarse-tuning はクエリ表現とクエリ-文書関係の学習に主眼を置いており,汎用的な言語表現の獲得は目的としていない. 従って, 既に言語表現が学習されている事前学習済みモデルに対して, coarse-tuning を適用することを想定する。下記の手順にて後段の情報検索タスク用モデルが学習される。
1. 事前学習済みの大規模言語モデルを取得する
2. coarse-tuning (MLM と QDPP)を行う
3. 情報検索データセットで fine-tuning を行う
## 3 評価実験
## 3.1 実験設定
比較手法は下記の 4 手法である.
1. pre-trained 事前学習済みモデルを用いる
2. coarse-tuned 事前学習済みモデルに対して coarse-tuning を行う
3. fine-tuned (baseline) 事前学習済みモデルに対して fine-tuning を行う
4. coarse+fine (proposed) 事前学習済みモデルに対して coarse-tuning 後に fine-tuning を行う表 1 情報検索タスク Robust04 の性能評価
なお,本稿では,単純化のため,fine-tuning は coarsetuning と同一のモデルを用いてクエリー文書ペアの適合度ラベルを推定する分類タスクとして学習を行い,適合ラベルの推定確率を文書のスコアとした。
検索性能評価では単一の設定に対して 3 回の試行を行った平均値を用いる。事前学習済みモデルには prajjwal1/bert-tiny $\left.{ }^{3}\right)(L=2, H=128)$ を用いて,最大トークン長は 256 とした。その他の設定については A. 1 を参照されたい. 予備実験の結果,最適な設定は,ORCAS のサンプリング率 $5 \%$ , coarse-tuning の epoch 数 1 , fine-tuning $の$ epoch 数 2 となった. 予備実験結果の一部も A. 1 に掲載する.次節の実験では最適な設定を用いた際の性能を報告する。
## 3.2 情報検索データセット
情報検索データセットは Robust04 [24] を用いる. Robust04 はキーワードマッチに基づく古典的な検索手法では性能が低い高難易度のクエリから構成されているため, 近年の LLM-IR の評価でも多用される. 250 個のクエリ,50万件のニュース記事, 31 万件の qrel(クエリー文書の適合性判定)を含み,平均的な情報検索データセットと比較してクエリあたりの qrel 数は大きく,リッチな評価が行われている. qrel の適合度ラベルは,非適合 $(94.4 \%)$ ,適合 $(5.3 \%)$,強く適合 $(0.3 \%)$ の 3 段階であり, 評価実験では少数ラベルである強く適合は適合に変換して用いた。 fold1-fold4 の 200 クエリを訓練,fold5 の 50 クエリを評価クエリとして用いる。評価指標は,関連研究 [17] に準拠して $\mathrm{nDCG} @ 20$ と $\mathrm{P} @ 20$ を採用する. $n D C G @ k$ は順位を考慮した指標であり,より上位により多くの適合文書を提示することで高い值を示すため,情報検索の評価では $\mathrm{P} @ k$ より重視される.
## 3.3 後段の情報検索タスクに関する評価
Robust04 による評価実験結果を表 1 に示す. 比較手法のなかで最も高精度な検索精度を示した手法は coarse+fine (proposed) であり, fine-tuned
表 2 クエリ表現とクエリー文書関係の獲得に関する評価
(baseline) と比較して nDCG@20 は 6\% 改善した. 後段タスクに特化した学習を行っていない pre-trained と coarse-tunedでは想定の通り低い検索性能が確認された, fine-tuning による性能の改善が認められ,さらに,先立って coarse-tuningを行うことで更に高精度な検索性能を達成した。
## 3.4 クエリ表現とクエリー文書関係の獲得 に関する評価
coarse-tuning によってクエリ表現やクエリー文書関係が獲得できたかどうかを評価するため,文書からクエリを予測するタスクを行った。具体的には,与えられた文書からシーケンスを作成する際に, クエリトークンの位置に [MASK] トークンを挿入する. その後各モデルで [MASK]トークンを予測する。 ORCAS クエリの平均は 3.27 語のため, 予測するクエリのトークン数は 3 とする。
表 2 は,英語版 Wikipedia 記事の “Information retrieval"4)の冒頭から最大トークン長まで入力した際に予測されたクエリトークン $\left(\mathrm{Tok}_{\mathrm{Q} 1}, \mathrm{Tok}_{\mathrm{Q} 2}, \mathrm{Tok}_{\mathrm{Q} 3}\right)$ の上位 5 件である. pre-trained と fine-tuned (baseline) ともにサブワードを含むランダムなトークン群が予測されている. coarse-tuned では,クエリの先頭トークンである $\mathrm{Tok}_{\mathrm{Q} 1}$ において "how”や “what”,2つ目のトークンである $\mathrm{Tok}_{\mathrm{Q} 2}$ において “of”が出現しており,ある程度のクエリ表現が学習できていると考えられる。また, “data”, “information", "search” は入力中に出現する語であり, “computer” と “citations” は入力された範囲よりも後の文書中に出現する語である。このことから,予測されたクエリが文書中の語やその関連語から構成されるため, クエリー文書関係も学習されている形跡が認められた。なお, $\mathrm{Tok}_{\mathrm{Q} 3}$ の “wikipedia” は入力中に含まれないが,ORCAS クエリの中には末尾に“Wikipedia”を含むクエリが多数存在するため, その特徴が現れていると考察される。
また, coarse+fine (proposed) では, 予測されているトークン群に一貫性があるものの,入力され
4) https://en.wikipedia.org/wiki/Information_retrieval
た文書とは異なるトピックに関するトークン群が出力されている.これは, fine-tuning の過程で, coarse-tuning で学習されたクエリ表現やクエリ-文書関係の一部が失われたためであると考えられる。
今後の課題として,詳細な分析を通したより高性能な coarse-tuning 手法の提案や,クエリ表現やクエリ一文書関係を損失しない fine-tuning 手法の提案を行う予定である。また,より大きな BERT モデルを用いた場合の振る舞いの差異の評価や,より高性能な fine-tuning 手法の適用も今後の課題である.
## 4 関連研究
文献 [25] では後段タスクに応じた事前学習の必要性が主張されている.LLM-IR に関する研究の主流は fine-tuning であるが $[26,27,28]$, 事前学習に着目した研究も存在する $[17,18,19,29]$. 文献 [17, 18, 19] ではいずれも文書から生成した疑似クエリを事前学習に利用しているため, 実クエリー文書ペアからクエリ表現やクエリー文書関係を学習する本研究とはアプローチが異なる. WebFormer [29] は事前学習に Web 文書の構造を利用する手法であり, 本研究とは着眼点が異なる. 文書からクエリを生成する doc2query [30] や docTTTTTquery [31] は実クエリー 文書ペアを用いて学習を行うという点で共通点するが,クエリ-文書ペアが相互にインタラクションを行う本研究とは目的が異なる. 効率性向上のためクエリと文書のインタラクションを遅延させる ColBERT [20] は本研究と対極に位置するといえる.
## 5 おわりに
本研究では,大規模言語モデルを用いた情報検索において, pre-training と fine-tuning を繋ぐ coarsetuning を提案した. coarse-tuning は,クエリ表現を学習する MLM とクエリー文書関係を学習する QDPP から構成される. coarse-tuning によって, 後段の情報検索タスクの検索性能向上が確認された. また,文書からクエリを予測するタスクにおいて,クエリ表現とクエリー文書関係の獲得が示唆された。
## 謝辞
本研究の一部は, 学術研究助成基金助成金研究活動スタート支援(課題番号 22K21303)の助成を受けて遂行された.また,本研究を遂行するうえで必要不可欠であった計算機を提供頂いた一橋大学ソー シャル・データサイエンス教育研究推進センター教授の七丈直弘氏に謝意を表する。
## 参考文献
[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of the NAACL 2019, 2019.
[2] Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Acero, and Larry Heck. Learning Deep Structured Semantic Models for Web Search using Clickthrough Data. In Proc. of the CIKM 2013, 2013.
[3] Jiafeng Guo, Yixing Fan, Qingyao Ai, and W. Bruce Croft. A Deep Relevance Matching Model for Ad-hoc Retrieval. In Proc. of the CIKM 2016, 2016.
[4] Chenyan Xiong, Zhuyun Dai, Jamie Callan, Zhiyuan Liu, and Russell Power. End-to-End Neural Ad-hoc Ranking with Kernel Pooling. In Proc. of the SIGIR 2017, 2017.
[5] Wei Yang, Kuang Lu, Peilin Yang, and Jimmy Lin. Critically Examining the "Neural Hype": Weak Baselines and the Additivity of Effectiveness Gains from Neural Ranking Models. In Proc. of the SIGIR 2019, 2019.
[6] Stephen E. Robertson, Steve Walker, Susan Jones, Micheline Hancock-Beaulieu, and Mike Gatford. Okapi at TREC-3. In Proc. of the TREC 1994, 1994.
[7] Jimmy Lin. The Neural Hype, Justified! A Recantation. ACM SIGIR Forum, Vol. 53, pp. 88-93, 2019.
[8] Jimmy Lin, Rodrigo Nogueira, and Andrew Yates. Pretrained Transformers for Text Ranking: BERT and Beyond. arXiv:2010.06467, 2020.
[9] Stephen E. Robertson, Steve Walker, Susan Jones, Micheline Hancock-Beaulieu, and Mike Gatford. CEDR: Contextualized Embeddings for Document Ranking. In Proc. of the SIGIR 2019, 2019.
[10] Canjia Li, Andrew Yates, Sean MacAvaney, Ben He, and Yingfei Sun. PARADE: Passage Representation Aggregation for Document Reranking. arXiv:2008.09093, 2020.
[11] Payal Bajaj, Daniel Campos, Nick Craswell, Li Deng, Jianfeng Gao, Xiaodong Liu, Rangan Majumder, Andrew McNamara, Bhaskar Mitra, Tri Nguyen, Mir Rosenberg, Xia Song, Alina Stoica, Saurabh Tiwary, and Tong Wang. MS MARCO: A Human Generated MAchine Reading COmprehension Dataset. arXiv:1611.09268, 2018.
[12] Sebastian Hofstätter, Markus Zlabinger, and Allan Hanbury. TU Wien @ TREC Deep Learning '19 - Simple Contextualization for Re-ranking. arXiv:1912.01385, 2019.
[13] Bhaskar Mitra, Sebastian Hofstätter, Hamed Zamani, and Nick Craswell. Conformer-Kernel with Query Term Independence for Document Retrieval. arXiv:2007.10434, 2020 .
[14] Cory Barr, Rosie Jones, and Moira Regelson. The Linguistic Structure of EnglishWeb-Search Queries. In Proc. of the EMNLP 2008, 2008.
[15] Kuzman Ganchev, Keith Hall, Ryan McDonald, and Slav Petrov. Using Search-Logs to Improve Query Tagging. In Proc. of the ACL 2012, 2012.
[16] Atsushi Keyaki and Jun Miyazaki. Part-of-speech Tagging for Web Search Queries Using a Large-scale Web Corpus. In Proc. of the SAC 2017, 2017.
[17] Xinyu Ma, Jiafeng Guo, Ruqing Zhang, Yixing Fan, Xiang $\mathrm{Ji}$, and Xueqi Cheng. PROP: Pre-Training with Representative Words Prediction for Ad-Hoc Retrieval. In Proc. of the WSDM 2021, 2021.
[18] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent Retrieval for Weakly Supervised Open Domain Question Answering. In Proc. of the ACL 2019, 2019.
[19] Wei-Cheng Chang, Felix X. Yu, Yin-Wen Chang, Yiming Yang, and Sanjiv Kumar. Pre-training Tasks for Embedding-based Large-scale Retrieval. In Proc. of the ICLR 2020, 2020
[20] Omar Khattab and Matei Zaharia. ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT. In Proc. of the SIGIR 2020, 2020.
[21] Nick Craswell, Daniel Campos, Bhaskar Mitra, Emine Yilmaz, and Bodo Billerbeck. ORCAS: 18 Million Clicked Query-Document Pairs for Analyzing Search. arXiv:2006.05324, 2020.
[22] Filip Radlinski and Thorsten Joachims. Query Chains: Learning to Rank from Implicit Feedback. In Proc. of the KDD 2005, 2005.
[23] Xuanhui Wang, Michael Bendersky, Donald Metzler, and Marc Najork. Intent Based Relevance Estimation from Click Logs. In Proc. of the SIGIR 2016, 2016.
[24] Ellen M. Voorhees. Overview of the TREC 2004 Robust Retrieval Track. In Proc. of the TREC 2004, 2004.
[25] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't Stop Pretraining: Adapt Language Models to Domains and Tasks. In Proc. of the ACL 2020, 2020.
[26] Rodrigo Nogueira, Wei Yang, Kyunghyun Cho, and Jimmy Lin. Multi-Stage Document Ranking with BERT. arXiv:1910.14424, 2019.
[27] Zeynep Akkalyoncu Yilmaz, Wei Yang, Haotian Zhang, and Jimmy Lin. Cross-Domain Modeling of SentenceLevel Evidence for Document Retrieval. In Proc. of the EMNLP-IJCNLP 2019, 2019.
[28] Zhuyun Dai and Jamie Callan. Deeper Text Understanding for IR with Contextual Neural Language Modeling. In Proc. of the SIGIR 2019, 2019.
[29] Qifan Wang, Yi Fang, Anirudh Ravula, Fuli Feng, Xiaojun Quan, and Dongfang Liu. WebFormer: The Web-page Transformer for Structure Information Extraction. In Proc. of the WWW 2022, 2022.
[30] Rodrigo Nogueira, Wei Yang, Jimmy Lin, and Kyunghyun Cho. Document Expansion by Query Prediction. arXiv:1904.08375, 2019.
[31] Rodrigo Nogueira and Jimmy Lin. From doc2query to docTTTTTquery, 2019
## A 付録 (Appendix)
## A. 1 実験の設定と環境,予備実験
予備実験では ORCAS サンプリング率,coarsetuning epoch 数, fine-tuning epoch 数の 3 項目に対してグリッドサーチで性能評価を行ったが,各項目に対して独立にパラメータチューニングを行った際の挙動と,他の項目を変化させた場合の挙動とは概ね同じであった. そのため,チューニング対象の項目以外はデフォルト值 (1)を用いた結果を掲載する。
- mlm_prob MLM におけるマスク化されるトー クンの割合は,BERT の pre-training にならい 0.15 とした.
- qdpp_prob QDPPにおける学習データ生成において isPair のサンプルが生成される確率は, BERT の pre-training にならい 0.5 とした.
・ORCAS サンプリング率ORCAS は膨大なクエリー文書ペアを含むため,全データを用いた場合には学習が完了しなかった。そこで 1\%-10\% まで $1 \%$ 刻みでデータセットからクエリー文書ペアのランダムサンプリングを行った. その結果,サンプリング率 $5 \%$ の場合に最も高い検索性能を示した(表 3 参照).
- coarse-tuning epoch 数 coarse-tuning では最大 5 epoch まで学習を行った. 1 epoch 目で最も高性能を示した(表 4 参照).
- fine-tuning epoch 数 fine-tuning では最大 10 epoch まで学習を行った. 単独での実験では 1 epoch 目で最も高性能を示した(表 5 参照)が,他項目を変化させたときに 2 epoch 目で最高精度となる設定が多数を占めた。
・バッチサイズ coarse-tuning では 80, fine-tuning では 128 を設定した。
・開発システムの実装と評価には Hugging Face の Transformers ${ }^{5)}$ を用いた.
・計算機スペックは CPU:AMD Ryzen 9 5900X 12-Core Processor, GPU : GeForce RTX 3060 VENTUS 2X 12G OC,メモリ:128GB である.
## A. 2 追加のクエリ推定結果
coarse-tuned から推定された「沖縄美ら海水族館」の記事6)のクエリを表 6 に記載する.
5) https://huggingface.co/docs/transformers/index
6) https://www.okinawatraveler.net/en/feature/special01
表 4
coarse-tuning における epoch 数と検索性能
表 5
表 6
「沖縄美ら海水族館」の記事から推定されたクエリ
| NLP-2023 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |