input
stringclasses 1
value | context
stringlengths 4.28k
71.5k
| answers
stringlengths 353
1.93k
| length
int64 639
12.6k
| dataset
stringclasses 1
value | language
stringclasses 1
value | all_classes
stringclasses 1
value | _id
stringclasses 1
value |
---|---|---|---|---|---|---|---|
Напиши аннотацию по статье | Неконтролируемая декомпозиция вопросов для ответов на вопросы. Системы вопросов-ответов (QA) стали удивительно хороши в ответах на простые вопросы с одним переходом, но все еще испытывают трудности с композиционными вопросами с несколькими переходами BIBREF0, BIBREF1.В этой работе мы проверим, можем ли мы ответить на сложные вопросы, используя нашу способность отвечать на простые вопросы.В частности, мы подходим к обеспечению качества, разбивая сложный вопрос на ряд подвопросов, на которые можно ответить с помощью простой одноступенчатой системы контроля качества.Ответы системы затем могут быть переданы в качестве входных данных для последующей системы обеспечения качества для ответа на сложный вопрос, как показано на рисунке FIGREF1.Таким образом, наш подход отвечает на сложный вопрос за несколько небольших шагов, что может быть проще, чем отвечать на сложный вопрос сразу.Например, может быть проще ответить: «Какая профессия общая у Х. Л. Менкена и Альбера Камю?» при ответах на подвопросы «Какая профессия у Х. Л. Менкена?»и «Кем был Альбер Камю?» Предыдущая работа по обучению разложению вопросов на подвопросы основывалась на экстрактивной эвристике, которая плохо обобщается на различные области и типы вопросов и требует человеческих аннотаций BIBREF2, BIBREF3.Чтобы масштабироваться к любому произвольному вопросу, нам потребуются сложные возможности генерации естественного языка, которые часто опираются на большие объемы высококачественных контролируемых данных.Вместо этого мы обнаруживаем, что можно научиться разлагать вопросы без присмотра.В частности, мы учимся сопоставлять распределение сложных вопросов с распределением более простых вопросов.Во-первых, мы автоматически создаем зашумленную «псевдодекомпозицию» для каждого сложного вопроса, извлекая соответствующих кандидатов на подвопросы на основе их сходства с данным сложным вопросом.Мы извлекаем кандидатов из набора из 10 миллионов простых вопросов, которые мы извлекли из Common Crawl.Во-вторых, мы обучаем модели генерации нейронного текста на этих данных с помощью (1) стандартного обучения от последовательности к последовательности и (2) обучения от последовательности к последовательности без учителя.Преимущество последнего состоит в том, что он может выйти за рамки шумного спаривания вопросов и псевдодекомпозиций. Рис.FigREF2 представляет наш подход к декомпозиции.Мы используем декомпозицию для улучшения многошагового контроля качества.Сначала мы используем стандартную одношаговую модель контроля качества для ответа на декомпозированные подвопросы.Затем мы даем каждый подвопрос и ответ на него в качестве дополнительных входных данных для многошаговой модели контроля качества.Мы тестируем наш метод на HotpotQA BIBREF0, популярном тесте многошагового контроля качества.Наш вклад заключается в следующем.Во-первых, модели контроля качества, основанные на декомпозиции, повышают точность по сравнению с сильным базовым уровнем на 3,1 F1 в исходном наборе разработчиков, на 11 F1 в многоскачковом наборе разработчиков из BIBREF4 и на 10 F1 в наборе разработчиков вне домена из BIBREF3.Наша наиболее эффективная модель декомпозиции — это 12-блочный преобразователь-кодер-декодер BIBREF5, обученный с использованием неконтролируемого последовательного обучения, включая моделирование замаскированного языка, шумоподавление и цели обратного перевода BIBREF6.Во-вторых, наш метод конкурирует с современными методами SAE BIBREF7 и HGN BIBREF8, в которых используется строгий контроль.В-третьих, мы показываем, что наш подход автоматически учится генерировать полезные декомпозиции для всех 4 типов вопросов в HotpotQA, подчеркивая общий характер нашего подхода.В нашем анализе мы исследуем, как подвопросы улучшают многоступенчатое обеспечение качества, и приводим качественные примеры, которые подчеркивают, как декомпозиция вопросов добавляет форму интерпретируемости к моделям обеспечения качества «черного ящика».Наши абляции показывают, что каждый компонент нашего конвейера способствует повышению эффективности контроля качества.В целом мы обнаружили, что можно успешно разложить вопросы без какого-либо контроля, и это улучшает качество качества. Теперь мы сформулируем проблему и рассмотрим наш высокоуровневый подход, подробности которого приведены в следующем разделе.Мы стремимся использовать модель контроля качества, которая точна в отношении простых вопросов, для ответа на сложные вопросы без использования контролируемой декомпозиции вопросов.Здесь мы рассматриваем простые вопросы как «одношаговые» вопросы, которые требуют рассуждения по одному абзацу или фрагменту доказательства, а сложные вопросы мы считаем «многошаговыми».Наша цель состоит в том, чтобы обучить многошаговую модель контроля качества $M$ так, чтобы она давала правильный ответ $a$ на многошаговый вопрос $q$ о заданном контексте $c$ (например, нескольких абзацах).Обычно мы обучаем $M$ максимизировать $\log p_M(a | c, q)$. Чтобы помочь $M$, мы используем модель контроля качества с одним переходом, к которой можно запрашивать подвопросы $s_1, \dots , s_N$, чьи «подответы» на каждый подвопрос $a_1, \dots , a_N$ могут быть предоставлены для модели QA с несколькими переходами.Вместо этого $M$ может максимизировать (потенциально более простую) цель $\log p_M(a | c, q, [s_1, a_1], \dots ,[a_N, s_N])$.Модели контролируемой декомпозиции учатся сопоставлять каждый вопрос $q \in Q$ с декомпозицией $d =[с_1; \точки; s_N]$ $N$ подвопросов $s_n \in S$ с использованием аннотированных $(q, d)$ примеров.В этой работе мы не предполагаем доступ к строгому $(q, d)$-надзору.Чтобы использовать модель одношагового контроля качества без надзора, мы следуем трехэтапному подходу: 1) сопоставляем вопрос $q$ с подвопросами $s_1, \dots , s_N$ с помощью неконтролируемых методов, 2) находим подответы $ a_1, \dots, a_N$ с моделью контроля качества с одним переходом и 3) предоставить $s_1, \dots, s_N$ и $a_1, \dots, a_N$, чтобы помочь спрогнозировать $a$. Чтобы обучить модель декомпозиции, мы нужны соответствующие обучающие данные.Мы предполагаем доступ к корпусу сложных вопросов $Q$ и корпусу простых вопросов $S$. Вместо использования обучающих примеров $(q, d)$ мы разрабатываем алгоритм, который строит псевдоразложения $d^{\prime }$ для формирования $(q, d^{\prime })$ пар из $Q$ и $S$ с использованием неконтролируемого подхода (§SECREF4).Затем мы обучаем модель отображать $q$ в разложение.Мы исследуем обучение декомпозиции с помощью стандартного и неконтролируемого последовательного обучения (§SECREF6). Для каждого $q \in Q$ мы строим набор псевдодекомпозиции $d^{\prime } = \lbrace s_1; \точки; s_N\rbrace $, получив простой вопрос $s$ из $S$. Мы объединяем все $N$ простых вопросов в $d^{\prime }$, чтобы сформировать псевдоразложение, используемое в дальнейшем.$N$ может выбираться в зависимости от задачи или варьироваться в зависимости от $q$. Чтобы получить полезные простые вопросы для ответа на $q$, мы сталкиваемся с совместной задачей оптимизации.Нам нужны подвопросы, которые (i) похожи на $q$ в соответствии с некоторой метрикой $f$ и (ii) максимально разнообразны: теперь, получив соответствующие псевдоразложения, мы исследуем различные способы научиться разлагать (с деталями реализации в следующем разделе): Мы используем псевдодекомпозицию напрямую, используя полученные подвопросы в дальнейшем тестировании. Мы обучаем модель Seq2Seq с параметрами $\theta $ для максимизации $\log p_{\theta }(d^{\prime } | q)$.Мы начинаем с парных примеров $(q, d^{\prime })$, но не учимся на спаривании, потому что спаривание зашумлено.Мы используем неконтролируемое последовательность обучения для изучения отображения $q \rightarrow d$ вместо обучения непосредственно на шумных парах.Чтобы ответить на сгенерированные подвопросы, мы используем стандартную модель контроля качества.Модель контроля качества может отвечать на подвопросы, используя любой текст в свободной форме (т. е. слово, фразу, предложение и т. д.).Подойдет любая модель контроля качества, если она может точно ответить на простые вопросы в $S$. Таким образом, мы используем хорошую точность вопросов в $S$, чтобы помочь моделировать контроль качества по вопросам в $Q$. Последующие системы контроля качества могут использовать подвопросы и подответы различными способами.Мы добавляем подвопросы и подответы в качестве вспомогательных входных данных для последующей модели контроля качества, которые можно включить в ее обработку.Теперь мы опишем детали реализации нашего подхода, изложенного выше.Мы тестируем неконтролируемую декомпозицию на HotpotQA BIBREF0, стандартном тесте многошагового контроля качества.Мы используем «Настройку отвлекающего фактора» HotpotQA, которая предоставляет 10 контекстных абзацев из Википедии.Два (или более) абзаца содержат предложения, относящиеся к вопросу, называемые «подтверждающими фактами», а остальные абзацы не имеют отношения к делу и являются «отвлекающими абзацами».Ответы в HotpotQA — «да», «нет» или фрагмент текста во входном абзаце.Точность измеряется баллами F1 и точным совпадением (EM) между прогнозируемым и золотым диапазоном.Мы используем вопросы HotpotQA в качестве нашего первоначального многоступенчатого корпуса сложных вопросов $Q$. Мы используем вопросы SQuAD 2 в качестве исходного одноступенчатого корпуса простых вопросов $S$. Однако наш корпус псевдодекомпозиции должен быть большим, поскольку он будет использоваться для обучения нейронных моделей Seq2Seq, которым не хватает данных.Большее значение $|S|$ также улучшит соответствие полученных простых вопросов сложному вопросу.Таким образом, мы черпаем вдохновение из работы в области машинного перевода над параллельным корпусным анализом BIBREF9, BIBREF10 и неконтролируемым контролем качества BIBREF11.Мы дополняем $Q$ и $S$, извлекая больше вопросов из Common Crawl.Мы выбираем предложения, которые начинаются с обычных слов «wh» и заканчиваются «?»Затем мы обучаем классификатор FastText BIBREF12 классифицировать 60 тысяч вопросов, выбранных из Common Crawl, SQuAD 2 и HotpotQA.Затем мы классифицируем вопросы Common Crawl, добавляя вопросы, классифицированные как вопросы SQuAD 2, в $S$ и вопросы, классифицированные как вопросы HotpotQA, в $Q$. Анализ вопросов значительно увеличивает количество вопросов с одним переходом (130 тыс. $\rightarrow $ 10,1 млн) и вопросов с несколькими переходами (90 тыс. $\rightarrow $ 2,4 млн).Таким образом, наш неконтролируемый подход позволяет нам использовать гораздо больше данных, чем контролируемые аналоги.Чтобы создать псевдодекомпозицию, мы устанавливаем количество $N$ подвопросов на вопрос равным 2, поскольку вопросы в HotpotQA обычно включают два этапа рассуждения.В Приложении §SECREF52 мы обсудим, как работает наш метод, когда $N$ варьируется в зависимости от вопроса.Чтобы получить подвопросы, относящиеся к вопросу, мы встраиваем любой текст $t$ в вектор $\mathbf {v}_t$ путем суммирования векторов FastText BIBREF13 для слов из $t$. В качестве метрики сходства $f$ мы используем косинусное сходство. Пусть $q$ — многошаговый вопрос, используемый для получения псевдоразложения $(s_1^*, s_2^*)$, и пусть $\hat{\mathbf {v}}$ — единичный вектор $\mathbf { v}$. Поскольку $N=2$, уравнение. DISPLAY_FORM5 сводится к следующему: Последний термин требует сравнений $O(|S|^2)$, что дорого, поскольку $|S|$ велик ($>$10M).Вместо решения уравнения.(DISPLAY_FORM19) точно, мы находим приближенное псевдоразложение $(s_1^{\prime }, s_2^{\prime })$ путем вычисления уравнения.(DISPLAY_FORM19) над $S^{\prime } = \operatornamewithlimits{topK}_{\lbrace s \in S\rbrace }\left[ \mathbf {\hat{v}}_{q}^{\top } \ mathbf {\hat{v}}_s\right]$, используя $K=1000$. Мы используем FAISS BIBREF14 для эффективного построения $S^{\prime }$. Для сравнения мы тестируем случайные псевдоразложения, где мы случайным образом извлекаем $s_1, \dots, s_N$ путем выборки из $S$. USeq2Seq обучен случайным образом $d^{\prime } =[с_1; \точки; s_N]$ должен как минимум научиться сопоставлять $q$ с несколькими простыми вопросами.Поскольку подвопросы основаны на поиске, они часто не относятся к тем же сущностям, что и $q$. На этапе постобработки мы заменяем сущности из $(s^{\prime }_1, s^{\prime }_2)$ сущностями из $q$. Мы находим все объекты в $(s^{\prime }_1, s^{\prime }_2)$, которые не появляются в $q$, используя spaCy BIBREF15.Мы заменяем эти сущности случайной сущностью из $q$ того же типа (например, «Дата» или «Местоположение») тогда и только тогда, когда она существует.Мы используем замену сущностей при псевдодекомпозиции как из случайного поиска, так и из поиска на основе сходства.Предварительное обучение является ключевым компонентом неконтролируемых методов Seq2Seq BIBREF16, BIBREF17, поэтому мы инициализируем все модели декомпозиции с одинаковыми предварительно обученными весами, независимо от метода обучения (Seq2Seq или USeq2Seq).Мы начинаем предварительное обучение с предварительно обученной модели английского языка в маске (MLM) из BIBREF6, 12-блочной модели преобразователя, предназначенной только для декодера BIBREF5, обученной предсказывать замаскированные слова в Toronto Books Corpus BIBREF18 и Википедии.Мы обучаем модель с целью MLM в течение одной эпохи на расширенном корпусе $Q$ (2,4 млн вопросов), а также обучаем на разложениях $D$, сформированных путем случайного извлечения из $S$. Для нашего предварительно обученного кодера-декодера мы инициализируем 6-блочный кодер с первыми 6 блоками MLM и инициализируем 6-блочный декодер с последними 6 блоками MLM, случайным образом инициализируя оставшиеся веса, как в BIBREF6. настройте предварительно обученный кодер-декодер, используя максимальное правдоподобие.Мы прекращаем обучение на основе проверки BLEU BIBREF19 между сгенерированными разложениями и псевдоразложениями.Мы следуем подходу BIBREF6 в неконтролируемом переводе.Обучение состоит из двух этапов: (1) предварительное обучение MLM на обучающих корпусах (описанных выше), за которым следует (2) обучение одновременно с задачами шумоподавления и обратного перевода.Для шумоподавления мы создаем зашумленные входные данные $\hat{d}$ путем случайной маскировки, удаления и локального перемешивания токенов в $d \sim D$ и обучаем модель с параметрами $\theta $ для максимизации $\log p_. {\ тета }(д |\hat{d})$. Аналогичным образом мы максимизируем $\log p_{\theta }(q | \hat{q})$.Для обратного перевода мы генерируем вопрос с несколькими переходами $\hat{q}$ для разложения $d \sim D$ и максимизируем $\log p_{\theta }(d | \hat{q})$ .Аналогично мы максимизируем $\log p_{\theta }(q | \hat{d})$. Чтобы прекратить обучение без присмотра, мы используем модифицированную версию туда и обратно BLEU BIBREF17.(подробности см. в Приложении §SECREF56).Мы обучаем с шумоподавлением и обратным переводом на небольших корпусах вопросов HotpotQA ($Q$) и их псевдодекомпозиции ($D$). Мы обучаем нашу односкачковую модель QA после предыдущей работы из BIBREF3 над HotpotQA. Мы точно настраиваем предварительно обученная модель, которая берет вопрос и несколько абзацев и предсказывает ответ, аналогично модели контроля качества с одним переходом от BIBREF21.Модель вычисляет отдельный проход вперед для каждого абзаца (с вопросом).Для каждого абзаца модель учится прогнозировать диапазон ответов, если абзац содержит ответ, и прогнозировать «нет ответа» в противном случае.Мы лечим даи никаких прогнозов в виде промежутков внутри отрывка (предваряемых перед каждым абзацем), как в BIBREF22 на HotpotQA.Во время вывода для окончательного softmax мы рассматриваем все абзацы как один блок.Подобно BIBREF23, мы вычитаем логит «нет ответа» абзаца из логитов всех интервалов в этом абзаце, чтобы соответственно уменьшить или увеличить вероятность интервала.Другими словами, мы вычисляем вероятность $p(s_p)$ каждого интервала $s_p$ в абзаце $p \in \lbrace 1, \dots , P \rbrace $, используя предсказанный логит интервала $l(s_p)$ и Логит абзаца «нет ответа» $n(p)$ выглядит следующим образом: Мы используем $\textsc {RoBERTa}_{\textsc {LARGE}}$ BIBREF24 в качестве предварительно обученной инициализации.Позже мы также экспериментируем с использованием ансамбля $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3. Аналогично BIBREF3, мы обучаем ансамбль из двух одношаговых моделей контроля качества, используя данные из SQuAD 2 и вопросов HotpotQA. помечены как «легкие» (одиночные).Для ансамбля мы усредняем логиты двух моделей, прежде чем предсказать ответ.SQuAD — это задача контроля качества, состоящая из одного абзаца, поэтому мы адаптируем SQuAD к настройке с несколькими абзацами, извлекая отвлекающие абзацы из Википедии для каждого вопроса.Мы используем ретривер TFIDF из DrQA BIBREF25 для получения двух абзацев-дистракторов, которые добавляем во входные данные для одной модели в ансамбле.Мы удаляем слова из вопроса с вероятностью 5%, чтобы помочь модели справиться с любыми неправильно сформулированными подвопросами.Мы используем ансамбль QA с одним переходом в качестве модели черного ящика после обучения и никогда не тренируем модель на вопросах с несколькими переходами.У нас есть модель контроля качества с одним переходом, возвращающая предложение, содержащее прогнозируемый диапазон ответов модели, а также подвопросы.Позже мы сравниваем альтернативы, то есть возвращаем прогнозируемый диапазон ответов без контекста или не возвращаем подвопросы.Наша многошаговая архитектура контроля качества идентична одношаговой модели контроля качества, но модель многошагового контроля качества также использует в качестве входных данных подвопросы и подответы.Мы добавляем каждую пару (подвопрос, подответ) к вопросу с несколькими переходами вместе с токенами-разделителями.Мы обучаем одну многошаговую модель контроля качества на всех HotpotQA, включая примеры SQuAD 2, используемые для обучения одношаговой модели контроля качества.Позже мы поэкспериментируем с использованием $\textsc {BERT}_{\textsc {LARGE}}$ и $\textsc {BERT}_{\textsc {BASE}}$ вместо $\textsc {RoBERTa}_{\textsc { LARGE}}$ в качестве модели многошагового контроля качества.Все сообщаемые пределы погрешности показывают среднее и стандартное значение. разработчикв течение 5 многопроходных тренировок по обеспечению качества с использованием одних и тех же декомпозиций.Мы сравниваем варианты нашего подхода, в которых используются разные методы обучения и разные псевдовыровненные обучающие наборы.В качестве основы мы сравниваем RoBERTa с декомпозицией с моделью RoBERTa, которая не использует декомпозицию, но идентична во всех других отношениях.Мы обучаем базовую линию в течение двух эпох, охватывая размер пакета $\in \lbrace 64, 128\rbrace $, скорость обучения $\in \lbrace 1 \times 10^{-5}, 1,5 \times 10^{-5} , 2 \times 10^{-5}, 3 \times 10^{-5}\rbrace $ и уменьшение веса $\in \lbrace 0, 0.1, 0.01, 0.001\rbrace $; мы выбираем гиперпараметры, которые лучше всего работают в нашем наборе разработчиков.Затем мы используем лучшие гиперпараметры в качестве базовой линии для обучения наших моделей RoBERTa с помощью разложения.Мы сообщаем о результатах по 3 версиям набора разработчиков: (1) исходная версия, (2) многошаговая версия из BIBREF4, в которой состязательно созданы некоторые отвлекающие абзацы для проверки многошаговых рассуждений, и (3) внешняя версия. версия домена из BIBREF3, которая извлекала отвлекающие абзацы, используя ту же процедуру, что и исходная версия, но исключала абзацы из исходной версии.В таблице показано, как неконтролируемая декомпозиция влияет на контроль качества.Наша базовая версия RoBERTa довольно хорошо работает на HotpotQA (77.0 F1), несмотря на обработку каждого абзаца отдельно, что запрещает межабзацные рассуждения.Результат соответствует предыдущей работе, которая показала, что версия нашей базовой модели контроля качества с использованием BERT BIBREF26 хорошо работает на HotpotQA за счет использования ярлыков рассуждения с одним переходом BIBREF21.Мы добились значительных успехов по сравнению с нашим сильным базовым уровнем, используя декомпозицию из нашей лучшей модели декомпозиции, обученной с помощью USeq2Seq на псевдодекомпозиции FastText; мы обнаруживаем прирост F1 3,1 на исходном наборе разработчиков, прирост F1 11 на наборе разработчиков с несколькими переходами и прирост F1 10 на наборе разработчиков вне домена.Неконтролируемая декомпозиция даже соответствует производительности использования (в нашем конвейере) контролируемой и эвристической декомпозиции из DecompRC (т. е. 80,1 против 79,8 F1 в исходном наборе разработчиков).БолееКак правило, все методы декомпозиции улучшают качество качества по сравнению с базовым уровнем за счет использования модели обеспечения качества с одним переходом («1 переход» в таблице ).Использование псевдодекомпозиции FastText в качестве подвопросов напрямую улучшает качество качества по сравнению с использованием случайных подвопросов в многоскачковом наборе (72,4 против 70,9 F1) и наборе вне домена (72,0 против 70,7 F1).USeq2Seq для случайного псевдоразложения также улучшается по сравнению с базовым уровнем случайного подвопроса (например, 79,8 против 78,4 F1 в HotpotQA).Однако мы обнаруживаем лишь небольшие улучшения при обучении USeq2Seq на FastText по сравнению со случайными псевдоразложениями (например, 77,1 против 76,5 F1 на наборе разработчиков вне домена). Лучшие методы декомпозиции обучаются с помощью USeq2Seq.Использование Seq2Seq для генерации декомпозиции обеспечивает такую же точность контроля качества, как и настройка «Без обучения», например. оба подхода достигают 78,9 F1 на исходном наборе разработчиков для псевдоразложения FastText.Результаты, возможно, схожи, поскольку обучение с учителем напрямую обучается, чтобы обеспечить высокую вероятность псевдоразложения.USeq2Seq может улучшиться по сравнению с Seq2Seq, научившись согласовывать сложные вопросы и псевдоразложения, игнорируя при этом шумные пары.После наших экспериментов мы выбрали USeq2Seq, обученный на псевдоразложениях FastText, в качестве окончательной модели и отправили модель на скрытую тестовую оценку.Наш подход достиг результата теста F1 79,34 и точного совпадения (EM) 66,33.Наш подход конкурирует с современными параллельными системами SAE BIBREF7 и HGN BIBREF8, которые (в отличие от нашего подхода) учатся благодаря дополнительному строгому контролю относительно того, какие предложения необходимы для ответа на вопрос.Чтобы понять, в чем помогает декомпозиция, мы разбили эффективность контроля качества по четырем типам вопросов из BIBREF3.«Мостовые» вопросы касаются сущности, прямо не упомянутой в вопросе («Когда родился отец Эрика Уоттса?»).Вопросы «пересечения» требуют найти объект, который удовлетворяет множеству отдельных условий («Кто был на CNBC и Fox News?»).В вопросах «Сравнения» предлагается сравнить свойства двух объектов («Что выше, Момхил Сар или К2?»).На «однопереходные» вопросы, скорее всего, можно ответить, используя однопереходные сокращения или рассуждения, состоящие из одного абзаца («Откуда Electric Six?»).Мы разделили исходный набор разработчиков на 4 типа, используя классификатор контролируемых типов из BIBREF3.В таблице показаны баллы F1 для RoBERTa с разложением по 4 типам и без него.Неконтролируемая декомпозиция улучшает качество ответов на все типы вопросов.Наша единая модель декомпозиции генерирует полезные подвопросы для всех типов вопросов без специальной обработки случаев, в отличие от более ранней работы BIBREF3, в которой каждый тип вопросов обрабатывался отдельно.Для одношаговых вопросов наш подход к обеспечению качества не требует возврата к одношаговой модели контроля качества и вместо этого учится использовать декомпозицию, чтобы лучше отвечать на вопросы с помощью одношаговых ярлыков (76,9 против 73,9 F1 без декомпозиции). Для измерения полезности подвопросов и подответов мы обучаем многошаговую модель контроля качества с различными удаленными входными данными, как показано в таблице .Дополнительные ответы имеют решающее значение для улучшения качества качества, поскольку подвопросы без ответов или случайные ответы не помогают (76,9 против 77,0 F1 для базового уровня).Только когда предоставляются дополнительные ответы, мы видим улучшение качества с подвопросами или без них (80.1 и 80.2 F1 соответственно).Важно предоставить предложение, содержащее прогнозируемый диапазон ответов, а не только диапазон ответов (80,1 против 77,8 F1 соответственно), хотя сам по себе диапазон ответов все равно улучшается по сравнению с базовым уровнем (77,0 F1). Декомпозиция помогает отвечать на вопросы путем извлечения важные подтверждающие данные для ответа на вопросы.Рис.Фиг.41 показывает, что точность многошагового контроля качества увеличивается, когда предложения с дополнительными ответами представляют собой «подтверждающие факты» или предложения, необходимые для ответа на вопрос, как это аннотировано HotpotQA.Мы извлекаем подтверждающие факты, не учась прогнозировать их под строгим контролем, в отличие от многих современных моделей BIBREF7, BIBREF8, BIBREF22. Чтобы проиллюстрировать, как декомпозиция помогает обеспечить контроль качества, в таблице показаны примеры подвопросов из нашей лучшей модели декомпозиции с предсказанными подвопросами. -ответы.Подвопросы — это вопросы с одним переходом, относящиеся к вопросу с несколькими переходами.Модель контроля качества с одним переходом возвращает соответствующие дополнительные ответы, иногда несмотря на грамматические ошибки (Q1, SQ$_1$) или недостаточно определенные вопросы (Q2, SQ$_1$).Затем модель многошагового контроля качества возвращает ответ, соответствующий предсказанным дополнительным ответам.Модель декомпозиции в значительной степени является экстрактивной: она копирует многошаговый вопрос, а не создает галлюцинации новых сущностей, что помогает генерировать соответствующие подвопросы.Чтобы лучше понять нашу систему, мы анализируем модель на каждом этапе: декомпозиция, одношаговый контроль качества и многошаговый контроль качества. Мы оцениваем качество декомпозиции по другим метрикам, помимо нисходящего контроля качества.Чтобы измерить беглость декомпозиции, мы вычисляем вероятность декомпозиции, используя предварительно обученную языковую модель GPT-2 BIBREF27.Мы обучаем классификатор на наборе данных правильности вопросов BIBREF28 и используем классификатор для оценки доли правильно сформированных подвопросов.Мы измеряем, насколько абстрактны декомпозиции, вычисляя (i) расстояние по токену Левенштейна между вопросом с несколькими шагами и созданной им декомпозицией и (ii) соотношение между длиной декомпозиции и длиной вопроса с несколькими шагами.Мы сравниваем нашу лучшую модель декомпозиции с контролируемой+эвристической декомпозицией из DecompRC BIBREF3 в таблице. Неконтролируемые декомпозиции являются более естественными и правильно сформированными, чем декомпозиции из DecompRC.Неконтролируемая декомпозиция также ближе по расстоянию редактирования и длине к вопросу с несколькими шагами, что согласуется с нашим наблюдением о том, что наша модель декомпозиции в значительной степени является экстрактивной.Другой способ проверить качество модели декомпозиции — проверить, обеспечивает ли модель более высокую вероятность декомпозиций, которые более полезны для последующего контроля качества.Мы генерируем $N=5$ гипотез на основе нашей лучшей модели декомпозиции с использованием лучевого поиска и обучаем многошаговую модель QA использовать гипотезу $n$-го ранга в качестве декомпозиции вопросов (рис. FigREF46, слева).Точность контроля качества снижается по мере того, как мы используем разложение с меньшей вероятностью, но точность остается относительно высокой, самое большее снижается с 80,1 до 79,3 F1.Ограниченное падение предполагает, что декомпозиция по-прежнему полезна, если она входит в число главных гипотез модели, что является еще одним показателем того, что наша модель хорошо обучена декомпозиции.Рисунок ФИГРЕФ46(справа) показывает, что достоверность подответа модели коррелирует с производительностью многоступенчатого контроля качества в нисходящем направлении для всех наборов разработчиков HotpotQA.Подответ с низкой степенью достоверности может указывать на (i) подвопрос, на который нет ответа, или неправильно сформулированный подвопрос, или (ii) подответ, который с большей вероятностью будет неправильным.В обоих случаях одношаговая модель контроля качества с меньшей вероятностью сможет получить полезные подтверждающие данные для ответа на многошаговый вопрос.Мы обнаружили, что наш подход устойчив к модели контроля качества с одним переходом, которая отвечает на подвопросы.Мы используем ансамбль $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3 в качестве модели контроля качества с одним переходом.Модель работает намного хуже по сравнению с нашим однопрыжковым ансамблем $\textsc {RoBERTa}_{\textsc {LARGE}}$ при использовании непосредственно на HotpotQA (56,3 против 66,7 F1).Тем не менее, модель обеспечивает сопоставимый контроль качества при использовании для ответа на подвопросы с одним переходом в нашей более крупной системе (79,9 против 80,1 F1 для нашего ансамбля $\textsc {RoBERTa}_{\textsc {LARGE}}$). как декомпозиция влияет на производительность по мере того, как многошаговая модель контроля качества становится сильнее, мы изменяем базовую предварительно обученную модель.В таблице показано влияние добавления разложений на $\textsc {BERT}_{\textsc {BASE}}$ , $\textsc {BERT}_{\textsc {LARGE}}$ и, наконец, $\textsc {RoBERTa}_{ \textsc {LARGE}}$ (гиперпараметры см. в Приложении §SECREF64).Выгода от использования декомпозиции растет с увеличением эффективности многошаговой модели контроля качества.Декомпозиция улучшает качество качества на 1,2 F1 для модели $\textsc {BERT}_{\textsc {BASE}}$, на 2,6 F1 для более сильной модели $\textsc {BERT}_{\textsc {LARGE}}$ и на 3.1 F1 для нашей лучшей модели $\textsc {RoBERTa}_{\textsc {LARGE}}$.Ответы на сложные вопросы уже давно являются проблемой обработки естественного языка.С этой целью в предыдущих работах изучались вопросы декомпозиции с помощью надзорных или эвристических алгоритмов.IBM Watson BIBREF29 разбивает вопросы на подвопросы разными способами или не разбивает их вообще.DecompRC BIBREF3 в основном оформляет подвопросы как извлекаемые фрагменты многошагового вопроса, обучаясь прогнозировать подвопросы на основе интервалов посредством контролируемого обучения на человеческих аннотациях.В других случаях DecompRC разлагает многошаговый вопрос с помощью эвристического алгоритма или DecompRC вообще не разлагает вопрос.Watson и DecompRC используют специальную обработку случаев для декомпозиции различных вопросов, а наш алгоритм полностью автоматизирован и требует минимального ручного проектирования.Более традиционные методы семантического анализа сопоставляют вопросы с композиционными программами, подпрограммы которых можно рассматривать как декомпозицию вопросов на формальном языке BIBREF2, BIBREF30.Примеры включают классические системы контроля качества, такие как SHRDLU BIBREF31 и LUNAR BIBREF32, а также нейронные семантические парсеры Seq2Seq BIBREF33 и сети нейронных модулей BIBREF34, BIBREF35.Такие методы обычно требуют строгого контроля на уровне программы для создания программ, как в визуальном QA BIBREF36 и в HotpotQA BIBREF37.В некоторых моделях используются другие формы строгого надзора, например прогнозирование «подтверждающих доказательств» для ответа на вопрос, аннотированный HotpotQA.Такой подход используется в SAE BIBREF7 и HGN BIBREF8, методы которых можно комбинировать с нашим подходом.Неконтролируемая декомпозиция дополняет сильно и слабо контролируемую декомпозицию.Наш неконтролируемый подход позволяет использовать миллионы вопросов, которые в противном случае были бы непригодны для использования, аналогично работе над неконтролируемым контролем качества BIBREF11.Когда существуют примеры декомпозиции, обучение с учителем и без учителя можно использовать в тандеме для обучения как на помеченных, так и на немаркированных примерах.Такие полуконтролируемые методы превосходят контролируемое обучение для таких задач, как машинный перевод BIBREF38.Другая работа по генерированию вопросов со слабым контролем использует точность последующей модели контроля качества в качестве сигнала для обучения генерированию полезных вопросов.При генерации вопросов со слабым учителем часто используется обучение с подкреплением BIBREF39, BIBREF40, BIBREF41, BIBREF42, BIBREF43, где неконтролируемая инициализация может значительно смягчить проблемы исследования BIBREF44 с нуля. Мы предложили алгоритм, который разлагает вопросы без присмотра, используя 3 этапа: (1) научиться декомпозировать с использованием псевдодекомпозиции без присмотра, (2) отвечать на подвопросы с помощью готовой системы контроля качества и (3) более точно отвечать на сложные вопросы, используя подвопросы и ответы на них в качестве дополнительных входных данных.При оценке с помощью HotpotQA, стандартного эталона многошагового контроля качества, наш подход значительно повысил точность по сравнению с эквивалентной моделью, которая не использовала разложение.Наш подход опирается только на окончательный ответ в качестве надзора, но работает так же эффективно, как и современные методы, основанные на строгом надзоре, такие как поддержка ярлыков фактов или декомпозиция примеров.В качественном отношении мы обнаружили, что неконтролируемая декомпозиция привела к появлению беглых подвопросов, ответы на которые часто соответствуют аннотированным подтверждающим фактам в HotpotQA.Наши неконтролируемые декомпозиции в основном являются экстрактивными, что эффективно для композиционных многошаговых вопросов, но не для всех сложных вопросов, оставляя место для будущей работы.В целом, эта работа открывает захватывающие возможности для использования методов обучения без учителя и генерации естественного языка для улучшения интерпретируемости и обобщения систем машинного обучения.EP поддерживается стипендией для аспирантов NSF.KC поддерживается Институтом передовых технологий Samsung (глубокое обучение следующего поколения: от распознавания образов до искусственного интеллекта) и исследованиями Samsung (улучшение глубокого обучения с использованием скрытой структуры).KC также благодарит eBay и NVIDIA за поддержку.Мы благодарим Пола Кристиано, Себастьяна Риделя, Хе Хе, Джонатана Беранта, Алексиса Конно, Цзятао Гу, Севона Мина, Исинь Не, Ладжанугена Логесварана и Адама Фиша за полезные отзывы, а также Ичена Цзяна и Пэн Ци за помощь в оценке.Таблицы — показывают примеры псевдоразложений и изученных разложений из различных моделей.В §SECREF15 мы использовали знания предметной области о задаче, чтобы зафиксировать длину псевдодекомпозиции $N=2$. Общий алгоритм создания псевдоразложений должен найти подходящее $N$ для каждого вопроса.Мы находим, что уравнение. DISPLAY_FORM5 в SECREF4 всегда приводит к разложению длины $N=2$, поскольку член регуляризации быстро растет с ростом $N$. Таким образом, мы тестируем другую формулировку, основанную на евклидовом расстоянии: мы создаем псевдоразложения аналогично предыдущему способу, сначала находя набор подвопросов-кандидатов $S^{\prime } \in S$ с высоким косинусным сходством с $\ mathbf {v}_q$, затем выполняя поиск по лучу до максимального значения $N$. Мы проверяем формулировки псевдодекомпозиции, создавая синтетические композиционные вопросы, объединяя 2-3 односкачковых вопроса со знаком «и».Затем мы измеряем рейтинг правильной декомпозиции (объединения вопросов с одним переходом).Для $N=2$ оба метода работают хорошо, но уравнение. DISPLAY_FORM5 не работает для разложений, где $N=3$, тогда как уравнение. DISPLAY_FORM53 делает это, достигая среднего взаимного ранга 30%.Однако уравнение. DISPLAY_FORM5 превосходит уравнение.DISPLAY_FORM53 на HotpotQA, например, достижение 79,9 против 79,4 F1 при использовании ансамбля $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3 для ответа на подвопросы.уравнение DISPLAY_FORM5 также быстрее вычисляется и его легче масштабировать.Более того, уравнение. DISPLAY_FORM53 требует пространства для встраивания, где суммирование представлений подвопросов имеет смысл, тогда как уравнение. DISPLAY_FORM5 требует только встраивания, которые кодируют семантическое сходство.Таким образом, мы принимаем уравнение. DISPLAY_FORM5 для наших основных экспериментов.В таблице приведен пример, в котором упомянутый выше метод декомпозиции переменной длины дает декомпозицию по трем подвопросам, тогда как другие методы фиксируются на двух подвопросах.В дополнение к нашим предыдущим результатам по сравнению FastText и случайных псевдодекомпозиций мы обнаружили, что важно использовать большой корпус вопросов для создания псевдодекомпозиций.QA F1 увеличился с 79,2 до 80,1, когда мы обучили модели декомпозиции псевдодекомпозиции, состоящей из вопросов, полученных из Common Crawl ($>$10 млн вопросов), а не только из SQuAD 2 ($\sim $130 тыс. вопросов), используя соответственно больший размер луча (100 $\rightarrow $ 1000). В таблице показаны результаты контроля качества с псевдоразложениями, полученными с использованием представлений суммы слов из FastText, TFIDF, $\textsc {BERT}_{\textsc {LARGE}}$ первого слоя скрыто. состояния.Мы также варьируем метод обучения и включаем результаты в учебный план Seq2Seq.(CSeq2Seq), где мы инициализируем подход USeq2Seq с моделью Seq2Seq, обученной на тех же данных.Чтобы остановить обучение USeq2Seq, мы используем критерий неконтролируемой остановки, чтобы не полагаться на контролируемый набор проверок декомпозиции.Мы генерируем декомпозицию $\hat{d}$ для многоступенчатого вопроса $q$ и измеряем BLEU между $q$ и сгенерированным моделью вопросом $\hat{q}$ для $\hat{d}$ , аналогично двустороннему BLEU в неконтролируемой трансляции BIBREF17.Мы масштабируем оценку BLEU туда и обратно по доле «хороших» разложений, где хорошее разложение имеет (1) 2 подвопроса (вопросительные знаки), (2) нет подвопроса, который содержит все слова в вопросе с несколькими переходами. и (3) ни один подвопрос не длиннее, чем вопрос с несколькими переходами.Без масштабирования модели декомпозиции достигают идеального BLEU туда и обратно, копируя многошаговый вопрос в качестве декомпозиции.Мы измеряем масштабированный BLEU по многошаговым вопросам в HotpotQA dev и прекращаем обучение, когда показатель не увеличивается в течение 3 последовательных эпох.Можно прекратить обучение модели декомпозиции на основе точности последующего контроля качества.Однако обучение модели контроля качества на каждой контрольной точке модели декомпозиции (1) требует больших вычислительных затрат и (2) привязывает декомпозицию к конкретной последующей модели контроля качества.На рисунке FigREF57 мы показываем результаты нисходящего контроля качества по различным контрольным точкам USeq2Seq при использовании ансамбля однопрыжкового контроля качества $\textsc {BERT}_{\textsc {BASE}}$ из BIBREF3.Критерий неконтролируемой остановки не оказывает значительного ущерба для последующего контроля качества по сравнению с использованием критерия остановки со слабым контролем.Мы предварительно обучаем наш кодер-декодер, распределенный на 8 машинах DGX-1, каждая из которых оснащена 8 графическими процессорами NVIDIA V100 емкостью 32 ГБ, соединенными между собой Infiniband.Мы предварительно обучаем, используя максимально возможный размер пакета (1536), и выбираем лучшую скорость обучения ($3 \times 10^{-5}$) на основе потерь при обучении после небольшого количества итераций.Мы выбрали максимальную длину последовательности 128.Мы сохраняем другие гиперпараметры, идентичные гиперпараметрам из BIBREF6, используемым при неконтролируемой трансляции.Мы обучаем каждую модель декомпозиции с помощью распределенного обучения на 8 графических процессорах NVIDIA V100 емкостью 32 ГБ.Мы выбрали максимально возможный размер пакета (256), а затем максимальную скорость обучения, которая привела к стабильному обучению ($3 \times 10^{-5}$).Другие гиперпараметры такие же, как у BIBREF6. Мы используем большой размер пакета (1024) и выбрали наибольшую скорость обучения, которая привела к стабильному обучению во многих обучающих корпусах псевдодекомпозиции ($1 \times 10^{-4}$).Остальные настройки обучения и гиперпараметры остаются такими же, как и для USeq2Seq.Чтобы понять, как декомпозиция влияет на производительность при различных объемах обучающих данных, мы варьируем количество примеров многошагового обучения.Мы используем метки «среднего» и «жесткого» уровня в HotpotQA, чтобы определить, какие примеры являются многопрыжковыми.Мы рассматриваем схемы обучения, в которых модель многошагового контроля качества использует или не использует пополнение данных посредством обучения «простым»/одношаговым вопросам и вопросам SQuAD 2. Рис.FigREF63 показывает результаты.Декомпозиция улучшает качество качества, если модель многошагового контроля качества имеет достаточно обучающих данных либо с помощью примеров одношагового контроля качества, либо с помощью достаточного количества примеров многошагового контроля качества.Для обучения $\textsc {RoBERTa}_{\textsc {LARGE}}$ мы фиксируем количество эпох обучения равным 2, поскольку более длительное обучение не помогло.Мы просматриваем размер пакета $\in \lbrace 64, 128\rbrace $, скорость обучения $\in \lbrace 1 \times 10^{-5}, 1,5 \times 10^{-5}, 2 \times 10^{ -5}, 3 \times 10^{-5}\rbrace $ и снижение веса $\in \lbrace 0, 0.1, 0.01, 0.001\rbrace $, аналогично диапазонам, использованным в оригинальной статье BIBREF24.Мы выбрали гиперпараметры, которые лучше всего подходят для базовой модели контроля качества (без декомпозиции) в нашем наборе проверки: размер пакета 64, скорость обучения $1,5 \times 10^{-5}$ и снижение веса $0,01$. Аналогично, для экспериментов с BERT мы фиксируем количество эпох равным 2 и выбираем гиперпараметры, просматривая рекомендуемые диапазоны скорости обучения из BIBREF26 ($\lbrace 2 \times 10^{-5}, 3 \times 10^{ -5}, 5 \times 10^{-5}\rbrace $) и размер пакета ($\lbrace 16, 32\rbrace $).Таким образом, для $\textsc {BERT}_{\textsc {BASE}}$ мы выбираем скорость обучения $2 \times 10^{-5}$ и размер пакета 16, а для $\textsc {BERT}_{\textsc { LARGE}}$ , мы используем модель маскирования всего слова со скоростью обучения $2 \times 10^{-5}$ и размером пакета 32.Мы обучаем все модели контроля качества с помощью арифметики с плавающей запятой смешанной точности BIBREF45, распределяя обучение по 8 графическим процессорам NVIDIA V100 емкостью 32 ГБ.Чтобы лучше понять, где декомпозиция улучшает качество качества, мы показываем улучшение при различных детальных разделениях наборов оценок на рисунках FigREF66-FIGREF70. | Мы стремимся улучшить систему ответов на вопросы (QA), разбивая сложные вопросы на более простые подвопросы, на которые могут ответить существующие системы контроля качества. Поскольку сбор помеченных декомпозиций является обременительным, мы предлагаем неконтролируемый подход к созданию подвопросов. В частности, используя более 10 миллионов вопросов из Common Crawl, мы учимся сопоставлять распределение многошаговых вопросов с распределением одношаговых подвопросов. Мы отвечаем на подвопросы с помощью готовой модели контроля качества и включаем полученные ответы в последующую многоступенчатую систему контроля качества. В популярном наборе данных многошагового контроля качества HotpotQA мы показываем значительные улучшения по сравнению с сильным базовым уровнем, особенно по состязательным и выходящим за рамки предметной области вопросам. Наш метод общеприменим и автоматически учится разлагать вопросы разных классов, при этом соответствуя производительности методам декомпозиции, которые в значительной степени полагаются на ручную разработку и аннотации. | 7,224 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Автоматическая нейтрализация субъективной предвзятости в тексте. Авторы и редакторы таких текстов, как энциклопедии, новости и учебники, стараются избегать предвзятого языка.Однако предвзятость остается повсеместной.62% американцев считают, что их новости предвзяты BIBREF0, а предвзятость является крупнейшим источником недоверия к средствам массовой информации BIBREF1. В этой работе представлены данные и алгоритмы для автоматического снижения предвзятости в тексте.Мы фокусируемся на определенном виде предвзятости: неуместной субъективности («субъективная предвзятость»).Субъективная предвзятость возникает, когда язык, который должен быть нейтральным и справедливым, искажается чувствами, мнениями или вкусами (сознательно или бессознательно).На практике мы выявляем субъективную предвзятость с помощью метода BIBREF2: используя политику нейтральной точки зрения Википедии (NPOV).Эта политика представляет собой набор принципов, которые включают в себя «недопущение высказывания мнений как фактов» и «предпочитание непредвзятого языка».Например, заголовок новостей типа «Джон Маккейн разоблачен как беспринципный политик» (рис. РИС. 1) является предвзятым, потому что глагол «разоблачить» — это факторивный глагол, который предполагает истинность своего дополнения; в непредвзятом предложении будет использоваться глагол типа «описать», чтобы не предполагать чего-то, что является субъективным мнением автора.«Украдено» в формулировке «геймплей украден из DDR» (таблица TABREF3) субъективно представляет общий игровой процесс как разновидность кражи.«Его» в фразе «ведущий программист обычно проводит свою карьеру» снова вводит предвзятую и субъективную точку зрения (что все программисты — мужчины) посредством предположений.Мы стремимся устранить предвзятость текста, предлагая изменения, которые сделают его более нейтральным.Это контрастирует с предыдущими исследованиями, которые снизили предвзятость представления текста, удалив аспекты предубеждений из встраивания слов BIBREF3, BIBREF4 и скрытых состояний прогнозных моделей BIBREF5, BIBREF6.Чтобы не перегружать определение «дебиаса», мы называем наш вид дискриминации текста нейтрализацией этого текста.На рисунке FigREF1 приведен пример.Мы представляем Wiki Neutrality Corpus (WNC).Это новый параллельный корпус из 180 000 предвзятых и нейтрализованных пар предложений, а также контекстных предложений и метаданных.Корпус был собран из правок Википедии, призванных обеспечить нейтральную точку зрения в текстах.WNC — это первый параллельный корпус, ориентированный на предвзятый и нейтрализованный язык.Также мы определяем задачу нейтрализации субъективно ангажированного текста.Эта задача имеет много общих свойств с такими задачами, как обнаружение рамочной или эпистемологической предвзятости BIBREF2 или оценка достоверности/прогнозирование фактов BIBREF7, BIBREF8, BIBREF9, BIBREF10.Наша новая задача расширяет эти проблемы обнаружения/классификации в задачу генерации: создание более нейтрального текста со схожим смыслом.Наконец, мы предлагаем пару новых алгоритмов последовательного преобразования для этой задачи нейтрализации.Оба метода используют автокодировщики шумоподавления и функцию потерь, взвешенную по токенам.Интерпретируемый и управляемый модульный алгоритм разбивает задачу на (1) обнаружение и (2) редактирование, используя (1) детектор на основе BERT для явной идентификации проблемных слов и (2) новое встраивание соединений, с помощью которого детектор может изменять скрытые состояния редакторов.Эта парадигма продвигает важный подход «человек в цикле» к пониманию предвзятости и генеративному языковому моделированию.Во-вторых, простая в обучении и использовании, но более непрозрачная параллельная система использует кодировщик BERT для выявления субъективности как части процесса генерации.Масштабная человеческая оценка показывает, что, хотя наши алгоритмы не лишены недостатков, они могут выявлять и уменьшать предвзятость в энциклопедиях, новостях, книгах и политических выступлениях, и делают это лучше, чем современные системы переноса стиля и машинного перевода.Эта работа представляет собой важный первый шаг к автоматическому управлению предвзятостью в реальном мире.Мы публикуем данные и код для общественности.Корпус Wiki Neutrality Corpus состоит из согласованных предложений до и после нейтрализации, выполненных редакторами английской Википедии (таблица TABREF3).Мы использовали регулярные выражения для сканирования 423 823 редакций Википедии в период с 2004 по 2019 год, где редакторы предоставили обоснование, связанное с NPOV, BIBREF11, BIBREF2, BIBREF12.Чтобы максимизировать точность изменений, связанных с предвзятостью, мы игнорировали версии, в которых [noitemsep]было изменено более одного предложения.Минимальные правки (дистанция Левенштейна символов $<$4). Максимальные правки (изменено больше половины слов). Правки, где более половины слов были именами собственными.Правки, исправляющие орфографические или грамматические ошибки.Изменения, в которых добавлялись ссылки или гиперссылки.Правки, которые изменили нелитературные элементы, такие как таблицы или знаки препинания.Мы выравниваем предложения в тексте до и после, вычисляя скользящее окно (размером $k = 5$) парных BLEU BIBREF13 между предложениями и сопоставляя предложения с наибольшим баллом BIBREF14, BIBREF15.Наконец, мы отбросили пары, соотношение длин которых превышало 95-й процентиль BIBREF16. Статистика корпуса приведена в таблице TABREF12.Окончательные данные представляют собой (1) параллельный корпус из 180 тысяч предвзятых предложений и их нейтральных аналогов и (2) 385 тысяч нейтральных предложений, которые примыкали к исправленному предложению во время редактирования, но не были изменены редактором.Обратите внимание, что после BIBREF2 эксперименты по нейтрализации в разделе SECREF4 сосредоточены на подмножестве WNC, где редактор изменил или удалил одно слово в исходном тексте («Смещенное слово» в таблице TABREF12). В таблице TABREF12 также дана категоризация этих образцов. пары, используя небольшое расширение типологии BIBREF2.Они определили фреймировочную предвзятость как использование субъективных слов или фраз, связанных с определенной точкой зрения (например, использование таких слов, как «лучший» или «самый глубокий», или использование «украдено из» вместо «основано на»), а эпистемологическую предвзятость — как лингвистические особенности, которые тонко (часто через пресуппозицию) фокусируются на правдоподобность предложения.К этим двум мы добавляем третий вид субъективной предвзятости, который также встречается в наших данных, который мы называем демографической предвзятостью, текст с предположениями об определенном поле или расе или других демографических категориях (например, предположение, что все программисты — мужчины). включите ярлыки для этих категорий, но мы вручную пометили случайную выборку из 500 примеров, чтобы оценить распределение трех типов.Таблица TABREF13 показывает, что, хотя систематическая ошибка является наиболее распространенной, в данных представлены все типы систематической ошибки, включая случаи демографической систематической ошибки.Мы внимательно рассмотрим WNC, чтобы выявить характеристики субъективной предвзятости в Wikipedia.Topic.Мы используем модели категоризации BIBREF17 Фонда Викимедиа, чтобы объединить статьи из WNC и вышеупомянутой случайной выборки в онтологию из 44 категорий, а затем сравнить пропорции изменений, вызванных NPOV, по категориям.Субъективно предвзятые правки наиболее распространены в категориях истории, политики, философии, спорта и языка.Наименее они распространены в категориях метеорологии, науки, форм рельефа, радиовещания и искусства.Это говорит о том, что существует связь между темой текста и реализацией предвзятости.Мы используем это наблюдение при разработке нашей модели в разделе SECREF19.Tenure.Мы группируем редакторов на «новичков» (стаж меньше месяца) и «опытных» (более месяца).Мы обнаружили, что новички с меньшей вероятностью будут выполнять нейтрализующие правки (15% в WNC) по сравнению с другими правками (34% в случайной выборке из 685 тысяч правок).Эта разница значительна ($\tilde{\chi }^2$ p $=$ 0,001), что позволяет предположить, что сложность нейтрализации текста обычно предназначена для более старших редакторов, что помогает объяснить работу оценщиков-людей в разделе SECREF53. Мы предлагаем задача нейтрализации текста, в которой алгоритму дается входное предложение, и он должен создать выходное предложение, значение которого максимально похоже на входное, но с удаленной субъективной предвзятостью.Мы предлагаем два алгоритма решения этой задачи, каждый из которых имеет свои преимущества.Модульный алгоритм обеспечивает человеческий контроль и интерпретируемость.Параллельный алгоритм прост в обучении и эксплуатации.Примем следующие обозначения: $\mathbf {s} =[w^s_1, ..., w^s_n]$ — это исходная последовательность субъективно предвзятого текста.$\mathbf {t} =[w^t_1, ..., w^t_m]$ — это целевая последовательность и нейтрализованная версия $\mathbf {s}$. Первый алгоритм, который мы предлагаем, состоит из двух этапов: обнаружение на основе BERT и редактирование на основе LSTM. .Мы предварительно обучаем модель для каждого этапа, а затем объединяем их в единую систему для сквозной точной настройки общей задачи нейтрализации.Переходим к описанию каждого модуля.Модуль обнаружения представляет собой устройство для определения нейронных последовательностей, которое оценивает $p_i$, вероятность того, что каждое входное слово $w^s_i$ является субъективно предвзятым (рисунок FigREF26). Описание модуля.Каждый $p_i$ вычисляется в соответствии с $\mathbf {b}_i \in \mathcal {R}^{b}$, представляющим семантическое значение $w^s_i$.Это контекстуализированный вектор слов, созданный BERT, кодировщиком-преобразователем, который был предварительно обучен как модель замаскированного языка BIBREF18.Чтобы использовать взаимосвязь предвзятости по теме, раскрытую в разделе SECREF14, мы добавляем токен, указывающий категорию темы статьи (<искусство>, <спорт> и т. д.) к $\mathbf {s}$.Векторы слов для этих токенов изучаются с нуля. $\mathbf {e}_i$ представляет экспертные особенности предвзятости, предложенные BIBREF2: $\mathbf {W}^{in} \in \mathcal {R}^{f \times h}$ — матрица изученных параметров, а $\mathbf {f}_i$ — вектор дискретных признаков.$\mathbf {W}^{b} \in \mathcal {R}^{b}$, $ \mathbf {W}^{e} \in \mathcal {R}^{h}$ и $b \in \mathcal {R}$ — обучаемые параметры.Предварительное обучение модуля.Мы обучаем этот модуль, используя различия между исходным и целевым текстом.Метка $p^*_i$ равна 1, если $w^s_i$ была удалена или изменена в рамках процесса нейтрализации.Метка равна 0, если она встречается как в исходном, так и в целевом тексте.Потери рассчитываются как средняя отрицательная логарифмическая вероятность меток: Модуль редактирования берет субъективное исходное предложение $\mathbf {s}$ и обучается редактировать его в более нейтральный комплимент $\mathbf {t}$. Описание модуля .Этот модуль основан на модели нейронного машинного перевода BIBREF19.Кодер bi-LSTM BIBREF20 превращает $\mathbf {s}$ в последовательность скрытых состояний $\mathbf {H} = (\mathbf {h}_1, ..., \mathbf {h}_n)$. Затем декодер LSTM генерирует текст по одному токену за раз, неоднократно обращаясь к $\mathbf {H}$ и создавая распределения вероятностей по словарю.Мы также добавляем два механизма из обобщающей литературы BIBREF21.Первый — это механизм копирования, где окончательный результат модели для временного шага $i$ становится взвешенной комбинацией прогнозируемого распределения словарного запаса и распределения внимания на этом временном шаге.Второй — это механизм покрытия, который включает сумму предыдущих распределений внимания в окончательную функцию потерь, чтобы предотвратить повторное обращение модели к слову и его повторение.Мы предварительно обучаем декодер как языковую модель нейтрального текста, используя нейтральную часть WNC (раздел SECREF2).Это выражает основанное на данных априорное представление о том, как должны читаться целевые предложения.Мы достигаем этого с помощью функции шумоподавления автокодировщика BIBREF22 и максимизации условной логарифмической вероятности $\log p(\mathbf {x} \vert \widetilde{\mathbf {x}})$ восстановления последовательности $\mathbf {x}$ из поврежденная версия самого себя $\widetilde{\mathbf {x}} = C(\mathbf {x})$ с использованием модели шума $C$. Наш $C$ похож на BIBREF23.Мы слегка перетасовываем $\mathbf {x}$ так, чтобы индекс $x_i$ в $\widetilde{\mathbf {x}}$ случайным образом выбирался из $[i - k, i + k]$. Затем мы отбрасываем слова с вероятностью $p$. Для наших экспериментов мы установили $k = 3$ и $p = 0,25$. После того, как модули обнаружения и редактирования были предварительно обучены, мы объединяем их и настраиваем вместе как сквозную систему для перевода $\mathbf { s}$ в $\mathbf {t}$. Это делается с помощью нового механизма встраивания соединений, который позволяет детектору управлять редактором (рис. FigREF29).Встраивание соединения представляет собой вектор $\mathbf {v} \in \mathcal {R}^h$, который мы добавляем к каждому скрытому состоянию кодировщика в модуле редактирования.Эта операция контролируется выходными вероятностями детектора $\mathbf {p} = (p_1, ..., p_n)$. Обратите внимание, что один и тот же $\mathbf {v}$ применяется на всех временных шагах.Мы приступаем к настройке декодера на новые скрытые состояния $\mathbf {H}^{\prime } = (\mathbf {h^{\prime }}_1, ..., \mathbf {h}^{\prime } _n)$.Интуитивно понятно, что $\mathbf {v}$ обогащает скрытые состояния слов, которые детектор определил как субъективные.Это сообщает декодеру, какой язык следует изменить и что можно безопасно копировать в процессе нейтрализации.Сигналы ошибок могут проходить обратно как в кодер, так и в детектор, создавая сквозную систему из двух модулей.Для точной настройки параметров объединенной системы мы используем функцию потерь, взвешенную по токенам, которая масштабирует потери нейтрализованных слов (т. е. слов, уникальных для $\mathbf {t}$) в $\alpha $:Обратите внимание, что $c$ — это термин из механизма покрытия (раздел SECREF28).В наших экспериментах мы используем $\alpha = 1.3$.Интуитивно, эта функция потерь включает в себя индуктивное смещение процесса нейтрализации: источник и цель имеют высокую степень лексического сходства, но цель состоит в том, чтобы изучить структуру их различий, а не просто копировать слова в выходные данные (что-то предварительно обученное автоэнкодер уже должен знать об этом).Эта функция потерь связана с предыдущей работой по исправлению грамматики BIBREF24 и экономичному обучению BIBREF25. Наш второй алгоритм берет проблемный источник $\textbf {s}$ и напрямую генерирует нейтрализованный $\mathbf {\hat{t}}$ . Хотя это упрощает обучение и эксплуатацию системы, это ограничивает интерпретируемость и управляемость.Описание модели.Параллельная система представляет собой нейронную сеть кодер-декодер.Кодировщик - BERT.Декодер тот же, что и в разделе SECREF28: LSTM с механизмами копирования и покрытия.На входах декодера установлены следующие значения: Скрытые состояния $\mathbf {H} = \mathbf {W}^H\ \mathbf {B}$, где $\mathbf {B} = (\mathbf {b}_1, ... , \mathbf {b}_{n})\in \mathcal {R}^{b \times n}$ — это источник, встроенный в BERT, а $\mathbf {W}^H \in \mathcal {R}^{h \times b}$ — это матрица изученных параметры.Начальные состояния $\mathbf {c}_0 = \mathbf {W}^{c0}\ \sum \mathbf {b}_i / n$ и $\mathbf {h_0} = \mathbf {W}^{h0}\ \ сумма \mathbf {b}_i / n$. $\mathbf {W}^{c0} \in \mathcal {R}^{h \times b}$ и $\mathbf {W}^{h0} \in \mathcal {R}^{h \times b} $ — изученные матрицы.Модельное обучение.Параллельная модель предварительно обучается с помощью той же процедуры автокодирования, которая описана в разделе SECREF28.Затем она настраивается как система перевода от субъективного к нейтральному с той же функцией потерь, которая описана в разделе SECREF30.Реализация.Мы реализовали нелинейные модели с помощью Pytorch BIBREF29 и оптимизировали с помощью Adam BIBREF30, настроенного в BIBREF18, со скоростью обучения 5e-5.Мы использовали размер партии 16.Все векторы имели длину $h = 512$, если не указано иное.Мы используем обрезку градиента с максимальной нормой градиента 3 и вероятностью исключения 0,2 на входах каждой ячейки LSTM BIBREF31.Мы инициализируем компонент BERT модуля тегов с помощью общедоступных параметров bert-base-uncases.Все остальные параметры были равномерно инициализированы в диапазоне $[-0.1,\0.1]$.Процедура.Следуя BIBREF2, мы обучаем и оцениваем нашу систему на подмножестве WNC, где редактор изменил или удалил одно слово в исходном тексте.В результате было получено 53 803 обучающих пары (около четверти WNC), из которых мы выбрали 700 разрабатывающих и 1000 тестовых пар.Для справедливого сравнения мы предоставили нашим базовым показателям дополнительный доступ к 385 639 нейтральным примерам, когда это было возможно.Мы предварительно обучили модуль маркировки на 4 эпохи.Мы предварительно обучили модуль редактирования на нейтральной части нашего WNC в течение 4 эпох.Совместная система обучалась на тех же данных, что и тагер, в течение 25 000 шагов (около 7 эпох).Мы выполняем интерференцию, используя поиск луча и ширину луча 4.Все вычисления выполнялись на одном графическом процессоре NVIDIA TITAN X; Обучение всей системы заняло примерно 10 часов.Мы сообщаем о статистической значимости с повторной выборкой бутстрепа и уровнем достоверности 95% BIBREF32, BIBREF33.Evaluation.Мы оцениваем наши модели по пяти метрикам.BLEU BIBREF13 и точность (доля декодировок, которые точно соответствуют изменениям редактора) являются количественными.Мы также наняли на Amazon Mechanical Turk людей, свободно говорящих по-английски.Работникам показали определение «предвзятого заявления» в BIBREF2 и Википедии и шесть примеров предложений, а затем подвергли квалификационному тесту из пяти вопросов, в ходе которого им нужно было выявить субъективную предвзятость.Примерно половина из 30 000 рабочих, прошедших квалификационное испытание, прошла его.Тех, кто прошел тест, попросили сравнить пары оригинальных и отредактированных предложений (не зная, какое из них было оригиналом) по трем критериям: беглость, сохранение смысла и предвзятость.Беглость и предвзятость оценивались по шкале семантического дифференциала от -2 до 2.Здесь семантическая дифференциальная шкала может лучше оценить вопросы, ориентированные на отношение, с двумя поляризованными вариантами (например, «текст A или B более беглый?»).Смысл оценивался по шкале Лайкерта от 0 до 4 в диапазоне от «совершенно разные» до «идентичные».Согласие между экспертами было от среднего до существенного (альфа Криппендорфа 0,65 для беглости, 0,33 для значения и 0,51 для предвзятости).Мы сообщаем о статистической значимости с помощью t-критерия и 95% доверительного интервала.Результаты по WNC представлены в таблице TABREF35.В дополнение к методам из литературы мы включаем (1) систему на основе BERT, которая просто прогнозирует и удаляет субъективные слова, и (2) систему, которая прогнозирует замены (включая удаление) субъективных слов непосредственно из их вложений BERT.По мнению оценщиков, все методы успешно уменьшают предвзятость.Однако многим методам, похоже, не хватает беглости.Добавление функции потерь, взвешенной по токенам, и предварительное обучение декодера помогают обеспечить согласованность модели в соответствии с BLEU и точность.Добавление детектора (модульного) или кодера BERT (параллельного) дает дополнительные преимущества.Предложенные модели сохраняют сильные эффекты систем из литературы, но при этом обеспечивают беглость речи в среднем на целевом уровне.Наши результаты показывают, что между двумя предложенными нами системами нет явного победителя.модульный метод лучше снижает предвзятость и имеет более высокую точность, в то время как параллельный дает более плавные ответы, лучше сохраняет смысл и имеет более высокий BLEU. Таблица TABREF39 показывает, что BLEU больше коррелирует с беглостью речи, но точность больше коррелирует с уменьшением субъективной предвзятости.Слабая связь между BLEU и оценками человека подтверждается другими исследованиями BIBREF35, BIBREF36.Мы приходим к выводу, что ни одна автоматическая метрика не является полноценной заменой человеческого суждения.Чтобы продемонстрировать эффективность предложенных методов в отношении субъективной предвзятости в дикой природе, мы делаем выводы на трех наборах данных, находящихся за пределами домена (таблица TABREF45).Мы подготовили каждый набор данных в соответствии с той же процедурой, что и WNC (раздел SECREF2).После вывода мы привлекли 1800 оценщиков для оценки качества 200 случайно выбранных точек данных.Обратите внимание, что для партийных наборов данных мы выбираем равное количество примеров из «консервативных» и «либеральных» источников.Эти данные таковы: Корпус идеологических книг (IBC), состоящий из партийных книг и журнальных статей BIBREF37, BIBREF38. Заголовки партийных новостных статей идентифицированы как предвзятые по данным mediabiasfactcheck.com.Фразы из предвыборных речей видного политика (президента США Дональда Трампа).Мы отфильтровали артефакты, специфичные для диалога (междометия, фатики и т. д.), удалив все предложения с менее чем 4 токенами перед выборкой тестового набора.В целом, хотя модульный подход лучше справляется с уменьшением предвзятости, параллельный, по-видимому, лучше сохраняет смысл и беглость исходного текста.Мы пришли к выводу, что предложенные методы, хотя и несовершенны, способны дать полезные предложения о том, как можно уменьшить субъективную предвзятость в реальных новостях или политических текстах.Чтобы лучше понять ограничения наших моделей и предлагаемую задачу нейтрализации предвзятости, мы случайным образом выбираем 50 ошибок, произведенных нашими моделями, на тестовом наборе Википедии и распределяем их по следующим категориям: Без изменений.Модель не смогла удалить или изменить исходное предложение.Плохая перемена.Модель изменила источник, но внесла редактирование, которое не соответствовало основной цели (т. е. изменению редактора Википедии).Ошибки в языковом моделировании и генерации текста. Шум.Точка данных зашумлена, а целевой текст не является нейтральной версией источника.Распределение ошибок приведено в таблице TABREF50.Большинство ошибок происходит из-за тонкости и сложности понимания языка, необходимого для нейтрализации предвзятости, а не из-за создания беглого текста.Эти проблемы особенно выражены при нейтрализации правок, предполагающих замену факторивных и утвердительных глаголов.Как показывает столбец 2, значительная часть ошибок, хотя и не согласуется с правкой, внесенной редакторами Википедии, тем не менее успешно нейтрализует предвзятость в источнике.Примеры каждого типа ошибок приведены в таблице TABREF52.(через две страницы).Как показывают примеры, наши модели имеют тенденцию просто удалять слова вместо того, чтобы найти хорошую замену.Мы приступаем к анализу способности нашего алгоритма обнаруживать и классифицировать предвзятость, а также эффективности предлагаемого встраивания соединений.Выявление субъективности в предложении (явное или неявное) является предпосылкой ее нейтрализации.Соответственно, мы оцениваем способность нашей модели (и 3000 краудворкеров) обнаруживать субъективность, используя процедуру BIBREF2 и те же 50 тысяч обучающих примеров, что и раздел SECREF4 (таблица TABREF51).Для каждого предложения мы выбираем слово с наибольшей прогнозируемой вероятностью и проверяем, было ли это слово действительно изменено редактором.Пропорция правильно подобранных слов и есть «точность» системы.Результаты приведены в таблице TABREF51. Обратите внимание, что в concurrent отсутствует окно интерпретации его поведения обнаружения, поэтому мы оцениваем верхнюю границу возможностей обнаружения модели путем (1) подачи скрытых состояний кодировщика в полностью связанный слой + softmax, который прогнозирует вероятность того, что токен является субъективно предвзятым, и (2) обучение этого уровня в качестве маркера последовательности в соответствии с процедурой раздела SECREF19. Низкая производительность человека может быть объяснена трудностью выявления предвзятости.Вопросы предвзятости обычно решают старшие редакторы Википедии (раздел SECREF14), а неподготовленные работники хуже (37,39%) справляются с той же задачей в BIBREF2 (и могут испытывать трудности с другими задачами, требующими лингвистических знаний BIBREF39).Кодер concurrent, архитектурно идентичный BERT, имел производительность, аналогичную автономной системе BERT.Лингвистические и категориальные функции модульного детектора давали ему небольшое преимущество перед простыми моделями на основе BERT.Мы продолжаем анализировать возможности предлагаемого механизма встраивания соединений.Встраивание соединения объединяет две отдельно предварительно обученные модели посредством закрытого внедрения вместо более традиционной практики удаления любых окончательных слоев классификации и объединения открытых скрытых состояний BIBREF40.Соответственно, мы упразднили механизм внедрения соединения, обучив новую модель, в которой предварительно обученный детектор замораживается, а его предварительные скрытые состояния $\mathbf {b}_i$ объединяются со скрытыми состояниями кодера перед декодированием.В результате производительность снизилась до 90,78 BLEU и точности до 37,57 (с 93,52/46,8 при встраивании соединения).Это говорит о том, что обученные внедрения могут быть высокопроизводительным и сквозным каналом между подмодулями систем машинного обучения.Мы приступаем к демонстрации того, как встраивание соединения создает управляемость в процессе нейтрализации.Напомним, что модульность опирается на распределение вероятностей $\mathbf {p}$, чтобы определить, какие слова требуют редактирования (уравнение DISPLAY_FORM31).Обычно это распределение поступает из модуля обнаружения (раздел SECREF19), но мы также можем использовать определяемые пользователем распределения, которые заставляют модель ориентироваться на определенные слова.Это может позволить консультантам исправлять ошибки или подталкивать поведение модели к желаемому результату.Мы обнаружили, что моделью действительно можно управлять, позволяя пользователям перефразировать определенные слова в случае, если они не согласны с результатами модели или обращаются за рекомендациями по конкретному языку.Однако это также может привести к ошибкам в последующей генерации языка (таблица TABREF52). Предвзятость субъективности.Пионерами изучения субъективности в НЛП выступили покойная Дженис Вибе и ее коллеги BIBREF41, BIBREF42.В нескольких исследованиях разрабатываются методы выделения субъективных или убедительных рамок в тексте BIBREF43, BIBREF44 или обнаружения предвзятых предложений BIBREF45, BIBREF46, BIBREF12, BIBREF47, из которых наиболее похожим на наш является BIBREF2, ранняя, уменьшенная версия WNC и основанная на логистической регрессии Детектор смещения послужил источником вдохновения для нашего исследования.Устранение предвзятости.Многие ученые работали над устранением демографических предрассудков из смысловых репрезентаций BIBREF48, BIBREF49, BIBREF5, BIBREF50, BIBREF51.Такие исследования начинаются с определения направления или подпространства, которое отражает предвзятость, а затем удаления такого компонента предвзятости, чтобы сделать эти представления справедливыми по таким атрибутам, как пол и возраст BIBREF3, BIBREF48.Например, BIBREF50 ввел термин регуляризации для языковой модели, чтобы наказать за проекцию вложений слов на это гендерное подпространство, в то время как BIBREF51 использовал состязательное обучение для устранения направлений предвзятости из скрытых состояний.Генерация нейронного языка.В нескольких исследованиях предлагаются поэтапные процедуры генерации текста, включая выборку из корпуса BIBREF52 и определение языка, готового для модификации BIBREF53.Больше всего на нас похож BIBREF26, который локализует стиль текста до части его слов.Наш модульный модуль обнаружения выполняет аналогичную локализацию мягким способом, и наши шаги соединяются плавным каналом (встраивание соединения) вместо дискретной логики.Есть также работа, связанная с нашей параллельной моделью.Ближайшим из них является BIBREF54, где к BERT был подключен декодер для ответов на вопросы, или BIBREF23, где системы машинного перевода инициализируются для LSTM и языковых моделей исходного текста на основе Transformer.Растущее присутствие предвзятости подорвало доверие к нашим новостям, образовательным системам и платформам социальных сетей.Таким образом, автоматическое снижение предвзятости является важной новой задачей для сообщества обработки естественного языка и искусственного интеллекта.Эта работа, изучающая модели для автоматического обнаружения и исправления субъективной предвзятости в тексте, является первым шагом в этом важном направлении.Тем не менее, наши возможности были ограничены изменениями, состоящими из одного слова, которые составляют лишь четверть всех изменений в наших данных и, вероятно, являются одними из самых простых случаев предвзятости.Поэтому мы поощряем будущую работу по борьбе с более широкими случаями многословной, многоязычной и перекрестной предвзятости.Еще одним важным направлением является интеграция аспектов проверки фактов BIBREF55, поскольку более сложная система сможет узнать, когда предположение на самом деле истинно и, следовательно, не является субъективным.Наконец, наш новый механизм внедрения соединений можно применить к другим модульным архитектурам нейронных сетей.Мы благодарим Японско-американскую комиссию по образованию (Фулбрайт, Япония) за щедрую поддержку.Мы благодарим Криса Поттса, Хирокадзу Киёмару, Эбигейл Си, Кевина Кларка, Стэнфордскую группу НЛП и наших анонимных рецензентов за их вдумчивые комментарии и предложения.Мы с благодарностью отмечаем поддержку программы DARPA Communication with Computers (CwC) в рамках основного контракта ARO №. W911NF15-1-0462 и NSF через грант IIS-1514268.Дийи Ян поддерживается грантом Google. | Такие тексты, как новости, энциклопедии и некоторые социальные сети, стремятся к объективности. Тем не менее, предвзятость в форме неуместной субъективности – привнесения взглядов посредством формулирования, предположения истины и сомнений – остается повсеместной. Такая предвзятость подрывает наше коллективное доверие и разжигает социальные конфликты. Чтобы решить эту проблему, мы представляем новый испытательный стенд для генерации естественного языка: автоматическое приведение неуместно субъективного текста к нейтральной точке зрения («нейтрализация» предвзятого текста). Мы также предлагаем первый параллельный корпус предвзятой речи. Корпус содержит 180 000 пар предложений и создан на основе правок Википедии, которые удалили различные рамки, предпосылки и отношения из предвзятых предложений. Наконец, мы предлагаем два надежных базовых варианта кодирования-декодера для этой задачи. Простая, но непрозрачная система CONCURRENT использует кодировщик BERT для идентификации субъективных слов в рамках процесса генерации. Интерпретируемый и управляемый алгоритм MODULAR разделяет эти этапы, используя (1) классификатор на основе BERT для идентификации проблемных слов и (2) новое встраивание соединений, с помощью которого классификатор может редактировать скрытые состояния кодировщика. Масштабная человеческая оценка в четырех областях (энциклопедии, заголовки новостей, книги и политические выступления) позволяет предположить, что эти алгоритмы являются первым шагом на пути к автоматическому выявлению и уменьшению предвзятости. | 4,948 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | И победителем становится...: Байесовский прогноз на основе Твиттера о президентских выборах в США 2016 года. Президентские выборы — важный момент для каждой страны, в том числе и для США.Их экономическая политика, устанавливаемая правительством, влияет на экономику других стран BIBREF0 .На президентских выборах в США в 2016 году кандидаты от республиканской и демократической партии использовали Twitter в качестве средства массовой информации для своей предвыборной кампании.Предыдущие исследования предсказывали исход президентских выборов в США с использованием Twitter BIBREF1, BIBREF2, BIBREF3, BIBREF4.Некоторые из них доказали, что данные Twitter могут дополнять или даже предсказывать результаты опроса.Это следует за растущим улучшением исследований в области интеллектуального анализа текста BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9. Некоторые из самых последних исследований — BIBREF3, BIBREF2, BIBREF1, BIBREF10.Ниже мы обсуждаем эти три недавних исследования и объясняем, как наше исследование связано с их исследованиями.Первое исследование было проведено BIBREF3, которое проанализировало настроения кандидатов в президенты США 2008 года, рассчитав соотношение настроений с использованием скользящего среднего.Они подсчитали ценность настроений Обамы и Маккейна на основе количества положительных и отрицательных слов, заявленных в каждом твите.Твиты были собраны в течение 2008-2009 годов, а положительные и отрицательные слова были получены из OpinionFinder.Они обнаружили, что сравнение настроений в твитах и опросах было сложным, поскольку люди могли выбрать в опросах «Обаму», «Маккейна», «не решили», «не собираются голосовать» или любого независимого кандидата.Второе исследование предсказало результаты опросов президентских выборов в США в 2012 году с использованием наивной байесовской модели BIBREF2.С 29 сентября по 16 ноября 2012 года они собрали более 32 миллионов твитов.Они использовали Tweepy и установили ключевые слова для каждого кандидата для сбора твитов, например, Митт Ромни, Барак Обама, выборы в США.Собранные твиты прошли несколько этапов предварительной обработки: (1) удаление URL, упоминаний, хэштегов, RT и стоп-слов; (2) токенизация; и (3) дополнительное not_ для отрицания.Они проанализировали 10 000 случайно выбранных твитов, содержащих только имя кандидата.Результаты анализа сравнили с опросами Huffington Post, и они обнаружили, что популярность Обамы в Твиттере отражает результат опросов.В этом исследовании не использовались твиты с двумя или более именами кандидатов, поскольку это требует более сложных методов предварительной обработки.В рамках третьего исследования была создана система анализа настроений в режиме реального времени на президентских выборах в США 2012 года, позволяющая отображать общественное мнение о каждом кандидате в Twitter BIBREF1.Они собрали твиты каждого кандидата с помощью Gnip Power Track с 12 октября 2012 года и токенизировали их.Твиты были помечены примерно 800 пользователями Amazon Mechanical Turk (AMT).Они обучили наивный байесовский классификатор, используя 17 000 твитов, которые разделены на 4 класса: (1) положительные; (2) отрицательный; (3) нейтральный; и (4) не уверен.Он достиг точности 59%, что является лучшим результатом, достигнутым в трех недавних исследованиях.Они визуализировали настроения на информационной панели и рассчитали популярные слова с помощью TF-IDF. Насколько нам известно, никаких исследований о прогнозах на президентские выборы в США 2016 года пока не проводилось.Предыдущие исследования либо устанавливали настроение твита непосредственно на основе лексикона субъективности BIBREF3, либо предварительно обрабатывали твит с помощью сложного метода предварительной обработки BIBREF1, BIBREF2.BIBREF2 не только удалил URL-адреса, упоминания, ретвиты, хэштеги, цифры и стоп-слова; но также токенизировал твиты и добавил not_ к отрицательным словам.BIBREF1 токенизировал твиты и отдельные URL-адреса, смайлики, номера телефонов, теги HTML, упоминания, хэштеги, дроби или десятичные дроби, а также повторение символов или символов Юникода.В этом исследовании анализируются настроения в твитах о кандидатах в президенты США 2016 года.Мы построим наивную байесовскую прогностическую модель для каждого кандидата и сравним прогноз с RealClearPolitics.com.Мы ожидаем получить правильный прогноз относительно ведущих кандидатов от Демократической и Республиканской партии.Мы доказываем, что использование более простого метода предварительной обработки по-прежнему может иметь производительность, сравнимую с лучшим недавним исследованием BIBREF1.объясните наши методы подготовки данных в следующем разделе.За ней следует наша методология исследования в разделе III.Мы представляем наши результаты в разделе IV, за которым следуют обсуждение и выводы в разделах V и VI. Мы собрали 371 264 твита с помощью Twitter Streaming API на Tweepy BIBREF2 с 16 декабря 2015 года по 29 февраля 2016 года.Мы используем #Election2016 в качестве ключевого слова для поиска, поскольку это официальный хэштег, используемый во время цикла президентских выборов в США в 2016 году, и он охватывает разговоры обо всех кандидатах.Мы разделяем твиты по периодам, которые составляют семь дней.На рисунке 1 показано распределение частот твитов: в среднем 37 126,4 твитов за период и стандартное отклонение 27 823,82 твитов.Сбор данных с 20 по 26 января 2016 г. ограничен из-за ограниченности ресурсов.Данные сохраняются в виде файлов JSON.Каждая строка файлов JSON представляет собой твит, который состоит из 26 основных атрибутов, таких как create_at, ID, text, retweet_count и lang.Мы используем только содержимое атрибутов «create_at» и «text», поскольку это исследование фокусируется на настроениях по отношению к кандидатам в определенное время, не включая географическое положение и другую информацию.Собранные твиты в основном написаны на английском языке.Мы публикуем необработанные и предварительно обработанные твиты по запросу для использования в будущем.Данные доступны для исследовательского использования по электронной почте.Мы предварительно обрабатываем данные путем: (1) удаления URL-адресов и изображений, а также (2) фильтрации твитов, в которых есть имена кандидатов.Хэштеги, упоминания и ретвиты не удаляются, чтобы сохранить первоначальный смысл твита.Мы сохраняем только те твиты, которые соответствуют двум требованиям, например, указанным в Таблице 1.В первом примере не видно никаких изменений в содержании твита, поскольку в нем нет URL-адресов или изображений, и он содержит имя кандидата: Берни Сандерс.Во втором примере показан удаленный твит, который не содержит имен кандидатов.На этапе предварительной обработки изменяется содержимое третьего твита.Он удаляет URL-адреса и по-прежнему сохраняет твит, поскольку он содержит «Хиллари Клинтон» и «Дональд Трамп».На этапе предварительной обработки удаляется 41% данных (рис. 2). Предварительно обработанные твиты маркируются вручную 11 аннотаторами, понимающими английский язык.Всем аннотаторам выставляются либо оценки за курсовую работу, либо сувениры за свою работу.Данный ярлык состоит из предполагаемого кандидата и настроения.Аннотаторы интерпретируют твит и решают, к кому он относится.Если они считают, что твиты не относятся к конкретному кандидату и не понимают содержания, они могут выбрать в качестве ярлыка «непонятно».В противном случае они могут отнести это к одному кандидату и обозначить как положительное или отрицательное.Мы разделили твиты и аннотаторов на три группы (табл. II).Они помечают как можно больше твитов с 24 января по 16 апреля 2016 года. Срок действия ярлыка определяется с помощью правила большинства BIBREF11.Каждый твит распространяется среди трех или пяти комментаторов, и он действителен, если есть метка, которая встречается чаще всего.На последнем этапе подготовки данных мы удаляем все твиты с пометкой «непонятно».На рисунке 3 показано распределение меток твитов.Большинство твитов связано с Берни Сандерсом, Дональдом Трампом и Хиллари Клинтон.Кандидаты в президенты прогнозируются путем поиска кандидатов с наиболее прогнозируемыми положительными настроениями.Настроения прогнозируются с использованием байесовской модели.В этом разделе описываются: (1) обучение модели, (2) проверка точности модели и (3) проверка точности прогнозирования.Наши модели обучены с использованием наивного байесовского классификатора.У нас есть одна модель, представляющая каждого кандидата, следовательно, у нас есть 15 обученных моделей.Мы используем модуль nltk.classify в библиотеке Natural Language Toolkit на Python.Мы используем размеченные данные, собранные с 16 декабря 2015 г. по 2 февраля 2016 г., в качестве данных для обучения наших моделей.Остальные размеченные данные будут использоваться для оценки моделей.Точность наших моделей проверяется с помощью 10-кратной перекрестной проверки.Проверка модели выполняется с использованием библиотеки scikit-learn.Точность рассчитывается путем проверки матрицы путаницы BIBREF12 , BIBREF13 и ее оценки INLINEFORM0 BIBREF14.Onв некоторых случаях модели прогнозируют настроения в экстремальных значениях (т. е. имеют только положительные или отрицательные результаты).Из-за этих случаев мы не можем вычислить оценку INLINEFORM0 модели Криса Кристи.Средняя точность и балл INLINEFORM1 составляют 95,8% и 0,96 соответственно.Оценка INLINEFORM0 измеряет только то, насколько хорошо модель работает при прогнозировании позитивных настроений, поэтому мы предлагаем модифицированную оценку INLINEFORM1 ( INLINEFORM2 ), изменив формулу.Оценка INLINEFORM3 показывает, насколько хорошо модель прогнозирует негативные настроения.DISPLAYFORM0 Модели показывают хорошую точность и оценку INLINEFORM0 (таблица III).Это показывает, что модель может почти идеально предсказывать тестовые данные (95,8%) с немного лучшим результатом для положительных настроений, чем для отрицательных, о чем можно судить по большему значению INLINEFORM1, чем INLINEFORM2. Результаты теста не показывают точного эффекта обучения. данные и точность модели.Модели с меньшим количеством обучающих данных (например, Хакаби, Санторума) достигают более высокой точности, чем модели с большим количеством обучающих данных (например, Трампа, Клинтона), в то время как наименьшая точность достигается у модели Касича, которая обучается с небольшим количеством обучающих данных.Неопределенное значение оценок INLINEFORM0 и INLINEFORM1 в моделях Christie's, Gilmore's и Santorum показывает экстремальные прогнозы для этих моделей.В качестве входных данных для прогнозирования модели используют твиты, собранные с 3 по 9 февраля 2016 года.Прогноз состоит из двух шагов: (1) мы вычисляем положительные настроения по твитам и рассматриваем количество положительных настроений как вероятность того, что кандидат станет кандидатом, и (2) мы сортируем кандидатов по количеству их положительных настроений.Рейтинги сравниваются с результатами опроса на RealClearPolitics.com.Мы рассчитываем частоту ошибок (E), разделив разницу рейтинга опроса с нашим прогнозируемым рейтингом на количество кандидатов ( INLINEFORM0 ).DISPLAYFORM0 DISPLAYFORM1, где INLINEFORM0 и n — количество кандидатов.Po и Pre — это рейтинги опросов и прогнозов, связанные с RealClearPolitics.com и моделью соответственно.Мы используем твиты за 3-9 февраля 2016 года в качестве входных данных для наших моделей относительно указанного кандидата.Мы ранжируем результат прогнозирования, сортируя количество положительных прогнозов для каждого кандидата.В Демократической партии лидирует Берни Сандерс с 3335 твитами, за ним следуют Мартин О'Мэлли (14 твитов) и Хиллари Клинтон (ни одного).Ранги прогнозов по Республиканской партии следующие: (1) Тед Круз (1432 твита), (2) Марко Рубио (1239 твитов), (3) Рэнд Пол (645 твитов), (4) Рик Санторум (186 твитов), (5) Джон Кейсич (133 твита), (6) Карли Фиорина (88 твитов), (7) Майк Хакаби (11 твитов) и (8) Джим Гилмор (5 твитов).Остальные кандидаты от Республиканской партии не имеют положительного прогноза, поэтому мы помещаем их на последнее место.Наш прогноз модели имеет рейтинг от 1 до 9 и отличается от прогноза опроса (ранг от 1 до 8).Прежде чем провести сравнение, мы корректируем ранги прогнозов, чтобы получить равный диапазон.Мы перемещаем Джеба Буша, Бена Карсона, Криса Кристи и Дональда Трампа, которые раньше занимали 9-е место, на 8-е место.Мы сравниваем ранги прогнозов с результатами опроса и вычисляем коэффициент ошибок.Наша модель дает ошибку 1,33 для двух оставшихся кандидатов от Демократической партии, что мы считаем не очень хорошим.Наша модель лучше работает при прогнозировании кандидатов-республиканцев, что дает ошибку 1,67 для 7 оставшихся кандидатов (см. Таблицу IV и V). Общую точность прогноза можно рассчитать путем вычитания единицы из среднего результата деления частоты ошибок для каждой партии на количество оставшихся в ней кандидатов. кандидаты.Мы достигаем точности прогнозирования 0,548, что недостаточно для BIBREF1.На точность модели в основном влияет большая частота ошибок среди кандидатов от Демократической партии (1,33 из 2 кандидатов). Используя простые предварительно обработанные данные, наша наивная байесовская модель успешно достигает точности 95,8% при 10-кратной перекрестной проверке и точности 54,8% при прогнозировании результатов опроса. результат.Модель предсказывает, что Тед Круз и Берни Сандерс будут кандидатами от Республиканской и Демократической партии соответственно.Основываясь на позитивных прогнозах, он предсказывает, что Берни Сандерс будет избран президентом США в 2016 году.Несмотря на то, что точность модели во время теста модели составляет 95,8%, ее прогноз не отражает результат опроса.Таблица III показывает, что точность модели не зависит от количества обучающих данных.Модель с меньшим количеством обучающих данных (например, Майка Хакаби) может отлично работать во время теста модели и пропускать только рейтинг в прогнозе, тогда как модель с большим количеством обучающих данных (например, Дональда Трампа) может иметь худшую производительность.Чтобы увидеть, как на точность модели влияет количество обучающих данных, мы обучаем больше моделей для каждого кандидата, используя n первых твитов, и используем их для прогнозирования настроений следующих 4000 твитов (см. рисунок 4).Модели Берни Сандерса и Дональда Трампа наиболее точно предсказывают настроения.Модели с меньшим количеством обучающих данных (например, Мартин О'Мэлли, Джим Гилмор, Майк Хакаби), как правило, имеют нестабильную точность.Модели, обученные с использованием 1000 первых твитов, имеют среднюю точность 55,85% и стандартное отклонение 26,49%, тогда как модели, обученные с использованием 33 000 первых твитов, имеют немного другую точность: 65,75% средней точности и 27,79% стандартного отклонения.Это показывает, что количество обучающих данных не влияет на общую точность модели.Наша модель, возможно, не отражает результаты опроса, но выборы все еще продолжаются, и мы не знаем, какой кандидат станет следующим президентом США.Следовательно, существует вероятность того, что предполагаемые кандидаты станут следующим президентом США.В противном случае Twitter нельзя будет использовать для прогнозирования реальных результатов опросов BIBREF15. Мыпостроила наивные байесовские модели прогнозирования для президентских выборов в США в 2016 году.Мы используем официальный хэштег и простой метод предварительной обработки для подготовки данных без изменения их значения.Наша модель достигает точности 95,8% во время тестирования модели и прогнозирует опрос с точностью 54,8%.Модель предсказывает, что Берни Сандерс и Тед Круз станут кандидатами от Демократической и Республиканской партии соответственно, а на выборах победит Берни Сандерс. | В этой статье описывается наивно-байесовская модель прогнозирования президентских выборов в США 2016 года, основанная на данных Twitter. Мы используем 33 708 твитов, собранных с 16 декабря 2015 г. по 29 февраля 2016 г. Мы вводим более простой метод предварительной обработки данных для маркировки данных и обучения модели. Модель достигает точности 95,8% при 10-кратной перекрестной проверке и прогнозирует, что Тед Круз и Берни Сандерс будут кандидатами от республиканской и демократической партии соответственно. Он достигает результата, сравнимого с результатами, полученными от методов конкурентов. | 2,500 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Информативное и контролируемое обобщение мнений. Распространение мнений, выраженных в онлайн-обзорах, блогах, интернет-форумах и социальных сетях, создало острую потребность в автоматизированных системах, которые позволяют клиентам, компаниям или поставщикам услуг принимать обоснованные решения без необходимости поглощать большие объемы самоуверенного текста.Обобщение мнений — это задача автоматического создания сводок для набора мнений о конкретной цели BIBREF0.На рисунке FigREF1 показаны различные рецензии на фильм «Тренер Картер» и примеры резюме, созданные людьми и автоматическими системами.Подавляющее большинство предыдущих работ BIBREF1 рассматривает обобщение мнений как заключительный этап трехэтапного процесса, включающего: (1) извлечение аспектов (т. е. поиск характеристик, относящихся к интересующей цели, таких как время автономной работы или качество звука); (2) прогнозирование настроений (т. е. определение настроений извлеченных аспектов); и (3) составление сводки (т. е. представление пользователю выявленных мнений).Текстовые резюме создаются с использованием в основном экстрактивных методов, которые выбирают репрезентативные сегменты (обычно предложения) из исходного текста BIBREF2, BIBREF3, BIBREF4, BIBREF5.Несмотря на меньшую популярность, абстрактные подходы кажутся более подходящими для поставленной задачи, поскольку они пытаются создать максимально информативные и минимально избыточные резюме без простой перестановки отрывков из исходных мнений BIBREF6, BIBREF7, BIBREF8, BIBREF9.Подходы к обобщению общего назначения недавно показали многообещающие результаты с использованием сквозных моделей, которые управляются данными и используют преимущества архитектуры последовательных нейронных сетей.Большинство подходов BIBREF10, BIBREF11, BIBREF12, BIBREF13 кодируют документы, а затем декодируют изученные представления в абстрактное резюме, часто обращаясь к исходному входу BIBREF14 и копируя из него слова BIBREF15.В рамках этой парадигмы моделирования больше нет необходимости идентифицировать аспекты и их отношение к задаче обобщения мнений, поскольку они изучаются косвенно из обучающих данных (т. е. наборов мнений и соответствующих им резюме).Эти модели обычно тестируются в областях, где входными данными является либо один документ, либо небольшой набор документов.Однако количество мнений, как правило, очень велико (150 для примера на рис. РИСУНОК 1).Поэтому практически невозможно обучать модель сквозным способом, учитывая ограничения памяти современного оборудования.В результате современные подходы BIBREF16, BIBREF17, BIBREF18, BIBREF19 жертвуют сквозной элегантностью в пользу двухэтапной структуры, которую мы называем Extract-Abstract: экстрактивная модель сначала выбирает подмножество мнений, а затем абстрактная модель генерирует сводку при обработке извлеченного подмножества (см. рисунок FigREF5).К сожалению, экстрактивный проход имеет два недостатка.Во-первых, из-за доступа к подмножеству мнений сводки могут быть менее информативными и неточными, как показано на рисунке РИС. 1.А во-вторых, предпочтения пользователя нелегко принять во внимание (например, читатель может пожелать получить краткое описание, посвященное действию или сюжету фильма, а не краткое описание общего назначения), поскольку более специализированная информация могла быть удалена.В этой статье мы предлагаем Condense-Abstract, альтернативную двухэтапную структуру, которая использует все входные документы при создании сводки (см. Рисунок FigREF5).Мы рассматриваем проблему обобщения мнений как пример трансдукции из нескольких источников BIBREF20; сначала мы представляем входные документы в виде нескольких кодировок, стремясь сжать их значение и выделить информацию, касающуюся настроений и различных аспектов проверяемой цели.Эти сжатые представления затем агрегируются с использованием модуля объединения нескольких источников, на основе которого создается сводка мнений с использованием абстрактной модели.Мы также представляем метод нулевой настройки, позволяющий пользователям контролировать важные аспекты создаваемой сводки во время тестирования.Наш подход обеспечивает контролируемую генерацию, одновременно используя весь спектр мнений, доступных для конкретной цели.Мы проводим эксперименты с набором данных, состоящим из рецензий на фильмы и сводок мнений, полученных с веб-сайта Rotten Tomatoes (BIBREF16; см. рисунок FigREF1).Наша система с большим отрывом превосходит современные модели с использованием автоматических показателей и в исследованиях по выявлению суждений.Мы также проверяем, что наша технология нулевой настройки может эффективно генерировать сводки для конкретных потребностей.Большинство моделей обобщения мнений используют экстрактивные методы (обзоры см. в BIBREF21 и BIBREF22), за исключением нескольких систем, которые способны генерировать новые слова и фразы, не представленные в исходном тексте.BIBREF6 предлагает основанную на графах структуру для создания сверхкратких сводок мнений, в то время как BIBREF8 представляет обзоры в виде деревьев дискурса, которые они объединяют в глобальный граф, на основе которого они генерируют резюме.Другая работа BIBREF7, BIBREF23 учитывает распределение мнений и их аспекты, чтобы создавать более читаемые резюме.BIBREF9 представляет собой гибридную систему, которая использует методы извлечения для выбора важных цитат из входных обзоров и встраивает их в абстрактное резюме, чтобы предоставить доказательства положительных или отрицательных мнений.В более поздних работах было показано эффективное применение моделей последовательностей BIBREF24, BIBREF14 для различных задач абстрактного суммирования, включая генерацию заголовков BIBREF10, одиночные BIBREF15, BIBREF25 и суммирование нескольких документов BIBREF16, BIBREF17, BIBREF18.Ближе всего к нашему подходу является работа BIBREF16, которая генерирует сводки мнений в ходе двухэтапного процесса, в ходе которого сначала отбираются документы, содержащие соответствующую информацию, а затем генерируется сводка на основе этих документов.В частности, они используют модель регрессии гребня с вручную разработанными функциями, такими как оценки TF-IDF и количество слов, для оценки важности документа относительно его кластера (см. также BIBREF17 для обзора дополнительных методов выбора документов).Извлеченные документы затем объединяются в длинную последовательность и передаются в модель кодера-декодера.Предлагаемая нами структура устраняет необходимость предварительного выбора важных документов, что, по нашему мнению, приводит к потере информации и снижению гибкости возможностей генерации.Вместо этого отдельная модель сначала сжимает исходные документы в несколько плотных векторов, которые служат входными данными для декодера для создания абстрактного резюме.Помимо создания более информативных сводок, мы демонстрируем, что наш подход позволяет их персонализировать.Последние модели условного генерирования были сосредоточены на управлении различными аспектами вывода, такими как вежливость BIBREF26, длина BIBREF27, BIBREF28, содержание BIBREF28 или стиль BIBREF29.В отличие от этих подходов, наша методика настройки не требует ни обучающих примеров документов и соответствующих (настраиваемых) сводок, ни специальной предварительной обработки для кодирования того, какие токены во входных данных могут привести к настройке.Мы предлагаем альтернативу подходу «Сначала экстракт, потом аннотация» (EA), который устраняет необходимость в экстрактивной модели и позволяет использовать все входные документы при создании сводки.Рисунок FigREF5 иллюстрирует нашу структуру Condense-Abstract (CA).Вместо интегрированного кодера-декодера мы генерируем сводки, используя две отдельные модели.Модель Condense возвращает кодировки документов для входных документов $N$, а модель Abstract использует эти кодировки для создания абстрактного резюме.Этот двухэтапный подход имеет как минимум три преимущества при обобщении нескольких документов.Во-первых, оптимизация упрощается, поскольку параметры весов кодера и декодера изучаются отдельно.Во-вторых, модели на основе CA более экономичны, поскольку при обучении модели Condense $N$ документов в кластере рассматриваются не как один очень большой экземпляр, а как $N$ отдельных экземпляров.Наконец, можно создавать индивидуальные сводки, ориентированные на конкретные аспекты входных данных, поскольку абстрактная модель работает с кодировками всех доступных документов.Пусть $\mathcal {D}$ обозначает кластер из $N$ документов о конкретной цели (например, фильме или продукте).Для каждого документа $X=\lbrace w_1,w_2,...,w_M\rbrace \in \mathcal {D}$ модель Condense изучает кодировку $d$ и кодировки на уровне слов $h_1, h_2, .. .,h_M$.В качестве модели Condense мы используем автоэнкодер BiLSTM.В частности, мы используем кодер двунаправленной долгосрочной краткосрочной памяти (BiLSTM) BIBREF31: где $\overrightarrow{h}_i$ и $\overleftarrow{h}_i$ — это прямые и обратные скрытые состояния BiLSTM на временном шаге $i$, и $;$ обозначает конкатенацию.Обучение проводится с целью реконструкции.В частности, мы используем отдельный LSTM в качестве декодера, где первое скрытое состояние $z_0$ установлено в $d$ (см. уравнение (5)).Слова $w^{\prime }_t$ генерируются с использованием классификатора softmax:Автокодировщик обучается с максимальной потерей правдоподобия. Преимущество использования отдельного кодировщика заключается в увеличении объема обучающих данных, поскольку мы рассматриваем одну цель с $N$ входными документами как $N$ различных экземпляров.После завершения обучения мы используем модель Condense для получения $N$ пар кодировок документа $\lbrace d_i\rbrace $ и кодировок уровня слова $\lbrace h_{i,1}, h_{i,2}, . .., h_{i,M}\rbrace $, $1 \le i \le N$ как представления документов в $\mathcal {D}$. Абстрактная модель сначала объединяет несколько кодировок, полученных на этапе сжатия, а затем генерирует сводку с помощью декодера.$N$ пар кодировок документа $\lbrace d_i\rbrace $ и кодировок уровня слова $\lbrace h_{i,1}, h_{i,2}, ..., h_{i,M}\rbrace $ , $1 \le i \le N$ объединяются в одну пару кодировки документа $d^{\prime }$ и кодировки уровня слова $h^{\prime }_1, h^{\prime }_2, .. ., h^{\prime }_V$, где $V$ — общее количество уникальных токенов во входных данных.Мы объединяем кодировки документов, используя метод тщательного объединения, который придает больший вес важным документам.В частности, мы изучаем набор весовых векторов $a_i \in \mathbb {R}^{D_d}$, где $D_d$ — размерность $d_i$, для взвешивания кодировок документов: где среднее значение кодировки $\ bar{d}$ используется в качестве вектора запроса, а $W_p \in \mathbb {R}^{D_d \times D_d \times D_d}$ — обученный тензор.Мы также объединяем кодировки на уровне слов, поскольку одни и те же слова могут встречаться в нескольких документах.Для этого мы просто усредняем все кодировки одного и того же слова, если существует несколько токенов слова: где $V_{w_j}$ — количество токенов для слова $w_j$ во входных данных.Декодер генерирует сводки на основе сокращенной кодировки документа $d^{\prime }$ и сокращенной кодировки уровня слова $h^{\prime }_1,h^{\prime }_2,...,h^{\prime }_V$.Мы используем простой декодер LSTM, усовершенствованный с учетом BIBREF14 и механизмов копирования BIBREF32.Мы устанавливаем первое скрытое состояние $s_0$ в $d^{\prime }$ и запускаем LSTM для вычисления текущего скрытого состояния, используя предыдущее скрытое состояние $s_{t-1}$ и слово $y^{\prime }_{t-1}$ на временном шаге $t$: На каждом временном шаге $t$ мы используем механизм внимания поверх кодировок на уровне слов для вывода вектора веса внимания $a_t$ и вектора контекста $c_t$:Наконец , мы используем механизм копирования входных слов, чтобы вывести вероятность окончательного слова $p(y^{\prime }_t)$ как взвешенную сумму по вероятности генерации $p_g(y^{\prime }_t)$ и вероятность копирования $p_c(y^{\prime }_t)$: где $W$, $v$ и $b$ — изученные параметры, а $t$ — текущий временной шаг.Представленная до сих пор модель рассматривает все документы как одинаково важные и не имеет конкретного механизма, позволяющего повысить значимость и устранить избыточность.Чтобы побудить декодера сосредоточиться на важном контенте, мы можем напрямую включить информацию, полученную на этапе извлечения.В экспериментах мы выбираем $k$ документов с помощью SummaRunner BIBREF33, современной нейроэкстрактивной модели, в которой каждый документ классифицируется на основании того, должен ли он быть частью сводки или нет.Мы объединяем $k$ заранее выбранных документов в длинную последовательность и кодируем ее с помощью отдельного кодировщика BiLSTM.Закодированная последовательность служит входными данными для декодера LSTM, который генерирует скрытое состояние $r_t$ со смещением по значимости. Затем мы обновляем скрытое состояние $s_t$ в уравнении (DISPLAY_FORM19) как $s_t.= [с_т; r_t]$. Обратите внимание, что мы по-прежнему принимаем во внимание все входные документы, признавая при этом, что некоторые из них могут быть более описательными, чем другие.Мы используем две целевые функции для обучения абстрактной модели.Во-первых, мы используем максимальную потерю правдоподобия для оптимизации распределения вероятностей генерации $p(y^{\prime }_t)$ на основе сводок золота $Y=\lbrace y_1,y_2,...,y_L\rbrace $, предоставленных во время обучения. time:Во-вторых, мы предлагаем способ введения контроля и управления весами объединения внимания $W_p$ в уравнении () при объединении кодировок документов.Наша мотивация состоит в том, что результирующая объединенная кодировка $d^{\prime }$ должна быть примерно эквивалентна кодировке сводки $y$, которую можно рассчитать как $z=\text{\textsc {Condense}}(y)$ . В частности, мы используем шарнирную потерю, которая максимизирует внутренний продукт между $d^{\prime }$ и $z$ и одновременно минимизирует внутренний продукт между $d^{\prime }$ и $n_i$, где $n_i$ — это кодирование одного из пяти случайно выбранных отрицательных сводок: Конечная цель — это сумма обеих функций потерь. Еще одним преимуществом нашего подхода является то, что во время тестирования мы можем либо генерировать сводку общего назначения, либо сводку для конкретных потребностей.Чтобы сгенерировать первое, мы запускаем обученную модель как есть и используем лучевой поиск, чтобы найти последовательность слов с наибольшей совокупной вероятностью.Чтобы сгенерировать последнее, мы используем простой метод, который изменяет вектор запроса $\bar{d}$ в уравнении (DISPLAY_FORM16).Более конкретно, в области рецензий на фильмы мы предполагаем, что пользователи могут захотеть получить краткое изложение, в котором основное внимание уделяется положительным или отрицательным аспектам фильма, качеству актерской игры или сюжету.В другом домене пользователей может интересовать цена продукта, его удобство и т. д.Мы осуществляем такую настройку, не требуя доступа к сводкам конкретных потребностей во время обучения.Вместо этого во время тестирования мы предполагаем доступ к фоновым проверкам, чтобы представить потребности пользователя.Например, если мы хотим создать положительное резюме, наш метод требует набора отзывов с положительными настроениями, которые примерно дают некоторую информацию о том, как настроения передаются в обзоре.Мы используем эти фоновые обзоры, передающие потребности пользователя $x$ (например, игра, сюжет, положительные или отрицательные настроения) во время слияния, чтобы больше внимания уделять входным отзывам, связанным с $x$. Пусть $C_x$ обозначает набор обзорных проверок.Получаем новый вектор запроса $\hat{d} = \sum _{c=1}^{|C_x|} d_c / |C_x|$, где $d_c$ — кодировка документа $c$-го обзора. в $C_x$, рассчитанном по модели Condense.Это изменение позволяет модели сосредоточиться на входных проверках с семантикой, аналогичной потребностям пользователя, передаваемым фоновыми проверками $C_x$. Новый вектор запроса $\hat{d}$ используется вместо $\bar{d}$ для получения кодировки документа $d^{\prime }$ (см. уравнение (DISPLAY_FORM16)). Мы провели эксперименты с набором данных Rotten Tomatoes. представлено в BIBREF16.Он содержит 3731 фильм; на каждый фильм нам предоставляется большой набор рецензий (в среднем 99,8), написанных профессиональными критиками и пользователями, а также консенсус «золотого стандарта», то есть резюме, написанное редактором (см. пример на рисунке FigREF1).В среднем длина обзора составляет 19,7 токена, а длина резюме — 19,6 токена.Набор данных разделен на 2458 фильмов для обучения, 536 фильмов для разработки и 737 фильмов для тестирования.Следуя предыдущей работе BIBREF16, мы использовали общие метки для названий фильмов во время обучения, которые мы заменяли исходными названиями фильмов во время тестирования.Для всех экспериментов в нашей модели использовались встраивания слов со 128 измерениями, предварительно обученные на обучающих данных с помощью GloVe BIBREF34.Мы установили размеры всех скрытых векторов равными 256, размер пакета — 8, а размер поиска луча — 5.Мы применили отсев BIBREF35 из расчета 0,5.Модель была обучена с использованием оптимизатора Адама BIBREF36 и ограничения $l_2$ BIBREF37, равного 2.Мы выполнили раннюю остановку на основе производительности модели на наборе разработки.Наша модель реализована в PyTorch.Мы представляем два варианта нашего подхода: (а) AE+Att+Copy использует модели Condense и Abstract, описанные выше, но без извлечений, смещенных по значимости, тогда как (b) AE+Att+Copy+Salient включает их.Далее мы сравнили наш подход с двумя типами методов: однопроходными методами и методами, использующими структуру EA.К полностью извлекающим методам относятся (c) LexRank BIBREF38, алгоритм суммирования, подобный PageRank, который генерирует сводку путем выбора $n$ наиболее важных единиц до тех пор, пока не будет достигнута длина целевой сводки; (d) SubModular BIBREF39, контролируемый подход к обучению для обучения субмодульным функциям оценки для извлеченного обобщения нескольких документов; (e) Opinosis BIBREF6 — абстрактное суммирующее устройство на основе графиков, которое генерирует краткие изложения весьма избыточных мнений; и (f) SummaRunner BIBREF33.Методы на основе EA включают (g) Regress+S2S BIBREF16, реализацию структуры EA, в которой модель гребневой регрессии с созданными вручную функциями реализует модель Extract, а нейронная сеть последовательности-последовательности, основанная на внимании, представляет собой абстрактную модель. ; (h) SummaRunner+S2S, наша реализация системы на основе EA, которая использует SummaRunner вместо Regress в качестве модели извлечения; и (i) SummaRunner+S2S+Copy, та же модель, что и (h), но дополненная механизмом копирования BIBREF32.Для всех систем на базе EA мы устанавливаем $k=5$, что настраивается на наборе разработки.Увеличение $k$ приводит к ухудшению производительности, возможно, потому, что абстрактную модель становится сложнее оптимизировать.Мы рассмотрели две оценочные метрики, которые также представлены в BIBREF16: METEOR BIBREF40, метрика, ориентированная на запоминание, которая вознаграждает за совпадение основ, синонимов и парафраз, и ROUGE-SU4 BIBREF41, которая рассчитывается как запоминание униграмм и пропущенных биграмм до четырех. слова.Мы также сообщаем F1 для ROUGE-1, ROUGE-2 и ROUGE-L, которые широко используются при обобщении BIBREF41.Они соответственно измеряют перекрытие слов, перекрытие биграмм и самую длинную общую подпоследовательность между справочником и системными сводками.Наши результаты представлены в таблице TABREF28.В первом блоке показаны однопроходные системы, как контролируемые (SubModular, SummaRunner), так и неконтролируемые (LexRank, Opinosis).Мы видим, что SummaRunner — лучшая система в этом блоке; Несмотря на свою экстрактивность, он извлекает выгоду из обучающих данных и способности нейронных моделей изучать представления для конкретных задач.Второй блок в таблице TABREF28 показывает несколько двухпроходных абстракционных систем, основанных на структуре EA.Наша реализация системы на основе EA, SummaRunner+S2S+Copy, превосходит чисто извлекающую систему SummaRunner и ранее заявленную лучшую систему на основе EA, Regress+S2S. В третьем блоке представлены две модели с использованием предложенной структуры CA.Обе системы превосходят все другие модели по всем показателям; AE+Att+Copy+Salient — лучшая модель в целом, которая использует информацию обо всех документах, в том числе о наиболее важных.Помимо автоматической оценки, мы также оценивали результаты работы системы, выявляя человеческие суждения.Участники сравнили сводки, созданные на основе лучшей экстрактивной базовой линии (SummaRunner) и лучших систем на основе EA и CA (SummaRunner+S2S+Copy и AE+Att+Copy+Salient соответственно).В качестве верхней границы мы также включили сводки по золотому стандарту.Исследование проводилось на платформе Amazon Mechanical Turk с использованием шкалы Best-Worst Scaling (BWS; BIBREF42), менее трудоемкой альтернативы парным сравнениям, которая, как было показано, дает более надежные результаты, чем рейтинговые шкалы BIBREF43.В частности, участникам было показано название фильма и основная справочная информация (например, краткий обзор, год выпуска, жанр, режиссер и актерский состав).Им также были представлены три системных резюме и предложено выбрать среди них лучшее и худшее по информативности (т. е. передает ли резюме в сжатой форме мнения о конкретных аспектах фильма?), корректности (т. е. является ли информация аннотация фактически точна и соответствует ли она информации, данной о фильме?), а также грамматичность (т. е. является ли аннотация беглой и грамматической?).Примеры сводных данных о системе показаны на рисунках FigREF1 и FigREF37.Мы случайным образом выбрали 50 фильмов из тестовой выборки и сравнили все возможные комбинации сводных троек для каждого фильма.Мы собрали по три суждения для каждого сравнения.Порядок резюме и фильмов был случайным для каждого участника.Оценка системы рассчитывалась как процент случаев, когда она была выбрана как лучшая, минус процент случаев, когда она была выбрана как худшая.Оценки варьируются от -1 (худший) до 1 (лучший) и показаны в таблице TABREF36.Возможно, неудивительно, что сводки золота, созданные человеком, были признаны лучшими, тогда как наша модель (AE+Att+Copy+Salient) заняла второе место, что указывает на то, что люди находят ее результаты более информативными, правильными и грамматическими по сравнению с другими системами.SummaRunner занял третье место, за ним следует SummaRunner+S2S+Copy.Мы проверили сводки, созданные последней системой, и обнаружили, что они фактически неверны и мало соответствуют фильму (примеры показаны на рисунке FigREF37), возможно, из-за огромных потерь информации на этапе извлечения.Все попарные системные различия статистически значимы при использовании однофакторного дисперсионного анализа с апостериорными тестами Тьюки HSD ($p <0,01$). Далее мы оценили способность систем на основе CA генерировать индивидуальные сводки во время тестирования.Как обсуждалось ранее, настройка во время тестирования не всегда возможна для систем на базе EA, и в результате мы не можем сравнивать их с ними.Вместо этого мы оцениваем две системы на основе CA, а именно AE+Att+Copy и AE+Att+Copy+Salient.Подобно системам на основе EA, последние смещают формирование сводок в сторону $k$ наиболее значимых извлеченных мнений с использованием дополнительного модуля извлечения, который может не содержать информацию, соответствующую потребностям пользователя (в наших экспериментах мы установили $k=5$).Таким образом, мы ожидаем, что эта модель будет менее эффективной для настройки, чем AE+Att+Copy, которая не делает предположений относительно того, какие сводки следует учитывать.В этом эксперименте мы предполагаем, что пользователи могут захотеть контролировать выходные сводки четырьмя способами, уделяя особое внимание актерским и сюжетным аспектам обзора фильма, а также его настроению, которое может быть положительным или отрицательным.Пусть Cust($x$) — это метод настройки с нулевым выстрелом, обсуждавшийся в предыдущем разделе, где $x$ — это информационная потребность (т. е. игра, сюжет, положительная или отрицательная).Мы выбрали небольшой набор обзорных обзоров $C_x$ ($|C_x|$=1000) из 1 миллиона обзоров, охватывающих 7500 фильмов с веб-сайта Rotten Tomatoes, доступных в BIBREF29.Обзоры содержат метки настроений, предоставленные их авторами, и эвристически классифицированные метки аспектов.Затем мы запустили Cust($x$), используя модели AE+Att+Copy и AE+Att+Copy+Salient.На рисунке FigREF37 мы показываем индивидуальные сводки, созданные с помощью двух моделей.Чтобы определить, какая система лучше поддается настройке, мы снова провели исследование по выявлению суждений об AMT.Участники читают резюме, созданное с помощью системы общего назначения или ее индивидуального варианта.Затем их попросили решить, является ли резюме общим или фокусируется на конкретном аспекте (сюжете или актерской игре) и выражает ли оно положительные, отрицательные или нейтральные чувства.Мы выбрали 50 фильмов (из тестовой выборки), которые получили неоднозначные отзывы и собрали мнения трех разных участников по каждому резюме.Резюме были представлены в случайном порядке каждому участнику.В таблице TABREF40 показано, что участники думают о сводках, созданных ненастроенными системами (см. столбец «Нет») и системами, в которых включена настройка (см. столбец «Да»).В целом мы видим, что AE+Att+Copy позволяет в значительной степени настраивать сводки.Во всех случаях краудворкеры отмечают значительное увеличение доли аспекта $x$ при использовании Cust($x$).AE+Att+Copy+Salient не может создавать сводки по конкретным потребностям, поэтому нет заметной разницы между общими и индивидуальными сводками.Это показывает, что использование экстрактивного модуля, который используется в качестве одного из основных компонентов подходов на основе EA, ограничивает гибкость абстрактной модели для настройки сводных данных в соответствии с потребностями пользователя.Мы предложили структуру Condense-Abstract (CA) для обобщения мнений.Как автоматическая, так и человеческая оценка показывают, что подходы, основанные на СА, дают более информативные и фактически правильные сводки по сравнению с чисто экстрактивными моделями и моделями, включающими этап предварительного отбора экстрактивных сводок.Мы также показываем, что простой метод настройки с нуля позволяет генерировать сводки на основе аспектов и настроений во время тестирования.В будущем мы планируем применять подходы на основе CA к другим задачам и областям обобщения нескольких документов.Также было бы интересно изучить неконтролируемый или полуконтролируемый подход, при котором обзоры доступны, но отсутствуют (или лишь некоторые) сводные данные, соответствующие «золотому стандарту». | Обобщение мнений — это задача автоматического создания сводок для набора мнений о конкретной цели (например, фильме или продукте). Поскольку количество входных документов может быть непомерно большим, методы на основе нейронных сетей жертвуют сквозной элегантностью и следуют двухэтапному подходу, при котором экстрактивная модель сначала предварительно выбирает подмножество важных мнений, а абстрактная модель создает резюме. при обработке извлеченного подмножества. Однако стадия извлечения приводит к потере информации и негибкости возможностей генерации. В этой статье мы предлагаем структуру реферирования, которая устраняет необходимость предварительного выбора значимого контента. Мы рассматриваем обобщение мнений как пример преобразования из нескольких источников и используем все входные документы, объединяя их в несколько плотных векторов, которые служат входными данными для абстрактной модели. Помимо создания более информативных сводок, мы демонстрируем, что наш подход позволяет учитывать предпочтения пользователей на основе простой техники настройки с нуля. Результаты экспериментов показывают, что наша модель значительно улучшает современное состояние набора данных Rotten Tomatoes и эффективно генерирует настраиваемые сводки. | 4,492 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Изучение представлений эмоциональной речи с помощью глубоких сверточных генеративно-состязательных сетей. Машинное обучение в целом и аффективные вычисления в частности полагаются на хорошее представление данных или функции, которые обладают хорошей дискриминационной способностью в экспериментах по классификации и регрессии, таких как распознавание эмоций по речи.Чтобы получить эффективные представления данных, исследователи приняли две основные стратегии: (1) тщательно разработанные и адаптированные экстракторы функций, предназначенные для конкретной задачи BIBREF0, и (2) алгоритмы, которые автоматически изучают представления из самих данных BIBREF1.Последний подход называется «Обучение представлений» (RL), в последние несколько лет ему уделяется все больше внимания, и он в значительной степени зависит от больших объемов данных.Большинство подходов к распознаванию эмоций по речи по-прежнему основаны на извлечении стандартных акустических характеристик, таких как высота звука, мерцание, дрожание и MFCC (кепстральные коэффициенты Mel-Frequency), за некоторыми заметными исключениями BIBREF2, BIBREF3, BIBREF4, BIBREF5.В этой работе мы используем стратегии RL и автоматически изучаем представления эмоциональной речи из спектрограммы напрямую, используя архитектуру глубокой сверточной нейронной сети (CNN).Чтобы научиться четкому представлению речи, мы стремимся использовать как можно больше данных.Однако аннотации эмоций трудно получить и мало BIBREF6 .Мы используем набор данных USC-IEMOCAP, который включает около 12 часов очень эмоциональных и частично сыгранных данных от 10 докладчиков BIBREF7.Тем не менее, мы стремимся улучшить усвоенные представления эмоциональной речи с помощью немаркированных речевых данных из несвязанного корпуса собраний, который состоит примерно из 100 часов данных BIBREF8.Хотя корпус собраний качественно сильно отличается от высокоэмоциональных данных USC-IEMOCAP, мы считаем, что усвоенные представления улучшатся за счет использования этих дополнительных данных.Эта комбинация двух отдельных источников данных приводит к задаче машинного обучения с полуконтролем, и мы расширяем архитектуру CNN до глубокой сверточной генеративной нейронной сети (DCGAN), которую можно обучать без присмотра BIBREF9.В этой работе мы в первую очередь ставим эмоциональную валентность в качестве основной задачи, поскольку в ряде исследований BIBREF10, BIBREF11 было показано, что она является наиболее сложным эмоциональным измерением для акустического анализа.Помимо исключительно нацеленной на валентную классификацию, мы дополнительно исследуем принцип многозадачного обучения.При многозадачном обучении изучается набор связанных задач (например, эмоциональная активация) вместе с основной задачей (например, эмоциональная валентность); обе задачи совместно используют части топологии сети и, следовательно, обучаются совместно, как показано на рисунке FigREF4.Ожидается, что данные для вторичной задачи моделируют информацию, которая также будет иметь различительное значение при изучении основной задачи.Фактически было показано, что этот подход улучшает возможность обобщения по всем корпусам BIBREF12.Остальная часть статьи организована следующим образом:Сначала мы представим модель DCGAN и обсудим предыдущую работу в разделе SECREF2.Затем мы опишем нашу конкретную многозадачную модель DCGAN в разделе SECREF3, представим наборы данных в разделе SECREF4 и опишем наш экспериментальный план в разделе SECREF5.Наконец, мы сообщаем о наших результатах в разделе SECREF6 и обсуждаем наши выводы в разделе SECREF7. Предлагаемая модель основана на предыдущих результатах в области распознавания эмоций и использует предыдущую работу по обучению представлению.Многозадачное обучение оказалось эффективным в некоторых предыдущих экспериментах по обнаружению эмоций.В частности, Ся и Лю предложили многозадачную модель распознавания эмоций, которая, как и исследуемая модель, имеет активацию и валентность в качестве целей BIBREF13.В их работе используется архитектура Deep Belief Network (DBN) для классификации эмоций от аудиовхода, при этом валентность и активация являются второстепенными задачами.Их эксперименты показывают, что использование многозадачного обучения повышает невзвешенную точность задачи классификации эмоций.Как и Ся и Лю, предлагаемая модель использует многозадачное обучение с валентностью и активацией в качестве целей.Однако в отличие от них нас в первую очередь интересует не классификация эмоций, а классификация валентностей как первоочередная задача.Таким образом, в нашей многозадачной модели валентность является основной целью, а активация — вторичной.Кроме того, хотя в наших экспериментах используется база данных IEMOCAP, как это делают Ся и Лю, наш метод разделения говорящих отличается от их.Ся и Лю используют схему перекрестной проверки «один выступающий отсутствует» с отдельными обучающими и тестовыми наборами, в которых нет перекрытия говорящих.В этом методе отсутствует отдельный набор проверок; вместо этого они проверяют и тестируют один и тот же набор.Наша экспериментальная установка, с другой стороны, разделяет данные на отдельные обучающие, проверочные и тестовые наборы, при этом без перекрытия говорящих.Более подробно это описано в разделе SECREF5. Часть исследуемой модели с неконтролируемым обучением основана на архитектуре, известной как глубокая сверточная генеративная состязательная сеть или DCGAN.DCGAN состоит из двух компонентов, известных как генератор и дискриминатор, которые обучаются друг против друга в минимаксной установке.Генератор учится сопоставлять выборки из случайного распределения с выходными матрицами некоторой заранее заданной формы.Дискриминатор принимает входные данные, которые являются либо выходными данными генератора, либо «реальной» выборкой из набора данных.Дискриминатор учится классифицировать входные данные как сгенерированные или реальные BIBREF9. Для обучения дискриминатор использует функцию перекрестных энтропийных потерь на основе того, сколько входных данных было правильно классифицировано как реальные и сколько было правильно классифицировано как сгенерированные.Перекрестная потеря энтропии между истинными метками INLINEFORM0 и прогнозами INLINEFORM1 определяется как: DISPLAYFORM0, где INLINEFORM0 — изученный вектор весов, а INLINEFORM1 — количество выборок.Для целей этого расчета метки представлены в виде числовых значений 1 для реальных и 0 для сгенерированных.Затем, если INLINEFORM2 представляет прогнозы дискриминатора для всех реальных входных данных, перекрестная энтропия для правильных прогнозов «реального» упрощается до: INLINEFORM3 Потому что в этом случае все правильные прогнозы — это единицы.Аналогично, если INLINEFORM0 представляет прогнозы дискриминатора для всех сгенерированных входных данных, перекрестная энтропия для правильных прогнозов «сгенерированных» упрощается до: INLINEFORM1 Потому что здесь все правильные прогнозы равны нулю.Общие потери для дискриминатора определяются суммой двух предыдущих членов INLINEFORM0. Генератор также использует перекрестную энтропийную потерю, но ее потеря определяется количеством сгенерированных выходных данных, которые были неправильно классифицированы как реальные:INLINEFORM0 Таким образом, потери генератора становятся тем меньше, чем лучше он способен выдавать выходные данные, которые дискриминатор считает реальными.Это приводит к тому, что генератор в конечном итоге выдает выходные данные, которые выглядят как реальные образцы речи, при условии достаточного количества обучающих итераций.Исследуемая модель многозадачности основана на архитектуре DCGAN, описанной в разделе SECREF2, и реализована в TensorFlow.Для классификации эмоций к последнему сверточному слою дискриминатора DCGAN присоединяется полносвязный слой.Выходные данные этого слоя затем передаются на два отдельных полностью связанных слоя, один из которых выводит валентную метку, а другой — метку активации.Эта установка визуально показана на рисунке FigREF4.Благодаря этой настройке модель может использовать преимущества немаркированных данных во время обучения, пропуская их через слои DCGAN в модели, а также может использовать преимущества многозадачного обучения и одновременно обучать выходные данные валентности и активации.В частности, модель обучается путем итеративного запуска генератора, дискриминатора, классификатора валентности и классификатора активации и обратного распространения ошибки для каждого компонента через сеть.Функции потерь для генератора и дискриминатора не изменяются и остаются такими, как показано в разделе SECREF2.И валентный классификатор, и классификатор активации используют перекрестную энтропийную потерю, как в уравнении EQREF2.Классификаторы валентности и активации используют общие слои с дискриминатором. Модель изучает функции и сверточные фильтры, которые эффективны для задач валентной классификации, классификации активации и различения реальных и сгенерированных выборок.Из-за полуконтролируемого характера предлагаемой многозадачной модели DCGAN мы используем как помеченные, так и неразмеченные данные.Для немаркированных данных мы используем аудио из наборов данных AMI BIBREF8 и IEMOCAP BIBREF7.Для помеченных данных мы используем аудио из набора данных IEMOCAP, который поставляется с метками для активации и валентности, измеренными по 5-балльной шкале Лайкерта от трех разных аннотаторов.Хотя IEMOCAP предоставляет метки активации и валентности для каждого слова, на практике эти метки обычно не меняются со временем в данном аудиофайле, поэтому для простоты мы маркируем каждый аудиоклип средней валентностью и активацией.Поскольку валентность и активация измеряются по 5-балльной шкале, метки кодируются 5-элементными горячими векторами.Например, валентность 5 представлена вектором INLINEFORM0.Горячее кодирование можно рассматривать как распределение вероятностей, представляющее вероятность того, что правильная метка будет иметь определенное значение.Таким образом, в случаях, когда аннотаторы не согласны с меткой валентности или активации, это можно представить путем присвоения вероятностей множественным позициям в векторе метки.Например, метка 4,5 концептуально означает, что «правильная» валентность равна 4 или 5 с равной вероятностью, поэтому соответствующий вектор будет INLINEFORM1 .Было показано, что эти «нечеткие метки» улучшают эффективность классификации в ряде приложений BIBREF14, BIBREF15.Здесь следует отметить, что мы, как правило, добились большего успеха с этим методом нечетких меток, чем обучение модели нейронной сети непосредственно на валентной метке, т. е. задача классификации по сравнению с регрессией.Предварительная обработка.Аудиоданные подаются в сетевые модели в виде спектрограмм.Спектрограммы рассчитываются с использованием кратковременного преобразования Фурье с размером окна 1024 отсчета, что при частоте дискретизации 16 кГц эквивалентно 64 мс.Каждая спектрограмма имеет высоту 128 пикселей и представляет диапазон частот 0–11 кГц.Из-за различной длины аудиофайлов IEMOCAP спектрограммы различаются по ширине, что создает проблему для пакетного процесса обучения нейронной сети.Чтобы компенсировать это, модель случайным образом обрезает область каждой входной спектрограммы.Ширина обрезки определяется заранее.Чтобы гарантировать, что выбранная область обрезки содержит хотя бы некоторые данные (т.е. не является полностью тишиной), обрезка происходит с использованием следующей процедуры: выбирается случайное слово в расшифровке аудиофайла и ищется соответствующий временной диапазон.В этом временном диапазоне выбирается случайная точка, которая затем рассматривается как центральная линия кадрирования.Затем выполняется обрезка с использованием области, определяемой центральной линией и шириной обрезки.Вначале мы обнаружили, что существует заметный дисбаланс в метках валентности для данных IEMOCAP, поскольку метки сильно смещаются в сторону нейтрального (2-3) диапазона.Чтобы предотвратить переподгонку модели к этому распределению во время обучения, мы нормализуем обучающие данные путем избыточной выборки недостаточно представленных данных валентности, так что общее распределение меток валентности становится более равномерным.Исследуемые модели.Мы исследуем влияние как немаркированных данных для улучшения эмоциональной речевой репрезентации, так и многозадачного обучения на эффективность классификации эмоциональной валентности.С этой целью мы сравнили четыре различные модели нейронных сетей: BasicCNN представляет собой классификатор валентности с «минимальным минимумом» и, таким образом, устанавливает нижнюю границу ожидаемой производительности.Сравнение с MultitaskCNN указывает на эффект включения второстепенной задачи, т.е. распознавание эмоциональной активации.Сравнение с BasicDCGAN указывает на эффект включения неразмеченных данных во время обучения.Справедливости ради отметим, что архитектуры всех трех базовых версий основаны на полной модели MultitaskDCGAN.Например, BasicDCGAN — это просто модель MultitaskDCGAN с удаленным слоем активации, в то время как две полностью контролируемые базовые линии были построены путем взятия сверточных слоев из компонента дискриминатора MultitaskDCGAN и добавления полностью связанных слоев для выходных данных валентности и активации.В частности, дискриминатор содержит четыре сверточных слоя; явного объединения в пул нет, но размер шага ядра равен 2, поэтому размер изображения уменьшается вдвое на каждом шаге.Таким образом, по замыслу все четыре модели имеют одну и ту же сверточную структуру.Это сделано для того, чтобы потенциальный прирост производительности был обусловлен не большей сложностью или большим количеством обучаемых весов в моделях DCGAN, а, скорее, результатом улучшенного представления речи.Экспериментальная процедура.Параметры для каждой модели, включая размер пакета, размер фильтра (для свертки) и скорость обучения, были определены путем случайной выборки различных комбинаций параметров, обучения модели с этими параметрами и вычисления точности на заданном проверочном наборе.Для каждой модели мы сохранили параметры, обеспечивающие максимальную точность на оставшемся наборе.Эта процедура гарантирует, что каждая модель будет справедливо представлена во время оценки.Наши гиперпараметры включали ширину обрезки входного сигнала INLINEFORM0, размеры фильтра сверточного слоя INLINEFORM1 (где INLINEFORM2 — выбранная ширина обрезки, которая делится на 8, чтобы учесть каждое уменьшение размера изображения пополам от трех сверточных слоев, ведущих к последнему). ), количество сверточных фильтров INLINEFORM3 (размер шага 4), размер пакета INLINEFORM4 и скорость обучения INLINEFORM5 .Идентифицированные параметры для каждой модели показаны в таблице TABREF9. Для оценки мы использовали 5-кратную проверку с исключением одного сеанса.Каждый сгиб полностью исключает один из пяти сеансов в помеченных данных IEMOCAP из обучающего набора.В этом пропущенном разговоре звук одного говорящего используется в качестве проверочного набора, а звук другого говорящего — в качестве тестового набора.Для каждого сгиба процедура оценки следующая: оцениваемая модель обучается на обучающем наборе, и после каждого полного прохождения обучающего набора точность вычисляется на проверочном наборе.Этот процесс продолжается до тех пор, пока не будет обнаружено, что точность набора проверки больше не увеличивается; другими словами, мы находим локальный максимум точности проверки.Чтобы повысить уверенность в том, что этот локальный максимум действительно отражает наилучшую производительность модели, мы продолжаем выполнять больше итераций после обнаружения локального максимума и ищем 5 последовательных итераций с более низкими значениями точности.Если в ходе этих 5 итераций будет найдено более высокое значение точности, это рассматривается как новый локальный максимум и поиск возобновляется с этого момента.Как только таким образом будет найдено наилучшее значение точности, мы восстанавливаем веса модели до значений итерации, соответствующей наилучшей точности, и оцениваем точность на тестовом наборе.Мы оценивали каждую модель по всем 5 сгибам, используя описанную выше методологию, записывая точность теста для каждой складки.Стратегия оценки.Мы собрали несколько статистических данных о производительности наших моделей.Нас в первую очередь интересовала невзвешенная точность по классам.Кроме того, мы преобразовали выходные данные сети из вероятностных распределений обратно в числовые метки, взяв ожидаемое значение; то есть: INLINEFORM0, где INLINEFORM1 — это прогноз модели в исходной форме в виде 5-элементного векторного распределения вероятностей.Затем мы использовали это для вычисления корреляции Пирсона (мера INLINEFORM2) между прогнозируемыми и фактическими метками.Для получения точных измерений потребовалась некоторая предварительная обработка.В частности, в тех случаях, когда люди-аннотаторы совершенно не разделялись во мнениях о том, какой должна быть правильная метка для конкретного образца, обе возможности следует принимать как правильные предсказания.Например, если правильная метка равна 4,5 (векторная форма INLINEFORM0), правильный прогноз может быть либо 4, либо 5 (т. е. максимальный индекс в выходном векторе должен быть либо 4, либо 5). Вышеуказанные меры относятся к 5-точечному шкала маркировки, согласно которой данные IEMOCAP изначально маркируются.Однако в предыдущих экспериментах эффективность классификации валентности оценивалась по 3-балльной шкале BIBREF16.Авторы приводят пример этого: уровни валентности 1 и 2 объединены в одну «негативную» категорию, уровень валентности 3 остается нетронутым как «нейтральная» категория, а уровни валентности 4 и 5 объединены в одну «положительную» категорию. категория.Таким образом, чтобы обеспечить возможность сравнения с нашими моделями, мы также сообщаем результаты по такой 3-балльной шкале.Мы строим эти результаты, взяв результаты сравнения 5 классов и объединив их, как только что описано.В таблице TABREF10 показаны невзвешенные точности для каждого класса и коэффициенты корреляции Пирсона (значения INLINEFORM0) между фактическими и прогнозируемыми метками для каждой модели.Все показанные значения являются средними значениями по тестовым наборам для всех 5 кратностей.Результаты показывают, что использование обучения без учителя приводит к явному улучшению производительности.И BasicDCGAN, и MultitaskDCGAN имеют значительно лучшую точность и линейную корреляцию по сравнению с полностью контролируемыми моделями CNN.Это убедительный признак того, что использование больших объемов речевых данных, не связанных с задачей, улучшило обучение фильтра на уровнях CNN дискриминатора DCGAN.С другой стороны, многозадачное обучение, по-видимому, не оказывает положительного влияния на производительность.Сравнивая две модели CNN, добавление многозадачного обучения фактически ухудшает производительность: MultitaskCNN работает хуже, чем BasicCNN, по всем трем показателям.Разница меньше при сравнении BasicDCGAN и MultitaskDCGAN, и ее может быть недостаточно, чтобы сделать окончательный вывод о том, что использование многозадачного обучения имеет чистый отрицательный эффект, но определенно нет никаких признаков чистого положительного воздействия.Наблюдаемая производительность как BasicDCGAN, так и MultitaskDCGAN с использованием 3-классов сопоставима с современной производительностью: 49,80% по сравнению с 49,99%, указанными в BIBREF16.Следует отметить, что в BIBREF16 при обучении модели использовались данные партнера по сессии тестируемого докладчика.Наши модели, напротив, обучаются только на четырех из пяти сеансов, как описано в SECREF5.Кроме того, представленные здесь модели обучаются на необработанных спектрограммах звука, и никакое извлечение признаков не использовалось.Этот подход к обучению представлению используется для того, чтобы позволить компоненту модели DCGAN обучаться на огромных объемах неконтролируемых речевых данных.Далее мы сообщаем о матрице путаницы наиболее эффективной модели BasicDCGAN в таблице TABREF11.Отмечается, что лучшим классом считается «негативный» класс (т.е. второй ряд).Однако оказывается, что этот класс выбирается моделью чаще, что приводит к высокой полноте = 0,7701 и низкой точности = 0,3502.Класс с наивысшим баллом F1 является «очень положительным» (т. е. последней строкой) с INLINEFORM0 .Путаница «очень отрицательной» валентности с «очень положительной» валентностью в верхнем правом углу интересна и наблюдалась ранее BIBREF4.Мыисследовали использование обучения без присмотра и многозадачности для улучшения работы классификатора эмоциональной валентности.В целом мы обнаружили, что обучение без учителя значительно повышает точность классификации задачи распознавания эмоциональной валентности.Самая эффективная модель достигает 43,88% в случае 5-класса и 49,80% в случае 3-класса со значительной корреляцией Пирсона между непрерывной целевой меткой и прогнозом INLINEFORM0 ( INLINEFORM1 ).Нет никаких признаков того, что многозадачное обучение дает какое-либо преимущество.Результаты многозадачного обучения несколько удивительны.Возможно, задачи классификации валентности и активации недостаточно связаны для многозадачного обучения, чтобы обеспечить повышение точности.Альтернативно, для работы многозадачного обучения может потребоваться другая архитектура нейронной сети.Кроме того, стратегия поочередного обновления, использованная в настоящей работе, возможно, не была оптимальной стратегией для обучения.Итеративная смена валентности/активации целевых задач могла привести к нестабильности обновлений весов алгоритма обратного распространения ошибки.Могут быть и другие объяснения; может потребоваться дальнейшее расследование.Наконец, важно отметить, что производительность этой модели только приближается к современной, в которой используются потенциально более подходящие последовательные классификаторы, такие как сети с длинной краткосрочной памятью (LSTM) BIBREF17.Однако базовые LSTM не подходят для обучения на полностью неконтролируемых данных, которые мы использовали для предлагаемых моделей DCGAN.В будущей работе мы надеемся адаптировать технику использования немаркированных данных к последовательным моделям, включая LSTM.Мы ожидаем, что объединение нашей работы с преимуществами последовательных моделей может привести к дальнейшему увеличению производительности, которая может быть более конкурентоспособной по сравнению с ведущими сегодня моделями и потенциально превзойти их.Для целей данного исследования ключевым выводом является то, что использование обучения без учителя дает явный прирост производительности при выполнении задачи классификации эмоциональной валентности и что это представляет собой метод, который можно адаптировать к другим моделям для достижения еще более высокой точности классификации. | Автоматическая оценка эмоциональной валентности человеческой речи исторически была сложной задачей для алгоритмов машинного обучения. Тонкие изменения голоса говорящего, указывающие на положительное или отрицательное эмоциональное состояние, часто «затмеваются» характеристиками голоса, связанными с эмоциональной интенсивностью или эмоциональной активацией. В этой работе мы исследуем подход к обучению представлениям, который автоматически выводит различительные представления эмоциональной речи. В частности, мы исследуем две стратегии машинного обучения для повышения производительности классификатора: (1) использование немаркированных данных с использованием глубокой сверточной генеративно-состязательной сети (DCGAN) и (2) многозадачное обучение. В наших обширных экспериментах мы используем многозадачный аннотированный эмоциональный корпус, а также большой немаркированный корпус совещаний (около 100 часов). Наши эксперименты по классификации, не зависящей от говорящего, показывают, что, в частности, использование немаркированных данных в наших исследованиях улучшает производительность классификаторов, и оба полностью контролируемых базовых подхода значительно превосходят их по эффективности. Мы улучшаем классификацию эмоциональной валентности по дискретной 5-балльной шкале до 43,88% и по 3-балльной шкале до 49,80%, что является конкурентоспособным по сравнению с современными показателями. | 3,241 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Автоматическая классификация отчетов о патологии с использованием функций TF-IDF. Рак является одной из ведущих причин смертности в мире: в 2017 году в Канаде было зарегистрировано более 80 000 смертей (Canadian Cancer Статистика 2017).Компьютерная система диагностики рака обычно включает в себя патологоанатома, предоставляющего описательный отчет после изучения предметных стекол ткани, полученных в результате биопсии пациента.Отчет о патологии содержит специфический анализ клеток и тканей, а также другие гистопатологические показатели, которые имеют решающее значение для диагностики злокачественных новообразований.Лаборатория среднего размера может ежегодно составлять большое количество отчетов о патологиях (например, более 50 000), но эти отчеты написаны в основном неструктурированным текстом и без прямой связи с образцом ткани.Кроме того, отчет для каждого пациента представляет собой персонализированный документ и предлагает очень большую вариативность терминологии из-за отсутствия стандартов и может даже включать орфографические ошибки и отсутствующие знаки препинания, клинические диагнозы, перемежающиеся сложными объяснениями, различную терминологию для обозначения одного и того же злокачественного новообразования, а также информацию о множественные проявления карциномы включены в один отчет BIBREF0.InВ Канаде каждый провинциальный и территориальный онкологический регистр (PTCR) отвечает за сбор данных о раковых заболеваниях и передачу их в Статистическое управление Канады (StatCan).Ежегодно Канадский онкологический регистр (CCR) использует источники информации StatCan для составления годового отчета о раке и опухолевых заболеваниях.Во многих странах существуют свои собственные программы регистрации рака.Эти программы основаны на получении информации о диагностике, лечении и результатах посредством ручной обработки и интерпретации из различных неструктурированных источников (например, отчетов о патологии, отчетов о вскрытиях/лабораторных исследованиях, сводок медицинских счетов).Ручная классификация отчетов о онкологических патологиях является сложной, трудоемкой задачей и требует тщательного обучения BIBREF0. В условиях продолжающегося роста числа онкологических больных и усложнения лечения раковые регистры сталкиваются с серьезной проблемой при ручном анализе больших объемов данных. количество отчетов BIBREF1 , BIBREF0 .В этой ситуации системы обработки естественного языка (NLP) могут предложить уникальную возможность автоматического кодирования неструктурированных отчетов в структурированные данные.Поскольку реестры уже имеют доступ к большому количеству исторически помеченных и закодированных отчетов, подход контролируемого машинного обучения для извлечения и классификации признаков является убедительным направлением для повышения эффективности и оптимизации их рабочего процесса.В случае успеха такое решение позволит обрабатывать отчеты за гораздо меньшее время, позволяя обученному персоналу сосредоточиться на своих исследованиях и анализе.Однако разработка автоматизированного решения с высокой точностью и согласованностью для широкого спектра отчетов является сложной задачей.Для онкологических регистров важной информацией в отчете о патологии является соответствующий код МКБ-О, который описывает гистологический диагноз пациента, как описано в Международной классификации онкологических заболеваний BIBREF2 Всемирной организации здравоохранения (ВОЗ).Прогнозирование первичного диагноза на основе отчета о патологии обеспечивает ценную отправную точку для изучения методов машинного обучения для автоматического наблюдения за раком.Основным применением для этой цели может стать «автоотчетность», основанная на анализе изображений целых слайдов, а также оцифровка стекол для биопсии.Структурированные, обобщенные и классифицированные отчеты можно связать с содержимым изображения при поиске в больших архивах.Такая система сможет радикально повысить эффективность диагностических процессов в большинстве случаев, когда, несмотря на очевидный первичный диагноз, от патологоанатомов все же требуется время и усилия для написания описательного отчета.Основная цель нашего исследования — проанализировать эффективность существующих подходов машинного обучения для автоматической классификации отчетов о патологиях по различным категориям диагнозов.Мы демонстрируем, что векторы признаков TF-IDF в сочетании с линейным классификатором SVM или XGBoost могут быть эффективным методом классификации отчетов, достигая точности до 83%.Мы также показываем, что функции TF-IDF способны идентифицировать важные ключевые слова в отчете о патологии.Кроме того, мы создали новый набор данных, состоящий из 1949 отчетов о патологиях по 37 основным диагнозам.В совокупности наши исследовательские эксперименты с недавно представленным набором данных по отчетам о патологии открывают перед исследователями множество новых возможностей для разработки масштабируемого и автоматического извлечения информации из неструктурированных отчетов о патологии.Подходы НЛП для извлечения информации в областях биомедицинских исследований варьируются от систем на основе правил BIBREF3 до предметно-ориентированных систем, использующих классификацию на основе признаков BIBREF1, до новейших глубоких сетей для сквозного извлечения признаков и классификации BIBREF0.НЛП имело разную степень успеха с отчетами о патологии в виде свободного текста BIBREF4.Различные исследования подтверждают успех НЛП в интерпретации отчетов о патологии, особенно для задач классификации или извлечения одного атрибута из отчета BIBREF4, BIBREF5. Система извлечения текстовой информации о раке (caTIES) BIBREF6 — это структура, разработанная в рамках проекта caBIG, ориентированная на информацию. извлечение данных из отчетов о патологии.В частности, CATIES извлекает информацию из отчетов о хирургической патологии (SPR) с хорошей точностью, а также с возможностью воспроизведения.Другая система, известная как Open Registry BIBREF7, способна фильтровать отчеты с кодами заболеваний, содержащими рак.В BIBREF8 предлагается подход под названием «Автоматическая поисковая консоль» (ARC), который использует модели машинного обучения для прогнозирования степени связи данной патологии или радиологии с раком.Эффективность варьируется от F-меры 0,75 для рака легких до 0,94 для колоректального рака.Однако ARC использует правила, специфичные для предметной области, которые скрываются за обобщением подхода к разнообразным отчетам о патологиях.Эта исследовательская работа вдохновлена темами, возникающими во многих из вышеупомянутых исследований.В частности, мы оцениваем задачу прогнозирования первичного диагноза на основании заключения о патологии.В отличие от предыдущих подходов, система не полагается на специальные знания на основе правил, особенности предметной области, сбалансированный набор данных с меньшим количеством классов.Мы собрали набор данных из 1949 отчетов об очищенных патологиях.Каждый отчет связан с одним из 37 различных первичных диагнозов на основе кодов IDC-O.Отчеты собираются из четырех разных частей тела или основных участков от нескольких пациентов.Распределение отчетов по различным первичным диагнозам и первичным центрам указано в вкладке tab:report-distribution.Набор данных был разработан в три этапа следующим образом.Сбор отчетов о патологиях: из набора данных NCI Genomic Data Commons (GDC) в общей сложности было загружено 11 112 отчетов о патологиях в формате PDF BIBREF9.Из всех PDF-файлов было выбрано 1949 отчетов по нескольким пациентам из четырех конкретных основных мест — тимуса, яичка, легких и почек.Выбор в первую очередь был сделан на основе качества PDF-файлов.Очистка отчетов. Следующим шагом было извлечение текстового содержимого из этих отчетов.Из-за значительных затрат времени на повторный ввод всех отчетов о патологии вручную мы разработали новую стратегию подготовки нашего набора данных.Мы применили программное обеспечение оптического распознавания символов (OCR) для преобразования отчетов PDF в текстовые файлы.Затем мы вручную проверили все сгенерированные текстовые файлы, чтобы устранить любые проблемы с грамматикой и орфографией, а также ненужные символы как артефакты, созданные системой оптического распознавания символов.Разделение на данные обучения-тестирования: мы разбили очищенные отчеты на 70% и 30% для обучения и тестирования соответственно.В результате этого разделения было получено 1364 тренинга и 585 отчетов о тестировании.Мы предварительно обработали отчеты, задав их текстовое содержимое строчными буквами и отфильтровав любые небуквенно-цифровые символы.Мы использовали библиотеку NLTK для удаления останавливающих слов, например, «the», «an», «was», «if» и т. д. BIBREF10.Затем мы проанализировали отчеты, чтобы найти общие биграммы, такие как «паренхима легких», «микроскопическое исследование», «лимфатический узел» и т. д.Мы соединили биграммы дефисом, превратив их в одно слово.Далее мы удалили слова, которые встречаются менее 2% в каждой диагностической категории.Кроме того, мы удалили слова, которые встречаются более чем в 90% во всех категориях.Мы сохранили каждый предварительно обработанный отчет в отдельном текстовом файле.TF-IDF означает «Частота, обратная частоте документа», и это полезная схема взвешивания при поиске информации и анализе текста.TF-IDF обозначает важность термина в документе внутри корпуса.Важно отметить, что здесь документ относится к отчету о патологии, корпус относится к набору отчетов, а термин относится к отдельному слову в отчете.Вес TF-IDF для термина INLINEFORM0 в документе INLINEFORM1 задается DISPLAYFORM0. Мы выполнили следующие шаги, чтобы преобразовать отчет о патологии в вектор признаков: Создайте набор словаря, содержащий все уникальные слова из всех предварительно обработанных отчетов об обучении.Создайте нулевой вектор INLINEFORM0 той же длины, что и словарь.Для каждого слова INLINEFORM0 в отчете INLINEFORM1 установите соответствующий индекс в INLINEFORM2 на INLINEFORM3. Результирующий INLINEFORM0 является вектором признаков для отчета INLINEFORM1 и является очень разреженным вектором.Извлечение ключевых слов включает в себя идентификацию важных слов в отчетах, обобщающих их содержание.Напротив, тематическое моделирование позволяет группировать эти ключевые слова с использованием интеллектуальной схемы, позволяя пользователям дополнительно сосредоточиться на определенных аспектах документа.Все слова в отчете о патологии сортируются в соответствии с их весами TF-IDF.Слова, отсортированные с помощью INLINEFORM0, составляют самые популярные ключевые слова INLINEFORM1 для отчета.В рамках этого исследования INLINEFORM2 эмпирически установлен на уровне 50.Извлеченные ключевые слова далее группируются по различным темам с помощью скрытого распределения Дирихле (LDA) BIBREF11.Ключевые слова в отчете выделяются цветовой темой, соответствующей их темам.Каждая модель оценивается с использованием двух стандартных показателей НЛП — усредненных микро- и макро-F-показателей, среднего гармонического значения точности и полноты связанных показателей.Для каждой диагностической категории INLINEFORM0 из набора из 37 различных классов INLINEFORM1 , количества истинных положительных результатов INLINEFORM2 , ложных положительных результатов INLINEFORM3 и ложноотрицательных результатов INLINEFORM4 микро F-показатель определяется как DISPLAYFORM0, тогда как макро F-показатель определяется DISPLAYFORM0. микроусредненные метрики имеют представление класса, примерно пропорциональное их представлению в тестовом наборе (так же, как точность для задачи классификации с одной меткой на точку данных), тогда как макроусредненные метрики усредняются по классу без взвешивания по преобладанию класса BIBREF12.InВ этом исследовании мы провели две разные серии экспериментов: i) оценку производительности функций TF-IDF и различных классификаторов машинного обучения в задаче прогнозирования первичного диагноза на основе текстового содержания данного отчета, и ii) использование TF-IDF и Методы LDA для выделения важных ключевых слов в отчете.Для первой серии экспериментов предварительно обрабатываются отчеты об обучении, затем извлекаются их характеристики TF-IDF.Функции TF-IDF и обучающие метки используются для обучения различных моделей классификации.Эти различные модели классификации и их гиперпараметры представлены на вкладке tab:classifier.Производительность классификаторов измеряется количественно в наборе тестовых данных с использованием показателей оценки, обсуждавшихся в предыдущем разделе.Для второй серии экспериментов выбирается случайный отчет и извлекаются 50 самых популярных ключевых слов с использованием весов TF-IDF.Эти 50 ключевых слов выделены разными цветами в зависимости от связанной с ними темы, которые извлекаются с помощью LDA.Качественная проверка без участия экспертов проводится по извлеченным ключевым словам и соответствующим им темам.Классификационная модель обучена прогнозировать первичный диагноз с учетом содержания отчета о онкологической патологии.Результаты выполнения этой задачи отображаются на вкладке tab:results.Мы можем наблюдать, что классификатор XGBoost превзошел все другие модели как по метрике микро F-показателя с оценкой 0,92, так и по метрике макро-F-показателя с оценкой 0,31.Это было улучшение на 7% для микро-F-показателя по сравнению со следующей лучшей моделью, SVM-L, и незначительное улучшение на 5% для макро-F-показателя.Интересно отметить, что SVM с линейными ядрами работает намного лучше, чем SVM с ядром RBF, набрав 9% по макроF-показателю и на 12% больше по микроF-показателю.Предполагается, что слова, используемые при первичной диагностике, сами встречаются в некоторых отчетах, что позволяет линейным моделям превосходить сложные модели. На рисунке fig:keywords показаны 50 самых популярных ключевых слов, выделенных с помощью TF-IDF и LDA.Предложенный подход хорошо зарекомендовал себя при выделении важных областей, например, тема, выделенная красным цветом и содержащая «диапазон присутствия некроза опухоли», предоставляет читателям полезную информацию о биомаркерах.Мы предложили простой, но эффективный метод TF-IDF для извлечения и подтверждения полезных ключевых слов из отчетов о патологиях рака.Кодирование отчета о патологии для наблюдения за раком и опухолями является трудоемкой задачей, и иногда она подвержена человеческим ошибкам и вариативности интерпретации.Один из наиболее важных аспектов кодирования отчета о патологии включает в себя определение первичного диагноза.Это может быть очень полезно для поиска изображений на основе контента в сочетании с визуальной информацией.Мы использовали существующую классификационную модель и функции TF-IDF для прогнозирования первичного диагноза.Мы достигли точности до 92%, используя классификатор XGBoost.Точность прогнозирования позволяет использовать методы машинного обучения для автоматического извлечения информации из отчетов о патологиях. | Отчет о патологии, возможно, является одним из наиболее важных документов в медицине, содержащих интерпретирующую информацию о визуальных результатах образца биопсии пациента. Срок хранения каждого отчета о патологии составляет до 20 лет после лечения пациента. Реестры рака обрабатывают и кодируют большие объемы отчетов о патологии в виде произвольного текста для наблюдения за раком и опухолевыми заболеваниями по всему миру. Несмотря на чрезвычайно ценную информацию, которую они содержат, отчеты о патологии не используются каким-либо систематическим образом для облегчения вычислительной патологии. Поэтому в этом исследовании мы изучаем автоматизированные методы машинного обучения для идентификации/предсказания первичного диагноза (на основе кода МКБ-О) на основе отчетов о патологии. Мы провели эксперименты, извлекая функции TF-IDF из отчетов и классифицируя их с помощью трех различных методов: SVM, XGBoost и логистической регрессии. Мы создали новый набор данных, содержащий 1949 отчетов о патологиях, распределенных по 37 категориям МКБ-О, собранных из четырех различных основных мест, а именно легких, почек, тимуса и яичек. Отчеты были вручную преобразованы в текстовый формат после их сбора в виде PDF-файлов из общедоступного набора данных NCI Genomic Data Commons. Впоследствии мы предварительно обработали отчеты, удалив ненужные текстовые артефакты, созданные программным обеспечением OCR. Наивысшая точность классификации, которую мы достигли, составила 92 % при использовании классификатора XGBoost на векторах признаков TF-IDF, линейная SVM показала точность 87 %. Кроме того, исследование показывает, что векторы TF-IDF подходят для выделения важных ключевых слов в отчете, что может быть полезно для рабочего процесса исследования рака и диагностики. Результаты обнадеживают, демонстрируя потенциал методов машинного обучения для классификации и кодирования отчетов о патологиях. | 2,126 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Объединение функций акустики, контента и взаимодействия для поиска «горячих точек» на собраниях. Определение «горячих точек» встречи было впервые введено в BIBREF2, где исследовалось, могут ли комментаторы-люди надежно идентифицировать регионы, в которых участники «активно вовлечены в обсуждение».Мотивацией было то, что встречи, как правило, имеют низкую плотность информации и утомительны для дословного анализа постфактум.Таким образом, была бы полезна автоматическая система, которая могла бы выявлять регионы, представляющие большой интерес (о чем свидетельствует участие участников во время встречи).Кроме того, такая информация могла бы также помочь автоматическому подведению итогов совещаний, чтобы придать дополнительный вес регионам «горячих точек» при выборе или обобщении материала для включения в резюме.Более поздняя работа по изучению взаимосвязи между вовлечением и обобщением BIBREF3 определила другой подход: «горячие точки» — это те регионы, которые выбираются для включения в резюме людьми-аннотаторами («горячие точки обобщения»).В настоящей работе мы придерживаемся первоначального понятия «горячие точки вовлечения» и называем такие регионы просто «горячими точками», независимо от их возможной роли в обобщении.Отметим, что высокая вовлеченность может быть обусловлена как содержанием встречи («о чем идет речь» и «что можно включить в текстовое изложение»), так и поведенческими и социальными факторами, такими как желание участвовать, чтобы застолбить позицию или противостоять другому участнику.Связанным понятием в исследовании диалоговых систем является «уровень интереса» BIBREF4. Первоначальные исследования горячих точек были сосредоточены на надежности людей-аннотаторов и корреляциях с определенными акустическими характеристиками низкого уровня, такими как высота тона BIBREF2.Также была исследована корреляция между горячими точками и диалоговыми действиями BIBREF5, а также горячими точками и перекрытием говорящих BIBREF6, однако без проведения экспериментов по автоматическому прогнозированию горячих точек с использованием методов машинного обучения.Ласковски BIBREF7 переопределил аннотации горячих точек с точки зрения временных окон для встреч и исследовал различные модели классификаторов для обнаружения «горячих точек» (т. е. повышенной вовлеченности).Однако эта работа была сосредоточена только на двух типах речевых характеристик: наличии смеха и временных закономерностях речевой активности у различных участников, оба из которых оказались предикторами вовлеченности.Для связанной с этим проблемы прогнозирования уровня интереса в диалоговых системах BIBREF8 было обнаружено, что классификация на основе содержания также может быть эффективной, используя как дискриминативную модель TF-IDF, так и оценки лексического аффекта, а также просодические характеристики.В соответствии с более ранними исследованиями «горячих точек» моделей взаимодействия и перекрытия говорящих, функции очередности оказались полезными для выявления «горячих точек» резюмирования в BIBREF3, и даже в большей степени, чем аннотации с участием человека.Последний результат подтверждает нашу интуицию о том, что ценность обобщения и вовлеченность — это разные понятия «горячости».В этой статье, следуя за Ласковски, мы фокусируемся на автоматическом прогнозировании участия говорящих в скользящих временных окнах/сегментах.Мы оцениваем модели машинного обучения на основе ряда функций, которые можно автоматически извлечь из аудиозаписей либо напрямую посредством обработки сигналов, либо с помощью автоматической транскрипции (выходные данные ASR).В частности, мы исследуем относительный вклад трех классов информации: акустико-просодических характеристик низкого уровня, например, тех, которые обычно используются в других паралингвистических задачах, таких как анализ настроений (извлеченных с помощью openSMILE BIBREF0); содержания произнесенных слов, закодированного с помощью современный подход к лексическому внедрению, такой как BERT BIBREF1; взаимодействие говорящего, основанное на речевой активности с течением времени и между разными говорящими.Мы придаем меньшее значение смеху, даже несмотря на то, что он оказался весьма предсказуемым для участия в корпусе ICSI, отчасти потому, что мы считаем, что он не будет хорошо переноситься на более общие типы (например, деловые) встречи, а отчасти потому, что обнаружение смеха по-прежнему представляет собой сложную проблему BIBREF9.С другой стороны, создание транскрипций собраний с указанием докладчиков продемонстрировало значительный прогресс BIBREF10 и может поддержать функции, на которых мы здесь концентрируемся.Корпус собраний ICSI BIBREF11 представляет собой коллекцию записей собраний, которые были тщательно аннотированы, включая аннотации для горячих точек участия BIBREF12, лингвистических единиц высказывания и границ времени слова на основе принудительного выравнивания.Набор данных состоит из 75 встреч и около 70 часов аудиозаписи в реальном времени, в среднем с участием 6 докладчиков на встрече.Большинство участников хорошо знакомы и дружелюбны друг с другом.Горячие точки изначально имели 8 уровней и степеней: от «негорячего» до «теплого» и «горячего +».Каждое высказывание было помечено одним из этих дискретных ярлыков одним аннотатором.Повышенная вовлеченность встречается редко и отмечается лишь в 1% высказываний.Из-за серьезного дисбаланса в распределении ярлыков Ласковский BIBREF13 предложил распространить ярлыки вовлеченности или «горячести» на скользящие временные окна.В нашей реализации (подробности ниже) это привело к тому, что 21,7% выборок (окнов) были помечены как «вовлеченные».Мы разделили корпус на три подгруппы: обучение, развитие и оценка, сохранив при этом собрания.Таблица TABREF4 дает статистику этих разделов.Нас беспокоило относительно небольшое количество встреч в тестовых наборах, и мы повторили несколько наших экспериментов с перекрестной проверкой (складным ножом) на обучающем наборе.Полученные результаты были очень похожи на результаты разделения фиксированного поезда/теста, о которых мы сообщаем здесь.Как указано выше, корпус изначально был помечен как горячие точки на уровне высказывания, где вовлеченность была отмечена меткой «b» или «b+».Обучающая и тестовая выборки для наших экспериментов соответствуют скользящим окнам длительностью 60 с и шагом 15 с.Если определенное окно, например сегмент, охватывающий периоды времени 15–75 с, перекрывается с любым задействованным речевым высказыванием, то мы обозначаем все это окно как «горячее».Рис.Figref6 дает визуальное представление.Несмотря на оконный подход, распределение классов по-прежнему искажено, и показатель точности будет отражать конкретное распределение классов в нашем наборе данных.Поэтому мы принимаем метрику невзвешенного среднего воспоминания (UAR), обычно используемую в исследованиях по классификации эмоций.UAR — это перевзвешенная точность, при которой выборки обоих классов в совокупности имеют одинаковый вес.Таким образом, UAR имитирует равномерное распределение классов.Чтобы соответствовать цели, наши классификаторы обучаются на обучающих данных с соответствующим весом.Обратите внимание, что вероятность эффективности для UAR по определению составляет 50%, что делает результаты более сопоставимыми для разных наборов данных.Просодия включает в себя высоту звука, энергию и длительность речи.Считается, что просодия передает акцент, чувства и эмоции, которые, по-видимому, коррелируют с выражением вовлеченности.Мы использовали набор инструментов openSMILE BIBREF0 для вычисления функций 988, определенных в файле конфигурации emobase988, работая с записями разговоров.Этот набор функций состоит из дескрипторов низкого уровня, таких как интенсивность, громкость, кепстральные коэффициенты Mel-частоты и высота тона.Для каждого дескриптора низкого уровня вычисляются такие функционалы, как максимальное/минимальное значение, среднее значение, стандартное отклонение, эксцесс и асимметрия.Наконец, к каждому признаку применяется нормализация глобального среднего и дисперсии с использованием статистики обучающего набора.Таким образом, вектор признаков фиксирует акустико-просодические характеристики, агрегированные по тому, что обычно является высказыванием.Мы попытались извлечь функции openSMILE непосредственно из 60-секундных окон, но добились лучших результатов, извлекая подокна продолжительностью 5 секунд с последующим объединением в пул на протяжении более длительных 60 секунд.Мы связываем это с тем, что функции emobase предназначены для работы с отдельными высказываниями, длительность которых составляет от 5 до 60 с. Первоначально мы исследовали простую модель набора слов, включающую все униграммы, биграммы и триграммы, найденные в обучающий набор.Вхождения первых 10 000 n-грамм были закодированы для формирования 10 000-мерного вектора со значениями, взвешенными в соответствии с TD-IDF. TF-IDF взвешивает n-граммы как по их частоте (TF), так и по их значимости (обратная частота документов, IDF) в данных, где каждое высказывание рассматривалось как отдельный документ.Полученные векторы признаков очень разрежены.Набор данных ICSI слишком мал для обучения модели внедрения нейронов с нуля.Поэтому удобно использовать предварительно обученную архитектуру внедрения BERT BIBREF1 для создания вектора внедрения на уровне высказывания для каждой интересующей области.После обучения на большом текстовом корпусе полученные встраивания кодируют семантические сходства между высказываниями и позволяют обобщать шаблоны слов, наблюдаемые в данных обучения ICSI, до тех, которые не наблюдались в этом ограниченном корпусе.Ранее мы также создали адаптированную версию модели BERT, настроенную для классификации настроений на уровне высказываний, на отдельном наборе данных BIBREF14.Как было предложено в BIBREF1, мы точно настроили все уровни предварительно обученной модели BERT, добавив один полностью связный слой и классифицируя, используя только встраивание, соответствующее токену классификации ([CLS]), добавляемому к каждому высказыванию.Разница в UAR между классификаторами горячих точек, использующими предварительно обученные встраивания, и классификаторами, использующими встраивания, адаптированные к настроению, невелика.Поскольку классификатор, использующий встраивания, извлеченные с помощью модели, адаптированной к настроениям, показал немного лучшую производительность, мы сообщаем обо всех результатах, используя их в качестве входных данных.Чтобы получить одно вложение для каждого 60-секундного окна, мы экспериментировали с различными подходами к объединению вложений на уровне токена и высказывания.В нашем первом подходе мы игнорировали сегментацию высказываний и информацию о говорящем.Мы объединили все слова, произнесенные в определенном окне, в один непрерывный диапазон.Следуя BIBREF1, мы добавили в текст соответствующие токены классификации и разделения и выбрали встраивание, соответствующее токену [CLS], в качестве встраивания на уровне окна.Наш второй подход использовал сегментацию диалога на основе истины.Каждый поворот говорящего моделировался независимо, а встраивания на уровне высказывания были извлечены с использованием представления, соответствующего токену [CLS].Высказывания, выходящие за границы окна, отсекаются с использованием временных меток слов, поэтому учитываются только слова, произнесенные в пределах данного временного окна.Для всех описанных экспериментов мы используем объединение норм L2 для формирования вложений на уровне окна для окончательного классификатора, поскольку это работает лучше, чем среднее или максимальное объединение.Эти функции представляли собой компиляцию трех различных типов функций: Процент перекрытия говорящих: на основе доступного времени на уровне слова мы вычислили 6-мерный вектор признаков, где индекс $i$th указывает долю времени, в течение которой $i$ или в данном окне говорит больше говорящих.Это можно выразить как $\frac{t_i}{60}$, где $t_i$ указывает время в секундах, в течение которого $i$ или несколько человек говорили одновременно.Уникальное количество говорящих:Подсчитывает количество уникальных докладчиков в рамках окна, что является полезным показателем для отслеживания разнообразия участников в рамках определенного окна.Количество поворотных переключателей:Подсчитывает количество раз, когда говорящий начинает говорить в пределах окна.Это аналогичный показатель количества высказываний.Однако, в отличие от подсчета высказываний, переключение поворотов можно полностью рассчитать на основе речевой активности, не требуя лингвистической сегментации.Ласковски обнаружил, что смех очень хорошо предсказывает участие в данных ICSI.Смех аннотируется на уровне высказывания и делится на две категории: смех исключительно сам по себе (без слов) или смех, содержащийся в высказывании (т. е. во время речи).Эта функция представляет собой простой подсчет количества случаев, когда люди смеялись в окне.Мы включаем его в некоторые из наших экспериментов для целей сравнения, хотя не доверяем ему как общему признаку.(Участники собраний ICSI слишком хорошо знакомы и непринужденно общаются друг с другом, чтобы быть репрезентативными в отношении смеха.) В предварительных экспериментах мы сравнили несколько ненейронных классификаторов, включая логистическую регрессию (LR), случайные леса, линейную поддержку. векторные машины и полиномиальный наивный Байес.Логистическая регрессия дала лучшие результаты во всех отношениях, и мы использовали ее исключительно для результатов, показанных здесь, если вместо нее не используются нейронные сети.Для векторной классификации BERT и openSMILE мы разработали две разные архитектуры нейронных сетей с прямой связью.Встраивания, адаптированные к настроениям, описанные в разделе SECREF3, создают один 1024-мерный вектор на каждое высказывание.Поскольку вся классификация работает во временных окнах, нам пришлось объединить все высказывания, попадающие в данное окно, стараясь обрезать слова, выходящие за его пределы.Мы протестировали четыре метода объединения: норма L2, среднее, максимальное и минимальное, при этом норма L2 дала наилучшие результаты.Что касается просодической модели, каждый вектор, извлеченный из openSMILE, представляет собой 5-секундный интервал.Поскольку существовали как ось канала/динамика, так и ось времени, нам нужно было объединить оба измерения, чтобы иметь один вектор, представляющий просодические особенности окна 60 с.Предпоследний уровень — это уровень объединения: максимальное объединение по всем каналам, а затем среднее объединение с течением времени.Выходные данные слоя пула напрямую подаются в классификатор.Гиперпараметры нейронных сетей (количество и размеры скрытых слоев) также настраивались в ходе предварительных экспериментов.Подробности приведены в разделе SECREF5.Рис.FigREF19 показывает способ объединения функций из нескольких категорий.Речевая деятельность и характеристики слов передаются непосредственно на заключительный этап LR.Акустико-просодические характеристики сначала объединяются в нейронном классификаторе с прямой связью, апостериорные выходные данные которого, в свою очередь, передаются на этап LR для слияния.(При использовании только просодических признаков выходные данные ИНС используются напрямую.) Мы группируем эксперименты по типу признаков, на которых они основаны: акустико-просодические, словесные и речевые, оценивая каждую группу сначала отдельно, а затем в сочетание с другими.Как обсуждалось в разделе SECREF3, было исследовано множество входных функций, некоторые из которых были более разборчивыми.Наиболее полезными характеристиками речевой активности были процент перекрытия говорящих, количество уникальных говорящих и количество поворотных переключателей, что давало UAR оценочного набора 63,5%, 63,9% и 66,6% соответственно.В совокупности UAR улучшился до 68,0%, показывая, что эти функции частично дополняют друг друга.Одна только модель TF-IDF дала UAR 59,8%.При использовании вместо этого вложений BERT было обнаружено резкое увеличение производительности до 70,5%.Поэтому для всех дальнейших экспериментов мы использовали вложения, основанные на информации о словах.Были исследованы три различных типа встраивания: встраивания, адаптированные к настроениям на уровне высказывания, неадаптированные вложения на уровне высказывания и неадаптированные вложения во временных окнах.Адаптированные вложения (на высказываниях) показали себя лучше всего, что указывает на то, что задача адаптации к настроению полезна для классификации вовлеченности.Однако важно отметить, что внедрения на уровне высказывания больше, чем внедрения на уровне окна.Это связано с тем, что в корпусе собраний больше высказываний, чем окон.Лучшая нейронная архитектура, которую мы нашли для этих вложений, — это 5-слойная нейронная сеть с размерами 1024-64-32-12-2.Другими гиперпараметрами для этой модели являются коэффициент отсева = 0,4, скорость обучения = $10^{-7}$ и функция активации «tanh».UAR в наборе оценок с использованием только векторов BERT в качестве входных данных составляет 65,2%. Интересно, что нейронная модель уступила LR непосредственно на векторах внедрения.Возможно, нейронная сеть требует дальнейшей тонкой настройки или нейронная модель слишком склонна к переобучению, учитывая небольшой обучающий корпус.В любом случае мы используем LR для вложений для всех последующих результатов.Наша просодическая модель представляет собой 5-слойную ИНС, как описано в разделе SECREF15.Архитектура: 988-512-128-16-Pool-2.Гиперпараметры: процент отсева = 0,4, скорость обучения = $10^{-7}$, активация = «tanh».UAR для оценочного набора, содержащего только функции openSMILE, составляет 62,0%. В таблице TABREF24 указан UAR для каждого подмножества функций отдельно, для всех функций вместе взятых, а также для комбинации, в которой одно подмножество функций, в свою очередь, не учитывается.Результаты, полученные по одному набору функций за раз, показывают, что просодия, речевая деятельность и слова имеют возрастающее значение в этом порядке.Анализ с исключением одного соглашается с тем, что слова являются наиболее важными (наибольшее падение точности при их удалении), но по этому критерию просодические характеристики более важны, чем речевая деятельность.Комбинация всех функций на 0,4% абсолютно лучше, чем любое другое подмножество, показывая, что все подмножества функций частично дополняют друг друга. Рис.FigREF25 показывает те же результаты в форме гистограммы, но также добавляет результаты с информацией о смехе.Как обнаружил Ласковский BIBREF7, количество смехов само по себе является сильнейшим признаком вовлеченности.Однако, даже учитывая сильный индивидуальный признак смеха, другие характеристики добавляют информации, увеличивая UAR с 75,1% до 77,5%. Мы изучали выявление областей высокой вовлеченности, или «горячих точек», на собраниях с использованием корпуса ICSI.Функции, которые дали наилучшие результаты, соответствуют нашей интуиции.Вложения слов, особенности речевой деятельности, такое количество оборотных изменений, и просодические особенности — все это является правдоподобными индикаторами высокой вовлеченности.Более того, наборы функций частично дополняют друг друга и дают наилучшие результаты при объединении с использованием простой модели логистической регрессии.Комбинированная модель достигает 72,6% UAR или 77,5% с функцией смеха.Для будущей работы нам хотелось бы видеть проверку независимой коллекции встреч, например деловых встреч.Некоторые функции, в частности смех, в этом случае будут не так полезны.Больше данных также может позволить тренировать совместные модели, которые выполняют раннее объединение различных типов объектов.Кроме того, настоящее исследование по-прежнему опиралось на человеческие стенограммы, и было бы важно знать, насколько сильно UAR страдает от реалистичного количества ошибок распознавания речи.Ожидается, что ошибки транскрипции повысят важность типов функций, которые не зависят от слов.Мы благодарим Бритту Вреде, Элизабет Шриберг и Корнела Ласковски за пояснения относительно деталей данных. | «Горячие точки» вовлечения были предложены в качестве полезной концепции для анализа совещаний и периодически изучались на протяжении более 15 лет. Это регионы встреч, которые характеризуются высокой степенью вовлеченности участников, по мнению аннотаторов. Однако предыдущая работа либо не проводилась в рамках формального машинного обучения, либо была сосредоточена только на подмножестве возможных функций встреч или последующих приложений (таких как подведение итогов). В данной статье мы исследуем, в какой степени различные акустические, лингвистические и прагматические аспекты встреч могут помочь выявить горячие точки как по отдельности, так и совместно. В этом контексте набор инструментов openSMILE \cite{opensmile} используется для извлечения признаков на основе акустико-просодических сигналов, встраивания слов BERT \cite{BERT} используются для моделирования лексического содержания, а различные статистические данные на основе речи деятельности используются для описания вербального взаимодействия между участниками. В экспериментах с аннотированным корпусом собраний ICSI мы обнаружили, что часть лексического моделирования является наиболее информативной, с дополнительным вкладом от компонентов взаимодействия и акустико-просодической модели. | 3,036 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Насколько мы далеки от эффективного контекстного моделирования? Поисковое исследование семантического анализа в контексте. Семантический синтаксический анализ, который переводит предложение естественного языка в соответствующую ему исполняемую логическую форму (например, язык структурированных запросов, SQL), освобождает пользователей от бремени изучения методов, лежащих в основе логической формы.Большинство предыдущих исследований семантического анализа предполагают, что запросы не зависят от контекста, и анализируют их изолированно.Однако на самом деле пользователи предпочитают взаимодействовать с системами в диалоге, где пользователям разрешено задавать контекстно-зависимые неполные вопросы BIBREF0.Возникает задача семантического синтаксического анализа в контексте (SPC), которая довольно сложна, поскольку существуют сложные контекстуальные явления.В общем, в диалогах есть два типа контекстуальных явлений: кореференция и многоточие BIBREF1.На рисунке FigREF1 показан диалог из набора данных SPArC BIBREF2.После вопроса «Какой идентификатор автомобиля с максимальной мощностью?» пользователь задает эллиптический вопрос «А как насчет максимального расхода миль на галлон?» и вопрос, содержащий местоимения «Покажи его марку!».Только при полном понимании контекста синтаксический анализатор сможет успешно разобрать неполные вопросы на соответствующие им SQL-запросы.В литературе был предложен ряд методов контекстного моделирования для решения SPC BIBREF3, BIBREF4, BIBREF2, BIBREF5, BIBREF6.Эти методы предлагали использовать две категории контекста: недавние вопросы и форму прецедентной логики.Естественно использовать недавние вопросы в качестве контекста.Если взять пример с рисунка FigREF1, то при анализе $Q_3$ нам также необходимо взять в качестве входных данных $Q_1$ и $Q_2$.Мы можем либо просто объединить входные вопросы, либо использовать модель для их иерархического кодирования BIBREF4.Что касается второй категории, то вместо набора недавних вопросов в качестве входных данных она учитывает только форму прецедентной логики.Например, при анализе $Q_3$ нам нужно взять в качестве контекста только $S_2$.С таким контекстом декодер может его обрабатывать или повторно использовать через механизм копирования BIBREF4, BIBREF5.Интуитивно, методы, попадающие в эту категорию, обладают большей обобщаемостью, поскольку они полагаются только на последнюю логическую форму в качестве контекста, независимо от того, на каком этапе.Примечательно, что эти две категории контекста могут использоваться одновременно.Однако остается неясным, насколько далеки мы от эффективного контекстного моделирования.Во-первых, отсутствует тщательное сравнение типичных методов контекстного моделирования на сложных SPC (например, междоменных).Во-вторых, ни одна из предыдущих работ не проверяла предложенные ими методы контекстного моделирования с помощью метода декодирования на основе грамматики, который разрабатывался годами и доказал свою высокую эффективность при семантическом анализе BIBREF7, BIBREF8, BIBREF9.Чтобы добиться большей производительности, стоит изучить, как методы контекстного моделирования взаимодействуют с декодированием на основе грамматики.И последнее, но не менее важное: существует ограниченное понимание того, как методы контекстного моделирования действуют на различные контекстуальные явления.Углубленный анализ может пролить свет на потенциальные направления исследований.В этой статье мы пытаемся восполнить вышеуказанный недостаток посредством предварительного исследования реального семантического анализа в контексте.Конкретно, мы представляем семантический анализатор декодирования на основе грамматики и адаптируем поверх него типичные методы моделирования контекста.Проводя эксперименты с двумя большими сложными междоменными наборами данных, SPArC BIBREF2 и CoSQL BIBREF6, мы тщательно сравниваем и анализируем эффективность различных методов контекстного моделирования.Наша лучшая модель демонстрирует самые современные (SOTA) характеристики на обоих наборах данных со значительными улучшениями.Кроме того, мы суммируем и обобщаем наиболее частые контекстуальные явления с детальным анализом репрезентативных моделей.Благодаря анализу мы получаем некоторые интересные результаты, которые могут принести пользу сообществу в потенциальных направлениях исследований.После принятия мы откроем исходный код и материалы для облегчения дальнейшей работы.В задаче семантического анализа в контексте нам предоставляется набор данных, состоящий из диалогов.Обозначая $\langle \mathbf {x}_1,...,\mathbf {x}_n\rangle $ последовательность вопросов на естественном языке в диалоге, $\langle \mathbf {y}_1,...,\mathbf {y}_n\rangle $ — соответствующие им SQL-запросы.Каждый запрос SQL обусловлен схемой базы данных с несколькими таблицами, а базы данных, используемые в тестировании, не участвуют в обучении.В этом разделе мы сначала представляем базовую модель без учета контекста.Затем мы представляем 6 типичных методов контекстного моделирования и описываем, как мы оснащаем этими методами базовую модель.Наконец, мы представляем, как дополнить модель с помощью BERT BIBREF10. Для построения нашей базовой модели мы используем широко используемую архитектуру последовательности-последовательности на основе внимания BIBREF11, BIBREF12.Как показано на рисунке FigREF6, базовая модель состоит из кодера вопросов и декодера на основе грамматики.Для каждого вопроса кодировщик предоставляет контекстное представление, а декодер генерирует соответствующий SQL-запрос в соответствии с заранее определенной грамматикой.Чтобы захватить контекстную информацию в вопросе, мы применяем двунаправленную нейронную сеть с долговременной краткосрочной памятью (BiLSTM) в качестве кодировщика вопросов BIBREF13, BIBREF14.В частности, на этапе $i$ каждый токен $x_{i,k}$ в $\mathbf {x}_{i}$ передается в слой встраивания слов $\mathbf {\phi }^x$, чтобы получить его представление вложения $\mathbf {\phi }^x{(x_{i,k})}$.Помимо представления внедрения, кодировщик вопросов получает контекстное представление $\mathbf {h}^{E}_{i,k}=[\mathop {{\mathbf {h}}^{\overrightarrow{E}} _{i,k}}\,;{\mathbf {h}}^{\overleftarrow{E}}_{i,k}]$, где прямое скрытое состояние вычисляется следующим образом: Декодер основан на грамматике с вниманием к входному вопросу BIBREF7.В отличие от создания запроса SQL слово за словом, наш декодер выводит последовательность грамматических правил (т. е. действий).Такая последовательность имеет однозначное соответствие с абстрактным синтаксическим деревом SQL-запроса.Взяв в качестве примера SQL-запрос на рисунке FigREF6, он преобразуется в последовательность действий $\langle $ $\rm \scriptstyle {Start}\rightarrow \rm {Root}$, $\rm \scriptstyle {Root}\rightarrow \ rm {Select\ Order}$, $\rm \scriptstyle {Select}\rightarrow \rm {Agg}$, $\rm \scriptstyle {Agg}\rightarrow \rm {max\ Col\ Tab}$, $\rm \ scriptstyle {Col}\rightarrow \rm {Id}$, $\rm \scriptstyle {Tab}\rightarrow \rm {CARS\_DATA}$, $\rm \scriptstyle {Order}\rightarrow \rm {desc\ limit\ Agg }$, $\rm \scriptstyle {Agg}\rightarrow \rm {none\ Col\ Tab}$, $\rm \scriptstyle {Col}\rightarrow \rm {Horsepower}$, $\rm \scriptstyle {Tab}\ rightarrow \rm {CARS\_DATA}$ $\rangle $ обходом дерева в глубину слева направо.На каждом этапе декодирования нетерминал расширяется с использованием одного из соответствующих ему грамматических правил.Правила зависят либо от схемы (например, $\rm \scriptstyle {Col}\rightarrow \rm {Horsepower}$), либо не зависят от схемы (например, $\rm \scriptstyle {Start}\rightarrow \rm {Root}$). .Более конкретно, как показано в верхней части рисунка FigREF6, мы вносим небольшую модификацию правил, связанных с $\rm {Order}$, в грамматику, предложенную BIBREF9, которая, как доказано, имеет лучшую производительность, чем стандартная грамматика SQL.Обозначая $\mathbf {LSTM}^{\overrightarrow{D}}$ однонаправленный LSTM, используемый в декодере, на каждом шаге декодирования $j$ хода $i$ требуется встраивание предыдущего сгенерированного грамматического правила $\mathbf {\phi }^y(y_{i,j-1})$ (обозначено пунктирными линиями на рисунке FigREF6) и обновляет свое скрытое состояние следующим образом: где $\mathbf {c}_{i,j-1} $ — вектор контекста, созданный путем посещения скрытого состояния каждого кодера $\mathbf {h}^E_{i,k}$ на предыдущем шаге: где $\mathbf {W}^e$ — изученная матрица.$\mathbf {h}^{\overrightarrow{D}}_{i,0}$ инициализируется скрытым состоянием окончательного кодировщика $\mathbf {h}^E_{i,|\mathbf {x}_{i} |}$, а $\mathbf {c}_{i,0}$ — нулевой вектор.Для каждого правила грамматики, не зависящего от схемы, $\mathbf {\phi }^y$ возвращает изученное вложение.Для конкретной схемы встраивание получается путем передачи ее схемы (т. е. таблицы или столбца) через другой однонаправленный LSTM, а именно кодер схемы $\mathbf {LSTM}^{\overrightarrow{S}}$. Например, встраивание $\rm \scriptstyle {Col}\rightarrow \rm {Id}$ выглядит следующим образом: Что касается вывода $y_{i,j}$, если расширенный нетерминал соответствует схемонезависимым грамматическим правилам, мы может получить выходную вероятность действия ${\gamma }$ как: где $\mathbf {W}^o$ — изученная матрица.Когда дело доходит до грамматических правил, специфичных для схемы, основная проблема заключается в том, что модель может столкнуться со схемами, которые никогда не появлялись при обучении из-за междоменных настроек.Чтобы справиться с этим, мы не вычисляем напрямую сходство между скрытым состоянием декодера и внедрением грамматических правил, специфичных для схемы.Вместо этого мы сначала получаем ненормализованную оценку связи $l(x_{i,k},\gamma )$ между $k$-м токеном в $\mathbf {x}_i$ и действующей схемой $\gamma $.Он вычисляется как с помощью ручных функций (например, точное совпадение слов) BIBREF15, так и с помощью изученного сходства (т. е. скалярного произведения между встраиванием слов и встраиванием грамматических правил).Используя входной вопрос в качестве моста, мы повторно используем оценку внимания $a_{i,k}$ в уравнении DISPLAY_FORM8 для измерения вероятности вывода специфичного для схемы действия $\gamma $ как: Чтобы воспользоваться преимуществами контекста вопроса, мы предоставляем базовая модель с недавними вопросами $h$ в качестве дополнительных входных данных.Как показано на рисунке FigREF13, мы суммируем и обобщаем три способа включения недавних вопросов в качестве контекста.Этот метод объединяет недавние вопросы с текущим вопросом по порядку, в результате чего входные данные кодировщика вопроса имеют вид $[\mathbf {x}_{i-h},\dots ,\mathbf {x}_{i}]$, в то время как архитектура базовой модели остался прежним.Специальных разделителей между вопросами не ставим, так как есть знаки препинания.Диалог можно рассматривать как последовательность вопросов, которые, в свою очередь, представляют собой последовательность слов.Учитывая такую иерархию, BIBREF4 использовал кодировщик уровня поворота (т.е. однонаправленный LSTM) для иерархического кодирования недавних вопросов.На ходу $i$ кодер уровня хода принимает предыдущий вектор вопроса $[\mathbf {h}^{\overleftarrow{E}}_{i-1,1},\mathbf {h}^{\overrightarrow{ E}}_{i-1,|\mathbf {x}_{i-1}|}]$ в качестве входных данных и обновляет его скрытое состояние до $\mathbf {h}^{\overrightarrow{T}}_{ я}$. Затем $\mathbf {h}^{\overrightarrow{T}}_{i}$ передается в $\mathbf {LSTM}^E$ в качестве неявного контекста.Соответственно, уравнение DISPLAY_FORM4 переписано следующим образом: Подобно Concat, BIBREF4 позволяет декодеру отслеживать все скрытые состояния кодера.Чтобы декодер отличал скрытые состояния от разных ходов, они дополнительно предложили встраивание относительного расстояния ${\phi }^{d}$ в вычисление внимания.Принимая во внимание вышеизложенное, уравнение DISPLAY_FORM8 имеет вид: где $t{\in }[0,\dots ,h]$ представляет собой относительное расстояние.Чтобы совместно смоделировать внимание декодера на уровне токенов и вопросов, вдохновленные достижениями области диалога открытого домена BIBREF16, мы предлагаем механизм шлюзов для автоматического вычисления важности каждого вопроса.Важность вычисляется по формуле: где $\lbrace \mathbf {V}^{g},\mathbf {W}^g,\mathbf {U}^g\rbrace $ — изученные параметры, а $0\,{\le }\ ,t\,{\le }\,h$. Как и в уравнении DISPLAY_FORM17, за исключением внедрения относительного расстояния, декодер Gate также отслеживает все скрытые состояния кодера.А важность уровня вопроса $\bar{g}_{i-t}$ используется как коэффициент оценок внимания на этапе $i\!-\!t$. Помимо недавних вопросов, как упомянуто в разделе SECREF1, прецедент SQL также может быть контекстом.Как показано на рисунке FigREF27, для использования $\mathbf {y}_{i-1}$ требуется кодировщик SQL, для достижения которого мы используем другой BiLSTM.$m$-ое контекстное представление действия на этапе $i\!-\!1$, $\mathbf {h}^A_{i-1,m}$, может быть получено путем передачи последовательности действий через SQL-кодер .Внимание к $\mathbf {y}_{i-1}$ — это простой метод включения контекста SQL.Учитывая $\mathbf {h}^A_{i-1,m}$, мы используем метод, аналогичный уравнению DISPLAY_FORM8, для вычисления оценки внимания и, таким образом, получаем вектор контекста SQL.Этот вектор используется в качестве дополнительных входных данных для декодера в уравнении DISPLAY_FORM7. Чтобы повторно использовать сгенерированный прецедент SQL, BIBREF5 представил механизм копирования на уровне токена в своем анализаторе, не основанном на грамматике.Вдохновленные ими, мы предлагаем механизм копирования на уровне действий, подходящий для декодирования на основе грамматики.Это позволяет декодеру копировать действия, появляющиеся в $\mathbf {y}_{i-1}$, когда действия совместимы с текущим расширенным нетерминалом.Поскольку скопированные действия лежат в том же семантическом пространстве, что и сгенерированные, вероятность выхода для действия $\gamma $ представляет собой смесь генерации ($\mathbf {g}$) и копирования ($\mathbf {c}$).Вероятность генерации $P(y_{i,j}\!=\!{\gamma }\,|\,\mathbf {g})$ соответствует уравнениям DISPLAY_FORM10 и DISPLAY_FORM11, а вероятность копирования равна: где $\mathbf { W}^l$ — обучаемая матрица.Обозначая $P^{copy}_{i,j}$ вероятность копирования на шаге декодирования $j$ хода $i$, ее можно получить по формуле $\sigma (\mathbf {W}^{c}\mathbf {h}^{\overrightarrow{D}}_{i,j}+\mathbf {b}^{c})$, где $\lbrace \mathbf {W}^{c},\mathbf {b}^ {c}\rbrace$ — изученные параметры, а $\sigma$ — сигмовидная функция.Окончательная вероятность $P(y_{i,j}={\gamma })$ вычисляется по формуле: Помимо копирования на уровне действия, мы также вводим механизм копирования на уровне дерева.Как показано на рисунке FigREF27, механизм копирования на уровне дерева позволяет декодеру копировать поддеревья действий, извлеченные из $\mathbf {y}_{i-1}$, что значительно сокращает количество шагов декодирования.Аналогичная идея была предложена в декодере, не основанном на грамматике, BIBREF4.Фактически поддерево — это последовательность действий, начинающаяся с определенных нетерминалов, таких как ${\rm Select}$. В качестве примера: $\langle $ $\rm \scriptstyle {Select}\rightarrow \rm {Agg}$, $\rm \scriptstyle {Agg}\rightarrow \rm {max\ Col\ Tab}$, $\rm \scriptstyle {Col}\rightarrow \rm {Id}$, $\rm \scriptstyle {Tab}\rightarrow \rm {CARS\_DATA}$ $\rangle $ составляет поддерево для дерева на рисунке FigREF6.Для поддерева $psilon$ его представление $\phi ^{t}(psilon )$ является конечным скрытым состоянием SQL-кодировщика, который кодирует соответствующую ему последовательность действий.Тогда мы можем получить выходную вероятность поддерева $psilon$ как: где $\mathbf {W}^t$ — изученная матрица.Выходные вероятности поддеревьев нормализуются вместе с уравнениями DISPLAY_FORM10 и DISPLAY_FORM11. Мы используем BERT BIBREF10, чтобы расширить нашу модель за счет улучшения внедрения вопросов и схем.Сначала мы объединяем входной вопрос и все схемы в детерминированном порядке с [SEP] в качестве разделителя BIBREF17.Например, входные данные для $Q_1$ на рисунке FigREF1: «Что такое идентификатор…максимальная мощность?[сентябрь] CARS_NAMES[SEP] MakeId...[SEP] Лошадиные силы».Подавая его в BERT, мы получаем представления вопросов с учетом схемы и представления схемы с учетом вопросов.Эти контекстные представления впоследствии используются для замены $\phi ^x$, в то время как другие части модели остаются прежними.Мы проводим эксперименты, чтобы изучить, способны ли представленные методы эффективно моделировать контекст в задаче SPC (раздел SECREF36), а также выполнять детальный анализ различных контекстуальных явлений (раздел SECREF40). Два больших сложных междоменных набора данных: использовано: SPArC BIBREF2 состоит из 3034/422 диалогов для обучения/разработки, а CoSQL BIBREF6 состоит из 2164/292 диалогов.Среднее количество оборотов SPArC и CoSQL составляет $3,0$ и $5,2$ соответственно.Мы оцениваем каждый прогнозируемый SQL-запрос, используя точность точного соответствия набора BIBREF2.На его основе мы рассматриваем три метрики: Соответствие вопросов (Ques.Match), точность совпадения по всем вопросам, Interaction Match (Int.Match), точность совпадения по всем диалогам и Turn $i$ Match, точность совпадения по вопросам на ходу $i$. Наша реализация основана на PyTorch BIBREF18. , AllenNLP BIBREF19 и библиотечные преобразователи BIBREF20.Мы используем оптимизатор Адама и устанавливаем скорость обучения 1e-3 для всех модулей, кроме BERT, для которого используется скорость обучения 1e-5 BIBREF21.Размерность встраивания слов, встраивания действий и встраивания расстояния равна 100, а размерность скрытого состояния кодера вопроса, декодера на основе грамматики, кодера уровня поворота и кодировщика SQL равна 200.Мы инициализируем встраивание слов с помощью Glove BIBREF22 для моделей, отличных от BERT.Для методов, использующих недавние вопросы $h$, $h$ устанавливается равным 5 в обоих наборах данных.В качестве базовых мы рассматриваем три модели.SyntaxSQL-con и CD-Seq2Seq — два надежных базовых уровня, представленные в документе о наборе данных SPArC BIBREF2.SyntaxSQL-con использует модель BiLSTM для кодирования истории диалогов на основе модели SyntaxSQLNet (аналог нашей Turn) BIBREF23, а CD-Seq2Seq адаптирован из BIBREF4 для междоменных настроек (аналог нашей Turn+Tree Copy).EditSQL BIBREF5 — это базовый вариант STOA, который в основном использует внимание SQL и копирование на уровне токена (аналог нашего Turn+SQL Attn+Action Copy). Взяв Concat в качестве представителя, мы сравниваем производительность нашей модели с другими моделями, как показано. в таблице TABREF34.Как показано, наша модель с большим отрывом превосходит базовые показатели с BERT или без него, достигая новых показателей SOTA на обоих наборах данных.По сравнению с предыдущим SOTA без BERT на SPArC, наша модель улучшает Ques.Матч и Интер.Матч на $10,6$ и $5,4$ очков соответственно.Чтобы провести тщательное сравнение, мы оцениваем 13 различных методов контекстного моделирования на одном и том же парсере, включая 6 методов, представленных в разделе SECREF2, и 7 их выборочных комбинаций (например, Concat+Action Copy).Результаты эксперимента представлены на рисунке FigREF37.В целом очень удивительно наблюдать, что ни один из этих методов не может постоянно превосходить другие.Результаты экспериментов на моделях на основе BERT показывают ту же тенденцию.Углубляясь в методы, используя только недавние вопросы в качестве контекста, мы видим, что Concat и Turn работают конкурентоспособно, значительно превосходя Gate.Что касается методов, использующих в качестве контекста только прецедентный SQL, Action Copy значительно превосходит Tree Copy и SQL Attn по всем показателям.Кроме того, мы видим небольшую разницу в производительности Action Copy и Concat, а это означает, что использование прецедентного SQL в качестве контекста дает почти тот же эффект, что и использование недавних вопросов.Что касается комбинаций различных методов контекстного моделирования, они не значительно улучшают производительность, как мы ожидали.Как упоминалось в разделе SECREF1, интуитивно понятно, что методы, использующие только прецедентный SQL, обладают большей обобщаемостью.Чтобы подтвердить это, мы дополнительно проводим эксперимент вне распределения, чтобы оценить обобщаемость различных методов контекстного моделирования.Конкретно мы выбираем три репрезентативных метода и тренируем их на вопросах на первом и втором ходу, а тестируем их на третьем, четвертом и последующих этапах.Как показано на рисунке FigREF38, Action Copy имеет стабильно сопоставимую или лучшую производительность, что подтверждает интуицию.Между тем, Concat выглядит поразительно конкурентоспособным, демонстрируя, что он также обладает хорошей обобщаемостью.По сравнению с ними Терн более уязвим к вопросам, выходящим за рамки распределения.В заключение отметим, что существующие методы контекстного моделирования в задаче SPC не так эффективны, как ожидалось, поскольку не показывают существенного преимущества перед простым методом конкатенации.Тщательно исследуя контекстуальные явления, мы суммируем их в несколько иерархий.Грубо говоря, в вопросах можно выделить три вида контекстуальных явлений: семантическая полнота, кореференция и многоточие.Семантически полный означает, что вопрос может отражать все значение соответствующего ему SQL.Кореферентность означает, что вопрос содержит местоимения, а многоточие означает, что вопрос не может отразить весь свой SQL, даже если разрешает его местоимения.На более детальном уровне кореференцию можно разделить на 5 типов в зависимости от местоимения BIBREF1.Многоточие можно охарактеризовать по своему намерению: продолжение и замещение.Продолжение предназначено для дополнения дополнительной семантики (например, ${\rm Filter}$), а замена относится к ситуации, когда текущий вопрос предназначен для замены определенной семантики в прецедентном вопросе.Замену можно разделить на 4 типа: явная и неявная и схема и оператор.Явный означает, что текущий вопрос предоставляет контекстные подсказки (т. е. частичное совпадение контекста с прецедентным вопросом), чтобы помочь найти цель замены, а неявный - нет.В большинстве случаев целью является схема или оператор.Чтобы изучить влияние методов контекстного моделирования на различные явления, как показано в таблице TABREF39, мы возьмем набор разработки SPArC в качестве примера для выполнения нашего анализа.Анализ начинается с представления Ques.Соответствие трех репрезентативных моделей указанным выше мелкозернистым типам на рисунке FigREF42.Как показано, хотя разные методы имеют разные сильные стороны, все они плохо работают с определенными типами, которые будут подробно описаны ниже.Углубляясь в кореференцию (слева на рисунке FigREF42), мы видим, что все методы борются с двумя мелкозернистыми типами: определенными именными фразами и одной анафорой.В ходе нашего исследования мы пришли к выводу, что масштаб антецедента является ключевым фактором.Антецедент — это одна или несколько сущностей, обозначаемых местоимением.Его объем может быть либо полным, когда антецедент является прецедентным ответом, либо частичным, когда антецедент является частью прецедентного вопроса.Вышеупомянутые мелкозернистые типы более сложны, поскольку их частичная доля составляет около $40\%$, тогда как для указательного местоимения она составляет всего лишь $22\%$. Это разумно, поскольку частичное требует сложного вывода о контексте.В четвертом примере в таблице TABREF39 слово «один» относится к «домашним животным», а не к «возрасту», поскольку сопутствующим глаголом является «взвешивать».Из этого наблюдения мы делаем вывод, что современные методы контекстного моделирования не работают с местоимениями, которые требуют сложного вывода о контексте.Что касается многоточия (справа на рисунке FigREF42), мы получаем три интересных вывода путем сравнения в трех аспектах.Первый вывод заключается в том, что все модели демонстрируют лучшие результаты при продолжении, чем при замене.Это ожидаемо, поскольку в замене присутствует избыточная семантика, а в продолжении нет.Учитывая восьмой пример в таблице TABREF39, «лошадиная сила» — это избыточная семантика, которая может повысить шум при прогнозировании SQL.Второй вывод связан с неожиданным переходом от неявного (замещения) к явному (замещению).Интуитивно понятно, что явная замена должна превосходить неявную, поскольку она дает больше контекстуальных подсказок.Это открытие показывает, что контекстуальные подсказки, очевидно, не очень хорошо используются методами контекстного моделирования.В-третьих, по сравнению со схемой (заменой), оператор (замена) последовательно обеспечивает сопоставимую или лучшую производительность.Мы считаем, что это вызвано междоменной настройкой, которая затрудняет замену, связанную со схемой.Самая родственная работа — это линия семантического разбора в контексте.В теме SQL BIBREF24 предложил контекстно-независимый синтаксический анализатор CCG, а затем применил его для контекстно-зависимой замены, BIBREF3 применил метод поиска для последовательных вопросов, а BIBREF4 предоставил первое решение для последовательного преобразования последовательности в этой области. .Совсем недавно BIBREF5 представил метод, основанный на редактировании, для повторного использования сгенерированного прецедента SQL.Что касается других форм логики, BIBREF25 фокусируется на понимании команд выполнения в контексте, BIBREF26 — на ответах на вопросы в базе знаний в разговоре, а BIBREF27 — на генерации кода в контексте среды.Наша работа отличается от их работы тем, что мы проводим поисковое исследование, не выполненное предыдущими работами.Есть также несколько связанных работ, в которых исследуются контексты.BIBREF17 исследовал контекстуальные представления в рамках контекстно-независимого семантического анализа, а BIBREF28 изучил, как диалоговые агенты используют историю разговоров для генерации ответа.В отличие от них, наша задача сосредоточена на моделировании контекста для семантического анализа.В рамках той же задачи BIBREF1 суммировал контекстуальные явления на грубом уровне, а BIBREF0 выполнил эксперимент «волшебник страны из страны» для изучения наиболее частых явлений.Нашу работу отличает от них то, что мы не только суммируем контекстуальные явления по мелкозернистым типам, но и проводим анализ методов контекстного моделирования.В этой работе проводится предварительное исследование семантического анализа в контексте, чтобы понять, насколько далеки мы от эффективного моделирования контекста.Путем тщательного сравнения мы обнаружили, что существующие методы контекстного моделирования не так эффективны, как ожидалось.Простой метод конкатенации может оказаться весьма конкурентоспособным.Кроме того, проводя детальный анализ, мы суммируем два потенциальных направления нашей будущей работы: включение здравого смысла для лучшего вывода местоимений и более явное моделирование контекстуальных подсказок.Мы считаем, что открывая исходный код нашего кода и материалов, наша работа может помочь сообществу в более детальной отладке моделей и достижении большего прогресса. | В последнее время семантическому анализу в контексте уделяется значительное внимание, что является сложной задачей, поскольку существуют сложные контекстуальные явления. Предыдущие работы проверили предложенные ими методы в ограниченных сценариях, что побуждает нас провести предварительное исследование методов контекстного моделирования при реальном семантическом анализе в контексте. Мы представляем семантический парсер декодирования на основе грамматики и адаптируем поверх него типичные методы контекстного моделирования. Мы оцениваем 13 методов контекстного моделирования на двух больших сложных междоменных наборах данных, и наша лучшая модель демонстрирует самые современные характеристики на обоих наборах данных со значительными улучшениями. Кроме того, мы суммируем наиболее частые контекстуальные явления с детальным анализом репрезентативных моделей, которые могут пролить свет на потенциальные направления исследований. | 4,715 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Генеративно-состязательные сети для нескольких текстовых корпораций. Генеративно-состязательные сети (GAN) (Goodfellow et al., 2014) относятся к классу генеративных моделей, которые поддаются обучению и могут генерировать примеры искусственных данных, аналогичные существующим.В модели GAN одновременно обучаются две подмодели: генеративная модель INLINEFORM0, из которой можно выбирать примеры искусственных данных, и дискриминативная модель INLINEFORM1, которая классифицирует примеры реальных и искусственных данных из INLINEFORM2.Обучая INLINEFORM3 максимизировать мощность генерации и обучая INLINEFORM4 минимизировать мощность генерации INLINEFORM5 так, чтобы в идеале не было разницы между истинным и искусственным примерами, можно установить минимаксную задачу.Было показано, что модель GAN точно копирует ряд наборов данных изображений, таких как MNIST, База данных лиц Торонто (TFD), CIFAR-10, SVHN и ImageNet (Goodfellow et al., 2014; Salimans et al.2016). Модель GAN была расширена на текстовые данные несколькими способами.Например, Чжан и др. (2016) применили генератор долговременной памяти (Hochreiter and Schmidhuber, 1997) и аппроксимировали дискретизацию для генерации текстовых данных.Более того, Ли и др. (2017) применили модель GAN для создания диалогов, то есть пар вопросов и ответов.Между тем, модель GAN также может применяться для создания вложений текстовых данных в виде набора слов, которые больше фокусируются на ключевых терминах текстового документа, а не на самом исходном документе.Гловер (2016) предоставил такую модель с помощью GAN на основе энергии (Zhao et al., 2017). Насколько нам известно, не было литературы по применению модели GAN к множеству массивов текстовых данных.Были предложены многоклассовые GAN (Лю и Тузель, 2016; Мирза и Осиндеро, 2014), но класс в многоклассовой классификации — это не то же самое, что несколько корпусов.Поскольку знание основного членства каждого текстового документа в корпусе может предоставить более подробную информацию о том, как организованы текстовые документы, и ожидается, что документы из одного и того же корпуса будут иметь схожие темы или ключевые слова, учет информации о членстве может принести пользу при обучении текстовой модели. с контролируемой точки зрения.Мы рассматриваем две проблемы, связанные с обучением многокорпусных текстовых данных: (1) Учитывая отдельный набор векторных представлений слов из каждого корпуса, таких как векторные представления word2vec (Миколов и др., 2013), как получить лучший набор перекрестных вложения слов в корпус из них?(2) Как включить генерацию вложений документов из разных корпусов в одну модель GAN? Для первой задачи мы обучаем модель GAN, которая различает документы, представленные разными вложениями слов, и обучаем встраивание слов между корпусами так, чтобы оно аналогично встраиванию каждого существующего слова в корпус.Для второй задачи мы обучаем модель GAN, которая учитывает как межкорпусные, так и покорпусные «темы» в генераторе, и применяет дискриминатор, который учитывает каждый исходный и искусственный корпус документов.Мы также показываем, что при достаточном обучении распределение искусственных вложений документов эквивалентно исходным.Наша работа имеет следующий вклад: (1) мы расширяем GAN на несколько корпусов текстовых данных, (2) мы предоставляем приложения GAN для точной настройки встраивания слов и создания надежных встраивания документов, и (3) мы устанавливаем теоретические результаты сходимости многоклассовая модель GAN.В разделе 2 рассматриваются существующие модели GAN, относящиеся к этой статье.В разделе 3 описываются модели GAN для обучения межкорпусных вложений слов и создания вложений документов для каждого корпуса, а также объясняются связанные алгоритмы.В разделе 4 представлены результаты двух моделей на наборах текстовых данных и перенесены их в обучение с учителем.В разделе 5 подводятся итоги и завершается статья.В модели GAN мы предполагаем, что примеры данных INLINEFORM0 взяты из распределения INLINEFORM1, а примеры искусственных данных INLINEFORM2 преобразованы из распределения шума INLINEFORM3.Бинарный классификатор INLINEFORM4 выводит вероятность того, что пример данных (или искусственный) является оригинальным.Мы рассматриваем следующую минимаксную задачу DISPLAYFORM0. При достаточной подготовке она показана в Goodfellow et al. (2014) что распределение примеров искусственных данных INLINEFORM0 в конечном итоге эквивалентно распределению данных INLINEFORM1 , т.е. INLINEFORM2 .Потому чтовероятностная структура GAN может быть нестабильной при обучении, предлагается GAN Вассерштейна (Арджовский и др., 2017), который применяет 1-липшицевую функцию в качестве дискриминатора.В GAN Вассерштейна мы рассматриваем следующую минимаксную задачу DISPLAYFORM0. Эти GAN предназначены для общей цели изучения распределения данных без присмотра и создания примеров искаженных данных, похожих на исходные.Мы отмечаем, что во многих случаях наборы данных получаются с контролируемыми метками или категориями, что может добавить объяснительную силу неконтролируемым моделям, таким как GAN.Мы суммируем такие GAN, потому что корпус потенциально можно рассматривать как класс.Основное отличие состоит в том, что классы предназначены исключительно для задач классификации, в то время как нас интересуют вложения, которые можно использовать для любой контролируемой или неконтролируемой задачи.Например, CoGAN (Лю и Тузель, 2016) рассматривает пары примеров данных из разных категорий следующим образом: INLINEFORM0, где веса первых нескольких слоев INLINEFORM0 и INLINEFORM1 (т. е. близких к INLINEFORM2) связаны.Мирза и Осиндеро (2014) предложили условный GAN, в котором генератор INLINEFORM3 и дискриминатор INLINEFORM4 зависят от метки класса INLINEFORM5.Хотя эти GAN генерируют образцы, напоминающие разные классы, другие варианты GAN применяют метки классов для полуконтролируемого обучения.Например, Салиманс и др. (2016) предложили следующую цель DISPLAYFORM0, где INLINEFORM0 имеет классы INLINEFORM1 плюс искусственный класс INLINEFORM2.Подобные модели можно найти в Odena (2016), CatGAN в Springenberg (2016) и LSGAN в Mao et al. (2017).Однако все эти модели рассматривают только изображения и не создают встраивания слов или документов, поэтому они отличаются от наших моделей.Для создания реального текста Чжан и др. (2016) предложили textGAN, в котором генератор имеет следующую форму: DISPLAYFORM0, где INLINEFORM0 — вектор шума, INLINEFORM1 — сгенерированное предложение, INLINEFORM2 — слова и INLINEFORM3.В качестве дискриминатора применяется одномерная сверточная нейронная сеть (Коллоберт и др., 2011; Ким, 2014).Кроме того, применяется взвешенная функция softmax, чтобы сделать функцию argmax дифференцируемой.С помощью textGAN можно генерировать такие предложения, как «мы показываем эффективность наших новых решателей, способных определить оптимальный случайный вектор…».Подобные модели также можно найти у Wang et al. (2016), Пресс и др. (2017) и Раджешвар и др. (2017).Целью нашей работы является обобщение информации из более длинных документов, поэтому мы применяем вложения документов, такие как tf-idf, для представления документов, а не для создания реального текста.Для создания вложений текста в виде набора слов Гловер (2016) предложил следующую модель DISPLAYFORM0, а INLINEFORM0 — это среднеквадратическая ошибка автокодировщика с шумоподавлением, а INLINEFORM1 — это встраивание документа одним горячим словом.Наши модели отличаются от этой модели, поскольку мы рассматриваем встраивание документов tf-idf для нескольких текстовых корпусов в модели deGAN (раздел 3.2), а weGAN (раздел 3.1) можно применять для создания встраивания слов.Кроме того, мы ориентируемся на надежность на основе нескольких корпусов, в то время как Гловер (2016) предполагал один корпус.Для извлечения вложений слов из текстовых данных Миколов и др.(2013) предложили модель word2vec, для которой существует две разновидности: модель непрерывного мешка слов (cBoW) (Миколов и др., 2013b), где соседние слова используются для прогнозирования появления каждого слова; модель пропуска грамм, в которой каждое соседнее слово используется для прогнозирования индивидуально.В GloVe (Pennington et al., 2013) модель билинейной регрессии обучается на основе логарифма матрицы совпадения слов.В этих моделях веса, связанные с каждым словом, используются в качестве встраивания.Для получения вложений документа модель para2vec (Ле и Миколов, 2014) добавляет векторы для каждого абзаца для обучения моделей типа word2vec, так что векторы можно использовать в качестве вложений для каждого абзаца.Более простой подход, заключающийся в том, чтобы взять среднее значение вложений каждого слова в документе и вывести значение встраивания документа, представлен в Socher et al.(2013). Предположим, у нас есть несколько разных корпусов INLINEFORM0 , которые, например, могут быть основаны на разных категориях или тонах текстовых документов.Мы предполагаем, что INLINEFORM1 , INLINEFORM2 , где каждый INLINEFORM3 представляет документ.Слова во всех корпусах собираются в словаре и индексируются от 1 до INLINEFORM4.Мы называем модель GAN для обучения встраивания слов между корпусами как «weGAN», где «мы» означает «встраивание слов», а модель GAN для создания встраивания документов для нескольких корпусов — как «deGAN», где «de» означает «de». «вложения документов». МыПредположим, что для каждого корпуса INLINEFORM0 нам даны вложения слов для каждого слова INLINEFORM1 , где INLINEFORM2 — это размерность каждого встраивания слов.Нам также дана задача классификации документов, которая представлена параметрической моделью INLINEFORM3, принимающей вложения документов в качестве векторов признаков.Мы создаем модель GAN, которая объединяет различные наборы вложений слов INLINEFORM4, INLINEFORM5 в один набор вложений слов INLINEFORM6.Обратите внимание, что задан INLINEFORM7, но INLINEFORM8 обучен.Здесь мы рассматриваем INLINEFORM9 как генератор, а цель дискриминатора — различать документы, представленные исходными вложениями INLINEFORM10, и те же документы, представленные новыми вложениями INLINEFORM11. Далеемы описываем, как документы представляются набором вложений INLINEFORM0 и INLINEFORM1.Для каждого документа INLINEFORM2 мы определяем встраивание его документа с помощью INLINEFORM3 следующим образом: DISPLAYFORM0, где INLINEFORM0 может быть любым сопоставлением.Аналогичным образом мы определяем встраивание документа INLINEFORM1 с INLINEFORM2 следующим образом: с обучаемым INLINEFORM3 DISPLAYFORM0. В типичном примере встраивание слов будет основано на word2vec или GLoVe.Функция INLINEFORM0 может быть основана на tf-idf, т. е. INLINEFORM1, где INLINEFORM2 — это встраивание слова INLINEFORM3 в INLINEFORM4-й корпус INLINEFORM5, а INLINEFORM6 — это tf-idf-представление INLINEFORM7-го документа INLINEFORM8 в INLINEFORM9 — корпус INLINEFORM10. Для обучения модели GAN мы рассматриваем следующую минимаксную задачу DISPLAYFORM0, где INLINEFORM0 является дискриминатором того, является ли документ оригинальным или искусственным.Здесь INLINEFORM1 — это метка документа INLINEFORM2 относительно классификатора INLINEFORM3, а INLINEFORM4 — это единичный вектор, в котором только INLINEFORM5-й компонент равен единице, а все остальные компоненты равны нулям.Обратите внимание, что INLINEFORM6 эквивалентен INLINEFORM7, но мы используем первое обозначение из-за его краткости.Интуитивность задачи (8) объясняется следующим образом.Сначала мы рассматриваем дискриминатор INLINEFORM0, который представляет собой нейронную сеть прямого распространения (FFNN) с двоичными результатами, и классифицирует вложения документа INLINEFORM1 по вложениям исходного документа INLINEFORM2 .Дискриминатор INLINEFORM3 минимизирует эту ошибку классификации, т. е. максимизирует логарифмическую вероятность того, что INLINEFORM4 имеет метку 0 и INLINEFORM5 имеет метку 1.Это соответствует DISPLAYFORM0. Для генератора INLINEFORM0 мы хотим минимизировать (8) по сравнению с INLINEFORM1, чтобы мы могли применить минимаксную стратегию, и объединенные вложения слов INLINEFORM2 будут напоминать каждый набор вложений слов INLINEFORM3 .Между тем, мы также рассматриваем классификатор INLINEFORM4 с результатами INLINEFORM5 и связываем INLINEFORM6 с меткой INLINEFORM7 , чтобы генератор INLINEFORM8 мог учиться на маркировке документа полуконтролируемым способом.Если классификатор INLINEFORM0 выводит INLINEFORM1 -мерный вектор вероятности softmax, мы минимизируем следующее по отношению к INLINEFORM2 , что соответствует (8) с учетом INLINEFORM3 и INLINEFORM4 :DISPLAYFORM0 Для классификатора INLINEFORM0 мы также минимизируем его отрицательное логарифмическое правдоподобие DISPLAYFORM0. Собрав (9-11) вместе, мы получаем исходную минимаксную задачу (8). Мы обучаем дискриминатор и классификатор INLINEFORM0 и комбинированные вложения INLINEFORM1 в соответствии с (9-11) итеративно для фиксированного числа эпох с помощью алгоритма стохастического градиентного спуска, пока ошибки дискриминации и классификации не станут стабильными.Алгоритм weGAN обобщен в Алгоритме 1, а на рисунке 1 показана модель weGAN.Алгоритм 1.Обучите INLINEFORM0 на основе INLINEFORM1 из всех корпусов INLINEFORM2.Случайным образом инициализируйте веса и смещения классификатора INLINEFORM3 и дискриминатора INLINEFORM4 .Пока максимальное количество итераций не достигнет значения. Обновите INLINEFORM5 и INLINEFORM6 в соответствии с (9) и (11), учитывая мини-пакет INLINEFORM7 обучающих примеров INLINEFORM8 .Обновите INLINEFORM9 согласно (10) с учетом мини-пакета INLINEFORM10 обучающих примеров INLINEFORM11 .Выведите INLINEFORM12 как межкорпусное вложение слов.В этом разделе наша цель — создать встраивания документов, которые будут напоминать реальные встраивания документов в каждом корпусе INLINEFORM0 , INLINEFORM1 .Мы конструируем генераторы INLINEFORM2, INLINEFORM3, чтобы INLINEFORM4 генерировал искусственные примеры в корпусе INLINEFORM5.Как и в разделе 3.1, существует определенное встраивание документа, такое как tf-idf, Bag-of-Words или Para2vec.Пусть INLINEFORM6 .Мы инициализируем вектор шума INLINEFORM7, где INLINEFORM8, а INLINEFORM9 — любое распределение шума.Для генератора INLINEFORM0, представленного его параметрами, мы сначала сопоставляем вектор шума INLINEFORM1 со скрытым слоем, который представляет различные темы.Мы рассматриваем два скрытых вектора: INLINEFORM2 для общих тем и INLINEFORM3 для конкретных тем в каждом корпусе. DISPLAYFORM0 Здесь INLINEFORM0 представляет собой нелинейную функцию активации.В этой модели член смещения можно игнорировать, чтобы предотвратить проблему «коллапса режима» генератора.Имея скрытые векторы, мы затем сопоставляем их со сгенерированным внедрением документа с помощью другой функции активации INLINEFORM1, DISPLAYFORM0. Подводя итог, мы можем представить процесс от шума до внедрения документа следующим образом: DISPLAYFORM0 Учитывая сгенерированные внедрения документа INLINEFORM0, мы рассматриваем следующее минимаксная задача для обучения генератора INLINEFORM1 и дискриминатора INLINEFORM2:INLINEFORM3 INLINEFORM4 Здесь мы предполагаем, что любой документ, встраивающий INLINEFORM0 в корпус INLINEFORM1, является образцом относительно плотности вероятности INLINEFORM2.Обратите внимание, что при INLINEFORM3 дискриминационная часть нашей модели эквивалентна исходной модели GAN.Чтобы объяснить (15), сначала рассмотрим дискриминатор INLINEFORM0.Поскольку существует несколько корпусов текстовых документов, здесь мы рассматриваем категории INLINEFORM1 как выходные данные INLINEFORM2 , из которых категории INLINEFORM3 представляют исходные корпуса INLINEFORM4 , а категории INLINEFORM5 представляют сгенерированные вложения документов (например, набор слов) из INLINEFORM6 .Предположим, дискриминатор INLINEFORM7, нейронная сеть прямого распространения, выводит распределение текстового документа, находящегося в каждой категории.Мы максимизируем лог-вероятность того, что каждый документ находится в правильной категории по сравнению с INLINEFORM8 DISPLAYFORM0. Такой классификатор не только классифицирует текстовые документы по различным категориям, но также рассматривает INLINEFORM0 «поддельные» категории из генераторов.При обучении генераторов INLINEFORM1 мы минимизируем следующее, что позволяет сравнить INLINEFORM2 -th и INLINEFORM3 -th категории DISPLAYFORM0. Интуиция (17) заключается в том, что для каждого сгенерированного документа, встраивающего INLINEFORM0, нам нужно уменьшить INLINEFORM1, что является вероятностью правильности классификации сгенерированного внедрения и увеличьте INLINEFORM2 , что является вероятностью классификации сгенерированного внедрения в целевой корпус INLINEFORM3 .Соотношение в (17) отражает эти два свойства.Мы итеративно обучаем (16) и (17), пока ошибка классификации INLINEFORM0 не станет стабильной.Алгоритм deGAN обобщен в Алгоритме 2, а на рисунке 2 показана модель deGAN.Алгоритм 2.Случайно инициализируйте веса INLINEFORM0 .Инициализируйте дискриминатор INLINEFORM1 с весами первого слоя (который принимает встраивания документов в качестве входных данных), инициализированными встраиваниями слов, и другими параметрами, инициализированными случайным образом.До достижения максимального количества итераций. Обновите INLINEFORM2 согласно (16) с учетом мини-пакета обучающих примеров INLINEFORM3 и выборок из шума INLINEFORM4.Обновите INLINEFORM5 согласно (17) с учетом мини-пакета обучающих примеров INLINEFORM6 и выборок формы шума INLINEFORM7.Выведите INLINEFORM8 в качестве генераторов вложений документов и INLINEFORM9 в качестве классификатора корпуса.Затем мы покажем, что из (15) распределения вложений документов из оптимального INLINEFORM0 равны распределениям данных INLINEFORM1, что является обобщением Goodfellow et al.(2014) к многокорпусному сценарию.Предложение 1.Предположим, что случайные величины INLINEFORM0 непрерывны с плотностью вероятности INLINEFORM1 и имеют ограниченную поддержку INLINEFORM2 ; INLINEFORM3 — непрерывная случайная величина с ограниченной поддержкой, а активации INLINEFORM4 и INLINEFORM5 являются непрерывными; и что INLINEFORM6 являются решениями (15).Тогда INLINEFORM7, плотность вероятности вложений документов из INLINEFORM8, INLINEFORM9, равна INLINEFORM10. Доказательство.Поскольку INLINEFORM0 ограничен, все представленные далее интегралы корректно определены и конечны.Поскольку INLINEFORM1 , INLINEFORM2 и INLINEFORM3 непрерывны, из этого следует, что для любых параметров INLINEFORM4 является непрерывной случайной величиной с плотностью вероятности INLINEFORM5 с конечным носителем.Из первой строки (15) INLINEFORM0 Эта проблема сводится к INLINEFORM0 с учетом INLINEFORM1, решением которой является INLINEFORM2, INLINEFORM3.Следовательно, решением (18) является DISPLAYFORM0. Затем из второй строки (15) получаем INLINEFORM0. Из неотрицательности расхождения Кульбака-Лейблера мы заключаем, что INLINEFORM0. В экспериментах мы рассматриваем четыре набора данных, два из которых они созданы недавно, а остальные два уже общедоступны: CNN, TIME, 20 Newsgroups и Reuters-21578.Код и два новых набора данных доступны по адресу github.com/baiyangwang/emgan.Для предварительной обработки всех документов мы преобразовали все символы в нижний регистр, разделили документы и запустили модель word2vec для каждого корпуса, чтобы получить встраивания слов размером 300.Во всех последующих моделях мы рассматриваем только наиболее часто встречающиеся слова INLINEFORM0 во всех корпусах набора данных.Встраивание документа в weGAN представляет собой встраивание взвешенного слова tf-idf, преобразованное активацией INLINEFORM0, т. е. DISPLAYFORM0. Для deGAN мы используем INLINEFORM0 -нормализованный tf-idf в качестве встраивания документа, поскольку его легче интерпретировать, чем преобразованное встраивание в (20). .В weGAN межкорпусные встраивания слов инициализируются с помощью модели word2vec, обученной на основе всех документов.Для обучения наших моделей мы применяем скорость обучения, которая линейно увеличивается от INLINEFORM0 до INLINEFORM1, и обучаем модели в течение 100 эпох с размером пакета 50 на корпус.Классификатор INLINEFORM2 имеет один скрытый слой с 50 скрытыми узлами, а дискриминатор с одним скрытым слоем INLINEFORM3 имеет 10 скрытых узлов.Все эти параметры были оптимизированы.Для меток INLINEFORM4 в (8) мы применяем членство каждого документа в корпусе.Для распределения шума INLINEFORM0 для deGAN мы применяем равномерное распределение INLINEFORM1.В (14) для deGAN, INLINEFORM2 и INLINEFORM3, чтобы модель выдавала векторы внедрения документов, которые сопоставимы с INLINEFORM4-нормализованными векторами tf-idf для каждого документа.Для дискриминатора INLINEFORM5 deGAN мы применяем вложения word2vec на основе всех корпусов для инициализации его первого слоя, за которым следует еще один скрытый слой из 50 узлов.Для дискриминатора INLINEFORM6 мы применяем скорость обучения INLINEFORM7, а для генератора INLINEFORM8 мы применяем скорость обучения INLINEFORM9, поскольку начальная фаза обучения deGAN может быть нестабильной.Мы также применяем размер пакета 50 на корпус.Для слоев softmax deGAN мы инициализируем их журналом матрицы тема-слово в скрытом распределении Дирихле (LDA) (Blei et al., 2003), чтобы обеспечить интуитивно понятные оценки.Для weGAN мы рассматриваем две метрики для сравнения внедрений, обученных с помощью weGAN, и внедрений, обученных на основе всех документов: (1) применение внедрений документов для кластеризации документов в кластеры INLINEFORM0 с помощью алгоритма K-средних и расчет индекса Рэнда (RI). (Рэнд, 1971) против первоначального состава корпуса; (2) точная настройка классификатора INLINEFORM1 и сравнение ошибки классификации с FFNN той же структуры, инициализированной с помощью word2vec (w2v).Для deGAN мы сравниваем производительность точной настройки дискриминатора deGAN для классификации документов и производительность того же FFNN.Каждая контролируемая модель обучается в течение 500 эпох, а набор проверочных данных используется для выбора лучшей эпохи.В наборе данных CNN мы собрали все ссылки на новости на www.cnn.com в базе данных событий GDELT 1.0 с 1 апреля 2013 г. по 7 июля 2017 г.Затем мы собрали новостные статьи по ссылкам и сохранили те, которые принадлежали трем крупнейшим категориям: «политика», «мир» и «США».Затем мы разделили эти документы на учебные документы INLINEFORM0, из которых извлекаются документы проверки INLINEFORM1, и документы тестирования INLINEFORM2.Мы предполагаем, что, поскольку weGAN учитывает метки документов полуконтролируемым способом, встраивания, обученные с помощью weGAN, могут лучше включать информацию о маркировке и, следовательно, создавать вложения документов, которые лучше разделены.Результаты показаны в Таблице 1 и усреднены по 5 рандомизированным сериям.При выполнении t-критерия Уэлча оба изменения после обучения weGAN являются статистически значимыми на уровне значимости INLINEFORM0.Поскольку индекс Рэнда отражает точность сопоставления, из таблицы 1 мы видим, что weGAN имеет тенденцию улучшать оба показателя.Между тем, мы также хотим наблюдать пространственную структуру обученных вложений, которую можно исследовать с помощью синонимов каждого слова, измеряемых косинусным сходством.В среднем 10 лучших синонимов каждого слова различаются на слово INLINEFORM0 после обучения weGAN, а INLINEFORM1 всех слов после обучения имеет разные 10 лучших синонимов.Поэтому weGAN имеет тенденцию вносить небольшие корректировки, а не структурные изменения.В таблице 2 перечислены 10 наиболее похожих терминов из трех терминов: «Обама», «Трамп» и «США» до и после обучения weGAN, упорядоченные по косинусному сходству.Из таблицы 2 мы видим, что для «Обамы», «Трампа» и «Тиллерсона» после обучения weGAN они становятся более похожими, а это означает, что структура вложений weGAN может быть более современной.Что касается «Трампа», мы наблюдаем, что «Клинтон» не входит в число синонимов «до», а находится среди синонимов «после», что показывает, что синонимы после более релевантны.Для «США» мы наблюдаем, что после обучения «Американский» заменяет «Британский» в списке синонимов, что также более актуально.Далее мы обсудим deGAN.В таблице 3 мы сравниваем производительность точной настройки дискриминатора deGAN для классификации документов и производительность FFNN, инициализированного с помощью word2vec.Изменение также статистически значимо на уровне INLINEFORM0.Из таблицы 3 мы видим, что deGAN повышает точность контролируемого обучения.Чтобы сравнить сгенерированные образцы из deGAN с исходным набором слов, мы случайным образом выбираем по одной записи в каждом исходном и искусственном корпусе.Записи представлены наиболее часто встречающимися словами, отсортированными по частоте в порядке убывания, стоп-слова удалены.Вложения «мешка слов» показаны в таблице 4. Из таблицы 4 мы видим, что вложения «мешка слов» исходных документов, как правило, содержат больше объектов имен, в то время как вложения искусственных документов deGAN имеют тенденцию быть более общими. .Существует множество дополнительных примеров, не показанных здесь, с наблюдаемыми искусственными вложениями в набор слов, имеющими множество имен, таких как «Турция», «ИГИЛ» и т. д. из сгенерированных документов, например. «Сирия в конечном итоге ИГИЛ США подробно описывает реактивный самолет «Октябрьский видеоэкстремист»…» Мы также выполняем сокращение размеров с использованием t-SNE (ван дер Маатен и Хинтон, 2008) и отображаем 100 случайных выборок из каждой исходной или искусственной категории.Исходные образцы показаны красным, а сгенерированные — синим на рисунке 3.Мы не проводим дальнейшего разграничения этих категорий, поскольку нет четкого различия между тремя исходными корпусами: «политикой», «миром» и «США».Результаты показаны на рисунке 3. Мы видим, что исходные и искусственные примеры обычно смешаны и плохо разделены, а это означает, что искусственные примеры аналогичны исходным.Однако мы также наблюдаем, что искусственные выборки, как правило, более центрированы и не имеют выбросов (представленных крайним красным овалом). В наборе данных TIME мы собрали все ссылки на новости на time.com в базе данных событий GDELT 1.0 за апрель. с 1 января 2013 г. по 7 июля 2017 г.Затем мы собрали новостные статьи по ссылкам и сохранили статьи, относящиеся к пяти крупнейшим категориям: «Развлечения», «Идеи», «Политика», «США» и «Мир».Мы разделили эти документы на учебные документы INLINEFORM0, из которых состоят документы проверки INLINEFORM1, и документы тестирования INLINEFORM2.В таблице 5 сравниваются результаты кластеризации word2vec и weGAN, а также точность классификации FFNN, инициализированной с помощью word2vec, точно настроенного weGAN и точно настроенного deGAN.Результаты в таблице 5 аналогичны таблицам 1 и 3 для набора данных TIME.Различия также значительны на уровне INLINEFORM0.Из таблицы 5 мы видим, что обе модели GAN обеспечивают улучшенную производительность обучения с учителем.Для weGAN в среднем 10 лучших синонимов каждого слова отличаются на слово INLINEFORM0 после обучения weGAN, а INLINEFORM1 всех слов имеет разные 10 лучших синонимов после обучения.Мы также сравниваем синонимы тех же самых распространенных слов: «Обама», «Трамп» и «США», которые перечислены в Таблице 6. В наборе данных TIME для «Обамы» «Рейган» занимает несколько более высокое место как американский президент.Для «Трампа» «Буш» и «Сандерс» стоят выше американских президентов или кандидатов.Что касается «США», мы отмечаем, что «Пентагон» занимает более высокое место после обучения weGAN, что, по нашему мнению, также разумно, поскольку этот термин тесно связан с правительством США.Для deGAN мы также сравниваем исходные и искусственные образцы по словам с наибольшей вероятностью.В таблице 7 показаны по одной записи для каждой категории.Из таблицы 7 мы видим, что полученные наборы слов в целом одинаковы, а слова в одной выборке в некоторой степени связаны друг с другом.Мы также выполняем сокращение размерностей с использованием t-SNE для 100 примеров на корпус и отображаем их на рисунке 4.Мы видим, что точки генерируются смешанными, но deGAN не может воспроизвести выбросы.Набор данных «20 групп новостей» представляет собой набор новостных документов с 20 категориями.Чтобы уменьшить количество категорий, чтобы модели GAN были более компактными и содержали больше выборок на корпус, мы сгруппировали документы в 6 суперкатегорий: «религия», «компьютер», «автомобили», «спорт», «наука», «наука». » и «политика» («разное» игнорируется из-за его шумности).Мы рассматривали каждую суперкатегорию как отдельный корпус.Мы обучаем weGAN и deGAN в начале раздела 4, за исключением того, что мы используем скорость обучения INLINEFORM3 для дискриминатора в deGAN для стабилизации функции стоимости.В таблице 8 сравниваются результаты кластеризации word2vec и weGAN, а также точность классификации FFNN, инициализированной с помощью word2vec, точно настроенного weGAN и точно настроенного deGAN.Все сравнения статистически значимы на уровне INLINEFORM4.Остальные результаты аналогичны двум предыдущим наборам данных и поэтому здесь опущены.Набор данных Reuters-21578 представляет собой набор статей в новостных лентах.Поскольку набор данных сильно искажен, мы рассмотрели восемь категорий с более чем 100 учебными документами: «заработок», «приобретение», «сырая нефть», «торговля», «деньги-валюта», «проценты», «денежная масса». » и «корабль».Затем мы разделили эти документы на учебные документы INLINEFORM0, из которых имеется 692 документа проверки, и документы тестирования INLINEFORM1.Мы обучаем weGAN и deGAN так же, как и в наборе данных 20 групп новостей.В таблице 9 сравниваются результаты кластеризации word2vec и weGAN, а также точность классификации FFNN, инициализированной с помощью word2vec, точно настроенного weGAN и точно настроенного deGAN.Все сравнения статистически значимы на уровне INLINEFORM2, за исключением индекса Рэнда.Остальные результаты аналогичны наборам данных CNN и TIME и поэтому здесь опущены.В этой статье мы продемонстрировали применение модели GAN к текстовым данным с несколькими корпусами.Мы показали, что модель GAN способна не только генерировать изображения, но также уточнять встраивания слов и генерировать вложения документов.Такие модели могут лучше изучить внутреннюю структуру многокорпусных текстовых данных, а также принести пользу обучению с учителем.Улучшения в контролируемом обучении невелики, но статистически значимы.Модель weGAN превосходит deGAN с точки зрения контролируемого обучения для 3 из 4 наборов данных и поэтому рекомендуется.Синонимы из weGAN также имеют тенденцию быть более актуальными, чем исходная модель word2vec.Графики t-SNE показывают, что наши сгенерированные вложения документов распределяются так же, как и исходные.М. Арджовский, С. Чинтала и Л. Ботту (2017).Вассерштейн ГАН. arXiv:1701.07875.D. Блей, А. Нг и М. Джордан (2003).Латентное распределение Дирихле.Журнал исследований машинного обучения.3:993-1022.Р. Коллоберт, Дж. Уэстон, Л. Ботту, М. Карлен, К. Кавукчуоглу и П. Кукса (2011).Обработка естественного языка (почти) с нуля.12:2493-2537.И. Гудфеллоу, Ж. Пуже-Абади, М. Мирза, Б. Сюй, Д. Вард-Фарли, С. Озаир, А. Курвиль и Ю. Бенджио (2014).Генеративно-состязательные сети.В «Достижениях в области нейронных систем обработки информации» 27 (NIPS 2014).J. Гловер.(2016).Моделирование документов с помощью генеративно-состязательных сетей.На семинаре по состязательному обучению (NIPS 2016).С. Хохрейтер и Дж. Шмидхубер (1997).Длинная кратковременная память.В «Нейронных вычислениях», 9:1735-1780.Y. Ким.Сверточные нейронные сети для классификации предложений (2014).На конференции 2014 года по эмпирическим методам обработки естественного языка (EMNLP 2014).Q.Ле и Т. Миколов.(2014).Распределенные представления предложений и документов.В материалах 31-й Международной конференции по машинному обучению (ICML 2014).Дж. Ли, У. Монро, Т. Ши, А. Риттер и Д. Джурафски (2017).Состязательное обучение для генерации нейронных диалогов.arXiv:1701.06547.M.-Y.Лю и О. Тузель (2016).Связанные генеративно-состязательные сети.В достижениях в области нейронных систем обработки информации 29 (NIPS 2016).X. Мао, Ц. Ли, Х. Се, Р. Лау, З. Ван и С. Смолли (2017).Генерирующие состязательные сети наименьших квадратов.arXiv:1611.04076.Т. Миколов, И. Суцкевер, К. Чен, Г. Коррадо и Дж. Дин. (2013).Распределенные вложения слов и фраз и их композиционность.В достижениях в области нейронных систем обработки информации 26 (NIPS 2013).T. Миколов, К. Чен, Г. Коррадо и Дж. Дин (2013b).Эффективная оценка представлений слов в векторном пространстве.В мастерской (ICLR 2013).М. Мирза, С. Осиндеро.(2014).Условно-генеративно-состязательные сети.arXiv:1411.1784.А. Одена.(2016).Полуконтролируемое обучение с генеративно-состязательными сетями.arXiv:1606.01583.Дж. Пеннингтон, Р. Сочер и К. Мэннинг. Перчатка:Глобальные векторы представления слов (2014).В «Эмпирических методах обработки естественного языка» (EMNLP 2014).О. Пресс, А. Бар, Б. Богин, Дж. Берант и Л. Вольф (2017).Генерация языка с помощью рекуррентных генеративно-состязательных сетей без предварительного обучения.На 1-м семинаре по моделям уровней подслов и символов в НЛП (EMNLP 2017). С. Раджешвар, С. Субраманиан, Ф. Дутиль, К. Пал и А. Курвиль (2017).Состязательная генерация естественного языка.arXiv:1705.10929.W. Рэнд.(1971).Объективные критерии оценки методов кластеризации.Журнал Американской статистической ассоциации, 66:846-850.T. Салиманс, И. Гудфеллоу, В. Заремба, В. Чунг, А. Рэдфорд, X. Чен (2016).Улучшенные методы обучения GAN.В «Достижениях в области нейронных систем обработки информации» 29 (NIPS 2016).Р. Сочер, А. Перелыгин, Алекс, Дж. Ву, Дж. Чуанг, К. Мэннинг, А. Нг и К. Поттс.(2013)Рекурсивные глубокие модели семантической композиционности в дереве настроений.На конференции по эмпирическим методам обработки естественного языка (EMNLP 2013).Дж. Спрингенберг.(2016).Неконтролируемое и полуконтролируемое обучение с категориальными генеративно-состязательными сетями.На 4-й Международной конференции по внедрению обучения (ICLR 2016).Л. ван дер Маатен и Г. Хинтон (2008).Визуализация данных с использованием t-SNE.Журнал исследований машинного обучения, 9:2579-2605.B. Ван, К. Лю и Дж. Чжао (2016).Условно-генеративно-состязательные сети для машинного понимания здравого смысла.На Двадцать шестой Международной совместной конференции по искусственному интеллекту (IJCAI-17). Чжан, З. Ган и Л. Карин (2016).Генерация текста посредством состязательного обучения.На семинаре по состязательному обучению (NIPS 2016).Дж. Чжао, М. Матье и Ю. ЛеКун (2017).Генеративно-состязательные сети на основе энергии.На 5-й Международной конференции по внедрению обучения (ICLR 2017). | Генеративно-состязательные сети (GAN) успешно применяются для искусственного создания данных изображений. Что касается текстовых данных, многое было сделано для искусственного создания естественного языка из единого корпуса. Мы рассматриваем несколько текстовых корпусов в качестве входных данных, для которых могут быть два применения GAN: (1) создание согласованных межкорпусных вложений слов с учетом разных вложений слов в каждом корпусе; (2) создание надежных вложений документов в виде набора слов для каждого корпуса. Мы демонстрируем наши модели GAN на реальных наборах текстовых данных из разных корпусов и показываем, что внедрение обеих моделей приводит к улучшению проблем контролируемого обучения. | 5,631 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Связанная многореляционная сеть внимания для рекомендаций по URL-адресам для проверки фактов. Хотя сайты социальных сетей предоставляют пользователям революционную среду общения, выводя эффективность коммуникации на новый уровень, их легко использовать не по назначению для широкого распространения дезинформации и фейковых новостей.Фейковые новости и дезинформация уже давно являются проблемой для различных целей, таких как политическая пропаганда BIBREF0 и финансовая пропаганда BIBREF1.Для борьбы с фейковыми новостями традиционные издатели нанимали редакторов, которые вручную и тщательно проверяли содержание новостных статей, чтобы сохранить свою репутацию.Однако социальные сети предоставили новый способ распространения новостей, что привело к расширению источников информации и расширению аудитории (т. е. каждый может быть СМИ и создавать новости).В частности, пользователи делятся новостными статьями со своим собственным мнением или читают статьи, которыми поделились их друзья из любого источника новостей, в основном слепо доверяя BIBREF2 или своим собственным идеологиям BIBREF3, BIBREF4.Хотя сообщения в социальных сетях обычно имеют очень короткий жизненный цикл, беспрецедентное количество фейковых новостей может привести к катастрофическим последствиям как для отдельных людей, так и для общества.Помимо введения пользователей в заблуждение ложной информацией BIBREF4, широкое распространение фейковых новостей может даже вызвать кризис доверия всей новостной экосистемы BIBREF5, что еще больше повлияет как на киберпространство, так и на физическое пространство.В литературе исследователи сосредоточились на четырех темах, касающихся фейковых новостей: характеристика (т.е. типы фейковых новостей), мотивация, распространение и меры противодействия BIBREF6, BIBREF7.Большой объем работы был проделан по выявлению фейковых новостей BIBREF5, BIBREF8, BIBREF9, BIBREF10 путем использования множества компонентов, связанных с контентом и социальными сетями.Однако мы отмечаем, что фейковые новости по-прежнему широко распространены даже после раннего обнаружения BIBREF11.Поэтому мы предлагаем изучить дополнительный подход к смягчению распространения и воздействия фейковых новостей.Недавно сообщество и журналисты начали создавать и поддерживать веб-сайты для проверки фактов (например, Snopes.com).Пользователи социальных сетей, называемые фактчекерами, также начали использовать эти страницы проверки фактов в качестве фактических доказательств для разоблачения фейковых новостей, отвечая на плакаты с фейковыми новостями.На рисунке FigREF1 показан реальный пример того, как специалист по проверке фактов в Твиттере разоблачает ложное утверждение другого пользователя с помощью URL-адреса страницы Snopes в качестве доказательства, подтверждающего фактическую коррекцию.В ходе исследования BIBREF12 исследователи обнаружили, что эти специалисты по проверке фактов активно разоблачали фейковые новости в основном в течение одного дня, а их ответы были доступны сотням миллионов пользователей.Чтобы мотивировать этих специалистов по проверке фактов и дальше быстро взаимодействовать с плакатами с фейковыми новостями и разумно потреблять увеличенный объем статей по проверке фактов, в этой статье мы предлагаем новую персонализированную систему рекомендаций URL-адресов для проверки фактов.Согласно BIBREF13, матрица совпадения в данном контексте предоставляет информацию о семантическом сходстве между двумя объектами.Поэтому в предлагаемой нами системе рекомендаций, основанной на глубоком обучении, мы используем две расширенные матрицы: матрицу совпадения пользователей и пользователей и матрицу совпадения URL-URL, чтобы облегчить наши рекомендации.Кроме того, пользователи склонны формировать отношения с единомышленниками BIBREF14.Поэтому мы учитываем социальный контекст каждого пользователя, чтобы уловить семантическую связь и повысить эффективность рекомендаций.Наш основной вклад резюмируется следующим образом: Мы предлагаем новую структуру для персонализированных рекомендаций URL-адресов для проверки фактов, которая опирается на многореляционный контекст соседей.Мы предлагаем два механизма внимания, которые позволяют изучать глубокое семантическое представление как целевого пользователя, так и целевого URL-адреса с разной степенью детализации.Результаты экспериментов показывают, что предложенная нами модель превосходит восемь современных базовых показателей, охватывающих различные типы рекомендательных подходов.Исследование абляции подтверждает эффективность каждого компонента в предлагаемой нами схеме.В этом разделе мы кратко рассматриваем соответствующие работы и позиционируем нашу работу по следующим направлениям: (1) фейковые новости и дезинформация; (2) достижения в области рекомендательных систем; и (3) сверточные сети на графах.Фейковые новости привлекли значительное внимание, поскольку они связаны с нашей повседневной жизнью и стали серьезной проблемой, связанной со многими областями, такими как политика BIBREF0 и финансы BIBREF1.Социальные сети стали одним из популярных средств распространения фейковых новостей и дезинформации.Доминирующим направлением работы в этой теме является обнаружение фейковых новостей BIBREF15, которое в основном формулировалось как задача бинарной классификации.Исследователи начали включать социальный контекст и другие функции для выявления фейковых новостей на ранней стадии и предотвращения их распространения в социальных сетях BIBREF5, BIBREF7.Некоторые другие исследователи сосредоточены на изучении закономерностей распространения фейковых новостей в социальных сетях BIBREF16, BIBREF17. БИБРЕФ18также изучал вмешательство фейковых новостей.В отличие от большинства предыдущих работ, мы следуем указаниям BIBREF12 и предлагаем создать персонализированную рекомендательную систему для продвижения распространения проверочных статей для разоблачения фейковых новостей.Традиционно алгоритмы рекомендаций можно разделить на две категории: совместная фильтрация BIBREF19 и фильтрация на основе контента.Однако в последние несколько лет рекомендации стали более комплексной задачей благодаря успеху глубокой нейронной сети.Нейронные сети (НС) оказались эффективными для выявления основных нелинейных отношений BIBREF20.Еще одним преимуществом является то, что НС расширили возможности модели по извлечению знаний из мультимодальных данных BIBREF21, BIBREF22, BIBREF23, которые служат вспомогательной информацией и предоставляют решения для решения проблемы разреженности данных.Совсем недавно исследователи внедрили механизм внимания в рекомендательные системы, который добился больших успехов в различных областях BIBREF24, BIBREF25.Исследователи разработали несколько вариантов механизма внимания, чтобы улучшить как точность рекомендаций, так и интерпретируемость модели BIBREF26, BIBREF27, BIBREF28, BIBREF29.В этой статье мы также предлагаем две новые конструкции механизма внимания.Следуя BIBREF30 и BIBREF31, мы дополнительно исследуем многореляционный контекст данной пары «пользователь-URL», стремясь выделить наиболее важные элементы в зависимости от предпочтений пользователя, зависящих от URL-адреса.С развитием нейронной сети на основе графов подходы на основе GCN показали высокую эффективность при решении различных задач BIBREF32, BIBREF33, BIBREF34, включая рекомендательную систему.Основная идея заключается в итеративном агрегировании векторов атрибутивных узлов вокруг каждого узла, а сообщения распространяются путем наложения нескольких слоев.Однако первоначальный дизайн GCN не подходит для нашего сценария по следующим причинам:Во-первых, существующие работы GCN BIBREF33, BIBREF34 не различают разные типы узлов, тогда как в нашем случае агрегировать вместе узлы пользователей и URL-адресов не имеет смысла.А функция агрегации, предложенная в большинстве работ GCN, рассматривает все узлы смежности с одинаковой важностью.Это неуместно в реальных приложениях и, вероятно, приводит к игнорированию необходимой информации.BIBREF35 нарушает эту схему, используя механизм многоголового внимания для замены оператора, подобного свертке, однако он требует значительных дополнительных вычислений и памяти.По сравнению с предыдущими работами, в этой статье мы концентрируемся на новом приложении и исследуем как контекст совместного возникновения, так и влияние, связанное с социальным контекстом, для рекомендации URL-адресов для проверки фактов.Мы также включаем наборы вспомогательных атрибутов, которые позволяют более полно изучить совместимость между заданными парами пользователя и URL-адреса.Более того, мы воспользуемся достижениями в области графовых нейронных сетей и механизмов внимания и решим вышеупомянутые исследовательские задачи.Мы формально вводим определения, прежде чем описывать предлагаемую нами структуру.Мы определяем поведение при проверке фактов, когда пользователь (т. е. специалист по проверке фактов) встраивает URL-адрес проверки фактов в свой ответ, чтобы развенчать фейковые новости.Мы рассматриваем каждое поведение при проверке фактов как неявное взаимодействие между целевым пользователем $i$ и целевым URL-адресом $j$. Пусть $\mathcal {U} = \lbrace u_1,u_2,...,u_n\rbrace $ обозначает набор проверяющие факты в социальных сетях и используйте $\mathcal {C} = \lbrace c_1,c_2,...,c_m\rbrace $ для индексации URL-адресов для проверки фактов.Мы строим матрицу взаимодействия пользователя и URL-адреса $Y = \lbrace y_{ij} | u\in \mathcal {U}, v \in \mathcal {C} \rbrace $ в соответствии с поведением пользователей при проверке фактов, где каждое значение 1 для $y_{ij}$ указывает на существование неявного взаимодействия между целевым пользователем $ i$ и целевой URL $j$. Каждому пользователю $u_i$ и каждому URL-адресу $c_j$ соответствует набор атрибутов.Цель задачи рекомендаций — рекомендовать каждому пользователю первые N URL-адресов из набора URL-адресов $\mathcal {C}$.Мы также конструируем весь набор данных в виде гетерогенного графа, который представляет собой особый вид информационной сети, состоящей либо из нескольких типов объектов, либо из разных типов ссылок, либо из того и другого.Формально рассмотрим неоднородный граф $\mathcal {G}=(\mathcal {V},\mathcal {E})$, где $\mathcal {V} (|V|= m + n)$ и $E$ обозначают набор узлов и набор ребер соответственно.Неоднородность представлена функцией отображения типа узла: $\phi : \mathcal {V} \rightarrow \mathcal {A}$ и функцией проекции типа ребра: $\psi : \mathcal {E} \rightarrow \mathcal {R}$ , где $\mathcal {A}$ и $\mathcal {R}$ обозначают наборы предопределённых типов узлов и типов ребер, а $|\mathcal {A}| + |\mathcal {R}| > 2$.Примечаниечто мы не учитываем цикл в построении нашего графа.Учитывая целевого пользователя $i$, мы определяем его следующих лиц, проверяющих факты, и лиц, осуществляющих совместную проверку фактов, как его соседей-пользователей социального контекста и соседей пользователей совместного контекста соответственно.Аналогичным образом мы называем другие URL-адреса, опубликованные целевым пользователем $i$, и URL-адреса, встречающиеся совместно с целевым URL-адресом $j$, соседями URL-адресов исторического контекста и соседями URL-адресов совместного встречающегося контекста соответственно.В общем, мы называем всех соседей контекста многореляционным контекстом данной целевой пары «пользователь-URL».Рисунок FigREF12 иллюстрирует многореляционный контекст.На рисунке FigREF12 $c_1$, $c_2$, $c_3$ представляют собой URL-адреса для проверки фактов, а $u_1$, $u_2$, $u_3$ — это пользователи, которые предполагают совместное использование этих URL-адресов.Например, $(u_1 \rightarrow u_2)$ указывает на социальные отношения между $u_1$ и $u_2$. Интуитивно нас больше волнует влияние $u_2$ на $u_1$. $(u_1 \rightarrow c_1 \leftarrow u_2)$ означает, что $u_1$ и $u_2$ являются соседними пользователями.Аналогичным образом мы называем $c_1$ и $c_2$ соседями URL-адресов, встречающимися совместно с $u_3$, а $c_2$ — соседом URL-адреса исторического контекста для данной целевой пары $u_3$-$c_3$.Мы предлагаем новую структуру под названием Attributed Multi-Relational Attention Network (AMRAN), чтобы понять влияние многореляционного контекста на целевое поведение пользователя при проверке фактов.В этом разделе мы подробно описываем предлагаемый нами AMRAN с использованием обозначений, описанных в таблице TABREF15. На высоком уровне AMRAN состоит из двух модулей, как показано на рисунке FigREF16: (i) сверточной сети пространственного внимания (CSAN) и (ii) сеть внимания гетерогенных графов (HGAN).CSAN совместно моделирует влияние многореляционного контекста на целевую пару «пользователь-URL» (раздел 4.1).Это обогащает разнообразие окружения и расширяет сферу получения информации.HGAN использует как возможность подключения глобального узла, так и атрибуты локального узла, чтобы учесть эффект распространения информации и более глубоко закодировать динамические предпочтения пользователя (раздел 4.2).На заключительном этапе модель выдает рекомендации путем объединения широкого контекстно-зависимого целевого пользовательского внедрения и внедрения URL-адреса, многореляционного контекстного внедрения пользователя и внедрения контекстного URL-адреса, а также глубокого контекстно-зависимого пользовательского внедрения и внедрения URL-адреса (раздел 4.3). ограничивающая рамка на рисунке FigREF16 иллюстрирует структуру модуля CSAN.Чтобы предоставить широкий спектр знаний для создания широкого внедрения целевых пользователей с учетом контекста и внедрения URL-адресов, мы применяем настройку нескольких ветвей в CSAN.Две параллельные ветви моделируют многореляционный контекст для целевого пользователя и целевого URL-адреса соответственно.Каждая ветвь содержит два одинаковых потока.Мы выбираем соседей контекста $b_h$ для каждого потока (например, соседей URL-адреса исторического контекста и соседей URL-адреса контекста, встречающихся совместно с целевым URL-адресом, соседей пользователя социального контекста и соседей пользователя, встречающихся совместно с целевым пользователем).Эти потоки используются для изучения наиболее отличительных функций от многореляционных соседей целевого пользователя и целевого URL-адреса.Затем мы используем шлюзованный уровень слияния, чтобы получить оптимальное представление на глобальном уровне целевой пары «пользователь-URL».Обратите внимание, что мы включаем совместное использование встраивания внутри каждой ветки, поскольку пользователи/URL-адреса используют один и тот же набор функций.Пользователь и URL-адрес связаны с разными наборами функций.Таким образом, CSAN начинается с внедрения набора входных атрибутов каждого соседа контекста.Мы используем $s$ и $t$ для обозначения количества функций, связанных с пользователем и URL-адресом соответственно.Обратите внимание, что размерность первоначального внедрения для каждого атрибута может быть разной, поскольку они могут нести разный объем информации.Мы используем горячее кодирование для ввода категориальных функций и применяем прямой поиск по этим функциям.Однако то же решение работает плохо, когда речь идет о непрерывных атрибутах, таких как частота публикаций URL-адреса.Эмпирическим путем мы обнаружили, что доступным решением является разделение этих функций на небольшие интервалы.В частности, мы отображаем эти непрерывные атрибуты в диапазоне $[0,1), [1,2),..., [2^k, 2^{k+1})$ в $0,1,..., k. $ в этой работе.Затем мы проецируем их в одно и то же скрытое пространство с помощью набора матриц преобразования для конкретных атрибутов $W_1, W_2, ..., W_{s+t}$, чтобы проецировать все атрибуты в $w$-мерное пространство.Атрибуты каждого соседа затем складываются в виде матрицы в форме $s \times w$ для пользователей и $t \times w$ для URL-адресов.Однако мы относимся к целевой паре «пользователь-URL» по-разному.После проецирования атрибутов с помощью той же матрицы преобразования, специфичной для атрибута, что и их реляционные соседи, вместо того, чтобы складывать их в виде матрицы, мы объединяем векторы внедрения атрибутов вместе и пропускаем их через линейную проекцию для создания $u^{\prime }_i \in \mathbb {R}^d$ и $c^{\prime }_j \in \mathbb {R}^d$ для дальнейшего использования.Чтобы предотвратить некоторые неизвестные рассогласования и провести лучшее сравнение между соседними объектами, мы предложили схему для совместного изучения послойного и поканального внимания.В частности, для каждого потока мы складываем матрицы представления соседей вместе, чтобы получить трехмерный тензор $M$. Интуитивно понятно, что дизайн помогает улучшить качество выравнивания соседних объектов.Затем, вдохновленные BIBREF37, BIBREF38, мы используем блок пространственного внимания в каждом потоке для совместного обучения мягкому вниманию на уровне канала и на уровне слоя.На рисунке FigREF21 представлена общая иллюстрация нашего блока пространственного внимания.Все потоки используют идентичные блоки пространственного внимания, и каждый блок независимо посещает представления входных атрибутов.На рисунке для иллюстрации мы используем поток URL-адресов исторического контекста.Выходом блока пространственного внимания является карта весов внимания $S \in \mathbb {R}^{t \times w \times b}$, которая имеет ту же форму, что и входной тензор $M$. Интуитивно понятно, что внимание на уровне слоя и внимание на уровне канала направлены на выбор наиболее отличительных признаков и наиболее важных соседей соответственно.Таким образом, они очень дополняют друг друга по функциональности; и мы применяем факторизованный метод для оптимизации и эффективности вычислений следующим образом: где $L \in \mathbb {R}^{t \times w \times 1}$ и $C \in \mathbb {R}^{1 \times 1 \times b}$ обозначают послойную карту объектов и карту объектов по каналам соответственно.$S$ — результат тензорного умножения.Концептуально, послойное внимание изучает глобально важные элементы объекта.Мы применяем операцию объединения межканальных средних значений к входному тензору, после чего следуют два слоя свертки с фильтрами $3 \times 3$ и $1 \times 1$ соответственно.В частности, операция межканального среднего пула определяется как: где $b$ — количество выбранных соседей.Структура внимания по каналам очень похожа на внимание по слоям, целью которого является получение глобального представления о дискриминирующих пользователях.Формально глобальный средний пул определяется как: где $t$ и $w$ — общая высота и ширина всех каналов.Аналогичным образом мы используем два слоя свертки после операции объединения.Обратите внимание, что за каждым слоем свертки следовала операция пакетной нормализации.Кроме того, как и в других работах над современной структурой CNN BIBREF39, мы добавляем функцию активации ReLU, чтобы гарантировать $L>0, C>0$. Далее мы вводим еще один слой свертки фильтра $1 \times 1 \times b$ для улучшения слияния. послойного внимания и канального внимания.Затем выходной тензор передается через сигмовидную функцию для нормализации и генерации окончательного тензора веса внимания блока пространственного внимания.Формально выходные данные модуля пространственного внимания представляют собой поэлементное произведение исходного тензора признаков $M$ и сгенерированных весов внимания $S$: Интуитивно, посещаемая карта признаков изучила мелкозернистые важные элементы посредством высокого выравнивания и совместимого внимания.Мы применяем еще один слой CNN с фильтром $3 \times 3$ после посещаемого пользователем представления каждого потока для извлечения признаков и измерения: который создает векторы многореляционного контекстного представления: $o_{i_h}, o_{i_c}, o_{u_f }$ и $o_{u_c}$ для каждого потока соответственно.Мы используем механизм шлюзования для присвоения разных весов представлению окрестности, специфичному для отношения, как: где скаляры $g_u$ и $g_v$ изучаются автоматически, чтобы контролировать важность двух потоков в каждой ветви.После недавнего успеха в сверточной сети графов (GCN) BIBREF32, BIBREF33, BIBREF40, BIBREF34, BIBREF35.Мы предлагаем сеть внимания на гетерогенных графах (HGAN), предназначенную для решения рекомендательных задач.В частности, предлагаемый нами модуль использует параллельную структуру внимания для соседа пользователя и соседа URL центрального узла соответственно.Учитывая гетерогенный граф $\mathcal {G}=(\mathcal {V},\mathcal {E})$, узлы представляют объекты в этой сети, которые могут быть либо пользователем, либо URL-адресом.Ребра обозначают отношения между соединенными узлами.Атрибуты узла передаются по краям во время распространения.Мы пытаемся использовать атрибуты локального узла и структуру глобальной сети.Наша новизна заключается в двух аспектах: (i) мы различаем вклад узла URL и узла пользователя соответственно; и (ii) мы учитываем как сходство узлов, так и влияние различных типов отношений.В то время как CSAN получает информацию от многореляционных непосредственных соседей, что расширяет объем знаний для представлений целевого пользователя и целевого URL-адреса, HGAN стремится изучить более глубокие семантические представления целевого пользователя и целевого URL-адреса. Мы пытаемся уловить различные семантические отношения, стоящие за различными типами. узлов и ребер.Для каждого отдельного уровня, если центральный узел является пользовательским, его окружение содержит одновременно встречающихся пользователей и опубликованные URL-адреса.Если типом центрального узла является URL-адрес, его соседние узлы состоят из пользователей, которые его опубликовали, и его совпадающих URL-адресов.Мы применяем аналогичный подход к внедрению, как и в CSAN, для первоначального представления каждого узла, но мы объединяем все функции в длинный вектор $x_i$ для каждого узла вместо того, чтобы объединять их в виде матрицы.Учитывая различные типы узлов, связанных с различным набором функций, мы используем набор матриц преобразования для конкретного типа узла, чтобы проецировать различные типы представления узла в одно и то же пространство объектов перед агрегированием следующим образом: Пусть $H^{(0) } \in \mathbb {R}^{(m+n) \times d}$ — матрица вложения всех атрибутированных узлов, где $m+n$ — общее количество узлов, а d — размерность скрытого вложения космос; каждая строка $h_i^{(0)}$ обозначает начальный вектор внедрения узла $i$. Мы определяем ребра на основе ссылки пользователей на URL-адрес (ребра пользователь-URL), отношения совместного появления пользователей (ребра пользователь-пользователь). ) и совпадение URL-адресов (границы URL-адресов).Затем мы вводим матрицу смежности $A$ группы $\mathcal {G}$, основанную на важности каждого ребра.В частности, для вычисления веса ребер пользователь-пользователь и ребер URL-URL мы используем матрицу под названием Shifted Positive Point-wise Mutual Information (SPPMI) BIBREF41, популярную меру для словесных ассоциаций, чтобы использовать информацию о контексте совместного совпадения. .В сценарии встраивания слов каждая ячейка в матрице измеряет отношение соответствующей пары слово-контекст.Доказано, что факторизация такой матрицы эквивалентна модели пропуска грамм с отрицательной выборкой (SGNS).Поточечная взаимная информация (PMI) между узлами $i$ и узлами $j$ вычисляется как $PMI(i,j)= log \frac{P(i,j)}{P(i)P(j)}$ где $P(i,j) = \frac{\# (i,j)}{|D|}$ и $P(i) = \frac{\# (i)}{|D|}$. $|D|$ обозначает общее количество наблюдаемых пар слово-контекст в пределах заранее определенного скользящего окна.$P(i,j)$ — это совместная вероятность того, что слово $i$ и слово $j$ появятся вместе в пределах размера окна.Кроме того, мы вводим матрицу SPPMI как расширение, основанное на значении PMI: где $k$ — гиперпараметр, который представляет количество отрицательных выборок.Концептуально положительное значение PMI подразумевает семантически коррелированную пару слово-контекст. Следовательно, SPPMI, который принимает только положительное значение PMI, сдвинутое на глобальную константу, отражает более тесную семантическую связь между парами слово-контекст.Вдохновленные этой концепцией/идеей, мы используем $|D|$ для обозначения количества совпадений пользователей (URL) и генерируем матрицу совпадений пользователей в форме $n \times n$ и совпадений URL. матрица $m\times m$. Обратите внимание, что мы не делаем различия между целевым узлом и узлом контекста.Аналогичным образом мы извлекаем уроки из концепции TF-IDF и переопределяем ее в рекомендательной задаче с неявной обратной связью BIBREF42 как: где $\# (i,j)$ представляет собой количество раз, когда URL-адрес $j$ публикуется пользователем $i$. $TF_{ij}$ дополнительно нормализует его по максимальному количеству раз публикации любого URL-адреса пользователем $i$.$IDF_i$ связан с предыдущим поведением пользователя, поскольку $m$ обозначает общее количество URL-адресов, а $m_i$ — это количество URL-адресов, опубликованных пользователем $i$. Формально это вес ребра между узлом $i$ и узел $j$ определяется как: учитывая начальное представление узла, определенное выше, мы затем передаем сообщения для агрегирования информации о соседних узлах и объединения ее с интересами целевого пользователя.Популярной стратегией распространения в существующих работах GCN является нормализованная матрица Лапласа BIBREF32.Несмотря на то, что он доказал свою эффективность, он не поддается обучению и присваивает каждому соседнему узлу одинаковый вес.Следуя предыдущей работе BIBREF35, мы предлагаем включить механизм иерархического внимания для адаптивного изучения веса каждого соседнего узла.Поскольку распределение количества соседей каждого узла сильно разнится, подвыборка становится важной процедурой в нашей задаче, чтобы избежать резкого увеличения затрат на вычисления после сложения нескольких переходов.Мы используем взвешенный случайный выбор (WRS) BIBREF43, чтобы выбрать фиксированное количество узлов для обоих типов узлов на каждом уровне внимания графа.Рисунок ФИГРЕФ40показывает графическую иллюстрацию одного HGAL. Предположим, что центральный узел является пользовательским узлом.Мы отдельно вычисляем веса внимания между пользовательским узлом и его соседями по пользовательскому узлу или между пользовательским узлом и его соседями по URL-узлу.Сходство между представлением узла целевого пользователя $h^{(l)}_u$ и всеми его выбранными соседями определяется как: где $h^{(l)}_i$ — представление пользователя $i$ на уровне $ l$, а $\mathcal {N}^{\phi _t}_i$ обозначает соседа узла на основе типа.В качестве функции подобия мы принимаем $f(h^{(l)}_i,h^{(l)}_j)=cosine(h^{(l)}_i,h^{(l)}_j)$.Интуитивно понятно, что $\alpha ^{\phi }_{ij}$ измеряет важность соседа $j$ по отношению к центральному узлу $i$.При этом мы также получаем вес ребра $A_{ij}$.После этого мы агрегируем представление узла соседства на основе типа и генерируем встраивание соседства как среднее значение различных типов узлов: Чтобы смоделировать распространение информации и зафиксировать отношения более высокого порядка, мы складываем HGAL несколько раз.Кроме того, мы вводим остаточное соединение BIBREF44, чтобы помочь в обучении HGAN со многими слоями. Где $\sigma $ обозначает сигмовидную функцию.$W_g^{(l)}$ и $b_g^{(l-1)}$ — это общая весовая матрица и член смещения на слое $l$ соответственно.Представление узла на $l$-м уровне предоставляет знания на расстоянии $l$ градусов.Уровень взаимодействия предназначен для задач рекомендаций.Напомним, что мы получили широкое внедрение пользователя на основе контекста $u^{\prime }_i$ и внедрение URL $c^{\prime }_j$, представления контекста $p_i$, $p_j$ и глубокое внедрение пользователя на основе контекста $h ^{(l)}_i$ и URL-адрес, встраивающий $h^{(l)}_j$ в предыдущих разделах.Затем мы формулируем окончательное представление пользователя, зависящее от URL-адреса, используя полностью связный уровень: где $W_o$ и $b_o$ — весовая матрица линейного преобразования и термин смещения соответственно.$\oplus $ обозначает конкатенацию векторов.Обратите внимание, что полносвязный уровень можно заменить другими методами (например, CNN).Наконец, мы передаем его через функцию softmax, чтобы вычислить вероятность того, что пользователь заинтересуется данным URL-адресом. Мы применяем функцию перекрестной энтропийной потери в процессе обучения.Мы следуем единой стратегии выборки, чтобы получить отрицательные выборки $(i,j) \in Y^{-}$ из ненаблюдаемых взаимодействий.Поскольку вся архитектура дифференцируема, мы используем обратное распространение ошибки для достижения сквозного обучения.В этом разделе мы описываем набор данных, исходные данные, экспериментальные условия и экспериментальные результаты.В экспериментах мы стремимся ответить на следующие исследовательские вопросы: Вопрос 1: Какова производительность нашей модели и базовых показателей? Вопрос 2: Насколько полезен каждый подмодуль нашей модели? Вопрос 3: Насколько эффективны наши механизмы внимания? Вопрос 4: Какова чувствительность нашей модели в отношении гиперпараметров? Мы оцениваем предлагаемую нами модель на основе набора данных Twitter, полученного от авторов BIBREF12.Поведение взаимодействия, собранное в наборе данных, соответствует нашему определению в SECREF3.Как и в своем исследовании, мы оставляли только тех пользователей, которые совершили как минимум три взаимодействия (т. е. разместили как минимум три сообщения для проверки фактов, содержащие URL-адреса для проверки фактов).Мы выполнили дополнительный этап предварительной обработки, удалив пользователей, чьи сообщения не на английском языке или их твиты были недоступны, поскольку некоторые из наших базовых показателей требуют твитов, проверяющих факты.Наш окончательный набор данных состоит из 11 576 пользователей (т. е. лиц, проверяющих факты), 4 732 URL-адресов для проверки фактов и 63 429 взаимодействий.Набор данных также содержит информацию о социальных сетях каждого пользователя.Обратите внимание, что социальные отношения каждого пользователя ограничены доступными пользователями в наборе данных.Кроме того, мы принимаем во внимание доступные значения функций как пользователя, так и URL-адреса.Например, категория упомянутой статьи для проверки фактов и название соответствующего веб-сайта для проверки фактов раскрывают лингвистические характеристики, такие как стиль написания и тематический интерес каждого URL-адреса; в то время как количество подписчиков и количество подписчиков каждого пользователя указывает на авторитет и влияние фактчекера.Статистика окончательного набора данных представлена в таблице TABREF65. Чтобы измерить относительную эффективность нашей модели, мы сравниваем нашу модель с восемью современными базовыми показателями, включая традиционный метод совместной фильтрации, модели на основе нейронных сетей и контекстно-зависимые модели. подходы.MF BIBREF45 — это стандартный метод совместной фильтрации.Он факторизует матрицу взаимодействия $X \in \mathbb {R}^{M \times N}$ на две матрицы $U \in \mathbb {R}^{M \times d}$ и $X \in \mathbb { R}^{d \times N}$. $U$ содержит скрытое представление каждого пользователя, а $X$ содержит скрытое представление каждого URL.GAU BIBREF12 — это платформа, специально разработанная для рекомендации URL-адресов для проверки фактов с использованием обширной дополнительной информации, такой как социальная сеть пользователя, твиты и упомянутые страницы проверки фактов.Это наиболее актуальный и ориентированный на предметную область базовый уровень.NeuMF BIBREF20 — это алгоритм рекомендации предметов на основе нейронной сети.Мы приняли составную версию MF совместно с MLP.CMN BIBREF30 сочетает в себе глобальную модель скрытых факторов с расширенной сетью памяти для захвата персонализированной структуры на основе соседей нелинейным образом.NAIS BIBREF31 — это архитектура совместной фильтрации на основе элементов, которая объединяет механизм внимания, позволяющий различать вклад ранее потребленных элементов.Авторы предложили две версии NAIS: (1) $NAIS_{concat}$, которая объединяет два вектора для определения веса внимания; и (2) $NAIS_{prod}$, который передает поэлементное произведение двух векторов в сеть внимания.Поэтому мы также построим две версии NAIS и сравним их с нашей моделью.DeepCoNN BIBREF46 изначально был предложен для задачи прогнозирования рейтинга элемента, которая совместно моделирует пользователя и элемент на основе их текстовых обзоров.Предыдущая работа показывает, что он значительно превосходит другие методы, основанные на тематическом моделировании.Мы повторно реализовали базовый план и адаптировали его для нашей задачи рекомендаций с неявной обратной связью.NARRE BIBREF47 — это платформа на основе глубоких нейронных сетей для задачи прогнозирования рейтинга предметов.Он использует механизм внимания, чтобы определить важность каждого обзора.Мы повторно реализовали структуру для нашей ситуации с неявной обратной связью.NGCF BIBREF48 — это новая структура рекомендаций, основанная на графовой нейронной сети, явно кодирующая совместный сигнал в форме связности высокого порядка в двудольном графе пользовательского элемента путем выполнения распространения встраивания.В таблице TABREF66 представлены характеристики базовых показателей и нашей модели, показывая, какую информацию использует каждая модель.Обратите внимание, что хотя CMN и NAIS используют контекст совместного появления, CMN использует только контекст совместного появления пользователя, тогда как NAIS изучает контекст совместного появления URL.Мы применяем протокол оценки с исключением одного для оценки эффективности нашей модели и базовых показателей.Протокол оценки с исключением одного широко использовался в рекомендательных задачах Top-K.В частности, мы использовали последнее взаимодействие каждого пользователя в качестве тестового набора, а оставшиеся взаимодействия использовали для обучения.Каждый экземпляр тестирования был связан с 99 случайно выбранными отрицательными экземплярами.Каждая рекомендательная модель ранжирует 100 экземпляров в соответствии с прогнозируемыми результатами.Ранжированный список оценивается по коэффициенту попадания (HR) BIBREF49 и нормализованному совокупному приросту скидки (NDCG) BIBREF50 на позиции 10.HR@10 — это показатель, основанный на отзывах, измеряющий процент правильно рекомендованных элементов тестирования в топ-10.NDCG@10 — это ранжированная оценочная метрика, которая учитывает позицию правильного попадания в ранжированном результате.Поскольку оба модуля в нашей структуре вводят случайность, мы повторяем каждый эксперимент 5 раз с инициализацией разного веса и случайным выбором соседей.Мы сообщаем средний балл наилучшей производительности в каждом процессе обучения по обоим показателям, чтобы обеспечить надежность нашей структуры.Мы реализуем нашу структуру с помощью платформы Pytorch, инициализируем весовые параметры с помощью инициализации Xavier BIBREF51 и оптимизируем модель с помощью оптимизатора Adam BIBREF52.Размер мини-пакета установлен на 128.Эмпирически в CSAN мы выбираем по 10 соседей для каждого потока.В HGAN мы выбираем 8 соседей пользователей и 8 соседей URL для каждого центрального узла на одном уровне, а количество слоев внимания графа по умолчанию установлено равным 2.Если объекта (например, соседа пользователя или соседа URL) недостаточно, мы дополняем последовательность векторами нулей.В предлагаемой модели AMRAN все гиперпараметры настраиваются с помощью поиска по сетке в наборе проверки, который формируется путем выделения одного взаимодействия каждого пользователя из обучающих данных, как в предыдущей работе BIBREF20.Мы проводим поиск по сетке по размеру скрытого измерения от {8,16,32,64}, члену регуляризации от {0,1, 0,01, 0,001, 0,0001, 0,00001}, скорости обучения от {0,0001, 0,0003, 0,001, 0,01, 0,05, 0,1}, а SPPMI сместил постоянное значение $s$ с {1, 2, 5, 10}.Количество отрицательных образцов для каждого положительного взаимодействия установлено равным 4.Мы принимаем одинаковый размер скрытых размеров для всех субмодулей.Для справедливого сравнения мы также тщательно оптимизируем гиперпараметры базовых показателей, используя набор проверки.В таблице TABREF70 представлены характеристики нашей модели и базовые показатели.Согласно результатам и информации, описанным в Таблице TABREF66, у нас были следующие наблюдения.Во-первых, подходы, основанные на глубоком обучении, обычно дают более высокую производительность, чем традиционные модели (например, MF и GAU).Это наблюдение имеет смысл, поскольку (1) традиционные модели не смогли уловить важную нелинейную связь между пользователями и URL-адресами для проверки фактов; (2) Большинство базовых моделей, основанных на глубоком обучении, используют механизм внимания, который помогает лучше понять семантическую связь между пользователем и URL-адресом; и (3) приемы обучения, такие как отсев и нормализация пакетов, также способствуют повышению качества обучения.В частности, $NAIS_{concat}$ обеспечивает более высокую производительность, чем $NAIS_{prod}$, что подтверждает причину (1). Второе наблюдение заключается в том, что модели с просмотром текста достигают лучших результатов по сравнению с методами, основанными на совместной фильтрации.Это неудивительно, поскольку текстовый контент содержит богатую информацию, которая может быть вспомогательной для неявных данных обратной связи и, таким образом, повышать точность рекомендаций.Однако мы заметили, что подходы к рекомендациям на основе текста обычно имеют высокую сложность.В-третьих, социальный контекст и контекст совместного возникновения играют важную роль в улучшении результатов рекомендаций.NAIS значительно превосходит CMN и становится самой сильной базовой моделью.Это указывает на то, что отношения совместного появления URL-URL более важны, чем отношения совместного появления пользователь-пользователь, поскольку семантическое представление каждого пользователя намного сложнее, чем семантическое представление URL-адреса для проверки фактов. В целом, наш AMRAN превосходит все базовые показатели, достигая 0,657. ЧСС@10 и 0,410 NDCG@10.Это улучшает HR@10 на 5,3% и NDCG@10 на 3% по сравнению с лучшим базовым уровнем (т. е. $NAIS_{concat}$). В этом эксперименте мы заинтересованы в измерении эффективности наших субмодулей AMRAN:ЦСАН и ХГАН.Стол TABREF71результат эксперимента.CSAN достигает 0,642 HR@10 и 0,387 HR@10, тогда как HGAN достигает 0,653 HR@10 и 0,403 NDCG@10.Оба субмодуля превосходят все базовые показатели HR@10.HGAN превосходит все базовые показатели, а CSAN конкурентоспособен по сравнению с базовыми показателями.Этот экспериментальный результат подтверждает, что и CSAN, и HGAN положительно влияют на работу нашего AMRAN. Мы предложили два механизма внимания: (1) блок пространственного внимания в CSAN; и (2) механизм внимания к графам в HGAN, описанный в разделе SECREF4.В этом эксперименте мы заинтересованы в изучении влияния механизмов внимания.В частности, мы запускаем каждый субмодуль AMRAN (т. е. CSAN или HGAN) с соответствующим механизмом внимания или без него.В таблице TABREF74 показаны характеристики этих моделей.В обоих подмодулях предложенные нами механизмы внимания положительно улучшили производительность этих подмодулей, подтвердив положительное влияние на правильную рекомендацию URL-адресов для проверки фактов.Теперь мы переходим к анализу того, насколько наша модель чувствительна к значениям гиперпараметров и какое значение гиперпараметра дает наилучший рекомендательный результат.Напомним, что мы используем контекстную информацию для создания комплексного внедрения данного пользователя и URL-адреса.В CSAN мы используем четыре потока для сбора детальных характеристик контекста и совместного использования матрицы весов внедрения с представлениями целевого пользователя и целевого URL-адреса.В первом эксперименте мы изменяем количество соседей, связанных с каждым паром в CSAN, чтобы показать, как меняется производительность CSAN.На рисунке FigREF76 показано, что $HR@10$ и $NDCG@10$ имеют схожие тенденции, и выбор 10 соседей в каждом потоке дал лучший результат.Далее мы измеряем, как меняется производительность HGAN при изменении количества HGAL и размера выбранных соседних узлов на каждом уровне.Рисунок FigREF77 демонстрирует необходимость использования двух HGAL, которые постоянно превосходят один HGAL.Наилучшая производительность была достигнута, когда размер выбранных соседних узлов был установлен равным 8.Кроме того, мы варьируем количество отрицательных выборок и размер скрытого семантического пространства для целевого пользователя и целевого URL-адреса (т. е. размер вектора внедрения целевого пользователя и целевого URL-адреса).На рисунке FigREF78 показано, что многомерное скрытое семантическое пространство обеспечивает высокую производительность AMRAN.64-мерные вложения дали наилучшие результаты.Мы также наблюдаем, что одной отрицательной выборки будет недостаточно для получения хороших результатов, особенно когда размер вектора внедрения невелик.Максимальная производительность достигается, когда один положительный экземпляр сочетается с 3 или 4 отрицательными экземплярами.Механизм внимания не только улучшает эффективность рекомендаций нашей модели, но и обеспечивает объяснимость нашей модели.В качестве примера мы специально выбрали пример, демонстрирующий распространение релевантности.В частности, мы случайным образом выбрали пользователя 7849 в качестве примера, как показано на рисунке FigREF80.У пользователя 7849 есть 3 совпадающих пользователя, 3 следующих пользователя и опубликовано 4 URL-адреса.Обратите внимание, что для простоты мы опускаем менее важных соседей 2-й степени.Наиболее важные соседи и пути распространения автоматически выделяются с помощью механизма внимания.В целом, основываясь на URL-адресах исторического контекста пользователя, мы видим, что тема, в разоблачении которой пользователь 7849 хотел бы участвовать, — это фальсография.Однако в этом конкретном случае наиболее влиятельными контекстными соседями пользователя являются пользователь 25 (совместный пользователь) и пользователь 4759 (социальный контекст) с URL-адресом 1623.Оба контекстных соседа разделяют схожие вкусы с пользователем 7849 на любимом веб-сайте (Politifact.com).Более того, мы обнаружили, что URL-адрес 2525 появился во 2-й степени соседства пользователя 7849 и был создан с того же веб-сайта (Snopes.com), что и URL-адрес 1623. В этой статье мы предложили новую структуру, которая эффективно рекомендует соответствующие факты: проверка URL-адресов для фактчекеров.Предлагаемая структура, вдохновленная недавними достижениями в области графовых нейронных сетей и механизма внимания, использовала контекстную информацию, специфичную для URL-адреса пользователя, для захвата глубокой семантической и сложной структуры между целевым пользователем и целевым URL-адресом.Мы сравнили производительность нашей модели AMRAN с восемью современными базовыми показателями.Результаты экспериментов показали, что наша модель достигла улучшения до 5,3% по сравнению с лучшим базовым уровнем.Оба субмодуля AMRAN положительно повлияли на результаты рекомендаций.Эта работа частично поддерживалась грантом NSF CNS-1755536, AWS Cloud Credits for Research и Google Cloud.Любые мнения, выводы и выводы или рекомендации, выраженные в этом материале, принадлежат автору(ам) и не обязательно отражают точку зрения спонсоров. | Для борьбы с фейковыми новостями исследователи в основном сосредоточились на обнаружении фейковых новостей, а журналисты создавали и поддерживали сайты проверки фактов (например, этот http URL и этот http URL). Однако распространение фейковых новостей широко пропагандируется через сайты социальных сетей, и эти сайты проверки фактов не используются в полной мере. Чтобы преодолеть эти проблемы и дополнить существующие методы борьбы с фейковыми новостями, в этой статье мы предлагаем систему рекомендаций URL-адресов для проверки фактов, основанную на глубоком обучении, для смягчения воздействия фейковых новостей на сайтах социальных сетей, таких как Twitter и Facebook. В частности, предлагаемая нами структура состоит из многореляционного модуля внимания и гетерогенной графовой сети внимания для изучения сложных/семантических отношений между парами пользователь-URL, парами пользователь-пользователь и парами URL-URL. Обширные эксперименты на реальном наборе данных показывают, что предлагаемая нами система превосходит восемь современных моделей рекомендаций, достигая улучшения как минимум на 3–5,3%. | 6,940 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Не забывай меня: уменьшение катастрофического забывания для адаптации предметной области при понимании прочитанного. Понимание прочитанного (RC) — это задача ответа на вопрос с учетом контекстного отрывка.Что касается вопросов-ответов (QA), RC рассматривается как модуль в полном конвейере QA, где предполагается, что связанный отрывок контекста был извлечен, и цель состоит в том, чтобы дать ответ на основе контекста.В последние годы создание крупномасштабных наборов данных открытого доменного понимания BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4, BIBREF5 стимулировало разработку множества сквозных систем нейронного понимания с многообещающими результатами.Несмотря на эти успехи, эти современные системы понимания сложно обучать на данных узкой области (например, биомедицинских), поскольку эти модели часто имеют большое количество параметров.Лучшим подходом является передача знаний посредством тонкой настройки, т. е. путем предварительного обучения модели с использованием данных из большой исходной области и продолжения ее обучения на примерах из небольшой целевой области.Это эффективная стратегия, хотя точно настроенная модель часто работает плохо при повторном применении к исходному домену — явление, известное как катастрофическое забывание BIBREF6, BIBREF7, BIBREF8, BIBREF9.Обычно это не проблема, если целью является оптимизация исключительно для целевой области, но в реальных приложениях, где надежность модели является важным качеством, чрезмерная оптимизация для набора разработки часто приводит к неожиданному снижению производительности при применении к тестовым примерам. в дикой природе.В этой статье мы исследуем стратегии, позволяющие уменьшить забывание систем понимания во время адаптации предметной области.Наша цель — максимально сохранить производительность исходного домена, сохраняя при этом оптимальную производительность целевого домена и не допуская доступа к исходным данным.Мы экспериментируем с рядом вспомогательных штрафных членов, чтобы упорядочить процесс тонкой настройки для трех современных моделей RC: QANet BIBREF10, decaNLP BIBREF11 и BERT BIBREF12.Мы наблюдаем, что сочетание различных вспомогательных штрафных санкций приводит к наилучшей производительности, превосходя по производительности тестовые методы, требующие исходных данных.Технически говоря, предлагаемые нами методы не ограничиваются передачей домена для понимания прочитанного.Мы также показываем, что методологию можно использовать для перехода к совершенно другим задачам.С учетом вышесказанного, мы сосредоточимся здесь на понимании, потому что это практическая проблема в реальных приложениях, где целевой домен часто имеет небольшое количество пар контроля качества, и при точной настройке на основе небольшого набора разработки легко происходит переобучение.В этом сценарии разработать надежную модель так же важно, как и достичь оптимальных показателей разработки.Чтобы продемонстрировать применимость нашего подхода, мы применяем тематическое моделирование к msmarco BIBREF1 — набору данных понимания, основанному на поисковых запросах в Интернете, — и собираем примеры, относящиеся к ряду важных тем, создавая 6 наборов данных RC малого и среднего размера для следующих области: биомедицина, компьютеры, кино, финансы, право и музыка.Мы фокусируемся на экстрактивном RC, где ответом является непрерывный поддиапазон в отрывке контекста.Скрипты для создания наборов данных доступны по адресу: https://github.com/ibm-aur-nlp/domain-special-QA. Большинство больших наборов данных для понимания являются открытыми, поскольку неспециалистов можно легко нанять через краудсорсинговые платформы. собирать аннотации.С другой стороны, разработка наборов данных RC для конкретной предметной области является дорогостоящей из-за необходимости в экспертах в данной области, и поэтому размер этих наборов данных обычно ограничен.Примеры включают bioasq BIBREF14 в биомедицинской области, который имеет менее 3 тысяч пар QA — на несколько порядков меньше по сравнению с большинством крупномасштабных наборов данных в открытом домене. BIBREF1, BIBREF2, BIBREF3, BIBREF5.BIBREF7 исследуют адаптацию контролируемой области для понимания прочитанного, путем сначала предварительно обучают свою модель на больших объемах данных открытого домена, а затем настраивают ее на биомедицинских данных.Этот подход существенно повышает производительность биомедицинской области по сравнению с обучением модели с нуля.В то же время его производительность в исходном домене резко снижается из-за катастрофического забывания BIBREF6, BIBREF15, BIBREF16. Проблема катастрофического забывания представляет собой меньшую проблему, когда во время обучения присутствуют данные из нескольких доменов или задач.Например, в BIBREF11 их модель decaNLP обучается одновременно на 10 задачах — все они рассматриваются как задача контроля качества — и забывание минимально.Для многодоменной адаптации BIBREF17 и BIBREF18 предлагают использовать модель K+1 для фиксации общей модели предметной области, которая является общей для K доменов, что приводит к созданию более надежной модели.Использование многозадачного обучения для борьбы с катастрофическим забыванием эффективно и позволяет создавать надежные модели.Однако недостатком является то, что при обучении для каждого нового домена/задачи должны быть доступны данные из предыдущих доменов/задач.В нескольких исследованиях представлены методы уменьшения забывания при ограниченном доступе или отсутствии доступа к предыдущим данным BIBREF19, BIBREF20, BIBREF8, BIBREF21, BIBREF9.Вдохновленный синаптической консолидацией, BIBREF8 предлагает выборочно наказывать изменение параметров во время тонкой настройки.Значительные обновления параметров, которые считаются важными для исходной задачи, влекут за собой большие штрафы.BIBREF20 представляет градиентную эпизодическую память (gem), позволяющую эффективно передавать знания из предыдущих задач.Точнее, подмножество данных из предыдущих задач хранится в эпизодической памяти, на основе которой вычисляются опорные векторы градиента, а углы с векторами градиента для текущей задачи ограничиваются диапазоном от $-90$ до 90.BIBREF9 предлагает объединить драгоценный камень с метаобучением на основе оптимизации, чтобы преодолеть забывание.Среди этих трех методов только метод BIBREF8 предполагает нулевой доступ к предыдущим данным.Для сравнения, последние два полагаются на доступ к памяти, в которой хранятся данные из предыдущих задач, что не всегда осуществимо в реальных приложениях (например, из-за проблем с конфиденциальностью данных). Мы используем отряд v1.1 BIBREF2 в качестве исходных данных домена для предварительное обучение модели понимания.Он содержит более 100 тысяч экстрактивных троек (контекст, вопрос, ответ) только с вопросами, на которые можно ответить.Для создания данных целевого домена мы используем msmarco BIBREF1 — большой набор данных RC, в котором вопросы выбираются из поисковых запросов Bing™, а ответы генерируются пользователями вручную на основе фрагментов веб-документов.Мы применяем тематическую модель LDA BIBREF22 к отрывкам в msmarco и изучаем 100 тем.Учитывая темы, мы маркируем их и выбираем 6 основных областей: биомедицина (ms -bm), компьютерные технологии (ms -cp), кино (ms -fm), финансы (ms -fn), право (ms -lw) и музыка ( мс-мс).Пара QA относится к одному из этих доменов, если основная тема ее отрывка принадлежит им.Мы создаем несколько обучающих примеров (контекст, вопрос, ответ), если пара QA имеет несколько контекстов, и фильтруем их, чтобы оставить только извлекающие примеры.В дополнение к наборам данных msmarco мы также экспериментируем с реальным набором данных биомедицинского понимания: bioasq BIBREF25.Каждый вопрос в bioasq связан с набором фрагментов в качестве контекста, причем фрагменты представляют собой отдельные предложения, извлеченные из аннотации/заголовка научной публикации в PubMed Central™.Существует четыре типа вопросов: фактоид, список, да/нет и резюме.Поскольку наше внимание сосредоточено на экстрактивном RC, мы используем только экстрактивные фактоидные вопросы из bioasq.Как и раньше, мы создаем несколько обучающих примеров для пар QA с несколькими контекстами.Для каждого целевого домена мы разделили примеры на разделы 70%/15%/15% обучения/разработки/тестирования.Мы представляем некоторую статистику для наборов данных в таблице TABREF2. Сначала мы предварительно обучаем модель RC общего домена в отряде, нашем исходном домене.Учитывая предварительно обученную модель, мы затем выполняем тонкую настройку (finetune) наборов данных msmarco и bioasq: всего 7 целевых доменов.Под тонкой настройкой мы подразумеваем принятие предварительно обученных параметров модели в качестве исходных параметров и соответствующее их обновление на основе данных из нового домена.Чтобы уменьшить забывание в исходном домене (отряде), мы экспериментируем с включением вспомогательных штрафных условий (например, L2 между новыми и старыми параметрами) в стандартную перекрестную потерю энтропии, чтобы упорядочить процесс тонкой настройки.В наших экспериментах мы исследуем 3 современные модели RC: QANet BIBREF10; decaNLP BIBREF11; и БЕРТ БИБРЕФ12.QANet — это модель понимания BIBREF26 на основе Transformer, в которой кодер состоит из сложенных слоев свертки и самообслуживания.Цель модели — предсказать положение начального и конечного индексов слов ответа в контексте.decaNLP — это рекуррентная сетевая модель понимания, обучаемая одновременно десяти задачам НЛП, каждая из которых представляет собой задачу «вопрос-ответ».Большая часть гибкости decaNLP обусловлена его сетью генераторов указателей, которая позволяет ему генерировать слова, извлекая их из вопросов или фрагментов контекста или извлекая их из словаря.BERT — это модель глубокого двунаправленного кодера, основанная на трансформаторах.Он предварительно обучается на большом корпусе без присмотра с использованием модели замаскированного языка и цели прогнозирования следующего предложения.Чтобы применить BERT к конкретной задаче, стандартной практикой является добавление дополнительных выходных слоев поверх предварительно обученного BERT и точная настройка всей модели для этой задачи.В нашем случае для RC добавляются 2 выходных слоя: один для прогнозирования начального индекса, а другой — конечного индекса.BIBREF12 демонстрирует, что эта стратегия трансферного обучения обеспечивает высочайшую производительность при решении ряда задач НЛП.В частности, что касается RC, BERT (BERT-Large) набрал в команде оценку F1 93,2, превзойдя человеческие результаты на 2 балла.Обратите внимание, что модели BERT и QANet RC являются экстрактивными моделями (цель — предсказать 2 индекса), а decaNLP — генеративной моделью (цель — сгенерировать правильную последовательность слов).Кроме того, в отличие от QANet и decaNLP, BERT не предназначен специально для RC.Это представляет собой растущую тенденцию в литературе, когда крупные модели предварительно обучаются на больших корпусах и в дальнейшем адаптируются к последующим задачам.Чтобы уменьшить забывание знаний об исходной области, мы вводим вспомогательные штрафные условия для регуляризации процесса тонкой настройки.Мы предпочитаем этот подход, поскольку он не требует хранения образцов данных из исходного домена.В целом существует два вида наказания: избирательное и неизбирательное.Первый наказывает модель, когда определенные параметры значительно отличаются от исходной модели, а второй использует заранее определенную функцию расстояния для измерения изменения всех параметров.Для выборочного штрафа мы используем эластичную консолидацию веса (EWC: BIBREF8), которая оценивает важность параметра на основе его градиента при обучении исходной модели.Для неселективного штрафа мы исследуем L2 BIBREF7 и косинусное расстояние.Подробно методы описаны ниже.Учитывая исходный и целевой домен, мы сначала предварительно обучаем модель в исходном домене, а затем настраиваем ее в целевом домене.Обозначим оптимизированные параметры исходной модели как ${\theta ^*}$, а целевой модели — как ${\theta }$.Для стандартной тонкой настройки (finetune) функция потерь имеет следующий вид: где $\mathcal {L}_{ce}$ — это перекрестная энтропийная потеря.Для неселективного штрафа мы измеряем изменение параметров на основе функции расстояния (считая все параметры одинаково важными) и добавляем его как член потери в дополнение к потере перекрестной энтропии.Одной из функций расстояния, которую мы тестируем, является расстояние L2: где $\lambda _{l2}$ — гиперпараметр масштабирования для взвешивания вклада штрафа.Отныне все гиперпараметры масштабирования обозначаются с помощью $\lambda $. Мы также экспериментируем с косинусным расстоянием, основываясь на идее, что мы хотим добиться того, чтобы параметры были в одном направлении после точной настройки.В этом случае мы группируем параметры по переменным, в которых они определены, и измеряем косинусное расстояние между переменными: где $\theta _v$ обозначает вектор параметров, принадлежащих переменной $v$. Для выборочного штрафа EWC использует матрицу Фишера $F$ для измерения важности параметра $i$ в исходном домене.В отличие от неселективного штрафа, при котором все параметры считаются одинаково важными, EWC предоставляет механизм взвешивания обновления отдельных параметров: где $\frac{\partial \mathcal {L}_{ce} (f_{\theta ^*}, (x, y))}{\partial \theta ^*}$ — градиент обновления параметров в исходной области, где $f_{\theta ^*}$ представляет модель, а $x$/$y$ — данные /label из исходного домена.В предварительных экспериментах мы заметили, что EWC имеет тенденцию присваивать большую часть весов небольшому подмножеству параметров.Мы представляем рисунок FigREF7, график средних значений Фишера для всех переменных в QANet после его обучения в отряде, исходном домене.Мы видим, что только две последние переменные имеют значительный вес (и небольшой вес для остальных переменных).Поэтому мы предлагаем новый вариант EWC, нормализованный EWC, путем нормализации весов внутри каждой переменной посредством нормализации min-max, которая поднимает веса для параметров в других переменных (рис. FigREF7): где $\lbrace F\rbrace ^{v_i }$ обозначает набор параметров переменной $v$, которому принадлежит параметр $i$.Среди четырех вспомогательных штрафных условий L2 и EWC были предложены в предыдущей работе, тогда как косинусное расстояние и нормализованный EWC являются новыми штрафными терминами.Учитывая, что EWC и нормализованный EWC по сути представляют собой взвешенные расстояния $l1$, а L2 основан на расстоянии $l2$, в то время как косинусное расстояние фокусируется на угле между переменными (и игнорирует величину), мы предлагаем объединить их вместе, поскольку эти разные метрики расстояния могут дополнять друг друга. друг друга в регуляризации процесса тонкой настройки: Мы тестируем 3 модели понимания: QANet, decaNLP и BERT.Для предварительной обработки данных мы используем оригинальные методы токенизации моделей.Для BERT мы используем меньшую предварительно обученную модель со 110M параметрами (BERT-Base). Сначала мы предварительно обучаем QANet и decaNLP в отряде, настраивая их гиперпараметры на основе раздела разработки.Для BERT мы настраиваем выпущенную предварительно обученную модель отряда, добавляя 2 дополнительных выходных слоя для прогнозирования индексов начала/конца (мы не вносили никаких изменений в гиперпараметры).Мы инициализируем векторы слов QANet и decaNLP с помощью предварительно обученных вложений GloVe BIBREF27 и сохраняем их фиксированными во время обучения.Мы также замораживаем входные представления для BERT.Для измерения производительности мы используем стандартное усредненное по макросу значение F1 в качестве метрики оценки, которая измеряет среднее перекрытие токенов слов между предсказанием и ответом на основе истины.Наши предварительно обученные QANet, decaNLP и BERT набрали балл F1 80,47, 75,50 и 87,62 соответственно в разделе разработки отряда.Обратите внимание, что тестовый раздел отряда не публикуется публично, поэтому все сведения о производительности отряда, о которых сообщается в документе, относятся к набору разработки.Учитывая предварительно обученные модели отрядов, мы настраиваем их на доменах msmarco и bioasq.Тестируем ванильную тонкую настройку (finetune) и 5 вариантов тонкой настройки со вспомогательными штрафными условиями: (1) EWC (+ewc); нормализованный EWC (+ewcn); косинусное расстояние (+cd); Л2 (+л2); и объединение нормализованного EWC, косинусного расстояния и L2 (+все).В качестве эталона мы также выполняем тонкую настройку с помощью градиентной эпизодической памяти (gem), отмечая, что этот подход использует первые $m$ примеров из отряда ($m = 256$ в наших экспериментах). Чтобы найти лучшую конфигурацию гиперпараметров , мы настраиваем его на основе раздела разработки для каждого целевого домена.Для данного домена Finetune и его варианты (+ewc, +ewcn, +cd, +l2 и +all) используют одну и ту же конфигурацию гиперпараметров.Подробные настройки гиперпараметров приведены в дополнительном материале.В качестве базовой линии мы обучаем QANet, decaNLP и BERT с нуля (с нуля), используя данные целевого домена.Как и раньше, мы настраиваем их гиперпараметры в зависимости от производительности разработки.Мы представляем полные результаты в таблице TABREF10. Для каждого целевого домена мы показываем два показателя F1: показатели развития исходного состава («отряд»); и производительность теста целевого домена («Тест»).Сначала мы сравниваем производительность между нулями и тонкой настройкой.Во всех доменах QANet, decaNLP и BERT точная настройка существенно повышает производительность целевого домена по сравнению с нуля.Наибольшее улучшение наблюдается в bioasq для QANet, где показатель F1 увеличивается в два раза (с 29,83 до 65,81).Среди трех моделей RC BERT имеет лучшую производительность как для нуля, так и для точной настройки в большинстве целевых доменов (за некоторыми исключениями, такими как ms -fn и ms -lw).Между QANet и decaNLP мы видим, что decaNLP имеет тенденцию иметь лучшую производительность при чистовой обработке, но при точной настройке картина меняется на противоположную: QANet выдает более высокий F1, чем decaNLP, во всех доменах, кроме ms -lw.Что касается производительности отряда, мы видим, что точная настройка значительно ухудшает ее по сравнению с предварительно подготовленной производительностью.Среднее падение по всем доменам по сравнению с их предварительно обученной производительностью составляет 20,30, 15,30 и 15,07 балла для QANet, decaNLP и BERT соответственно.Для большинства доменов оценки F1 падают на 10-20 баллов, а для ms -cpУ QANet производительность намного хуже — падение на 41,34.Интересно, что мы видим, что BERT страдает от катастрофического забывания так же, как и другие модели, хотя это более крупная модель с на несколько порядков большим количеством параметров.Теперь обратимся к результатам точной настройки с помощью вспомогательных штрафов (+ewc, +ewcn, +cd и +l2).Между +ewc и +ewcn нормализованные версии последовательно обеспечивают лучшее восстановление исходного домена (единственным исключением является ms -ms для decaNLP), демонстрируя, что нормализация помогает.Между +ewcn, +cd и +l2 производительность трех моделей различается в зависимости от домена, и явного победителя нет.Однако объединение всех этих потерь (+все) дает лучшую производительность отряда для всех моделей в большинстве областей.Среднее восстановление (+all-fintune) производительности команды составляет 4,54, 3,93 и 8,77 очков F1 для QANet, decaNLP и BERT соответственно, что означает, что BERT извлекает выгоду из этих вспомогательных штрафов больше, чем decaNLP и QANet.По сравнению с драгоценным камнем, +all значительно лучше сохраняет производительность команды: в среднем на 2,86 балла больше для QANet и на 5,57 балла больше для BERT.Для decaNLP улучшение составляет минуту (0,02); обычно драгоценный камень имеет преимущество в большинстве доменов, но это преимущество сводится на нет его низкой производительностью в одном домене (ms -fn).Поскольку драгоценный камень требует хранения данных обучения из исходного домена (в данном случае примеры группового обучения), методы вспомогательных штрафов более благоприятны для реальных приложений.Влияет ли добавление этих штрафных санкций на целевую производительность?Глядя на производительность «Тест» между Finetune и +all, мы видим, что они в целом сопоставимы.Мы обнаружили, что средняя разница в производительности (+all-finetune) составляет 0,23, $-0,42 и 0,34 доллара для QANet, decaNLP и BERT соответственно, что означает, что это не так (фактически, это оказывает небольшое положительное влияние на QANet и BERT). .В некоторых случаях это существенно улучшает целевую производительность, например. в bioasq для BERT целевая производительность улучшена с 71,62 до 76,93, когда применяется +all.Основываясь на этих наблюдениях, мы видим преимущества включения этих штрафов при адаптации моделей понимания, поскольку это создает более надежную модель, которая сохраняет исходную производительность (в определенной степени) без ущерба для целевой производительности.В некоторых случаях это может даже улучшить целевую производительность.В предыдущих экспериментах мы настраиваем предварительно обученную модель для каждого домена независимо.Благодаря непрерывному обучению мы стремимся исследовать производительность тонкой настройки и ее четырех вариантов (+l2, +cd, +ewcn и +all), когда они применяются к серии тонких настроек в нескольких областях.Остальные эксперименты в статье мы тестируем только с помощью decaNLP. При вычислении штрафов мы рассматриваем последнюю обученную модель в качестве исходной модели.Рисунок FigREF11 демонстрирует производительность моделей на наборе разработки отряда и тестовых наборах ms -bm иms -cp, когда они адаптированы к ms -bm,мс -cp, мс -фн, мс -мс,ms -fm и ms -lw последовательно.Мы исключаем графики для последних доменов, поскольку они аналогичны графикам для ms -cp.Включая предварительное обучение отряда, все модели обучаются в общей сложности 170 тыс. итераций: отряд от 0–44 тыс., мс-bm от 45 тыс.–65 тыс., мс-cp от 66 тыс.–86 тыс., мс-fn от 87 тыс.–107 тыс., мс -мс от 108К–128К, мс -fm от 129К–149К и мс-lw от 150 до 170 тыс. Сначала мы посмотрим на восстановление отряда на рисунке FigREF11.+all (черная линия; легенда на рисунке FigREF11) значительно отстает от всех других моделей после серии точных настроек, за которыми следуют +ewcn и +cd, тогда как точная настройка приводит к наибольшему забвению.В конце непрерывного обучения +all набирает более 5 очков F1 по сравнению с точной настройкой.Мы видим аналогичную тенденцию для ms-bm (рис. FigREF11), хотя разница менее выражена.Самый большой разрыв между Finetune и +all возникает при точной настройке ms -fm (итерации 129–149K).Обратите внимание, что мы не жертвуем целевой производительностью при первой настройке ms -bm (итерации 45–65 тыс.), где Finetune и +all дают сопоставимый F1. Для ms -cp(Рисунок FigREF11), мы сначала замечаем, что в целом забывания значительно меньше (производительность ms -cp колеблется в пределах 65–75 F1, тогда как производительность отряда на рисунке FigREF11 колеблется в пределах 45–75 F1).Возможно, это неудивительно, поскольку модель в целом уже хорошо настроена (например, для достижения оптимальной производительности для ms -cp требуется меньше итераций).по сравнению с ms -bm и отрядом).Большинство моделей здесь работают одинаково.+all обеспечивает более сильное восстановление при точной настройке ms -fm (129K–149K) и ms -lw (150K–170K).По итогам непрерывного обучения разрыв между всеми моделями составляет около 2 баллов F1.В decaNLP обучение по учебной программе использовалось для обучения моделей различным задачам НЛП.Точнее, decaNLP сначала предварительно обучался на отряде, а затем совместно настраивался на 10 задачах (включая отряд).В процессе обучения каждый мини-пакет состоит из примеров из определенной задачи, и они поочередно выбираются из разных задач.В ситуациях, когда у нас нет доступа к обучающим данным из предыдущих задач, происходит катастрофическое забывание, когда мы адаптируем модель под новую задачу.В этом разделе мы тестируем наши методы передачи задач (в отличие от передачи домена в предыдущих разделах).С этой целью мы экспериментируем с decaNLP и отслеживаем производительность его команды, когда настраиваем его для других задач, включая маркировку семантических ролей (SRL), суммирование (SUM), семантический анализ (SP), машинный перевод (MT) и оценку тональности. анализ (СА).Обратите внимание, что мы здесь не занимаемся совместным или непрерывным обучением: мы берем предварительно обученную модель (в отряде) и самостоятельно адаптируем ее к новым задачам.Описание этих задач подробно описано в BIBREF11. Основная новинка decaNLP заключается в том, что его конструкция позволяет генерировать слова путем извлечения их из вопроса, контекста или его словаря, и это решение принимается сетью генератора указателей.Основываясь на анализе генератора указателей в BIBREF11, мы знаем, что сеть генераторов указателей предпочитает генерировать слова, используя: (1) контекст для SRL, SUM и SP; (2) вопрос для СА; и (3) словарь для MT. Как и раньше, точная настройка служит нашей основой, и у нас есть 5 вариантов со вспомогательными штрафными терминами.Таблица TABREF25отображает результативность отряда F1 и поставленную задачу; таблица имеет тот же формат, что и таблица TABREF10. Что касается производительности целевых задач («Тест»), мы видим аналогичные характеристики для всех моделей.Это аналогичное наблюдение, которое мы видели ранее, и оно показывает, что включение вспомогательных штрафных санкций не вредит производительности целевой задачи или предметной области.Для исходной оперативной группы +all обеспечивает существенное восстановление для SUM, SRL, SP и SA, но не для MT.Мы предполагаем, что это связано с различием в природе целевой задачи и исходной задачи: т. е. для SUM, SRL и SP выходные данные формируются путем выбора слов из контекста, что аналогично отряду; MT, с другой стороны, генерирует запросы с использованием слов из словаря и вопросов, поэтому, вероятно, будет сложно найти оптимальную модель, которая хорошо справляется с обеими задачами.Наблюдая, что модель имеет тенденцию сосредотачиваться на оптимизации целевой области/задачи на ранних итерациях (поскольку штрафной член имеет очень маленькое значение), мы исследуем использование динамической шкалы $\lambda$, которая начинается с большего значения, которое затухает со временем. .Используя простое линейное затухание, мы обнаружили существенное улучшение +ewc для восстановления производительности отряда, хотя результаты для других штрафов (особенно для +ewcn) неоднозначны.Поэтому в этой статье мы сообщаем только о результатах, основанных на статических значениях $\lambda$.С учетом вышесказанного мы полагаем, что это может быть интересным направлением для дальнейших исследований, например. исследуя более сложные функции распада.Чтобы проверить предположение, сделанное драгоценным камнем BIBREF20, мы проводим градиентный анализ для вспомогательных штрафных членов.В ходе тонкой настройки на каждом шаге $t$ мы вычисляем градиентное косинусное подобие $sim(g_t, g_t^{\prime })$, где $g_t=\frac{\partial \mathcal {L}(f_{\ theta _t}, M)}{\partial \theta _t}$, $g_t^{\prime }=\frac{\partial \mathcal {L}(f_{\theta _t}, (x, y))}{ \partial \theta _t}$, $M$ — это память, содержащая примеры отрядов, а $x$/$y$ — данные/метка обучения из текущего домена.Мы сглаживаем оценки, усредняя значения по каждому 1 тысяче шагов, в результате чего получаем 20 значений косинусного сходства для 20 тысяч шагов.На рисунке FigREF26 показано сходство градиентного косинуса для наших моделей в мс-fn.Любопытно, что наша самая эффективная модель +all обеспечивает наименьшее косинусное сходство на большинстве шагов (единственное исключение — между шагами 0–1 тыс.).Finetune, с другой стороны, сохраняет относительно высокое сходство во всем.Аналогичные тенденции наблюдаются и в других областях.Эти наблюдения подразумевают, что драгоценный камень вдохновения — то есть катастрофическое забывание можно уменьшить, ограничивая положительное скалярное произведение между $g_t$ и $g_t^{\prime }$ — возможно, не так эмпирически эффективен, как могла бы подсказать нам интуиция, и что наши вспомогательные методы штрафов представляют собой альтернативное (и совсем другое) направление сохранения производительности источника.Чтобы уменьшить катастрофическое забывание при адаптации моделей понимания, мы исследуем несколько вспомогательных штрафных санкций, чтобы упорядочить процесс тонкой настройки.Мы экспериментировали с выборочными и неселективными штрафами и обнаружили, что их комбинация последовательно обеспечивает наилучшее восстановление исходного домена без ущерба для его производительности в целевом домене.Мы также обнаружили аналогичные наблюдения, когда применяли наш подход для адаптации к другим задачам, демонстрируя его общую применимость.Чтобы проверить наш подход, мы разрабатываем и публикуем шесть узких наборов данных о понимании прочитанного для исследовательского сообщества. | Создание в последние годы крупномасштабных открытых наборов данных о понимании прочитанного позволило разработать сквозные модели нейронного понимания с многообещающими результатами. Чтобы использовать эти модели для областей с ограниченными обучающими данными, один из наиболее эффективных подходов — сначала предварительно обучить их на больших исходных данных вне области, а затем точно настроить их с помощью ограниченных целевых данных. Предостережение заключается в том, что после тонкой настройки модели понимания имеют тенденцию плохо работать в исходной области — явление, известное как катастрофическое забывание. В этой статье мы исследуем методы, которые преодолевают катастрофическое забывание во время тонкой настройки, не предполагая доступа к данным из исходного домена. Мы вводим новые вспомогательные штрафные термины и наблюдаем наилучшую производительность, когда комбинация вспомогательных штрафных терминов используется для регуляризации процесса тонкой настройки для адаптации моделей понимания. Чтобы протестировать наши методы, мы разрабатываем и публикуем 6 наборов данных узкой области, которые потенциально можно использовать в качестве тестов на понимание прочитанного. | 4,781 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Генерация повествовательного текста в переключающейся динамической системе. В этом разделе мы даем краткий обзор динамических систем переключения и того, как их можно использовать для захвата как основы повествования, так и динамики повествования.Затем мы подробно описываем компоненты нашей модели и ее связь с существующими моделями.Специфика повествования (персонажи, обстановка и т. д.) будет различаться в разных историях, но, как отмечает BIBREF0, способ перехода к следующей точке повествования (то, что мы называем «динамикой повествования») часто является общим.Допустим, что, как это часто делается, мы представляем "нарративную специфику" на временном шаге $i$ с помощью скрытого вектора $Z_i$. Естественный способ явно смоделировать, как это состояние развивается с течением времени, что соответствует приведенному выше наблюдению, — это использовать линейную динамическую систему: где $A$ — это матрица, общая для всех повествований, а $\Sigma $ — это шумовой термин, который учитывает учитывать особенности различных повествований.Тот факт, что общая матрица перехода $A$ является линейной, означает, что повествования будут иметь линейно аналогичные траектории во времени, несмотря на разные детали (сравнимы с историями с разными настройками, но совпадающими структурами, такими как Ран/Король Лир, Улисс/Одиссея и т. д.) .Конечно, фатальный недостаток модели заключается в том, что она предполагает, что существует только одна матрица перехода и, следовательно, только один возможный способ перехода через повествование! Таким образом, более подходящей моделью была бы переключающаяся линейная динамическая система BIBREF1, BIBREF2, BIBREF3.Мы предполагаем, что в СЛДС существует набор из $K$ различных наборов динамики, $\lbrace (A_1, \Sigma _1),...(A_K,\Sigma _K)\rbrace $.На временном шаге $i+1$ используется один из этих наборов динамики.Используемая переменная зависит от значения дискретной переменной на временном шаге $i+1$, называемой переменной переключения, $S_{i+1} \in \lbrace 1,...K\rbrace $: Существует переменная переключения $S_i$, связанный с каждым временным шагом.Само значение переключающей переменной меняется со временем под действием априорного марковского процесса $P(S_{i+1} | S_{i})$. Таким образом, эта цепочка переключающихся переменных верхнего уровня формирует наш каркас повествования, указывая, какие переходы мы должны пройти в повествовании, а матрицы динамики указывают, как они переходят.То, что на самом деле представляют переменные переключения, может выбрать пользователь.Простые повествовательные шаблоны включают последовательности событий BIBREF6, ключевые слова BIBREF7 или скрытые идентификаторы шаблонов BIBREF8.Более сложные, но потенциально более информативные каркасы могут быть созданы с использованием таких понятий, как нетерминалы грамматики рассказа BIBREF9, BIBREF10 или действия персонажей, совершаемые на протяжении всей истории BIBREF11. В нашей работе мы используем траекторию настроений повествования в качестве каркаса.То есть каждый $S_i$ для предложения указывает общее грубое настроение предложения (положительное, отрицательное или нейтральное).Несмотря на простоту, общая траектория настроений повествования важна для определения «формы» повествования высокого уровня, часто разделяемой различными повествованиями BIBREF12, BIBREF13.Кроме того, траектория настроений оказалась весьма полезной для задач понимания истории BIBREF14, BIBREF15.В заключении обсуждаются будущие направления использования различных типов строительных лесов.Последним компонентом модели является модель условного языка, которая генерирует предложение $i$ с учетом текущего $Z_i$ и всех предыдущих предложений $X_{:i}$. Генерация продолжается до тех пор, пока не будет достигнут <eos>.Эту модель условного языка можно параметризовать по желанию, но в этой работе мы параметризуем ее как языковую модель нейронной сети RNN.Графическая модель нашего SLDS изображена на рисунке FigREF8.Модель состоит из трех наборов переменных: (1) переменные переключения $S_1,...,S_N$, (2) переменные скрытого состояния $Z_1,...,Z_N$, фиксирующие детали повествования в предложении $i$. , (3) Сами предложения $X_1,...X_N$, где каждое предложение $X_i$ содержит $n_i$ слов, $x^i_1,...x^i_{n_i}$.Объединение по всем переменным факторизуется, как показано ниже, на следующие компоненты ($X_{:i}$ обозначает все предложения перед $X_i$):❶ Планировщик повествовательных лесов: фактор $P(S_i | S_{i-1})$ — это матрица перехода, которую мы рассчитываем на основе статистики обучения, основанной на подсчете.Они вводятся как предварительные знания и фиксируются.❷ Сеть повествовательной динамики: коэффициент $P(Z_i | Z_{i-1}, S_i)$ определяется как переключающаяся линейная динамическая система: что эквивалентно рисованию $Z_i$ из Нормальное распределение со средним значением $A_{S_i}Z_{i-1}$ и дисперсией $B_{S_i}B_{S_i}^T$.❸ Модель условного языка: коэффициент $P(X_i | Z_i, X_{:i })$ параметризуется языковой моделью RNN, обусловленной скрытым $Z_i$. Из-за условий, параметризованных нейронными сетями, мы используем амортизированный вариационный вывод аналогично вариационным автоэнкодерам BIBREF16, оба для изучения приблизительного апостериорного $q(S , Z | X)$ и изучить параметры генеративной модели путем максимизации нижней границы правдоподобия данных (ELBO).Мы предполагаем, что приблизительная апостериорная факторизация осуществляется следующим образом: Как и в VAE, вычисление этих отдельных факторов осуществляется с помощью параметризованной функции, называемой сетью вывода или распознавания, параметры которой обучаются совместно с генеративной моделью.В нашем случае есть две формы факторов в нашем апостериоре: (1) Первая форма, $q(S_i | \textbf {X})= q_{S_i}$ параметризуется классификатором, который принимает набор предложений $\mathbf {X}$ и выводит категориальное распределение по переменным переключения.(2) Вторая форма, $q(Z_i| Z_{i-1}, S_i, X_{:i}, X_{i})= q_{Z_i}$ реализуется функциями $f_{\mu }(Z_{i-1}, S_i, X_{:i}, X_{i})$ и $f_\sigma (Z_{i-1} , S_i, X_{:i}, X_{i})$, которые выводят соответственно среднее значение и дисперсию гауссианы по $Z_i$. Заимствуя терминологию из VAE, приближенные апостериорные значения (факторы, приведенные выше) действуют как ` кодер», а генеративную модель из предыдущего раздела можно рассматривать как «декодер».Этот тип обучения ранее использовался в BIBREF17, BIBREF18, BIBREF19, BIBREF20, BIBREF21. Как упоминалось ранее, мы оптимизируем все параметры (включая функции фактора вариации) путем оптимизации нижней границы вероятности данных.Модель может быть обучена либо с метками контроля для состояний переключения (в нашем случае метками настроений), либо без контролируемых меток.Если кто-то тренируется без меток настроений, то нижняя граница предельного правдоподобия (и, следовательно, нашей цели оптимизации) может быть записана следующим образом: Вывод для этой цели идентичен тому, который найден в BIBREF18, BIBREF19, и просто основан на использовании свойства повторных ожиданий.Все ожидания оцениваются с помощью образцов Монте-Карло.Если обучение с метками настроений $S_1,...,S_N$, то цель аналогична (но без выборки состояний переключения) и дополняется дополнительной целью надзора, как это сделано в BIBREF22: Окончательная процедура обучения для одно повествование: для каждого предложения (начиная с первого) выберите состояние переключения $S_i$ из $q(S_i | \textbf {X})$. Для каждого предложения (начиная с первого) выберите скрытое $Z_i $ from $q(Z_i | S_i, Z_{i-1}, X)$. Оцените правдоподобие данных и термин(ы) KL с помощью этих образцов.Возьмите градиенты целевой функции относительновсе параметры, используя трюк перепараметризации для $q_{Z_i}$ BIBREF16 или трюк Gumbel-Softmax для $q_{S_i}$ BIBREF23, и оптимизируйте.Одним из преимуществ вероятностной формулировки является возможность (если может быть найдена процедура вывода) генерации повествований с конкретными ограничениями, где ограничения могут быть указаны как фиксированные переменные в модели.В этом разделе мы покажем, как можно генерировать нарративы на основе уже заполненных произвольных фрагментов нарратива, используя приблизительную выборку Гиббса.Это позволяет, например, интерполировать повествование по первому и последнему предложению (аналогично тому, как более ранние системы генерации историй могли генерировать с учетом заданной конечной цели).Некоторые примеры этих интерполяций, созданных нашей системой, можно найти в таблице TABREF37.Мы приводим уравнения и суммируем алгоритм в следующих разделах.Для нашего алгоритма выборки Гиббса мы даем повествовательный каркас (переменные переключения) $S_1,...,S_T \in \mathbf {S}$ и набор наблюдаемых предложений $\mathbf {X^+}$. Это может быть любой набор предложений (первое и последнее, только второе предложение и т. д.) в качестве входных данных для системы.Мы хотим найти значения для ненаблюдаемых предложений в множестве $\mathbf {X^-}$ путем выборки из распределения $P(\mathbf {X^-}, Z_1,...,Z_T | \mathbf {S}, \mathbf {X^+})$. Мы выполняем эту выборку с помощью выборки Гиббса.Для выполнения выборки Гиббса необходимо вывести две разные формы условных операторов.Один над некоторым $Z_i$, обусловленным всем остальным, и один над некоторым $X_i$, обусловленным всем остальным.Используя свойства d-разделения графика и заменяя истинную апостериорную картину $Z_{i}$ на нашу приблизительную апостериорную величину $q$, мы можем показать, что первое распределение приблизительно пропорционально последней строке — произведению гауссовой плотности над $Z_{i+1}$ и $Z_{i}$ соответственно.С помощью некоторых алгебраических манипуляций можно показать, что последняя строка пропорциональна одной гауссовой PDF над $Z_i$: Чтобы найти второе условное выражение, можно использовать свойства d-разделения графика и обнаружить, что оно пропорционально: Этим двум распределения — это просто факторы нашей условной языковой модели, и поэтому оба термина можно легко оценить.Теоретически можно использовать этот факт для выборки исходного условного выражения через Метрополис-Гастингс.К сожалению, мы обнаружили, что этот подход слишком медленный для практических целей.Мы заметили, что простая эвристика детерминированного присвоения $X_i$ жадно декодированного вывода модели условного языка $P(X_{i} | X_{:i}, Z_{i})$ работает хорошо, о чем свидетельствует эмпирические результаты.Мы оставляем это для будущей работы по исследованию различных параметризаций модели условного языка, которые позволяют легко выполнять выборку из этого условного условия. Переменные в сэмплере Гиббса сначала инициализируются с использованием некоторых эвристик (подробности см. В дополнительных материалах).После инициализации выполнение интерполяции с выборкой Гиббса следует двухэтапному процессу, описанному ниже: Для каждого $Z_i$ выберите значение $Z^\prime $ из уравнения $(1)$ и установите для $Z_i$ значение $Z^\prime $ .Для каждого $X_i$ в $\mathbf {X}^-$ найдите новое значение $X_i$, запустив жадное декодирование с использованием модели условного языка.Мы используем корпуса ROCStories, представленные в BIBREF27.Он содержит 98 159 коротких историй на английском языке для обучения и 1570 историй для проверки и тестирования каждая.Каждая история в наборе данных состоит из пяти предложений и отражает причинно-следственные и временные связи, основанные на здравом смысле.Мы ограничиваем размер нашего словаря до 16 983, исходя из частоты среза каждого слова, равной 5.Что касается тегов настроений, мы автоматически помечаем весь корпус тегом настроений на основе правил Vader BIBREF28 и группируем оценки полярности Vader в три тега: нейтральный, отрицательный и положительный.Эти теги образуют набор меток переменных $S$ в нашей модели SLDS.Мы токенизируем истории с помощью токенизатора Spacy.Каждое предложение во входном описании имеет тег <eos>, за исключением модели S2S, обсуждаемой ниже.SLDS имеет сети кодеров и декодеров RNN с однослойными ячейками GRU скрытого размера 1024.Модель использует размер встраивания 300.Мы обучаем модель с помощью оптимизатора Adam со значениями по умолчанию, используемыми PyTorch.Мы прекращаем обучение моделей, когда потери при проверке не уменьшаются в течение 3 последовательных эпох.Подробности обучения остаются такими же, как указано выше, если не указано иное.Языковая модель (LM):Мы обучаем двухслойную рекуррентную модель нейронного языка с GRU-ячейками скрытого размера 512. Модель внимания «последовательность-последовательность» (S2S): мы обучаем двухслойную нейронную последовательность модели последовательности, оснащенной билинейной функцией внимания со скрытыми GRU-ячейками. размер 512.Теги настроений для повествования (по 1 для каждого предложения) передаются в качестве входных данных модели, а соответствующие предложения объединяются в выходные данные только с одним тегом <eos> в конце.Эта модель обучена с отсевом 0,1.Эта модель сравнима со статической моделью BIBREF7 и другими недавними работами, в которых используется понятие каркаса для генерации нейронов (хотя и адаптировано для наших условий). Линейная динамическая система (LDS): мы также обучаем линейную динамическую систему, как описано в разделе SECREF1. как один из наших базовых показателей для честных сравнений.Помимо наличия только одной матрицы перехода, эта модель имеет те же архитектурные детали, что и SLDS. помеченные теги настроений в отличие от исходной модели, которая использует 100% размеченных данных.Мы называем их SLDS-X%, где X — это процент помеченных данных, используемых для обучения: 1%, 10%, 25% и 50%. Как описано выше, наша модель способна выполнять описательную интерполяцию с помощью приблизительного метода Гиббса. процедура отбора проб.Таким образом, в основе наших оценок лежит задача «дополнить предложения».Мы предоставляем 1 или 2 предложения и требуем, чтобы модель сгенерировала остальную часть повествования.Мы оцениваем это с помощью автоматических оценок, а также с помощью оценок, полученных людьми.Мы также сообщаем о затруднениях, связанных с оценкой способности моделей соответствовать данным.Наконец, мы посмотрим, отражают ли переходы, изученные моделями SLDS, то, для чего они предназначены: приводит ли использование матрицы переходов, связанной с тегом настроения (положительное/отрицательное/нейтральное), к сгенерированному предложению с этим настроением? Для SLDS моделей интерполяции генерируются с помощью алгоритма выборки Гиббса, описанного ранее.Во всех экспериментах для моделей SLDS мы отбираем 50 выборок (включая сжигание выборок) и выводим интерполяцию, которая максимизирует вероятность данного предложения (предложений).Поскольку базовые линии не имеют средств для интерполяции, мы моделируем «интерполяции» базовых линий; мы отбираем 1000 выборок, используя усеченную выборку из верхних k (с k = 15) (при условии, что заданы начальные предложения, если таковые имеются).Затем мы выводим выборку, которая максимизирует вероятность фиксированных предложений, вокруг которых мы интерполируем остальные.Мы разрешаем S2S доступ к тегам настроений золота.Чтобы дать нижнюю оценку производительности модели SLDS, мы не снабжаем ее золотыми метками.Вместо этого мы предоставляем модели SLDS полушумные теги, которые выводятся из $q(S_i | X)$. Мы автоматически оцениваем четыре разных типа интерполяции (когда удаляются разные комбинации предложений и модель вынуждена их перегенерировать). ), Оцениваем поколения с помощью ROUGE BIBREF29.и метрики METEOR BIBREF30, использующие истинные предложения в качестве целей.В таблице TABREF33 показаны результаты автоматической оценки на основе интерполяции с использованием предложенных нами моделей и базовых показателей.Столбец #Sent(s) указывает, какие предложения были удалены, а затем повторно созданы моделью.Мы дали базовым линиям небольшое преимущество перед SLDS, потому что они выбирают лучшее из 1000 образцов, в то время как SLDS — только из 50.Модели SLDS видят наибольший выигрыш по сравнению с базовыми моделями, когда в качестве входных данных указывается хотя бы первое предложение.Базовые модели работают лучше, когда необходимо вменить первое и второе предложение.Вероятно, это связано с тем, что доступ к предыдущим предложениям позволяет лучше инициализировать сэмплер Гиббса.Удивительно, но полуконтролируемые варианты моделей SLDS получают более высокие оценки.Причины этого обсуждаются ниже в разделе «Недоумение».Поскольку автоматических показателей оценки недостаточно для оценки качества любой творческой задачи, такой как создание повествования, мы измеряем качество поколений посредством человеческой оценки 200 историй на платформе Amazon Mechanical Turk.Мы предоставили Теркерам два нарратива, сгенерированных на основе двух разных моделей, каждый из которых состоит из пяти предложений.Первое и последнее предложения подавались в каждую модель в качестве входных данных, после чего были сгенерированы три средних предложения.Каждую пару повествований оценивают 3 пользователя, каждый из которых выполняет две задачи: (1) оценить по шкале от 0 до 3 каждое из предложений, кроме первого, на основе его связности с предыдущими предложениями и (2 ) сравните и ранжируйте два повествования на основе их общей связности, т. е. того, насколько хорошо история связывает начальные и конечные предложения.В таблице TABREF41 представлены результаты человеческих оценок SLDS и исходных поколений.Мы можем наблюдать, что люди предпочитали повествования, созданные с помощью SLDS, тем, которые создаются с помощью базовых моделей (LM и S2S), поскольку они находили первую модель более последовательной, что является важным критерием для создания повествования.В 51,3% случаев SLDS генерирует лучшие повествования, чем модель LM, тогда как LM, в свою очередь, делает это только в 35,0% случаев.13,7% поколений оказываются вничью.Средний балл связности уровня предложения для SLDS примерно на 12,5% выше, чем для LM, с немного меньшим стандартным отклонением.Мы видим аналогичные результаты по сравнению с моделью S2S.Поскольку наши модели по сути являются языковыми моделями, мы оценили их отрицательную логарифмическую вероятность для каждого предложения и оценку недоумения для каждого слова, которые можно рассматривать как косвенную меру того, насколько хорошо система работает в качестве генеративной модели повествовательного текста.Для моделей SLDS и LDS эти оценки являются аппроксимацией, верхней границей (отрицательное значение ELBO) фактических значений.Для двух других моделей оценки точны.Хорошая модель должна присваивать своему тестовому набору низкие оценки замешательства.В таблице TABREF44 SLDS получил самые низкие оценки, что означает, что он способен хорошо моделировать распределение данных.В таблице TABREF45 мы также рассчитываем показатели недоумения для моделей SLDS с полуконтролем, чтобы оценить эффективность обучения с полуконтролем.Удивительно, но модели с меньшим контролем показали лучшие результаты с точки зрения недоумения.Одной из возможностей для этого может быть использование мягкого Gumbel-Softmax в полуконтролируемых моделях.Мягкий вариант Gumbel-Softmax не обязуется использовать одну матрицу перехода на каждом временном шаге (вместо этого линейно комбинировать их, взвешивая по весам Softmax).Этот факт может обеспечить большую гибкость модели при подборе обучающих данных.Хотя это приводит к лучшим показателям по таким показателям, как недоумение или BLEU, это приводит к переходам, которые хуже отражают те свойства, которые они должны фиксировать, как мы увидим в следующем разделе.Один из вопросов, представляющих интерес, заключается в том, отражают ли переходы то, что они должны отражать, — соответствующие чувства.Поскольку мы использовали тегировщик настроений Vader для обучения тегов, мы снова используем его, чтобы оценить, действительно ли использование переходов определенного настроения приводит модель к получению результатов с данным настроением.Чтобы выполнить эту оценку, мы даем в качестве входных данных нашим моделям (и базовой линии S2S) теги настроений для предложения и позволяем им генерировать предложение, обусловленное этими тегами настроений.Затем мы помечаем сгенерированные предложения тегами Vader и смотрим, соответствуют ли теги настроений оригиналам.Мы рассчитываем оценку F1 для всех тегов настроений и сообщаем среднее макроэкономическое значение.В таблице TABREF47мы видим, что наличие меток невероятно важно для значимых переходов.В F1 наблюдается значительное падение, поскольку количество ярлыков, присваиваемых модели, уменьшается.Модель SLDS, обученная со 100% меток, работает немного лучше, чем даже S2S, несмотря на отсутствие прямого доступа к меткам настроений (SLDS использует только метки настроений, чтобы решить, какой переход использовать, в то время как модель S2S использует внимание непосредственно на метки настроений). Генерация историй/повествований имеет богатую историю в области искусственного интеллекта.Многие ранние системы были основаны на структурированных формализмах для описания общих повествовательных структур BIBREF9, BIBREF10, BIBREF31, многие из которых были вдохновлены первоначальной работой BIBREF0.В последнее время был проведен ряд работ, направленных на добавление некоторого подобия «нарративного каркаса» обратно в методы генерации BIBREF32, BIBREF6, BIBREF7, BIBREF33.Многие из этих методов работают как условные LM (кондиционированные непосредственно на каркасе).Это направление работы также можно объединить с нашей формализацией, обуславливая генерацию также состоянием переключения, как это сделано в модели BIBREF4.Недавняя работа BIBREF34 преследует схожие с нашей цели: обеспечить большую управляемость в системах генерации, разработать систему на основе RL, которая позволяет пользователям указывать конечную цель истории (путем указания класса события, которое должно появиться в конце).Их работа отличается от нашей тем, что она не занимается непосредственно текстом, а моделирует лишь последовательность событий повествования.Возможно, можно будет использовать эту модель в качестве компонента основы в нашей модели (используя их политику RL для планировщика лесов, а не простое марковское распределение, используемое здесь). В этой статье мы сформулировали проблему генерации повествования как динамику переключения. система.Мы показали, как эта формулировка отражает понятия, важные для создания нарратива, такие как динамика нарратива и каркасы.Мы разработали приблизительный алгоритм выборки Гиббса для модели, который позволяет системе генерировать интерполяции, обусловленные произвольными частями повествования, и оценивали эти интерполяции, используя как человеческие, так и автоматические оценки.Хотя в этой работе мы использовали теги настроений для наших каркасов/переменных переключения, будущая работа может быть направлена на использование различных видов информации для управления созданием повествований.Использование главного предиката предложения в качестве основы было бы следующим логическим шагом и может оказаться более информативным, чем траектория настроений.Подобный шаблон может принимать гораздо больше возможных значений, чем тег настроений, и поэтому может оказаться затруднительным присвоить набор динамики каждому значению.Еще одним направлением будущей работы будет решение этой возможной проблемы.Одним из потенциальных решений может быть сопоставление каждого значения переключаемой переменной с (обученным) вектором в вероятностном симплексе и использование этого вектора для объединения небольшого набора «примитивных» матриц динамики, чтобы получить связанный с этим значением набор динамики. | В ранних работах по нарративному моделированию использовались четкие планы и цели для создания историй, но само создание языка было ограниченным и негибким. Современные методы используют языковые модели для более надежной генерации, но им часто не хватает явного представления основ и динамики, которые определяют связное повествование. В этой статье представлена новая модель, которая объединяет явную повествовательную структуру с моделями нейронного языка, формализуя повествовательное моделирование как переключающуюся линейную динамическую систему (SLDS). SLDS — это динамическая система, в которой скрытая динамика системы (т. е. то, как вектор состояния преобразуется с течением времени) контролируется дискретными переменными переключения верхнего уровня. Переменные переключения представляют структуру повествования (например, настроения или состояния дискурса), тогда как вектор скрытого состояния кодирует информацию о текущем состоянии повествования. Эта вероятностная формулировка позволяет нам контролировать генерацию и может быть изучена полуконтролируемым способом, используя как помеченные, так и неразмеченные данные. Кроме того, мы получаем сэмплер Гиббса для нашей модели, который может заполнять произвольные части повествования, руководствуясь переменными переключения. Наши заполненные (на английском языке) описания превосходят некоторые базовые показатели как по автоматическим, так и по человеческим оценкам. | 3,916 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Как не быть съеденным Мраком: стратегии исследования для агентов текстовых приключений. Многие алгоритмы обучения с подкреплением разработаны для относительно небольших пространств дискретных или непрерывных действий и поэтому имеют проблемы с масштабированием.Текстовые приключенческие игры — или интерактивные игры — представляют собой симуляции, в которых как состояние агентов, так и пространство действий представлены на текстовом естественном языке.Пример одноходового взаимодействия агента в популярной текстовой игре Zork1 можно увидеть на рис.FIGREF1.Текстовые приключенческие игры ставят перед нами множество задач в виде частичной наблюдаемости, здравого смысла и пространства состояний и действий комбинаторного размера.Текстовые приключенческие игры построены в виде длинных головоломок или квестов, перемежающихся узкими местами.Квесты обычно можно выполнить несколькими ветвящимися путями.Однако в играх также могут быть одно или несколько узких мест.Узкие места — это области, через которые агент должен пройти, чтобы перейти к следующему разделу игры, независимо от того, какой путь агент прошел для завершения этого раздела квеста BIBREF0.В этой работе мы концентрируемся на более эффективном изучении этого пространства и преодолении этих узких мест, опираясь на предыдущую работу, направленную на решение других проблем.Формально мы используем определение текстовых приключенческих игр, приведенное в BIBREF1 и BIBREF2.Эти игры представляют собой частично наблюдаемые марковские процессы принятия решений (POMDP), представленные в виде семикортежа $\langle S,T,A,\Omega , O,R, \gamma \rangle $, представляющего набор состояний среды, в основном детерминированных условных вероятности перехода между состояниями, словарь или слова, используемые для составления текстовых команд, наблюдения, возвращаемые игрой, условные вероятности наблюдения, функция вознаграждения и коэффициент дисконтирования соответственно.Для наших целей понимание точных пространств состояний и действий, которые мы используем в этой работе, имеет решающее значение, поэтому мы определяем каждое из них относительно глубоко.Действие-Пространство.Для решения Zork1, канонической текстовой приключенческой игры, требуется генерация действий, состоящих из пяти слов, из относительно скромного словаря в 697 слов, распознаваемого парсером игры.Это приводит к $\mathcal {O}(697^5)={1.64e14}$ возможным действиям на каждом шаге.Чтобы облегчить игру в текстовые приключенческие игры, BIBREF2 представляет Jericho, платформу для взаимодействия с текстовыми играми.Они предлагают пространство действий на основе шаблонов, в котором агент сначала выбирает шаблон, состоящий из глагола действия и предлога, а затем заполняет его соответствующими сущностями $($например, $[get]$ $[из] $ $)$.Zork1 имеет 237 шаблонов, каждый из которых содержит до двух пробелов, что дает пространство действий шаблона размером $\mathcal {O}(237 \times 697^2)={1.15e8}$.Это пространство по-прежнему намного больше, чем большинство предыдущих подходов, применяющих обучение с подкреплением к текстовым играм.Государство-Представительство.Предыдущая работа показала, что графы знаний эффективны с точки зрения решения проблем частичной наблюдаемости $($BIBREF3 BIBREF3; BIBREF4$)$.Граф знаний — это набор трех кортежей вида $\langle субъект, отношение, объект \rangle$.Эти тройки извлекаются из наблюдений с использованием Стэнфордской программы извлечения открытой информации (OpenIE) BIBREF5.Текстовые приключенческие игры, созданные человеком, часто содержат относительно сложную полуструктурированную информацию, которую OpenIE не предназначен для анализа, поэтому в них добавляются дополнительные правила, гарантирующие анализ правильной информации.Сам график представляет собой более или менее карту мира с информацией о возможностях и атрибутах объектов, связанных с комнатами, в которых они размещаются на карте.На графике также проводится различие между предметами, которые находятся во владении агента или в его непосредственном окружении.Пример того, как выглядит граф знаний, и конкретные детали реализации можно найти в приложении SECREF14.BIBREF6, в котором представлен KG-A2C, который использует представление состояния на основе графа знаний, чтобы помочь в разделе действий в действии комбинаторного размера. пространство — в частности, они используют граф знаний для ограничения типов сущностей, которые могут быть заполнены в пробелах в пространстве действий шаблона.Они тестируют свой подход на Zork1, показывая, что сочетание графика знаний и выбора действий по шаблону привело к улучшениям по сравнению с существующими методами.Они отмечают, что их подход достигает 40 баллов, что соответствует узкому месту в Zork1, когда игрока съедает «грю» (что приводит к отрицательной награде), если игрок сначала не зажег лампу.Лампа должна загореться через много шагов после первого столкновения в другом разделе игры; это действие необходимо для продолжения исследования, но оно не приносит немедленного положительного вознаграждения.То есть существует долгосрочная зависимость между действиями, которая не вознаграждается немедленно, как показано на рисунке РИС. 1.Другие, использующие искусственно ограниченное пространство действий, также сообщают о невозможности пройти через это узкое место BIBREF7, BIBREF8.Они представляют собой серьезную проблему для этих методов, поскольку агент не видит правильной последовательности действий, чтобы преодолеть узкое место достаточное количество раз.Частично это связано с тем, что для усиления этой последовательности агенту необходимо достичь следующего возможного вознаграждения за пределами узкого места.Для преодоления узких мест необходимы более эффективные стратегии разведки.Наш вклад двоякий.Сначала мы представляем метод, который обнаруживает узкие места в текстовых играх, используя общее полученное вознаграждение и состояние графа знаний.Этот метод замораживает политику, используемую для достижения узкого места, и перезапускает обучение с этого момента, дополнительно выполняя поиск с возвратом, чтобы убедиться, что неоптимальная политика не была заморожена.Во втором вкладе исследуется, как использовать графы знаний для улучшения существующих алгоритмов исследования для работы с комбинаторными пространствами действий, такими как Go-Explore BIBREF9.Мы также представляем сравнительное исследование абляции, анализирующее эффективность этих методов в популярной текстовой игре Zork1. В этом разделе мы описываем методы исследования пространств действия комбинаторного размера, таких как текстовые игры, уделяя особое внимание методам, которые могут справиться с присущими им пространствами действий. узкая структура.Сначала мы описываем наш метод, который явно пытается обнаружить узкие места, а затем описываем, как алгоритм исследования, такой как Go Explore BIBREF9, может использовать графы знаний.KG-A2C-цепочка. Пример узкого места можно увидеть на рисунке РИС. РИСУНОК 1.Мы расширяем алгоритм KG-A2C следующим образом.Во-первых, мы обнаруживаем узкие места как состояния, в которых агент не может двигаться дальше.Мы устанавливаем параметр терпения, и если агент не получил более высокий балл за этапы терпения, он предполагает, что его скорость ограничена узким местом.Во-вторых, когда обнаруживается узкое место, мы замораживаем политику, которая переводит агента в состояние с наивысшим баллом.Затем агент начинает обучение новой политике из этого конкретного состояния.Однако простое замораживание политики, которая привела к возникновению узкого места, потенциально может привести к тому, что политика станет неоптимальной в глобальном масштабе.Поэтому мы используем стратегию обратного отслеживания, которая возобновляет исследование с каждого из $n$ предыдущих шагов — поиск более оптимальной политики, которая позволит достичь этого узкого места.На каждом шаге мы отслеживаем буфер из $n$ состояний и допустимых действий, которые привели к этому локально оптимальному состоянию.Мы заставляем агента выйти из этого состояния, чтобы попытаться вывести его из локального оптимума.Если и дальше он не сможет выйти за пределы этого локального оптимума, мы снова обновляем процесс обучения, но начиная с состояния непосредственно перед тем, как агент достигнет локального оптимума.Если это по-прежнему не удается, мы продолжаем перебирать этот буфер видимых состояний до тех пор, пока не найдем более оптимальное состояние или пока не исчерпаем состояния для обновления, после чего мы завершим алгоритм обучения.KG-A2C-Explore Go-Explore BIBREF9 — это алгоритм, предназначенный для отслеживания неоптимальных и недостаточно исследованных состояний, чтобы позволить агенту исследовать более оптимальные состояния, которые могут быть результатом скудного вознаграждения.Алгоритм Go-Explore состоит из двух этапов: первый предназначен для непрерывного исследования до тех пор, пока на основе общего балла не будет найден набор многообещающих состояний и соответствующих траекторий, а второй — для усиления этой найденной политики против потенциальной стохастичности в игре.Перспективные состояния определяются как состояния, исследование которых, скорее всего, приведет к более высоким траекториям вознаграждения.Поскольку текстовые игры, с которыми мы имеем дело, в основном детерминированы, за исключением Zork на более поздних стадиях, мы сосредоточимся только на использовании фазы 1 алгоритма Go-Explore для поиска оптимальной политики.BIBREF10 рассматривает применение Go-Explore к текстовым играм на наборе более простых игр, созданных с использованием платформы создания игр TextWorld BIBREF1.Вместо параллельного обучения политической сети для генерации действий, используемых для исследования, они используют небольшой набор «допустимых действий» — действий, которые гарантированно изменят состояние мира на любом этапе фазы 1 — для исследования и поиска траекторий с высокой наградой.Это пространство действий относительно невелико (порядка $10^2$ за шаг), поэтому найти траектории с высоким вознаграждением в более крупных пространствах действий, таких как Zork, было бы невозможно. Go-Explore поддерживает архив ячеек, определяемый как набор состояния, которые сопоставляются с одним представлением, — чтобы отслеживать многообещающие состояния.BIBREF9 просто кодирует каждую ячейку, отслеживая положение агента, а BIBREF10 использует текстовые наблюдения, закодированные рекуррентной нейронной сетью, в качестве представления ячейки.Мы улучшаем эту реализацию, параллельно обучая сеть KG-A2C, используя снимок графа знаний в сочетании с состоянием игры для дальнейшего кодирования текущего состояния и использования его в качестве представления ячейки.На каждом этапе Go-Explore случайным образом выбирает ячейку для исследования (взвешенную по баллам, чтобы отдать предпочтение более продвинутым ячейкам).KG-A2C выполнит ряд шагов, начиная с состояния графа знаний и последнего видимого состояния игры из ячейки.Это будет генерировать траекторию для агента при дальнейшем обучении KG-A2C на каждой итерации, создавая новое представление для графа знаний, а также новое игровое состояние для ячейки.После расширения ячейки Go-Explore продолжит отбирать образцы ячеек по весу, чтобы продолжить расширение известных состояний.В то же время KG-A2C получит выгоду от эвристики выбора предпочтительных ячеек и будет чаще обучаться перспективным состояниям.Мы сравниваем две наши стратегии разведки со следующими базовыми показателями и абляциями:KG-A2CЭто тот же метод, что и в BIBREF6, без изменений.A2C Представляет тот же подход, что и KG-A2C, но с удалением всех компонентов графа знаний.Представление состояния представляет собой только текст, закодированный с использованием рекуррентных сетей.A2C-chained — это разновидность KG-A2C-chained, где мы используем наш подход к объединению политик с методом A2C для обучения агента вместо KG-A2C.A2C-Explore Использует A2C в дополнение к стратегии исследования, представленной в KG-A2C- Исследовать.Представления ячеек здесь определяются с точки зрения рекуррентного сетевого кодирования текстового наблюдения.На рисунке FigREF10 показано, что агенты, использующие графы знаний в дополнение к любому методу расширенного исследования, намного превосходят базовые A2C и KG-A2C. KG-A2C-chained и KG-A2C-Explore преодолевают узкое место, набрав 40 баллов, тогда как A2C-Explore достигает узкого места, но не может его преодолеть.Из этих результатов можно сделать несколько ключевых выводов. Во-первых, граф знаний имеет решающее значение; Предполагается, что это помогает обеспечить частичную наблюдаемость.Однако представления графа знаний недостаточно, поскольку представление графа знаний без расширенных методов исследования не может преодолеть узкое место.Цепочка A2C, которая исследует без графа знаний, не может даже превзойти базовый вариант A2C.Мы предполагаем, что это связано с тем, что граф знаний неявно помогает повысить эффективность выборки при обнаружении узких мест и последующем исследовании.То есть исследование после возврата к потенциально обнаруженному узкому месту гораздо более эффективно в агенте на основе графа знаний.Алгоритм исследования на основе Go-Explore видит меньшую разницу между агентами.A2C-Explore сходится быстрее, но к траектории с более низким вознаграждением, которая не может преодолеть узкое место, тогда как KG-A2C-Explore требуется больше времени, чтобы достичь аналогичного вознаграждения, но последовательно преодолевает узкое место.Таким образом, представление ячеек графа знаний, по-видимому, является лучшим показателем того, что такое многообещающее состояние, в отличие от просто текстового наблюдения.Сравнивая продвинутые методы исследования при использовании графа знаний, мы видим, что оба агента успешно преодолевают узкое место, соответствующее входу в подвал и включению лампы, и достигают сопоставимых результатов в пределах погрешности.KG-A2C-цепочка значительно эффективнее выборки и быстрее сходится.Мы можем сделать вывод, что объединение политик путем явного обнаружения узких мест позволяет нам пройти их быстрее, чем пытаться найти многообещающие представления ячеек с помощью Go-Explore.Эта форма цепного исследования с возвратом особенно подходит для задач последовательного принятия решений, которые можно представить в виде ациклических ориентированных графов, как показано на рисунке FigREF1. Zork1 — одна из первых текстовых приключенческих игр, которая сильно влияет на игры, выпущенные позже, с точки зрения стиля повествования и структура игры.Это игра в жанре подземелий, в которой игроку предстоит исследовать огромный мир и собрать множество сокровищ.BIBREF2 определил его как лунную игру и стал предметом большого количества исследований в агентах BIBREF12, BIBREF7, BIBREF11, BIBREF8.Награды выдаются игроку, когда он собирает сокровища, а также когда пройдены важные промежуточные этапы, необходимые для дальнейшего исследования мира.Рисунок FigREF15 и Рисунок FigREF1 показывают нам карту мира Zork1 и соответствующую структуру квестов.Узкое место, наблюдаемое при счете около 40, — это момент, когда игрок впервые входит в подвал в правой части карты.В подвале темно и нужно немедленно зажечь лампу, чтобы что-нибудь увидеть.Попытка исследовать подвал в темноте приводит к тому, что вас мгновенно убивает монстр, известный как «Грю».Мы не вносим никаких изменений в правила обновления графов, используемые BIBREF6.Интерактивные объекты-кандидаты идентифицируются путем разметки частей речи для текущего наблюдения, определения существительных в единственном числе и собственных, а также прилагательных, а затем фильтруются, проверяя, можно ли их изучить с помощью команды $examine$ $OBJ$. Только интерактивные объекты, не найденные в инвентаре, связаны с узлом, соответствующим текущей комнате, а предметы инвентаря связаны с узлом «вы».Единственное другое применяемое правило использует навигационные действия, выполняемые агентом для определения относительного положения комнат, например. $\langle Kitchen,down,cellar \rangle $, когда агент выполняет $go$ $down$, когда находится на кухне, чтобы перейти в подвал.Гиперпараметры, используемые для наших агентов, приведены ниже.Терпение и размер буфера используются для метода цепочки политик, как описано в разделе SECREF2.Размер шага ячейки — это параметр, используемый для Go-Explore, и описывает, сколько шагов выполняется при исследовании в данном состоянии ячейки.Базовые гиперпараметры для KG-A2C взяты из BIBREF6, и те же параметры используются для A2C. | Текстовые игры, в которых агент взаимодействует с миром посредством текстового естественного языка, ставят перед нами проблему комбинаторного пространства действий. Большинство современных алгоритмов обучения с подкреплением не способны эффективно обрабатывать такое большое количество возможных действий за ход. Следовательно, низкая эффективность выборки приводит к тому, что агенты не могут пройти состояния узкого места, в которых они не могут действовать, потому что не видят правильной последовательности действий, чтобы преодолеть узкое место достаточное количество раз, чтобы получить достаточное подкрепление. Опираясь на предыдущую работу по использованию графов знаний в обучении с подкреплением, мы представляем две новые стратегии исследования игрового состояния. Мы сравниваем наши стратегии исследования с сильными базовыми показателями классической текстовой приключенческой игры Zork1, где предыдущий агент не смог преодолеть узкое место, где агента съел Мрак. | 2,524 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Использование промежуточных слоев BERT для аспектного анализа тональности и вывода на естественном языке. Аспектный анализ настроений (ABSA) является важной задачей при обработке естественного языка.Он направлен на сбор и анализ мнений по целевому аспекту всего текста.В последнее десятилетие ABSA привлекла большое внимание благодаря широкому спектру приложений BIBREF0, BIBREF1.Классификация настроений на уровне аспектов (также называемая «целевым уровнем») как подзадача ABSA BIBREF0 направлена на оценку полярности настроений для данного аспекта.Например, для предложения «Я ненавидел их обслуживание, но еда была великолепной» полярности настроений для целевых «обслуживание» и «еда» являются отрицательными и положительными соответственно.Большинство существующих методов сосредоточены на разработке сложных моделей глубокого обучения для выявления связи между контекстом и целевым аспектом.Маджумдер и др., majumder2018iarm используют архитектуру сети памяти для включения связанной информации о соседних аспектах.Fan и др., fan2018multi объединяют детальное и крупнозернистое внимание, чтобы LSTM ценил взаимодействия на уровне аспектов.Однако самой большой проблемой в задаче ABSA является нехватка обучающих данных, и эти сложные модели не привели к значительному улучшению результатов.Предварительно обученные языковые модели могут использовать большие объемы неразмеченных данных для изучения универсальных языковых представлений, что обеспечивает эффективное решение вышеуказанной проблемы.Некоторые из наиболее ярких примеров — ELMo BIBREF2, GPT BIBREF3 и BERT BIBREF4.BERT основан на многоуровневом двунаправленном преобразователе и обучается на простом тексте для прогнозирования замаскированных слов и задач прогнозирования следующего предложения.Предварительно обученную модель BERT можно затем точно настроить для последующей задачи с использованием данных обучения для конкретной задачи.Сан и др., sun2019 используют BERT для задачи ABSA путем построения вспомогательных предложений, Сюй и др., xu2019bert предлагают посттренировочный подход для задачи ABSA, а Лю и др., liu2019 сочетают многозадачное обучение и предварительно обученное BERT улучшить выполнение различных задач НЛП.Однако эти исследования на основе BERT следуют каноническому способу тонкой настройки: добавляют только дополнительный выходной слой после структуры BERT.Этот подход тонкой настройки игнорирует богатые семантические знания, содержащиеся в промежуточных слоях.Из-за многоуровневой структуры BERT разные уровни после точной настройки захватывают разные уровни представления для конкретной задачи.В этой статье исследуется потенциал использования промежуточных слоев BERT для облегчения точной настройки BERT.На основе предварительно обученного BERT мы добавляем дополнительный модуль пула, разрабатываем некоторые стратегии пула для интеграции многоуровневых представлений токена классификации.Затем мы настраиваем предварительно обученную модель BERT с помощью этого дополнительного модуля объединения и достигаем новых современных результатов в задаче ABSA.Дополнительные эксперименты с большой задачей вывода естественного языка (NLI) показывают, что наш метод можно легко применить к большему количеству задач НЛП с незначительной корректировкой.Основные положения этой статьи можно резюмировать следующим образом: В ней впервые исследуется потенциал использования промежуточных уровней BERT, и мы разрабатываем две эффективные стратегии объединения информации для решения задачи анализа настроений на основе аспектов.Экспериментальные результаты на наборах данных ABSA показывают, что наш метод лучше, чем стандартная модель BERT, и может улучшить другие модели на основе BERT с незначительной корректировкой.Дополнительные эксперименты с большим набором данных NLI показывают, что наш метод обладает определенной степенью универсальности и может быть легко применен к некоторым другим задачам НЛП.Учитывая пару предложение-аспект, ABSA стремится предсказать полярность настроения (положительную, отрицательную или нейронную) предложения по аспекту.Учитывая пару предложений, цель состоит в том, чтобы предсказать, является ли предложение следствием, противоречием или нейтральным по отношению к другому предложению.Учитывая скрытые состояния первого токена (т. е. токена [CLS])$\mathbf {h}_{\tiny \textsc {CLS}} = \lbrace h_{\tiny\textsc {CLS}}^1, h_{\tiny \textsc {CLS}}^2, ..., h_{\tiny\textsc {CLS}}^L\rbrace $ из всех промежуточных слоев $L$.Канонический способ тонкой настройки просто использует для классификации последний вариант (т. е. $h_{\tiny \textsc {CLS}}^L$), что неизбежно может привести к потере информации во время тонкой настройки.Мы разрабатываем две стратегии объединения для использования $\mathbf {h}_{\tiny \textsc {CLS}}$: объединение LSTM и объединение внимания.Соответственно модели называются BERT-LSTM и BERT-Attention.Обзор BERT-LSTM показан на рисунке FigREF8.Аналогичным образом, BERT-Attention заменяет модуль LSTM модулем внимания.Представление скрытых состояний $\mathbf {h}_{\tiny \textsc {CLS}}$ представляет собой специальную последовательность: последовательность от абстрактного к конкретному.Поскольку сеть LSTM по своей сути подходит для обработки последовательной информации, мы используем сеть LSTM для соединения всех промежуточных представлений токена [CLS], а выходные данные последней ячейки LSTM используются в качестве окончательного представления.Формально, интуитивно, операция внимания может узнать вклад каждого $h_{\tiny \textsc {CLS}}^i$. Мы используем модуль внимания скалярного произведения для динамического объединения всех промежуточных значений: где $W_h^T$ и $\mathbf {q}$ — обучаемые веса.Наконец, мы передаем объединенные выходные данные $o$ на полносвязный уровень для прогнозирования меток: в этом разделе мы представляем наши методы точной настройки модели на основе BERT для трех наборов данных ABSA.Чтобы продемонстрировать общность, мы также проводим эксперименты над большой и популярной задачей NLI.Мы также применяем ту же стратегию к существующим современным моделям на основе BERT и демонстрируем эффективность наших подходов.В этом разделе кратко описываются три набора данных ABSA и набор данных SNLI.Статистика этих наборов данных показана в таблице TABREF15. Мы используем три популярных набора данных в задаче ABSA: обзоры ресторанов и обзоры ноутбуков из SemEval 2014, задача 4 BIBREF5 и набор данных ACL 14 Twitter BIBREF6. Набор данных Stanford Natural Language Inference BIBREF7 содержит 570 тыс. гипотез, аннотированных людьми. /помещение пары.Это наиболее широко используемый набор данных для вывода на естественном языке.Все эксперименты проводятся с использованием BERT$_{\tiny \textsc {BASE}}$ (без корпуса) с разными весами.Во время обучения коэффициент $\lambda$ элемента регуляризации $\mathcal {L}_2$ составляет $10^{-5}$, а процент отсева — 0,1.Для обновления всех параметров применяется оптимизатор Адама BIBREF8 со скоростью обучения 2e-5.Максимальное количество эпох было установлено равным 10 и 5 для ABSA и SNLI соответственно.В этой статье мы используем 10-кратную перекрестную проверку, которая работает достаточно стабильно в наборах данных ABSA.Поскольку размеры наборов данных ABSA невелики и набор для проверки отсутствует, результаты между двумя последовательными эпохами могут значительно отличаться.Чтобы проводить честные и строгие эксперименты, мы используем 10-кратную перекрестную проверку для задачи ABSA, которая дает довольно стабильные результаты.Конечный результат получается как среднее значение 10 отдельных экспериментов.Набор данных SNLI довольно большой, поэтому мы просто берем для тестирования наиболее эффективную модель из набора разработки.Поскольку BERT значительно превосходит предыдущие исследования задачи ABSA, не основанные на BERT, мы не собираемся сравнивать наши модели с моделями, не основанными на BERT.Результаты 10-кратной перекрестной проверки наборов данных ABSA представлены в таблице.TABREF19. BERT$_{\tiny \textsc {BASE}}$, BERT-LSTM и BERT-Attention инициализируются предварительно обученным BERT$_{\tiny \textsc {BASE}}$ (без регистра).Мы наблюдаем, что BERT-LSTM и BERT-Attention превосходят стандартную модель BERT$_{\tiny \textsc {BASE}}$ на всех трех наборах данных.Более того, BERT-LSTM и BERT-Attention имеют соответствующие преимущества для разных наборов данных.Мы подозреваем, что причина в том, что Attention-Pooling и LSTM-Pooling работают по-разному во время точной настройки разных наборов данных.В целом, наши стратегии объединения значительно повышают производительность BERT на этих наборах данных.BERT-PT, BERT-PT-LSTM и BERT-PT-Attention инициализируются с помощью постобученных весов BERT BIBREF9.Мы видим, что и BERT-PT-LSTM, и BERT-PT-Attention превосходят BERT-PT с большим отрывом в наборах данных для ноутбуков и ресторанов.Из результатов вывод о том, что использование промежуточных слоев BERT дает лучшие результаты, по-прежнему верен.Чтобы визуализировать преимущества BERT-LSTM от последовательных представлений промежуточных уровней, мы используем анализ главных компонентов (PCA) для визуализации промежуточных представлений токена [CLS], показанных на рисунке FigREF20.Существует три класса данных о настроениях, показанных синим, зеленым и красным цветом, которые обозначают положительные, нейронные и отрицательные соответственно.Поскольку информация, специфичная для задачи, в основном извлекается из последних шести уровней BERT, мы просто проиллюстрируем последние шесть уровней.Легко сделать вывод, что BERT-LSTM разделяет разные классы данных быстрее и плотнее, чем обычный BERT, в той же эпохе обучения.Чтобы подтвердить общность нашего метода, мы проводим эксперимент с набором данных SNLI и применяем те же стратегии объединения к современному методу MT-DNN BIBREF11, который также представляет собой модель на основе BERT и называется MT-DNN-Attention и MT. -DNN-LSTM. Как показано в таблице TABREF26, результаты соответствовали результатам ABSA.Судя по результатам, BERT-Attention и BERT-LSTM работают лучше, чем стандартный BERT$_{\tiny \textsc {BASE}}$. Кроме того, MT-DNN-Attention и MT-DNN-LSTM превосходят стандартный MT-DNN в наборе Dev и немного уступают стандартному MT-DNN в тестовом наборе.В целом, наши стратегии объединения в целом улучшают стандартную модель на основе BERT, которая делает тот же вывод, что и ABSA. Выигрыши кажутся небольшими, но улучшения метода вполне разумны, а гибкость наших стратегий упрощает его. применять для решения множества других задач.В этой работе мы исследуем потенциал использования промежуточных слоев BERT и предлагаем две эффективные стратегии объединения для повышения производительности точной настройки BERT.Результаты экспериментов демонстрируют эффективность и общность предложенного подхода. | Аспектный анализ настроений направлен на выявление сентиментальной тенденции к данному аспекту в тексте. Точная настройка предварительно обученного BERT отлично справляется с этой задачей и обеспечивает самые современные характеристики. Существующие работы на основе BERT используют только последний выходной уровень BERT и игнорируют семантические знания на промежуточных уровнях. В этой статье исследуется потенциал использования промежуточных слоев BERT для повышения производительности точной настройки BERT. Насколько нам известно, никаких работ по этому исследованию не проводилось. Чтобы показать общность, мы также применим этот подход к задаче вывода на естественном языке. Результаты экспериментов демонстрируют эффективность и общность предложенного подхода. | 1,690 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Моделирование нейронного языка путем совместного изучения синтаксиса и лексики. Лингвистические теории обычно рассматривают естественный язык как состоящий из двух частей: словарного запаса, полного набора всех возможных слов в языке; и синтаксис, набор правил, принципов и процессов, которые управляют структурой предложений BIBREF0 .Чтобы создать правильное предложение, лексемы объединяются с определенной синтаксической структурой.Понимание предложения также требует лексической информации для передачи значений и синтаксических знаний для правильного объединения значений.Современные модели нейронного языка могут предоставить значимые слова, представляющие BIBREF1, BIBREF2, BIBREF3.Однако стандартные рекуррентные нейронные сети лишь неявно моделируют синтаксис и поэтому не могут эффективно использовать структурную информацию BIBREF4. В последние годы большое внимание уделяется разработке глубокой нейронной сети, которая может использовать синтаксические знания для формирования лучшего семантического представления. БИБРЕФ6 .Интеграция синтаксической структуры в языковую модель важна по разным причинам: 1) для получения иерархического представления с возрастающими уровнями абстракции, что является ключевой особенностью глубоких нейронных сетей и человеческого мозга BIBREF7, BIBREF8, BIBREF9; 2) охватить сложные лингвистические явления, такие как проблема долгосрочной зависимости BIBREF4 и композиционные эффекты BIBREF5; 3) чтобы обеспечить ярлык для обратного распространения градиента BIBREF6 .Aсинтаксический анализатор является наиболее распространенным источником структурной информации.Контролируемые парсеры могут добиться очень высокой производительности при работе с хорошо построенными предложениями.Следовательно, анализаторы могут предоставить точную информацию о том, как составить семантику слова в семантику предложения BIBREF5 или как сгенерировать следующее слово на основе предыдущих слов BIBREF10.Однако только основные языки имеют древовидные данные для обучения парсеров, и для этого требуются дорогостоящие экспертные аннотации.Люди также склонны нарушать языковые правила во многих обстоятельствах (например, при написании твита).Эти дефекты ограничивают возможности обобщения контролируемых анализаторов.Индукция синтаксической структуры без присмотра была одной из давних проблем компьютерной лингвистики BIBREF11, BIBREF12, BIBREF13.Исследователи интересуются этой проблемой по ряду причин: возможность анализировать языки, для которых не существует аннотированных древовидных банков BIBREF14; создать структуру зависимостей, которая лучше подходит конкретному приложению НЛП BIBREF10; эмпирически аргументировать за или против бедности стимула BIBREF15, BIBREF16; и изучить когнитивные проблемы при изучении языка BIBREF17.InВ этой статье мы предлагаем новую модель нейронного языка: сети синтаксического анализа-чтения-предсказания (PRPN), которая может одновременно создавать синтаксическую структуру из неаннотированных предложений и использовать полученную структуру для формирования лучшей языковой модели.В нашей модели мы предполагаем, что язык можно естественным образом представить в виде древовидного графа.Модель состоит из трех частей. Мы оцениваем нашу модель по трем задачам: моделирование языка на уровне слов, моделирование языка на уровне символов и неконтролируемый анализ округа.Предлагаемая модель достигает (или близка к этому) современного уровня моделирования языка как на уровне слов, так и на уровне символов.Неконтролируемый анализ модели превосходит некоторые надежные базовые модели, демонстрируя, что структура, обнаруженная нашей моделью, аналогична внутренней структуре, предоставленной экспертами-людьми.Идея введения некоторых структур, особенно деревьев, в понимание языка для облегчения последующей задачи изучалась по-разному.Например, BIBREF5, BIBREF4 изучают восходящий кодер, принимая в качестве входных данных дерево синтаксического анализа, полученное от внешнего синтаксического анализатора.Существуют модели, которые способны выводить дерево во время тестирования, но при этом нуждаются в контролируемом сигнале о древовидной структуре во время обучения.Например, BIBREF18, BIBREF19, BIBREF20, BIBREF21 и т. д.Более того, BIBREF22 провел углубленный анализ рекурсивных моделей, которые способны изучать древовидную структуру, не подвергаясь воздействию каких-либо грамматических деревьев.Наша модель также способна выводить древовидную структуру без присмотра, но в отличие от их модели, это рекуррентная сеть, которая неявно моделирует древовидную структуру посредством внимания.Помимо подхода использования рекурсивных сетей для захвата структур, существует еще одно направление исследований, пытающееся изучить повторяющиеся функции в разных масштабах, которое можно отнести к 1990-м годам (например, BIBREF23, BIBREF24, BIBREF25).NARX RNN BIBREF25 — еще один пример, в котором использовалась сеть прямой связи, принимающая различные входные данные с заранее заданными временными задержками для моделирования долгосрочных зависимостей.Совсем недавно BIBREF26 также использовал несколько уровней рекуррентных сетей с различной предопределенной частотой обновления.Вместо этого наша модель пытается изучить структуру на основе данных, а не задавать ее заранее.В этом отношении BIBREF6 относится к нашей модели, поскольку предлагает иерархическую многомасштабную структуру с двоичными вентилями, управляющими внутриуровневыми соединениями, а механизм вентилирования также изучается на основе данных.Разница в том, что их механизм шлюзования контролирует обновления более высоких уровней напрямую, а наш — мягко, посредством механизма внимания.С точки зрения языкового моделирования, синтаксическое языковое моделирование можно отнести к BIBREF27.BIBREF28, BIBREF29 также предложили языковые модели с механизмом синтаксического анализа сверху вниз.Недавно BIBREF30 и BIBREF31 представили в этом пространстве нейронные сети.Он изучает как дискриминативную, так и генеративную модель с нисходящим синтаксическим анализом, обучаясь с помощью управляющего сигнала из анализируемых предложений в корпусе.Существуют также подходы, основанные на зависимостях, с использованием нейронных сетей, в том числе BIBREF32, BIBREF33, BIBREF34. Парсеры также связаны с нашей работой, поскольку все они выводят грамматическую древовидную структуру данного предложения.Например, SPINN BIBREF35 — это синтаксический анализатор с сокращением сдвига, который использует LSTM в качестве функции композиции.Классификатор переходов в SPINN обучается под наблюдением на выходе Stanford PCFG Parser BIBREF36.Неконтролируемые парсеры больше соответствуют тому, что делает наша модель.BIBREF12 представил генеративную модель для обучения структур зависимостей без учителя.BIBREF11 — это генеративная модель распределения для неконтролируемой индукции синтаксиса естественного языка, которая явно моделирует выходы и контексты составляющих.Мы сравниваем наше качество синтаксического анализа с двумя вышеупомянутыми статьями в разделе SECREF43. Предположим,у нас есть последовательность токенов INLINEFORM0, управляемая древовидной структурой, показанной на рисунке FigREF4.Листья INLINEFORM1 являются наблюдаемыми токенами.Узел INLINEFORM2 представляет значение компонента, образованного его листьями INLINEFORM3 , где INLINEFORM4 и INLINEFORM5 обозначают самого левого дочернего элемента и самого правого дочернего элемента.Корень INLINEFORM6 представляет смысл всей последовательности.Стрелки представляют отношения зависимости между узлами.Основное предположение состоит в том, что каждый узел зависит только от своего родителя и своих левых братьев и сестер.Непосредственное моделирование древовидной структуры — сложная задача, обычно требующая присмотра для изучения BIBREF4.Кроме того, использование древовидных структур может привести к тому, что модель окажется недостаточно устойчивой для обработки неграмматических предложений BIBREF37.Напротив, рекуррентные модели предоставляют удобный способ моделирования последовательных данных, при этом текущее скрытое состояние зависит только от последнего скрытого состояния.Это делает модели более надежными при работе с несоответствующими последовательными данными, но страдает от игнорирования реального отношения зависимости, которое доминирует в структуре предложений естественного языка.В этой статье мы используем пропуск соединения для интеграции структурированных отношений зависимости с рекуррентной нейронной сетью.Другими словами, текущее скрытое состояние зависит не только от последнего скрытого состояния, но и от предыдущих скрытых состояний, имеющих прямое синтаксическое отношение к текущему.На рисунке FigREF5 показана структура нашей модели.Неконечный узел INLINEFORM0 представлен набором скрытых состояний INLINEFORM1 , где INLINEFORM2 — самый левый дочерний лист, а INLINEFORM3 — самый правый.Стрелками показаны скиповые связи, построенные нашей моделью по скрытой структуре.Пропускные соединения контролируются вентилями INLINEFORM4.Чтобы определить INLINEFORM5, мы вводим скрытую переменную INLINEFORM6 для представления локального структурного контекста INLINEFORM7: и вентили определяются как: DISPLAYFORM0. Учитывая эту архитектуру, отношение зависимости между братьями и сестрами моделируется как минимум одним пропуском соединения.Пропускное соединение будет передавать информацию напрямую вперед и передавать градиент назад.Отношение родитель-потомок будет неявно моделироваться отношением пропуска соединения между узлами.Модель периодически обновляет скрытые состояния в соответствии с: DISPLAYFORM0, а распределение вероятностей для следующего слова аппроксимируется: DISPLAYFORM0, где INLINEFORM0 — это элементы, управляющие пропуском соединений.И INLINEFORM1, и INLINEFORM2 имеют механизм структурированного внимания, который принимает INLINEFORM3 в качестве входных данных и заставляет модель сосредоточиться на наиболее связанной информации.Поскольку INLINEFORM4 является ненаблюдаемой скрытой переменной, в следующем разделе мы объясним аппроксимацию INLINEFORM5.Механизм структурированного внимания объясняется в разделе SECREF21.в этом разделе мы даем вероятностный взгляд на то, как моделировать локальную структуру языка.Подробное описание этого раздела приведено в Приложении.На временном шаге INLINEFORM0 INLINEFORM1 представляет вероятность выбора одной из возможных локальных структур INLINEFORM2.Мы предлагаем моделировать распределение с помощью процесса разрушения палочек:DISPLAYFORM0 Формулу можно понять, заметив, что после того, как временному шагу INLINEFORM0 назначены вероятности, INLINEFORM1 — это оставшаяся вероятность, INLINEFORM2 — это часть оставшейся вероятности, которую мы присваиваем временному шагу INLINEFORM3.Переменная INLINEFORM4 параметризуется в следующем разделе.Как показано в Приложении, ожидание значения вентиля INLINEFORM0 — это кумулятивная функция распределения (CDF) INLINEFORM1.Таким образом, мы можем заменить значение дискретного элемента на его математическое ожидание: DISPLAYFORM0. С этими релаксациями уравнение. EQREF9 и EQREF10 можно аппроксимировать с помощью вектора мягкого стробирования для обновления скрытого состояния и прогнозирования следующего токена.В уравнении EQREF12INLINEFORM0 — это часть оставшейся вероятности, которую мы присваиваем позиции INLINEFORM1.Потому что процесс взлома палки должен присвоить высокую вероятность INLINEFORM2 , которое является ближайшим начальным словом компонента.Модель должна присваивать большие значения INLINEFORM3 словам, начинающимся с новых составляющих.Хотя INLINEFORM4 сам по себе является словом, начинающимся с составной части, модель должна назначать большой INLINEFORM5 словам, начинающимся с более крупных составляющих.Другими словами, модель будет учитывать более длинные отношения зависимости для первого слова в компоненте.Учитывая предложение на рисунке FigREF4, на временном шаге INLINEFORM6 значения INLINEFORM7 и INLINEFORM8 должны быть близки к 1, а все остальные INLINEFORM9 должны быть близки к 0. Чтобы параметризовать INLINEFORM0, наша основная гипотеза состоит в том, что слова в одной и той же составляющей должны иметь более тесную синтаксическую связь внутри себя, и что эта синтаксическая близость может быть представлена скалярным значением.С точки зрения древовидной структуры кратчайший путь между листьями одного поддерева короче, чем путь между листьями разных поддеревьев.Для моделирования синтаксической близости мы вводим новую функцию Syntactic Distance.Для предложения длиной INLINEFORM0 мы определяем набор вещественных скалярных переменных INLINEFORM1 INLINEFORM2, причем INLINEFORM3 представляет собой меру синтаксического отношения между парой соседних слов INLINEFORM4.INLINEFORM5 может быть последним словом в предыдущем предложении или маркером заполнения.Для временного шага INLINEFORM6 мы хотим найти ближайшие слова INLINEFORM7, которые имеют большее синтаксическое расстояние, чем INLINEFORM8.Таким образом, INLINEFORM9 можно определить как: DISPLAYFORM0 где INLINEFORM0 .INLINEFORM1 — это температурный параметр, который управляет чувствительностью INLINEFORM2 к разнице между расстояниями.Синтаксическое расстояние имеет несколько полезных свойств, которые позволяют нам вывести из него древовидную структуру и быть устойчивыми к промежуточным недопустимым древовидным структурам, с которыми модель может столкнуться во время обучения.В приложении мы перечисляем эти свойства и дополнительно поясняем смысл их значений.BIBREF38 показывает, что можно идентифицировать начало и конец слова компонента, используя локальную информацию.В нашей модели синтаксическое расстояние между данным токеном (который обычно представляется как векторное слово, встраивающее INLINEFORM0 ) и его предыдущим токеном INLINEFORM1 , обеспечивается сверточным ядром по набору последовательных предыдущих токенов INLINEFORM2 .Эта свертка изображена серыми треугольниками, показанными на рисунке FigREF20.Каждый треугольник здесь представляет собой 2 слоя свертки.Формально синтаксическое расстояние INLINEFORM3 между токенами INLINEFORM4 и INLINEFORM5 вычисляется с помощью DISPLAYFORM0 DISPLAYFORM1, где INLINEFORM0, INLINEFORM1 — параметры ядра.INLINEFORM2 и INLINEFORM3 можно рассматривать как еще одно сверточное ядро с размером окна 1, свернутое по INLINEFORM4.Здесь размер окна ядра INLINEFORM5 определяет, как далеко назад в узел истории INLINEFORM6 может проникнуть при вычислении синтаксического расстояния INLINEFORM7 .Поэтому мы называем это диапазоном ретроспективного анализа.Свертка INLINEFORM0 и INLINEFORM1 для всей последовательности длиной INLINEFORM2 дает набор расстояний.Для токенов в начале последовательности мы просто добавляем нулевые векторы INLINEFORM3 в начало последовательности, чтобы получить выходные данные INLINEFORM4.Сеть чтения генерирует новые состояния INLINEFORM0, учитывая входные данные INLINEFORM1, предыдущие состояния памяти INLINEFORM2 и элементы INLINEFORM3, как показано в уравнении. EQREF9. Подобно сети долгосрочной краткосрочной памяти (LSTMN) BIBREF39, сеть чтения поддерживает состояния памяти, поддерживая два набора векторов: скрытую ленту INLINEFORM0 и ленту памяти INLINEFORM1, где INLINEFORM2 — верхняя граница памяти. охватывать.Скрытые состояния INLINEFORM3 теперь представлены кортежем из двух векторов INLINEFORM4.Сеть чтения фиксирует отношение зависимости с помощью модифицированного механизма внимания: структурированного внимания.На каждом этапе повторения модель суммирует предыдущие повторяющиеся состояния с помощью механизма структурированного внимания, затем выполняет обычное обновление LSTM со скрытыми состояниями и состояниями ячеек, выводимыми механизмом внимания.На каждом временном шаге INLINEFORM0 операция чтения внимательно связывает текущий токен с предыдущими воспоминаниями с помощью структурированного уровня внимания: DISPLAYFORM0, где INLINEFORM0 — это измерение скрытого состояния.Модулируется воротами в уравнении. EQREF13 структурированный вес внутреннего внимания определяется как: DISPLAYFORM0Это дает распределение вероятностей по скрытым векторам состояния предыдущих токенов.Затем мы можем вычислить адаптивный суммарный вектор для предыдущей скрытой ленты и памяти, обозначенных INLINEFORM0 и INLINEFORM1: DISPLAYFORM0. Структурированное внимание обеспечивает способ моделирования отношений зависимости, показанных на рисунке FigREF4.Сеть чтения принимает INLINEFORM0, INLINEFORM1 и INLINEFORM2 в качестве входных данных, вычисляет значения INLINEFORM3 и INLINEFORM4 с помощью рекуррентного обновления LSTM BIBREF40.Затем операция записи объединяет INLINEFORM5 и INLINEFORM6 в конец скрытой ленты и ленты памяти.Predict Network моделирует распределение вероятностей следующего слова INLINEFORM0, учитывая скрытые состояния INLINEFORM1 и вентили INLINEFORM2.Обратите внимание, что на временном шаге INLINEFORM3 модель не может наблюдать INLINEFORM4, временная оценка INLINEFORM5 вычисляется с учетом INLINEFORM6: DISPLAYFORM0. Отсюда мы вычисляем соответствующие INLINEFORM0 и INLINEFORM1 для уравнения. EQREF10 .Мы параметризуем функцию INLINEFORM2 следующим образом: DISPLAYFORM0, где INLINEFORM0 — это адаптивная сводка INLINEFORM1, выводимая структурированным вниманием, управляемым INLINEFORM2.INLINEFORM3 может быть простой MLP с прямой связью или более сложной архитектурой, такой как ResNet, для придания модели большей глубины.Мы оцениваем предложенную модель по трем задачам: моделирование языка на уровне символов, моделирование языка на уровне слов и неконтролируемый анализ округа.С точки зрения символов естественный язык представляет собой дискретную последовательность данных, в которой дискретные символы образуют четкую и неглубокую древовидную структуру: предложение является корнем, слова — дочерними элементами корня, а символы — листьями.Однако по сравнению с моделированием языка на уровне слов, моделирование языка на уровне символов требует, чтобы модель обрабатывала долгосрочные зависимости.Мы оцениваем вариант предлагаемой нами языковой модели на уровне символов на основе предварительно обработанной версии наборов данных Penn Treebank (PTB) и Text8.При обучении мы используем усеченное обратное распространение ошибки и подаем конечную позицию памяти из предыдущего пакета в качестве начальной памяти следующего.В начале обучения и тестирования начальные скрытые состояния модели заполняются нулями.Оптимизация выполняется с помощью Адама с использованием скорости обучения INLINEFORM0, снижения веса INLINEFORM1, INLINEFORM2, INLINEFORM3 и INLINEFORM4.Проводим градиентное отсечение с максимальной нормой 1,0.Скорость обучения умножается на 0,1, если производительность проверки не улучшается в течение двух контрольных точек.Эти контрольные точки выполняются в конце каждой эпохи.Мы также применяем нормализацию слоев BIBREF41 к сети чтения и пакетную нормализацию к сети прогнозирования и сети синтаксического анализа.Для всех экспериментов по моделированию языка на уровне символов мы применяем одну и ту же процедуру, изменяя только количество скрытых единиц, размер мини-пакета и процент отсева. Мы обрабатываем набор данных Penn Treebank BIBREF42, следуя процедуре, представленной в BIBREF43.Для PTB на уровне символов Reading Network имеет два рекуррентных слоя, Predict Network имеет один остаточный блок.Размер скрытого состояния — 1024 единицы.Размер встраивания ввода и вывода составляет 128 и не является общим.Диапазон просмотра INLINEFORM0 , параметр температуры INLINEFORM1 , верхняя полоса диапазона памяти INLINEFORM2 .Мы используем размер пакета 64, усеченное обратное распространение ошибки со 100 временными шагами.Значения, используемые для исключения при внедрении ввода/вывода, между повторяющимися слоями и в повторяющихся состояниях, составляли (0, 0,25, 0,1) соответственно.На рисунке FigREF32 мы визуализируем синтаксическое расстояние, оцененное сетью синтаксического анализа при чтении трех разных последовательностей из тестового набора PTB.Мы наблюдаем, что синтаксическое расстояние между последним символом слова и пробелом имеет тенденцию быть выше, что является разумной точкой останова для разделения слов.Другими словами, если модель видит пробел, она будет присутствовать на всех предыдущих шагах.Если модель увидит букву, она не пойдет дальше последнего шага пробела.Модель автономно обнаружила, что позволяет избежать связи внимания между словами и использовать скрытые состояния жетонов пространства (разделителя) для обобщения предыдущей информации.Это убедительное доказательство того, что модель может понимать скрытую структуру данных.В результате наша модель достигает самых современных показателей производительности и значительно превосходит базовые модели.Стоит отметить, что HM-LSTM BIBREF6 также без присмотра создает аналогичную структуру из данных.Но дискретные операции в HM-LSTM усложняют процедуру их обучения, чем нашу.По сравнению с моделированием языка на уровне символов, моделирование языка на уровне слов должно иметь дело со сложной синтаксической структурой и различными лингвистическими явлениями.Но у него меньше долгосрочных зависимостей.Мы оцениваем вариант нашей языковой модели на уровне слов на предварительно обработанной версии набора данных Penn Treebank (PTB) BIBREF42 и Text8 BIBREF49.Мы применяем ту же процедуру и гиперпараметры, что и в модели языка на уровне символов.За исключением того, что оптимизация выполняется Адамом с INLINEFORM0 .Это отключает экспоненциальное скользящее среднее для оценок средних градиентов BIBREF50.Мы также адаптируем количество скрытых единиц, размер мини-пакета и процент отсева в соответствии с различными задачами. Мы обрабатываем набор данных Penn Treebank BIBREF43, следуя процедуре, представленной в BIBREF51.Для PTB на уровне слов сеть чтения имеет два рекуррентных слоя, а сеть прогнозирования не имеет остаточного блока.Размер скрытого состояния составляет 1200 единиц, а размеры встраивания ввода и вывода — 800, а также общие BIBREF52 , BIBREF53 .Диапазон просмотра INLINEFORM0 , параметр температуры INLINEFORM1 и верхняя полоса диапазона памяти INLINEFORM2 .Мы используем размер пакета 64, усеченное обратное распространение ошибки с 35 временными шагами.Значения, используемые для отсева при внедрении ввода/вывода, между повторяющимися слоями и в повторяющихся состояниях, составляли (0,7, 0,5, 0,5) соответственно. Набор данных содержит 17 миллионов обучающих токенов и имеет размер словаря 44 тыс. слов.Набор данных разделен на обучающий набор (первые 99 миллионов символов) и набор разработки (последний 1 миллион символов), который используется для отчета о производительности.Поскольку этот набор данных содержит различные статьи из Википедии, долгосрочная информация (например, текущая тема) играет большую роль, чем в экспериментах PTB BIBREF61.Мы применяем ту же процедуру и гиперпараметры, что и в PTB на уровне символов, за исключением того, что мы используем размер пакета 128.Значения, используемые для исключения при внедрении ввода/вывода, между рекуррентными слоями и в повторяющихся состояниях, составляли (0,4, 0,2, 0,2) соответственно.В таблице TABREF39 наши результаты сопоставимы с современными методами.Поскольку у нас нет такого же вычислительного ресурса, который используется в BIBREF50 для настройки гиперпараметров в больших масштабах, мы ожидаем, что наша модель сможет достичь более высокой производительности после агрессивного процесса настройки гиперпараметров.Как показано в таблице TABREF42, наш метод превосходит базовые методы.Стоит отметить, что указатель непрерывного кэша также можно применять к выводам нашей сети прогнозирования без изменений.Визуализация древовидной структуры, созданной на основе изученной языковой модели PTB, включена в Приложение.В таблице TABREF40 мы показываем значение тестовой запутанности для различных вариантов PRPN, каждый вариант удаляет часть модели.Удалив Parsing Network, мы наблюдаем значительное падение производительности.Это является эмпирическим свидетельством преимуществ наличия структурной информации для контроля внимания.Задача анализа группы без присмотра сравнивает древовидную структуру, полученную с помощью модели, со структурой, аннотированной экспертами-людьми.Эксперимент проводится на наборе данных WSJ10.WSJ10 — это 7422 предложения в разделе Penn Treebank Wall Street Journal, содержащие не более 10 слов после удаления знаков препинания и нулевых элементов.Оценка проводилась путем проверки того, присутствуют ли предлагаемые диапазоны составляющих также в синтаксическом анализе Treebank, измеряя немаркированный F1 ( INLINEFORM0 ) точности и полноты немаркированных составляющих.Составляющие, которые нельзя было ошибиться (те, что относятся к первому отрезку и к тем, которые охватывают целые предложения), были отброшены.Учитывая механизм, обсуждаемый в разделе SECREF14, наша модель генерирует двоичное дерево.Хотя стандартное дерево синтаксического анализа округа не ограничивается двоичным деревом.Предыдущая модель анализа округов без присмотра также генерировала двоичные деревья BIBREF11, BIBREF13.Наша модель сравнивается с несколькими базовыми методами, которые описаны в Приложении. В отличие от предыдущего эксперимента, модель обрабатывает каждое предложение независимо во время обучения и тестирования.При обучении мы подаем одну партию предложений на каждой итерации.В пакете более короткие предложения дополняются 0.В начале итерации начальные скрытые состояния модели заполняются нулями.При тестировании мы передаем предложения одно за другим в модель, а затем используем выходное значение шлюза модели для рекурсивного объединения токенов в составляющие, как описано в приложении. В таблице TABREF44 суммированы результаты.Наша модель значительно превосходит базовый уровень RANDOM, что указывает на высокую согласованность с человеческими аннотациями.Наша модель также показывает производительность, сравнимую с моделью CCM.Фактически, наша сеть синтаксического анализа и CCM фокусируются на отношениях между последовательными токенами.Как описано в разделе SECREF14, наша модель вычисляет синтаксическое расстояние между всеми последовательными парами токенов, затем наш алгоритм синтаксического анализа рекурсивно собирает токены в составляющие в соответствии с изученным расстоянием.CCM также рекурсивно моделирует вероятность того, что смежные подпоследовательности предложения являются его составляющими.Таким образом, можно понять, насколько наша модель проигрывает моделям DMV+CCM и UML-DOP.Модель DMV+CCM содержит дополнительную информацию от анализатора зависимостей.Подход UML-DOP фиксирует как смежные, так и несмежные лексические зависимости BIBREF13.InВ этой статье мы предлагаем новую модель нейронного языка, которая может одновременно создавать синтаксическую структуру из неаннотированных предложений и использовать полученную структуру для изучения лучшей языковой модели.Мы представляем новую сеть нейронного анализа: сеть синтаксического анализа-чтения-прогноза, которая может принимать дифференцируемые решения по синтаксическому анализу.Мы используем новый механизм структурированного внимания для управления пропуском соединений в рекуррентной нейронной сети.Следовательно, информация о индуцированной синтаксической структуре может использоваться для улучшения производительности модели.С помощью этого механизма градиент может быть напрямую передан обратно от функции потерь языковой модели в нейронную сеть синтаксического анализа.Предлагаемая модель достигает (или близка к этому) современного уровня задач моделирования языка на уровне слов и символов.Эксперимент также показывает, что предполагаемая синтаксическая структура сильно коррелирует с аннотациями, сделанными экспертом.Авторы хотели бы поблагодарить Тимоти Дж. О'Доннелла и Криса Дайера за полезные обсуждения. | Мы предлагаем модель нейронного языка, способную к неконтролируемой индукции синтаксической структуры. Модель использует информацию о структуре для формирования лучших семантических представлений и лучшего моделирования языка. Стандартные рекуррентные нейронные сети ограничены своей структурой и не могут эффективно использовать синтаксическую информацию. С другой стороны, рекурсивные сети с древовидной структурой обычно требуют дополнительного структурного контроля за счет экспертных аннотаций. В этой статье мы предлагаем новую модель нейронного языка, называемую сетями синтаксического анализа-чтения-предсказания (PRPN), которая может одновременно создавать синтаксическую структуру из неаннотированных предложений и использовать полученную структуру для изучения лучшей языковой модели. В нашей модели градиент может быть напрямую передан обратно из-за потери языковой модели в сеть нейронного анализа. Эксперименты показывают, что предложенная модель может обнаружить основную синтаксическую структуру и достичь современной производительности при выполнении задач языковой модели на уровне слов/символов. | 3,809 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Глубокое обучение репрезентации для кластеризации твитов о здоровье. Социальные сети играют важную роль в медицинской информатике, а Twitter является одним из самых влиятельных каналов социальных сетей для сбора информации о здоровье на уровне населения BIBREF0 , BIBREF1 , BIBREF2 .Эти идеи варьируются от прогнозирования эпидемий гриппа BIBREF3 до прогнозирования побочных реакций на лекарства BIBREF4.Заметной проблемой из-за небольшой длины сообщений Твиттера является категоризация твитов по темам контролируемым способом, то есть классификация тем, а также неконтролируемым способом, то есть кластеризация.Классификация твитов по темам тщательно изучалась BIBREF5, BIBREF6, BIBREF7.Несмотря на то, что алгоритмы классификации текста могут достигать значительных уровней точности, подходы к контролируемому машинному обучению требуют аннотированных данных, то есть категорий тем, на которых можно учиться для классификации.С другой стороны, аннотированные данные не всегда доступны, поскольку процесс аннотирования является обременительным и требует много времени.Кроме того, дискуссии в социальных сетях быстро развиваются в соответствии с последними тенденциями, превращая Twitter в динамичную среду с постоянно меняющимися темами.Поэтому неконтролируемые подходы необходимы для получения информации о здоровье из Твиттера.Предлагаемые методы кластеризации твитов используют традиционные конвейеры кластеризации текста, включающие предварительную обработку, применяемую к необработанным текстовым строкам, за которой следует извлечение признаков, за которым затем следует алгоритм кластеризации BIBREF8, BIBREF9, BIBREF10.Производительность таких подходов во многом зависит от выделения признаков, при котором требуются тщательное проектирование и знание предметной области BIBREF11.Последние достижения в области машинного обучения, например, глубокие нейронные сети, позволяют эффективно обучаться представлению необработанных данных в иерархическом порядке BIBREF12, BIBREF13.Несколько задач обработки естественного языка (NLP), включающих данные Твиттера, выиграли от подходов на основе глубоких нейронных сетей, включая классификацию твитов по тону BIBREF14, прогнозирование потенциальных попыток самоубийства с помощью Twitter BIBREF15 и моделирование эпидемий с помощью Twitter BIBREF16.В этой работе мы предлагаем глубокие сверточные автокодировщики (CAE) для получения эффективных представлений твитов, связанных со здоровьем, без присмотра.Мы проверяем наш подход на общедоступном наборе данных из Твиттера, сравнивая производительность нашего подхода и традиционных методов извлечения признаков в трех различных алгоритмах кластеризации.Кроме того, мы предлагаем ограничение на изученные представления во время обучения нейронной сети, чтобы еще больше улучшить производительность кластеризации.Мы показываем, что предлагаемый метод обучения представлению на основе глубоких нейронных сетей превосходит традиционные методы с точки зрения производительности кластеризации в экспериментах с различным количеством кластеров.Разработка эффективных представлений твитов, то есть функций, для выполнения кластеризации широко изучалась.Наиболее часто используемые функции для представления текста в твитах в виде числовых векторов — это набор слов (BoWs) и функции частоты документа, обратные частоте терминов (tf-idf) BIBREF17, BIBREF9, BIBREF10, BIBREF18, BIBREF19.Оба этих метода извлечения признаков основаны на подсчете вхождений слов и в конечном итоге приводят к разреженной (большинство элементов равны нулю) матрице терминов документа.Предлагаемые алгоритмы кластеризации твитов по темам включают варианты иерархических, основанных на плотности и центроидных методов кластеризации; Наиболее часто используемый алгоритм k-средних BIBREF9, BIBREF19, BIBREF20. Также доступны многочисленные работы по тематическому моделированию твитов.Тематические модели являются генеративными моделями, основанными на идее, что данный твит представляет собой смесь тем, где тема представляет собой распределение вероятностей по словам BIBREF21.Несмотря на то, что цель тематического моделирования немного отличается от цели чистой кластеризации, представление каждого твита в виде вектора темы по сути является способом уменьшения размерности или извлечения признаков, за которым в дальнейшем может следовать алгоритм кластеризации.Предлагаемые методы тематического моделирования включают традиционные подходы или их варианты, такие как латентное распределение Дирихле (LDA) BIBREF22, BIBREF17, BIBREF9, BIBREF23, BIBREF24, BIBREF25, BIBREF26, BIBREF27, BIBREF19, BIBREF28, BIBREF29 и неотрицательную матричную факторизацию ( НМФ) BIBREF30 , БИБРЕФ18 .Обратите внимание, что модели тем, такие как LDA, основаны на том, что слова, принадлежащие теме, с большей вероятностью появятся в одном документе, и не предполагают метрики расстояния между обнаруженными темами.В отличие от вышеупомянутых методов извлечения признаков, которые не являются специфичными для представления твитов, а скорее являются общими для обработки естественного языка, в различных работах предлагаются специальные методы извлечения признаков для определенных задач по извлечению информации, связанной со здоровьем, из Твиттера.Например, Лим и др. встроенные функции анализа настроений для выявления скрытых инфекционных заболеваний из Twitter BIBREF31.Для отслеживания тенденций состояния здоровья населения с помощью Твиттера Паркер и др. предлагают специальные функции. использование индекса статей Википедии, то есть рассмотрение поиска статей Википедии, связанных с медициной, как индикатора состояния, связанного со здоровьем BIBREF32 .Пользовательские функции сходства пользователей, рассчитанные на основе твитов, были также предложены для создания основы для рекомендаций тем, связанных со здоровьем BIBREF27.Идея изучения эффективных представлений на основе необработанных данных с использованием нейронных сетей использовалась во многих областях машинного обучения, таких как компьютерное зрение и обработка естественного языка BIBREF12, BIBREF13.Эта концепция опирается на иерархическую, послойную архитектуру нейронных сетей, в которой необработанные входные данные кодируются в информативные представления более низких измерений (возможны также представления более высоких измерений) весьма нелинейным образом.Автоэнкодеры, автоэнкодеры с шумоподавлением, сверточные автоэнкодеры, разреженные автоэнкодеры, стековые автоэнкодеры и их комбинации, например, сверточные автоэнкодеры с шумоподавлением, являются наиболее распространенными архитектурами глубоких нейронных сетей, специально используемыми для обучения представлению.При обучении автокодировщика сеть пытается восстановить входные данные на выходе, что заставляет модель фиксировать наиболее существенные особенности данных на промежуточных уровнях.Если промежуточные слои соответствуют скрытому пространству меньшей размерности, чем исходный вход, такие автокодировщики также называются неполными.Активации, извлеченные из этих слоев, можно рассматривать как компактные нелинейные представления входных данных.Еще одним значительным достижением в обучении представлению на основе нейронных сетей в задачах НЛП является встраивание слов (также называемое распределенным представлением слов).Представляя каждое слово в заданном словаре вещественным вектором фиксированной размерности, встраивание слов позволяет выявить лексическое, семантическое или даже синтаксическое сходство между словами.Обычно эти векторные представления изучаются на основе больших корпусов и могут использоваться для повышения производительности многочисленных задач НЛП, таких как классификация документов, ответы на вопросы и машинный перевод.Наиболее часто используемые векторные представления слов — word2vec BIBREF33 и GloVe (глобальные векторы для представления слов) BIBREF34.Оба эти значения извлекаются без присмотра и основаны на гипотезе распределения BIBREF35, т. е. на предположении, что слова, встречающиеся в одном и том же контексте, имеют тенденцию иметь схожие значения.И word2vec, и GloVe рассматривают слово как наименьший объект для обучения.Сдвиг в этой парадигме был внесен с помощью fastText BIBREF36, который рассматривает каждое слово как набор n-грамм символов.Следовательно, встраивания fastText лучше представляют редкие слова BIBREF36 .Кроме того, все еще можно построить векторное представление для слова, не входящего в словарь, что невозможно с помощью вложений word2vec или GloVe BIBREF36.Усовершенствованные методы определения лучшего представления слов и/или предложений были недавно представлены Peters et al.с именем ELMo (Вложения из языковых моделей) BIBREF37и Девлин и др.с именем BERT (Представления двунаправленного кодировщика от трансформаторов) BIBREF38.Все эти модели внедрения слов обучаются на больших корпусах, таких как Википедия, без присмотра.Для анализа твитов использовались встраивания слов word2vec и GloVe для тематической кластеризации твитов BIBREF39., моделирование тем BIBREF40 , BIBREF41 и извлечение симптомов депрессии из твитов BIBREF20 . Показатели для оценки производительности алгоритмов кластеризации различаются в зависимости от того, доступны или нет основные категории тем.Если да, то часто используемыми показателями являются точность и нормализованная взаимная информация.В случае отсутствия основных меток истинности необходимо использовать внутренние критерии кластеризации, такие как показатель Калински-Харабаша (CH) BIBREF42 и индекс Дэвиса-Булдина BIBREF43.Арбелайтц и др. предоставляет обширное сравнительное исследование индексов валидности кластера BIBREF44.В этом исследовании используется общедоступный набор данных BIBREF45.Набор данных, состоящий из твитов, был собран с использованием Twitter API и первоначально был представлен Карами и др. БИБРЕФ46 .Самый ранний твит датирован 13 июня 2011 года, а последний имеет отметку времени 9 апреля 2015 года.Набор данных состоит из 63 326 твитов на английском языке, собранных с каналов Твиттера 16 крупных информационных агентств здравоохранения.Список каналов новостей о здоровье и количество твитов в наборе данных от каждого канала можно посмотреть в Таблице 1.Перспективу типичного твита из набора данных можно оценить на рисунке 1.Для каждого твита необработанные данные состоят из текста твита, за которым в большинстве случаев следует URL-адрес исходной новостной статьи конкретного источника новостей.Эта строка URL-адреса, если она доступна, удаляется из каждого твита, поскольку она не содержит никакой информации на естественном языке.Поскольку Twitter предоставляет пользователям несколько способов взаимодействия, например ретвиты или упоминания, эти действия также отображаются в необработанном тексте.Для ретвитов индикаторная строка «RT» отображается в качестве префикса в необработанных данных, а для упоминаний пользователей в необработанных данных появляется строка вида «@username».Эти два токена также удаляются.Кроме того, хэштеги преобразуются в простые токены путем удаления знака «#», стоящего перед ними (например, <#беременность> становится <беременность>).Количество слов, количество уникальных слов и среднее количество слов для каждого канала Твиттера также можно проверить по Таблице 1.Самый длинный твит состоит из 27 слов.Для представления твитов в качестве базовых предлагаются 5 традиционных методов представления.Характеристики частоты слов: для представления твитов на основе вхождения слов используются обычные tf-idf и BoW для получения матрицы терминов документа размером $N \times P$, в которой каждая строка соответствует твиту, а каждый столбец соответствует уникальному значению. слово/токен, т. е. точки данных $N$ и функции $P$.Поскольку матрица терминов документа, полученная на основе функций tf-idf или BoWs, чрезвычайно разрежена и, следовательно, избыточна во многих измерениях, уменьшение размерности и тематическое моделирование в скрытом пространстве более низкой размерности выполняется с помощью методов, описанных ниже.Анализ главных компонентов (PCA): PCA используется для отображения представлений частоты слов из исходного пространства признаков в пространство признаков более низкой размерности с помощью ортогонального линейного преобразования таким образом, чтобы первый главный компонент имел максимально возможную дисперсию и, аналогично, каждый последующий компонент имеет максимально возможную дисперсию, будучи ортогональным предыдущим компонентам.Наша реализация PCA имеет временную сложность $\mathcal {O}(NP^2 + P^3)$ . Усеченное разложение по сингулярным значениям (t-SVD). Стандартные SVD и t-SVD — это обычно используемые методы уменьшения размерности, в которых матрица сокращается или аппроксимируется разложением низкого ранга.Временная сложность SVD и t-SVD для компонент $S$ равна $\mathcal {O}(min(NP^2, N^2P))$ и $\mathcal {O}(N^2S)$ соответственно (в зависимости от о реализации).В отличие от PCA, t-SVD можно эффективно применять к разреженным матрицам, поскольку он не требует нормализации данных.Когда матрица данных получается с помощью представлений BoW или tf-idf, как в нашем случае, этот метод также известен как скрытый семантический анализ.LDA:В нашей реализации LDA используется онлайн-вариационный алгоритм Байеса, предложенный Хоффманом и др. который использует стохастическую оптимизацию для максимизации целевой функции для тематической модели BIBREF47.NMF:Поскольку NMF находит две неотрицательные матрицы, продукт которых аппроксимирует неотрицательную матрицу терминов документа, это позволяет осуществлять регуляризацию.В нашей реализации не использовалась никакая регуляризация, а функция дивергенции имеет значение квадрата ошибки, т. е. нормы Фробениуса.Мы предлагаем двумерные сверточные автокодировщики для извлечения компактных представлений твитов из их необработанной формы крайне нелинейным образом.Чтобы превратить данный твит в 2D-структуру для подачи в CAE, мы извлекаем векторы слов каждого слова, используя модели встраивания слов, т. е. для данного твита $t$ , состоящего из слов $W$, 2D-вход: $I_{t} \in ^{W\times D}$, где $D$ — размерность вектора вложения.Мы сравниваем 4 различных вектора внедрения слов, а именно word2vec, GloVe, fastText и BERT с размерами вектора внедрения 300, 300, 300 и 768 соответственно.Мы установили максимальную длину последовательности равной 32, т. е. для твитов с меньшим количеством слов входная матрица дополняется нулями.Поскольку встраивания word2vec и GloVe не могут обрабатывать слова, выходящие за пределы словарного запаса, такие случаи представляются в виде вектора нулей.Процесс извлечения векторных представлений твита для формирования двумерной входной матрицы можно рассмотреть на рисунке 1.Архитектуру CAE можно рассматривать как состоящую из двух частей: кодера и декодера.Кодер $f_{enc}(\cdot )$ — это часть сети, которая сжимает входные данные $I$ в представление скрытого пространства $U$ и декодер $f_{dec}(\ cdot )$ стремится восстановить входные данные из представления скрытого пространства (см. уравнение 12).По сути, $$U = f_{enc}(I)= f_{L}(f_{L-1}(...f_{1}(I)))$$ (уравнение 12), где $L$ — количество слоев в кодирующей части CAE. Кодер в предлагаемой архитектуре состоит из трех 2D-сверточных слоев с 64, 32 и 1 фильтрами соответственно.Декодер придерживается той же симметрии с тремя сверточными слоями с 1, 32 и 64 фильтрами соответственно и выходным сверточным слоем с одним фильтром (см. рисунок 1).Все сверточные слои имеют размер ядра (3 $\times $3) и функцию активации выпрямленной линейной единицы (ReLU), за исключением выходного слоя, который использует функцию линейной активации.За каждым сверточным слоем в кодере следует слой 2D MaxPooling, и аналогично за каждым сверточным слоем в декодере следует слой 2D UpSampling, служащий обратной операцией (имеющий те же параметры).Размеры пула для слоев пула составляют (2 $\times $5), (2$\times $5) и (2$\times $2) соответственно для архитектур, в которых используются встраивания word2vec, GloVe и fastText.При такой конфигурации входной твит размером $32 \times 300$ (соответствует максимальной длине последовательности $\times $ размерности встраивания, $D$ ) субдискретизируется до размера $4 \times 6$ из кодера (уровень узкого места).Поскольку вложения слов BERT имеют векторы слов фиксированного размера 768, размеры слоя пула выбраны равными (2 $\times $ 8), (2 $\times $ 8) и (2 $\times $0 2) соответственно для этого случай.Таким образом, представление значений $\times $1 изучается для каждого твита через кодировщик, например, для встраивания fastText поток измерений после каждого блока кодера выглядит следующим образом: $\times $2. Во многих задачах НЛП уровень внедрения используется в качестве первого уровня нейронной сети, который может быть инициализирован с помощью матрицы встраивания слов, чтобы включить процесс встраивания в саму архитектуру вместо ручного извлечения.В нашем случае это было невозможно из-за отсутствия инверсного слоя внедрения в декодере (как в отношениях между слоями MaxPooling и слоями UpSampling), поскольку слой внедрения не является дифференцируемым.Обучение автоэнкодеров пытается минимизировать ошибку/потери реконструкции, т. е. отклонение восстановленного выходного сигнала от входного.$L_2$ - потеря или среднеквадратическая ошибка (MSE) выбрана в качестве функции потерь.В автокодировщиках минимизация $L_2$-потерь эквивалентна максимизации взаимной информации между восстановленными входными данными и исходными BIBREF48.Кроме того, с вероятностной точки зрения минимизация $L_2$-потерь аналогична максимизации вероятности параметров с учетом данных, что соответствует оценке максимального правдоподобия.Оптимизатором для обучения автоэнкодера выбран Adam из-за его более быстрой сходимости BIBREF49.Скорость обучения для оптимизатора установлена на уровне $10^{-5}$, а размер пакета для обучения установлен на 32.Для мониторинга сходимости выполняется случайное разделение набора 80% обучения и 20% проверки.Максимальное количество эпох обучения установлено равным 50. Во время обучения обычно используются определенные ограничения на веса нейронной сети, чтобы уменьшить переобучение, также известное как регуляризация.К таким ограничениям относятся $L_1$-регуляризация, $L_2$-регуляризация, ортогональная регуляризация и т. д.Несмотря на то, что регуляризация является обычной практикой, стандартное обучение нейронных сетей по своей сути не накладывает никаких ограничений на изученные представления (активации), $U$ , кроме тех, которые налагаются функциями активации (например, ReLU, приводящие к неотрицательным результатам). .Недавние достижения в области компьютерного зрения показывают, что ограничение изученных представлений может повысить эффективность обучения представлений, следовательно, повысить производительность кластеризации BIBREF50, BIBREF51.$$\begin{выровнено}
& \text{свернуть}
& & L = 1/_N \left\Vert I - f_{dec}(f_{enc}(I))\right\Vert ^2_{2} \\
& \text{при условии}
& & \left\Vert f_{enc}(I)\right\Vert ^2_{2} = 1
\end{aligned}$$ (уравнение 14)Мы предлагаем ограничение нормы $L_2$ для изученных представлений из узкого слоя $U$ .По сути, это жесткое ограничение, введенное во время обучения нейронной сети, которое приводит к получению изученных функций с единичной нормой $L_2$ за пределами узкого слоя (см. уравнение 14, где $N$ — количество точек данных).Показано, что обучение глубокого сверточного автокодировщика с таким ограничением гораздо более эффективно для данных изображения, чем применение нормализации $L_2$ к изученным представлениям после обучения BIBREF51.Насколько нам известно, это первое исследование, в котором ограничение нормы $L_2$ было включено в задачу, связанную с текстовыми данными.Чтобы объективно сравнить и оценить предлагаемые методы с точки зрения эффективности представления твитов, мы фиксируем количество признаков равным 24 для всех методов и передаем эти представления в качестве входных данных для трех различных алгоритмов кластеризации, а именно: k-средних, Уорда и спектральная кластеризация с номерами кластеров 10, 20 и 50.Метрика расстояния для кластеризации k-средних выбрана евклидовой, а критерий связи для кластеризации Уорда выбран так, чтобы минимизировать сумму различий внутри всех кластеров, т. е. рекурсивное слияние пар кластеров, которое минимально увеличивает внутрикластерную дисперсию в иерархической структуре. образом.Для спектральной кластеризации для построения матрицы аффинности использовалось ядро Гаусса.Мы также проводим эксперименты с представлениями tf-idf и BoWs без дальнейшего уменьшения размерности, а также объединения всех вложений слов в длинный вектор признаков.Для оценки производительности кластеризации мы используем оценку Калински-Харабаша BIBREF42, также известную как критерий отношения дисперсии.Оценка CH определяется как соотношение между дисперсией внутри кластера и дисперсией между кластерами.Оценка CH имеет диапазон $[0, +\infty ]$, и более высокая оценка CH соответствует лучшей кластеризации.Вычислительная сложность расчета оценки CH составляет $\mathcal {O}(N)$ . Для данного набора данных $X$, состоящего из $N$ точек данных, т. е. $X = \big \lbrace x_1, x_2, ... , x_N\big \rbrace $ и заданный набор непересекающихся кластеров $C$ с кластерами $K$, т. е. $C = \big \lbrace c_1, c_2, ... , c_K\big \rbrace $ , оценка Калински-Харабаша , $S_{CH}$ , определяется как $$S_{CH} = \frac{N-K}{K-1}\frac{\sum _{c_k \in C}^{}{N_k \left\Vert \ overline{c_k}-\overline{X}\right\Vert ^2_{2}}}{\sum _{c_k \in C}^{}{}\sum _{x_i \in c_k}^{}{\ left\Vert x_i-\overline{c_k}\right\Vert ^2_{2}}}$$ (уравнение 16) где $N_k$ — количество точек, принадлежащих кластеру $c_k$ , $\overline{X }$ — центр тяжести всего набора данных, $\frac{1}{N}\sum _{x_i \in X}{x_i}$ и $\overline{c_k}$ — центр тяжести кластера $c_k$ , $\frac{1}{N_k}\sum _{x_i \in c_k}{x_i}$ . Длявизуальная проверка, мы строим и проверяем t-распределенное стохастическое встраивание соседей (t-SNE) BIBREF52и аппроксимация и проекция равномерного многообразия (UMAP)Также отображаются BIBREF53 изученных представлений.Реализация этого исследования выполнена на Python (версия 3.6) с использованием библиотек scikit-learn и TensorFlow BIBREF54, BIBREF55 на 64-битной рабочей станции Ubuntu 16.04 с 128 ГБ оперативной памяти.Обучение автоэнкодеров выполняется с помощью одного графического процессора NVIDIA Titan Xp. Производительность представлений, протестированных на трех различных алгоритмах кластеризации, т. е. баллах CH, для трех разных номеров кластеров, можно проверить из Таблицы 2.CAE с ограничением $L_2$ по норме в таблице 2 обозначается просто как $L_2$-CAE.В той же таблице показано количество функций, используемых для каждого метода.Матрица терминов документа, извлеченная с помощью функций BoW и tf-idf, дает разреженную матрицу размером $63 326 \times 13 026$ с разреженностью 0,9994733.Аналогично, конкатенация вложений слов приводит к большому количеству функций: $32 \times 300 = 9600$ для word2vec, GloVe и fastText, $32 \times 768 = 24576$ для вложений BERT.Таким образом, предлагаемый метод изучения представлений твитов с помощью CAE превосходит все традиционные алгоритмы.Когда представления сравниваются с тестом $T^2$ Хотеллинга (многомерная версия $t$-теста), каждое распределение представлений, изученное CAE, статистически значимо отличается от любого другого обычного распределения представлений с $p<0,001$ .Кроме того, введение ограничения $L_2$ -norm на изученные представления во время обучения еще больше повышает производительность кластеризации (снова $p<0,001$ при сравнении, например, fastText+CAE с fastText+ $L_2$0 -CAE).Пример кривой обучения для CAE и $L_2$1 -CAE с встраиванием fastText в качестве входных данных также можно увидеть на рисунке 2. Также выполняется детальная проверка твитов, сгруппированных в один и тот же кластер, а также визуальный анализ сформированных кластеров.На рисунке 3 показаны отображения t-SNE и UMAP (на 2D-плоскость) 10 кластеров, сформированных алгоритмом k-средних для представлений LDA, CAE и $L_2$-CAE.Ниже приведены несколько примеров твитов, выбранных из одного из кластеров, сформированных с помощью k-средних в случае 50 кластеров (встраивания fastText, передаваемые в $L_2$-CAE): В целом, мы показываем, что глубокое извлечение признаков на основе сверточного автокодировщика, т. е. представление Обучение на основе твитов, связанных со здоровьем, значительно повышает производительность алгоритмов кластеризации по сравнению с традиционными методами извлечения текстовых признаков и методами тематического моделирования (см. Таблицу 2).Это утверждение справедливо для трех различных алгоритмов кластеризации (k-средних, Уорда, спектрального), а также для трех разных чисел кластеров.Кроме того, показано, что предлагаемое обучение с ограничениями (ограничение $L_2$-нормы) также способствует дальнейшему улучшению производительности кластеризации в каждом эксперименте (см. Таблицу 2).Оценка Калински-Харабаша, равная 4304, была достигнута при обучении с ограниченным представлением с помощью CAE для эксперимента с 50 кластерами, сформированными с помощью кластеризации k-средних.Наивысший балл CH, достигнутый в тех же условиях эксперимента с помощью традиционных алгоритмов, составил 638, что было достигнуто с помощью LDA с применением функций tf-idf.Визуализации сопоставлений t-SNE и UMAP на рисунке 3 показывают, что обучение с ограничением по норме $L_2$ приводит к более высокой разделимости кластеров.Преимущество этого ограничения особенно важно для производительности кластеризации k-средних (см. Таблицу 2).Это явление не является неожиданным, поскольку кластеризация k-средних также основана на расстоянии $L_2$.Также ожидается разница в кривых обучения для регулярного и ограниченного обучения CAE.Ограниченное обучение CAE сходится к локальному минимуму немного позже, чем неограниченное CAE, т. е. обучение $L_2$ -CAE происходит немного медленнее, чем обучение CAE из-за введенного ограничения (см. Рисунок 2). Когдакогда дело доходит до сравнения встраивания слов, векторы слов fastText и BERT дают самые высокие оценки CH, тогда как встраивания word2vec и GloVe приводят к значительно более низкой производительности.Это наблюдение можно объяснить природой вложений word2vec и GloVe, которые не могут обрабатывать токены вне словаря.Многочисленные твиты включают названия некоторых лекарств, которые, скорее всего, отсутствуют в словаре этих моделей, что приводит к векторам нулей в качестве вложений.Однако встраивания fastText основаны на n-граммах символов, что позволяет обрабатывать токены вне словарного запаса, например, векторы слов fastText токенов <ацетаминофен> и <парацетамол> находятся ближе друг к другу просто из-за общей последовательности символов, < acetam>, даже если одного из них нет в словаре.Обратите внимание, что <ацетаминофен> и <парацетамол> — это разные названия одного и того же препарата.Использование функций tf-idf или BoWs напрямую приводит к очень низкой производительности.Аналогичным образом, объединение вложений слов для создания тысяч функций приводит к значительно более низкой производительности по сравнению с методами, которые уменьшают количество этих функций до 24.Основная причина заключается в том, что в компромиссе между смещением и дисперсией преобладает смещение в условиях больших размерностей, особенно в евклидовых пространствах BIBREF56.Из-за очень большого количества объектов (относительно количества наблюдений) радиус данной области изменяется относительно корня $n$-й степени из ее объема, тогда как количество точек данных в области изменяется примерно линейно с том BIBREF56 .Это явление известно как проклятие размерности.Поскольку модели тем, такие как LDA и NMF, предназначены для использования в документах, которые достаточно длинные, чтобы извлекать из них надежные статистические данные, извлеченные векторы тем также терпят неудачу в производительности, когда речь идет о твитах из-за коротких текстов.Основным ограничением этого исследования является отсутствие меток тем в наборе данных.В результате для оценки производительности сформированных кластеров вместо точности или нормализованной взаимной информации использовалась внутренняя мера кластеризации по шкале Калински-Харабаша.Несмотря на то, что показатель CH способен фиксировать кластеры различной плотности и наличия подкластеров, он испытывает трудности с сбором сильно зашумленных данных и асимметричных распределений BIBREF57.Кроме того, используемые алгоритмы кластеризации, то есть k-средние, кластеризация Уорда и спектральная кластеризация, представляют собой алгоритмы жесткой кластеризации, которые приводят к образованию непересекающихся кластеров.Однако один твит может иметь несколько тематических ярлыков.Будущая работа включает в себя изучение представления твитов, связанных со здоровьем, с использованием архитектур глубоких нейронных сетей, которые по своей сути могут изучать последовательный характер текстовых данных, таких как рекуррентные нейронные сети, например, краткосрочная память (LSTM), GRU (GRU) и т. д. .Автокодировщики последовательность-последовательность являются основными примерами таких архитектур, и было показано, что они эффективны при кодировании абзацев из Википедии и других корпусов в BIBREF58 меньшего размера.Кроме того, кодировки из двунаправленного GRU будут проверены на производительность кластеризации, поскольку такие архитектуры использовались для представления данного твита в других исследованиях BIBREF59, BIBREF60, BIBREF61.Таким образом, мы показываем, что глубокие сверточные автокодировщики могут эффективно изучать компактные представления твитов, связанных со здоровьем, без присмотра.Проведенный анализ показывает, что предлагаемая схема обучения представлению превосходит традиционные методы извлечения признаков в трех различных алгоритмах кластеризации.Кроме того, мы предлагаем ограничение на изученное представление для дальнейшего повышения производительности кластеризации.Будущая работа включает сравнение нашей модели с рекуррентными нейронными архитектурами для кластеризации твитов, связанных со здоровьем.Мы считаем, что это исследование послужит прорывом в области обработки естественного языка для медицинской информатики, особенно в кластеризации коротких текстовых данных социальных сетей. | Twitter является известной платформой социальных сетей для сбора данных о состоянии здоровья на уровне населения, и точная кластеризация твитов, связанных со здоровьем, по темам важна для получения актуальной информации о здоровье. В этой работе мы предлагаем глубокие сверточные автокодировщики для изучения компактных представлений твитов, связанных со здоровьем, которые в дальнейшем будут использоваться при кластеризации. Мы сравниваем наш метод с несколькими традиционными методами представления твитов, включая набор слов, частоту документов, обратную частоте терминов, скрытое распределение Дирихле и факторизацию неотрицательной матрицы с тремя различными алгоритмами кластеризации. Наши результаты показывают, что производительность кластеризации с использованием предложенной схемы обучения представлению значительно превосходит производительность традиционных методов для всех экспериментов с различным количеством кластеров. Кроме того, мы предлагаем ограничение на изученные представления во время обучения нейронной сети, чтобы еще больше повысить производительность кластеризации. В целом, это исследование знакомит с использованием архитектур на основе глубоких нейронных сетей, то есть глубоких сверточных автокодировщиков, для изучения информативных представлений твитов, связанных со здоровьем. | 4,874 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Использование когнитивных функций для обнаружения сарказма. Сарказм — это интенсивная, косвенная и сложная конструкция, которая часто предназначена для выражения презрения или насмешки.Сарказм в речи многомодален и включает в себя тон, язык тела и жесты, а также лингвистические артефакты, используемые в речи.С другой стороны, сарказм в тексте более ограничителен, когда речь идет о таких нелингвистических модальностях.Это затрудняет распознавание текстового сарказма как для людей, так и для машин.Обнаружение сарказма играет незаменимую роль в таких приложениях, как онлайн-обобщители обзоров, диалоговые системы, системы рекомендаций и анализаторы настроений.Это делает автоматическое обнаружение сарказма важной проблемой.Однако решить такую проблему с помощью традиционных инструментов и техник НЛП было довольно сложно.Это очевидно из результатов опроса DBLP:journals/corr/JoshiBC16.Следующее обсуждение дает больше информации по этому поводу.Рассмотрим сценарий, в котором онлайн-рецензент дает отрицательное мнение о фильме через сарказм: «Это тот фильм, который вы смотрите, потому что в кинотеатре есть кондиционер».Автоматическому анализатору настроений сложно присвоить оценку фильму, и в отсутствие какой-либо другой информации такая система может быть не в состоянии понять, что приоритетность кондиционеров в кинотеатре над впечатлениями от просмотра фильма указывает на негативное отношение к фильму.Это дает интуитивное представление о том, почему для обнаружения сарказма необходимо выходить за рамки текстового анализа.Мы стремимся решить эту проблему, используя психолингвистическую сторону обнаружения сарказма, используя когнитивные функции, извлеченные с помощью отслеживания взгляда.Мотивацией к рассмотрению когнитивных особенностей является анализ траекторий движения глаз человека, который подтверждает гипотезу: чтение саркастических текстов вызывает особые модели движений глаз по сравнению с буквальными текстами.Когнитивные функции, полученные на основе моделей движения глаз человека, наблюдаемых во время чтения, включают два основных типа функций: Когнитивные функции, наряду с текстовыми функциями, используемыми в лучших доступных детекторах сарказма, используются для обучения бинарных классификаторов заданным меткам сарказма.Наши эксперименты показывают значительное улучшение точности классификации по сравнению с современными моделями за счет такого увеличения.Сарказм в целом уже довольно давно находится в центре внимания исследований.В одной из новаторских работ Йоргенсен1984Тест объяснил, как возникает сарказм, когда употребляется переносное значение, противоположное буквальному значению высказывания.По словам clark1984pretense, обработка сарказма включает в себя отмену косвенно отрицаемого сообщения и замену его подразумеваемым. giora1995irony, с другой стороны, определяют сарказм как способ косвенного отрицания, который требует обработки как отрицаемых, так и подразумеваемых сообщений.ivanko2003context определяет сарказм как шестикратную сущность, состоящую из говорящего, слушающего, контекста, высказывания, буквального предложения и предполагаемого предложения, и изучает когнитивные аспекты обработки сарказма.Компьютерные лингвисты ранее решали эту проблему, используя основанные на правилах и статистические методы, которые используют: (a) униграммы и прагматические функции BIBREF0, BIBREF1, BIBREF2, BIBREF3 (b) стилистические шаблоны BIBREF4 и шаблоны, связанные с ситуационным неравенством BIBREF5 и (c) Интерпретации хастагов BIBREF6, BIBREF7. Большая часть ранее проделанной работы по обнаружению сарказма использует методы дистанционного контроля (например, использование хэштегов) и стилистические/прагматические особенности (смайлики, выражения смеха, такие как «лол» и т. д.).Но обнаружить сарказм в лингвистически правильно сформированных структурах при отсутствии явных сигналов или информации (например, смайликов) оказывается затруднительно, используя только такие лингвистические/стилистические особенности.С появлением сложных айтрекеров и электро/магнитоэнцефалографических (ЭЭГ/МЭГ) устройств стало возможным углубиться в когнитивные основы понимания сарказма.Filik2014, используя серию экспериментов по отслеживанию движений глаз и ЭЭГ, пытается показать, что для незнакомой иронии сначала будет вычислена буквальная интерпретация.Они также показывают, что несоответствие контексту может привести к новой интерпретации утверждения как иронии.Camblin2007103 показывают, что в отрывках из нескольких предложений конгруэнтность дискурса оказывает сильное влияние на движения глаз.Это также означает, что нарушение обработки происходит для неконгруэнтных в дискурсе слов, даже если они совершенно конгруэнтны на уровне предложения.В нашей предыдущей работе BIBREF8 мы дополняли когнитивные функции, полученные на основе моделей движения глаз читателей, текстовыми функциями, чтобы определить, осознал ли читатель присутствие сарказма в тексте или нет.Последние достижения в литературе, обсуждавшиеся выше, побуждают нас исследовать когнитивное мышление, основанное на взгляде, для обнаружения сарказма.Насколько нам известно, наша работа — первая в своем роде.Сарказм часто исходит из несоответствия BIBREF9, что заставляет мозг повторно проанализировать его BIBREF10.Это, в свою очередь, влияет на то, как глаза перемещаются по тексту.Следовательно, в случае успешной обработки сарказма в тексте, в отличие от буквального текста, можно наблюдать характерные модели движения глаз.Эта гипотеза составляет суть нашего метода обнаружения сарказма, и мы подтверждаем ее, используя ранее выпущенный свободно доступный набор данных сарказма BIBREF8, обогащенный информацией о взгляде.База данных состоит из 1000 коротких текстов по 10-40 слов каждый.Из них 350 являются саркастическими и собраны следующим образом: (а) 103 предложения взяты с двух популярных веб-сайтов с саркастическими цитатами, (б) 76 саркастических рецензий на короткие фильмы вручную извлечены из Amazon Movie Corpus BIBREF11 двумя лингвистами.(c) 171 твит загружен с использованием хэштега #sarcasm из Twitter.650 несаркастических текстов либо загружены из Твиттера, либо извлечены из корпуса Amazon Movie Review.Предложения не содержат слов/фраз, которые сильно зависят от темы или культуры.Твиты были нормализованы, чтобы сделать их лингвистически правильно оформленными и избежать трудностей с интерпретацией жаргона социальных сетей.Каждое предложение в нашем наборе данных содержит положительное или отрицательное мнение о конкретных «аспектах».Например, предложение «В фильме очень хорошо подобран актерский состав» имеет положительное отношение к аспекту «актерский состав».Аннотаторами выступили семь аспирантов с научным и инженерным образованием, хорошо владеющих английским языком.Им заранее был дан ряд инструкций, и им рекомендуется получить разъяснения, прежде чем приступить к делу.В инструкции упоминается характер задачи, способ ввода аннотации и необходимость минимизации движений головы во время эксперимента.Задача, поставленная аннотаторам, заключалась в том, чтобы читать предложения по одному и помечать их двоичными метками, указывающими полярность (т. е. положительная/отрицательная).Обратите внимание, что участников не просили комментировать, является ли предложение саркастичным или нет, чтобы исключить эффект прайминга (т. е., если сарказм ожидается заранее, обработка несоответствия становится относительно проще BIBREF12).Данная установка обеспечивает свою «экологическую достоверность» двумя способами: (1) Читателям не дают никакого намека на то, что к сарказму следует относиться с особым вниманием.Это делается путем постановки задачи на аннотацию полярности (вместо обнаружения сарказма).(2) Саркастические предложения смешиваются с несаркастическим текстом, что не дает предварительного знания о том, будет ли предстоящий текст саркастическим или нет.Эксперимент по отслеживанию движений глаз проводится в соответствии со стандартными нормами исследования движения глаз BIBREF13.Одновременно читателю отображается одно предложение вместе с «аспектом», относительно которого должна быть предоставлена аннотация.Во время чтения айтрекер SR-Research Eyelink-1000 (монокулярный дистанционный режим, частота дискретизации 500 Гц) регистрирует ряд параметров движения глаз, таких как фиксации (длительное пребывание взгляда) и саккады (быстрые переходы взгляда между двумя положениями покоя). и размер зрачка.Точность аннотации полярности варьируется от 72% до 91% для саркастических текстов и от 75% до 91% для несаркастического текста, что показывает присущую сложность аннотации настроений, когда в рассматриваемом тексте присутствует сарказм.Ошибки в аннотациях могут быть связаны с: (а) недостатком терпения/внимательности при чтении, (б) проблемами, связанными с пониманием текста, и (в) путаницей/нерешительностью, вызванной отсутствием контекста.Для нашего анализа мы не отбрасываем неверные аннотации, присутствующие в базе данных.Поскольку наша система в конечном итоге нацелена на привлечение онлайн-читателей для обнаружения сарказма, будет сложно изолировать читателей, которые неправильно интерпретируют текст.Мы делаем рациональное предположение, что для конкретного текста большинство читателей из достаточно большой популяции смогут распознать сарказм.При таком предположении параметры движения глаз, усредненные по всем читателям в нашей ситуации, не могут быть существенно искажены некоторыми читателями, которые не смогли бы распознать сарказм.Это предположение применимо как к обычным, так и к многоэкземплярным классификаторам, описанным в разделе SECREF6. Мы наблюдаем различное поведение во время чтения сарказма, анализируя «продолжительность фиксации на тексте» (также называемую «временем пребывания» в литературе) и «пути сканирования» читателей.Поскольку можно ожидать, что сарказм в тексте вызовет когнитивную нагрузку, разумно предположить, что это потребует больше времени на обработку BIBREF14.Следовательно, продолжительность фиксации, нормированная на общее количество слов, обычно должна быть выше для саркастического текста, чем для несаркастического.Мы наблюдаем это у всех участников нашего набора данных: средняя продолжительность фиксации на слово для саркастических текстов как минимум в 1,5 раза больше, чем для несаркастических текстов.Чтобы проверить статистическую значимость, мы проводим двусторонний t-критерий (при условии неравной дисперсии), чтобы сравнить среднюю продолжительность фиксации на слово для саркастических и несаркастических текстов.Предполагаемая средняя разница равна 0, а предел допуска ошибки ( INLINEFORM0 ) установлен на 0,05.Анализ Стьюдента, представленный в таблице TABREF11, показывает, что для всех участников существует статистически значимая разница между средней продолжительностью фиксации на слово для сарказма (более высокая средняя продолжительность фиксации) и отсутствия сарказма (более низкая средняя продолжительность фиксации).Это подтверждает, что наличие сарказма влияет на продолжительность фиксации слов.Важно отметить, что более длительные фиксации также могут быть вызваны другими лингвистическими тонкостями (такими как трудные слова, двусмысленность и синтаксически сложные структуры), вызывающими задержку понимания, или проблемами глазодвигательного контроля, вынуждающими читателей тратить время на настройку глазных мышц.Таким образом, повышенная средняя длительность фиксации на слово может недостаточно указывать на наличие сарказма.Но мы также хотели бы поделиться этим для нашего набора данных, когда мы рассматривали читаемость (оценка легкости чтения Флеша BIBREF15), количество слов в предложении и среднее количество символов в слове вместе с меткой сарказма в качестве предикторов средней продолжительности фиксации после В линейной модели смешанного эффекта BIBREF16 метка сарказма оказалась наиболее значимым предиктором с максимальным наклоном.Это указывает на то, что средняя продолжительность фиксации на слово тесно связана с сарказмом текста, по крайней мере, в нашем наборе данных.Теперь мы анализируем пути сканирования, чтобы лучше понять процесс понимания сарказма.Пути сканирования — это линейные графы, которые содержат фиксации в качестве узлов и саккады в качестве ребер; радиусы узлов представляют продолжительность фиксации.Путь сканирования соответствует модели движения глаз участника во время чтения конкретного предложения.На рисунке FigREF14 представлены пути сканирования трех участников для саркастического предложения S1 и несаркастического предложения S2.Ось X графика представляет последовательность слов, которые читает читатель, а ось Y представляет временную последовательность в миллисекундах.Рассмотрим саркастический текст, содержащий несочетаемые фразы A и B. Наш качественный анализ пути сканирования показывает, что пути сканирования в отношении обработки сарказма имеют две типичные характеристики.Часто длинная регрессия — саккада, идущая к ранее посещенному сегменту, — наблюдается, когда читатель начинает читать Б после беглого просмотра А.В некоторых случаях продолжительность фиксации на А и Б значительно превышает среднюю продолжительность фиксации на одно слово.В предложении S1 мы видим длинные и множественные регрессии от двух нелепых фраз «заблуждение» и «лелеять», а также несколько случаев, когда фразы «всегда лелеять» и «первоначальное заблуждение» фиксируются дольше, чем обычно.Такое поведение движений глаз не наблюдается для S2. Хотя сарказм вызывает характерные траектории сканирования, подобные тем, которые изображены на рисунке FigREF14 в наблюдаемых примерах, наличие таких шаблонов недостаточно, чтобы гарантировать сарказм; такие шаблоны также могут возникнуть из буквальных текстов.Мы считаем, что сочетание лингвистических особенностей, читаемости текста и функций, полученных на основе путей сканирования, поможет дискриминационным моделям машинного обучения лучше усваивать сарказм.Мы описываем функции, используемые для обнаружения сарказма, в таблице.Признаки, отнесенные к лексическому, имплицитному несоответствию и явному несоответствию, заимствованы из различной литературы (преимущественно из joshi2015harnessing).Эти признаки необходимы для отделения сарказма от других форм смыслового несоответствия в тексте (например, двусмысленности, возникающей из-за смысловой двусмысленности или из-за метафоры).Две дополнительные текстовые функции, а именно.Также учитываются читаемость и количество слов в тексте.Эти функции используются для уменьшения влияния жесткости и длины текста на структуру движений глаз.Движение глаз читателей, характеризующееся фиксациями, саккадами вперед, пропусками и регрессиями, может быть непосредственно количественно оценено с помощью простого статистического агрегирования (т. е. либо вычисления характеристик для отдельных участников с последующим усреднением, либо выполнения обучения на основе нескольких экземпляров, как описано в разделе СЕКРЕТ6).Поскольку эти атрибуты движения глаз связаны с когнитивным процессом при чтении BIBREF17, мы рассматриваем их как особенности нашей модели.Некоторые из этих особенностей были описаны сарказмом понятности для моделирования понимания сарказма читателями.Однако, насколько нам известно, эти функции впервые вводятся в задачи НЛП, такие как обнаружение текстового сарказма.Считается, что значения этих функций увеличиваются с увеличением степени неожиданности, вызванной несоответствием в тексте (за исключением количества пропусков, которое будет уменьшаться). Для этих функций мы полагаемся на структуру графа, а именно «графы заметности», полученные на основе информации о взгляде и последовательностей слов в тексте.Для каждого читателя и каждого предложения мы строим «график значимости», представляющий характеристики внимания читателя.Граф значимости предложения INLINEFORM0 для читателя INLINEFORM1, представленный как INLINEFORM2, представляет собой граф с вершинами (INLINEFORM3) и ребрами (INLINEFORM4), где каждая вершина INLINEFORM5 соответствует слову в INLINEFORM6 (может быть не уникальным) и существует ребро INLINEFORM7 между вершинами INLINEFORM8 и INLINEFORM9, если R выполняет хотя бы одну саккаду между словами, соответствующими INLINEFORM10 и INLINEFORM11. На рисунке FigREF15 показан пример графа значимости.Граф значимости может быть взвешенным, но не обязательно связанным для данного текста (поскольку в данном тексте могут быть слова без фиксации на них).«Сложные» особенности взгляда, полученные на основе графиков значимости, также мотивированы теорией несоответствия.Например, плотность ребер графа значимости увеличивается с увеличением количества различных саккад, что может возникнуть из-за сложности, вызванной наличием сарказма.Аналогично, ожидается, что высшая взвешенная степень графа будет выше, если узел соответствует фразе, несоответствующей какой-либо другой фразе в тексте.Мы интерпретируем обнаружение сарказма как проблему бинарной классификации.Данные обучения включают 994 примера, созданных с использованием нашей базы данных по движению глаз для обнаружения сарказма.Чтобы проверить эффективность нашего набора функций, мы наблюдаем за эффективностью нескольких методов классификации в нашем наборе данных посредством стратифицированной 10-кратной перекрестной проверки.Мы также сравниваем точность классификации нашей системы и лучших доступных систем, предложенных riloff2013sarcasm и joshi2015harnessing в нашем наборе данных.Использование Weka BIBREF18и LibSVM BIBREF19API мы реализуем следующие классификаторы: В таблице TABREF17 показаны результаты классификации с учетом различных комбинаций функций для разных классификаторов и других систем.Это: Unigram (с основными компонентами векторов функций униграмм), Сарказм (набор функций, о котором сообщил joshi2015, объединяющий функции и функции униграмм из других сообщаемых систем), Взгляд (простые и сложные когнитивные функции, которые мы представляем, а также читаемость и количество слов). функции) и «Взгляд+сарказм» (полный набор функций). Для всех обычных классификаторов характеристики взгляда усредняются по участникам и дополняются лингвистическими характеристиками и функциями, связанными с сарказмом.Для классификатора MILR характеристики взгляда, полученные от каждого участника, дополняются лингвистическими характеристиками, и, таким образом, для каждого предложения в обучающих данных формируется многократный «мешок» функций.Этот набор данных с несколькими экземплярами передается классификатору MILR, который следует стандартному предположению о нескольких экземплярах для получения меток классов для каждой сумки.Для всех классификаторов наша комбинация функций превосходит базовые показатели (с учетом только функций униграмм), а также BIBREF3 , при этом классификатор MILR получает улучшение по показателю F на 3,7% и разницу Каппа на 0,08.Мы также достигаем улучшения на 2% по сравнению с базовым уровнем, используя классификатор SVM, когда используем наш набор функций.Мы также наблюдаем, что только характеристики взгляда также улавливают различия между классами сарказма и не-сарказма с высокой точностью, но низкой запоминаемостью.Чтобы увидеть, является ли полученное улучшение статистически значимым по сравнению с современной системой только с функциями текстового сарказма, мы проводим тест Макнемара.Сравниваются выходные данные классификатора SVM, использующие только лингвистические функции, используемые для обнаружения сарказма с помощью joshi2015harnessing, и выходные данные классификатора MILR с полным набором функций, устанавливая пороговое значение INLINEFORM0 .Была значительная разница в точности классификатора с p (двухсторонним)= 0,02 с отношением шансов 1,43, что показывает, что повышение точности классификации вряд ли будет наблюдаться случайно в 95% доверительном интервале.Можно возразить, что рассмотрение простых показателей усилия чтения, таких как «время чтения», в качестве когнитивной функции вместо дорогостоящих функций отслеживания глаз для обнаружения сарказма может быть экономически эффективным решением.Чтобы проверить это, мы повторили наши эксперименты со «временем чтения», рассматриваемым как единственная когнитивная характеристика, дополненная текстовыми характеристиками.F-показатели всех классификаторов оказались близкими к показателям классификаторов, рассматривающих только признак сарказма, и разница в улучшении не является статистически значимой (INLINEFORM0).С другой стороны, F-оценки с особенностями взгляда превосходят F-оценки, когда время чтения рассматривается как когнитивная функция.Мы проверяем эффективность когнитивных функций на точность классификации, варьируя размер входных обучающих данных.Чтобы проверить это, мы создаем стратифицированное (сохраняя постоянное соотношение классов) случайное разделение тестов поездов 80%:20%.Мы обучаем наш классификатор, используя 100%, 90%, 80% и 70% обучающих данных, используя весь наш набор функций и комбинацию функций из joshi2015.Качество нашей системы подтверждается улучшением F-показателя и статистики Каппа, как показано на рисунке FigREF22. МыДальнейший анализ важности функций путем ранжирования функций на основе (а) теста хи-квадрат и (б) теста на получение информации с использованием модуля выбора атрибутов Weka.На рисунке FigREF23 показаны 20 лучших функций, полученных в результате обоих тестов.В обоих случаях мы наблюдаем, что 16 из 20 основных функций являются функциями взгляда.Кроме того, в каждом из случаев двумя наиболее важными характеристиками являются средняя продолжительность фиксации на слово и наибольшая позиция регрессии.В таблице TABREF21 показаны несколько примеров из эксперимента со стратифицированным разделением поездов на 80%-20%.Пример предложения 1 является саркастичным и требует экстралингвистических знаний (о плохих условиях жизни в Манчестере).Следовательно, детектор сарказма, полагающийся только на текстовые особенности, не способен обнаружить скрытое несоответствие.Однако наша система успешно предсказывает метку, возможно, этому способствуют особенности взгляда.Аналогично, для предложения 2 ложное ощущение присутствия несоответствия (из-за таких фраз, как «Мне помогло» и «Не могу остановиться») влияет на систему только с лингвистическими особенностями.Однако наша система и в этом случае работает хорошо.В предложении 3 представлен ложноотрицательный случай, когда даже людям было трудно уловить сарказм.Вот почему особенности нашего взгляда (а впоследствии и весь набор признаков) приводят к ошибочному предсказанию.В предложении 4 только характеристики взгляда ложно указывают на наличие несоответствия, тогда как система правильно предсказывает, когда взгляд и языковые особенности взяты вместе.Из этих примеров можно сделать вывод, что одних особенностей взгляда было бы недостаточно, чтобы исключить возможность обнаружения других форм несоответствия, не приводящих к сарказму.Ошибки, совершаемые нашей системой, возникают из-за множества факторов, начиная от ограничений аппаратного обеспечения айтрекера и заканчивая ошибками, допускаемыми лингвистическими инструментами и ресурсами.Кроме того, агрегирование различных параметров отслеживания глаз для извлечения когнитивных функций могло привести к потере информации при обычной классификации.В текущей работе мы создали новую систему обнаружения сарказма, основанную на человеческом познании и проявляющуюся в моделях движения глаз.Мы предположили, что характерные движения глаз, связанные с чтением саркастического текста, позволяют лучше распознавать сарказм.Мы дополнили традиционные лингвистические функции когнитивными функциями, полученными на основе данных о движении глаз читателей, в форме простых функций, основанных на взгляде, и сложных функций, полученных из графовой структуры.Этот расширенный набор функций повысил вероятность успеха детектора сарказма на 3,7% по сравнению с лучшей доступной системой.Использование когнитивных функций в системе обработки НЛП, подобной нашей, — первое предложение такого рода.Наш общий подход может быть полезен в других областях НЛП, таких как анализ настроений и эмоций, обобщение текста и ответы на вопросы, где рассмотрение только текстовых подсказок оказывается недостаточным.Мы предлагаем расширить эту работу в будущем, исследуя более глубокие функции графиков и взглядов.Мы также предлагаем разработать модели с целью обучения представлению сложных характеристик взгляда, которые учитывают силу отдельных паттернов движения глаз наряду с совокупными паттернами движений глаз.Мы благодарим членов лаборатории CFILT, особенно Джаю Джа и Мегну Сингх, а также студентов ИИТ Бомбея за их помощь и поддержку. | В этой статье мы предлагаем новый механизм обогащения вектора признаков для задачи обнаружения сарказма когнитивными характеристиками, извлеченными из моделей движений глаз читателей. Обнаружение сарказма было сложной исследовательской проблемой, и его важность для приложений НЛП, таких как обобщение обзоров, диалоговые системы и анализ настроений, хорошо известна. Сарказм часто можно объяснить несоответствием, которое становится очевидным по мере раскрытия всего предложения. Наличие несоответствия – скрытого или явного – влияет на то, как глаза читателя перемещаются по тексту. Мы наблюдаем разницу в поведении глаз при чтении саркастических и несаркастических предложений. Вдохновленные его наблюдениями, мы дополняем традиционные лингвистические и стилистические функции для обнаружения сарказма когнитивными функциями, полученными на основе данных о движении глаз читателей. Мы выполняем статистическую классификацию, используя полученный таким образом расширенный набор функций. Расширенные когнитивные функции улучшают обнаружение сарказма на 3,7% (по показателю F) по сравнению с производительностью лучшей системы. | 3,574 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Обучение с помощью зашумленных меток для классификации тональности на уровне предложений. Хорошо известно, что аннотация или маркировка настроений является субъективной (BIBREF0).У аннотаторов часто возникает множество разногласий.Это особенно актуально для людей, работающих с толпой, которые недостаточно обучены.Вот почему всегда кажется, что в аннотированном наборе данных много ошибок.В этой статье мы изучаем, можно ли построить точные классификаторы настроений даже с зашумленными обучающими данными.Классификация тональности направлена на классификацию фрагмента текста в соответствии с полярностью тональности, выраженной в тексте, например, положительной или отрицательной BIBREF1, BIBREF0, BIBREF2.В этой работе мы фокусируемся на классификации настроений на уровне предложений (SSC) с маркировкой ошибок.Как мы увидим в разделе экспериментов, зашумленные метки в обучающих данных могут быть очень разрушительными, особенно для DNN, поскольку они легко соответствуют обучающим данным и запоминают свои метки, даже если обучающие данные повреждены зашумленными метками BIBREF3.Сбор наборов данных, аннотированных «чистыми метками», является дорогостоящим и отнимает много времени, поскольку модели на основе DNN обычно требуют большого количества обучающих примеров.Исследователям и практикам обычно приходится прибегать к краудсорсингу.Однако, как упоминалось выше, краудсорсинговые аннотации могут быть довольно шумными.Исследования обучения с помощью шумных ярлыков начались еще в 1980-х годах, в рамках проекта BIBREF4.Сегодня он по-прежнему актуален (BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11, BIBREF12), поскольку это очень сложно.Мы обсудим соответствующую работу в следующем разделе.В данной статье изучается проблема обучения с использованием зашумленных меток для SSC.Формально мы изучаем следующую задачу.Определение задачи: даны обучающие предложения с зашумленными метками $S=\lbrace (x_1,y_1),...,(x_n,y_n)\rbrace $, где $x_i|_{i=1}^n$ — это $i$ -th предложение и $y_i\in \lbrace 1,...,c\rbrace $ — это метка настроения этого предложения, предложения с шумной меткой используются для обучения модели DNN для задачи SSC.Обученная модель затем используется для классификации предложений с чистыми метками по одной из меток настроения $c$.В этой статье мы предлагаем сверточную нейронную сеть с Ab-сетями (NetAb) для работы с шумными метками во время обучения, как показано на рисунке FigREF2.Подробности мы представим в последующих разделах.По сути, NetAb состоит из двух сверточных нейронных сетей (CNN) (см. рисунок FigREF2): одна для изучения оценок настроений для прогнозирования «чистых» меток, а другая для обучения матрицы перехода шума для обработки входных шумных меток.Мы называем две CNN A-сетью и Ab-сетью соответственно.Основополагающим здесь является то, что (1) DNN сначала запоминают простые примеры и постепенно адаптируются к сложным экземплярам по мере того, как эпохи обучения увеличивают BIBREF3, BIBREF13; и (2) шумные метки теоретически переворачиваются с чистых/истинных меток с помощью матрицы перехода шума BIBREF14, BIBREF15, BIBREF16, BIBREF17.Мы мотивируем и предлагаем модель CNN с переходным слоем для оценки матрицы перехода шума для входных шумных меток, а также используем другую CNN для прогнозирования «чистых» меток для входных обучающих (и проверочных) предложений.При обучении мы предварительно обучаем A-сеть в ранние эпохи, а затем поочередно обучаем Ab-сеть и A-сеть с их собственными функциями потерь.Насколько нам известно, это первая работа, решающая проблему шумных меток при анализе настроений на уровне предложений.Результаты наших экспериментов показывают, что предложенная модель превосходит современные методы.Наша работа связана с классификацией тональности предложений (SSC).SSC тщательно изучен BIBREF18, BIBREF19, BIBREF20, BIBREF21, BIBREF22, BIBREF23, BIBREF24, BIBREF25, BIBREF26, BIBREF27, BIBREF28.Никто из них не справится с шумными ярлыками.Поскольку многие наборы данных социальных сетей зашумлены, исследователи попытались построить надежные модели BIBREF29, BIBREF30, BIBREF31.Однако они рассматривают зашумленные данные как дополнительную информацию и не обрабатывают специально зашумленные метки.Модель классификации с учетом шума в BIBREF12 обучается с использованием данных, помеченных несколькими метками.BIBREF32 воспользовался связями пользователей и шумными ярлыками настроений в социальных сетях.Поскольку в этих двух работах используются данные с несколькими метками или информация пользователей (мы используем только данные с одной меткой и не используем никакой дополнительной информации), их настройки отличаются от наших.Наша работа тесно связана с подходами к обучению с использованием шумовых меток, основанными на DNN.Подходы, основанные на DNN, исследовали три основных направления: (1) обучение DNN на выбранных выборках BIBREF33, BIBREF34, BIBREF35, BIBREF17, (2) изменение функции потерь DNN с помощью систематических ошибок регуляризации BIBREF5, BIBREF36, BIBREF37, BIBREF38, BIBREF39, BIBREF40 и ( 3) подключение дополнительного уровня к DNN BIBREF14, BIBREF41, BIBREF15, BIBREF16.Все эти подходы были предложены для классификации изображений, где обучающие изображения были испорчены зашумленными метками.Некоторым из них требуется, чтобы уровень шума был известен априори, чтобы настроить свои модели во время обучения BIBREF37, BIBREF17.Наш подход сочетает в себе направление (1) и направление (3) и одновременно обучает две сети, не зная уровня шума.В наших экспериментах по SSC мы использовали пять последних существующих методов.Результаты экспериментов показывают, что они уступают предложенному нами методу.Кроме того, BIBREF42, BIBREF43, BIBREF44, BIBREF45, BIBREF46 и BIBREF47 изучали DNN со слабым или полуконтролируемым контролем.Но им все еще нужны точные данные обучения.Мы не используем чистые данные.Наша модель основана на CNN BIBREF25.Основная идея состоит в том, чтобы поочередно обучать две CNN: одну для обработки входных шумовых меток, а другую для прогнозирования «чистых» меток.Общая архитектура предлагаемой модели представлена на рисунке РИС. 2.Прежде чем идти дальше, мы сначала введем ниже предложение, свойство и предположение.Предложение 1. Шумные метки переворачиваются с чистых меток неизвестной матрицей перехода шума.Предложение UNKREF3 является переформулировкой BIBREF16 и исследовалось в BIBREF14, BIBREF15, BIBREF41.Это предложение показывает, что если мы знаем матрицу перехода шума, мы можем использовать ее для восстановления «чистых меток».Другими словами, мы можем поместить матрицу перехода шума на чистые метки, чтобы справиться с шумными метками.Учитывая это, мы задаем следующий вопрос: как оценить такую неизвестную матрицу перехода шума? Ниже мы даем решение этого вопроса, основанное на следующем свойстве DNN.Свойство 1 DNN обычно отдает приоритет запоминанию простых экземпляров, а затем постепенно запоминает сложные экземпляры. BIBREF3.BIBREF13 дополнительно исследовал это свойство DNN.Наша установка такова, что простые примеры — это предложения с чистыми метками, а сложные примеры — это предложения с шумными метками.У нас также есть следующее предположение.Допущение 1. Уровень шума обучающих данных составляет менее $50\%$. Это предположение обычно выполняется на практике, поскольку без него трудно справиться с входными шумными метками во время обучения.Основываясь на приведенных выше предварительных сведениях, нам необходимо оценить зашумленную матрицу перехода $Q\in \mathbb {R}^{c\times c}$ (в нашем случае $c=2$, т. е. положительную и отрицательную) и обучить два классификатора $\ddot{y}\sim P(\ddot{y}|x,\theta )$ и $\widehat{y}\sim \ P(\widehat{y}|x,\vartheta )$, где $x$ — входное предложение, $\ddot{y}$ — его шумная метка, $\widehat{y}$ — его «чистая» метка, $\theta$ и $\vartheta$ — параметры двух классификаторов.Обратите внимание, что $\ddot{y}$ и $\widehat{y}$ здесь являются результатами прогнозирования нашей модели, а не входными метками.Мы предлагаем сформулировать вероятность предложения $x$, обозначенного как $j$, где $P(\ddot{y}=j|\widehat{y}=i)$ — элемент ($ji$-й элемент) в зашумленной матрице перехода $Q$. Мы видим, что шумная матрица перехода $Q$ используется на "чистых" оценках $P(\widehat{y}|x,\vartheta )$ для борьбы с шумными метками.Теперь мы представляем нашу модель NetAb и рассказываем, как NetAb выполняет уравнение.(DISPLAY_FORM6).Как показано на рисунке FigREF2, NetAb состоит из двух CNN.Интуиция здесь заключается в том, что мы используем одну CNN для выполнения $P(\widehat{y}=i|x,\vartheta )$ и используем другую CNN для выполнения $P(\ddot{y}=j|x,\theta ) $.Между тем, CNN, выполняющая $P(\ddot{y}=j|x,\theta )$, оценивает матрицу перехода шума $Q$, чтобы иметь дело с шумными метками.Таким образом, мы добавляем переходный слой в эту CNN. Точнее, на рисунке FigREF2 CNN с чистой потерей выполняет $P(\widehat{y}=i|x,\vartheta )$.Мы называем это CNN А-сетью.Другая CNN с шумными потерями выполняет $P(\ddot{y}=j|x,\theta )$.Мы называем эту CNN сетью Ab.Ab-сеть разделяет все параметры A-сети, за исключением параметров блока Gate и чистых потерь.Кроме того, Ab-сеть имеет переходный слой для оценки зашумленной матрицы перехода $Q$. Таким образом, A-сеть прогнозирует «чистые» метки, а Ab-сеть обрабатывает входные шумные метки.Мы используем кросс-энтропию с предсказанными метками $\ddot{y}$ и входными метками $y$ (данными в наборе данных) для вычисления шумовых потерь, формулируемых следующим образом: где $\mathbb {I}$ — индикаторная функция ( если $y\!==\!i$, $\mathbb {I}\!=\!1$; в противном случае $\mathbb {I}\!=\!0$), и $|\ddot{S }|$ — количество предложений для обучения Ab-сети в каждом пакете.Аналогичным образом мы используем кросс-энтропию с предсказанными метками $\widehat{y}$ и входными метками $y$ для вычисления чистой потери, формулируемой следующим образом: где $|\widehat{S}|$ — количество предложений для обучения A -сеть в каждой партии.Далее мы покажем, как наша модель изучает параметры ($\vartheta $, $\theta $ и $Q$).Матрица внедрения $v$ создается для каждого предложения $x$ путем поиска в предварительно обученной базе данных внедрения слов (например, GloVe.840B BIBREF48).Затем вектор кодирования $h\!=\!CNN(v)$ (и $u\!=\!CNN(v)$) создается для каждой матрицы вложения $v$ в A-сети (и Ab-сети) .Классификатор sofmax дает нам $P(\hat{y}\!=\!i|x,\vartheta )$ (т.е. «чистые» оценки настроений) на изученном векторе кодирования $h$. Поскольку матрица перехода шума $Q$ указывает значения перехода от чистых меток к меткам с шумом, мы вычисляем $Q$ следующим образом: где $W_i$ — обучаемая матрица параметров, $b_i$ и $f_i$ — два обучаемых вектора параметров.Они проходят обучение в сети Ab.Наконец, $P(\ddot{y}=j|x,\theta )$ вычисляется по уравнению.(DISPLAY_FORM6). При обучении NetAb проходит сквозное обучение.На основании предложения UNKREF3 и свойства UNKREF4 мы предварительно обучаем A-сеть в ранние эпохи (например, 5 эпох).Затем поочередно тренируем Ab-сеть и А-сеть.Две сети обучаются с использованием соответствующих потерь перекрестной энтропии.Имея набор предложений, мы сначала обучаем Ab-сеть.Затем мы используем оценки, предсказанные A-сетью, чтобы выбрать несколько возможно чистых предложений из этой партии и обучить A-сеть на выбранных предложениях.В частности, мы используем прогнозируемые оценки для вычисления меток настроений по $\arg \max _i \lbrace \ddot{y}=i|\ddot{y}\sim P(\ddot{y}|x,\theta )\rbrace $.Затем мы выбираем предложения, результирующая метка настроения которых равна входной метке.Процесс выбора отмечен блоком Gate на рисунке РИСУНОК 2.При проверке предложения мы используем A-сеть для получения окончательного результата классификации.В этом разделе мы оцениваем производительность предлагаемой модели NetAb.мы проводим два типа экспериментов.(1) Мы искажаем наборы данных с «чистыми метками», чтобы создать наборы данных с «шумными метками», чтобы показать влияние шумов на точность классификации настроений.(2) Мы собираем некоторые реальные зашумленные данные и используем их для обучения моделей для оценки производительности NetAb.Наборы данных с чистой меткой.Мы используем три набора данных с чистой разметкой.Первый — это набор данных полярности предложений из фильма из BIBREF19.Два других набора данных — это наборы данных о ноутбуках и ресторанах, собранные в ходе SemEval-2016.Первый состоит из предложений с обзором ноутбука, а второй — из предложений с отзывами о ресторане.Исходные наборы данных (например, «Ноутбук» и «Ресторан») были помечены с указанием полярности аспектов в каждом предложении.Мы использовали все предложения только с одной полярностью (положительной или отрицательной) для их аспектов.То есть мы использовали только предложения с аспектами, имеющими одну и ту же метку тональности в каждом предложении.Таким образом, чувства каждого аспекта дают основную истину, поскольку чувства всех аспектов одинаковы.Для каждого набора данных с чистой меткой предложения случайным образом делятся на обучающий набор и тестовый набор с $80\%$ и $20\%$ соответственно.Следуя BIBREF25, мы также случайным образом выбираем $10\%$ тестовых данных для проверки, чтобы проверить модель во время обучения.Сводная статистика данных обучения, проверки и тестирования представлена в таблице TABREF9. Наборы обучающих данных с шумовой меткой.Для трех вышеупомянутых доменов (кино, ноутбук и ресторан) мы собрали по 2000 отзывов для каждого домена из одного и того же источника отзывов.Мы извлекли предложения из каждого обзора и присвоили им метку обзора.Как и в предыдущей работе, мы рассматриваем 4 или 5 звезд как положительные, а 1 или 2 звезды как отрицательные.Данные зашумлены, поскольку положительный (отрицательный) отзыв может содержать отрицательные (положительные) предложения, а также есть нейтральные предложения.Это дает нам три набора обучающих данных с шумовой меткой.Мы по-прежнему используем те же наборы тестов, что и для наборов данных с чистой меткой.Сводная статистика всех наборов данных показана в таблице TABREF9. Эксперимент 1. Здесь мы используем данные с «чистой меткой» (т. е. последние три столбца в таблице TABREF9).Мы искажаем чистые обучающие данные, меняя метки некоторых случайных экземпляров на основе параметра уровня шума.Затем мы используем поврежденные данные для обучения NetAb и CNN BIBREF25. Кривые точности теста зависят от уровня шума.[0, $0,1$, $0,2$, $0,3$, $0,4$, $0,5$] показаны на рисунке FigREF13.На рисунке мы видим, что точность теста падает примерно с 0,8 до 0,5, когда уровень шума увеличивается с 0 до 0,5, но наш NetAb превосходит CNN.Результаты ясно показывают, что производительность CNN значительно падает с увеличением уровня шума.Эксперимент 2. Здесь мы используем реальные обучающие данные с зашумленными метками для обучения нашей модели и базовых показателей, а затем проверяем тестовые данные в таблице TABREF9.Наша цель двоякая.Во-первых, мы хотим оценить NetAb, используя реальные зашумленные данные.Во-вторых, мы хотим посмотреть, можно ли использовать предложения с метками уровня проверки для построения эффективных моделей SSC.Базовые показатели.Мы используем одну надежную базовую линию, отличную от DNN, NBSVM (с функциями униграмм или биграмм).BIBREF23 и шесть базовых показателей DNN.Первой базовой линией DNN является CNN BIBREF25, которая не обрабатывает зашумленные метки.Остальные пять были предназначены для работы с шумными этикетками.Результаты сравнения показаны в таблице TABREF12.По результатам мы можем сделать следующие наблюдения.(1) Наша модель NetAb достигает лучших показателей ACC и F1 на всех наборах данных, за исключением F1 отрицательного класса на ноутбуке.Результаты демонстрируют превосходство NetAb.(2) NetAb превосходит базовые версии, предназначенные для обучения с зашумленными метками.Эти базовые линии уступают нашим, поскольку они были специально разработаны для классификации изображений.Обратите внимание, что мы не нашли существующего метода борьбы с зашумленными метками для SSC.Подробности обучения.Мы используем общедоступное предварительно обученное внедрение GloVe.840B BIBREF48 для инициализации векторов слов, а размерность внедрения равна 300. Для каждой базовой линии мы получаем систему от ее автора и используем ее параметры по умолчанию.Поскольку для классификации изображений были предложены базовые линии DNN (кроме CNN), мы меняем входные каналы с 3 на 1.Для нашего NetAb мы следуем BIBREF25, чтобы использовать размеры окон в 3, 4 и 5 слов со 100 картами признаков на размер окна, что приводит к 300-мерным векторам кодирования.Входная длина предложения установлена на 40.Параметры сети обновляются с помощью оптимизатора Адама BIBREF49 со скоростью обучения 0,001.Скорость обучения постепенно ограничивается с использованием нормы 0,96 при выполнении оптимизации Адама.Коэффициент отсева составляет 0,5 во входном слое.Количество эпох составляет 200, а размер пакета — 50. В этой статье предложена новая модель на основе CNN для обучения классификации настроений на уровне предложений для данных с зашумленными метками.Предлагаемая модель учится обрабатывать зашумленные метки во время обучения, обучая поочередно две сети.Изученные матрицы переходов шума используются для борьбы с шумными метками.Результаты экспериментов показали, что предложенная модель заметно превосходит широкий диапазон базовых показателей.Мы считаем, что обучение с использованием шумовых меток является многообещающим направлением, поскольку зачастую легко собрать обучающие данные с шумовыми метками.Работа Хао Вана и Яна Янга была частично поддержана грантом Национального фонда естественных наук Китая (№ 61572407). | Глубокие нейронные сети (DNN) могут очень хорошо соответствовать (или даже превосходить) обучающие данные. Если модель DNN обучена с использованием данных с зашумленными метками и протестирована на данных с чистыми метками, модель может работать плохо. В этой статье изучается проблема обучения с использованием зашумленных меток для классификации настроений на уровне предложений. Мы предлагаем новую модель DNN под названием NetAb (сокращение от сверточных нейронных сетей с Ab-сетями) для обработки шумных меток во время обучения. NetAb состоит из двух сверточных нейронных сетей: одна со слоем перехода шума для обработки входных шумовых меток, а другая — для прогнозирования «чистых» меток. Мы обучаем две сети, используя их соответствующие функции потерь в порядке взаимного подкрепления. Результаты экспериментов демонстрируют эффективность предложенной модели. | 3,156 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Йога-веганство: корреляционный анализ данных о здоровье в Твиттере. Основная мотивация этой работы началась с вопроса «Что люди делают для поддержания своего здоровья?» – кто-то придерживается сбалансированного питания, кто-то занимается спортом.Среди диет некоторые люди придерживаются вегетарианской/веганской диеты, среди упражнений некоторые люди занимаются плаванием, ездой на велосипеде или йогой.Есть люди, которые делают и то, и другое.Если мы хотим узнать ответы на следующие вопросы – «Сколько людей соблюдают диету?», «Сколько людей занимаются йогой?«, «Придерживается ли йог вегетарианской/веганской диеты?", возможно, мы могли бы спросить нашего знакомого, но это даст очень мало информации о данных.В настоящее время люди обычно делятся своими интересами, мыслями через обсуждения, твиты, статусы в социальных сетях (например, Facebook, Twitter, Instagram и т. д.).Это огромный объем данных, и просмотреть все данные вручную невозможно.Нам нужно проанализировать данные, чтобы получить общую статистику, и тогда мы также сможем найти некоторые интересные корреляции данных.Было выполнено несколько работ по прогнозированию контента социальных сетей BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4.Прието и др. предложил метод извлечения набора твитов для оценки и отслеживания заболеваемости в обществе BIBREF5.Обнаружение тем и тем общественного здравоохранения в твитах было исследовано Prier et al. БИБРЕФ6 .Юн и др. описал практический подход к интеллектуальному анализу контента для анализа содержимого твитов и проиллюстрировал применение этого подхода к теме физической активности BIBREF7.TwitterДанные представляют собой богатый источник, который можно использовать для сбора информации по любой мыслимой теме.В этой работе мы используем анализ текста для сбора данных Твиттера, связанных со здоровьем.Интеллектуальный анализ текста — это применение методов обработки естественного языка для получения соответствующей информации BIBREF8.Каждый день создаются миллионы твитов по самым разным вопросам BIBREF9.В последние несколько лет майнингу в Твиттере в больших масштабах уделяется много внимания.Лин и Рябой обсудили эволюцию инфраструктуры Твиттера и развитие возможностей интеллектуального анализа «больших данных» BIBREF10.Пандарачалил и др. предоставил масштабируемое и распределенное решение с использованием параллельной среды Python для анализа настроений в Твиттере BIBREF9.Крупномасштабный Twitter-майнинг побочных эффектов, связанных с приемом лекарств, был разработан Бианом и др. BIBREF11.InВ этой статье мы используем параллельную и распределенную технологию Apache Kafka BIBREF12 для обработки больших потоковых данных Twitter.Обработка данных ведется параллельно с их извлечением путем интеграции Apache Kafka и Spark Streaming.Затем мы используем тематическое моделирование, чтобы определить семантическую структуру неструктурированных данных (например, твитов).Моделирование тем — это метод интеллектуального анализа текста, который автоматически обнаруживает скрытые темы в заданных документах.Это неконтролируемый алгоритм анализа текста, который используется для поиска группы слов из данного документа.Мы строим модель, используя три различных алгоритма скрытого семантического анализа (LSA) BIBREF13, неотрицательной матричной факторизации (NMF) BIBREF14 и скрытого распределения Дирихле (LDA) BIBREF15, и определяем тему твитов.Чтобы наблюдать за поведением модели, мы тестируем ее, чтобы определить новые твиты.Цель нашей работы — аннотировать немаркированные данные с помощью модели и найти интересную корреляцию.Сообщения твитов извлекаются из источника Twitter с помощью API Twitter и сохраняются в темах Kafka.API-интерфейс Producer используется для подключения источника (например, Twitter) к любой теме Kafka в виде потока записей для определенной категории.Мы извлекаем данные из источника (Twitter), помещаем их в очередь сообщений и используем для дальнейшего анализа.Рис.FigREF2 показывает обзор сбора данных Twitter с помощью Kafka.Чтобы обрабатывать большие потоковые данные Твиттера, мы используем параллельную и распределенную технологию для инфраструктуры больших данных.В этом случае результаты сканирования Твиттера помещаются в очередь в системе обмена сообщениями под названием Apache Kafka.Это распределенная потоковая платформа, созданная и с открытым исходным кодом LinkedIn в 2011 году BIBREF12.Мы пишем клиент-производитель, который постоянно получает последние твиты с помощью Twitter API и отправляет их на одиночный узел Kafka Broker.Есть Consumer, который читает данные из Kafka (рис.FIGREF2).ApacheZookeeper — это распределенная служба синхронизации конфигурации с открытым исходным кодом, а также реестр имен для распределенных приложений.Kafka использует Zookeeper для хранения метаданных о кластере Kafka, а также сведений о клиенте-потребителе.Данные Twitter были просканированы с помощью Tweepy, библиотеки Python для доступа к API Twitter.Мы используем потоковый API Twitter для извлечения 40 тысяч твитов (17–19 апреля 2019 г.).При сканировании мы фокусируемся на нескольких ключевых словах, связанных со здоровьем.Ключевые слова обрабатываются без учета регистра.Мы используем фильтр для потоковой передачи всех твитов, содержащих слова «йога», «здоровый образ жизни», «здоровое питание», «диета», «походы», «плавание», «езда на велосипеде», «йог», «сжигание жира», «похудение», «пилатес», «зумба», «питательная еда», «здоровье», «фитнес», «тренировки», «вегетарианство», «веганство», «низкоуглеводное», «безглютеновое», «сжигание калорий».API потоковой передачи возвращает твиты, а также несколько других типов сообщений (например, уведомление об удалении твита, уведомление об обновлении профиля пользователя и т. д.), все в формате JSON.Мы используем библиотеки Python json для анализа данных и pandas для манипулирования данными.Предварительная обработка данных является одним из ключевых компонентов во многих алгоритмах интеллектуального анализа текста BIBREF8.Очистка данных имеет решающее значение для создания полезной тематической модели.У нас есть некоторые предварительные условия: мы загружаем стоп-слова из NLTK (Natural Language Toolkit) и модели spacy для предварительной обработки текста.Заметно, что в проанализированных полнотекстовых твитах много адресов электронной почты, `RT', новой строки и дополнительных пробелов, что сильно отвлекает.Чтобы избавиться от них, мы используем регулярные выражения Python (модуль re).Затем мы токенизируем каждый текст в список слов, убираем знаки препинания и ненужные символы.Для дальнейшей обработки мы используем пакет Python Gensim.Функция simple_preprocess() в Gensim используется для токенизации и удаления знаков препинания.Для построения биграмм мы используем модель Gensim Phrases.Определенные части английской речи, такие как союзы («для», «или») или слово «the», не имеют значения для тематической модели.Эти термины называются стоп-словами, и мы удаляем их из списка токенов.Мы используем пространственную модель для лемматизации, чтобы сохранить только существительное, прилагательное, глагол и наречие.Определение корней слов — еще один распространенный метод НЛП, позволяющий свести слова, похожие по теме, к их корню.Например, «подключиться», «подключиться», «связанный», «соединение», «соединения» имеют схожие значения; стемминг сводит эти термины к «соединению».Алгоритм стемминга Портера BIBREF16 является наиболее широко используемым методом.Для этого анализа мы используем данные Twitter, связанные со здоровьем.В подразделах [subsec:3.1]3.1, [subsec:3.2]3.2, [subsec:3.3]3.3 и [subsec:3.4]3.4 подробно показано, как мы можем сделать вывод о значении неструктурированных данных.Подраздел[subsec:3.5]3.5 показывает, как мы вручную делаем аннотации для сравнения достоверных данных. Рис.На фиг.6 показан общий конвейер корреляционного анализа.Результатом этапа очистки данных являются тексты — токенизированный, остановленный, структурированный и лемматизированный список слов из одного твита.Чтобы понять, как часто каждый термин встречается в каждом твите, мы создаем матрицу терминов документа, используя функцию Gensim Dictionary().Функция doc2bow() в Gensim преобразует словарь в набор слов.В модели «мешка слов» каждый твит представлен вектором в m-мерном координатном пространстве, где m — количество уникальных терминов во всех твитах.Этот набор терминов называется корпусом словаря.Тематическое моделирование — это метод интеллектуального анализа текста, который предоставляет методы идентификации одновременно встречающихся ключевых слов для обобщения коллекций текстовой информации.Это используется для анализа коллекций документов, каждый из которых представлен как смесь тем, где каждая тема представляет собой распределение вероятностей по словам BIBREF17.Применение этих моделей к коллекции документов включает оценку распределения тем и веса, который каждая тема получает в каждом документе.Существует ряд алгоритмов решения этой проблемы.Мы используем три алгоритма машинного обучения без присмотра для изучения тем твитов:Скрытый семантический анализ (LSA) BIBREF13, неотрицательная матричная факторизация (NMF) BIBREF14 и скрытое распределение Дирихле (LDA) BIBREF15. Рис.Figref7 демонстрирует общую идею методологии тематического моделирования.Каждый твит рассматривается как документ.LSA, NMF и LDA используют модель Bag of Words (BoW), в результате которой получается матрица терминов-документов (вхождение терминов в документ).Строки представляют собой термины (слова), а столбцы — документы (твиты).После завершения тематического моделирования мы определяем группы сопутствующих слов в твитах.Эти группы совместно встречающихся родственных слов образуют «темы».LSA (скрытый семантический анализ) BIBREF13 также известен как LSI (скрытый семантический индекс).Он изучает скрытые темы, выполняя матричное разложение матрицы документа и термина с использованием разложения по сингулярным значениям (SVD) BIBREF18.После создания корпуса в [subsec:3.1]подразделе 3.1 мы создаем модель LSA с помощью Gensim.Неотрицательная матричная факторизация (NMF) BIBREF14 — это широко используемый инструмент для анализа многомерных данных, поскольку он автоматически извлекает разреженные и значимые признаки из набора неотрицательных векторов данных.Это метод факторизации матриц, при котором мы ограничиваем неотрицательность матриц.Мы применяем взвешивание терминов с обратной частотой терминов в документах (TF-IDF) BIBREF19, чтобы повысить полезность матрицы «документ-термины» (созданной в [subsec:3.1]подразделе 3.1), придавая больший вес более «важным» терминам.В Scikit-learn мы можем генерировать взвешенную матрицу терминов документа TF-IDF с помощью TfidfVectorizer.Мы импортируем класс модели NMF из sklearn.decomposition и подгоняем модель темы к твитам.Скрытое распределение Дирихле (LDA) BIBREF15 широко используется для идентификации тем в наборе документов на основе вероятностного латентно-семантического анализа (PLSI) BIBREF20.LDA рассматривает каждый документ как набор тем в определенной пропорции, а каждую тему — как набор ключевых слов в определенной пропорции.Мы предоставляем LDA оптимальное количество тем, он перестраивает распределение тем внутри документов и распределение ключевых слов внутри тем, чтобы получить хорошую композицию распределения тем-ключевых слов.В [subsec:3.1]подразделе 3.1 у нас есть корпус, созданный для обучения модели LDA.Помимо корпуса и словаря, мы также предоставляем количество тем.Тематическое моделирование — это обучение без присмотра, поэтому набор возможных тем неизвестен.Чтобы определить оптимальное количество тем, мы строим множество моделей LSA, NMF, LDA с разными значениями количества тем (k) и выбираем ту, которая дает наивысший показатель связности.Выбор буквы «к», обозначающей конец быстрого роста связности тем, обычно предлагает значимые и интерпретируемые темы.Мы используем модель когерентности Gensim для расчета согласованности тем для тематических моделей (LSA и LDA).Для NMF мы используем меру согласованности тем, называемую TC-W2V. Эта мера основана на использовании модели встраивания слов, построенной на основе корпуса.Итак, на этом этапе мы используем реализацию Word2Vec BIBREF21 в Gensim для построения модели Word2Vec на основе коллекции твитов.Мы достигаем наивысшего показателя согласованности = 0,4495, когда количество тем равно 2 для LSA, для NMF наивысшее значение согласованности составляет 0,6433 для K = 4, а для LDA мы также получаем количество тем равно 4 с наивысшим показателем согласованности, равным 0,3871. (см. рис. РИС. F8). ДляВ нашем наборе данных мы выбрали k = 2, 4 и 4 с самым высоким значением когерентности для LSA, NMF и LDA соответственно (рис. FigREF8).В таблице TABREF13 показаны темы и топ-10 ключевых слов соответствующей темы.Используя модель LDA, мы получаем более информативные и понятные темы, чем LSA.Матрица, разложенная по LSA, представляет собой очень плотную матрицу, поэтому индексировать отдельные измерения сложно.LSA не может уловить множество значений слов.Он обеспечивает более низкую точность, чем LDA. В случае NMF мы наблюдаем, что одни и те же ключевые слова повторяются в нескольких темах.Ключевые слова «идти», «день» повторяются в теме 2, теме 3 и теме 4 (таблица TABREF13).В таблице TABREF13 ключевое слово «йога» встречается как в теме 1, так и в теме 4.Мы также заметили, что ключевое слово «есть» присутствует в темах 2 и 3 (таблица TABREF13).Если одни и те же ключевые слова повторяются в нескольких темах, это, вероятно, является признаком того, что «k» велико, хотя мы достигаем самого высокого показателя согласованности в NMF для k = 4. Мы используем модель LDA для нашего дальнейшего анализа.Потому что LDA хорошо определяет связные темы, тогда как NMF обычно дает бессвязные темы.Однако в среднем случае NMF и LDA схожи, но LDA более последовательна.После моделирования темы с использованием трех различных методов LSA, NMF и LDA мы используем LDA для дальнейшего анализа, т.е. для наблюдения за доминирующей темой, второй доминирующей темой и процентом вклада тем в каждом твите обучающих данных.Чтобы наблюдать за поведением модели в новых твитах, которые не включены в обучающий набор, мы следуем той же процедуре, чтобы наблюдать за доминирующей темой, второй доминирующей темой и процентом вклада тем в каждом твите в данные тестирования.В таблице TABREF30 показаны некоторые твиты и соответствующая доминирующая тема, вторая доминирующая тема и процент вклада тем в каждый твит.Чтобы рассчитать точность модели по сравнению с меткой наземной истины, мы выбрали 500 лучших твитов из набора данных поездов (40 тысяч твитов).Мы извлекли 500 новых твитов (22 апреля 2019 г.) в качестве тестового набора данных.Мы вручную аннотировали как обучающие, так и тестовые данные, выбирая одну тему из 4 тем, сгенерированных на основе модели LDA (7-й, 8-й, 9-й и 10-й столбцы таблицы TABREF13) для каждого твита в зависимости от цели твита.Рассмотрим следующие два твита: Твит 1: Изучаю традиционную йогу с моим хорошим другом.Твит 2: Почему вам следует #ПодниматьВесы, чтобы Похудеть #Жир на Животе #Фитнес #кор #пресс #диета #тренажерный зал #бодибилдинг #тренировки #йога Целью твита 1 является занятие йогой (т. е. изучение йоги).Твит 2 больше посвящен поднятию тяжестей для уменьшения жира на животе.Этот твит связан с тренировками.Когда мы добавляем аннотации вручную, мы назначаем тему 2 в твите 1 и тему 1 в твите 2.Неразумно назначать тему 2 для обоих твитов на основе ключевого слова «йога».Во время аннотации мы фокусируемся на функциональности твитов.Мы используем LDAvis BIBREF22, интерактивную веб-визуализацию тем, оцененных с помощью LDA.pyLDAVis от Gensim — наиболее часто используемый инструмент визуализации для визуализации информации, содержащейся в тематической модели. На рис.Фиг.21: каждый пузырь на левом графике представляет тему.Чем больше пузырь, тем более распространенной является эта тема.Хорошая тематическая модель имеет довольно большие, непересекающиеся пузырьки, разбросанные по диаграмме, а не сгруппированные в одном квадранте.Модель со слишком большим количеством тем обычно имеет много перекрытий, пузырьков небольшого размера, сгруппированных в одной области диаграммы.В правой части слова представляют собой наиболее важные ключевые слова.Если мы наведем курсор на один из пузырьков (рис. FigREF21), слова и полосы с правой стороны будут обновлены, и будут показаны 30 наиболее важных ключевых слов, которые формируют выбранную тему, и их предполагаемая частота терминов.Мы наблюдаем интересную скрытую корреляцию в данных.Рис.В FigREF24 выбрана тема 2.Тема 2 содержит топ-4 ключевых слов «веган», «йога», «работа», «каждая_женщина», имеющих самую высокую частоту терминов.Мы можем сделать разные выводы из темы о том, что «женщины обычно практикуют йогу больше, чем мужчины», «женщины преподают йогу и воспринимают это как работу», «Йоги следуют веганской диете».Мы бы сказали, что существует заметная корреляция в данных, например, «Йога-веганство», «Женщина-йога».Каждый твит состоит из нескольких тем.Но обычно только одна из тем является доминирующей.Мы извлекаем доминирующую и вторую доминирующую тему для каждого твита и показываем вес темы (процент вклада в каждый твит) и соответствующие ключевые слова.Мы отображаем частоту распределения каждой темы в твитах на гистограмме.Рис.На фиг.25 показана частота доминирующих тем, а на рис.Фиг.25 показывает частоту 2-й доминирующей темы в твитах. Из рис.FigREF25 мы видим, что тема 1 стала либо доминирующей, либо второй доминирующей темой для большинства твитов.В 7-м столбце таблицы TABREF13 показаны соответствующие топ-10 ключевых слов темы 1. Для сравнения с реальными фактами мы постепенно увеличивали размер набора данных на 100, 200, 300, 400 и 500 твитов на основе данных поездов и тестовых данных (новые твиты). и выполнил вручную аннотацию как для обучающих, так и для тестовых данных на основе функциональности твитов (описано в [subsec:3.5]Подраздел 3.5). Для расчета точности мы рассматриваем только доминирующую тему.Мы достигли точности обучения 66% и точности теста 51% при размере набора данных 500 (рис. FigREF28).Мы выполнили базовую реализацию со случайным выводом, запустив несколько раз с разными исходными значениями и выбрав среднюю точность.Для набора данных 500 точность приблизилась к 25%, что вполне разумно, поскольку у нас есть 4 темы.В таблице TABREF30 мы показываем некоторые наблюдения.Для твитов в 1-й и 2-й строке (таблица TABREF30) мы наблюдали понятную тему.Мы также заметили вводящую в заблуждение тему и несвязанную тему в нескольких твитах (3-я и 4-я строки таблицы TABREF30).В первой строке таблицы TABREF30 мы показываем твит на основе данных поезда, и мы получили тему 2 как доминирующую тему, на которую приходится 61% вклада в этот твит.Тема 1 является второй доминирующей темой и ее вклад здесь составляет 18%. 2-я строка таблицы TABREF30 показывает твит из тестового набора.Мы обнаружили, что тема 2 является доминирующей темой с 33% вклада, а тема 4 — второй доминирующей темой с вкладом 32% в этом твите.В третьем (таблица TABREF30) у нас есть твит на основе тестовых данных, и мы получили тему 2 как доминирующую тему, на которую приходится 43% вклада в этот твит.Тема 3 занимает второе место по доминанте с вкладом 23%, что вводит в заблуждение.Модель неверно интерпретирует слова «вода в руке» и выводит тему, в которой есть ключевые слова «плавание, плавание, бассейн».Но здесь модель должна вывести более разумную тему (тема 1, в которой есть ключевые слова «диета, тренировки»).Мы получили тему 2 в качестве доминирующей темы для твита в 4-й строке (таблица TABREF30), которая не связана с темой этого твита, и наиболее релевантную тему этого твита (тема 2) в качестве второй доминирующей темы.Мы считаем, что при сравнении точности с наземной истиной можно учитывать вторую доминирующую тему.В будущем мы будем извлекать больше твитов, обучать модель и наблюдать за ее поведением на тестовых данных.Поскольку в тестовых примерах мы обнаружили вводящую в заблуждение и несвязанную тему, важно понять причины таких прогнозов.Мы включим метод локального интерпретируемого независимого от модели объяснения (LIME) BIBREF23 для объяснения предсказаний модели.Мы также проведем прогнозный причинно-следственный анализ твитов.Анализировать данные социальных сетей для различных целей приложения сложно.В этой работе мы исследовали данные Twitter, связанные со здоровьем, определили тему с помощью тематического моделирования (например, LSA, NMF, LDA), наблюдали за поведением модели в новых твитах, сравнили точность обучения/тестирования с достоверностью, использовали различные визуализации после интеграции информации и обнаружили интересная корреляция (йога-веганство) в данных.В будущем мы добавим метод локального интерпретируемого модельно-агностического объяснения (LIME), чтобы понять интерпретируемость модели. | Сегодня социальные сети представляют собой огромную платформу данных. Люди обычно делятся своими интересами, мыслями через обсуждения, твиты, статусы. Невозможно просмотреть все данные вручную. Нам необходимо анализировать данные, чтобы исследовать скрытые закономерности или неизвестные корреляции, выяснять доминирующую тему в данных и понимать интересы людей посредством дискуссий. В этой работе мы изучаем данные Twitter, связанные со здоровьем. Мы извлекаем популярные темы из различных категорий (например, диета, физические упражнения), обсуждаемых в Твиттере, с помощью тематического моделирования, наблюдаем за поведением моделей в новых твитах, обнаруживаем интересную корреляцию (например, йога-веганство). Мы оцениваем точность путем сравнения с реальными данными, используя ручную аннотацию как для обучающих, так и для тестовых данных. | 3,473 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Достижение проверенной устойчивости к заменам символов посредством распространения, ограниченного интервалом. Было показано, что глубокие модели уязвимы к состязательным входным возмущениям BIBREF0, BIBREF1.Небольшие, семантически инвариантные входные изменения могут привести к радикальным изменениям в прогнозах, что приведет к снижению производительности на случайно выбранных выборках.Недавние работы BIBREF2, BIBREF3, BIBREF4 также выявили уязвимости нейронных моделей НЛП, например. с небольшими искажениями символов BIBREF5 или парафразы BIBREF6, BIBREF7.Эти состязательные атаки выявляют зачастую неинтуитивные способы отказа моделей и представляют собой проблему для развертывания моделей НЛП.Распространенными попытками решить эту проблему являются состязательное обучение BIBREF5 и увеличение данных BIBREF3, BIBREF8, которые приводят к повышению точности на состязательных примерах.Однако это может вызвать ложное чувство безопасности, поскольку обычно нет гарантии, что более сильные противники не смогут обойти защиту и найти другие успешные атаки BIBREF9, BIBREF10, BIBREF11.Вместо того, чтобы продолжать гонку с противниками, формальная проверка BIBREF12, BIBREF13, BIBREF14 предлагает другой подход: она направлена на предоставление доказуемых гарантий заданной спецификации модели.В случае состязательной устойчивости такая спецификация может быть сформулирована как согласованность прогноза при любом измененном, но семантически инвариантном изменении входных данных.В этой статье мы изучаем проверяемую надежность, то есть предоставление сертификата того, что для данной сети и тестовых входных данных никакая атака или возмущение в соответствии со спецификацией не могут изменить прогнозы, используя пример задач классификации текста, Stanford Sentiment Treebank (SST) BIBREF15 и AG News BIBREF16.Спецификация, по которой мы проверяем, заключается в том, что модель классификации текста должна сохранять свой прогноз при заменах символов (или синонимов) в модели, основанной на символах (или словах).Мы предлагаем моделировать эти входные возмущения как симплекс, а затем использовать интервальное распространение (IBP) BIBREF17, BIBREF18, BIBREF19 для вычисления границ наихудшего случая удовлетворения спецификации, как показано на рисунке FigREF1.Поскольку эти границы можно эффективно вычислить, мы можем, кроме того, вывести вспомогательную цель, чтобы модели стали проверяемыми.Полученные классификаторы эффективно проверяются и повышают надежность на состязательных примерах, сохраняя при этом сопоставимую производительность с точки зрения номинальной точности испытаний.Вклад этой статьи двоякий: Насколько нам известно, эта статья является первой, в которой представлены верификация и поддающееся проверке обучение нейронных сетей при обработке естественного языка (§SECREF3). С помощью серии экспериментов (§SECREF4) мы демонстрируем (а) эффективность моделирования входных возмущений в виде симплекса и использования симплексных границ с IBP для обучения и тестирования, (б) слабость состязательного обучения при исчерпывающей проверке, (в) влияние пространства возмущений на производительность различных методов, и (d) влияние использования GloVe и встречных вложений на границы проверки IBP.Создание состязательных примеров для систем НЛП требует идентификации семантически инвариантных текстовых преобразований для определения входного пространства возмущений.В этой статье, учитывая нашу спецификацию, мы изучаем атаки HotFlip на уровне слов и символов BIBREF5, которые состоят из замен символов и синонимов, для задач классификации текста.Мы сравниваем наш поддающийся проверке подход с другими средствами защиты, включая состязательную подготовку BIBREF20 и увеличение данных BIBREF8, BIBREF3.Обратите внимание, что некоторые существующие состязательные нарушения, такие как синтаксически контролируемое перефразирование BIBREF7, использование систем обратного перевода BIBREF6 или использование целевой атаки по ключевым словам BIBREF21, выходят за рамки спецификации в этой статье.Формальная проверка обеспечивает доказуемую гарантию того, что модели соответствуют спецификации для всех возможных входных данных модели.Предыдущие работы можно разделить на полные методы, использующие смешанно-целочисленное программирование (MIP) BIBREF22, BIBREF23 или теорию выполнимости по модулю (SMT) BIBREF14, BIBREF24, и неполные методы, которые решают выпуклую релаксацию проблемы проверки BIBREF25, BIBREF26, BIBREF27.Полные методы выполняют исчерпывающий перебор, чтобы найти худший случай.Следовательно, полные методы дороги и их трудно масштабировать, хотя они обеспечивают точные границы устойчивости.Неполные методы обеспечивают слабые границы устойчивости, но могут быть более масштабируемыми и использоваться внутри цикла обучения, чтобы модели обучения были надежными и проверяемыми BIBREF28, BIBREF26, BIBREF19, BIBREF17.Наша работа является первой, которая распространила неполную проверку на классификацию текста, учитывая входные возмущения в симплексе и минимизируя границы наихудшего случая для состязательных атак при классификации текста.Мы подчеркиваем, что верификация нейронных сетей является чрезвычайно сложной задачей, и что масштабирование полных и неполных методов на большие модели остается открытой проблемой.Структуры слов и гиперграфы — это структуры данных, которые часто используются для эффективного представления и обработки экспоненциально большого количества предложений без их исчерпывающего перечисления.Приложения включают переоценку выходных данных автоматического распознавания речи (ASR) BIBREF29, машинный перевод выходных данных ASR BIBREF30, варианты перефразирования BIBREF31 и альтернативы сегментации слов BIBREF32.Спецификации, используемые для характеристики пространства состязательных атак, также представляют собой компактное представление, и алгоритмы, обсуждаемые ниже, работают с ними без исчерпывающего перечисления.Мы предполагаем фиксированное начальное векторное представление $\mathbf {z} _0$ заданного входного предложения $z$ (например, конкатенацию предварительно обученных вложений слов) и используем модель нейронной сети, то есть серию дифференцируемых преобразований $h_k$:где $\mathbf {z} _k$ — вектор активаций в $k$-м слое, а конечный результат $\mathbf {z} _K$ состоит из логитов для каждого класса.Обычно каждое $h_k$ представляет собой аффинное преобразование, за которым следует функция активации (например, ReLU или сигмоид).Аффинное преобразование может представлять собой свертку (с входными и выходными данными, имеющими подразумеваемую двумерную структуру) вектора активаций в каждой точке последовательности; в дальнейшем эти активации будут объединены в последовательность, чтобы сформировать вектор $\mathbf {z} _k$. Проверка — это процесс проверки того, удовлетворяют ли выходные данные модели заданной спецификации.Формально это означает установление, верно ли следующее для заданных входных данных нормальной модели $\mathbf {x} _0$: $\forall \mathbf {z} _0\in \mathcal {X}_\mathrm {in}(\mathbf {x} _0):~ \mathbf {z} _K \in \mathcal {X}_\mathrm {out}$, где $\mathcal {X }_\mathrm {out}$ характеризует ограничение на выходные данные, а $\mathcal {X}_\mathrm {in}(\mathbf {x} _0)$ определяет окрестность $\mathbf {x} _0$ повсюду которому ограничение должно удовлетворяться.В нашем конкретном случае использования мы рассматриваем спецификацию устойчивости к состязательным атакам, которая определяется ограниченными входными возмущениями (переворачивание синонима до $\delta $ слов или переворачивание символов до $\delta $ символов) исходного предложения $x $.Пространство атаки $\mathcal {X}_\mathrm {in} (\mathbf {x} _0)$ — это набор векторных представлений (вложений) всех таких возмущенных предложений.Обозначая $z_{K,y}$ логит метки $y$, формулируем выходное ограничение, которое для всех классов $y: z_{K,y_\textrm {true}} \ge z_{K,y}$ . Эта спецификация устанавливает, что предсказание всех искаженных предложений $\mathbf {z} _0\in \mathcal {X}_\mathrm {in}(\mathbf {x} _0)$ должна соответствовать правильной метке $y_\textrm {true}$.Эту спецификацию можно эквивалентным образом сформулировать как набор ограничений полупространства на логиты: для каждого класса $y$, где $\mathbf {e}_{i}$ — вектор с 1 в $i$- ая позиция.Другими словами, истинный логит класса должен быть больше или равен логиту всех остальных классов $y$, что означает, что прогноз остается постоянным.Проверка спецификации в уравнении.(DISPLAY_FORM10) можно выполнить, решив следующую задачу ограниченной оптимизации, чтобы найти входные данные, которые наиболее сильно ее нарушают: где $\mathbf {c} $ — вектор с записями $c_y = 1$, $c_{y_\textrm { true}} = -1$ и 0 везде.Если оптимальное значение вышеупомянутой задачи оптимизации меньше 0, то спецификация в уравнении. (DISPLAY_FORM10) выполняется, в противном случае найден противоположный пример.В нашем случае это соответствует успешной состязательной атаке.В интересах вычислительной осуществимости мы на самом деле попытаемся проверить спецификацию на более крупном, но более удобном входном пространстве возмущений $\bar{\mathcal {X}}_\mathrm {in} \supseteq \mathcal {X}_\ матрм {in}$. Любая точка данных, которая поддается проверке в этом большем пространстве входных возмущений, обязательно поддается проверке по отношению к исходной спецификации.В области классификации изображений $\mathcal {X}_\mathrm {in}$ часто моделируется как $L_\infty $-шар, соответствующий входным возмущениям, в которых каждый пиксель может независимо изменяться в пределах небольшого интервала.Однако использование таких интервальных границ непригодно для нашей ситуации возмущений, состоящих из небольшого числа $\delta$ замен символов.Хотя мы могли бы построить выровненную по оси ограничивающую рамку $\bar{\mathcal {X}}_\mathrm {in}$ во вложенном пространстве, которая охватывала бы все $\mathcal {X}_\mathrm {in}$, это бы переаппроксимировать пространство возмущений до такой степени, что оно будет содержать возмущения, в которых все символы в предложении были заменены одновременно.Чтобы исправить это, мы предлагаем более жесткую сверхаппроксимацию в форме «симплекса» во вложенном пространстве.Сначала мы определим это для особого случая $\delta =1$, когда $\mathcal {X}_\mathrm {in} = \lbrace \mathbf {x} _0\rbrace \cup \lbrace \mathbf {p} ^ {(m)}_0 : 1\lem\le M\rbrace $ состоит из представлений всех $M$ предложений $p^{(m)}$, полученных из $x$ путем выполнения одной замены синонима (или символа), вместе с невозмущенным предложением $x$ сам.В этом случае мы определяем $\bar{\mathcal {X}}_\mathrm {in}$ как выпуклую оболочку $\mathcal {S}_1$ для $\mathcal {X}_\mathrm {in}$. Обратите внимание, что здесь мы не рассматриваем контекстные встраивания BIBREF33.Каждая `вершина' $\mathbf {p} ^{(m)}_0$ представляет собой последовательность векторов вложения, отличающуюся от $\mathbf {x} _0$ только на одной позиции слова (или символа).При большем радиусе возмущения $\delta >1$ мощность $\mathcal {X}_\mathrm {in}$ растет экспоненциально, поэтому манипулирование его выпуклой оболочкой становится невозможным.Однако расширение $\mathcal {S}_1$ с центром в $\mathbf {x} _0$ и увеличение его в $\delta $ раз дает симплекс $\mathcal {S}_\delta $ с $M +1$ вершины, которая содержит $\mathcal {X}_\mathrm {in}$. Более формально, мы определяем область во входном пространстве вложения на основе $M$ "элементарных" возмущений $\lbrace \mathbf {p} ^{(m)}_0: m = 1 \ldots M\rbrace $ $\mathbf {x} _0$, определенное ранее для случая $\delta =1$.Для возмущений до $\delta$ подстановок мы определяем $\bar{\mathcal {X}}_\mathrm {in}(\mathbf {x} _0)$ как выпуклую оболочку $\lbrace \mathbf {z } ^{(m)}_0: m= 0\ldots M\rbrace $, где $\mathbf {z} ^{(0)}_0=\mathbf {x} _0$ обозначает исходное (невозмущенное) представление предложения и, для $m\ge 1$, $\mathbf {z} ^{(m)}_0 = \mathbf {x} _0+\delta\cdot (\mathbf {p} ^{(m)}_0-\mathbf {x} _0)$.Выпуклая оболочка является сверхаппроксимацией $\mathcal {X}_\mathrm {in}(\mathbf {x} _0)$: она содержит представления всех предложений, полученных из $x$ путем выполнения до $\delta $ замены в разных позициях слов (или символов).Чтобы оценить оптимальное значение задачи (DISPLAY_FORM12), учитывая входные данные $\mathbf {z} _0$, мы можем распространить верхние/нижние границы активаций $\mathbf {z} _k$ каждого слоя, используя интервальную арифметику BIBREF17 Мы начнем с вычисления границ интервалов активаций первого слоя.Напомним, что любой ввод $\mathbf {z} _0\in \mathcal {X}_\mathrm {in}$ будет лежать внутри выпуклой оболочки определенных вершин $\lbrace \mathbf {z} ^{(m)}_0: m= 0\ldots M\rbrace $.Тогда, предполагая, что первый слой $h_1$ представляет собой аффинное преобразование (например, линейное или сверточное), за которым следует монотонная функция активации, нижняя и верхняя границы компонент $z_{1,i}$ активаций первого слоя $\ mathbf {z} _1$ заключаются в следующем: Обратите внимание, что эти границы эффективно вычисляются (путем пропускания каждого возмущения $\mathbf {z} ^{(m)}_0$ через первый слой); в частности, нет необходимости вычислять многогранник с выпуклой оболочкой.Для последующих слоев $k>1$ ограничения на компоненты $z_{k,i}$ $\mathbf {z} _k$ таковы: Вышеупомянутые задачи оптимизации можно быстро решить в замкнутой форме для аффинных слоев и монотонной активации. функции, как показано в IBP.Наконец, нижняя и верхняя границы выходных логитов $\mathbf {z} _K$ могут использоваться для построения верхней границы решения (DISPLAY_FORM12): Верхняя граница в (DISPLAY_FORM17) вычисляется быстро (требуется всего два прямые проходы для верхней и нижней границ сети).Следовательно, мы можем определить потери для оптимизации моделей так, чтобы модели были обучены для проверки.Решение (DISPLAY_FORM17) эквивалентно нахождению логит-разности наихудшего случая, и это достигается, когда логит истинного класса равен его нижней границе, а все остальные логиты равны их верхним границам.Конкретно, для каждого класса $y \ne y_\textrm {true} $: $\hat{\mathbf {z}}_{K,y}(\delta ) = \overline{\mathbf {z}}_{K ,y} (\delta ) $ и $\hat{\mathbf {z}}_{K,y_\textrm {true}}(\delta ) = nderline{\mathbf {z}}_{K,y_\ textrm {true}} (\delta) $.Потери при обучении затем можно сформулировать следующим образом: где $\ell $ — это перекрестная энтропийная потеря, $\kappa $ — гиперпараметр, который контролирует относительные веса между потерями классификации $L_\textrm {normal}$ и потерями спецификации $L_\textrm { спец}$. Если $\delta = 0$, то $\mathbf {z} _K = \hat{\mathbf {z}}_K(\delta )$, и, таким образом, $L$ сводится к стандартной потере классификации.Эмпирическим путем мы обнаружили, что обучение на основе учебной программы, начиная с $\kappa $=1 и линейно уменьшаясь до 0,25, эффективно для проверяемого обучения.Мы проводим проверочные эксперименты на двух наборах данных классификации текстов: Stanford Sentiment Treebank (SST) BIBREF15 и корпусе AG News, обработанных в BIBREF16.Мы фокусируемся на экспериментах на уровне слов и персонажей на SST и экспериментах на уровне персонажей на AG News.Наша спецификация заключается в том, что модели должны сохранять свои прогнозы против замен синонимов или опечаток символов до $\delta$ соответственно.Мы приводим пример из таблицы TABREF29, чтобы подчеркнуть различные показатели оценки и методы обучения.Учитывая предложение «вы видели их миллион раз», которое правильно предсказано (так называемая номинальная точность) моделью классификации, мы хотим дополнительно изучить, устойчива ли модель к опечаткам символов (например, до $\ delta =3$ опечатки) в этом примере.Один из способов — использовать эвристику для поиска допустимого примера, содержащего до трех опечаток, которые могут больше всего изменить прогноз (так называемый состязательный пример).Мы оцениваем модель, используя этот состязательный пример, и сообщаем о производительности (так называемая состязательная точность).Однако даже если состязательный пример предсказан правильно, все равно можно задаться вопросом: действительно ли модель устойчива к любым опечаткам (до 3) в этом примере?Чтобы иметь сертификат о том, что прогноз не изменится ни при каких опечатках символов $\delta =3$ (так называемый проверяемый надежный), мы могли бы теоретически провести исчерпывающий поиск по всем возможным случаям и проверить, не изменилось ли какое-либо из прогнозов (так называемый Oracle Точность).Если мы разрешим только замену символа другим символом, находящимся рядом на клавиатуре, уже для этого короткого предложения нам придется тщательно перебрать более 2951 возможных отклонений.Чтобы избежать этого комбинаторного роста, мы можем вместо этого смоделировать все возможные возмущения, используя предложенные симплексные границы, и распространить границы через IBP за счет двух прямых проходов.Следуя уравнению(DISPLAY_FORM12), мы можем проверить, можно ли проверить устойчивость этого примера ко всем возмущениям (так называемая точность, проверенная IBP). Существует также ряд способов улучшения процедуры обучения для повышения проверяемой устойчивости модели. против опечаток в предложении.Базовым вариантом является обучение модели непосредственно с использованием исходного/нормального предложения (так называемое обычное обучение).Другой способ — случайным образом выбрать предложения с опечатками среди 2951 возможных отклонений и добавить эти предложения к обучающим данным (так называемое обучение дополнению данных).Еще один способ — найти на каждой итерации обучения состязательный пример среди (подмножества) 2951 возможных возмущений, которые могут больше всего изменить прогноз; затем мы используем состязательный пример вместе с обучающим примером (называемым состязательным обучением).Наконец, поскольку симплексные границы с IBP эффективно выполнять, мы можем обучить модель проверяемости, минимизируя уравнение (1).(DISPLAY_FORM19) (так называемое проверяемое обучение). В этом разделе мы подробно описываем наши базовые модели.В состязательном обучении BIBREF34, BIBREF20 цель состоит в том, чтобы оптимизировать следующую проблему седловой точки: где внутренняя задача максимизации состоит в том, чтобы найти состязательное возмущение $\mathbf {z} _0\in\mathcal {X}_\mathrm {in}(\mathbf {x} _0)$, который может максимизировать потери.Во внутренней задаче максимизации мы используем HotFlip BIBREF5 с бюджетом возмущений $\delta$, чтобы найти состязательный пример.Задача внешней минимизации направлена на обновление параметров модели таким образом, чтобы минимизировать состязательный риск (DISPLAY_FORM24).Чтобы сбалансировать между состязательной надежностью и номинальной точностью, мы используем вес интерполяции 0,5 между исходной кросс-энтропийной потерей и состязательным риском.В настройке увеличения данных мы случайным образом выбираем допустимое возмущение $z$ с бюджетом возмущения $\delta$ из нормального входного сигнала $x$ и минимизируем потери перекрестной энтропии с учетом возмущенной выборки $z$ (обозначаемые как потери увеличения данных ).Мы также устанавливаем вес интерполяции между потерей увеличения данных и исходной нормальной потерей перекрестной энтропии равным 0,5. При обычном обучении мы используем обучение на основе правдоподобия с использованием обычных обучающих входных данных $x$. Мы используем неглубокую сверточную сеть с небольшое количество полносвязных слоев для экспериментов SST и AG News.Подробная архитектура модели и детали гиперпараметров представлены в дополнительных материалах.Хотя мы используем поверхностные модели для облегчения проверяемого обучения, наша номинальная точность находится на одном уровне с предыдущими работами, такими как BIBREF15 (85,4%) и BIBREF35 (84,3%) в SST и BIBREF16 (87,18%) в AG News.Во время обучения мы устанавливаем максимальное количество возмущений $\delta =3$ и оцениваем производительность при максимальном количестве возмущений от $\delta =1$ до 6 во время тестирования.Для экспериментов на уровне слов мы создаем пары синонимов, используя базу данных PPDB BIBREF36, и фильтруем синонимы с помощью детализированных тегов частей речи с помощью Spacy BIBREF37.Для экспериментов на уровне символов мы используем синтетические опечатки клавиатуры из BIBREF3 и допускаем одно возможное изменение для каждого символа, который находится рядом с ним на американской клавиатуре.Допустимое пространство входных возмущений намного больше, чем для замен синонимов на уровне слов, как показано в таблице TABREF48. Для оценки наших моделей мы используем следующие четыре метрики: i) точность тестового набора (называемая Acc.), ii) точность состязательного теста ( называется Adv. Acc.), в котором используются образцы, созданные в результате атак HotFlip на исходные тестовые примеры; iii) проверяемая точность при проверке IBP (так называемая IBP-проверенная), то есть соотношение тестовых выборок, для которых IBP может проверить соответствие спецификации не нарушается, и iv) тщательно проверенная точность (так называемая Oracle), вычисляемая путем перечисления всех возможных возмущений с учетом бюджета возмущений $\delta $, где выборка является проверяемо устойчивой, если прогноз не изменяется при всех действительных возмущениях.В таблице TABREF28 показаны результаты обучения IBP и базовой модели при $\delta =3$ и $\delta =2$ возмущениях на SST и AG News соответственно.На рисунках FigREF31 и FigREF36 показаны результаты на уровне символов и слов с $\delta $ от 1 до 6 по четырем метрикам в тестовом наборе SST; аналогичные цифры для моделей уровня слов SST (состязательное обучение, увеличение данных) и набора данных AG News можно найти в дополнительных материалах.В таблице TABREF28, сравнивая состязательную точность с точностью исчерпывающей проверки (оракул), мы видим, что, хотя состязательное обучение эффективно для защиты от атак HotFlip (74,9/76,8/85,5%), состязательная точность оракула при исчерпывающем тестировании (25,8/74,6/81,6 %) %) намного ниже на уровне SST-символа/SST-слова/AG-символа соответственно.Для иллюстрации мы показываем несколько конкретных состязательных примеров атаки HotFlip в таблице TABREF29.Для некоторых образцов, хотя модель устойчива к атакам HotFlip, ее прогнозы неверны для более сильных состязательных примеров, полученных с использованием оракула исчерпывающей проверки.Это подчеркивает необходимость проверки, поскольку сама по себе надежность в отношении неоптимальных состязательных атак может дать ложное чувство безопасности.Вместо выборки отдельных точек из пространства возмущений обучение IBP сразу охватывает все пространство.Полученные модели достигают высочайшей тщательно проверенной точности ценой лишь умеренного ухудшения номинальной точности (таблица TABREF28).Во время тестирования IBP допускает проверку в постоянное время с произвольным $\delta $, тогда как исчерпывающая проверка требует оценки в экспоненциально растущем пространстве поиска.В таблице TABREF28, когда пространство возмущений больше (уровень символов SST по сравнению с уровнем слова SST), (a) между моделями наблюдается больший разрыв в состязательной точности и истинной устойчивости (оракул); (б) разница в надежности оракула между IBP и состязательным обучением еще больше (73,1% против 25,8% и 76,5% против 74,6%). На рисунках FigREF31 и FigREF36 мы сравниваем обычное обучение, состязательное обучение, увеличение данных и проверяемые модели обучения с четырьмя метриками при различных бюджетах возмущений в наборе данных SST.В целом, по мере увеличения бюджета возмущений состязательная точность, точность оракула и точность, подтвержденная IBP, уменьшаются.Мы можем наблюдать, что даже при больших бюджетах возмущений проверяемые обученные модели по-прежнему способны проверять значительное количество выборок.Опять же, хотя состязательная точность выравнивается для больших бюджетов возмущений в экспериментах на уровне слов, проверка оракула может дополнительно найти контрпримеры для изменения прогноза.Обратите внимание, что исчерпывающая проверка становится затруднительной при больших размерах возмущений.Пространство возмущений в задачах НЛП дискретно и конечно, и допустимым вариантом проверки спецификации является исчерпывающее создание прогнозов для всех $\mathbf {z} _0.\in \mathcal {X}_\mathrm {in} (\mathbf {x} _0)$, а затем проверьте, не соответствует ли хотя бы один из них правильной метке.И наоборот, такой исчерпывающий (оракул) подход также может выявить самую сильную возможную атаку.Но размер $\mathcal {X}_\mathrm {in}$ растет экспоненциально с ростом $\delta $, и исчерпывающая проверка быстро становится непомерно дорогой.В таблице TABREF48 мы показываем максимальный размер пространства возмущений в тестовом наборе SST и AG News для различных радиусов возмущений $\delta$.Это число растет экспоненциально по мере увеличения $\delta$.Чтобы дополнительно проиллюстрировать это, на рисунке FigREF49 показано количество прямых проходов, необходимых для проверки заданной части набора тестов SST для модели, обученной IBP, с использованием исчерпывающей проверки и проверки IBP.IBP достигает уровней проверки, сравнимых с оракулом исчерпывающей проверки, но для проверки любой выборки требуется всего два прямых прохода: один для вычисления верхних границ, а другой для нижних.С другой стороны, исчерпывающая проверка требует на несколько порядков больше проходов вперед, и существует хвост выборок с чрезвычайно большими пространствами атаки.Как показано на рисунках FigREF31 и FigREF36, хотя IBP теоретически может проверять произвольные сети, граница проверки очень слабая, за исключением моделей, обученных для проверки с помощью IBP.Одной из возможных причин является потенциально большой объем симплекса возмущений.Поскольку представления слов/символов замены не обязательно близки к представлениям синонимов/опечаток в пространстве внедрения, вершины симплекса могут находиться далеко друг от друга и, таким образом, охватывать большую область в пространстве представления.Следовательно, при распространении границ интервалов по сети они становятся слишком рыхлыми и не позволяют проверить большинство примеров, если модели не обучены специально.Чтобы проверить эту гипотезу, мы следуем BIBREF38 и используем точно настроенные встраивания GloVe, обученные учитывать лингвистические ограничения; эти представления (так называемые встраивания с встречным соответствием) заставляют синонимы быть ближе, а антонимы - дальше друг от друга, используя пары слов из базы данных PPDB BIBREF36 и WordNet BIBREF39.Мы повторяем эксперименты на уровне слов с этими встречными вложениями. На рисунках FigREF36 и FigREF36 показаны экспериментальные результаты.Мы видим, что точность проверки IBP теперь значительно выше для всех моделей, особенно для $\delta =1, 2, 3$.Количество примеров, которые IBP может проверить, увеличивается до 33,2% при использовании встречных вложений (обычное обучение, $\delta =1$).Более того, состязательная и тщательно проверенная точность также улучшается за счет небольшого ухудшения номинальной точности испытаний.Модель, обученная IBP, также повышает точность как оракула, так и точность, подтвержденную IBP.Эти результаты подтверждают нашу гипотезу о том, что уменьшение объема симплекса с помощью мягких лингвистических ограничений может обеспечить еще более жесткие границы для IBP, что приведет к увеличению доли проверяемых выборок.Наши эксперименты показывают, что состязательные атаки не всегда являются наихудшими состязательными действиями, которые можно выявить только посредством проверки.С другой стороны, исчерпывающая проверка требует очень больших вычислительных затрат.Наши результаты показывают, что использование предложенных симплексных границ с IBP может проверить значительное количество тестовых образцов и может считаться мощным методом проверки в контексте НЛП.Однако мы отмечаем два ограничения в рамках данной работы: i) ограниченная глубина модели: мы исследовали только модели с небольшим количеством слоев.Границы IBP, вероятно, станут менее строгими по мере увеличения количества слоев.ii) ограниченные типы моделей: мы изучали только модели с CNN и полностью связанными слоями.Мы сосредоточились на атаке HotFlip, чтобы продемонстрировать проверку спецификации в контексте НЛП, с целью понять факторы, влияющие на ее эффективность (например, объем пространства возмущений, см. раздел SECREF50).Стоит отметить, что подмена символов является достаточно общей, чтобы охватить другие модели угроз, такие как лексические нарушения BIBREF40, и потенциально может быть расширена за счет добавления пре/постфиксов BIBREF2, BIBREF41. Интересные направления будущей работы включают в себя: ужесточение границ IBP, чтобы позволить применимость к более глубоким моделям, исследование связанного распространения в других типах нейронных архитектур (например, основанных на рекуррентных сетях или самообслуживании) и изучение других форм спецификаций в НЛП. Мы ввели формальную проверку моделей классификации текста на предмет синонимов и возмущений переворота символов. .С помощью экспериментов мы продемонстрировали эффективность предложенных симплексных границ с IBP как во время обучения, так и во время тестирования, а также обнаружили недостатки состязательного обучения по сравнению с исчерпывающей проверкой.Проверяемо обученные модели достигают высочайшей точности исчерпывающей проверки на SST и AG News.IBP проверяет модели за постоянное время, что экспоненциально более эффективно, чем простая проверка посредством исчерпывающего поиска. | Нейронные сети являются частью многих современных систем НЛП, однако их эмпирический успех достигается за счет уязвимости к состязательным атакам. В предыдущей работе для частичного смягчения такой хрупкости использовалось состязательное обучение и увеличение данных, но они вряд ли смогут найти злоумышленников в худшем случае из-за сложности пространства поиска, возникающей из-за дискретных текстовых возмущений. В этой работе мы подходим к проблеме с противоположной стороны: формально проверять устойчивость системы к заранее определенному классу состязательных атак. Мы изучаем классификацию текста при замене синонимов или изменениях переворота символов. Мы предлагаем моделировать эти входные возмущения как симплекс, а затем использовать интервальное распространение — формальный метод проверки модели. Мы модифицируем традиционную цель обучения логарифмическому правдоподобию, чтобы обучать модели, которые можно эффективно проверить, что в противном случае привело бы к экспоненциальной сложности поиска. Полученные модели показывают лишь небольшую разницу с точки зрения номинальной точности, но имеют значительно улучшенную проверенную точность при возмущениях и имеют эффективно вычислимую формальную гарантию для противников в худшем случае. | 5,071 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Смотри, читай и обогащай – учимся на научных рисунках и их подписях. Научное знание неоднородно и может представляться во многих формах, включая текст, математические уравнения, рисунки и таблицы.Как и многие другие проявления человеческой мысли, научный дискурс обычно принимает форму повествования, научной публикации, в которой соответствующие знания представлены взаимодополняющими способами в различных модальностях.В случае научных рисунков, таких как диаграммы, изображения и диаграммы, они обычно сопровождаются текстовым абзацем, подписью, в которой подробно излагается анализ, представленный в противном случае визуально.В этой статье мы используем это наблюдение и задействуем потенциал обучения из огромного источника бесплатного наблюдения, доступного в научной литературе с миллионами рисунков и подписей к ним.Мы создаем модели, которые учатся на основе научного дискурса как визуально, так и текстуально, просто глядя на рисунки и читая пояснительные подписи, вдохновленные тем, как люди учатся, читая научные публикации.С этой целью мы исследуем, как мультимодальные научные знания можно извлечь из соответствия между рисунками и подписями.Основные достижения этой статьи заключаются в следующем: Задача соответствия рисунков и подписей без присмотра (FCC), которая совместно изучает текстовые и визуальные функции, полезные для решения ряда задач, связанных с научным текстом и рисунками.Метод обогащения таких функций семантическими знаниями, переданными из структурированных графов знаний (KG). Исследование сложности соответствия рисунка и подписи по сравнению с классическим сопоставлением изображения и предложения.Качественный и количественный анализ изученного текста и визуальных особенностей посредством задач трансферного обучения.Корпус научных рисунков и подписей, взятый из SN SciGraph и AI2 Semantic Scholar.В разделе SECREF3 мы представляем задачу FCC, включая сетевую архитектуру, протокол обучения и то, как добавление предварительно обученных словесных и семантических вложений может обогатить результирующие текстовые и визуальные функции.В разделе SECREF4 мы впервые представляем наши наборы данных и оцениваем эффективность нашего метода в задаче, для решения которой он был обучен, соответствие научных цифр и подписей.Затем мы соотносим нашу работу с современными достижениями в области сопоставления изображений и предложений и оцениваем наш подход в двух сложных задачах трансферного обучения: классификации подписей и рисунков и многомодальном машинном понимании.В разделе SECREF5 мы проводим качественное исследование, которое иллюстрирует, как задача FCC приводит к детальному распознаванию текста и визуального восприятия.Наконец, в разделе SECREF6 мы завершаем работу и продвигаем будущую работу.Понимание естественных изображений было основной областью исследований в области компьютерного зрения с хорошо зарекомендовавшими себя наборами данных, такими как ImageNet BIBREF0, Flickr8K BIBREF1, Flickr30K BIBREF2 и COCO BIBREF3.Однако рассуждения с использованием других визуальных представлений, таких как научные рисунки и диаграммы, пока не получили такого же внимания и влекут за собой дополнительные проблемы: научные рисунки более абстрактны и символичны, их подписи, как правило, значительно длиннее и используют специальную лексику, а связь между научными рисунок и его подпись уникальны, т.е. в научной публикации имеется только одна подпись, соответствующая одному рисунку, и наоборот.Представленная здесь задача FCC представляет собой форму совместного обучения BIBREF4, где существует два представления данных, и каждое представление предоставляет дополнительную информацию.Подобные двухветвевые нейронные архитектуры ориентированы на сопоставление изображений и предложений BIBREF5, BIBREF6 и аудио-видео BIBREF7.Другие, такие как BIBREF8, изучают общие вложения из изображений и текста.Однако в таких случаях одна или обе сети обычно предварительно обучаются.Ориентированный на геометрию, BIBREF9 максимизирует согласованность между текстовыми и визуальными данными.В BIBREF10 авторы применяют машинное зрение и обработку естественного языка для извлечения данных из рисунков и связанного с ними текста в задачах биокурирования.В BIBREF11 они анализируют компоненты и соединители диаграммы как граф анализа диаграммы (DPG), семантически интерпретируют DPG и используют модель для ответа на вопросы диаграммы.Хотя мы полагаемся на соответствие между рисунками и подписями, они обучают конкретный классификатор для каждого компонента и типа разъема, а также еще одну модель для обоснования семантики DPG в каждой области, например, в пищевых сетях или водном цикле.Подходы к объединению знаний, такие как BIBREF12, исследуют потенциал дополнения вложений KG текстом и естественными изображениями путем интеграции информации по трем модальностям в одном скрытом представлении.Они предполагают, что предварительно обученные представления сущностей существуют в каждой отдельной модальности, например. визуальные признаки, кодирующие изображение шара, встраивания слов, связанные с токеном «шар», и встраивания KG, относящиеся к объекту «шар», которые затем сшиваются вместе.Напротив, FCC совместно обучает текстовые и визуальные особенности рисунков и их подписей и поддерживает обогащение таких функций лексическими и семантическими знаниями, переданными от детского сада во время обучения задаче FCC.Основная идея нашего подхода состоит в том, чтобы изучить задачу соответствия между научными фигурами и их подписями в том виде, в каком они появляются в научной публикации.Информация, содержащаяся в подписи, объясняет соответствующий рисунок на естественном языке, помогая определить ключевые особенности рисунка и наоборот.Увидев рисунок и прочитав текстовое описание в его подписи, мы в конечном итоге стремимся изучить представления, которые отражают, например, что означает, что два сюжета похожи или как выглядит гравитация.Мы используем это наблюдение, чтобы изучить задачу соответствия рисунков и подписей.По сути, FCC — это задача двоичной классификации, которая получает рисунок и подпись и определяет, совпадают они или нет.Для обучения позитивными парами служат реальные рисунки и подписи к ним из сборника научных публикаций.Отрицательные пары извлекаются из комбинаций рисунков и любых других случайно выбранных подписей.Затем сеть запускается для изучения текстовых и визуальных функций с нуля, без дополнительных помеченных данных.Мы предлагаем двухветвевую нейронную архитектуру (рисунок FigREF7), которая состоит из трех основных частей: зрительной и языковой подсетей, извлекающих соответственно визуальные и текстовые функции, и объединенной подсети, которая берет результирующие функции из визуальных и текстовых блоков и использует их для оценить соответствие рисунков и подписей.Подсеть Vision соответствует дизайну BIBREF13 в стиле VGG со сверточными фильтрами 3x3, слоями максимального пула 2x2 с шагом 2 и без заполнения.Он содержит 4 блока слоев conv+conv+pool, где внутри каждого блока два сверточных слоя имеют одинаковое количество фильтров, а последовательные блоки имеют удвоенное количество фильтров (64, 128, 256, 512).Входной слой получает изображения размером 224x224x3.Последний слой создает вектор размером 512D после максимального объединения 28x28.За каждым сверточным слоем следуют слои пакетной нормализации BIBREF14 и ReLU.На основе BIBREF15 языковая подсеть имеет 3 сверточных блока, каждый с 512 фильтрами и размером окна из 5 элементов с активацией ReLU.За каждым сверточным слоем следует слой объединения с 5 максимумами, за исключением последнего слоя, который создает вектор размером 512D после объединения с 35 максимумами.Языковая подсеть имеет на входе слой встраивания объемом 300 D с максимальной длиной последовательности 1000 токенов.Подсеть слияния вычисляет поэлементное произведение векторов визуальных и текстовых признаков 512D в один вектор $r$ для получения выходных данных двусторонней классификации (соответствует или нет).Он имеет два полностью связанных слоя с ReLU и промежуточным размером объекта 128-D. Вероятность каждого выбора равна softmax $r$, т. е. $\hat{y} = softmax(r) \in \mathbb {R}^{2}$. Во время обучения мы минимизируем отрицательный логарифм вероятности правильного выбора.Такая архитектура позволяет задаче FCC изучать визуальные и текстовые функции с нуля совершенно бесконтрольно, просто наблюдая за соответствием рисунков и подписей.Далее мы расширяем его, чтобы обеспечить возможность передачи дополнительной предварительно обученной информации.Здесь мы сосредотачиваемся на добавлении предварительно обученных внедрений в языковую ветвь, а затем возвращаемся к визуальным функциям во время обучения FCC.Добавление предварительно обученных визуальных функций также возможно, и мы также оцениваем его влияние на задачу FCC в разделе SECREF14. Пусть $V$ — словарь слов из набора документов $D$. Пусть также $L$ — их леммы, т.е. базовые формы без морфологических и сопряженных вариаций, а $C$ — понятия (или смыслы) в КГ.Каждое слово $w_k$ в $V$, например made, имеет одну лемму $l_k$ (сделать) и может быть связана с одним или несколькими понятиями $c_k$ в $C$ (создать или произвести что-то). Для каждого слова $w_k$ задача FCC изучает d-D вложение $\ vec{w}_k$, который можно комбинировать с предварительно обученным словом ($\vec{w^{\prime }}_k$), леммой ($\vec{l}_k$) и концепцией ($\vec{ c}_k$) вложения для создания одного вектора $\vec{t}_k$.Если предварительно обученные знания не передаются из внешнего источника, то $\vec{t}_k=\vec{w}_k$. Обратите внимание, что ранее мы лемматизировали и устраняли неоднозначность $D$ относительно KG, чтобы выбрать правильную предварительно обученную лемму и вложения понятий для каждого конкретного случая $w_k$. Уравнение DISPLAY_FORM8 показывает различные комбинации изученных и предварительно обученных векторных представлений, которые мы рассматриваем: (а) только изученные векторные представления слов, (б) изученные и предварительно обученные векторные представления слов и (в) изученные векторные представления слов и предварительно обученные семантические векторные представления, включая оба леммы и концепции, в соответствии с нашими недавними выводами, представленными в BIBREF16. В наших экспериментах конкатенация оказалась оптимальной для объединения вложений, полученных сетью, и предварительно обученных вложений по сравнению с другими методами, такими как суммирование, умножение, усреднение или обучение задаче. -специфическое взвешивание различных представлений, как в BIBREF17.Поскольку некоторые слова могут не иметь связанных с ними заранее обученных слов, лемм или вложений понятий, мы дополняем эти последовательности $\varnothing _W$, $\varnothing _L$ и $\varnothing _C$, которые никогда не включаются в словарь.Размерность $\vec{t}_k$ фиксирована и равна 300, т.е. размер каждого подвектора в конфигурациях $(a)$, $(b)$ и $(c)$ равен 300, 150 и 100, соответственно.При этом мы стремились ограничить количество обучаемых параметров и сбалансировать вклад каждого источника информации.В своей самой базовой форме, то есть конфигурации $(a)$, сеть FCC имеет более 32 миллионов обучаемых параметров (28 миллионов в языковой подсети, 4 миллиона в подсети зрения и 135 тысяч в подсети слияния), и для обучения на одном Графический процессор Nvidia GeForce RTX 2080 Ti для относительно небольшого корпуса (SN SciGraph, см. раздел SECREF12).Мы использовали 10-кратную перекрестную проверку, оптимизацию Адама BIBREF18 со скоростью обучения $10^{-4}$ и снижением веса $10^{-5}$. Сеть была реализована в Keras и TensorFlow с размером пакета 32.Количество положительных и отрицательных случаев внутри партий сбалансировано.Мы используем HolE BIBREF19 и Vecsigrafo BIBREF16 для изучения семантических вложений.Последний расширяет алгоритм Swivel BIBREF20 для совместного изучения вложений слов, лемм и понятий в корпусе, устраненном по сравнению с KG, превосходя предыдущий уровень техники в встраиваниях слов и смыслов за счет совместного обучения встраивания слов, лемм и понятий, а не встраивания понятий. тренировать каждого индивидуально.В отличие от Vecsigrafo, для которого требуется как текстовый корпус, так и KG, HolE следует графическому подходу, при котором встраивания изучаются исключительно из KG.Как будет показано в разделе SECREF14, это дает Vecsigrafo определенное преимущество в задаче FCC.В продолжение работы, представленной в BIBREF16, наши эксперименты сосредоточены на Sensigrafo, KG, лежащей в основе собственной платформы Cogito NLP Expert System.Подобно WordNet, на котором Vecsigrafo также успешно прошел обучение, Sensigrafo представляет собой базу данных общего назначения с лексической и семантической информацией, которая содержит более 300 тысяч понятий, 400 тысяч лемм и 80 типов отношений, отображающих 3 миллиона ссылок.Мы используем Cogito для устранения неоднозначности в текстовых корпусах перед обучением Vecsigrafo.Все семантические (леммы и концепции) внедрения, созданные с помощью HolE или Vecsigrafo, являются 100-D. В этом разделе сначала мы оцениваем фактическую задачу FCC по двум контролируемым базовым показателям.Затем мы помещаем нашу работу в более общую проблему сопоставления изображения и предложения, демонстрируя эмпирические доказательства дополнительной сложности, связанной с научной областью и случаем подписи к рисункам по сравнению с естественными изображениями.Затем мы тестируем визуальные и текстовые функции, изученные в задаче FCC, в двух различных условиях трансферного обучения: классификация научных рисунков и подписей и многомодальное машинное понимание для ответа на вопросы в контексте текста, рисунков и изображений.Для обучения и оценки мы использовали следующие наборы данных: Корпус Semantic Scholar BIBREF21 (SemScholar) представляет собой большой набор данных научных публикаций, предоставленных AI2.Из 39 миллионов статей мы загрузили 3,3 миллиона PDF-файлов (остальные находились за платным доступом, не имели ссылок или были неработающими) и извлекли 12,5 миллионов рисунков и подписей с помощью PDFFigures2 BIBREF22.Мы случайным образом выбрали 500 тысяч статей для обучения задаче FCC по их рисункам и подписям и еще 500 тысяч для обучения Vecsigrafo по тексту их заголовков и аннотаций.SciGraph Springer Nature содержит 7 миллионов научных публикаций, сгруппированных по 22 научным областям или категориям.Поскольку SciGraph не предоставляет ссылку на PDF-файл публикации, мы выбрали пересечение с SemScholar, создав меньший корпус из 80 тыс. статей (в дополнение к 1 млн статей из SemScholar, упомянутых выше) и 82 тыс. рисунков, которые мы использовали для обучения некоторых FCC. конфигурации и контролируемые базовые показатели (раздел SECREF14). Корпус ответов на вопросы учебника BIBREF23 включает 1076 уроков и 26 260 мультимодальных тестовых вопросов из учебных программ по естественным наукам средней школы.Его сложность и масштаб делают его сложным текстовым и визуальным набором данных для ответов на вопросы.Википедия.Мы использовали набор данных английской Википедии за январь 2018 года в качестве одного из корпусов для обучения Vecsigrafo.В отличие от SciGraph или SemScholar, специфичных для научной области, Википедия является источником информации общего назначения.Flickr30K и COCO в качестве тестов на сопоставление изображений и предложений.Мы оцениваем наш метод в той задаче, для решения которой он был обучен: определение соответствия рисунка и подписи.Мы также сравниваем производительность задачи FCC с двумя контролируемыми базовыми показателями, обучая их выполнению задачи классификации по таксономии SciGraph.Для таких базовых показателей мы сначала тренируем зрительную и языковую сети независимо, а затем объединяем их.Части извлечения признаков в обеих сетях такие же, как описано в разделе SECREF6.Поверх них мы прикрепляем полносвязный слой со 128 нейронами и активацией ReLU и слой softmax с количеством нейронов, соответствующим целевым классам.Базовая линия прямой комбинации вычисляет соответствие рисунка и подписи посредством скалярного произведения между выходными данными softmax обеих сетей.Если он превышает порог, который мы эвристически зафиксировали на уровне 0,325, результат положительный.Контролируемая базовая линия предварительного обучения фиксирует веса магистралей извлечения признаков из двух обученных сетей, собирает их в архитектуру FCC, как показано в разделе SECREF6, и обучает задачу FCC на полностью связанных уровнях.В то время как прямое сочетание дает представление о соглашении между двумя ветвями, контролируемое предварительное обучение является наиболее похожим на наш метод контролируемым подходом.В таблице TABREF15 показаны результаты задачи FCC и контролируемые базовые показатели.$FCC_k$ обозначает корпус и словесное представление, используемые для обучения задаче FCC.Acc$_{vgg}$ показывает точность после замены нашей визуальной ветки предварительно обученными функциями VGG16, полученными в ImageNet.Это дает оценку того, насколько специфичными могут быть научные фигуры в научной области и, следовательно, полученные визуальные особенности по сравнению с естественными изображениями.Как видно из таблицы, результаты, полученные с использованием предварительно обученных визуальных признаков, в целом явно хуже (лишь немного лучше в $FCC_3$), что позволяет предположить, что визуальная информация, содержащаяся в научных рисунках, действительно отличается от естественных изображений.Мы обучили сеть FCC на двух разных научных корпусах: SciGraph ($FCC_{1-5}$) и SemScholar ($FCC_{6-7}$).И $FCC_1$, и $FCC_6$ выучили свои собственные представления слов без передачи каких-либо предварительно обученных знаний.Даже в самой базовой форме наш подход существенно превосходит контролируемые базовые уровни, подтверждая, что визуальная и языковая ветви учатся друг у друга, а также то, что соответствие рисунков и подписей является эффективным источником бесплатного контроля.Добавление предварительно обученных знаний на входной уровень языковой подсети обеспечивает дополнительный импульс, особенно с помощью встраивания лемм и концепций от Vecsigrafo ($FCC_5$).Vecsigrafo явно превзошел HolE ($FCC_3$), который также был побит предварительно обученными встраиваниями слов fastText BIBREF24 ($FCC_2$), обученными на SemScholar.Поскольку подходы к внедрению KG на основе графов, такие как HolE, генерируют только встраивания артефактов, явно содержащихся в KG, это может указывать на то, что Sensigrafo, KG, используемый в этой задаче, обеспечивает частичный охват научной области, как и следовало ожидать, поскольку мы используя готовую версию.Более глубокое изучение показывает, что HolE покрывает только 20% лемм словаря SciGraph.С другой стороны, Vecsigrafo, обученный на том же KG, также извлекает лексическую информацию из текстовых корпусов, на которых он обучается, Wikipedia или SemScholar, повышая охват лемм до 42% и 47% соответственно.Хотя размер Википедии почти в три раза превышает размер нашего корпуса SemScholar, обучение Vecsigrafo последнему привело к более высокой точности FCC ($FCC_4$ по сравнению с $FCC_5$), предполагая, что релевантность предметной области более значительна, чем чистый объем, в соответствии с нашим предыдущим выводы в BIBREF25.Обучение FCC на SemScholar, намного большем, чем SciGraph, еще больше повышает точность, как показано в $FCC_6$ и $FCC_7$. Мы ставим нашу задачу FCC в контекст более общей проблемы сопоставления изображения и предложения посредством задачи двунаправленного поиска, где изображения ищутся по текстовому запросу и наоборот.В то время как таблица TABREF20 фокусируется на наборах данных естественных изображений (Flickr30K и COCO), таблица TABREF21 показывает результаты на наборах научных данных (SciGraph и SemScholar), богатых научными рисунками и диаграммами.Выбранные базовые показатели (Embedding network, 2WayNet, VSE++ и DSVE-loc) сообщают о результатах, полученных на наборах данных Flickr30K и COCO, которые мы также включаем в таблицу TABREF20.Производительность измеряется при отзыве при k ($Rk$), где k={1,5,10}.На основе базовых показателей мы успешно воспроизвели DSVE-loc, используя код, предоставленный авторами, и обучили его на SciGraph и SemScholar.Мы обучили задачу FCC на всех наборах данных, как совершенно неконтролируемым способом, так и с предварительно обученными семантическими внедрениями (обозначенными индексом $vec$), и выполнили задачу двунаправленного поиска, используя полученные текстовые и визуальные функции.Мы также экспериментировали с предварительно обученными визуальными функциями VGG16, извлеченными из ImageNet (индекс $vgg$), с более чем 14 миллионами изображений, аннотированных вручную.Следуя общепринятой практике сопоставления изображений и предложений, мы разбиваем 1000 образцов для тестирования, а остальные — для обучения.Мы можем видеть заметное разделение между результатами, полученными на наборах данных естественных изображений (таблица TABREF20) и результатами, ориентированными на научных деятелей (таблица TABREF21).В первом случае VSE++ и DSVE-loc явно превосходят все остальные подходы.Напротив, наша модель плохо работает с такими наборами данных, хотя результаты улучшаются, когда мы используем предварительно обученные визуальные функции из ImageNet («Oursvgg» и «Oursvgg-vec»).Интересно, что ситуация меняется с наборами научных данных.Хотя запоминаемость DSVE-loc резко падает в SciGraph и еще больше в SemScholar, наш подход демонстрирует противоположное поведение как при поиске рисунков, так и при поиске подписей.Использование визуальных функций, обогащенных предварительно обученными семантическими внедрениями из Vecsigrafo, во время обучения задаче FCC, еще больше улучшает отзыв в задаче двунаправленного поиска.По сравнению с естественными изображениями, по-видимому, в этом отношении явное влияние оказывает дополнительная сложность научных рисунков и текстов их подписей, которые, кроме того, значительно длиннее (см. таблицу TABREF19).В отличие от Flickr30K и COCO, замена визуальных функций FCC предварительно обученными из ImageNet приносит нам мало пользы в SciGraph и еще меньше в SemScholar, где комбинация FCC и Vecsigrafo («Oursvec») дает наилучшие результаты по всем направлениям.Это, а также чрезвычайно низкая эффективность базовой линии наилучшего сопоставления изображений и предложений (DSVE-loc) в наборах научных данных свидетельствует о том, что работать с научными цифрами значительно сложнее, чем с естественными изображениями.Действительно, лучшие результаты в сопоставлении рисунков и подписей («Oursvec» в SemScholar) все еще далеки от SoA в сопоставлении изображений и предложений (DSVE-loc в COCO). Мы оцениваем языковые и визуальные представления, возникающие из FCC, в контексте две классификационные задачи, целью которых является определение научной области, к которой принадлежит произвольный текстовый фрагмент (подпись) или рисунок, согласно таксономии SciGraph.Последнее представляет собой особенно сложную задачу из-за причудливого характера фигур, которые появляются в нашем корпусе: расположение рисунков и диаграмм произвольное; графики, например гистограммы и круговые диаграммы используются для демонстрации данных в любой области, от здравоохранения до техники; фигуры и природные образы предстают нечетко и т. д.Также обратите внимание, что мы опираемся только на реальную цифру, а не на фрагмент текста, где она упоминается в статье.Мы выбираем текстовые и визуальные функции, которые дали наилучшие результаты FCC с предварительно обученными семантическими внедрениями и без них (таблицы TABREF15, $FCC_7$ и $FCC_6$ соответственно) и используем подсети языка и визуального представления, представленные в разделе SECREF6, для обучения наших классификаторов. на SciGraph в двух разных сценариях.Во-первых, мы только точно настраиваем полностью связанные слои и слои softmax, замораживая текст и визуальные веса (необучаемые в таблице).Во-вторых, мы точно настраиваем все параметры в обеих сетях (обучаемые).В обоих случаях мы сравниваем с базовым уровнем, используя те же сети, инициализированные случайными весами, без обучения FCC.При этом в первом, необучаемом сценарии мы стремимся количественно оценить информацию, предоставляемую функциями FCC, в то время как обучение с нуля на целевом корпусе должно обеспечить верхнюю границу классификации рисунков и подписей.Кроме того, для классификации фигур мы выбираем базовый уровень замороженных весов VGG16, обученных на ImageNet.Мы тренируемся, используя 10-кратную перекрестную проверку и Адама.Для задачи классификации подписей мы выбираем скорость обучения $10^{-3}$ и размер пакета 128.При классификации фигур мы используем скорость обучения $10^{-4}$, снижение веса $10^{-5}$ и размер пакета 32. Результаты в таблице TABREF23 показывают, что наш подход значительно превосходит базовые показатели, включая верхнюю границу (обучение с нуля на SciGraph).Дельта особенно заметна в необучаемом случае для классификации как подписей, так и рисунков, и значительно увеличивается в «Нашем $FCC_7$», который использует предварительно обученные семантические внедрения.Это включает в себя как случайные, так и VGG базовые линии и еще раз иллюстрирует дополнительную сложность анализа научных цифр по сравнению с естественными изображениями, даже если последние обучаются на значительно большем корпусе, таком как ImageNet.Точная настройка целых сетей в SciGraph еще больше повышает точность.В этом случае «Наш $FCC_6$», который использует функции FCC без дополнительных предварительно обученных внедрений, немного превосходит «Наш $FCC_7$», предполагая больший запас для обучения на основе корпуса для конкретных задач.Обратите внимание, что $FCC_6$ и $FCC_7$ прошли обучение в SemScholar.Мы используем набор данных TQA и базовые показатели в BIBREF23 для оценки функций, полученных в результате выполнения задачи FCC, в сценарии мультимодального машинного понимания.Мы изучаем, как наша модель, которая изначально не была обучена для этой задачи, работает по сравнению с современными моделями, специально обученными для ответов на вопросы в виде диаграмм и понимания прочитанного текста в очень сложном наборе данных.Мы также изучаем, как предварительно обученные семантические внедрения влияют на задачу TQA: сначала путем обогащения визуальных функций, изученных в задаче FCC, как показано в разделе SECREF6, а затем с помощью предварительно обученных семантических внедрений для обогащения представлений слов в корпусе TQA.Мы фокусируемся на вопросах с несколькими вариантами ответов, 73% набора данных.В таблице TABREF24 показана эффективность нашей модели по сравнению с результатами, представленными в BIBREF23, для пяти базовых показателей TQA: случайный, BiDAF (ориентированный на машинное понимание текста), только текст ($TQA_1$, на основе MemoryNet), текст+изображение ($TQA_2$, VQA) и текст+диаграммы ($TQA_3$, DSDP-NET).Мы успешно воспроизвели архитектуры $TQA_1$ и $TQA_2$ и адаптировали последнюю.Затем мы заменили визуальные функции в $TQA_2$ на те, которые были изучены визуальной подсетью FCC, как совершенно неконтролируемым способом ($FCC_6$ в таблице TABREF15), так и предварительно обученными семантическими внедрениями ($FCC_7$), что привело к $TQA_4. $ и $TQA_5$ соответственно.В то время как $TQA_{1-5}$ вообще не использовал предварительно обученные внедрения, $TQA_{6-10}$ обучались, включая предварительно обученные семантические внедрения Vecsigrafo.В отличие от FCC, где мы использовали конкатенацию для объединения предварительно обученных внедрений лемм и понятий с векторными представлениями слов, изученными в ходе задачи, поэлементное сложение работало лучше всего в случае TQA. Следуя рекомендациям BIBREF23, мы предварительно обработали корпус TQA. i) учитывать знания из предыдущих уроков учебника в дополнение к уроку, посвященному рассматриваемому вопросу, и ii) решать такие задачи, как длинные контексты вопросов с большим словарным запасом.Как в тексте, так и в диаграмме MC, благодаря применению принципа Парето для уменьшения максимальной длины последовательности токенов в тексте каждого вопроса, их ответы и контекст значительно повысили точность.Эта оптимизация позволила сократить объем текста, который необходимо учитывать для каждого вопроса, улучшив соотношение сигнал/шум.Наконец, мы получили наиболее релевантные абзацы для каждого вопроса с помощью tf-idf и обучили модели, используя 10-кратную перекрестную проверку Адама, скорость обучения $10^{-2}$ и размер пакета 128.В текстовом MC мы также использовали отсев 0,5 и повторяющийся отсев в слоях LSTM.Умещая мультимодальные источники в единую память, использование визуальных функций FCC явно превосходит все базовые показатели TQA на диаграмме MC.Улучшение представления слов с помощью предварительно обученных семантических вложений во время обучения задаче TQA обеспечивает дополнительный импульс, который приводит к высочайшей точности как для текстового MC, так и для диаграммного MC.Это очень хорошие результаты, поскольку, по мнению авторов TQA BIBREF23, большинство вопросов по диаграммам в корпусе TQA обычно требуют специального подробного анализа диаграмм, который мы не стремились предоставить.Мы проверяем функции, полученные в результате выполнения задания FCC, чтобы глубже понять синтаксические и семантические шаблоны, используемые для представления рисунков и подписей.Представленные здесь результаты качественно согласуются для всех вариантов FCC в таблице TABREF15.Vision Features.Анализ проводился на неограниченном разнообразии диаграмм, диаграмм и естественных изображений из SciGraph без фильтрации по типу рисунков или научной области.Чтобы получить репрезентативную выборку того, что изучает сеть FCC, мы фокусируемся на векторе 512-D, полученном в результате последнего сверточного блока перед подсетью слияния.Мы выбираем функции с наиболее значительной активацией во всем наборе данных и выбираем цифры, которые активируют их больше всего.С этой целью мы отдаем предпочтение тем, у кого более высокая максимальная активация, а не средней активации.На рисунке FigREF27 показана подборка из 6 визуальных функций с 4 фигурами, которые более значимо активируют каждую функцию, а также тепловыми картами их активации.В качестве входных данных используются только цифры, а не текст.Как можно видеть, зрительная подсеть автоматически, без явного контроля, научилась распознавать различные типы диаграмм, диаграмм и контента, такие как (слева направо) диаграммы с усами, вестерн-блоттинг (метод, используемый для идентификации белков в тканях). образец), диаграммы сравнения нескольких изображений, мультимодальные диаграммы визуализации данных (например, западные графики и гистограммы), линейные графики и текст на рисунках.Кроме того, как показывают тепловые карты, наша модель различает ключевые элементы, связанные с фигурами, которые наиболее активируют каждую функцию: фактические усы, пятна, границы каждого сравниваемого изображения, пятна и дополняющие их гистограммы, а также линейные графики и соответствие между ними и значениями по осям x и y.Также посмотрите (самый правый столбец), как признак различает текст, вставленный в рисунок, независимо от остальных элементов, которые могут появиться, и связей между ними.Это свидетельствует о том, как визуальные особенности, полученные в результате выполнения задачи FCC, помогают анализировать сложные научные диаграммы.Мы также оценили понятие семантической специфики, основанное на понятиях КГ.Для каждой визуальной особенности мы собрали подписи к рисункам, которые больше всего ее активируют, и использовали Cogito, чтобы устранить неоднозначность понятий Sensigrafo, которые появляются в них.Затем мы оценили, насколько важна каждая концепция для каждой функции, рассчитав ее tf-idf.Наконец, мы усреднили полученные значения, чтобы получить сводный показатель семантической специфичности для каждого признака.Оценки функций на рисунке FigREF27 варьируются от 0,42 до 0,65, что постоянно выше среднего значения (0,4).По-видимому, это указывает на корреляцию между активацией и семантической спецификой каждого зрительного признака.Например, тепловые карты рисунков, связанных с объектом с наименьшим значением tf-idf (крайний левый столбец), выделяют конкретный визуальный шаблон, то есть «усы», которые могут распространяться на множество, возможно, несвязанных доменов.С другой стороны, функция с наивысшим баллом (второй столбец) фокусируется на типе диаграмм, вестерн-блоттинге, почти исключающем белковые и генетические исследования.Другие, такие как функция, проиллюстрированная рисунками в пятом столбце, отражают семантику определенного типа двумерных диаграмм, связывающих две величины x и y. Анализируя их подписи с помощью Cogito, мы видим, что такие понятия, как, например, упоминаются изохронные и экспоненциальные функции.Если мы посмотрим на вторую и четыре верхние цифры в столбце, то увидим, что такие понятия также визуально изображены на рисунках, что позволяет предположить, что задача FCC научилась распознавать их как по тексту, так и визуально.Текстовые особенности.Как и в визуальном случае, мы выбрали функции из последнего блока языковой подсети с наибольшей активацией.Для целей визуализации мы выбрали фигуры, соответствующие подписям в SciGraph, которые наиболее активируют такие функции (рисунок FigREF28).Никакая визуальная информация не используется.Из текста вытекает несколько различных закономерностей.Текстовая функция в первом столбце, похоже, сосредоточена на генетике и гистохимии, включая такие термины, как вестерн-блоттинг или иммуноокрашивание, а также их варианты, такие как иммуноблот-с/тед/тинг.Интересно, что он также, похоже, усвоил некоторый тип отношений «есть-а» (вестерн-блоттинг — это разновидность иммуноблота).Вторая особенность фокусируется на вариантах термина «рентгенограмма», например. рентгенограмма-у/с. Третья функция специализируется на тексте, связанном с графиками кривых, включающими несколько статистических анализов, например. ПЦР в реальном времени, однофакторный дисперсионный анализ или распределение Гаусса.Иногда (четвертый рисунок сверху) в подписи не упоминается непосредственно сюжет, а вместо этого основное внимание уделяется анализу, например. «представленные здесь данные представляют собой средние значения повторных экспериментов», что указывает на передачу знаний от визуальной части во время обучения.Четвертая функция извлекает цитаты и модели, названные в честь выдающихся ученых, например. Функция Эванса (первый и четвертый рисунки), Мэнли (1992) (второй) и модель Алиева-Панфилова (третий).Пятая функция извлекает хроматографическую терминологию, например Трехмерный график поверхности, микрофотография или цветная карта и, наконец, крайняя правая функция фокусируется на различных типах именованных диаграмм, таких как блок-схемы и диаграммы состояний, например филогенетические деревья.Все подписи демонстрируют сильное семантическое соответствие связанным с ними рисункам.Рисунок ФИГРЕФ29показаны тепловые карты активации для двух образцов подписей, рассчитанные на уровне внедрения языковой подсети.Верхний соответствует четвертому столбцу слева направо и третьему рисунку сверху вниз на рисунке FigREF28.Подпись к нему гласит: "Модель Алиева-Панфилова с $\alpha =0,01$...Фазовый портрет изображает траектории для различных начальных значений $\varphi _0$ и $r_0$...".Ниже (первый столбец, четвертый рисунок на рисунке FigREF28): «Относительные уровни белка в конъюгатах убиквитин-белок в M. четырехглавой мышце…Репрезентативный иммуноблот, специфичный к убиквитину...".В соответствии с нашим анализом активация фокусируется на наиболее релевантных токенах для каждой текстовой функции: «модель Алиева-Панфилова» и «иммуноблот» соответственно.В научной литературе содержится огромное количество знаний, и лишь часть их представляет собой текст.Однако понимание научных цифр — сложная задача для машин, которая выходит за рамки их способности обрабатывать естественные изображения.В этой статье мы приводим эмпирические доказательства этого и показываем, что совместное обучение текстовых и визуальных функций на основе большого массива научных деятелей и их подписей в задаче по переписке (FCC) является эффективным, гибким и элегантным неконтролируемым средством преодоления такой сложности. .Мы показываем, как такие функции можно существенно улучшить, обогатив их дополнительными источниками знаний и, в частности, структурированными УЗ.Мы доказываем преимущества нашего подхода по сравнению с контролируемыми базовыми показателями и в различных задачах трансферного обучения, включая текстовую и визуальную классификацию и мультимодальное машинное понимание, применяемое для ответов на вопросы, с результатами, как правило, выходящими за рамки современного уровня техники.В будущем будет интересно продолжить изучение взаимодействия между семантическими понятиями, явно представленными в различных KG, контекстуализированных вложениях, например. из SciBERT BIBREF31, а также текстовые и визуальные функции, изученные в задании FCC.Мы также планируем продолжать накапливать знания, собранные в таких функциях, и продолжать оптимизацию и практическое применение нашего подхода.Исследование, представленное в этой статье, поддерживается программой EU Horizon 2020 в рамках грантов European Language Grid-825627 и Co-inform-770302. | По сравнению с естественными изображениями, понимание научных цифр машинам особенно сложно. Однако в научной литературе есть ценный источник информации, до сих пор оставшийся неиспользованным: соответствие рисунка и его подписи. В этой статье мы исследуем, чему можно научиться, глядя на большое количество рисунков и читая их подписи, а также представляем задачу обучения соотнесению рисунков и подписей, в которой используются наши наблюдения. Показано, что обучение визуальных и языковых сетей без присмотра, кроме пар неограниченных рисунков и подписей, успешно решает эту задачу. Мы также показываем, что перенос лексических и семантических знаний из графа знаний значительно обогащает полученные функции. Наконец, мы демонстрируем положительное влияние таких функций в других задачах, связанных с научными текстами и цифрами, таких как мультимодальная классификация и машинное понимание для ответов на вопросы, превосходя контролируемые базовые показатели и специальные подходы. | 5,902 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Улучшение глубокого преобразователя с помощью инициализации с масштабированием по глубине и объединенного внимания. Способность глубоких нейронных моделей обрабатывать сложные зависимости принесла пользу различным задачам искусственного интеллекта, таким как распознавание изображений, где ошибка теста была уменьшена за счет масштабирования сетей VGG BIBREF0 до сотен сверточных слоев BIBREF1.В НЛП сети глубокого самообслуживания позволили крупномасштабным предварительно обученным языковым моделям, таким как BERT BIBREF2 и GPT BIBREF3, повысить современную (SOTA) производительность последующих приложений.Напротив, хотя нейронный машинный перевод (NMT) получил обнадеживающее улучшение при переходе от поверхностной архитектуры BIBREF4 к более глубоким BIBREF5, BIBREF6, BIBREF7, BIBREF8, Transformer BIBREF9, в настоящее время архитектура SOTA, достигает наилучших результатов всего с 6 уровнями кодирования и декодера. , и BIBREF9 не сообщил о каких-либо преимуществах от дальнейшего увеличения глубины стандартных наборов данных.Мы начнем с анализа того, почему Transformer плохо масштабируется до большей глубины модели.Мы обнаружили, что архитектура страдает от исчезновения градиента, как показано на рисунке FigREF2, что приводит к плохой сходимости.Углубленный анализ показывает, что преобразователь не сохраняет нормы из-за участия и взаимодействия между остаточным соединением (RC) BIBREF1 и нормализацией уровня (LN) BIBREF10. Для решения этой проблемы мы предлагаем инициализацию с масштабированием глубины (DS). -Init) для улучшения сохранения норм.Мы приписываем исчезновение градиента большой дисперсии выходного сигнала RC и прибегаем к стратегиям, которые могли бы уменьшить его без корректировки структуры модели.Конкретно, DS-Init уменьшает дисперсию параметров в $l$-м слое с коэффициентом дисконтирования $\frac{1}{\sqrt{l}}$ только на этапе инициализации, где $l$ обозначает глубина слоя, начиная с 1.Интуиция подсказывает, что параметры с небольшой дисперсией в верхних слоях сужают выходную дисперсию соответствующих RC, улучшая сохранение нормы, как показано пунктирными линиями на рисунке FigREF2.Таким образом, DS-Init обеспечивает сходимость глубоких моделей Трансформаторов к удовлетворительным локальным оптимумам.Еще одним узким местом для глубоких преобразователей является увеличение вычислительных затрат как на обучение, так и на декодирование.Чтобы бороться с этим, мы предлагаем объединенную сеть внимания (MATt).MAtt упрощает декодер, заменяя отдельные подуровни самовнимания и внимания кодера-декодера новым подслоем, который сочетает в себе эффективный вариант самовнимания на основе среднего значения (AAN) BIBREF11.и внимание кодера-декодера.Мы упрощаем AAN за счет уменьшения количества линейных преобразований, уменьшая как количество параметров модели, так и вычислительные затраты.Объединенный подуровень выигрывает от параллельного расчета (на основе среднего) внимания к себе и внимания кодера-декодера, а также уменьшает глубину каждого блока декодера.Мы проводим обширные эксперименты с задачами перевода WMT и IWSLT, охватывая пять задач перевода с различными условиями данных и направлениями перевода.Наши результаты показывают, что глубокие трансформаторы с DS-Init и MAtt могут существенно превосходить свои базовые аналоги по показателю BLEU (+1,1 BLEU в среднем для 12-слойных моделей), при этом обеспечивая такую же скорость декодирования, что и базовая модель, благодаря повышению эффективности Мэтт.Наш вклад суммируется следующим образом: Мы анализируем проблему исчезновения градиента в Transformer и определяем взаимодействие остаточных соединений и нормализацию слоев как ее источник.Чтобы решить эту проблему, мы вводим инициализацию с масштабированием по глубине (DS-Init). Чтобы снизить вычислительные затраты на обучение глубоких трансформаторов, мы вводим модель объединенного внимания (MAtt).MAtt объединяет упрощенную модель среднего внимания и внимание кодера-декодера в один подуровень, что позволяет выполнять параллельные вычисления.Мы проводим обширные эксперименты и проверяем, что глубокие трансформаторы с DS-Init и MAtt улучшают качество перевода, сохраняя при этом эффективность декодирования.Наша работа направлена на улучшение качества перевода за счет увеличения глубины модели.По сравнению с одноуровневой системой NMT BIBREF4, глубокие модели NMT обычно более способны обрабатывать сложные языковые вариации и отношения перевода за счет объединения нескольких уровней кодера и декодера BIBREF5, BIBREF6, BIBREF12, BIBREF8 и/или нескольких уровней внимания BIBREF7.Одной из распространенных проблем при обучении моделей глубоких нейронов являются исчезновение или взрыв градиентов.Существующие методы в основном сосредоточены на разработке новых сетевых архитектур для стабилизации обратного распространения градиента, таких как быстрое соединение BIBREF5, линейная ассоциативная единица BIBREF13 или варианты вентилируемой рекуррентной сети BIBREF14, BIBREF15, BIBREF16, BIBREF17.В отличие от вышеупомянутых моделей NMT на основе рекуррентных сетей, недавние работы сосредоточены на альтернативах с прямой связью с более плавным градиентным потоком, таких как сверточные сети BIBREF18 и сети самообслуживания BIBREF9. Трансформатор представляет собой текущую SOTA в NMT.Для сходимости он в значительной степени полагается на комбинацию остаточных соединений BIBREF1 и нормализации уровня BIBREF10.Тем не менее, простое расширение этой модели большим количеством слоев приводит к исчезновению градиента из-за взаимодействия RC и LN (см. Раздел SECREF4).В недавней работе были предложены методы обучения более глубоких моделей Трансформатора, включая перепланирование RC и LN BIBREF19, прозрачную модель внимания BIBREF20.и стохастическая остаточная связь BIBREF21.В отличие от этой работы, мы идентифицируем большую дисперсию выходного сигнала RC как источник исчезновения градиента и используем масштабированную инициализацию, чтобы смягчить ее без какой-либо корректировки структуры.Влияние тщательной инициализации на повышение сходимости также было исследовано и проверено в предыдущих работах BIBREF22, BIBREF23, BIBREF2, BIBREF3. Сеть объединенного внимания попадает в категорию упрощения преобразователя с целью сокращения времени обучения и/или декодирования.Методы повышения эффективности работы Трансформатора варьируются от алгоритмических улучшений BIBREF24, неавторегрессионной трансляции BIBREF25, BIBREF26 до уменьшения зависимости декодирования, например сети среднего внимания BIBREF11 и блочного параллельного декодирования BIBREF27.Наш MAtt основывается на модели AAN, еще больше упрощая модель за счет уменьшения количества линейных преобразований и объединения ее с вниманием кодера-декодера.В параллельной с нашей работе BIBREF28 предлагает усовершенствованный Трансформатор, который на основе автоматического поиска архитектуры также обнаружил параллельную структуру самовнимания и внимания кодера-декодера.Учитывая исходную последовательность $\mathbf {X}=\lbrace x_1, x_2, \ldots , x_n\rbrace \in \mathbb {R}^{n\times d}$, Transformer прогнозирует целевую последовательность $\mathbf {Y }=\lbrace y_1, y_2, \ldots, y_m\rbrace $ в рамках структуры кодировщика-декодера.И кодер, и декодер в Трансформере состоят из сетей внимания, функционирующих следующим образом: где $\mathbf {Z}_x \in \mathbb {R}^{I\times d}$ и $\mathbf {Z}_y \in \mathbb {R}^{J\times d}$ — представления входной последовательности длины $I$ и $J$ соответственно, $\mathbf {W}_*\in \mathbb {R}^{d\times d}$ обозначают весовые параметры.Сеть внимания может быть дополнительно расширена с помощью многоголового внимания BIBREF9. Формально кодер объединяет $L$ идентичных слоев, каждый из которых включает подуровень самообслуживания (уравнение DISPLAY_FORM8) и подуровень поточечной прямой связи (уравнение ). :$\mathbf {H}^l \in \mathbb {R}^{n\times d}$ обозначает представление последовательности $l$-го уровня кодера.Входными данными для первого слоя $\mathbf {H}^0$ является поэлементное сложение исходного слова, встраивающего $\mathbf {X}$, и соответствующего позиционного кодирования.$\textsc {Ffn}(\cdot )$ — двухслойная сеть прямого распространения с большим промежуточным представлением и функцией активации $\text{ReLU}$.Каждый подуровень кодера обертывается остаточным соединением (уравнение DISPLAY_FORM9), за которым следует нормализация слоя (уравнение ): где $\mathbf {z}$ и $\mathbf {z}^\prime $ — входные векторы, а $\ odot $ указывает на поэлементное умножение.$\mu$ и $\sigma$ обозначают статистику среднего и стандартного отклонения вектора $\mathbf{z}$.Нормализованный $\mathbf {z}$ затем масштабируется и центрируется по обучаемым параметрам $\mathbf {g}$ и $\mathbf {b}$ по отдельности.Декодер также состоит из $L$ идентичных слоев, каждый из которых расширяет подуровни кодера подслоем внимания кодировщика-декодера (уравнение ) для фиксации выравнивания перевода от целевых слов к соответствующим исходным словам: $\mathbf {S}^l \ in \mathbb {R}^{m\times d}$ — представление последовательности $l$-го слоя декодера.Входные данные $\mathbf {S}^0$ определяются аналогично $\mathbf {H}^0$. Чтобы обеспечить авторегрессионное декодирование, веса внимания в уравнении. DISPLAY_FORM10 замаскированы, чтобы не обращать внимания на будущие целевые токены.Параметры Трансформатора обычно инициализируются путем выборки из равномерного распределения: где $d_i$ и $d_o$ указывают входное и выходное измерение отдельно.Преимущество этой инициализации заключается в сохранении дисперсии активации и дисперсии обратного распространения градиентов, а также может помочь в обучении глубоких нейронных сетей BIBREF29. Один естественный способ углубить Transformer — просто увеличить номер слоя $L$. К сожалению, рисунок FigREF2 показывает, что это приведет к исчезновению градиента как на кодере, так и на декодере на нижних уровнях, а на стороне декодера ситуация еще хуже.Мы определили структурную проблему в архитектуре Transformer, которая приводит к этой проблеме, а именно взаимодействие RC и LN, которое мы здесь обсудим более подробно.Учитывая входной вектор $\mathbf {z} \in \mathbb {R}^d$, давайте рассмотрим общую структуру RC, за которой следует LN: где $\mathbf {r}, \mathbf {o} \in \mathbb {R}^d$ — промежуточные выходные данные.$f(\cdot )$ представляет собой любую нейронную сеть, такую как рекуррентная, сверточная сеть или сеть внимания и т. д. Предположим, что во время обратного распространения ошибки сигнал ошибки на выходе LN равен $\mathbf {\delta }_o$.Вклады RC и LN в сигнал ошибки следующие: где $\mathbf {\bar{r}}$ обозначает нормализованный входной сигнал.$\mathbf {I}$ — это единичная матрица, а $\text{diag}(\cdot )$ устанавливает диагональную матрицу на основе входных данных.Результирующие $\mathbf {\delta }_r$ и $\mathbf {\delta }_z$ представляют собой сигналы ошибки, поступившие на выходы $\mathbf {r}$ и $\mathbf {z}$ соответственно.Определим изменение сигнала ошибки следующим образом: где $\beta$ (или коэффициент модели), $\beta _{\textsc {Ln}}$ (или коэффициент LN) и $\beta _{\textsc {Rc}} $ (или коэффициент RC) измеряет коэффициент нормы градиента всего остаточного блока, нормализацию слоя и остаточное соединение соответственно.Неформально, нейронная модель должна сохранять норму градиента между слоями ($\beta \около 1$), чтобы обеспечить возможность обучения очень глубоких моделей BIBREF30. Для анализа этих соотношений мы прибегаем к эмпирическим данным.Результаты в таблице TABREF16 показывают, что LN ослабляет сигнал ошибки ($\beta _{\textsc {Ln}} < 1$), а RC усиливает его ($\beta _{\textsc {Rc}} > 1$).Одним из объяснений эффекта затухания LN является большая дисперсия выходного сигнала RC ($\text{Var}(\mathbf {r}) > 1$), которая отрицательно влияет на $\mathbf {\delta }_r$, как показано в уравнении. DISPLAY_FORM13.Напротив, сокращение в RC гарантирует, что сигнал ошибки на более высоком уровне $\mathbf {\delta }_r$ всегда может безопасно передаваться на нижний уровень, независимо от того, насколько сложен $\frac{\partial f}{\partial \mathbf {z}}$ будет таким, как в уравнении. , увеличивая коэффициент.Результаты по соотношению модели показывают, что подуровень самовнимания имеет (почти) возрастающий эффект ($\beta > 1$), который усиливает сигнал ошибки, в то время как подуровень прямой связи демонстрирует уменьшающийся эффект ($\beta < 1$).В частности, хотя подуровень внимания кодера-декодера и подуровень собственного внимания используют одну и ту же формулировку внимания, соотношение моделей первого меньше.Как показано в уравнении и DISPLAY_FORM7, отчасти причина в том, что внимание кодировщика-декодера может распространять градиенты обратно только на нижние уровни через представление запроса $\mathbf {Q}$, минуя градиенты в ключе $\mathbf {K}$ и значении $ \mathbf {V}$ на сторону кодера.Этот отрицательный эффект объясняет, почему декодер страдает от более сильного исчезновения градиента, чем кодировщик на рисунке РИС. 2. Норма градиента сохраняется лучше на уровне самообслуживания, чем на уровне внимания кодер-декодер, что дает представление об успешном обучении глубокого преобразователя. в BERT BIBREF2 и GPT BIBREF3, где внимание кодера-декодера не задействовано.Однако результаты в таблице TABREF16 также позволяют предположить, что подуровень самообслуживания в кодере недостаточно силен, чтобы противодействовать потерям градиента в подуровне прямой связи.Вот почему BERT и GPT используют гораздо меньшее стандартное отклонение (0,02) для инициализации, аналогично нашему решению.Мы связываем проблему исчезновения градиента с большой дисперсией выходного сигнала RC (уравнение DISPLAY_FORM13).Учитывая, что дисперсия активации положительно коррелирует с дисперсией параметра BIBREF29, мы предлагаем DS-Init и меняем исходный метод инициализации в уравнении. DISPLAY_FORM11 следующим образом: где $\alpha$ — гиперпараметр в диапазоне $[0, 1]$, а $l$ обозначает глубину слоя.Гиперпараметр $\alpha$ повышает гибкость нашего метода.По сравнению с существующими подходами BIBREF19, BIBREF20 наше решение не требует изменений в архитектуре модели и, следовательно, легко внедряется.По свойству равномерного распределения дисперсия параметров модели уменьшается от $\frac{\gamma ^2}{3}$ до $\frac{\gamma ^2\alpha ^2}{3l}$ после применения DS- В этом.При этом более высокий уровень будет иметь меньшую выходную дисперсию RC, так что больше градиентов сможет течь обратно.Результаты в таблице TABREF16 показывают, что DS-Init сужает как дисперсию, так и различные отношения до $\sim $1, обеспечивая стабильность обратного распространения градиента.Данные на рисунке FigREF2 также показывают, что DS-Init помогает поддерживать норму градиента и немного увеличивает ее на стороне кодера.Это связано с тем, что DS-Init наделяет нижние уровни параметрами с большей дисперсией и активациями с большей нормой.Когда сигналы ошибок на разных уровнях имеют одинаковый масштаб, норма градиента на нижних уровнях будет больше.Тем не менее, это увеличение не повредит обучению модели, основанному на наших эмпирических наблюдениях.DS-Init частично основан на инициализации Fixup BIBREF22.Оба они пытаются уменьшить выходную дисперсию RC.Разница в том, что Fixup фокусируется на преодолении взрыва градиента, вызванного последовательными RC, и стремится обеспечить обучение без LN, но за счет тщательной обработки инициализации параметров каждого матричного преобразования, включая манипулирование инициализацией различных элементов смещения и масштабирования.Вместо этого DS-Init направлен на решение проблемы исчезновения градиента в глубоком трансформаторе, вызванного структурой RC, за которой следует LN.Мы по-прежнему используем LN для стандартизации активации слоев и улучшения сходимости моделей.Включение LN обеспечивает стабильность и простоту DS-Init.При большой глубине модели глубокий преобразователь неизбежно приводит к большим вычислительным затратам.Это приводит к значительному увеличению времени обучения и декодирования.Чтобы решить эту проблему, мы предлагаем объединенную модель внимания для декодера, которая интегрирует упрощенный подуровень самообслуживания на основе средних значений в подуровень внимания кодер-декодер.Рисунок FigREF17 подчеркивает разницу.Модель AAN (рис. РИС. 19) в качестве альтернативы модели самообслуживания (рис. РИС. 18) ускоряет декодирование Transformer, позволяя декодировать за линейное время, избегая $\mathcal {O}(n^2)$ сложности самого себя. -механизм внимания BIBREF11.К сожалению, подуровень стробирования и подуровень прямой связи внутри AAN уменьшают эмпирическое улучшение производительности.Мы предлагаем упрощенный AAN, удалив все матричные вычисления, за исключением двух линейных проекций: где $\mathbf {M}_a$ обозначает среднюю матрицу маски для параллельных вычислений BIBREF11.Затем эта новая модель объединяется с вниманием кодера-декодера, как показано на рисунке FigREF20:Отображение $\mathbf {W}_o$ является общим для $\textsc {SAan}$ и $\textsc {Att}$. После объединения MAtt позволяет распараллелить AAN и внимание кодера-декодера. | Общая тенденция в НЛП направлена на увеличение мощности и производительности модели за счет более глубоких нейронных сетей. Однако простое объединение большего количества слоев популярной архитектуры Transformer для машинного перевода приводит к плохой сходимости и большим вычислительным затратам. Наш эмпирический анализ показывает, что сходимость плохая из-за исчезновения градиента, вызванного взаимодействием между остаточными связями и нормализацией слоев. Мы предлагаем инициализацию с масштабированием по глубине (DS-Init), которая уменьшает дисперсию параметров на этапе инициализации и уменьшает дисперсию выходных данных остаточных соединений, чтобы облегчить обратное распространение градиента через слои нормализации. Чтобы снизить вычислительные затраты, мы предлагаем объединенный подуровень внимания (MAtt), который сочетает в себе упрощенный подуровень самообслуживания на основе средних значений и подуровень внимания кодировщика-декодера на стороне декодера. Результаты по задачам трансляции WMT и IWSLT с пятью направлениями трансляции показывают, что глубокие Трансформеры с DS-Init и MAtt могут существенно превосходить базовый аналог по показателю BLEU (+1,1 BLEU в среднем для 12-слойных моделей), при этом не уступая скорости декодирования базовая модель благодаря повышению эффективности MATT. | 2,899 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Анализ настроений в Твиттере с помощью двусмысленного внедрения эмодзи и LSTM на основе внимания. Быстрый рост платформ социальных сетей, таких как Twitter, предоставляет богатые мультимедийные данные в больших масштабах для различных исследовательских возможностей, таких как анализ настроений, который фокусируется на автоматическом прогнозировании настроений (положительных и отрицательных) по заданному контенту.Анализ настроений широко используется в реальных приложениях путем анализа онлайн-данных, генерируемых пользователями, таких как прогнозирование выборов, сбор мнений и анализ деловой активности.Эмодзи, состоящие из различных символов — от мультяшных выражений лица до фигур, таких как флаги и спортивные состязания, — широко используются в повседневном общении для выражения чувств людей.С момента своего первого выпуска в 2010 году смайлы заменили смайлы (такие как «:- INLINEFORM0» и «:-P») BIBREF0, чтобы создать новую форму языка для пользователей социальных сетей BIBREF1.Согласно недавним научным отчетам, в Emoji 11.0 содержится 2823 смайла в стандарте Unicode, при этом более 50% постов в Instagram содержат один или несколько смайлов BIBREF2, а 92% интернет-пользователей используют смайлы BIBREF3. Широкое использование смайлов привело к растущее внимание исследователей BIBREF4, BIBREF5, поскольку смайлы передают ценную семантическую и сентиментальную информацию, визуально дополняя текстовую информацию, что значительно полезно для понимания встроенных эмоциональных сигналов в текстах BIBREF6.Например, были предложены встраивания эмодзи, чтобы понять семантику смайлов BIBREF7, BIBREF8, а векторы внедрения можно использовать для визуализации и прогнозирования использования смайлов с учетом их соответствующего контекста.Предыдущая работа также показывает, что полезно предварительно обучить глубокую нейронную сеть задаче прогнозирования смайлов с предварительно обученными встраиваниями смайлов, чтобы изучить эмоциональные сигналы смайлов для других задач, включая прогнозирование настроений, эмоций и сарказма BIBREF9.Однако в предыдущей литературе не учитывались лингвистические сложности и разнообразие смайликов.Таким образом, предыдущие методы внедрения эмодзи не справляются с ситуацией, когда семантика или смыслы изученных внедрений эмодзи противоречат информации из соответствующих контекстов BIBREF5 или когда эмодзи передают несколько смыслов семантики и настроений, таких как ( и ).На практике смайлы могут либо суммировать и подчеркивать исходную мелодию своего контекста, либо выражать более сложную семантику, такую как ирония и сарказм, сочетаясь с контекстами противоречивой семантики или настроений.В примерах, показанных в таблице TABREF3, смайлик () соответствует настроению с текстом, чтобы подчеркнуть настроение, но имеет противоположное настроение (положительное) по сравнению с настроением текста (отрицательное) в примерах 3 и 4, чтобы передать ощущение сарказма.Обычный анализ смайлов может извлечь только одно вложение каждого смайла, и такое встраивание запутает следующую модель анализа настроений из-за противоречивых сигналов настроений из входных текстов и смайлов.Более того, мы считаем, что моделирование эффекта эмодзи отличается от обычного мультимодального анализа настроений, который обычно включает изображения и тексты, поскольку тональность изображения и тональность текста обычно считаются согласованными BIBREF10, тогда как для текстов и смайлов такого предположения не существует.Чтобы преодолеть такие ограничения, мы предлагаем новую схему, состоящую из рекуррентной нейронной сети, основанной на внимании (RNN), с надежными встраиваниями двухсмысловых эмодзи.Вдохновленный задачей внедрения смысла слова в обработке естественного языка (NLP) BIBREF11, BIBREF12, BIBREF13, где каждое значение неоднозначного слова реагирует на один уникальный вектор внедрения, предлагаемое двухсмысловое внедрение представляет собой более надежное и детальное представление сложная семантика смайлов, где каждый смайлик встроен в два отдельных вектора, а именно вектор положительного и отрицательного смысла соответственно.Для нашей конкретной задачи, а именно анализа настроений в Твиттере BIBREF14, BIBREF15, мы инициализируем векторы двусмысленного внедрения вместе с векторами внедрения слов, используя алгоритм внедрения слов fasttext BIBREF16, извлекая два различных внедрения для каждого смайлика в соответствии с настроением его соответствующего текстового контекста, а именно двусмысленное вложение.Затем для прогнозирования настроений используется рекуррентная нейронная сеть на основе долговременной краткосрочной памяти (LSTM), которая интегрируется с предварительно обученными функциями встраивания смайлов с помощью контекстного руководства и механизма самостоятельного выбора внимания.Поскольку большинство предыдущих наборов данных о настроениях в Твиттере исключают смайлы, и существует мало ресурсов, содержащих достаточное количество смайлов-твитов с метками настроений, мы создаем наш собственный набор данных смайликов-твитов, автоматически генерируя слабые метки с использованием алгоритма анализа настроений на основе правил Vader BIBREF17 для предварительной оценки. -обучение сетей и ручная маркировка подмножества твитов для целей точной настройки и тестирования.Результаты эксперимента показывают, что двусмысленное встраивание смайлов способно извлекать из смайлов более различимую информацию и превосходит современные модели анализа настроений с предлагаемыми сетями LSTM, основанными на внимании.Далее мы визуализируем встраивание двусмысленных смайлов, чтобы получить чувства и семантику, изученную с помощью предлагаемого подхода.Основные положения данной статьи резюмируются следующим образом.Анализ настроений заключается в извлечении и количественной оценке субъективной информации, включая состояние отношений, эмоций и мнений, из различного контента, такого как тексты, изображения и аудио BIBREF18.Анализ настроений привлекает большое внимание из-за его широкого применения в деловой и государственной разведке, политологии, социологии и психологии.С технической точки зрения анализ текстовых настроений впервые исследуется исследователями как задача НЛП.Методы варьируются от лексических подходов с использованием функций, включая ключевые слова BIBREF23, BIBREF24, где каждое слово соответствует вектору тональности с записями, представляющими возможность слова и каждого тональности, а также функции фазового уровня (n-граммы и униграммы) BIBREF25, BIBREF26, до подходы к внедрению на основе глубоких нейронных сетей, включая пропуск грамм, непрерывный пакет слов (CBoW) и пропуск мыслей BIBREF27, BIBREF28, BIBREF16, BIBREF29.Лишь в последние годы исследователи начали концентрироваться на имидже и мультимодальных настроениях BIBREF30, BIBREF31 и анализировать, как воспользоваться преимуществами кросс-модальных ресурсов BIBREF10, BIBREF32.Для мультимодального анализа настроений основным предположением является то, что обе модальности выражают схожие настроения, и такое сходство обеспечивается для обучения надежной модели вывода настроений BIBREF10.Однако это же предположение не применимо при моделировании текстовых твитов и смайлов, поскольку существуют значительные сложности естественного языка, такие как использование иронии, шуток, сарказма и т. д. BIBREF9. МоделиМы установили базовые показатели и предложили модели следующим образом: LSTM с встраиванием текста: CNN и LSTM широко используются для кодирования текстового содержимого для анализа настроений в BIBREF45, BIBREF46 и многих онлайн-руководствах.Здесь мы выбираем стандартный LSTM с предварительно обученным встраиванием слов в качестве входных данных и добавляем один полносвязный слой с сигмовидной активацией верхней части кодера LSTM (так же, как и все остальные модели), обозначенный как T-LSTM.LSTM с встраиванием эмодзи: Мы рассматривайте смайлики как одно специальное слово и вводите как предварительно обученный текст, так и встраивания смайлов в одну и ту же сеть LSTM, а именно E-LSTM.Аналогичным образом мы объединяем предварительно обученные встраивания двухсмысловых смайлов в одно специальное слово для подачи в сеть LSTM.Эта модель называется BiE-LSTM. LSTM на основе внимания с эмодзи: мы также используем встраивание слова-эмодзи для расчета внимания к эмодзи-слову, следуя уравнениям EQREF20 и EQREF21, и единственное отличие состоит в том, что мы заменяем чувства, полученные из внимания. встраивание эмодзи с помощью предварительно обученного встраивания слов-эмодзи с помощью fasttext, обозначенного как ATT-E-LSTM.LSTM, с двусмысленным встраиванием эмодзи (предлагается):Как мы уже говорили в разделе SECREF13, мы предлагаем две сети LSTM, основанные на внимании, основанные на двусмысленном внедрении смайлов, обозначенные как MATT-BiE-LSTM и WATT-BiE-LSTM. Оценка. Мы оцениваем базовую и предлагаемую модели анализа настроений с помощью F1. оценки и точность на основе набора тестов с автоматическими аннотациями (AA-Sentiment) и набора тестов с аннотациями человека (HA-Sentiment), как показано в таблице TABREF25.Мы тестируем модели только после точной настройки с использованием подмножества образцов с аннотациями, созданными человеком, поскольку обучение исключительно на образцах с автоматически сгенерированными слабыми метками приводит к относительно низким результатам при тестировании с данными, аннотированными человеком, что указывает на то, что модели после точной настройки более крепкий.Оценки и точность F1 в целом выше для AA-настроений, чем результаты для HA-настроений, что указывает на то, что HA-настроения представляют собой более сложную задачу и связанные с ними настроения труднее идентифицировать, что подтверждается их относительно более низкими оценками настроений, полученными из Вейдер.Однако мы по-прежнему наблюдаем конкурентные результаты HA-Sentiment, показывающие, что модели хорошо обучены и устойчивы к шумным меткам благодаря точной настройке с использованием данных, аннотированных человеком.Базовый уровень T-LSTM обеспечивает достойную производительность в обоих экспериментах с точностью 86,6% и 70,7%, показывая, что LSTM является эффективным кодировщиком для анализа настроений, как это предлагается в ссылках.Модели с предлагаемым встраиванием двухсмысловых эмодзи получают точность более 82,4%, и мы наблюдаем улучшение производительности с помощью LSTM на основе внимания по сравнению с предложенными нами моделями MATT-BiE-LSTM и WATT-BiE-LSTM, что соответствует ATT- E-LSTM (F1@84,6%, точность@82,0% по HA-Sentiment) значительно превосходит T-LSTM и E-LSTM. Информация Emoji полезна при анализе настроений.Большинство моделей превосходят базовый T-LSTM в обоих наборах данных, что позволяет предположить, что информация смайликов полезна для анализа настроений в качестве дополнения к текстовому содержимому, даже при наивном использовании вложений смайликов (E-LSTM) при тестировании с HA-Sentiment.Мы наблюдаем, что E-LSTM имеет производительность, аналогичную T-LSTM с AA-Sentiment, но значительно превосходит T-LSTM при тестировании с HA-Sentiment, что указывает на то, что информация о настроениях полезна и необходима, когда скрытые настроения относительно неуловимы и задача является более сложной задачей.Встраивание двухсмысловых смайлов помогает.Все модели, использующие двухсмысловое встраивание эмодзи, работают значительно лучше, чем базовые модели без функции эмодзи или с встраиванием слов-эмодзи.BiE-LSTM значительно превосходит T-LSTM и E-LSTM при том же использовании встраивания эмодзи, что указывает на то, что предлагаемое двусмысленное встраивание эмодзи способно извлекать более информативные и различимые векторы по сравнению с использованием обычных алгоритмов встраивания слов, что является последовательным. о сравнении предлагаемых моделей (MATT-BiE-LSTM и WATT-BiE-LSTM) с двухсмысловым встраиванием эмодзи и базовой моделью ATT-E-LSTM с встраиванием слов-эмодзи и вниманием.Механизм внимания выравнивается и хорошо работает при двусмысленном внедрении.MATT-BiE-LSTM и WATT-BiE-LSTM демонстрируют схожие характеристики при тестировании на образцах с аннотациями как Вейдера, так и человека, хотя их способы вычисления внимания (веса и векторы) отличаются тем, что WATT вычисляет веса внимания и руководствуется встраиванием Senti-emoji. по каждому слову, а MATT получает встраивание сенти-эмодзи на основе кодера LSTM для всех контекстов и вычисляет веса внимания встраивания сенти-эмодзи для всех слов.Обе модели превосходят по производительности самые современные базовые модели, включая ATT-E-LSTM.Предлагаемый LSTM, основанный на внимании, может быть дополнительно расширен для решения задач, включающих в себя многозначное внедрение в качестве входных данных, таких как многозначное внедрение в НЛП, путем использования контекстно-ориентированного внимания для самостоятельного выбора того, сколько внимания уделять каждому смыслу. вложения, каждое из которых соответствует определенному смыслу семантики или чувств.Таким образом, мы можем воспользоваться преимуществами более надежных и детальных вложений.С бурным развитием Интернета вещей (IOT), растущая доступность и популярность субъективного контента предоставили новые возможности и проблемы для анализа настроений BIBREF33.Например, социальные сети, такие как Twitter и Instagram, были изучены из-за массового пользовательского контента с богатыми пользовательскими настроениями BIBREF25, BIBREF34, BIBREF35, где широко используются смайлы (и смайлы).Невербальные сигналы настроений, такие как смайлик, который считается предыдущим поколением смайлов, изучались на предмет их эмоционального эффекта до того, как смайлы взяли верх над BIBREF36, BIBREF37, BIBREF38.Например, BIBREF36, BIBREF38 предварительно определяют метки тональности для смайликов и создают словарь тональности смайликов.BIBREF37 применяет смайлы для сглаживания шумных меток настроений.Аналогичная работа BIBREF39 сначала рассматривает эмодзи как компонент извлечения лексической характеристики для дальнейшего анализа настроений.BIBREF40 создает рейтинг настроений смайликов на основе встречаемости смайлов и аннотированных человеком настроений в соответствующих твитах, где каждому смайлику присваивается оценка настроения от отрицательного до положительного, аналогично SentiWordNet BIBREF41.Однако относительно интуитивному использованию смайлов с помощью лексических и словарных подходов не хватает глубокого понимания сложной семантики смайлов.Таким образом, вдохновленный успехом алгоритмов семантического внедрения слов, таких как BIBREF28, BIBREF16, BIBREF7 получает семантическое внедрение каждого смайлика путем усреднения слов из его описаний и показывает, что эффективно использовать преимущества внедрения смайлов для задачи анализа настроений в Твиттере. .BIBREF8 предлагает сверточную нейронную сеть для прогнозирования появления смайлов и совместно изучает встраивание смайлов через слой сопоставления на основе косинусных сходств.Несмотря на растущую популярность анализа настроений в Твиттере, существует ограниченное количество наборов данных смайлов с метками настроений, поскольку предыдущие исследования обычно отфильтровывали URL-адреса, смайлы, а иногда и смайлы.Тем не менее, BIBREF9 показывает, что эффективно извлекать информацию о чувствах из смайлов для задач классификации эмоций и обнаружения сарказма при отсутствии обучения векторным представлениям смайлов путем предварительного обучения глубокой нейронной сети для прогнозирования появления смайлов.Мы предлагаем два механизма, а именно LSTM на основе внимания Word-guide и LSTM на основе многоуровневого внимания, чтобы воспользоваться преимуществами внедрения двусмысленных смайлов для задачи анализа настроений.Каркасы этих двух методов показаны на рисунках FigREF10 и FigREF19 соответственно.Наш рабочий процесс включает в себя следующие шаги: инициализация встраивания двухсмысловых смайлов, генерация встраивания чувственных смайлов на основе самостоятельно выбранного внимания и классификация настроений с помощью предлагаемых сетей LSTM на основе внимания.Недавние исследования показывают большие успехи в задачах встраивания слов, таких как word2vec и fasttext BIBREF27, BIBREF16.Мы используем fasttext для инициализации встраивания смайлов, рассматривая каждый смайлик как особое слово вместе с встраиванием слов.Загвоздка в том, что в отличие от традиционных подходов, где каждый смайлик реагирует на один вектор внедрения (так мы называем встраивание слов в эмодзи), мы встраиваем каждый смайлик в два отдельных вектора (двусмысленное встраивание смайлов): сначала мы назначаем каждому два разных токена. смайлики, один из которых предназначен для конкретных смайлов, используемых в позитивных сентиментальных контекстах, а другой — для этих смайлов, используемых в негативных сентиментальных контекстах (текстовые настроения, инициализированные Вейдером BIBREF17, подробности будут обсуждаться в разделе SECREF23) соответственно; один и тот же процесс обучения fasttext используется для встраивания каждого токена в отдельный вектор, и таким образом мы получаем встраивания с положительным и отрицательным смыслом для каждого смайлика.Word2vec основан на модели пропуска грамм, цель которой — максимизировать логарифмическую вероятность, рассчитываемую путем суммирования вероятностей появления текущего слова с учетом набора окружающих слов.Модель fasttext отличается тем, что проблема форматируется как задача двоичной классификации для прогнозирования появления каждого контекстного слова, при этом отрицательные выборки случайно выбираются из отсутствующих контекстных слов.Учитывая входную последовательность слов INLINEFORM0 и набор контекстных слов INLINEFORM1 и набор отрицательных выборок слов INLINEFORM2 текущего слова INLINEFORM3, целевая функция получается на основе двоичных логистических потерь, как в уравнении EQREF12:DISPLAYFORM0, где INLINEFORM0 обозначает логистические потери оценочной функции INLINEFORM1, которая вычисляется путем суммирования скалярных произведений между встраиваниями n-грамм текущего слова и встраиванием контекстного слова, которое отличается от word2vec, где оценка представляет собой скалярное произведение между текущее слово и встраивание контекстного слова.Мы предпочитаем fasttext вместо word2vec главным образом из-за его вычислительной эффективности.В целом обе модели демонстрируют конкурентоспособную производительность, и сравнение встраивания слов выходит за рамки нашего обсуждения.Поэтому в рамках этой работы мы показываем только результаты, полученные при инициализации fasttext.Блоки долговременной кратковременной памяти (LSTM) широко используются для кодирования текстового содержимого.Базовая модель кодировщика состоит из слоя внедрения текста, уровня LSTM и полностью связанных слоев для дальнейших задач, таких как классификация текста на основе закодированного признака.Операции в единице LSTM для временного шага INLINEFORM0 сформулированы в уравнении EQREF14:DISPLAYFORM0, где INLINEFORM0 и INLINEFORM1 представляют текущее и предыдущее скрытое состояния, INLINEFORM2 обозначает текущий ввод LSTM, и здесь мы используем встраивание INLINEFORM3 текущего слова INLINEFORM4, а INLINEFORM5 и INLINEFORM6 обозначают весовые матрицы BIBREF42.Чтобы воспользоваться преимуществами двусмысленного внедрения смайлов, мы модифицируем входной слой в блоки LSTM.Сначала мы получаем встраивание сенти-эмодзи как средневзвешенное значение встраивания двусмысленных смайлов на основе самостоятельно выбранного механизма внимания.Пусть INLINEFORM7 представляет собой INLINEFORM8-е смысловое встраивание смайлов INLINEFORM9 ( INLINEFORM10 в нашем двусмысловом встраивании), а INLINEFORM11 обозначает функцию внимания, обусловленную текущим встраиванием слова, вес внимания INLINEFORM12 и вектор встраивания чувственных смайлов INLINEFORM13 формулируется следующим образом :DISPLAYFORM0 Мы выбираем полносвязный слой с активацией ReLU в качестве функции внимания, а вектор внимания INLINEFORM0 объединяется с внедрением слова в качестве нового входного сигнала LSTM.Таким образом, входной вектор INLINEFORM1 в уравнении EQREF14 становится INLINEFORM2.Выходные данные окончательного модуля LSTM затем передаются в полносвязный слой с активацией INLINEFORM3 для вывода настроений твитов, а двоичная перекрестная энтропийная потеря используется в качестве функции возражения (уравнение EQREF16), где INLINEFORM4 — общее количество выборок.Мотивация этой модели заключается в том, что каждое контекстное слово управляет весами внимания, чтобы заставить модель самостоятельно выбирать, какой смысл внедрения ей следует учитывать.Поэтому мы обозначаем эту модель как LSTM на основе внимания Word-guide с встраиванием эмодзи Bi-sense (WATT-BiE-LSTM).DISPLAYFORM0 Существует еще один способ сформулировать механизм внимания, где веса внимания указывают, как информация изображения (в нашем случае это эмодзи) распределяется через контекстные слова, как предложено в BIBREF43, BIBREF44.Таким образом, модифицированный вектор внедрения sendi-emoji INLINEFORM0 находится на уровне твита, а не на уровне слова в уравнении EQREF15, за счет замены INLINEFORM1 вектором конечного состояния INLINEFORM2, выведенным из последнего модуля LSTM, как показано в уравнении EQREF18:DISPLAYFORM0 Производное внедрение sendi-emoji INLINEFORM0 затем используется для расчета дополнительного уровня внимания после BIBREF43 , BIBREF44 .Учитывая входную последовательность твитов INLINEFORM1, вес внимания INLINEFORM2, обусловленный внедрением Senti-emoji, формулируется следующим образом:DISPLAYFORM0 Таким образом, мы создаем новый вход INLINEFORM0 для каждого модуля LSTM путем объединения исходного встраивания слова и вектора внимания в уравнении EQREF21 для распределения информации о сенсорных смайликах на каждом этапе.Эта модель называется многоуровневым LSTM на основе внимания с двусмысленным внедрением эмодзи (MATT-BiE-LSTM).Мы выбираем ту же двоичную кросс-энтропию, что и функцию потерь, с той же конфигурацией сети с WATT-BiE-LSTM.Сбор данных DISPLAYFORM0Мы создаем наш собственный набор данных о настроениях в Твиттере, сканируя твиты через REST API, который состоит из 350 000 пользователей и значительно больше по сравнению с предыдущей работой.Мы собираем до 3200 твитов от каждого пользователя и следуем стандартным процедурам предварительной обработки твитов, чтобы удалить твиты без смайлов и твиты, содержащие менее десяти слов, а также содержимое, включая URL-адреса, упоминания и электронные письма.Аннотации к данным. Для получения аннотаций настроений мы сначала используем Vader, который представляет собой алгоритм анализа настроений на основе правил BIBREF17 для текстовых твитов только для создания меток слабых настроений.Алгоритм выводит оценки настроений в диапазоне от -1 (отрицательный) до 1 (положительный) с нейтральным посередине.Мы рассматриваем анализ настроений как задачу бинарной классификации (положительные и отрицательные настроения), отфильтровываем образцы со слабыми прогнозируемыми оценками в INLINEFORM0 и сохраняем твиты с сильными сигналами настроений.Частота появления эмодзи рассчитывается отдельно для положительных и отрицательных твитов, а пороговое значение устанавливается равным 2000, чтобы дополнительно отфильтровать смайлы, которые реже используются хотя бы в одном типе сентиментального текста.В итоге мы создали набор данных, содержащий в общей сложности 1 492 065 твитов и 55 часто используемых смайлов.Для твитов с абсолютным показателем тональности более 0,70 мы сохраняем автоматически сгенерированную метку тональности как основную истину, поскольку автоматическая аннотация надежна при высоких оценках тональности.С другой стороны, мы выбираем подмножество твитов с абсолютными оценками настроений между INLINEFORM1 для ручной маркировки путем случайной выборки, следуя распределению вхождений смайликов, где каждый твит помечается двумя аспирантами.Твиты отбрасываются, если две аннотации не совпадают друг с другом или они помечены как нейтральные.В итоге мы получили 4183 твита, размеченных вручную, из которых 60% используются для тонкой настройки, а 40% — для целей тестирования.Остальные твиты с автоматическими аннотациями разделены на три набора: 60% используются для предварительного обучения би-смысловому и обычному встраиванию эмодзи, 10% для проверки и 30% — для тестирования.Мы не включаем «нейтральный» класс, поскольку трудно получить действительные нейтральные образцы.Для автоматически сгенерированных меток нейтральными являются образцы с низкими показателями абсолютной достоверности, и их настроения с большей вероятностью будут ошибочными моделями, чем «истинно нейтральные».Более того, судя по человеческим аннотациям, большинство твитов с эмодзи передают ненейтральные настроения, и при ручной маркировке наблюдаются лишь несколько нейтральных образцов, которые исключаются из подмножества, помеченного вручную.Чтобы подтвердить нашу мотивацию того, что смайлы также широко используются в твитах, которые содержат информацию, противоречащую настроениям смайликов, мы рассчитываем использование смайлов в таблице TABREF22 в соответствии с метками настроений, где Pos-Ratio означает процент каждого смайлика, встречающегося в положительных эмоциях. твитов по общему количеству появлений, AA и HA обозначают автоматические и человеческие аннотации соответственно.Мы представляем 10 наиболее часто используемых смайлов в нашем наборе данных и наблюдаем небольшую разницу в соотношениях Pos между наборами данных AA и HA из-за случайности, вовлеченной в процесс выборки.Результаты обоих наборов данных показывают значительное количество использования смайлов как в положительных, так и в отрицательных твитах.Например, интересно отметить, что смайлы () чаще встречаются в позитивных твитах с автоматическими аннотациями, в то время как смайлы с сильным позитивным настроением также используются в негативных твитах примерно с 5% случаев, например (, и ). .Учитывая, что среднее положительное соотношение среди всех смайлов во всем наборе данных составляет около 74% и что большинство смайлов широко использовались в твитах, содержащих как положительные, так и отрицательные настроения, это предполагает, что различение появления смайликов в обоих настроениях с помощью двусмысленного встраивания имеет смысл. расследование.Кроме того, мы наблюдаем, что Pos-Ratio настроений AA и настроений HA имеют небольшие различия, что связано с двумя основными причинами: 1) Некоторые твиты, которые мы выбрали для построения настроений HA, отбрасываются, потому что у аннотаторов есть разногласия, и мы только сохраняем образцы, в отношении которых мы уверены; 2) Твиты с абсолютными оценками настроений между (0,60, 0,70) выбираются для маркировки вручную, как описано в разделе SECREF23, и они ниже, чем у твитов, используемых для создания настроений АА (0,7 и выше).Более низкие оценки настроений указывают на то, что Вейдер менее надежен в выборках набора данных HA-настроений, и на настроения этих твитов с большей вероятностью будут влиять смайлики.Чтобы понять, почему более детальное встраивание двухсмысловых смайлов помогает понять сложные настроения, стоящие за твитами, мы визуализируем веса внимания для ATT-E-LSTM и MATT-BiE-LSTM для сравнения.Примеры твитов с соответствующими весами внимания, рассчитанными с помощью встраивания слов-эмодзи и встраивания сенти-эмодзи, показаны на рисунке FigREF27, где контексты представлены в заголовках.Используемые смайлы: , и , соответственно.На рисунке FigREF27 (a) модель ATT-E-LSTM (базовая линия) присваивает относительно больший вес словам «нет» и «давление», тогда как MATT-BiE-LSTM уделяет внимание главным образом словам «счастливый» и «милый». .Различное распределение внимания предполагает, что предлагаемое встраивание сенти-эмодзи способно распознавать слова с сильными чувствами, которые тесно связаны с истинными настроениями, даже при наличии слов с противоречивыми настроениями, таких как «давление» и «счастливый».в то время как ATT-E-LSTM имеет тенденцию улавливать все сентиментальные слова, которые могут вызвать путаницу.Встраивание сенти-эмодзи способно извлекать представления сложной семантики и настроений, которые помогают направлять внимание даже в тех случаях, когда слова «настроение» и «настроение эмодзи» несколько противоречат друг другу.На рисунках FigREF27 (b) и (c) мы можем видеть, что ATT-E-LSTM присваивает больший вес словам, не имеющим отношения к настроению, чем MATT-BiE-LSTM, таким как «толстовки», «подождать» и «после». что указывает на то, что предлагаемая модель более устойчива к нерелевантным словам и лучше концентрируется на важных словах.Благодаря внедрению sendi-emoji, полученному с помощью двухсмыслового внедрения эмодзи и кодирования LSTM на уровне предложения при вводе текста (описано в разделе SECREF13), мы можем построить более надежное внедрение на основе семантической и тональной информации из весь контекст по сравнению с встраиванием слов в смайлики, используемым в ATT-E-LSTM, которое учитывает только информацию на уровне слов.Чтобы получить дополнительную информацию о двусмысленном встраивании смайлов, мы используем t-SNE BIBREF47 для проецирования многомерных векторов двусмысленного встраивания в двумерное пространство и одновременного сохранения относительных расстояний между векторами встраивания.На рисунке FigREF28 мы визуализируем двусмысленное встраивание эмодзи, встраивание положительного смысла, встраивание отрицательного смысла и вычитание между встраиванием положительного и отрицательного смысла каждого смайлика соответственно.Вычитание смайлика между двумя его смысловыми вложениями указывает на семантические различия между использованием смайликов в позитивных и негативных сентиментальных контекстах, аналогично цели встраивания слов BIBREF28.Положительный смысл эмодзи ( и ) и отрицательный смысл эмодзи (, и ) встроены далеко от двух основных кластеров, как показано на рисунке FigREF28 (a), что позволяет предположить, что семантика этих смайлов отличается от других. популярные смайлы.Вложения с положительным и отрицательным смыслом хорошо сгруппированы и не пересекаются друг с другом.Такое наблюдение подтверждает нашу цель применения встраивания двухсмысловых смайлов, поскольку существуют значительные различия в семантике каждого смайла, когда он появляется в положительном и отрицательном сентиментальном контексте, и это хорошо мотивировано для рассмотрения использования смайлов индивидуально в соответствии с настроением пользователя. контексты для извлечения более детального двусмысленного встраивания.Кроме того, мы наблюдаем устойчивые закономерности на рисунке FigREF28 (b), (c) и (d), где настроения, передаваемые смайликами, становятся важным фактором.Например, смайлы с положительными настроениями, такие как (, и ), и смайлы с отрицательными настроениями, такие как (, и ), встроены в один кластер как в пространстве положительного, так и отрицательного смысла.Встраивание вычитаний смайлов на рисунке FigREF28 (d) показывает, что различное использование смайлов в зависимости от настроений одинаково между смайликами и сохраняет кластерные шаблоны, наблюдаемые на рисунках FigREF28 (b) и (c). В этой статье мы представляем новый подход к задача анализа настроений и достижения самых современных показателей.В отличие от предыдущей работы, наш метод сочетает в себе более надежное и детальное встраивание двухсмысловых эмодзи, которое эффективно представляет сложную семантическую и тональную информацию, с сетями LSTM, основанными на внимании, которые выборочно обрабатывают коррелированный смысл встраивания эмодзи и плавно объедините полученные вложения сенти-эмодзи с вложениями слов, чтобы лучше понять богатую семантику и задействованные чувства.В будущем мы планируем и дальше расширять наш LSTM, основанный на внимании, с помощью рабочей среды двухзначного внедрения для решения задач, связанных с многозначным внедрением, таких как обучение и применение многозначного внедрения.Мы хотели бы поблагодарить штат Нью-Йорк за поддержку через Институт науки о данных Гергена и премию NSF № 1704309. | Анализ настроений на основе крупномасштабных данных социальных сетей важен для устранения разрыва между содержанием социальных сетей и реальной деятельностью, включая прогнозирование политических выборов, мониторинг и анализ индивидуального и общественного эмоционального статуса и так далее. Хотя текстовый анализ настроений хорошо изучен на основе таких платформ, как Twitter и Instagram, анализ роли широкого использования смайлов в анализе настроений остается неясным. В этой статье мы предлагаем новую схему анализа настроений в Твиттере с особым вниманием к смайликам. Сначала мы изучаем встраивания двухсмысловых смайлов в позитивные и отрицательные сентиментальные твиты по отдельности, а затем тренируем классификатор настроений, посещая эти встраивания двухсмысленных смайлов с помощью сети долговременной краткосрочной памяти (LSTM), основанной на внимании. Наши эксперименты показывают, что двусмысленное встраивание эффективно для извлечения эмодзи с учетом тональности и превосходит современные модели. Мы также визуализируем внимание, чтобы показать, что встраивание двухсмысловых смайлов обеспечивает лучшее руководство по механизму внимания и позволяет получить более четкое понимание семантики и настроений. | 4,687 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | BERT может видеть из коробки: о кросс-модальной переносимости текстовых представлений. Языковая модель BERT BIBREF0 — это глубокий двунаправленный преобразователь BIBREF1, предварительно обученный на текстовых корпусах (BookCorpus и Википедия) с использованием маскировочной языковой модели (MLM) — предсказание некоторых слов, которые случайно замаскированы в предложении, а также потеря следования предложения.Недавние исследования BIBREF2 показали, как BERT кодирует абстракции, которые обобщаются между языками, даже при обучении только на одноязычных данных.Это противоречит распространенному мнению BIBREF3, BIBREF4 о том, что общий словарный запас и совместное обучение нескольким языкам необходимы для достижения возможностей межъязыкового обобщения.В этой работе мы дополнительно исследуем возможности обобщения больших предварительно обученных LM, на этот раз переходя к кросс-модальной настройке: содержит ли BERT абстракции, которые обобщаются за пределами текста? В сообществе искусственного интеллекта несколько работ исследовали давний исследовательский вопрос. того, кодируют ли текстовые представления визуальную информацию.С одной стороны, большое количество исследований, называемых языковым обоснованием, считает, что текстовым представлениям не хватает визуального здравого смысла BIBREF5, и намеревается обосновать значение слов BIBREF6, BIBREF7 и предложений BIBREF8, BIBREF9 в перцептивном мире.В другой части работы текстовые представления успешно использовались для решения мультимодальных задач BIBREF10, таких как обучение с нулевым выстрелом BIBREF11, визуальный ответ на вопросы BIBREF12 или субтитры к изображениям BIBREF13.Следуя последнему направлению исследований, в этой статье мы оцениваем потенциал предварительно обученных языковых моделей для обобщения в контексте визуальной генерации вопросов (VQG) BIBREF14. Задача визуальной генерации вопросов позволяет нам исследовать кросс-модальные возможности BERT. : в отличие от подписей к изображениям (где входные данные являются только визуальными) или VQA (где входные данные являются визуальными и текстовыми), VQG — это мультимодальная задача, где входные данные могут быть текстовыми и/или визуальными.Данные VQG обычно включают изображения и связанные с ними подписи, а также соответствующие вопросы об изображении; таким образом, можно разработать различные экспериментальные установки для анализа влияния каждой модальности.Действительно, вопросы могут быть созданы с использованием i) текстового (подпись), ii) визуального (изображение) или iii) мультимодального (как заголовок, так и изображение) ввода.С практической точки зрения задача VQG имеет несколько применений: роботы или помощники ИИ могут задавать вопросы, основанные на мультимодальных данных (например, объединяя разговорные данные с визуальной информацией от похитителей и камер), чтобы уточнить свою интерпретацию ситуации, в которой они находятся. представлены с.Это также может позволить системам, опирающимся на базы знаний, обрести визуальный здравый смысл и справиться с предвзятостью человеческой отчетности BIBREF15, которая утверждает, что содержание изображений и текста по своей сути различно, поскольку визуальный здравый смысл редко явно выражается в тексте.Недавно были предложены мультимодальные языковые модели на основе BERT BIBREF16, BIBREF17, BIBREF18, BIBREF19 для решения мультимодальных задач с использованием различных подходов для включения визуальных данных в BERT.Из этих работ остается выяснить, полностью ли изучено кросс-модальное выравнивание или оно в некоторой степени уже закодировано в абстракциях BERT.Поэтому, в отличие от этих подходов, мы явно избегаем использования следующих сложных механизмов: Мультимодальный контроль: все предыдущие работы используют явный мультимодальный контроль посредством этапа предварительного обучения; модели имеют доступ к парам текст/изображение в качестве входных данных для согласования их представлений.Напротив, наша модель может переключаться из режима «только текст» в режим «только изображение» без какого-либо явного выравнивания.Потери, связанные с изображением: определенные потери, такие как классификация замаскированной области интереса (области интереса) с лингвистическими подсказками BIBREF19 или прогнозирование изображения-предложения BIBREF18, как сообщается, полезны для согласования визуальных и текстовых модальностей.Вместо этого мы используем только исходные потери MLM от BERT (а не связанные с ними потери). Нелинейности: мы исследуем сценарий, в котором единственными изучаемыми параметрами для согласования представлений изображений с BERT являются параметры простого слоя линейной проекции.Это позволяет нам оценить, могут ли представления, закодированные в BERT, автоматически передаваться в другую модальность.Кроме того, насколько нам известно, эта статья является первой попыткой исследовать мультимодальную генерацию текста с использованием предварительно обученных языковых моделей.Мы представляем BERT-gen, текстовый генератор на основе BERT, который можно применять как в моно, так и в мультимодальных настройках.Мы относимся к изображениям так же, как к тексту: в то время как предложение рассматривается как последовательность токенов (под)слов, изображение рассматривается как последовательность объектов, связанных с соответствующими позициями (ограничивающими рамками).Мы показываем, как простого линейного отображения, проецирующего визуальные внедрения в первый слой, достаточно, чтобы закрепить BERT в визуальной сфере: оказывается, что текстовые и графические представления объектов эффективно выровнены, а внимание к словам переходит к вниманию к соответствующим объектам. на изображении.Наш вклад можно резюмировать следующим образом: мы представляем BERT-gen, новый метод генерации текста с использованием BERT, который можно применять как в моно-, так и в мультимодальных условиях; мы показываем, что семантические абстракции, закодированные в предварительно обученном BERT, могут обобщать в другую модальность; мы сообщаем о современных результатах по задаче VQG; мы предоставляем обширный анализ абляции для интерпретации поведения BERT-gen в различных конфигурациях (моно- или мультимодальных). Изучение неконтролируемых текстовых представлений, которые могут быть Применение к последующим задачам является широко исследуемой темой в литературе.Текстовые представления изучались с разной степенью детализации: слова с Word2vec BIBREF20, предложения с SkipThought BIBREF21, абзацы с ParagraphVector BIBREF22 и контекстуализированные векторы слов с ELMo BIBREF23.Другие методы используют подход трансферного обучения путем точной настройки всех параметров предварительно обученной модели для целевой задачи — парадигма, которая стала основной с момента появления BERT BIBREF0.BERT облегчает проблему однонаправленности большинства языковых моделей (т. е. когда цель обучения направлена на предсказание следующего слова), предлагая новую цель, называемую моделью языка в маске (MLM).В MLM некоторые слова, выбранные случайным образом, маскируются; цель обучения направлена на их прогнозирование.После успешного применения BERT BIBREF0 и его производных для подавляющего большинства задач НЛП несколько исследовательских усилий были сосредоточены на разработке мультимодальных версий BERT.VideoBERT BIBREF24, совместная видео- и текстовая модель, предварительно обучена на огромном корпусе видео YouTube и применяется для задач классификации действий и субтитров к видео в наборе данных YouCook II BIBREF25.Видео рассматривается как «визуальное предложение» (каждый кадр представляет собой «визуальное слово»), которое обрабатывается преобразователем BERT.Что касается моделей, совместно обрабатывающих информацию из изображений и текста, визуальные особенности, извлеченные из изображения, используются как «визуальные слова», а для разделения текстовых и визуальных токенов используется специальный токен [SEP].В литературе визуальные функции — это функции объекта, извлеченные с помощью Faster R-CNN BIBREF26, за заметным исключением BIBREF27, который использовал слои объединения из CNN.В первой части работы используются однопоточные преобразователи, в которых визуальные функции включены в BERT-подобный преобразователь: это относится к VisualBERT BIBREF18, VL-BERT BIBREF19, Unicoder-VL BIBREF28 и B2T2 BIBREF29.В других работах, таких как ViLBERT BIBREF16 и LXMERT BIBREF17, исследовались двухпотоковые подходы: в этих моделях используются кодировщики, специфичные для модальности, построенные на стандартных блоках Transformer, которые затем объединяются в кросс-модальный кодер.Интересно, что ни одна из вышеупомянутых моделей не использовалась для таких задач генерации, как VQG, решаемых в этой работе.Задача создания текстовых вопросов широко изучалась сообществом НЛП BIBREF30, BIBREF31, BIBREF32, BIBREF33, BIBREF34, BIBREF35, BIBREF36.Однако его визуальный аналог, визуальное создание вопросов (VQG), сравнительно менее изучен, чем стандартные хорошо известные мультимодальные задачи, такие как визуальный ответ на вопросы (VQA) BIBREF37, BIBREF38, BIBREF39, BIBREF40, визуальный диалог BIBREF41, BIBREF42 или Подпись к изображению BIBREF43, BIBREF44, BIBREF45. Задача VQG была впервые представлена BIBREF46 в их модели Neural Self Talk: цель состоит в том, чтобы получить знания об изображении путем итеративной генерации вопросов (VQG) и ответов на них (VQA).Авторы решают задачу с помощью простой RNN, обусловленной изображением, следуя работам по субтитрам изображений, таким как BIBREF45. Подходящие данные для задачи VQG могут быть получены из стандартных наборов данных изображений, к которым вопросы были аннотированы вручную, например, $VQG_{COCO}$ , $VQG_{Flickr}$, $VQG_{Bing}$ BIBREF14, каждое из которых состоит из 5000 изображений по 5 вопросов на каждое.В качестве альтернативы образцы VQG могут быть получены из наборов данных визуальных ответов на вопросы, таких как $VQA1.0$ BIBREF47, путем их «переворачивания» (принимая изображения в качестве входных данных, а вопросы — в качестве выходных данных). Было предложено множество подходов.BIBREF14 использует стандартную вентилируемую рекуррентную нейронную сеть, то есть кодировщик CNN, за которым следует декодер GRU для генерации вопросов.Целью BIBREF48 является создание для данного изображения множества визуально обоснованных вопросов различных типов (что, когда, где и т. д.); Аналогичным образом, BIBREF49 генерирует разнообразные вопросы, используя вариационные автоэнкодеры.В BIBREF50 VQG совместно решает свою двойную задачу (VQA), как и BIBREF46.В BIBREF51, BIBREF52 изображение (обработанное CNN) и подпись (обработанная LSTM) объединяются в смешанный модуль, за которым следует декодер LSTM для генерации вопроса, что приводит к самым современным результатам на задача VQG для данных $VQA1.0$.Совсем недавно BIBREF53 включил несколько сигналов – разместил информацию, полученную от PlaceCNN BIBREF54, подписи, тегов – и объединил их в глубокой байесовской структуре, где вклад каждого сигнала взвешивается для прогнозирования вопроса, получая текущее состояние дел. результаты на $VQG_{COCO}$. Целью VQG является создание релевантного вопроса из изображения и/или его подписи.Заголовок $X_{txt}$ состоит из токенов $M$ $txt_1, ..., txt_M$; эти токены могут быть словами или подсловами (меньше слова) в зависимости от используемой стратегии токенизации.Поскольку BERT использует токенизацию подслов, в этой статье мы будем называть подслова единицами токенизации.Предложенная модель проиллюстрирована на рисунке FigREF11.В SECREF12 мы подробно рассказываем, как изображения включаются в структуру Transformer.В SECREF14 мы представляем BERT-gen, новый подход к использованию BERT для генерации текста.В этой работе мы рассматриваем текстовые и визуальные входные данные одинаково, рассматривая их как последовательности.Поскольку изображение априори не является последовательным, мы рассматриваем изображение $X_{img}$ как последовательность областей объекта $img_1, ..., img_N$, как описано ниже.Изображения сначала обрабатываются, как в BIBREF17: Faster-RCNN BIBREF26, предварительно обученный на Visual Genome BIBREF55, обнаруживает $N=36$ наиболее заметных областей (которые могут содержать объект) для каждого изображения.Веса Faster-RCNN фиксируются во время обучения, поскольку мы используем предварительно вычисленные представления, общедоступные BIBREF56.Таким образом, каждое изображение представляется последовательностью $N=36$ семантических вложений $f_1, ... f_{N}$ (по одному для каждой области объекта) размерности 2048 вместе с соответствующими координатами ограничивающего прямоугольника $b_1, .. .b_{N}$ размерности 4.При таком подходе внимание BERT можно вычислить на уровне объектов или заметных областей изображения; если бы мы представляли изображения с традиционными функциями CNN, внимание вместо этого соответствовало бы однородной сетке областей изображения без особой семантики, как отмечено в BIBREF56.Чтобы создать объект, встраивающий $o_j$, кодирующий как семантику области объекта, так и его местоположение на изображении, мы объединяем $f_j$ и $b_j$ ($j\in [1,N]$).Следовательно, изображение рассматривается как последовательность $N=36$ визуальных представлений (каждое соответствует области объекта) $o_1,..., o_N$. Представления областей объекта $o_i$ упорядочены по релевантности обнаруженного объекта, и модель имеет доступ к их относительному местоположению на изображении через векторы $b_i$. Чтобы выяснить, может ли наша модель на основе BERT передавать знания за пределы языка, мы рассматривайте функции изображения как простые визуальные токены, которые могут быть представлены модели аналогично встраиванию текстовых токенов.Чтобы сделать векторы $o_j$ (размерности $2048+4=2052$) сравнимыми с вложениями BERT (размерностью 768), мы используем простой линейный кросс-модальный проекционный слой $W$ размерностей $2052\hspace{-1.00006 pt}\times\hspace{-1.00006pt}768$. Таким образом, области объекта $N$, обнаруженные на изображении, представляются как $X_{img} = (W.o_1,...,W.o_N)$. После отображения в пространство встраивания BERT с помощью $W$ изображение воспринимается остальной частью модели как последовательность единиц без явного указания, является ли это встраиванием текста или изображения.Мы представляем задачу VQG как классическую структуру моделирования последовательностей BIBREF57: где входные данные $X=X_{txt}$ в режиме только подписи, $X = X_{img}$ в режиме только изображения и $ X =X_{img} \oplus X_{txt}$ в мультимодальной настройке; $Y = {y_1,..., y_T}$ — вопрос, состоящий из токенов $T$.$\Theta$ — параметры модели BERT; $W$ представляет веса линейного слоя, используемого для проецирования визуальных входных данных на уровень внедрения BERT.Как упоминалось ранее, BERT — это кодировщик Transformer BIBREF1, предварительно обученный с использованием модели маскированного языка (MLM): токены в тексте заменяются специальным токеном [MASK], и модель обучается их прогнозировать.Поскольку BERT не был обучен с однонаправленной целью, его использование для генерации текста не является простым.Для генерации текста BIBREF58 предлагает использовать декодер Transformer, симметричный BERT.Однако авторы сообщают о трудностях обучения, поскольку составной декодер не проходит предварительное обучение, и предлагают особый режим обучения с побочным эффектом удвоения количества параметров.BIBREF59 выбирает промежуточный этап обучения с самоконтролем, внося однонаправленную потерю.Как подробно описано ниже, мы предлагаем относительно более простой, но эффективный метод использования готового BERT для генерации текста.Мы просто используем исходный декодер BERT как есть, изначально обученный генерировать токены, замаскированные на этапе предварительного обучения.Он состоит из слоя прямой связи, за которым следует нормализация, транспозиция слоя внедрения и softmax по словарю.Во время вывода, чтобы сгенерировать первый токен вопроса $y_1$, мы объединяем [MASK] с входными токенами $X$, затем кодируем $X \oplus \texttt {[MASK]}$ с помощью кодировщика BERT и передаем вывод кодера на декодер; $y_1$ — это выходные данные декодера токена [MASK].Впоследствии, учитывая $y_1$, мы объединяем его с входными токенами и кодируем $X \oplus y_1 \oplus \texttt {[MASK]}$, чтобы предсказать следующий токен $y_2$. Эта процедура повторяется до генерации специального токена.[EOS] означает конец предложения.Поскольку мы итеративно объединяем сгенерированные токены, двунаправленный механизм самообслуживания BERT будет влиять на каждый новый токен на представления предыдущих токенов.Чтобы противостоять этому, мы используем маску внимания слева направо, аналогичную той, которая использовалась в исходном декодере Transformer BIBREF1.Для входных токенов в $X$ мы применяем такую маску ко всем целевым токенам $Y$, которые были объединены с $X$, так что входные токены могут обслуживать только другие входные токены.И наоборот, для целевых токенов $y_t$ мы помещаем маску внимания на все токены $y_{>t}$, позволяя целевым токенам $y_t$ обслуживать только входные токены и уже сгенерированные целевые токены.Этот новый метод позволяет использовать предварительно обученные кодировщики для генерации текста.В этой работе мы инициализируем нашу модель параметрами из BERT-базы.Тем не менее, методология может быть применена к любым предварительно обученным кодировщикам Transformer, таким как RoBERTa BIBREF60 или Ernie BIBREF61. Предлагаемая модель может использоваться как в моно-, так и в мультимодальных установках.Это достигается путем активации или деактивации определенных модулей.Наша главная цель — определить, могут ли текстовые знания, закодированные в предварительно обученном BERT, быть полезными в кросс-модальной задаче.Таким образом, мы определяем три следующие экспериментальные установки, которые мы называем шагами 1, 2 и 3: Деактивация модуля визуального внедрения (см. Рисунок FigREF11), модель имеет доступ только к текстовому вводу, то есть к подписи.Модель инициализируется с использованием весов BERT и обучается в соответствии с уравнением DISPLAY_FORM15. И наоборот, при деактивации модуля встраивания текста (см. рисунок FigREF11) модель имеет доступ только к входному изображению, но не к подписи.Чтобы указать позицию $t$ $img_t$ в последовательности, мы суммируем позиционное вложение $t$ по BERT с визуальным представлением $img_t$, так же, как мы это делали бы для текстового токена $txt_t$.Модель инициализируется с весами, полученными на шаге 1.Все веса $\Theta$ BERT-поколения заморожены, и доступен только линейный слой $W$.Следовательно, если модель способна научиться генерировать контекстуализированные вопросы относительноИзображение показывает, что простого линейного слоя достаточно, чтобы соединить две модальности.Полной модели предоставляется доступ как к изображениям, так и к заголовкам.В этой настройке мы разделяем два разных входа специальным токеном BERT [SEP].Таким образом, входная последовательность модели принимает вид $\texttt {[CLS]}, img_1,..., img_N, \texttt {[SEP]}, txt_1,...,txt_M$.На шаге 1 изучаются только параметры $\Theta$ BERT-gen, поскольку входные данные изображения не были заданы.На шаге 2 $W$ обучается, сохраняя при этом $\Theta$ замороженным.Наконец, на шаге 3 мы точно настраиваем модель, используя как изображения, так и текстовые входные данные: модель инициализируется с параметрами $\Theta$, полученными на шаге 1, и $W$, полученными на шаге 2, и мы размораживаем все параметры. .Кроме того, мы сообщаем о результатах, полученных с помощью: только изображения (разморозка), где параметры BERT-генерации $\Theta$ не замораживаются; и Image+Caption (с нуля), где модель изучается без промежуточных шагов 1 и 2: параметры BERT-генерации $\Theta$ инициализируются с весами из предварительно обученного BERT, а $W$ инициализируется случайным образом.Мы проводим наши эксперименты, используя два установленных набора данных для визуальной генерации вопросов: представленный BIBREF14, он содержит 2500 обучающих изображений, 1250 проверочных изображений и 1250 тестовых изображений из MS COCO BIBREF62; каждое изображение имеет 5 соответствующих вопросов и 5 достоверных подписей.Набор данных визуальных ответов на вопросы BIBREF47 можно использовать для получения данных VQG BIBREF50.Задача обратная: вместо ответа на вопрос по изображению (VQA) модели вызываются для генерации релевантного вопроса по изображению (VQG).Также основанный на MS COCO, он содержит 82783 обучающих изображения, 40504 проверочных изображения и 81434 тестовых изображения.В $VQA1.0$ каждое изображение имеет 3 связанных вопроса.Поскольку тестовый набор MS COCO не содержит достоверных подписей, мы сгенерировали для него искусственные подписи с помощью NeuralTalk2 BIBREF45: для объективного сравнения мы использовали точно такую же модель, что и BIBREF52 (MDN-Joint). Мы сравниваем предложенную модель с следующее: BIBREF46 Вопросы генерируются с помощью RNN, обусловленного изображением: на каждом этапе генерации вычисляется распределение по словарю и используется для выборки следующего сгенерированного слова.Эта базовая линия позволяет генерировать разнообразные вопросы по одному и тому же изображению, поскольку процесс выбора слов не является детерминированным.BIBREF46Используя приведенную выше модель, выбираем слова с максимальной вероятностью из вычисленного распределения.BIBREF52Современная модель $VQA1.0$, основанная на совместном использовании подписи и информации об изображении.BIBREF53Новейшая версия $VQG_{COCO}$. Модель совместно использует несколько сигналов (изображение, информацию о месте, подпись, теги) для создания вопросов.Мы сообщаем следующие показатели для всех экспериментов в соответствии с предыдущими работами: BIBREF63.Ориентированный на точность показатель, первоначально предложенный для оценки машинного перевода.Он основан на подсчете перекрывающихся n-грамм между сгенерированными последовательностями и человеческими ссылками.BIBREF64Ориентированный на отзыв аналог метрик BLEU, опять же основанный на перекрытиях n-грамм.BIBREF65Гармоническое среднее между точностью и полнотой относительно униграмм.В отличие от других показателей, он также учитывает стемминг и сопоставление синонимов.BIBREF66Первоначально разработанный для субтитров к изображениям, он использует консенсус людей среди множества ссылок, отдавая предпочтение редким словам и наказывая частые слова.Эта функция особенно актуальна для нашей задачи, поскольку автоматически генерируемые вопросы часто следуют схожему шаблону, например «Что такое [...]?».Действительно, мы экспериментально подтверждаем (см. Таблицу и Таблицу), что метрика CIDEr является наиболее дискриминантной в наших количественных результатах.Все модели реализованы в PyText BIBREF67.Для всех наших экспериментов мы использовали один графический процессор NVIDIA RTX 2080 Ti, размер пакета 128 и 5 эпох.Мы использовали оптимизатор Адама с рекомендуемыми параметрами для BERT: скорость обучения установлена на уровне $2e^{-5}$ с разминкой $0,1$. Самым вычислительно затратным экспериментом является шаг 3, описанный выше: для этой модели завершение одной эпохи требует 30 секунд и 2 минут для наборов данных $VQG_{COCO}$ и $VQA$ соответственно.Метрики были рассчитаны с использованием пакета Python, выпущенного BIBREF33. В таблице мы сообщаем количественные результаты для задачи VQG на $VQA1.0$. Модель только с субтитрами уже демонстрирует значительные улучшения по всем показателям по сравнению с современными моделями.Впечатляющую производительность этой текстовой модели можно в основном отнести на счет BERT, который еще раз демонстрирует преимущества, полученные с использованием предварительно обученных языковых моделей.На втором этапе (только изображение) параметры BERT $\Theta$ замораживаются и изучаются только параметры кросс-модальной матрицы проекции $W$.Несмотря на использование простого линейного слоя, модель работает хорошо, генерируя релевантные вопросы только при наличии визуальных данных.Это говорит о том, что концептуальные представления, закодированные в предварительно обученных языковых моделях, таких как BERT, могут эффективно использоваться помимо текста.Кроме того, мы сообщаем о дополнительном эксперименте только с изображениями, на этот раз размораживая параметры BERT $\Theta $ – см. шаг 2 (размораживание) в таблице.Как и следовало ожидать, поскольку модели предоставлена большая гибкость, производительность еще больше улучшается.Наконец, на третьем этапе (Изображение + подпись) мы получаем наивысшие оценки по всем показателям.Это указывает на то, что модель способна эффективно использовать комбинацию текстовых и визуальных входных данных.Действительно, дополнительная информация из обеих модальностей может быть использована механизмом внутреннего внимания, заставляя визуальные и текстовые токены взаимодействовать для генерации выходных последовательностей.Опять же дополнительно сообщаем о результатах, полученных в обход промежуточных шагов 1 и 2: для модели, обозначенной как Шаг 3 (с нуля) (последняя строка Таблицы), параметры $\Theta$ инициализируются исходными весами из предварительно обученного BERT. , а матрица $W$ инициализируется случайным образом.В этих экспериментальных условиях мы наблюдаем более низкие результаты, и этот результат подтверждает важность принятой нами многоэтапной процедуры обучения.В таблице мы приводим количественные результаты VQG для $VQG_{COCO}$. В целом они соответствуют приведенным выше для $VQA1.0$. Однако мы наблюдаем два основных различия.Во-первых, большее относительное улучшение по сравнению с современным состоянием.Поскольку эффективность предварительно обученных моделей повышается в сценариях с небольшими данными BIBREF68, эту разницу можно объяснить меньшим размером $VQG_{COCO}$. Во-вторых, отметим, что модель «Только заголовок» в целом превосходит все другие модели, особенно по дискриминантной метрике CIDEr.Это можно объяснить тем, что в $VQG_{COCO}$ субтитры написаны человеком (тогда как в $VQA1.0$ они генерируются автоматически) и, следовательно, более высокого качества; более того, меньший размер набора данных может играть роль, препятствующую адаптации к визуальной модальности.Тем не менее, высокие результаты, полученные на этапе 2 по сравнению с базовыми показателями, подчеркивают эффективность нашего метода для изучения кросс-модальной проекции даже с относительно небольшим количеством обучающих изображений.Чтобы получить более глубокое понимание наших моделей, мы приводим результаты оценки человека в таблице .Мы случайным образом выбрали 50 изображений из тестового набора $VQA1.0$. Каждое изображение сочетается с его подписью, написанным человеком вопросом, используемым в качестве основной истины, и выходными данными для наших трех моделей: «Только подпись», «Только изображение» и «Изображение + подпись».Мы попросили трех аннотаторов оценить качество каждого вопроса по шкале Лайкерта от 1 до 5 по следующим критериям: читабельность, позволяющая оценить, насколько хорошо написан вопрос; актуальность подписи, насколько вопрос актуален по отношению кк подписи; и, релевантность изображения, насколько вопрос важен для изображения.Для релевантности подписи и изображения аннотаторам были представлены только подпись и только изображение соответственно.Мы наблюдаем, что все оцененные модели создают хорошо написанные предложения, поскольку читаемость существенно не отличается от человеческих вопросов.Неудивительно, что модель «Только подписи» показывает более высокий балл релевантности подписей, в то время как относительно более низкий показатель релевантности изображений можно объяснить автоматически генерируемыми и, следовательно, несовершенными подписями в наборе данных $VQA1.0$.Для сравнения, модель «Только изображение» получает более низкие оценки релевантности подписей и более высокие оценки релевантности изображений; это указывает на то, что кросс-модальной проекции достаточно, чтобы соединить модальности, позволяя BERT генерировать соответствующие вопросы к изображению.Наконец, модель «Изображение + подпись» обеспечивает лучшую релевантность изображения среди наших моделей, что соответствует количественным результатам, представленным в таблицах и . Чтобы интерпретировать поведение моделей, основанных на внимании, полезно посмотреть, каким токенам уделяется больше внимания (BIBREF69).На рисунке FigREF44 мы представляем два изображения $A$ и $B$ вместе с их подписями и тремя сгенерированными вопросами, соответствующими нашим трем экспериментальным установкам (только заголовок, только изображение и изображение + подпись).Для этого анализа мы усредняем векторы внимания всех голов в последнем слое и выделяем текстовые и визуальные токены, которые наиболее посещаются моделями.Для обоих изображений модель «Только заголовок» учитывает важные слова в подписи.Модель «Только изображение» остается не менее актуальной: на изображении $A$ она генерирует вопрос о столе (с неясным вниманием).Интересно, что для изображения $B$ модель «Только изображение» исправляет ошибку из шага 1: зонтик держит женщина, а не мужчина, и внимание действительно сосредоточено на женщине на изображении.Наконец, модель «Изображение + подпись» способна генерировать подходящие вопросы об изображении, имея относительно небольшое отношение к подписи: для изображения $A$, «Изображение + подпись» модель генерирует вопрос «Который час?», обращая внимание на часы. ; для изображения $B$ Image + Caption генерирует «Какого цвета зонтик?", сосредоточив внимание на зонтике.В подписях обоих образцов нет упоминаний о часах или зонтиках, что еще раз указывает на эффективное соответствие между визуальными и текстовыми представлениями.Мы проводим дополнительный эксперимент по анализу соответствия текста/видения для каждой модели.На рисунке FigREF46 показано кросс-модальное сходство $X_{sim}$ для различных сценариев модели, рассчитанное на каждом базовом уровне BERT от 1 до 12.Мы определяем кросс-модальное подобие $X_{sim}$ как косинусное подобие между векторными представлениями обеих модальностей.Эти векторы представляют собой два представления модели в непрерывном пространстве, если в качестве входных данных заданы либо i) изображение, либо ii) его соответствующая подпись.Мы представляем эти векторы подписей и изображений с помощью специального токена BERT.[CLS], следуя предыдущим работам BIBREF70, где [CLS] используется для представления всей последовательности.Сообщенные значения соответствуют среднему кросс-модальному сходству, рассчитанному для всех примеров тестового набора $VQG_{COCO}$.В дополнение к настройкам, описанным в разделе SECREF4 (только заголовок, только изображение и изображение + заголовок), мы также сообщаем о $X_{sim}$ для Random Transformer, архитектуры BERT со случайными весами.Как и ожидалось, его $X_{sim}$ близко к нулю.Все остальные модели основаны на BERT.Как предполагает BIBREF71, первые уровни BERT имеют тенденцию кодировать языковую информацию более низкого уровня.Это может объяснить, почему модели показывают схожие оценки $X_{sim}$ до 9-го слоя, а затем расходятся: веса для этих слоев остаются очень похожими в наших точно настроенных моделях.Для последнего слоя ($l=12$) мы наблюдаем, что $\textit {Только подпись} < \textit {Только изображение} < \textit {Изображение +Заголовок}$.Модель «Только заголовок» никогда не видела изображений во время обучения и, следовательно, не может кодировать семантическую информацию, учитывая только изображения в качестве входных данных.Тем не менее, сообщаемое значение $X_{sim} > 0$ можно объяснить тем фактом, что при точной настройке VQG на этапе 1 BERT-gen кодирует информацию, специфичную для задачи, во встраивании токена [CLS] (например, окончание вопроса). на «?» и часто начинается с «Что/Где/Кто»).$\textit {Только изображение} > \textit {Только подпись}$ можно объяснить изучением кросс-модальной проекции $W$. Однако, поскольку BERT не настроен точно, модель изучает «искажение», позволяющее выравнивать текст и изображение.Наконец, Image + Caption $>$ Image only можно отнести к тонкой настройке BERT, способствующей увеличению наблюдаемого разрыва и его появлению на более ранних уровнях.Мы исследовали, могут ли абстракции, закодированные в предварительно обученной модели BERT, обобщаться за пределы текста.Мы предложили BERT-gen, новую методологию, которая позволяет напрямую генерировать текст из готовых предварительно обученных кодировщиков как в моно-, так и в мультимодальных конфигурациях.Кроме того, мы применили BERT-gen для визуальной генерации вопросов, получив самые современные результаты на двух установленных наборах данных.Мы показали, насколько простой линейной проекции достаточно для эффективного согласования визуальных и текстовых представлений.В будущих работах мы планируем распространить BERT-gen на другие модальности, такие как аудио или видео, исследуя потенциальные взаимодействия, которые могут возникнуть в сценариях, где присутствует более двух модальностей. | Предварительно обученные языковые модели, такие как BERT, в последнее время способствовали значительному прогрессу в задачах обработки естественного языка. Интересно, что хотя многоязычные модели BERT продемонстрировали впечатляющие результаты, недавние работы показали, что одноязычный BERT также может быть конкурентоспособным в межъязыковых условиях с нулевым шансом. Это говорит о том, что абстракции, изученные этими моделями, могут передаваться между языками, даже если они обучены на одноязычных данных. В этой статье мы исследуем, применим ли такой потенциал обобщения к другим модальностям, таким как видение: содержит ли BERT абстракции, которые обобщают за пределами текста? Мы представляем BERT-gen, архитектуру генерации текста на основе BERT, способную использовать как моно-, так и мультимодальные представления. Результаты, представленные в различных конфигурациях, указывают на положительный ответ на наш исследовательский вопрос, а предлагаемая модель существенно улучшается по сравнению с современными наборами данных для создания визуальных вопросов. | 5,305 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Схема аннотаций крупномасштабного набора данных многосторонних диалогов для анализа дискурса и машинного понимания. Все больше и больше ученых НЛП сосредотачиваются на исследовании многосторонних диалогов, таких как анализ дискурса многосторонних диалогов и подведение итогов многосторонних встреч BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4, BIBREF5.Однако масштаб набора данных STAC ограничил исследования анализа дискурса для многосторонних диалогов.С другой стороны, как мы знаем, не существует литературы, посвященной машинному пониманию многостороннего диалога.Учитывая связь между релевантностью между пониманием машинного чтения и анализом дискурса, мы аннотируем набор данных для двух задач по пониманию многосторонних диалогов.Наш набор данных основан на крупномасштабном наборе данных многосторонних диалогов Ubuntu Chat Corpus BIBREF6.Для каждого диалога в корпусе мы аннотируем дискурсивную структуру диалога, предлагаем три вопроса и находим диапазон ответов во входных диалогах.Чтобы повысить сложность задачи, мы аннотируем $\frac{1}{6}$ к $\frac{1}{3}$ вопросам, на которые нет ответа, и правдоподобным ответам на них из диалогов.Это реальный пример из набора данных Ubuntu.Пример 11.mjg59: Кто-нибудь должен подсказать Марку, что лучший способ заставить людей полюбить вас — это нанять людей для работы над реверс-инжинирингом закрытых драйверов.2. jdub:хе 3. Дэниелс $\rightarrow $ mjg59: хе 4. Дэниелс:ПРИВЕТ 5. Дэниелс $\rightarrow $ mjg59: твоя работа — развлекать меня, чтобы я не заснул в 14:00 и полностью разрушить мой переход на AEST 6.bdale $\rightarrow $ Дэниелс: увидимся на следующей неделе?7. Дэниелс $\rightarrow $ bdale: ох, авг, верно.рок.8. Дэниелс $\rightarrow $ bdale: просто напишите мне по электронной почте или позвоните по телефону +61 403 505 896 9. bdale $\rightarrow $ Дэниелс: Я приеду во вторник утром в ваше время, уеду в пятницу утром, остановлюсь в Дакстоне. В основном это два вклада в наш корпус: первый крупномасштабный набор данных многочастных диалогов для анализа дискурса.Анализ дискурсивной структуры многопартийных диалогов представляет собой сложную задачу.Для разработки более мощных моделей потребуется достаточное количество обучающих данных.Сначала мы предлагаем задачу понимания машинного чтения для многосторонних диалогов.В отличие от существующих задач машинного понимания, многосторонние диалоги могут быть более сложными, поэтому требуется графическая модель для представления диалогов и лучшего понимания структуры дискурса в диалоге.В этой статье я дам подробное описание нашего крупномасштабного набора данных.В разделе 2 я представлю корпус Ubuntu.В разделах 3 и 4 я представлю аннотации для анализа дискурса и понимания машинного чтения соответственно.В разделе 5 я кратко перечислю некоторую соответствующую литературу.Набор данных Ubuntu представляет собой крупномасштабный массив многосторонних диалогов.Есть несколько причин выбрать набор данных Ubuntu в качестве необработанных данных для аннотаций.Во-первых, набор данных Ubuntu — это большой многосторонний набор данных.Недавно BIBREF1 использовал Ubuntu в качестве набора данных для изучения графического представления диалогов.После некоторой предварительной обработки получается 38 тысяч сеансов и 1,75 миллиона высказываний.В каждой сессии присутствует 3-10 высказываний и 2-7 собеседников.Во-вторых, набор данных Ubuntu легко комментировать.Набор данных Ubuntu уже содержит отношения Response-to, которые представляют собой дискурсивные отношения между высказываниями разных говорящих.Для аннотирования дискурсивных зависимостей в диалогах нам нужно только аннотировать отношения между высказываниями одного и того же говорящего и конкретным смыслом дискурсивного отношения.В-третьих, существует множество статей, проводящих эксперименты с набором данных Ubuntu, и этот набор данных получил широкое признание.Структуру дискурсивных зависимостей каждого многостороннего диалога можно рассматривать в виде графа.Чтобы лучше изучить графическое представление многосторонних диалогов, мы принимаем диалоги с 8-15 высказываниями и 3-7 говорящими.Чтобы упростить задачу, фильтруем диалоги длинными предложениями (более 20 слов).В итоге получаем 52 053 диалога и 460 358 высказываний.В этом разделе объясняется, как аннотировать структуру дискурса в многосторонних диалогах.Задача анализа дискурса для многосторонних диалогов направлена на обнаружение дискурсивных отношений между высказываниями.Дискурсивная структура многостороннего диалога представляет собой ориентированный ациклический граф (DAG).В процессе аннотирования дискурсивного анализа многосторонних диалогов выделяются две части: реберная аннотация между высказываниями и конкретный смысловой тип дискурсивных отношений.Структура дискурса примера 1 показана на рисунке 1.В примере диалога четыре говорящих и девять высказываний.В левой части показаны говорящие и их высказывания, а в правой части показаны дуги отношений зависимости дискурса.Структуру дискурса можно рассматривать как граф зависимостей дискурса.Мы принимаем ту же смысловую иерархию, что и набор данных STAC, который содержит шестнадцать дискурсивных отношений.Граница между двумя высказываниями означает, что между этими двумя высказываниями существуют отношения дискурсивной зависимости.Направление края представляет направление зависимости дискурса.В этом подразделе нам нужно подтвердить, имеют ли два высказывания дискурсивное отношение.Как и в случае с PDTB BIBREF7, мы называем два высказывания Arg1 и Arg2 соответственно.Переднее высказывание — Arg1, а заднее — Arg2. Например, в примере 1 имеется многосторонний диалог с 9 высказываниями, высказывания 1–9 соответственно.Высказывание 3 зависит от высказывания 1, мы можем провести границу от высказывания 1 к высказыванию 3.В противном случае, если высказывание 1 зависит от высказывания 2, мы можем провести границу от высказывания 2 к высказыванию 1.В большинстве случаев направление дискурсивных отношений в многопартийных диалогах идет спереди назад.Самая большая разница между анализом дискурса хорошо написанного документа и диалогов заключается в том, что дискурсивные отношения могут существовать в двух несмежных высказываниях в диалогах.Когда мы аннотируем диалоги, мы должны читать диалоги от начала до конца.Для каждого высказывания мы должны найти его один родительский узел хотя бы из всех его предыдущих высказываний.Мы предполагаем, что структура дискурса представляет собой связный граф и ни одно высказывание не является изолированным.Когда мы обнаруживаем дискурсивное отношение между двумя высказываниями, нам нужно продолжать подтверждать смысл конкретного отношения.Мы используем ту же иерархию чувств в наборе данных STAC.В STAC шестнадцать дискурсивных отношений.Все отношения перечислены следующим образом: Комментарий, Уточнение_вопроса, Разработка, Подтверждение, Продолжение, Объяснение, Условное, Пара вопрос-ответ, Чередование, Q-Elab, Результат, Фон, Повествование, Исправление, Параллельность, Контраст.Задача понимания прочитанного многостороннего диалога призвана быть полезной для понимания многостороннего диалога.В отличие от существующих задач на понимание машинного чтения, входные данные этой задачи представляют собой многосторонний диалог, и мы должны ответить на некоторые вопросы в рамках диалога.Мы предлагаем три вопроса для каждого диалога и аннотируем диапазон ответов во входном диалоге.Как мы знаем, наш набор данных является первым корпусом для понимания прочитанного многосторонних диалогов.Построим следующие вопросы и ответы для диалога в примере 1:Q1:Когда уйдет Бдале? A1: Утро пятницы. Q2: Как заставить людей полюбить Марка, по мнению Mjg59.Ответ 2: Наймите людей для работы над реверс-инжинирингом закрытых драйверов.С другой стороны, чтобы повысить сложность задачи, мы предлагаем $ \frac{1}{6}$ $ \frac{1}{3}$ вопросы, на которые в нашем наборе данных нет ответа.Мы аннотируем вопросы, на которые нет ответа, и их правдоподобные ответы (PA).Каждый правдоподобный ответ приходит из входного диалога, но не является ответом на правдоподобный вопрос. Q1:Какой адрес электронной почты у Дэниела? PA: +61 403 505 896. В этом разделе я представлю несколько существующих наборов данных многосторонних диалогов и объясню, почему нам нужно аннотировать новый набор данных.Существует единственный корпус анализа дискурса в диалогах многостороннего чата: STAC BIBREF8.Корпус взят из онлайн-игры The Settlers of Catan.Игра Settlers — это многосторонняя игра, в которой победа-проигрыш.Как упоминалось выше, пример в STAC показан на рисунке 1.Более подробная информация о корпусе STAC описана в BIBREF8. Обзор STAC показан в таблице 1.Из таблицы 1 мы можем знать, что существует около 10 тысяч EDU и связей, и большинство EDU слабо связаны.Каждый EDU можно рассматривать как сообщение или предложение в диалогах.Как показано в разделе 3.2, в STAC существует шестнадцать типов отношений зависимости дискурса. Понимание машинного чтения — популярная задача, цель которой — помочь машине лучше понимать естественный язык.Существует несколько типов наборов данных для машинного понимания, включая наборы извлекаемых данных BIBREF9, BIBREF10, наборы данных выбора предложения ответа BIBREF11, BIBREF12 и наборы данных с множественным выбором BIBREF13, BIBREF14.Я кратко представлю два набора данных QuAC BIBREF15 и CoQA BIBREF16.QuAC:«Ответы на вопросы в контексте» — это набор данных двусторонних диалогов для понимания машинного чтения BIBREF15.Набор данных для ответов на вопросы в контексте, который содержит 14 тысяч диалогов контроля качества с поиском информации (всего 100 тысяч вопросов).В диалогах участвуют два массовых работника: (1) студент, который задает последовательность вопросов в произвольной форме, чтобы узнать как можно больше о скрытом тексте Википедии, и (2) учитель, который отвечает на вопросы, предоставляя короткие выдержки из текста.CoQA — это большой набор данных для создания систем ответов на вопросы-разговоры BIBREF16. Мы предлагаем схему аннотирования крупномасштабных многосторонних диалогов чата для анализа дискурса и машинного понимания.Основная цель этого проекта – способствовать пониманию многопартийного диалога.Наш корпус основан на корпусе чата Ubuntu.Для каждого многостороннего диалога мы аннотируем структуру дискурса и пары вопросов-ответов для диалога.Как мы знаем, это будет первый крупномасштабный корпус для анализа дискурса многосторонних диалогов, и мы впервые предлагаем задачу для машинного понимания многосторонних диалогов. | В этой статье мы предлагаем схему аннотирования крупномасштабных многосторонних диалогов в чате для анализа дискурса и машинного понимания. Основная цель этого проекта – помочь понять многопартийный диалог. Наш набор данных основан на корпусе чата Ubuntu. Для каждого многостороннего диалога мы аннотируем структуру дискурса и пары вопросов-ответов для диалогов. Как мы знаем, это первый крупномасштабный корпус для анализа дискурса многосторонних диалогов, и мы впервые предлагаем задачу на машинное понимание многосторонних диалогов. | 1,617 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Еще раз о шаблонах Hearst: автоматическое обнаружение гипернимов в крупных текстовых корпорациях. Иерархические отношения играют центральную роль в представлении знаний и рассуждениях.Обнаружение гипернимов, то есть моделирование иерархий на уровне слов, уже давно является важной задачей обработки естественного языка.Начиная с BIBREF0 методы на основе шаблонов стали одним из наиболее влиятельных подходов к этой проблеме.Их ключевая идея заключается в использовании определенных лексико-синтаксических шаблонов для обнаружения отношений is-a в тексте.Например, такие шаблоны, как «INLINEFORM0, такие как INLINEFORM1» или «INLINEFORM2 и другие INLINEFORM3», часто указывают на отношения гипернимии формы INLINEFORM4 is-a INLINEFORM5.Такие шаблоны могут быть предопределены или могут быть изучены автоматически BIBREF1, BIBREF2.Однако хорошо известная проблема паттернов, подобных Херсту, заключается в их крайней разреженности: слова должны встречаться точно в правильной конфигурации, иначе никакая связь не может быть обнаружена.Чтобы смягчить проблему разреженности, акцент в обнаружении гипернимии недавно сместился на дистрибутивные представления, в которых слова представлены в виде векторов на основе их распределения по большим корпусам.Такие методы предлагают богатое представление лексического значения, смягчая проблему разреженности, но требуют специальных мер сходства, чтобы различать разные лексические отношения.Наиболее успешные меры на сегодняшний день, как правило, основаны на гипотезе распределенного включения (DIH) BIBREF3, которая примерно гласит, что контексты, в которых может появляться узкий термин INLINEFORM0 («кошка»), должны быть подмножеством контекстов, в которых более широкий термин INLINEFORM1 («животное») может появиться.Интуитивно, DIH утверждает, что мы должны быть в состоянии заменить любое слово «кошка» на «животное» и при этом сохранить правильное высказывание.Важным выводом из работы над методами распределения является то, что определение контекста часто имеет решающее значение для успеха системы BIBREF4.Некоторые представления распределения, такие как позиционные контексты или контексты на основе зависимостей, могут даже отражать грубые функции, подобные шаблону Херста, BIBREF5 , BIBREF6 .Оба подхода к обнаружению гиперонимов полагаются на совместное появление в определенных контекстах. Они различаются своей стратегией выбора контекста: методы на основе шаблонов используют заранее определенные шаблоны, созданные вручную, для создания высокоточного извлечения, в то время как методы DIH полагаются на неограниченное совместное появление слов в больших количествах. корпус.Здесь мы возвращаемся к идее использования методов на основе шаблонов для обнаружения гипернимов.Мы оцениваем несколько моделей, основанных на шаблонах, на современных крупных корпусах и сравниваем их с методами, основанными на DIH.Мы обнаружили, что простые методы, основанные на шаблонах, постоянно превосходят специализированные методы DIH при решении некоторых сложных задач гипернимии, включая обнаружение, прогнозирование направления и градуированное ранжирование последствий.Более того, мы обнаружили, что внедрение низкоранговых моделей на основе шаблонов существенно повышает производительность за счет устранения проблемы разреженности.В целом наши результаты показывают, что шаблоны Херста обеспечивают высококачественные и надежные прогнозы для крупных корпусов, фиксируя важные контекстуальные ограничения, которые еще не моделируются методами распределения.Ниже мы обсудим основанные на шаблонах и дистрибутивные методы обнаружения отношений гипернимии.Мы подробно рассматриваем только относительно простые подходы, основанные на шаблонах, которые позволяют нам напрямую сравнивать их производительность с методами, основанными на DIH.Во-первых, пусть INLINEFORM0 обозначает набор отношений гипернимии, которые были извлечены с помощью шаблонов Херста из текстового корпуса INLINEFORM1.Кроме того, пусть INLINEFORM2 обозначает количество извлечений INLINEFORM3, а INLINEFORM4 обозначает общее количество извлечений.При первом, наиболее непосредственном применении шаблонов Херста мы затем просто используем счетчики INLINEFORM5 или, что то же самое, вероятность извлечения DISPLAYFORM0 для прогнозирования отношений гипернимии из INLINEFORM0. Однако простые вероятности извлечения, такие как в eq:prob, искажаются из-за вероятностей возникновения составляющие их слова.Например, более вероятно, что мы извлекаем (Франция, страна) вместо (Франция, республика) просто потому, что слово страна встречается чаще, чем слово республика.Этот перекос в распределении слов хорошо известен в естественном языке и также переводится в шаблоны Херста (см. также fig:dist).По этой причине мы также рассматриваем прогнозирование отношений гипернимии на основе точечной взаимной информации шаблонов Херста: во-первых, пусть INLINEFORM0 и INLINEFORM1 обозначают вероятность того, что INLINEFORM2 встречается как гипоним и гиперним соответственно.Затем мы определяем положительную поточечную взаимную информацию для INLINEFORM3 как DISPLAYFORM0. Хотя eq:pmi может корректировать различные вероятности появления слов, он не может обрабатывать недостающие данные.Однако разреженность является одной из основных проблем при использовании шаблонов Херста, поскольку обязательно неполный набор правил извлечения неизбежно приведет к отсутствию извлечения.С этой целью мы также изучаем вложения низкого ранга матрицы PPMI, которые позволяют нам делать прогнозы для невидимых пар.В частности, пусть INLINEFORM0 обозначает количество уникальных терминов в INLINEFORM1.Кроме того, пусть INLINEFORM2 — это матрица PPMI с элементами INLINEFORM3, а INLINEFORM4 — ее разложение по сингулярным значениям (SVD).Затем мы можем предсказать отношения гипернимии на основе усеченного SVD INLINEFORM5 через DISPLAYFORM0, где INLINEFORM0 , INLINEFORM1 обозначают INLINEFORM2 -thи INLINEFORM3 -я строка INLINEFORM4 и INLINEFORM5 соответственно, и где INLINEFORM6 — диагональная матрица усеченных сингулярных значений (в которой все сингулярные значения, кроме INLINEFORM7, установлены в ноль). eq:spmi можно интерпретировать как сглаженную версию наблюдаемая матрица PPMI.Из-за усечения сингулярных значений eq:spmi вычисляет вложение INLINEFORM0 низкого ранга, где похожие слова (с точки зрения их шаблонов Херста) имеют схожие представления.Поскольку eq:spmi определен для всех пар INLINEFORM1, это позволяет нам делать прогнозы гипернимии на основе сходства слов.Мы также рассматриваем факторизацию матрицы, построенной на основе вероятностей появления, как в eq:prob, обозначенной INLINEFORM2.Этот подход тесно связан с методом BIBREF7, который был предложен для повышения точности и полноты обнаружения гипернимии по шаблонам Херста.Большинство неконтролируемых распределительных подходов к обнаружению гипернимии основаны на вариантах гипотезы распределительного включения BIBREF8, BIBREF9, BIBREF10, BIBREF11, BIBREF4.Здесь мы сравниваем два метода с сильными эмпирическими результатами.Как и большинство показателей DIH, они определяются только для больших, разреженных, положительно оцененных пространств распределения.Во-первых, мы рассматриваем WeedsPrec BIBREF8, который отражает функции INLINEFORM0, которые включены в набор функций более широкого термина, INLINEFORM1: DISPLAYFORM0. Во-вторых, мы рассматриваем invCL BIBREF11, который вводит понятие исключения распределения, также измеряя степень, в которой более широкий термин содержит контексты, не используемые более узким термином.В частности, пусть INLINEFORM0 обозначает степень включения INLINEFORM0 в INLINEFORM1, как это предложено BIBREF12.Чтобы измерить как включение INLINEFORM2 в INLINEFORM3, так и невключение INLINEFORM4 в INLINEFORM5, invCL затем определяется как INLINEFORM6.Хотя большинство неконтролируемых подходов к распределению основаны на DIH, мы также рассматриваем модель распределения SLQS, основанную на альтернативной гипотезе информативности BIBREF10, BIBREF4.Интуитивно, модель SLQS предполагает, что общие слова появляются в основном в неинформативном контексте, если судить по энтропии.В частности, SLQS зависит от медианной энтропии верхних контекстов INLINEFORM0 термина, определенной как INLINEFORM1, где INLINEFORM0 — это энтропия Шеннона контекста INLINEFORM1 для всех терминов, а INLINEFORM2 выбирается при выборе гиперпараметра.Наконец, SLQS определяется с использованием соотношения между двумя терминами: INLINEFORM3. Поскольку модель SLQS сравнивает только относительную общность двух терминов, но не выносит суждения о родстве терминов, мы сообщаем SLQS-cos, который умножает показатель SLQS на косинусное сходство INLINEFORM0 и INLINEFORM1 BIBREF10 .ДляЧтобы обеспечить полноту, мы также включаем косинусное сходство в качестве базовой линии в нашу оценку.Чтобы оценить относительную эффективность моделей на основе шаблонов и моделей распределения, мы применяем их к нескольким сложным задачам гипернимии.Обнаружение:При обнаружении гипернимии задача состоит в том, чтобы определить, находятся ли пары слов в отношении гипернимии.Для этой задачи мы оцениваем все модели на пяти эталонных наборах данных:Во-первых, мы используем подмножество существительных bless, которое содержит аннотации гипернимии для 200 конкретных, в основном однозначных существительных.Отрицательные пары содержат смесь согипонимии, меронимии и случайных пар.Эта версия содержит всего 14 542 пары с 1337 положительными примерами.Во-вторых, мы оцениваем индикаторы BIBREF13, которые состоят из 2770 пар существительных, сбалансированных между положительными примерами гипернимии и случайно перетасованными отрицательными парами.Мы также рассматриваем eval BIBREF14, содержащий 7378 пар в смеси гипернимии, синонимии, антонимии, меронимии и прилагательных отношений.eval примечателен отсутствием случайных пар.Самый большой набор данных — shwartz BIBREF2, который был собран из WordNet, DBPedia и других ресурсов.Мы ограничиваемся подмножеством из 52 578 пар, исключая многословные выражения.Наконец, мы оцениваем wbless BIBREF15, подмножество bless из 1668 пар, при этом отрицательные пары выбираются из отношений согипонимии, случайных чисел и гипонимии.В предыдущей работе использовались разные метрики для оценки BLESS BIBREF11, BIBREF5, BIBREF6.Мы решили оценить глобальный рейтинг с использованием средней точности.Это позволило нам использовать одну и ту же метрику во всех тестах обнаружения и соответствует оценкам в BIBREF4. Направление:При прогнозировании направления задача состоит в том, чтобы определить, какой термин является более широким в данной паре слов.Для этой задачи мы оцениваем все модели на трех наборах данных, описанных BIBREF16: К счастью, задача состоит в том, чтобы предсказать направление для всех 1337 положительных пар в наборе данных.Пары считаются правильными только в том случае, если направление гипернимии оценивается выше, чем обратное направление, то есть INLINEFORM0 .Мы резервируем 10% данных для проверки и тестируем оставшиеся 90%.В wbless мы следуем предыдущей работе BIBREF17, BIBREF18 и выполняем 1000 случайных итераций, в которых 2% данных используются в качестве набора проверки для изучения порога классификации, а также тестируем оставшуюся часть данных.Мы сообщаем среднюю точность по всем итерациям.Наконец, мы оцениваем bibless BIBREF16, вариант wbless с парами гипернимии и гипонимии, явно аннотированными для их направления.Поскольку данная задача требует трехфакторной классификации (гиперонимия, гипонимия и др.), мы проводим двухэтапную классификацию.Сначала настраивается пороговое значение с использованием 2% данных, определяя, проявляет ли пара гипернимию в любом направлении.Во-вторых, относительное сравнение оценок определяет, какое направление прогнозируется.Как и в случае с wbless, мы сообщаем среднюю точность за 1000 итераций.Градированные последствия:При градуированном следствии задача состоит в том, чтобы количественно оценить степень соблюдения отношения гипернимии.Для этой задачи мы следуем предыдущей работе BIBREF19 , BIBREF18 и используем существительную часть гиперлекса BIBREF20 , состоящую из 2163 пар существительных, которые аннотированы, в какой степени INLINEFORM0 является INLINEFORM1 по шкале INLINEFORM2 .Для всех моделей мы сообщаем ранговую корреляцию Спирмена INLINEFORM3 .Мы обрабатываем слова вне словарного запаса (OOV), назначая медиану оценок (вычисленную по обучающему набору) парам со словами OOV.Модели на основе шаблонов: мы извлекаем шаблоны Херста из объединения Gigaword и Wikipedia и готовим наш корпус путем токенизации, лемматизации и POS-тегирования с использованием CoreNLP 3.8.0.Полный набор паттернов Херста представлен в таблице TABREF8.Выбранные нами шаблоны соответствуют прототипным шаблонам Херста, таким как «животные, такие как кошки», но также включают в себя более широкие шаблоны, такие как «Новый год — самый важный праздник».Начальным и последующим именным группам разрешено соответствовать ограниченным модификаторам (составным существительным, прилагательным и т. д.), в этом случае мы также генерируем совпадение для начала именной группы.Во время постобработки мы удаляем пары, которые не были извлечены хотя бы по двум различным шаблонам.Мы также удаляем любую пару INLINEFORM0, если INLINEFORM1.Окончательный корпус содержит примерно 4,5 миллиона совпадающих пар, 431 тысячу уникальных пар и 243 тысячи уникальных терминов.Для моделей на основе SVD мы выбираем ранг INLINEFORM2 {5, 10, 15, 20, 25, 50, 100, 150, 200, 250, 300, 500, 1000} в наборе проверки.Другие модели, основанные на шаблонах, не имеют гиперпараметров.Модели распределения. В качестве базовых показателей распределения мы используем большое разреженное пространство распределения BIBREF4, которое рассчитывается на основе UkWaC и Wikipedia и, как известно, имеет высокую производительность при выполнении некоторых задач обнаружения.Корпус был помечен тегами POS и проанализирован зависимостью.Контексты распределения были построены из соседних слов в анализах зависимостей BIBREF21, BIBREF22.Цели и контексты, которые появлялись в корпусе менее 100 раз, были отфильтрованы, а полученная матрица совпадений была преобразована PPMI.Полученное пространство содержит представления для 218 тысяч слов в 732 тысячах контекстных измерений.Для модели SLQS мы выбрали количество контекстов INLINEFORM0 из того же набора опций, что и ранг SVD в моделях на основе шаблонов.В таблице TABREF13 показаны результаты всех трех экспериментальных настроек.Почти во всех случаях мы обнаруживаем, что подходы, основанные на шаблонах, существенно превосходят все три модели распределения.Особенно сильные улучшения можно наблюдать на bless (средняя точность 0,76 против 0,19) и wbless (0,96 против 0,69) для задач обнаружения и всех задач направленности.По прогнозированию направленности на bless модели SVD превосходят даже современную контролируемую модель BIBREF18.Более того, обе модели SVD в целом работают лучше, чем их разреженные аналоги, во всех задачах и наборах данных, кроме Hyperlex.Мы провели апостериорный анализ наборов проверки, сравнивая модели ppmi и spmi, и обнаружили, что усеченный SVD улучшает отзыв благодаря своим свойствам матричного завершения.Мы также обнаружили, что модель spmi снижает вес многих пар выбросов с высокими оценками, состоящих из редких терминов.При сравнении моделей INLINEFORM0 и ppmi с моделями распределения мы наблюдаем неоднозначные результаты.Набор данных Шварца сложен для разреженных моделей из-за очень длинного хвоста низкочастотных слов, которые трудно охватить с помощью шаблонов Херста.При оценке методы, основанные на шаблонах Херста, наказываются словами OOV из-за большого количества глаголов и прилагательных в наборе данных, которые не фиксируются нашими шаблонами.Однако в 7 из 9 наборов данных по крайней мере одна из разреженных моделей превосходит все показатели распределения, показывая, что шаблоны Херста могут обеспечить высокую производительность на больших корпусах.Мы изучили относительную эффективность методов, основанных на шаблонах Херста, и методов, основанных на DIH, для обнаружения гипернимов.Наши результаты показывают, что методы, основанные на шаблонах, существенно превосходят методы, основанные на DIH, в нескольких сложных тестах.Мы обнаружили, что методы внедрения устраняют проблемы разреженности подходов, основанных на шаблонах, и существенно улучшают охват.Мы пришли к выводу, что паттерны Херста обеспечивают важный контекст для обнаружения отношений гипернимии, которые еще не отражены в моделях DIH.Наш код доступен по адресу https://github.com/facebookresearch/hypernymysuite. Мы хотели бы поблагодарить анонимных рецензентов за их полезные предложения.Мы также благодарим Вереда Шварца, Энрико Сантуса и Доминика Шлехтвега за предоставленные нам места для распространения и базовые реализации. | Методы неконтролируемого обнаружения гипернимов можно в общих чертах разделить на две парадигмы: методы на основе шаблонов и методы распределения. В этой статье мы изучаем эффективность обоих подходов в нескольких задачах гипернимии и обнаруживаем, что простые методы, основанные на шаблонах, постоянно превосходят методы распределения на общих эталонных наборах данных. Наши результаты показывают, что модели, основанные на шаблонах, обеспечивают важные контекстуальные ограничения, которые еще не учтены методами распределения. | 2,502 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Нейронные ответы на вопросы на BioASQ 5B. BioASQ — это задача семантического индексирования, ответов на вопросы (QA) и извлечения информации BIBREF0.Мы участвовали в задаче B конкурса, связанного с биомедицинским контролем качества.Точнее, наша система участвовала в задаче B, фазе B:Учитывая вопрос и фрагменты золотого стандарта (т. е. фрагменты текста, содержащие ответ(ы) на вопрос), системе предлагается вернуть список кандидатов на ответ.На момент написания статьи проводится пятое испытание BioASQ.Каждые две недели выпускалось пять пакетов по 100 вопросов в каждом.У участвующих систем есть 24 часа, чтобы представить свои результаты.На момент написания все партии были выпущены.Вопросы разделены на различные типы вопросов: факты, список, резюме и да/нет.Наша работа концентрируется на ответах на факты и вопросы-списки.На фактоидные вопросы ответы системы интерпретируются как ранжированный список кандидатов на ответ.Они оцениваются с использованием средне-обратного ранга (MRR).Для вопросов списка ответы системы интерпретируются как набор ответов на вопрос списка.Точность и полнота вычисляются путем сравнения данных ответов с ответами «золотого стандарта».Показатель F1, т. е. среднее гармоническое значение точности и полноты, используется в качестве официальной меры оценки.В существующих биомедицинских системах обеспечения качества используется традиционный конвейер обеспечения качества, аналогичный по структуре базовой системе, предложенной weissenborn2013 Answering.Они состоят из нескольких отдельных этапов, например, распознавание названного объекта, классификация вопросов и оценка ответов кандидата.Эти системы требуют большого количества ресурсов и разработки функций, специфичных для биомедицинской области.Например, OAQA BIBREF1, который очень успешно справился с прошлогодним конкурсом, использует биомедицинский анализатор, тегировщик сущностей и тезаурус для поиска синонимов.Наша система, с другой стороны, основана на архитектуре контроля качества нейронной сети, которая полностью обучена целевой задаче.Мы основываемся на FastQA BIBREF2, системе контроля качества с извлечением фактоидов, которая достигает самых современных результатов в тестах QA, которые предоставляют большие объемы обучающих данных.Например, SQuAD BIBREF3 предоставляет набор данных из $\approx 100 000$ вопросов по статьям Википедии.Наш подход заключается в обучении FastQA (с некоторыми расширениями) на наборе данных SQuAD, а затем в точной настройке параметров модели на обучающем наборе BioASQ.Обратите внимание, что, используя экстрактивную сеть контроля качества в качестве нашего центрального компонента, мы ограничиваем ответы нашей системы подстроками в предоставленных фрагментах.Это также означает, что сеть не сможет отвечать на вопросы «да/нет».Однако мы обобщаем выходной уровень FastQA, чтобы иметь возможность отвечать на вопросы списка в дополнение к фактическим вопросам.Наша система представляет собой нейронную сеть, которая принимает на вход вопрос и контекст (т. е. фрагменты) и выводит указатели начала и конца токенов в контексте.По своей сути мы используем FastQA BIBREF2, современную нейронную систему контроля качества.Ниже мы опишем наши изменения в архитектуре и способы обучения сети.На входном слое токены контекста и вопроса сопоставляются с многомерными векторами слов.Наши векторы слов состоят из трех компонентов, которые объединяются в один вектор: Встраивание GloVe: мы используем 300-мерные встраивания GloVe BIBREF4, которые были обучены на большой коллекции веб-документов.Встраивание символов. Это встраивание вычисляется одномерной сверточной нейронной сетью на основе символов слов, как это представлено в seo2016bidirection.Биомедицинские внедрения Word2Vec: мы используем биомедицинские внедрения слов, предоставляемые biomedicalword2vec.Это 200-мерные вложения Word2Vec BIBREF5, которые были обучены на $\approx $10$ миллионах тезисов PubMed.К векторам внедрения мы присоединяем горячую кодировку типа вопроса (список или фактоид).Обратите внимание, что эти функции одинаковы для всех токенов.После нашего уровня внедрения мы вызываем FastQA, чтобы вычислить начальные и конечные оценки для всех токенов контекста.Поскольку конечные оценки зависят от выбранного начала, существуют конечные оценки $O(n^2)$, где $n$ — количество токенов контекста.Обозначим начальный индекс $i \in [1, n]$ , конечный индекс $j \in[i, n]$ , начальная оценка $y_{start}^{i}$ , а конечная оценка $y_{end}^{i, j}$ .InВ нашем выходном слое вероятности начала, конца и интервала вычисляются как: $$p_{start}^i = \sigma (y_{start}^i)$$ (уравнение 8) $$p_{end}^{ i, \cdot } = softmax(y_{end}^{i, \cdot })$$ (уравнение 9), где $\sigma $ обозначает сигмовидную функцию.Вычисляя вероятность начала с помощью сигмовидной функции, а не функции softmax (которая используется в FastQA), мы позволяем модели выводить несколько диапазонов в качестве вероятных диапазонов ответов.Это обобщает фактоидную сеть обеспечения качества для составления списка вопросов.Мы определяем нашу потерю как перекрестную энтропию правильных начального и конечного индексов.В случае многократного появления одного и того же ответа мы минимизируем только диапазон наименьших потерь.Мы обучаем сеть в два этапа:Сначала сеть обучается на SQuAD по процедуре weissenborn2017fastqa (этап предварительного обучения).Во-вторых, мы настраиваем параметры сети в BioASQ (этап тонкой настройки).Для обеих фаз мы используем оптимизатор Адама BIBREF6 с экспоненциально убывающей скоростью обучения.Мы начинаем со скорости обучения $10^{-3}$ и $10^{-4}$ для этапов предварительного обучения и тонкой настройки соответственно.В ходе тонкой настройки мы извлекаем диапазоны ответов из обучающих данных BioASQ, ища вхождения ответа «золотого стандарта» в предоставленных фрагментах.Обратите внимание, что этот подход не идеален, поскольку он может давать ложноположительные результаты (например, ответ упоминается в предложении, которое не отвечает на вопрос) и ложноотрицательные результаты (например, предложение отвечает на вопрос, но точная используемая строка отсутствует в список синонимов). Поскольку BioASQ обычно содержит несколько фрагментов для данного вопроса, мы обрабатываем все фрагменты независимо, а затем агрегируем диапазоны ответов, сортируя глобально в соответствии с их вероятностью $p_{span}^{i, j}$ .Во время вывода На этапе мы извлекаем 20 самых популярных ответов с помощью поиска луча с размером луча 20.Из этого отсортированного списка строк ответа мы удаляем все повторяющиеся строки.Для фактоидных вопросов мы выводим пять верхних строк ответов в качестве ранжированного списка кандидатов на ответ.Для вопросов списка мы используем порог отсечки вероятности $t$ , такой, что $\lbrace (i, j)|p_{span}^{i, j} \ge t\rbrace$это набор ответов.Мы установили $t$ в качестве порога, для которого оптимизируется оценка списка F1 в наборе разработки.Чтобы дополнительно улучшить производительность наших систем, мы построили модельный ансамбль.Для этого мы обучили пять отдельных моделей, используя 5-кратную перекрестную проверку на всем обучающем наборе.Эти модели объединяются путем усреднения их начальных и конечных оценок перед вычислением вероятностей интервала (уравнения 8–10).В результате мы выставляем на конкурс две системы: лучшую одиночную модель (по набору ее разработки) и ансамбль моделей.Мы реализовали нашу систему с помощью TensorFlow BIBREF7.Обучение проводилось на графическом процессоре NVidia GForce Titan X. Результаты всех пяти тестовых партий BioASQ 5 (задача 5b, этап B) представлены в таблице 1.Обратите внимание, что показатели производительности не являются окончательными, поскольку предоставленные синонимы в ответах «золотого стандарта» будут обновляться вручную, чтобы отразить действительные ответы участвующих систем.На момент написания этого не было сделано.Также обратите внимание, что – в отличие от предыдущих конкурсов BioASQ – системам больше не разрешено предоставлять собственный список синонимов в конкурсе этого года.В целом, одиночная и ансамблевая системы действуют очень похоже по сравнению с остальными участниками: их ряды почти всегда расположены рядом друг с другом.Между этими двумя моделями ансамблевая модель в среднем работала немного лучше.В вопросах фактов наша система оказалась очень успешной, выиграв три партии из пяти.Однако по вопросам списка относительная результативность существенно различается.Мы ожидаем, что наша система будет лучше справляться с фактическими вопросами, чем с вопросами из списка, поскольку наш набор данных для предварительного обучения (SQuAD) не содержит вопросов из списка.Начиная с пакета 3, мы также давали ответы на вопросы «да/нет», всегда отвечая «да».Из-за очень неравномерного распределения классов в наборе данных BioASQ это надежный базовый показатель.Поскольку это делается просто для того, чтобы получить базовую производительность для этого типа вопросов, и из-за наивности метода, мы не перечисляем и не обсуждаем здесь результаты.В этой статье мы обобщили структуру системы подачи BioASQ 5B для фактоидных и списочных вопросов.Мы используем нейронную архитектуру, которая полностью обучена решению задач контроля качества.Этот подход не применялся к вопросам BioASQ в предыдущих задачах.Наши результаты показывают, что наш подход обеспечивает самые современные результаты по фактоидным вопросам и конкурентоспособные результаты по вопросам-спискам. | В этом документе описывается наше участие в конкурсе BioASQ 2017 года. Мы участвовали в задаче B, фазе B, которая связана с ответами на биомедицинские вопросы (QA). Мы фокусируемся на фактоидах и вопросах списка, используя экстрактивную модель контроля качества, то есть мы ограничиваем нашу систему выводом подстрок предоставленных текстовых фрагментов. В основе нашей системы мы используем FastQA, современную нейронную систему контроля качества. Мы расширили его за счет встраивания биомедицинских слов и изменили уровень ответов, чтобы можно было отвечать на вопросы списка в дополнение к фактическим вопросам. Мы предварительно обучили модель на крупномасштабном открытом наборе данных QA SQuAD, а затем точно настроили параметры обучающего набора BioASQ. Благодаря нашему подходу мы достигаем самых современных результатов по фактическим вопросам и конкурентоспособных результатов по вопросам-спискам. | 1,529 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Изучение распределения многозначных слов с использованием приблизительного расхождения Кульбака-Лейблера. Языковое моделирование с самого начала имело прямое векторное кодирование слов.Однако он отражает только алфавитный порядок, но не семантическое сходство слов.Модели векторного пространства помогают изучать представления слов в пространстве меньшей размерности, а также улавливают семантическое сходство.Изучение встраивания слов помогает в задачах обработки естественного языка, таких как ответы на вопросы и рассуждения BIBREF0, определение позиции BIBREF1, проверка утверждений BIBREF2. Последние модели BIBREF3, BIBREF4 работают на основе того, что слова со схожим контекстом имеют семантическое сходство.BIBREF4 предлагает нейровероятностную модель, которая моделирует вероятность целевого слова, обусловленную предыдущими словами, с использованием рекуррентной нейронной сети.Модели Word2Vec BIBREF3, такие как непрерывный набор слов (CBOW), прогнозируют целевое слово с учетом контекста, а модель пропуска грамм работает в обратном порядке по сравнению с прогнозированием контекста с учетом целевого слова.В то время как встраивания GloVe были основаны на факторизации глобальной матрицы с учетом локальных контекстов BIBREF5.Однако вышеупомянутые модели не обрабатывают слова с несколькими значениями (полисемии). BIBREF6 предлагает подход нейронной сети, учитывающий как локальный, так и глобальный контекст при изучении встраивания слов (точечные оценки).Их модель с несколькими прототипами обрабатывает многозначные слова, предоставляя априорную эвристику о смыслах слов в наборе данных.BIBREF7 предлагает альтернативу для обработки многозначных слов с помощью модифицированной модели пропуска грамм и алгоритма EM.BIBREF8 представляет собой непараметрическую альтернативу для обработки многозначностей.Однако эти подходы не учитывают отношения следствия между словами.BIBREF9 изучает распределение Гаусса на слово, используя ядро ожидаемого правдоподобия.Однако для многозначных слов это может привести к более большим различиям в распределении слов, поскольку им, возможно, придется охватывать различные смыслы.BIBREF10 предлагает мультимодальный подход к распределению слов.Он отражает полисемию.Однако целевая функция, основанная на энергии, не учитывает асимметрию и, следовательно, следствия.Распознавание текстовых следствий необходимо для фиксации лексических отношений вывода, таких как причинность (например, комар $\rightarrow$ малярия), гипернимия (например, собака $\models $животное) и т. д.В этой статье мы предлагаем получить распределения встраивания многозначных слов, используя вариант цели максимальной маржи, основанный на асимметричной функции энергии дивергенции KL для улавливания текстовых последствий.Многозначные распределения выгодны для отражения многозначной природы слов и уменьшения неопределенности для каждого слова за счет его распределения по значениям.Однако вычисление КЛ-дивергенции между смесями гауссианов затруднено, и мы используем приближение КЛ-дивергенции, основанное на более строгих верхних и нижних границах.Улавливая текстовую составляющую (асимметрию), мы также не пошли на компромисс в уловлении симметричного сходства между словами (например, смешной и веселый), что будет объяснено в разделе $3.1$. Мы также показываем эффективность предлагаемого подхода на контрольных наборах данных по сходству слов и следствиям в экспериментальном разделе.Вероятностное представление слов помогает моделировать неопределенность в представлении слов и многозначность.Учитывая корпус $V$, содержащий список слов, каждое из которых представлено как $w$, плотность вероятности для слова $w$ может быть представлена как смесь гауссиан с компонентами $C$ BIBREF10. Здесь $p_{w, j}$ представляет вероятность того, что слово $w$ принадлежит компоненту $j$, $\operatorname{\mathbf {\mu }}_{w,j}$ представляет собой размерное представление слова $D$, соответствующее $j^ {th}$ компонентный смысл слова $w$, а $\Sigma _{w,j}$ представляет собой неопределенность представления слова $w$, принадлежащего компоненту $j$. Параметры модели (средние значения, ковариации и смесь веса)$\theta $ можно узнать, используя вариант цели максимальной прибыли BIBREF11. Здесь$E_\theta (\cdot , \cdot )$ представляет собой энергетическую функцию, которая присваивает оценку паре слов, $w$ — конкретное рассматриваемое слово, $c$ — его положительный контекст (тот же контекст), а $c ^{\prime }$ негативный контекст.Цель состоит в том, чтобы увеличить разницу между энергетической функцией слова $w$ и его положительным контекстом $c$ выше, чем его отрицательным контекстом $c$, на порог $m$. Таким образом, пары слов в одном контексте получают более высокую энергию, чем пары слов в разном контексте.BIBREF10 рассматривает энергетическую функцию как ядро ожидаемого правдоподобия, которое определяется следующим образом.Это похоже на метрику косинусного сходства векторов, и энергия между двумя словами максимальна, когда они имеют схожие распределения.Но ядро ожидаемого правдоподобия — это симметричная метрика, которая не подходит для определения порядка слов и, следовательно, следствия.Поскольку каждое слово представлено смесью гауссовых распределений, KL-дивергенция является лучшим выбором энергетической функции для определения расстояния между распределениями.Поскольку расходимость KL минимальна, когда распределения подобны, и максимальна, когда они различны, энергетическая функция принимается как возведенная в степень отрицательная расходимость KL.Однако вычислить расхождение KL между гауссовыми смесями сложно, и получить точное значение KL невозможно.Одним из способов аппроксимации KL является аппроксимация Монте-Карло, но для получения хорошего приближения требуется большое количество выборок, а в многомерном пространстве вложения он требует больших вычислительных затрат.В качестве альтернативы, BIBREF12 представляет аппроксимацию KL между гауссовскими смесями, где они получают верхнюю границу через произведение метода гауссовой аппроксимации и нижнюю границу через метод вариационной аппроксимации.В BIBREF13 авторы объединяют нижние и верхние границы из методов аппроксимации BIBREF12, чтобы обеспечить более строгую границу KL между гауссовскими смесями.Рассмотрим гауссовы смеси для слов $w$ и $v$ следующим образом.Приблизительное КЛ-расхождение между представлениями гауссовой смеси над словами $w$ и $v$ показано в уравнении DISPLAY_FORM8.Более подробная информация об аппроксимации включена в дополнительный материал.$EL_{ik}(w,w) = \int f_{w,i} (\operatorname{\mathbf {x}})f_{w,k} (\operatorname{\mathbf {x}}) d\operatorname{\mathbf {x}}$ и $EL_{ij}(w,v) = \int f_{w,i} (\ имя_оператора{\mathbf {x}}) f_{v,k} (\operatorname{\mathbf {x}}) d\operatorname{\mathbf {x}}$. Обратите внимание, что ядро ожидаемого правдоподобия появляется покомпонентно внутри приближенного вывода расхождения KL.Одним из преимуществ использования KL в качестве энергетической функции является то, что оно позволяет выявить асимметрию в наборах данных о последствиях.Например, давайте рассмотрим слова «стул» с двумя значениями как «скамья» и «стропа», а слово «дерево» с двумя значениями как «деревья» и «мебель».Слово стул ($w$) связано с деревом ($v$), т.е. стул $\models $дерево.Теперь минимизация расхождения KL требует максимизации $\log {\sum _j p_{v,j} \exp ({-KL(f_{w,i} (\operatorname{\mathbf {x}})||f_{v ,j}(\operatorname{\mathbf {x}}))})}$, что, в свою очередь, минимизирует $KL(f_{w,i}(\operatorname{\mathbf {x}})||f_{v,j }(\operatorname{\mathbf {x}}))$. Это приведет к тому, что $i^{th}$ компонент $w$ окажется внутри $j^{th}$ компонента $v$ и будет справедлив для всех пар компонентов, что приведет к следствию $w. $ внутри $v$. Следовательно, мы видим, что скамейка $\models$trees, скамейка $\models$мебель, стропа $\models$деревья и стропа $\models$мебель.Таким образом, он вводит лексическую связь между смыслами дочернего слова и значениями родительского слова.Минимизация KL также требует максимизации члена $\log {\sum _j {p_{v,j}} EL_{ij}(w,v)}$ для всех пар компонентов среди $w$ и $v$. Это похоже на максимизацию ядра ожидаемого правдоподобия, которое использует средние значения $f_{w,i}(\operatorname{\mathbf {x}})$ и $f_{v,j}(\operatorname{\mathbf {x} })$ ближе (взвешенные по их ковариациям), как обсуждалось в BIBREF10.Следовательно, предлагаемый подход захватывает лучшее из обоих миров, тем самым удовлетворяя как сходство слов, так и их следствия.Также отметим, что минимизация КЛ-дивергенции требует минимизации $\log {\sum _k p_{w,k} \exp ({-KL(f_{w,i}||f_{w,k})})}$, которая в свою очередь максимизирует $KL(f_{w,i}||f_{w,k})$.Это предотвращает схождение различных компонентов смеси слова к одному гауссову и способствует уловлению различных возможных значений слова.То же самое достигается минимизацией $\sum _k{p_{w,k}} EL_{ik}(w,w)$ term и действует как термин регуляризации, который способствует разнообразию в изучении значений слова.Мы обучаем нашу предложенную модель GM$\_$KL (Гауссова смесь с использованием KL-дивергенции) на наборе данных Text8 BIBREF14, который представляет собой предварительно обработанные данные из $17 миллионов слов из Википедии.Из них 71290 уникальных и часто встречающихся слов выбираются с помощью трюка подвыборки в BIBREF15.Мы сравниваем GM$\_$KL с предыдущими подходами w2g BIBREF9 (одиночная гауссовая модель) и w2gm BIBREF10 (смесь гауссовской модели с ядром ожидаемого правдоподобия).Для всех моделей, использованных для экспериментов, размер встраивания ($D$) был установлен равным 50, количество смесей — 2, длина контекстного окна — 10, размер пакета — 128.Вложения слов были инициализированы с использованием равномерного распределения в диапазоне $[-\sqrt{\frac{3}{D}}$, $\sqrt{\frac{3}{D}}]$ такого, что ожидание дисперсия равна 1, а среднее значение 0 BIBREF16.В предлагаемом подходе можно также рассмотреть возможность инициализации встраивания слов с использованием других контекстных представлений, таких как BERT BIBREF17 и ELMo BIBREF18.Чтобы просто проанализировать производительность $\emph {GM\_KL}$ по сравнению с другими моделями, мы выбрали для экспериментов инициализацию с использованием равномерного распределения.Для вычислительных преимуществ используется диагональная ковариация, аналогичная BIBREF10.Вероятность каждой смеси ограничена диапазоном $[0,1]$, суммируясь до 1 путем оптимизации неограниченных оценок в диапазоне $(-\infty ,\infty )$ и преобразования оценок в вероятность с помощью функции softmax.Оценки смеси инициализируются равными 0, чтобы обеспечить справедливость среди всех компонентов.Порог отрицательной выборки был установлен на уровне $10^{-5}$, как рекомендовано в BIBREF3.Мини-пакетный градиентный спуск с оптимизатором Adagrad BIBREF19 использовался с начальной скоростью обучения, равной $0,05$. В таблице TABREF9 показаны качественные результаты GM$\_$KL.Учитывая слово запроса и идентификатор компонента, отображается набор ближайших соседей вместе с соответствующими идентификаторами компонентов.Например, слово «плоскость» в своем 0-м компоненте отражает смысл «геометрии», как и его соседи, а его 1-й компонент отражает смысл «транспортного средства», как и его соответствующие соседи.Другие слова, такие как «рок», отражают как «металлический», так и «музыкальный» смыслы, «звезда» — «знаменитость» и «астрономические» смыслы, а «телефон» — «телефонию» и «интернет».Мы количественно сравниваем производительность подходов GM$\_$KL, w2g и w2gm на наборе данных SCWS BIBREF6.Набор данных состоит из 2003 пар слов многозначных и омонимичных слов с метками, полученными в среднем по 10 человеческим оценкам.Рассчитывается корреляция Спирмена между оценками человека и оценками модели.Для получения оценки модели используются следующие метрики: MaxCos: максимальное косинусное сходство среди всех пар компонентов слов $w$ и $v$:AvgCos: среднее косинусное сходство по компонентам между словами $w$ и $v$. KL$\_$approx: Формулируется, как показано в (DISPLAY_FORM8), между словами $w$ и $v$.KL$\_$comp: Максимальный покомпонентный отрицательный KL между словами $w$ и $v$: Таблица TABREF17 сравнивает производительность подходов в наборе данных SCWS.Из таблицы TABREF17 видно, что GM$\_$KL обеспечивает лучшую корреляцию, чем существующие подходы для различных показателей в наборе данных SCWS.В таблице TABREF18 показаны значения корреляции Спирмена модели GM$\_$KL, оцененные на эталонных наборах данных сходства слов: SL BIBREF20, WS, WS-R, WS-S BIBREF21, MEN BIBREF22, MC BIBREF23, RG BIBREF24, YP BIBREF25, MTurk. -287 и MTurk-771 BIBREF26, BIBREF27 и RW BIBREF28.Для сравнения используется показатель AvgCos.Видно, что для большинства наборов данных GM$\_$KL достигает значительно лучшего показателя корреляции, чем подходы w2g и w2gm.Другие наборы данных, такие как MC и RW, состоят только из одного смысла, и, следовательно, модель w2g работает лучше, а GM$\_$KL достигает следующей лучшей производительности.Набор данных YP имеет несколько смыслов, но не содержит вытекающих данных и, следовательно, не может использовать преимущества вытекающих последствий GM$\_$KL. В таблице TABREF19 показаны результаты оценки модели GM$\_$KL для наборов данных вытекающих последствий, таких как вытекающие последствия. набор парных данных BIBREF29, созданный из WordNet с положительными и отрицательными метками, краудсорсинговый набор данных BIBREF30, состоящий из 79 семантических отношений, помеченных как влекущие за собой или нет, и аннотированный набор данных существительных, схожих по распределению BIBREF31.Для оценки используется метрика сходства «MaxCos», и выбирается наилучшая точность и лучший показатель F1 путем выбора оптимального порога.В целом GM$\_$KL работает лучше, чем подходы w2g и w2gm.Мы предложили энергетическую функцию, основанную на дивергенции KL, для изучения распределений встраивания многозначных слов, смоделированных как гауссовы смеси.Из-за трудноразрешимости гауссовских смесей для меры КЛ-дивергенции мы используем приближенную функцию КЛ-дивергенции.Мы также продемонстрировали, что предложенные подходы GM$\_$KL работают лучше, чем другие подходы, на контрольных наборах данных по сходству слов и следствию.tocsectionAppendicesKL между гауссовскими смесями $f_{w}(\operatorname{\mathbf {x}})$ и $ f_{v}(\operatorname{\mathbf {x}})$ можно разложить следующим образом: BIBREF12 представляет аппроксимацию KL между гауссовыми смесями с использованием продукта метода гауссовой аппроксимации, где KL аппроксимируется с использованием произведения компонентных гауссиан и метода вариационной аппроксимации, где KL аппроксимируется выражением введение некоторых вариационных параметров.Продукт метода гауссовской аппроксимации компонентов с использованием неравенства Йенсена дает верхние границы, как показано в уравнениях DISPLAY_FORM23 и . Метод вариационной аппроксимации дает нижние границы, как показано в уравнениях DISPLAY_FORM24 и DISPLAY_FORM25. где $H$ представляет собой энтропийный член и энтропию $i^ {th}$-компонент слова $w$ с размерностью $D$ задается как В BIBREF13 авторы объединяют нижние и верхние оценки из методов аппроксимации BIBREF12, чтобы сформулировать более строгую границу на KL между гауссовскими смесями.Из уравнений DISPLAY_FORM23 и DISPLAY_FORM25 получается более строгая нижняя граница KL между гауссовскими смесями, как показано в уравнении DISPLAY_FORM26. Из уравнений и DISPLAY_FORM24 получается более строгая верхняя граница KL между гауссовыми смесями, как показано в уравнении DISPLAY_FORM27. Наконец, берется KL между гауссовыми смесями. как среднее значение верхних и нижних границ KL, как показано в уравнении DISPLAY_FORM28. | Изучение представлений слов в недавнем прошлом привлекло больше внимания из-за разнообразных текстовых приложений. Вложения слов инкапсулируют синтаксические и семантические закономерности предложений. Моделирование встраивания слов в виде распределений многозначной гауссовой смеси дополнительно позволит учесть неопределенность и многозначность слов. Мы предлагаем изучить представление слов гауссовой смесью, используя целевую функцию, основанную на дивергенции Кульбака-Лейблера (KL). Функция энергии, основанная на дивергенции KL, обеспечивает лучшую метрику расстояния, которая может эффективно фиксировать сходство следствий и распределения между словами. Из-за трудноразрешимости КЛ-расхождения для гауссовой смеси мы выбираем КЛ-аппроксимацию между гауссовскими смесями. Мы проводим качественные и количественные эксперименты на эталонных наборах данных по сходству слов и следствиям, которые демонстрируют эффективность предлагаемого подхода. | 2,757 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Преобразование Википедии в расширенные данные для обобщения, ориентированного на запросы. Целью обобщения, ориентированного на запросы, является создание краткого, хорошо организованного и информативного резюме документа со спецификациями, описанными в запросе.Для этой цели были предложены различные неконтролируемые методы BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4, BIBREF5 и контролируемые методы BIBREF6, BIBREF7, BIBREF8, BIBREF9, BIBREF10.Эта задача впервые представлена в DUC 2005 BIBREF11, а аннотированные человеком данные публикуются до 2007 года.Наборы эталонных данных DUC имеют высокое качество.Но ограниченный размер затрудняет обучение моделей обобщения, ориентированных на запросы, особенно для методов, управляемых данными.Между тем, ручное построение крупномасштабного набора данных для обобщения, ориентированного на запросы, является довольно дорогостоящим и отнимает много времени.Чтобы улучшить суммирование, ориентированное на запросы, с ограниченными данными, мы улучшаем модель суммирования за счет увеличения данных.В частности, мы преобразуем Википедию в крупномасштабный набор данных для обобщения, ориентированный на запросы (называемый WikiRef).Чтобы автоматически создавать примеры обобщения, ориентированные на запросы, с использованием Википедии, цитаты утверждений в статьях Википедии в качестве опорных элементов для согласования запросов и документов.На рисунке FigREF1 показан пример, построенный предлагаемым методом.Сначала примем выделенное утверждение в качестве резюме.Ожидается, что подтверждающая цитата обеспечит адекватный контекст для вывода утверждения и, таким образом, может служить исходным документом.С другой стороны, заголовки разделов подсказывают, какой аспект документа находится в центре внимания резюме.Поэтому для формирования запроса мы используем заголовок статьи и заголовки разделов заявления.Учитывая, что Википедия является крупнейшей онлайн-энциклопедией, мы можем автоматически создавать массивные примеры обобщения, ориентированные на запросы.Большинство систем, участвующих в тесте DUC, представляют собой модели экстрактивного обобщения.Эти системы обычно разбиваются на две подзадачи: оценку предложений и выбор предложений.Оценка предложений направлена на измерение релевантности запроса и значимости предложения для каждого предложения, при этом в основном используются методы на основе функций BIBREF0, BIBREF7, BIBREF3.Выбор предложений используется для создания окончательного резюме с минимальной избыточностью путем выбора предложений с самым высоким рейтингом одно за другим.В этой статье мы разрабатываем модель на основе BERT для экстракционного обобщения, ориентированного на запросы.Модель принимает на вход конкатенацию запроса и документа.Отношения запрос-предложение и предложение-предложение совместно моделируются механизмом самообслуживания BIBREF12.Модель точно настроена для использования общих языковых представлений BERT BIBREF13. Экспериментальные результаты по трем тестам DUC показывают, что модель достигает конкурентоспособной производительности за счет точной настройки и превосходит предыдущие современные модели суммирования с увеличением данных.Между тем, результаты показывают, что мы можем использовать WikiRef в качестве крупномасштабного набора данных для продвижения исследований по обобщению запросов.Для экстрактивного обобщения был предложен широкий спектр неконтролируемых подходов.Поверхностные характеристики, такие как перекрытие n-грамм, частота терминов, частота документов, позиции предложений BIBREF10, длина предложения BIBREF9 и косинусное сходство TF-IDF BIBREF3.Максимальная предельная релевантность (MMR) BIBREF0 жадно выбирает предложения и учитывает компромисс между значимостью и избыточностью.BIBREF2 ilp рассматривает выбор предложений как задачу оптимизации и решает ее с помощью целочисленного линейного программирования (ILP).BIBREF14lin2010multi предлагает использовать субмодульные функции для максимизации целевой функции, которая учитывает компромисс между условиями покрытия и избыточности.Модели на основе графов используют различные отношения между предложениями, а отношения запрос-предложение также широко применяются в области извлекающего обобщения.LexRank BIBREF1 оценивает предложения на графике сходства предложений.BIBREF3 qfsgraph применяет многообразное ранжирование для использования связей «предложение-предложение», «предложение-документ» и «предложение-запрос».Мы также моделируем вышеупомянутые отношения, за исключением отношений между документами, таких как график на уровне токена, которые агрегируются в распределенные представления предложений.Контролируемые методы с машинным обучением BIBREF6, BIBREF7, BIBREF8 также используются для лучшей оценки важности предложений.В последние годы для извлеченного обобщения документов использовалось несколько подходов, основанных на глубоких нейронных сетях.BIBREF9 cao-attsum предлагает модель на основе внимания, которая совместно обрабатывает ранжирование значимости предложений и ранжирование релевантности запроса.Он автоматически генерирует распределенные представления для предложений, а также для документа.Чтобы использовать контекстные отношения для моделирования предложений, BIBREF10 Ren-crsum предлагает CRSum, который изучает представления предложений и представления контекста совместно с двухуровневым механизмом внимания.Небольшой размер данных является основным препятствием при разработке нейронных моделей для обобщения, ориентированного на запросы.Дан запрос $\mathcal {Q}=(q_1, q_2,...,q_m)$ из $m$ последовательностей токенов и документ $\mathcal {D}=(s_1, s_2, ..., s_n)$ содержащее $n$ предложений, экстрактивное суммирование, ориентированное на запросы, направлено на извлечение существенного подмножества $ \mathcal {D}$, которое связано с запросом в виде выходной сводки $\mathcal {\hat{S}}=\left\lbrace \hat{s_i}\vert \hat{s_i} \in \mathcal {D}\right\rbrace $.В общем, задачу экстративного суммирования можно решить, присвоив каждому предложению метку, указывающую на включение в резюме, или оценив баллы для ранжирования предложений, а именно классификации предложений или регрессии предложений.При классификации предложений вероятность помещения предложения $s_i$ в итоговую сводку равна $P\left(s_i\vert \mathcal {Q},\mathcal {D}\right)$. Мы факторизуем вероятность предсказания $\hat{\mathcal {S}}$ как выходную сводку $P(\hat{\mathcal {S}}\vert \mathcal {Q},\mathcal {D})$ документа $\mathcal {D}$ по запросу $\mathcal {Q}$ как: P(SQ,D)=siS P(siQ,D) )При регрессии предложений экстрактивное обобщение достигается за счет оценки предложений и выбора предложений.Первый оценивает $\textrm {r}(s_i\vert \mathcal {Q},\mathcal {D})$ предложение $s_i$, учитывая его релевантность запросу $\mathcal {Q}$ и его значимость для документ $\mathcal{D}$. Последний генерирует резюме, ранжируя предложения при определенных ограничениях, например, количестве предложений и длине резюме.На рисунке FigREF2 представлен обзор нашей модели обобщения, ориентированной на запросы, на основе BERT.Для каждого предложения мы используем BERT для кодирования его релевантности запроса, контекста документа и основных значений в векторное представление.Затем векторные представления передаются в простой выходной слой для прогнозирования метки или оценки оценки каждого предложения.Запрос $\mathcal {Q}$ и документ $\mathcal {D}$ сглаживаются и упаковываются как последовательность токенов на входе.Следуя стандартной практике BERT, входное представление каждого токена создается путем суммирования соответствующих токенов, сегментации и вложений позиций.Встраивание токенов проецирует горячие входные токены в плотные векторные представления.Два вложения сегментов $\mathbf {E}_Q$ и $\mathbf {E}_D$ используются для обозначения токенов запроса и документа соответственно.Вложения позиции указывают абсолютную позицию каждого токена во входной последовательности.Чтобы воплотить иерархическую структуру запроса в последовательности, мы вставляем токен [L#] перед #-й последовательностью токенов запроса.Для каждого предложения мы вставляем токен [CLS] в начале и токен [SEP] в конце, чтобы обозначить четкую границу предложения.На этом уровне мы используем BERT BIBREF13, глубокий преобразователь BIBREF12, состоящий из сложенных слоев самообслуживания, в качестве кодировщика для агрегирования запроса, информации внутри предложения и между предложениями в представления предложений.Учитывая упакованные входные вложения $\mathbf {H}^0=\left[\mathbf {x}_1,...,\mathbf {x}_{|x|}\right]$, мы применяем $L$ -layer Transformer для кодирования входных данных: Hl=Transformerl(Hl-1) где $l\in \left[1,L\right]$. Наконец, мы используем скрытый вектор $\mathbf {h}_i^L$ $i$-го токена [CLS] в качестве контекстуализированного представления последующего предложения.Выходной слой используется для оценки предложений для извлечения обобщения, ориентированного на запросы.Учитывая, что $\mathbf {h}_i^L\in \mathbb {R}^d$ — векторное представление i-го предложения.Когда экстрактивное суммирование выполняется посредством классификации предложений, выходной слой представляет собой линейный слой, за которым следует сигмовидная функция: P(siQ,D)=sigmoid(WchiL+bc), где $\mathbf {W}_c$ и $\mathbf {b}_c$ — обучаемые параметры.Результатом является вероятность включения i-го предложения в резюме.В условиях регрессии предложений для оценки оценки предложения используется линейный слой без функции активации: r(siQ,D)=WrhiL+br, где $\mathbf {W}_r$ и $\mathbf {b}_r $ — обучаемые параметры.Целью обучения классификации предложений является минимизация потерь двоичной перекрестной энтропии: где $y_i\in \lbrace 0,1\rbrace $ — это метка оракула i-го предложения.Целью обучения регрессии предложений является минимизация среднеквадратической ошибки между оценочной оценкой и оценкой оракула: L=1nin (r(siQ,D) - f(siS*))2, где $\mathcal {S}^*$ — это сводка оракула, а $\textrm {f}(s_i\vert \mathcal {S}^*)$ — оценка оракула i-го предложения.Мы автоматически создаем набор данных для обобщения, ориентированный на запросы (называемый WikiRef), используя Википедию и соответствующие справочные веб-страницы.В следующих разделах мы сначала подробно опишем процесс создания.Затем мы проанализируем запросы, документы и резюме количественно и качественно.Для сбора и обработки данных мы выполняем два шага: (1) сканируем англоязычную Википедию и ссылки на статьи Википедии и анализируем источники HTML в обычный текст; (2) мы предварительно обрабатываем простой текст и фильтруем примеры с помощью набора детальных правил.Чтобы поддерживать самые высокие стандарты, большинство утверждений в Википедии приписываются надежным опубликованным источникам, к которым можно получить доступ через гиперссылки.На первом этапе мы разбираем дамп базы данных английской Википедии в обычный текст и сохраняем утверждения с цитатами.Если утверждению приписывают несколько цитат, используется только первая цитата.Мы также ограничиваем источники цитирования четырьмя типами, а именно веб-страницами, газетными статьями, прессой и пресс-релизами.Высказывание может содержать более одного предложения.Это заявление можно рассматривать как краткое изложение подтверждающих цитат с определенного аспекта.Следовательно, мы можем принять основную часть цитаты как документ, а заявление — как резюме.Между тем, заголовки разделов инструкции могут использоваться как естественный общий запрос для указания конкретных аспектов.Затем мы можем сформировать полный пример обобщения, ориентированный на запрос, ссылаясь на утверждение, атрибутивную цитату и заголовки разделов, а также заголовок статьи как на резюме, документ и запрос соответственно.Стоит отметить, что запросы в наборе данных WikiRef, таким образом, представляют собой ключевые слова, а не естественный язык, как в других наборах данных обобщения, ориентированных на запросы.На рисунке FigREF8 показан пример, иллюстрирующий процесс сбора необработанных данных.Связанный запрос, сводка и документ выделены на диаграмме цветами.Наконец, после этапа сбора необработанных данных мы собрали в общей сложности более 2 000 000 примеров на английском языке.Чтобы убедиться, что утверждение представляет собой правдоподобное изложение цитируемого документа, мы обрабатываем и фильтруем примеры с помощью набора детальных правил.Текст токенизируется и лемматизируется с помощью Spacy.Сначала мы вычисляем униграммный отзыв документа, где учитываются только слова без остановки.Мы выбрасываем пример, оценка которого ниже порога.Здесь мы эмпирически установили порог 0,5, что означает, что в документе должно быть не менее половины суммарных токенов.Затем мы фильтруем примеры с несколькими ограничениями по длине и количеству предложений.Для установки разумных порогов мы используем статистику примеров, документы которых содержат не более 1000 токенов.5-й и 95-й процентили используются в качестве нижнего и верхнего порогов каждого ограничения.Наконец, чтобы обеспечить возможность создания резюме с использованием данного документа, мы фильтруем примеры с помощью экстрактивной оценки оракула.Экстрактивный оракул получается путем жадного поиска по комбинациям предложений документа, содержащим максимум 5 предложений.Здесь мы принимаем отзыв Rouge-2 в качестве показателя оценки и сохраняем только примеры с оценкой оракула выше 0,2.После выполнения вышеуказанных правил у нас есть набор данных WikiRef с 280 724 примерами.Мы случайным образом разделяем данные на наборы для обучения, разработки и тестирования и гарантируем отсутствие дублирования документов в разных разделах.В таблице TABREF11 показана статистика набора данных WikiRef.Набор для разработки и набор для тестирования содержат по 12 000 примеров каждый.Статистические данные по разбиениям распределены равномерно и никакой предвзятости не наблюдается.Многочисленные статьи в Википедии охватывают широкий круг тем.Средняя глубина запроса 2,5 с учетом заголовков статей.Поскольку запрос в WikiRef представляет собой ключевые слова, он относительно короче, чем запросы на естественном языке со средней длиной 6,7 токенов.Большинство резюме состоят из одного или двух предложений.А в документе в среднем 18,8 предложений.Мы также проводим человеческую оценку 60 образцов WikiRef, чтобы проверить качество автоматически созданных данных.Мы разделяем примеры на четыре корзины в соответствии с оценкой оракула, а затем выбираем по 15 примеров из каждой корзины.Каждый пример оценивается по двум критериям: (1) «Связность запроса» проверяет, насколько резюме является хорошим ответом на запрос, и (2) «Значимость документа» проверяет, в какой степени резюме передает существенное содержание документа с учетом запроса.В таблице TABREF15 показаны результаты оценки.Мы видим, что в большинстве случаев сводки являются хорошими ответами на запросы по различным ячейкам.Поскольку мы воспринимаем заголовки разделов как запросы, а утверждения под разделами как резюме, высокий балл оценки можно отнести к страницам Википедии высокого качества.Когда оценки Oracle становятся выше, сводки продолжают лучше передавать основное содержание документа, указанное в запросе.С другой стороны, мы замечаем, что иногда резюме содержат лишь часть существенного содержания документа.Это разумно, поскольку справочные статьи могут представлять несколько аспектов, связанных с темой.Но мы видим, что это смягчается, когда оценки оракула в наборе данных WikiRef высоки.В этом разделе мы представляем экспериментальные результаты предлагаемой модели на наборах данных DUC 2005, 2006, 2007 с дополнением данных и без него.Мы также проводим тесты производительности WikiRef как стандартного набора данных для обобщения запросов.Для тонкой настройки мы используем бескорпусную версию BERT-базы.Максимальная длина последовательности установлена на 512.Мы используем оптимизатор Адама BIBREF15 со скоростью обучения 3e-5, $\beta _1$ = 0,9, $\beta _2$ = 0,999, спадом веса L2 0,01 и линейным спадом скорости обучения.Мы разбиваем длинные документы на несколько окон с шагом 100.Таким образом, предложение может отображаться более чем в одном окне.Чтобы не делать прогнозов по неполному предложению или с неоптимальным контекстом, мы оцениваем предложение только тогда, когда оно полностью включено и его контекст максимально охвачен.Эпоха обучения и размер пакета выбираются из {3, 4} и {24, 32} соответственно.Для сводной оценки мы используем Rouge BIBREF16 в качестве показателя автоматической оценки.Rouge является официальной метрикой тестов DUC и широко используется для обобщающей оценки.Rouge-N измеряет качество сводки путем подсчета перекрывающихся N-грамм по отношению к эталонной сводке.Тогда как Rouge-L измеряет самую длинную общую подпоследовательность.Для сравнения с предыдущей работой над наборами данных DUC мы сообщаем об отзыве Rouge-1 и Rouge-2, рассчитанном с использованием официальных параметров, которые ограничивают длину до 250 слов.В наборе данных WikiRef мы сообщаем оценки Rouge-1, Rouge-2 и Rouge-L.Сначала мы обучаем нашу модель экстрактивного суммирования на наборе данных WikiRef посредством классификации предложений.И нам нужно извлечь основные бинарные метки предложений.Однако для большинства примеров мы не можем найти предложения, которые точно соответствуют ссылочному резюме.Чтобы решить эту проблему, мы используем жадный алгоритм, аналогичный BIBREF17 zhou-etal-2018-neural-document, чтобы найти сводку оракула с предложениями документа, которая максимизирует оценку Rouge-2 F1 по отношению к ссылочной сводке.Имея документ из $n$ предложений, мы жадно перечисляем комбинации предложений.Для документов, содержащих множество предложений, поиск глобальной оптимальной комбинации предложений требует больших вычислительных затрат.Между тем в этом нет необходимости, поскольку справочные аннотации содержат не более четырех предложений.Поэтому мы прекращаем поиск, когда ни одна комбинация с предложениями $i$ не набирает больше очков, чем лучшая комбинация с предложениями $i$-1.Мы также обучаем модель экстрактивного реферирования посредством регрессии предложений.Для каждого предложения оценка оракула за обучение равна оценке Rouge-2 F1.Во время вывода мы ранжируем предложения в соответствии с их прогнозируемыми оценками.Затем мы добавляем предложения одно за другим, чтобы сформировать резюме, если оно не является избыточным и имеет баллы выше порогового значения.Мы пропускаем избыточные предложения, содержащие перекрывающиеся триграммы по отношению к текущей выходной сводке, как в BIBREF18 ft-bert-extractive.Порог ищется в наборе разработки для получения наивысшего балла Rouge-2 F1.Мы применяем предложенную модель и следующие базовые показатели: выводит все предложения документа в виде сводки. Это простая базовая линия резюмирования, которая выбирает ведущие предложения.Мы берем первые два предложения для того, чтобы итоговое резюме содержало в среднем 1,4 предложения. Использует ту же структуру, что и BERT, со случайно инициализированными параметрами.Результаты показаны в таблице TABREF16.Предлагаемая нами модель с выходным слоем классификации достигает 18,81 балла Rouge-2 на тестовом наборе WikiRef.В среднем выходное резюме состоит из 1,8 предложений.Свинец — это мощный неконтролируемый базовый уровень, который дает результаты, сравнимые с контролируемым нейронным базовым преобразователем.Несмотря на то, что WikiRef представляет собой крупномасштабный набор данных, модели обучения с параметрами, инициализированными из BERT, по-прежнему значительно превосходят Transformer.Модель, обученная с использованием регрессии предложений, работает хуже, чем модель, контролируемая классификацией предложений.Это соответствует меткам и оценкам оракула.Мы наблюдаем падение производительности при формировании сводок без запросов (см. «-Query»).Это доказывает, что сводки в WikiRef действительно ориентированы на запросы.DUC 2005–2007 — это тесты по объединению нескольких документов, ориентированные на запросы.Документы взяты из новостного домена и сгруппированы в кластеры по темам.Резюме должно быть не длиннее 250 токенов.В таблице TABREF29 показана статистика наборов данных DUC.Каждый кластер документов имеет несколько справочных сводок, созданных людьми, и запрос, в котором указываются конкретные аспекты и желаемая информация.Ниже мы показываем пример запроса из набора данных DUC 2006: Рейс 990 EgyptAir? Что стало причиной крушения рейса 990 EgyptAir? Включите доказательства, теории и предположения.Первое повествование обычно представляет собой заголовок, за которым следует несколько вопросов или повествований на естественном языке.Мы следуем стандартной практике: поочередно обучаем нашу модель на данных за два года и тестируем на данных третьего.Оценки оракула, используемые в обучении модели, представляют собой запоминание предложений Rouge-2.В этой статье мы оцениваем предложение, рассматривая только запрос и его документ.Затем мы ранжируем предложения в соответствии с оценочными оценками документов в кластере.Для каждого кластера мы итеративно извлекаем предложения с самым высоким рейтингом в выходную сводку с соблюдением ограничения избыточности.Предложение является избыточным, если более половины его биграмм появляются в текущей выходной сводке.Набор данных WikiRef используется в качестве дополняющих данных для наборов данных DUC в два этапа.Сначала мы настраиваем BERT на наборе данных WikiRef.Впоследствии мы используем наборы данных DUC для дальнейшей точной настройки параметров лучшей предварительно обученной модели.Мы сравниваем наш метод с несколькими предыдущими моделями обобщения, ориентированными на запросы, из которых AttSum является современной моделью: представляет собой простую базовую линию, которая выбирает ведущие предложения для формирования сводки. Это неконтролируемый метод, который ранжирует предложения в соответствии с его косинусное сходство TF-IDF с запросом.BIBREF7 — это контролируемая базовая линия, которая извлекает как зависящие от запроса, так и независимые от запроса функции, а затем использует регрессию опорных векторов для определения весов функций.BIBREF9 — это система обобщения нейронного внимания, которая совместно занимается ранжированием релевантности запросов и значимостью предложений.BIBREF10 — это система нейронного обобщения на основе контекстных отношений, которая улучшает оценку предложений за счет использования контекстных связей между предложениями.В таблице TABREF22 показаны оценки Ружа методов сравнения и предлагаемого нами метода.Точная настройка BERT только на наборах данных DUC превосходит предыдущие самые эффективные системы суммирования на DUC 2005 и 2006 и дает сопоставимые результаты на DUC 2007.Наш метод увеличения данных еще больше выводит модель на новый уровень во всех тестах DUC.Мы также замечаем, что модели, предварительно обученные на данных дополнения, достигают разумной производительности без дальнейшей точной настройки параметров модели.Это означает, что набор данных WikiRef раскрывает полезные знания, которыми обладает набор данных DUC.Мы предварительно обучаем модели на данных дополнения как под контролем классификации предложений, так и под контролем регрессии предложений.Результаты экспериментов показывают, что оба типа надзора дают схожие результаты.Чтобы лучше понять улучшение, вызванное увеличением данных, мы проводим человеческую оценку выходных сводок до и после увеличения данных.Мы выбираем для анализа 30 выходных сводок набора данных DUC 2006.И мы обнаружили, что модель, дополненная набором данных WikiRef, дает больше сводок, связанных с запросами, по 23 примерам.Между тем, извлеченные предложения обычно менее избыточны.Мы связываем эти преимущества с улучшенным охватом и ориентированным на запросы извлечением, обеспечиваемым крупномасштабными дополнительными данными.Чтобы дополнительно проверить эффективность нашего метода увеличения данных, мы сначала предварительно обучаем модели на наборе данных WikiRef, а затем варьируем количество золотых примеров для более точной настройки.Здесь мы берем набор данных DUC 2007 в качестве тестового набора и используем DUC 2005 и 2006 в качестве обучающего набора.На рисунке FigREF33 для сравнения представлены оценки Rouge-2 для точной настройки BERT на наборах данных DUC.Использование только DUC 2005 или только DUC 2006 дает меньшую производительность, чем использование обоих.Предлагаемый нами метод увеличения данных может получить конкурентоспособные результаты, используя только не более 30 золотых примеров, и после этого превзойти тонкую настройку BERT.Улучшение, достигнутое за счет использования набора данных WikiRef в качестве дополнительных данных, можно проследить.Сначала документами в наборах данных DUC являются новостные статьи, и мы сканируем веб-страницы газет как один из источников документов WikiRef.Во-вторых, запросы в наборе данных WikiRef имеют иерархическую структуру, которая постепенно определяет аспекты, на которых он фокусируется.Это похоже на наборы данных DUC, в которых запросы состоят из нескольких описаний для указания желаемой информации.Ключевое отличие состоит в том, что запросы в наборе данных WikiRef состоят из ключевых слов, тогда как запросы в наборах данных DUC в основном написаны на естественном языке.Наконец, мы создаем набор данных WikiRef как крупномасштабный набор данных для обобщения, ориентированный на запросы, который содержит более 280 000 примеров.Для сравнения, наборы данных DUC содержат всего 145 кластеров, содержащих около 10 000 документов.Таким образом, релевантность запроса и контекст предложения можно лучше смоделировать с помощью нейронных методов, управляемых данными, с помощью WikiRef.И это обеспечивает лучшую отправную точку для точной настройки наборов данных DUC.В этой статье мы предлагаем автоматически создать крупномасштабный набор данных WikiRef для обобщения, ориентированный на запросы, используя статьи Википедии и соответствующие ссылки.Заявления, подтверждающие цитаты и название статьи, а также заголовки разделов заявлений используются в качестве резюме, документов и запросов соответственно.Набор данных WikiRef служит средством дополнения данных в тестах DUC.Также показано, что он является подходящим эталоном обобщения, ориентированным на запросы.Кроме того, мы разрабатываем модель обобщения, ориентированную на запросы, на основе BERT для извлечения сводок из документов.Модель использует отношения запрос-предложение и отношения предложение-предложение совместно для оценки предложений.Результаты тестов DUC показывают, что наша модель с увеличением данных превосходит современные модели.Что касается будущей работы, мы хотели бы смоделировать отношения между документами для обобщения нескольких документов. | Создание корпуса обобщения, ориентированного на запросы, вручную требует больших затрат и времени. Ограниченный размер существующих наборов данных затрудняет обучение моделям обобщения на основе данных. В этой статье мы используем Википедию для автоматического сбора большого набора данных обобщения, ориентированного на запросы (названного WIKIREF), содержащего более 280 000 примеров, который может служить средством увеличения данных. Кроме того, мы разрабатываем модель обобщения, ориентированную на запросы, на основе BERT для извлечения сводок из документов. Экспериментальные результаты по трем тестам DUC показывают, что модель, предварительно обученная на WIKIREF, уже достигла приемлемой производительности. После точной настройки конкретных наборов данных модель с дополнением данных превосходит современную модель по результатам тестов. | 4,071 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Включение контекста и внешних знаний для разрешения кореференции местоимений. Вопрос о том, как люди различают местоимения, уже давно представляет интерес как для лингвистов, так и для сообществ обработки естественного языка (НЛП), поскольку само местоимение имеет слабое семантическое значение BIBREF0 и создает проблемы в понимании естественного языка.Чтобы найти решение этого вопроса, было предложено решение кореференции местоимений BIBREF1.В качестве важной, но жизненно важной подзадачи общей задачи разрешения кореференции, разрешение кореференции местоимений заключается в поиске правильной ссылки для данной местоименной анафоры в контексте и, как было показано, имеет решающее значение для ряда последующих задач BIBREF2, включая машинный перевод. BIBREF3 , обобщение BIBREF4 , извлечение информации BIBREF5 и диалоговые системы BIBREF6 . Обычно люди разрабатывают правила BIBREF1 , BIBREF7 , BIBREF8 или используют функции BIBREF9 , BIBREF10 , BIBREF11 для разрешения кореференций местоимений.Эти методы во многом зависят от охвата и качества определяемых вручную правил и функций.До недавнего времени для решения общей проблемы кореференции предлагалось комплексное решение BIBREF12, в котором модели глубокого обучения использовались для лучшего сбора контекстной информации.Однако обучение таких моделей на аннотированных корпусах может быть предвзятым и обычно не учитывает внешние знания.Несмотря на большие усилия, предпринятые в этой области за последние несколько десятилетий (BIBREF1, BIBREF8, BIBREF9, BIBREF13), разрешение кореференции местоимений остается сложной задачей.Причина в том, что на правильное разрешение местоимений могут влиять многие факторы BIBREF0 ; многие решения по разрешению требуют рассуждений на основе различных контекстуальных и внешних знаний BIBREF14, что также доказано в других задачах НЛП BIBREF15, BIBREF16, BIBREF17.Рисунок 1 демонстрирует такое требование на трех примерах, где пример A зависит от знания множественности, что слово «они» относится к существительным во множественном числе; Пример B иллюстрирует гендерные требования к местоимениям, где слово «она» может относиться только к лицу женского пола (девушке);Пример C требует более общего знания о том, что «кошки могут лазить по деревьям, а собака обычно этого не делает».Все эти знания трудно извлечь из обучающих данных.Учитывая важность как контекстной информации, так и внешних человеческих знаний, то, как их совместно использовать, становится важным вопросом для разрешения кореференции местоимений.В этой статье мы предлагаем двухуровневую модель для решения этого вопроса при решении двух проблем включения внешних знаний в глубокие модели для разрешения кореференции местоимений, где проблемы включают в себя: во-первых, разные случаи имеют свое предпочтение знаний, т. е. некоторые знания являются исключительно важно для определенных случаев, что требует от модели гибкости в выборе подходящих знаний для каждого случая; во-вторых, доступность ресурсов знаний ограничена, и такие ресурсы обычно содержат шум, что требует, чтобы модель была устойчивой к обучению на них.Следовательно, в нашей модели первый уровень прогнозирует отношения между именными фразами-кандидатами и целевым местоимением на основе контекстной информации, полученной нейронными сетями.Второй уровень сравнивает кандидатов попарно, в котором мы предлагаем модуль внимания к знаниям, чтобы сосредоточиться на соответствующих знаниях на основе данного контекста.Более того, между двумя слоями проводится обрезка softmax для отбора кандидатов с высокой степенью уверенности.Архитектура гарантирует, что модель сможет использовать как контекст, так и внешние знания.В частности, по сравнению с традиционными подходами, которые просто рассматривают внешние знания как правила или особенности, наша модель не только более гибкая и эффективная, но и интерпретируемая, поскольку она отражает, какой источник знаний имеет больший вес для принятия решения.Эксперименты проводятся на широко используемом наборе оценочных данных, результаты которых доказывают, что предлагаемая модель значительно превосходит все базовые модели.Прежде всего, подводя итог, можно сказать, что эта статья вносит следующий вклад: Следуя общепринятой настройке BIBREF1 , задача разрешения кореферентности местоимений определяется как: для местоимения $p$ и набора именных фраз-кандидатов ${\mathcal {N}}$ , цель состоит в том, чтобы идентифицировать правильный набор неместоминальных ссылок ${\mathcal {C}}$ .цель состоит в том, чтобы максимизировать следующую целевую функцию: $${\mathcal {J}}= \frac{\sum _{c \in {\mathcal {C}}}{e^{F(c, p)}} }{\sum _{n \in {\mathcal {N}}}e^{F(n, p)}},$$ (уравнение 8), где $c$ — правильная ссылка, а $n$ — кандидат словосочетание.$F(\cdot )$ относится к общей функции оценки кореференции для каждого $n$ относительно $p$ .Следуя BIBREF8, все неместоименные именные группы в последних трех предложениях местоимения $p$ выбираются для формирования $N$. В частности, в наших условиях мы хотим использовать как локальную контекстную информацию, так и внешние знания в этой задаче, таким образом для каждых $n$ и $p$ $F(.)$ распадается на две компоненты: $$F(n, p)= F_c(n, p) + F_k(n, p),$$ (уравнение 10), где $F_c(n, p)$ — оценочная функция, которая прогнозирует связь между $n$ и $p$ на основе контекстная информация; $F_k(n, p)$ — оценочная функция, которая прогнозирует связь между $n$ и $p$ на основе внешних знаний.Может быть несколько способов вычисления $F_c$ и $F_k$, и решение, предложенное в этой статье, описывается следующим образом.Архитектура нашей модели показана на рисунке 2, где мы используем два уровня для включения контекстной информации и внешних знаний.В частности, первый уровень принимает представления различных $n$ и $p$ в качестве входных данных и прогнозирует связь между каждой парой $n$ и $p$, чтобы вычислить $F_c$.Второй уровень использует внешние знания для вычисления $F_k$ , который состоит из парных оценок знаний $f_k$ среди всех кандидатов $n$ .Чтобы повысить эффективность модели, применяется модуль сокращения softmax для отбора высоконадежных кандидатов на второй уровень.Подробности вышеупомянутых компонентов описаны в следующих подразделах.Перед вычислением $F_c$ контекстная информация кодируется с помощью модуля представления диапазона (SR) на первом уровне модели.Следуя BIBREF12, мы принимаем стандартный двунаправленный LSTM (biLSTM) BIBREF18.и механизм внимания BIBREF19 для генерации представления диапазона, как показано на рисунке 3.Учитывая, что исходными представлениями слов в промежутке $n_i$ являются ${\bf x}_1,...,{\bf x}_T$ , обозначим их представления ${\bf x}^*_1,... ,{\bf x}^*_T$ после кодирования с помощью biLSTM. Затем мы получаем внимание внутреннего диапазона с помощью $$a_t = \frac{e^{\alpha _t}}{\sum _{k=1}^ {T}e^{\alpha _k}},$$ (уравнение 14), где $\alpha _t$ вычисляется с помощью стандартной нейронной сети прямого распространения $\alpha _t$ = $NN_\alpha ({\bf x }^*_t)$ .Таким образом, мы имеем взвешенное вложение каждого промежутка $\hat{x}_i$ через $$\hat{{\bf x}}_i = \sum _{k=1}^{T}a_k \cdot {\bf x}_k.$$ (уравнение 16)После этого мы объединяем начальное ( ${\bf x}^*_{start}$) и конечное ( ${\bf x}^*_{end}$) вложение каждого диапазона, а также его взвешенное вложение ( $\hat{{\bf x}}_i$) и признак длины ($\phi (i)$) для формирования его окончательного представления $e$: $${\bf e}_i =[{\bf x}^*_{start},{\bf x}^*_{конец},\hat{{\bf x}}_i,\phi (i)].$$ (уравнение 17)Как только представление $n \in {\mathcal {N}}$ и $p$ получено, мы вычисляем $F_c$ для каждого $n$ с помощью стандартной нейронной сети прямого распространения: $$F_c(n, p ) = NN_c([{\bf e}_n, {\bf e}_p, {\bf e}_n \odot {\bf e}_p]),$$ (уравнение 18) где $\odot $ — поэлементное умножение.На втором уровне нашей модели внешние знания используются для оценки всех кандидатов $n$ и присвоения им разумных оценок $F_k$.При этом каждый кандидат представляется как группа признаков из разных источников знаний, например, «кот» может быть представлен как существительное в единственном числе, существо неизвестного пола и регулярное подлежащее предикатного глагола «взбираться».Для каждого кандидата мы проводим серию парных сравнений между ним и всеми остальными, чтобы получить его оценку $F_k$.Предлагается механизм внимания, позволяющий осуществлять сравнение и избирательно использовать признаки знаний.Учитывая, что во внешних знаниях существует шум, особенно когда они генерируются автоматически, такой механизм внимания гарантирует, что для каждого кандидата используются надежные и полезные знания, а не неэффективные.Подробности модуля внимания к знаниям и общая оценка описаны ниже.Внимание к знаниям На рисунке 4 показана структура модуля внимания к знаниям, состоящего из двух компонентов: (1) взвешивание: присвоение весов различным функциям знаний с учетом их важности при сравнении; (2) оценка: оценка кандидата по сравнению с другим на основе его характеристик из разных источников знаний.Предполагая, что в нашу модель входит $m$ источников знаний, каждый кандидат может быть представлен $m$ различными функциями, которые закодированы как вложения.Следовательно, два кандидата $n$ и $n^\prime $ относительно $p$ имеют вложения признаков знаний ${\bf k}_{n,p}^1, {\bf k}_{n,p}^ 2, ..., {\bf k}_{n,p}^m$ и ${\bf k}_{n^\prime ,p}^1,{\bf k}_{n^\prime ,p}^2,...,{\bf k}_{n^\prime ,p}^m$ соответственно.Весовой компонент получает все признаки ${\bf k}$ для $n$ и $n^\prime $ , а также представления диапазона $m$0 и$m$1 в качестве входных данных, где $m$2 и $m$3 помогают выбрать подходящие знания в зависимости от контекста.В результате для пары кандидатов ( $m$4 , $m$5 ) и источника знаний $m$6 оценка внимания к знаниям вычисляется через $$\beta _i(n, n^\prime, p) = NN_{ ka}([{\bf o}_{n,p}^i, {\bf o}_{n^\prime ,p}^i, {\bf o}_{n,p}^i \odot {\bf o}_{n^\prime ,p}^i]),$$ (уравнение 21) где $ {\bf o}_{n,p}^i=[{\bf e}_n, {\bf k}_{n,p}^i]$ и ${\bf o}_{n^\prime ,p}^i =[{\bf e}_{n^\prime }, {\bf k}_{n^\prime ,p}^i]$ — это объединение представления диапазона и внедрения внешних знаний для кандидатов $n$ и $n ^\prime $ соответственно.Таким образом, вес объектов из разных источников знаний вычисляется через $$w_i = \frac{e^{\beta _i}}{\sum _{j=1}^{m}e^{\beta _j}}.$$ (уравнение 22) Подобно весовому компоненту, для каждого признака $i$ мы вычисляем его оценку $f_k^i(n, n^ \prime , p)$ для $n$ против $n^\prime $ в компоненте оценки через $$f_k^i(n, n^\prime , p) = NN_{ks}([{\bf k}_ {n,p}^i, {\bf k}_{n^\prime ,p}^i, {\bf k}_{n,p}^i \odot {\bf k}_{n^\ prime ,p}^i]).$$ (уравнение 23) где стоит отметить, что мы исключаем ${\bf e}$ в этой компоненте по той причине, что на практике размерность ${\bf e }$ обычно намного выше, чем ${\bf k}$ .В результате он может доминировать в вычислениях, если ${\bf e}$ и ${\bf k}$ объединены.Как только веса и оценки получены, у нас есть взвешенная оценка знаний для $n$ по сравнению с $n^\prime $ : $$f_k(n, n^\prime , p)= \sum _{i=1}^{m}w_i \cdot f_k^i(n, n^\prime , p).$$ (уравнение 25)Общая оценка знаний После того, как все пары $n$ и $n^\prime $ обработаны модулем внимания, общая оценка знаний для $n$ вычисляется через усредненное значение $f_k(n, n^\prime , p)$ по всем $n^\prime $ : $$F_k(n, p) = \frac{\sum _{n^\prime \in {\mathcal {N}}_o} f_k(n, n^\prime, p )}{|{\mathcal {N}}_o|},$$ (уравнение 26) где ${\mathcal {N}}_o = {\mathcal {N}}- n$ для каждого $n$ . Обычно , может быть много именных фраз, которые могут служить кандидатами на целевое местоимение.Одним из потенциальных препятствий при парном сравнении именных групп-кандидатов в нашей модели является квадрат сложности $O(|{\mathcal {N}}|^2)$ относительно размера ${\mathcal {N}} $ .Чтобы отфильтровать кандидатов с низкой степенью уверенности и сделать модель более эффективной, мы используем модуль сокращения softmax между двумя слоями нашей модели, чтобы выбрать кандидатов для следующего шага.Модуль принимает $F_c$ в качестве входных данных для каждого $n$ и использует вычисления softmax: $$\hat{F}_c(n, p) = \frac{e^{F_c(n, p)}}{\sum _{n_i \in {\mathcal {N}}}e^{F_c(n_i, p)}}.$$ (уравнение 28), где сохраняются кандидаты с более высоким $\hat{F}_c$ на основе порог $t$ предопределен как стандарт сокращения.Таким образом, если кандидаты имеют одинаковые оценки $F_c$, модуль позволяет большему количеству из них перейти на второй уровень.По сравнению с другими традиционными методами сокращения BIBREF12, BIBREF20, которые обычно сохраняют фиксированное количество кандидатов, наша стратегия сокращения является более эффективной и гибкой.В качестве набора оценочных данных используется корпус общих задач CoNLL-2012 BIBREF21, выбранный из Ontonotes 5.0.Следуя традиционным подходам BIBREF9 , BIBREF11 , для каждого местоимения в документе мы рассматриваем кандидата $n$ из двух предыдущих предложений и текущего предложения.Что касается местоимений, мы рассматриваем два их типа после BIBREF9, то есть местоимение третьего личного типа (она, она, он, он, они, они, оно) и притяжательное местоимение (его, ее, ее, их, их).В таблице 1 указано количество местоимений двух типов и общая статистика экспериментального набора данных.Согласно нашему диапазону выбора кандидатов $n$ в среднем каждое местоимение имеет 4,6 кандидатов и 1,3 правильных ссылки.В этом исследовании мы используем два типа знаний в наших экспериментах.Первый тип — это лингвистические особенности, то есть множественность, анимация и пол.Для аннотирования наших данных мы используем Стэнфордский синтаксический анализатор, который генерирует разметку множественности, анимации и гендера для всех именных фраз.В частности, признак множественности означает, что каждый $n$ и $p$ являются единственными или множественными.Для каждого кандидата $n$, если его статус множественности такой же, как у целевого местоимения, мы помечаем его 1, в противном случае — 0.Функция анимации и пола (AG) указывает, является ли $n$ или $p$ живым объектом, а также мужским, женским или нейтральным, если он живой.Для каждого кандидата $n$, если его признак AG соответствует целевому местоимению, мы помечаем его 1, в противном случае — 0. Второй тип — это знания о предпочтениях отбора (SP).Для получения этих знаний мы создаем базу знаний, подсчитывая, сколько раз кортеж предикат-аргумент появляется в корпусе, и используем полученное число для представления силы предпочтения.В частности, мы используем английскую Википедию в качестве базового корпуса для такого подсчета.Затем мы анализируем весь корпус с помощью парсера Стэнфорда и записываем все ребра зависимостей в формате (предикат, аргумент, отношение, число), где предикат — это управляющий элемент, а аргумент — зависимый в исходном проанализированном ребре зависимости.Позже для предложений в обучающих и тестовых данных мы сначала анализируем каждое предложение и находим ребро зависимости, связывающее $p$ и соответствующий ему предикат.Затем для каждого кандидата $n$ в предложении мы проверяем ранее созданную базу знаний SP и выясняем, сколько раз он появляется в качестве аргумента разных предикатов с одним и тем же отношением зависимости (т. е. nsubj и dobj).Полученная частота сгруппирована в следующие группы.[1, 2, 3, 4, 5-7, 8-15, 16-31, 32-63, 64+] и мы используем идентификатор корзины в качестве окончательного знания SP.Так, в предыдущем примере: Собака гонится за кошкой, но она забирается на дерево.Результат его синтаксического анализа указывает на то, что `it' является подлежащим глагола `climb'.Затем для «собаки», «кота» и «дерева» мы проверяем их ассоциации с «восхождением» в базе знаний и группируем их в сегменты для формирования признаков знаний SP.В этой работе сравниваются несколько базовых показателей.Первые два — обычные, неконтролируемые: [leftmargin=*]Recent Candidate, который просто выбирает самую последнюю существительную фразу, которая появляется перед целевым местоимением.Детерминированная модель BIBREF22, которая предлагает одну многопроходную модель сейва с правилами, разработанными человеком, для задачи разрешения кореференции.Помимо неконтролируемых моделей, мы также сравниваем их с тремя репрезентативными контролируемыми моделями:[leftmargin=*]Статистическая модель, предложенная BIBREF23, использует разработанные человеком функции уровня сущности между кластерами и упоминаниями для разрешения кореференций.Модель Deep-RL, предложенная BIBREF24, — метод обучения с подкреплением для прямой оптимизации матрицы кореференции вместо традиционной функции потерь.End2end — это современная базовая модель BIBREF20, которая работает сквозным образом и использует как контекстную информацию, так и предварительно обученную языковую модель BIBREF25. Примечание.что детерминистическая, статистическая и модель Deep-RL включены в набор инструментов Stanford CoreNLP, а эксперименты проводятся с использованием предоставленного ими кода.Для End2end мы используем их выпущенный код и заменяем его компонент обнаружения упоминаний золотыми упоминаниями для справедливого сравнения.Чтобы наглядно продемонстрировать эффективность предлагаемой модели, мы также представляем вариант нашей модели в качестве дополнительной базовой линии, чтобы проиллюстрировать эффект различных способов включения знаний:[leftmargin=*]Конкатенация функций, упрощенная версия полной модели, которая удаляет второй уровень обработки знаний, но непосредственно обрабатывает все внешние внедрения знаний как функции и объединяет их для охвата представлений.Следуя предыдущей работе BIBREF20, мы используем объединение вложений 300d GloVe BIBREF26 и вложений ELMo BIBREF25 в качестве исходных представлений слов.Слова вне словарного запаса инициализируются нулевыми векторами.Гиперпараметры задаются следующим образом.Скрытое состояние модуля LSTM установлено на 200, и все сети прямой связи в нашей модели имеют два скрытых слоя размером 150 измерений.Порог сокращения по умолчанию $t$ для сокращения softmax установлен на $10^{-7}$ .Все лингвистические особенности (множественность и AG) и внешние знания (SP) кодируются как 20-мерные вложения.Для обучения модели мы используем перекрестную энтропию в качестве функции потерь и Адама BIBREF27 в качестве оптимизатора.Все вышеупомянутые гиперпараметры инициализируются случайным образом, и мы применяем коэффициент отсева 0,2 ко всем скрытым слоям модели.Наша модель считает кандидата правильным рекомендателем, если его прогнозируемый общий балл $F(n,p)$ больше 0.Обучение модели выполняется до 100 эпох, и лучшая из них выбирается на основе ее производительности на наборе разработки.В таблице 2 сравниваются характеристики нашей модели со всеми базовыми показателями.В целом наша модель работает лучше всего по всем показателям оценки.Из результатов также можно сделать несколько выводов.Во-первых, определенных вручную знаний и функций недостаточно для охвата обширной контекстной информации.Модели глубокого обучения (например, End2end и предлагаемые нами модели), которые используют текстовые представления для контекста, значительно превосходят другие подходы, особенно при запоминании.Во-вторых, внешние знания очень полезны в этой задаче, что подтверждается тем, что наша модель значительно превосходит модель End2end.Более того, интересно также сравнение двух вариантов наших моделей, где окончательная двухслойная модель превосходит модель конкатенации функций.Это доказывает, что просто рассматривать внешние знания как особенность, даже если они происходят из одних и тех же источников, не так эффективно, как их изучение в рамках совместной структуры.Причиной этого результата в основном является шум в источнике знаний, например, ошибка синтаксического анализа, неправильно идентифицированные отношения и т. д.Например, 17% существительных фраз в тестовых данных помечены неправильно.Для сравнения: наше внимание к знаниям может способствовать снижению такого шума при включении всех источников знаний.Влияние разных знаний Чтобы проиллюстрировать важность различных источников знаний и механизма внимания к знаниям, мы удаляем различные компоненты нашей модели и сообщаем соответствующие баллы F1 на тестовых данных.Результаты показаны в Таблице 3, которая ясно показывает необходимость знаний.Интересно, что AG вносит наибольший вклад среди всех типов знаний, что указывает на то, что потенциально больше случаев в наборе оценочных данных требуют знаний AG, чем другие.Что еще более важно, результаты также доказывают эффективность модуля внимания к знаниям, который способствует увеличению разрыва в производительности между нашей моделью и моделью конкатенации функций.Влияние разных порогов сокращения. Мы пробуем разные пороги $t$ для сокращения softmax при выборе надежных кандидатов.Влияние различных пороговых значений на сокращение числа кандидатов и общую производительность показано на рисунках 5 и 6 соответственно.Наряду с увеличением $t$ как максимальное, так и среднее количество отсеченных кандидатов быстро падают, так что пространственная сложность модели может быть соответственно уменьшена.В частности, при $t = 10^{-1}$ можно отфильтровать до 80% кандидатов.Между тем, если обратиться к рисунку 6, видно, что модель работает стабильно при уменьшении числа кандидатов.Неудивительно, что точность возрастает при уменьшении числа кандидатов, однако отзыв резко падает, что в конечном итоге приводит к падению F1.Учитывая приведенные выше наблюдения, причина, по которой мы устанавливаем $t = 10^{-7}$ в качестве порога по умолчанию, проста: при этом значении одна треть кандидатов отсеивается практически без влияния на производительность модели с точки зрения точности, напомним. и счет F1.Чтобы дополнительно продемонстрировать эффективность включения знаний в разрешение кореферентности местоимений, для детального анализа представлены два примера.Результаты прогнозирования модели End2end и нашей полной модели показаны в таблице 4.В обоих примерах существуют разные проблемы.В примере А «Иисус», «мужчина» и «мой сын» — это одинаковые (мужские) именные группы, соответствующие целевому местоимению «Он».Модель End2end предсказывает, что все они являются правильными ссылками, поскольку их контекст мало помогает в их различении.В примере Б расстояние между словом «несчастный случай» и местоимением «оно» слишком велико.В результате результат «Нет» модели End2end указывает на то, что контекстной информации недостаточно для принятия решения.Для сравнения: в нашей модели интеграция внешних знаний может помочь решить такие проблемы, например, в примере А знания SP помогают, когда Множественность и AG не могут различить всех кандидатов.Чтобы наглядно проиллюстрировать, как наша модель использует внешние знания, мы визуализируем внимание к знаниям правильной ссылки по сравнению с другими кандидатами с помощью тепловых карт на рисунке 7.Из визуализации можно сделать два интересных наблюдения.Во-первых, если у двух кандидатов есть существенные различия по одному признаку, наша модель склонна уделять больше внимания этому признаку.Возьмем, к примеру, AG. В примере A черты AG всех кандидатов последовательно соответствуют местоимению «он» (все мужчины/нейтральные).Таким образом, при сравнении «моего сына» со всеми кандидатами признак AG не учитывается.В то время как в примере B целевое местоимение «оно» не может описать человека, таким образом, «отец» и «друг» имеют значение 0 для признака AG, а «больница» и «несчастный случай» — 1.В результате модуль внимания уделяет АГ больше внимания, чем другим типам знаний.Во-вторых, важность СП ясно показана на этих примерах.В примере A функции множественности и AG не могут помочь, модуль внимания имеет более высокий вес в SP, потому что «сын» появляется 100 раз в качестве аргумента анализируемого предиката «ребенок» в базе знаний SP, в то время как другие кандидаты появляются в этой позиции гораздо меньше. .В примере B, как упоминалось выше, как только AG помогает фильтровать «больницу» и «несчастный случай», SP играет важную роль в их различении, поскольку «несчастный случай» появляется в базе знаний SP 26 раз как аргумент «вины» от несчастного случая. результаты анализатора, тогда как слово «больница» никогда не появляется в этой позиции.Разрешение кореференции является основной задачей понимания естественного языка, где оно определяет диапазон упоминаний и определяет отношения кореференции между ними.Как показано в BIBREF12, обнаружение упоминаний и прогнозирование кореференции являются двумя основными направлениями задачи.В отличие от общей задачи кореференции, разрешение кореференции местоимений имеет свою уникальную проблему, поскольку семантика местоимений часто не так ясна, как обычные именные фразы. В целом, в центре внимания находится то, как использовать контекст и внешние знания для решения кореференции местоимений. BIBREF1 , BIBREF14 , BIBREF28 .Впредыдущая работа, внешние знания, включая определенные вручную правила BIBREF1, BIBREF9, такие как требования к количеству/полу различных местоимений, и мировые знания BIBREF14, такие как выборочные предпочтения BIBREF29, BIBREF30 и знания о возможностях BIBREF31, как было доказано, полезны для разрешения кореференции местоимений. .Недавно, с развитием глубокого обучения, BIBREF12 предложил сквозную модель, которая изучает контекстную информацию с помощью модуля LSTM, и доказал, что такие знания полезны для разрешения кореференции, когда контекст правильно закодирован.Вышеупомянутые два типа знаний имеют свои преимущества: контекстная информация охватывает разнообразные текстовые выражения, которые трудно определить заранее, в то время как внешние знания обычно более точно построены и способны предоставить дополнительную информацию помимо обучающих данных.В отличие от предыдущей работы, мы исследуем возможность объединения двух типов знаний для разрешения кореференции местоимений, а не использования только одного из них.Насколько нам известно, это первая попытка использовать модель глубокого обучения для включения контекстной информации и внешних знаний для разрешения кореференции местоимений.В этой статье мы предложили двухуровневую модель разрешения кореференции местоимений, где первый уровень кодирует контекстную информацию, а второй уровень использует внешние знания.В частности, предлагается механизм внимания к знаниям, позволяющий выборочно использовать функции из разных источников знаний.В качестве усовершенствования существующих методов предлагаемая модель сочетает в себе преимущества традиционных моделей, основанных на признаках, и моделей глубокого обучения, так что контекст и внешние знания могут быть синхронно и эффективно использованы для этой задачи.Результаты экспериментов и тематические исследования демонстрируют превосходство предлагаемой модели над современными базовыми моделями.Поскольку предложенная модель имеет расширяемую структуру, одной из возможных будущих работ является изучение наилучшего способа ее расширения с помощью более сложных ресурсов знаний, таких как графы знаний.Эта статья была частично поддержана Программой ранней карьеры (ECS, № 26206717) Совета по исследовательским грантам в Гонконге.Кроме того, Хунмина Чжана поддержал доктор философии из Гонконга. Стипендия и программа обучения Tencent Rhino-Bird Elite.Мы также благодарим анонимных рецензентов за их ценные комментарии и предложения, которые помогают улучшить качество этой статьи. | Связывание местоименных выражений с правильными ссылками во многих случаях требует лучшего анализа контекстной информации и внешних знаний. В этой статье мы предлагаем двухуровневую модель для разрешения кореференции местоимений, которая использует как контекст, так и внешние знания, где механизм внимания к знаниям предназначен для обеспечения того, чтобы модель использовала соответствующий источник внешних знаний на основе различного контекста. Экспериментальные результаты демонстрируют обоснованность и эффективность нашей модели, где она значительно превосходит современные модели. | 5,140 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Моделирование семантических категорий с использованием концептуального соседства. Вложения в векторное пространство обычно используются для представления сущностей в таких областях, как машинное обучение (ML) BIBREF0, обработка естественного языка (NLP) BIBREF1, поиск информации (IR) BIBREF2 и когнитивная наука BIBREF3.Однако важным моментом является то, что такие представления обычно представляют как отдельных лиц, так и категории в виде векторов BIBREF4, BIBREF5, BIBREF6.Обратите внимание, что в этой статье мы используем термин «категория» для обозначения естественных групп людей, как он используется в когнитивной науке, при этом люди относятся к объектам из рассматриваемой области дискурса.Например, особи морковь и огурец относятся к категории овощей.Мы используем термин «субъекты» как общий термин, охватывающий как отдельных лиц, так и категории.Учитывая, что категория соответствует набору индивидов (т. е. ее экземпляров), моделирование их как (возможно, неточных) областей в пространстве внедрения кажется более естественным, чем использование векторов.Фактически, было показано, что векторные представления людей, принадлежащих к одной и той же категории, действительно часто группируются вместе в изученных вложениях векторного пространства BIBREF7, BIBREF8.Представление о категориях как о регионах также распространено в когнитивной науке BIBREF3.Однако изучение представлений категорий в регионах является сложной проблемой, поскольку обычно у нас есть лишь несколько примеров людей, принадлежащих к данной категории.Одним из распространенных предположений является то, что естественные категории можно моделировать с использованием выпуклых областей BIBREF3, что упрощает задачу оценки.Например, основываясь на этом предположении, BIBREF9 смоделировал категории, используя распределения Гаусса, и показал, что эти распределения можно использовать для пополнения базы знаний.К сожалению, для успеха этой стратегии по-прежнему требуется относительно большое количество обучающих примеров.Однако при изучении категорий люди полагаются не только на примеры.Например, есть свидетельства того, что, изучая значение существительных, дети полагаются на предположение по умолчанию, что эти существительные обозначают взаимоисключающие категории BIBREF10.В этой статье мы, в частности, воспользуемся тем фактом, что многие естественные категории организованы в так называемые контрастные наборы BIBREF11.Это наборы тесно связанных категорий, которые исчерпывающе охватывают некоторую подобласть и которые считаются взаимоисключающими; например набор всех распространенных названий цветов, набор $\lbrace \text{fruit},\text{vegetable}\rbrace $ или набор $\lbrace \text{NLP}, \text{IR}, \text{ML} \rbrace $.Категории из одного и того же контрастного набора часто конкурируют за охват.Например, мы можем думать о области НЛП как о состоящей из тем исследований, которые включают обработку текстовой информации, не охваченной доменами IR и ML.Категории, которые таким образом конкурируют за охват, известны как концептуальные соседи BIBREF12; например НЛП и ИР, красный и оранжевый, фрукты и овощи.Обратите внимание, что точная граница между двумя концептуальными соседями может быть расплывчатой (например, помидор можно классифицировать как фрукт или овощ). В этой статье мы предлагаем метод изучения региональных представлений категорий, который использует преимущества концептуального соседства, особенно в сценариях, где количество доступных обучающих примеров невелико.Основная идея проиллюстрирована на рисунке FigREF2, на котором изображена ситуация, когда нам даны несколько примеров целевой категории $C$, а также некоторых связанных категорий $N_1,N_2,N_3,N_4$. Если нам нужно оценить регион только на примерах $C$, разумным выбором будет небольшая эллиптическая область, показанная красным.В более общем плане стандартным подходом было бы оценить распределение Гаусса на основе приведенных примеров.Однако вложения в векторное пространство обычно имеют сотни измерений, в то время как количество известных примеров целевой категории часто намного меньше (например, 2 или 3).В таких условиях мы почти неизбежно недооценим охват этой категории.Однако в примере на рисунке FigREF2, если мы примем во внимание знание того, что $N_1,N_2,N_3,N_4$ являются концептуальными соседями $C$, гораздо более крупная заштрихованная область становится более естественным выбором для представления $C$. .Действительно, тот факт, что, например. $C$ и $N_1$ являются концептуальными соседями, что означает, что любая точка между примерами этих категорий должна содержаться либо в регионе, представляющем $C$, либо в регионе, представляющем $N_1$. В духе прототипных подходов к категоризации BIBREF13 без какой-либо дополнительной информации имеет смысл предположить, что их граница находится более или менее посередине между известными примерами.Вклад этой статьи имеет два аспекта.Во-первых, мы предлагаем метод идентификации концептуальных соседей из текстовых корпусов.По сути, мы рассматриваем эту проблему как стандартную задачу классификации текста, полагаясь на категории с большим количеством обучающих примеров для генерации подходящего сигнала дистанционного контроля.Во-вторых, мы показываем, что предсказанные концептуальные соседи могут эффективно использоваться для изучения лучших представлений категорий.В семантике распределения категории часто моделируются как векторы.Например, BIBREF14 изучает проблему определения для пары слов $(i,c)$, обозначает ли $i$ экземпляр категории $c$, которую они называют экземпляром.Они рассматривают эту проблему как проблему бинарной классификации, где, например. пара (AAAI, конференция) будет положительным примером, тогда как (конференция, AAAI) и (Нью-Йорк, конференция) будут отрицательными примерами.В отличие от нашего подхода, их цель, таким образом, состоит в том, чтобы смоделировать само отношение реализации, аналогично тому, как гипернимия была смоделирована в НЛП BIBREF15, BIBREF16.Чтобы предсказать создание экземпляров, они используют простую модель нейронной сети, которая принимает в качестве входных данных векторы слов входной пары $(i,c)$.Они также экспериментировали с подходом, который вместо этого моделирует данную категорию как среднее значение векторов слов ее известных экземпляров, и обнаружили, что это приводит к лучшим результатам.Некоторые авторы уже рассматривали проблему изучения представлений категорий в регионах.Наиболее тесно связаны концепции онтологии модели BIBREF17 с использованием гауссовых распределений.В BIBREF18 DBLP:conf/ecai/JameelS16 представлена модель, которая встраивает объекты Википедии, так что объекты, имеющие один и тот же тип WikiData, характеризуются некоторой областью внутри низкоразмерного подпространства встраивания.В контексте внедрения графа знаний было предложено несколько подходов, которые по существу моделируют семантические типы как регионы BIBREF19, BIBREF20.Также было предложено несколько подходов к моделированию значения слова с использованием регионов BIBREF21, BIBREF22 или гауссовых распределений BIBREF23.В том же духе несколько авторов предложили подходы, вдохновленные вероятностным тематическим моделированием, которые моделируют скрытые темы с использованием гауссиан BIBREF24 или связанных с ним распределений BIBREF25. С другой стороны, понятие концептуальной близости наиболее подробно рассмотрено в области пространственного познания. начиная с влиятельной работы BIBREF12.Более того, в компьютерной лингвистике эта структура представления соответствует традициям лексической семантики, где значение слова конструируется с точки зрения семантической декомпозиции, т.е. лексические элементы минимально разлагаются на структурированные формы (или шаблоны), а не на наборы функций BIBREF26, эффективно имитируя своего рода концептуальное соседство.В порождающем лексиконе Пустеевского предлагается набор «семантических приемов», которые ведут себя в семантике так же, как грамматики в синтаксисе.В частности, эта концепция рассматривает структуру квалиа лексической единицы как набор выразительных семантических различий, причем наиболее актуальной для наших целей является так называемая формальная роль, которая определяется как «то, что отличает объект в более широкой области». например форму или цвет.Это семантическое взаимодействие между когнитивной наукой и компьютерной лингвистикой уступило место термину «лексическая связность», который использовался для контекстуализации значения слов с точки зрения того, как они соотносятся со своими концептуальными соседями BIBREF27, или для предоставления выразительных лексико-семантических ресурсов в форме онтологии BIBREF28. Наша цель — представить модель для изучения представлений категорий на основе регионов, которая может использовать преимущества знаний о концептуальной близости этой категории.На протяжении всей статьи мы фокусируемся, в частности, на моделировании категорий из таксономии BabelNet BIBREF29, хотя предлагаемый метод может быть применен к любому ресурсу, который (i) организует категории в таксономии и (ii) предоставляет примеры лиц, принадлежащих к этим категориям.Однако выбор BabelNet в качестве нашего варианта использования является естественным выбором, учитывая его большой масштаб и тот факт, что он объединяет множество лексических и онтологических ресурсов.В качестве возможных концептуальных соседей данной категории $C$ BabelNet мы рассматриваем всех ее братьев и сестер в таксономии, то есть все категории $C_1,...,C_k$, которые имеют общего прямого родителя с $C$.Чтобы выбрать, какие из этих братьев и сестер с наибольшей вероятностью будут концептуальными соседями, мы смотрим на упоминания этих категорий в текстовом корпусе.В качестве наглядного примера рассмотрим пару (деревня, деревня) и следующее предложение: В британской географии деревня считается меньшей, чем деревня, и ... Из этого предложения мы можем сделать вывод, что деревня и деревня не пересекаются, но тесно связаны. категории, тем самым предполагая, что они являются концептуальными соседями.Однако обучение классификатора, который может идентифицировать концептуальных соседей из таких предложений, осложняется тем фактом, что концептуальная близость, насколько нам известно, не рассматривается ни в одном существующем лексическом ресурсе, а это означает, что большие наборы обучающих примеров недоступны.Чтобы восполнить недостаток данных по обучению, мы полагаемся на стратегию дистанционного контроля.Основная идея заключается в том, что для категорий с большим количеством известных экземпляров мы можем использовать вложения этих экземпляров, чтобы проверить, являются ли две категории концептуальными соседями.В частности, наш подход включает в себя следующие три шага: Определить пары категорий, которые могут быть концептуальными соседями, на основе векторных представлений их известных экземпляров.Используйте пары из шага 1, чтобы обучить классификатор, который может распознавать предложения, указывающие на то, что две категории являются концептуальными соседями.Используйте классификатор из шага 2, чтобы предсказать, какие пары категорий BabelNet являются концептуальными соседями, и используйте эти прогнозы для изучения представлений категорий.Обратите внимание, что на шаге 1 мы можем рассматривать только категории BabelNet с большим количеством экземпляров, в то время как конечным результатом шага 3 является то, что мы можем предсказать концептуальное соседство для категорий с небольшим количеством известных экземпляров.Теперь мы обсудим три вышеупомянутых шага один за другим.Наша цель здесь — создать метки удаленного надзора для пар категорий, указывающие, могут ли они быть концептуальными соседями.Эти метки затем будут использоваться в разделе SECREF12 для обучения классификатора прогнозированию концептуальной близости по тексту.Пусть $A$ и $B$ — братья и сестры в таксономии BabelNet.Если в BabelNet будет предоставлено достаточно примеров людей, принадлежащих к этим категориям, мы сможем использовать эти экземпляры для оценки высококачественных представлений $A$ и $B$ и, таким образом, оценить, могут ли они быть концептуальными соседями.В частности, мы разбили известные экземпляры $A$ на обучающий набор $I^A_{\textit {train}}$ и тестовый набор $I^A_{\textit {test}}$, и аналогично для $B$. . Затем мы обучаем два типа классификаторов.Первый классификатор оценивает распределение Гаусса для каждой категории, используя обучающие экземпляры в $I^A_{\textit {train}}$ и $I^B_{\textit {train}}$ соответственно.Это должно дать нам разумное представление $A$ и $B$ независимо от того, являются ли они концептуальными соседями.Во втором подходе мы сначала изучаем распределение Гаусса из совместного набора обучающих примеров $I^A_{\textit {train}} \cup I^B_{\textit {train}}$, а затем обучаем классификатор логистической регрессии для отдельные экземпляры из $A$ и $B$. В частности, отметим, что таким образом мы напрямую налагаем требование, чтобы области, моделирующие $A$ и $B$, были смежными в пространстве вложения (интуитивно соответствующее двум половинам гауссова распределения).Таким образом, мы можем ожидать, что второй подход должен привести к лучшим прогнозам, чем первый подход, если $A$ и $B$ являются концептуальными соседями, и к худшим прогнозам, если это не так.В частности, мы предлагаем использовать относительную производительность двух классификаторов в качестве необходимого сигнала дистанционного наблюдения для прогнозирования концептуальной близости.Теперь мы опишем две модели классификации более подробно, после чего объясним, как эти модели используются для создания меток дистанционного контроля.Гауссов классификаторПервый классификатор следует базовому подходу BIBREF17, где распределения Гаусса аналогичным образом использовались для моделирования категорий WikiData.В частности, мы оцениваем вероятность того, что индивидуум $e$ с векторным представлением $\mathbf {e}$ является экземпляром категории $A$ следующим образом: где $\lambda _A$ — априорная вероятность принадлежности категории $ A$, вероятность $f(\mathbf {e} | A)$ моделируется как распределение Гаусса, а $f(\mathbf {e})$ также будет моделироваться как распределение Гаусса.Интуитивно мы думаем о гауссовском $f(.| A)$ как определение мягкой области, моделирующей категорию $A$.Учитывая многомерность типичных вложений в векторное пространство, мы используем приближение среднего поля: где $d$ — количество измерений во вложении векторного пространства, $e_i$ — это $i^{\textit {th}}$ координата $\mathbf {e}$, а $f_i(. | A)$ — одномерная гауссиана.Для оценки параметров $\mu _i$ и $\sigma _i^2$ этой гауссианы мы используем байесовский подход с плоским априором: где $G(e_i;\mu _i,\sigma _i^2)$ представляет собой Гауссово распределение со средним $\mu _i$ и дисперсией $\sigma _i^2$ и NI$\chi ^{2}$ является нормальным обратным распределением $\chi ^{2}$.Другими словами, вместо того, чтобы использовать одну оценку среднего значения $\mu$ и дисперсии $\sigma _2$, мы усредняем все возможные варианты этих параметров.Использование нормального обратного распределения $\chi ^{2}$ для априорных значений для $\mu _i$ и $\sigma _i^2$ является распространенным выбором, который имеет то преимущество, что приведенный выше интеграл упрощается до значения Стьюдента. -т распространение.В частности, мы имеем: где мы предполагаем, что $I^A_{\textit {train}}= \lbrace a_1,...,a_n\rbrace $, $a_i^j$ обозначает $i^{\textit {th} }$ координата векторного вложения $a_j$, $\overline{x_i} = \frac{1}{n}\sum _{j=1}^n a_i^j$ и $t_{n-1}$ — t-распределение Стьюдента с $n-1$ степенями свободы.Вероятность $f(\mathbf {e})$ оценивается аналогичным образом, но с использованием всех экземпляров BabelNet.Предыдущий $\lambda _A$ настраивается на основе набора проверки.Наконец, мы классифицируем $e$ как положительный пример, если $P(A|\mathbf {e}) > 0,5$.GLR Classifier.Сначала мы обучаем гауссов классификатор, как описано в разделе UNKREF9, но теперь используем обучающие экземпляры $A$ и $B$. Обозначим вероятность, предсказанную этим классификатором, как $P(A\cup B | \textbf {e})$. Интуиция подсказывает, что сущности, для которых эта вероятность высока, должны быть либо экземплярами $A$, либо $B$, при условии, что $A$ и $B$ являются концептуальными соседями.Если, с другой стороны, $A$ и $B$ не являются концептуальными соседями, использование этого предположения может привести к ошибкам (т. е. могут существовать индивидуумы, чье представление находится между $A$ и $B$, которые не являются экземпляры того и другого), что нам и нужно для создания меток удаленного контроля.Если $P(A\cup B | \textbf {e}) > 0,5$, мы предполагаем, что $e$ принадлежит либо $A$, либо $B$. Чтобы различать эти два случая, мы обучаем классификатор логистической регрессии, используя экземпляры из $I^A_{\textit {train}}$ в качестве положительных примеров и экземпляры из $I^B_{\textit {train}}$ в качестве отрицательных. Примеры.Таким образом, суммируя все вместе, мы классифицируем $e$ как положительный пример для $A$, если $P(A\cup B | \textbf {e})>0,5$ и $e$ классифицируется как положительный пример с помощью логистической регрессии. классификатор.Точно так же мы классифицируем $e$ как положительный пример для $B$, если $P(A\cup B | \textbf {e})>0,5$ и $e$ классифицируется как отрицательный пример классификатором логистической регрессии.Мы будем называть эту модель классификации GLR (Гауссова логистическая регрессия). Чтобы сгенерировать метки удаленного контроля, мы рассматриваем троичную задачу классификации для каждой пары братьев и сестер $A$ и $B$. В частности, задача состоит в том, чтобы решить для данного индивидуума $e$, является ли он экземпляром $A$, экземпляром $B$ или ни тем, ни другим (где только непересекающиеся пары $A$ и $B$ являются обдуманный).Для гауссова классификатора мы прогнозируем $A$ тогда и только тогда, когда $P(A|\mathbf {e})>0.5$ и $P(A|\mathbf {e}) >P(B|\mathbf {e})$. Для классификатора GLR мы прогнозируем $A$, если $P(A\cup B|\mathbf {e}) >0,5$, а соответствующий классификатор логистической регрессии прогнозирует $A$.Условие предсказания $B$ аналогично.Тестовые примеры для этой задачи тройной классификации состоят из элементов из $I^A_{\textit {test}}$ и $I^B_{\textit {test}}$, а также некоторых отрицательных примеров (т. е. людей, которые ни экземпляры $A$, ни $B$).Чтобы выбрать эти отрицательные примеры, мы сначала выбираем экземпляры из категорий, которые имеют того же родителя, что и $A$ и $B$, выбирая столько таких отрицательных примеров, сколько у нас есть положительных примеров.Во-вторых, мы также выбираем такое же количество отрицательных примеров из случайно выбранных категорий таксономии.Пусть $F^1_{AB}$ — оценка F1, полученная с помощью гауссовского классификатора, а $F^2_{AB}$ — оценка F1 классификатора GLR.Наша гипотеза состоит в том, что $F^1_{AB} \ll F^2_{AB}$ предполагает, что $A$ и $B$ являются концептуальными соседями, а $F^1_{AB} \gg F^2_{AB}$ предполагает, что это не так.Эта интуиция отражена в следующей партитуре: где мы считаем $A$ и $B$ концептуальными соседями, если $s_{AB}\gg 0,5$. Теперь мы рассмотрим следующую задачу: даны две категории BabelNet $A$ и $ B$, предскажите, будут ли они концептуальными соседями, на основе предложений из текстового корпуса, в котором они оба упоминаются.Для обучения такого классификатора мы используем метки дистанционного контроля из раздела SECREF8 в качестве данных для обучения.После обучения этого классификатора мы можем использовать его для прогнозирования концептуальной близости для категорий, для которых известно лишь несколько экземпляров.Чтобы найти предложения, в которых упоминаются как $A$, так и $B$, мы полагаемся на корпус однозначного текста, в котором упоминания категорий BabelNet явно помечены тегами.Такой корпус с устранением неоднозначности можно создать автоматически, используя, например, методы, предложенные BIBREF30 mancini-etal-2017-embedding.Таким образом, для каждой пары категорий-кандидатов мы извлекаем все предложения, в которых они встречаются одновременно.Далее мы представляем каждое извлеченное предложение как вектор.С этой целью мы рассмотрели две возможные стратегии: Усреднение встраивания слов: мы вычисляем встраивание предложения, просто усредняя встраивание слов каждого слова в предложении.Несмотря на свою простоту, этот подход, как было показано, обеспечивает конкурентоспособные результаты BIBREF31, в соответствии с более дорогими и сложными методами, например. на основе LSTM.Контекстуализированные встраивания слов. Недавно предложенные контекстуализированные встраивания слов BIBREF32, BIBREF33 уже доказали свою эффективность в широком спектре задач НЛП.Вместо предоставления единого векторного представления для всех слов независимо от контекста, контекстуализированные вложения предсказывают представление для каждого вхождения слова, которое зависит от его контекста.Эти представления обычно основаны на предварительно обученных языковых моделях.В нашей ситуации мы извлекаем контекстуализированные вложения для двух категорий кандидатов внутри предложения.Чтобы получить это контекстуализированное встраивание, мы использовали последний уровень предварительно обученной языковой модели, который, как было показано, наиболее подходит для сбора семантической информации BIBREF34, BIBREF35.Затем мы используем конкатенацию этих двух контекстуализированных вложений в качестве представления предложения.Для обеих стратегий мы усредняем их соответствующие представления на уровне предложений по всем предложениям, в которых упоминаются одни и те же две категории-кандидаты.Наконец, мы обучаем классификатор SVM на полученных векторах, чтобы предсказать для пары братьев и сестер $(A,B)$, выполняется ли $s_{AB}> 0,5$.Пусть $C$ — категория и предположим, что $N_1,...,N_k$ — концептуальные соседи этой категории.Затем мы сможем смоделировать $C$, обобщив идею, лежащую в основе классификатора GLR.В частности, мы сначала изучаем распределение Гаусса по всем экземплярам $C$ и $N_1,...,N_k$.Эта гауссова модель позволяет нам оценить вероятность $P(C\cup N_1\cup ...\cup N_k \,|\, \mathbf {e})$ того, что $e$ принадлежит одному из $C,N_1,. ..,Н_к$.Если эта вероятность достаточно высока (т. е. выше 0,5), мы используем классификатор полиномиальной логистической регрессии, чтобы решить, к какой из этих категорий $e$ с наибольшей вероятностью принадлежит.Геометрически мы можем думать о модели Гаусса как о захватывающей соответствующую локальную область, в то время как модель полиномиальной логистической регрессии делит эту локальную область, как показано на рисунке FigREF2. На практике мы не знаем с уверенностью, какие категории являются концептуальными соседями $. канадских долларов.Вместо этого мы выбираем категории $k$ (для некоторой фиксированной константы $k$) среди всех одноуровневых элементов $C$, которые с наибольшей вероятностью будут концептуальными соседями, согласно классификатору текста из раздела SECREF12. Центральную проблему мы решаем. Рассмотрим индукцию категории: учитывая некоторые экземпляры категории, предскажите, какие другие люди, вероятно, будут экземплярами этой категории.Когда задано достаточное количество экземпляров, стандартные подходы, такие как гауссов классификатор из раздела UNKREF9 или даже простой классификатор SVM, могут хорошо справиться с этой задачей.Однако для многих категорий у нас есть доступ только к нескольким экземплярам, либо потому, что рассматриваемая онтология крайне неполна, либо потому, что рассматриваемая категория имеет лишь несколько реальных экземпляров.Основной исследовательский вопрос, который мы хотим проанализировать, заключается в том, может ли (предсказанная) концептуальная близость помочь получить лучшие модели индукции категорий в таких случаях.В разделе SECREF16 мы сначала предоставим более подробную информацию об условиях эксперимента, которому мы следовали.Затем в разделе SECREF23 обсуждаются наши основные количественные результаты.Наконец, в разделе SECREF26 мы представляем качественный анализ.Как объяснено в разделе SECREF3, мы использовали BabelNet BIBREF29 в качестве эталонной таксономии.BabelNet — это крупномасштабная полноценная таксономия, состоящая из разнородных источников, таких как WordNet BIBREF36, Wikidata BIBREF37 и WiBi BIBREF38, что делает ее подходящей для проверки нашей гипотезы в общих условиях.Вложения векторного пространства.И метод удаленной разметки из раздела SECREF8, и сама модель индукции категорий нуждаются в доступе к векторным представлениям рассматриваемых экземпляров.С этой целью мы использовали векторы NASARI, которые были взяты из Википедии и уже связаны с выбором категорий BabelNet BIBREF1.BabelNet.Чтобы протестировать предлагаемую нами модель индукции категорий, мы рассматриваем все категории BabelNet с менее чем 50 известными экземплярами.Это мотивировано мнением, что концептуальное соседство наиболее полезно в тех случаях, когда количество известных экземпляров невелико.Для каждой из этих категорий мы разделили набор известных экземпляров на 90 % для обучения и 10 % для тестирования.Чтобы настроить априорную вероятность $\lambda _A$ для этих категорий, мы выделяем 10% из обучающего набора в качестве проверочного набора.Концептуальные соседи среди рассматриваемых категорий тестов прогнозируются с использованием классификатора из раздела SECREF12.Чтобы получить метки дистанционного контроля, необходимые для обучения этого классификатора, мы рассматриваем все категории BabelNet, имеющие не менее 50 экземпляров.Это гарантирует, что метки дистанционного контроля будут достаточно точными и не будут пересекаться с категориями, которые используются для оценки модели.Обучение классификатору текста.В качестве текстового корпуса для извлечения предложений по парам категорий мы использовали английскую Википедию.В частности, мы использовали дамп от ноября 2014 года, для которого в сети доступна неоднозначная версия.Эта версия с устранением неоднозначности была построена с использованием алгоритма устранения неоднозначности BIBREF30 mancini-etal-2017-embedding.Как поясняется в разделе SECREF12, для каждой пары категорий мы извлекли все предложения, в которых они встречаются одновременно, включая максимальный размер окна в 10 токенов между их появлениями и по 10 токенов слева и справа от первой и второй категории в пределах приговор соответственно.Для представления предложений на основе усреднения мы использовали 300-мерные предварительно обученные встраивания слов GloVe BIBREF39.Для получения контекстуализированных представлений мы использовали предварительно обученную 768-мерную базовую модель BERT BIBREF33..Классификатор текста обучен на 3552 категориях, которые встречаются хотя бы один раз в одном и том же предложении в корпусе Википедии, используя соответствующие оценки $s_{AB}$ в качестве контрольного сигнала (см. раздел SECREF12).Чтобы проверить, насколько хорошо концептуальное соседство можно предсказать по тексту, мы выполнили 10-кратную перекрестную проверку данных обучения, удалив для этого эксперимента неясные случаи (т. е. те пары категорий с оценками $s_{AB}$ от $0,4$ до $0,6$).Мы также рассмотрели простой базовый показатель WE, основанный на количестве одновременно встречающихся предложений для каждой пары, который, как мы могли ожидать, будет достаточно сильным индикатором концептуальной близости, т. е. чем чаще две категории упоминаются в одном предложении, тем более вероятно, что они концептуальные соседи.Результаты этого эксперимента по перекрестной проверке суммированы в таблице TABREF22.Удивительно, но, возможно, метод усреднения вектора слов в целом кажется более надежным, но при этом значительно быстрее, чем метод, использующий BERT.Результаты также подтверждают интуицию о том, что количество одновременно встречающихся предложений положительно коррелирует с концептуальной близостью, хотя результаты для этого базового уровня явно слабее, чем для предложенных классификаторов.Базовые показатели.Чтобы оценить эффективность нашей модели в перспективе, мы рассмотрим три базовых метода индукции категорий.Во-первых, мы рассматриваем производительность гауссовского классификатора из раздела UNKREF9 как показательный пример того, насколько хорошо мы можем моделировать каждую категорию, рассматривая только их заданные экземпляры; эта модель будет называться Гаусс.Во-вторых, мы рассматриваем вариант предлагаемой модели, в котором мы предполагаем, что все братья и сестры категории являются концептуальными соседями; эта модель будет называться Multi.В-третьих, мы рассматриваем вариант нашей модели, в котором соседи выбираются по сходству.С этой целью мы представляем каждую BabelNet как их вектор из пространства NASARI.Затем из множества одноуровневых элементов целевой категории $C$ мы выбираем категории $k$, векторное представление которых наиболее похоже на векторное представление $C$ с точки зрения косинусного подобия.Эта базовая линия будет называться «Сходство$_k$», где $k$ — количество выбранных соседей.Мы называем нашу модель SECOND-WEA$_k$ или SECOND-BERT$_k$ (SEmantic категории с CONceptual NeighborhooD), в зависимости от того, используется ли стратегия усреднения встраивания слов или метод, использующий BERT. Наши основные результаты для индукции категорий задачи обобщены в таблице TABREF24.В этой таблице мы показываем результаты для различного выбора количества выбранных концептуальных соседей $k$ в диапазоне от 1 до 5.Как видно из таблицы, наш подход существенно превосходит все базовые версии, при этом Multi является наиболее конкурентоспособной базой.Интересно, что для базового уровня сходства, чем больше число соседей, тем больше производительность приближается к производительности Multi.Относительно высокая производительность Multi показывает, что использование дочерних категорий категории в таксономии BabelNet в целом полезно.Однако, как показывают наши результаты, лучшие результаты можно получить, сосредоточив внимание только на предсказанных концептуальных соседях.Интересно отметить, что даже выбора одного концептуального соседа уже достаточно, чтобы существенно превзойти гауссову модель, хотя лучшие результаты получаются при $k=4$. Сравнивая варианты WEA и BERT, следует отметить, что BERT более успешно выбирает единственного лучшего концептуального соседа (что отражено в показателе F1, равном 47,0 по сравнению с 41,9).Однако при $k \ge 2$ результаты WEA и BERT во многом сопоставимы.Чтобы проиллюстрировать, как концептуальное соседство может улучшить результаты классификации, на рис.FigREF25 показывает два первых основных компонента внедрения экземпляров трех категорий BabelNet: «Песенник», «Брошюра» и «Путеводитель».Все три категории можно считать концептуальными соседями.Брошюра и Путеводитель являются тесно связанными категориями, и мы можем ожидать, что между ними существуют пограничные случаи.Это хорошо видно на рисунке, где некоторые экземпляры расположены практически точно на границе двух категорий.С другой стороны, Songbook немного более разделен в пространстве.Давайте теперь рассмотрим крайнюю левую точку данных из тестового набора Songbook, которая, по сути, является выбросом и больше похожа на экземпляры Guidebook, чем на типичные экземпляры Songbook.При использовании модели Гаусса эта точка данных не будет признана правдоподобным примером.Однако если принять во внимание тот факт, что Брошюра и Путеводитель являются концептуальными соседями Песенника, то, скорее всего, его классифицируют правильно.Чтобы проиллюстрировать само понятие концептуальной окрестности, в таблице TABREF27 показаны некоторые выбранные пары категорий из обучающего набора (т. е. пары категорий, которые использовались для обучения текстового классификатора), которые интуитивно соответствуют концептуальным соседям.В левом столбце приведены некоторые избранные примеры пар категорий с высоким показателем $s_{AB}$ не менее 0,9.Как показывают эти примеры, мы обнаружили, что высокий показатель $s_{AB}$ действительно часто предсказывает концептуальную близость.Как показано в правом столбце этой таблицы, существует несколько пар категорий с более низким показателем $s_{AB}$, составляющим около 0,5, которые интуитивно кажутся все еще соответствующими концептуальным соседям.Однако при рассмотрении пар категорий с еще более низкими баллами концептуальное соседство становится редким.Более того, хотя есть несколько пар с высокими оценками, которые на самом деле не являются концептуальными соседями (например, пара «Актер – Визажист»), они, как правило, представляют собой категории, которые все еще тесно связаны.Это означает, что влияние неправильного рассмотрения их как концептуальных соседей на производительность нашего метода, вероятно, будет ограниченным.С другой стороны, при рассмотрении пар категорий с очень низким показателем достоверности мы обнаруживаем множество несвязанных пар, которые, как мы можем ожидать, будут более вредными, если рассматривать их как концептуальных соседей, поскольку тогда объединенная гауссиана будет охватывать гораздо большую часть пространства. .Некоторые примеры таких пар включают Начальную школу – Финансовое учреждение, Кинотеатр – Жилой комплекс, Корпоративное название – Фараон и Братство – Штаб-квартира.Наконец, в таблицах TABREF28 и TABREF29 мы показываем примеры главных концептуальных соседей, которые были выбраны для некоторых категорий из тестового набора.В таблице TABREF28 показаны примеры категорий BabelNet, для которых показатель F1 нашего классификатора SECOND-WEA$_1$ был довольно низким.Как видно, выбранные в этих случаях концептуальные соседи не подходят.Например, степень бакалавра является почти синонимом степени бакалавра, поэтому считать их концептуальными соседями явно было бы вредно.Напротив, рассматривая примеры в таблице TABREF29, где категории показаны с более высоким баллом F1, мы обнаруживаем примеры концептуальных соседей, которые интуитивно гораздо более значимы.Мы изучили роль концептуальной близости для моделирования категорий, уделяя особое внимание категориям с относительно небольшим количеством экземпляров, для которых стандартные подходы моделирования являются сложными.С этой целью мы впервые представили метод прогнозирования концептуальной близости по тексту, воспользовавшись преимуществами BabelNet для реализации стратегии удаленного контроля.Затем мы использовали полученный классификатор для определения наиболее вероятных концептуальных соседей данной целевой категории и эмпирически показали, что включение этих концептуальных соседей приводит к повышению производительности в задаче индукции категории.С точки зрения будущей работы было бы интересно взглянуть на другие типы лексических отношений, которые можно предсказать по тексту.Одной из возможных стратегий было бы предсказание концептуальной промежуточности, когда говорят, что категория $B$ находится между $A$ и $C$, если $B$ обладает всеми общими свойствами $A$ и $C$ BIBREF40 (например, мы можем думать, что вино концептуально находится между пивом и ромом).В частности, если концептуально прогнозируется, что $B$ будет находиться между $A$ и $C$, то мы также ожидаем, что регион, моделирующий $B$, будет находиться между регионами, моделирующими $A$ и $C$. Благодарности.Хосе Камачо-Колладос, Луис Эспиноза-Анке и Стивен Шокерт финансировались стартовым грантом ERC 637277.Зиеда Бурауи поддержала организация CNRS PEPS INS2I MODERN. | Хотя в области обработки естественного языка было предложено множество методов изучения вложений в векторное пространство, эти методы обычно не делают различия между категориями и отдельными людьми. Интуитивно, если индивидуумы представлены в виде векторов, мы можем думать о категориях как о (мягких) регионах в пространстве внедрения. К сожалению, значимые регионы бывает сложно оценить, особенно потому, что у нас часто есть мало примеров людей, принадлежащих к данной категории. Чтобы решить эту проблему, мы полагаемся на тот факт, что различные категории часто сильно взаимозависимы. В частности, категории часто имеют концептуальных соседей, которые не пересекаются с данной категорией, но тесно связаны с ней (например, фрукты и овощи). Наша гипотеза состоит в том, что более точные представления категорий можно получить, полагаясь на предположение, что регионы, представляющие таких концептуальных соседей, должны быть соседними в пространстве встраивания. Мы предлагаем простой метод идентификации концептуальных соседей, а затем показываем, что включение этих концептуальных соседей действительно приводит к более точным представлениям на основе регионов. | 5,894 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Улучшение заполнения слотов за счет использования контекстной информации. Заполнение слотов (SF) — это задача по выявлению семантического понятия, выраженного в высказывании на естественном языке.Например, рассмотрим запрос на редактирование изображения, выраженный на естественном языке: «Уберите синий шарик со стола и измените цвет стены на коричневый».Здесь пользователь запрашивает «Действие» (т. е. удаление) над одним «Объектом» (синий шарик на столе) на изображении и изменение «Атрибута» (т. е. цвета) изображения на новое «Значение» ( то есть коричневый).Наша цель в научной фантастике — предоставить последовательность меток для данного предложения, чтобы идентифицировать семантическую концепцию, выраженную в данном предложении.Предыдущие работы показали, что контекстная информация может быть полезна для научной фантастики.Они используют контекстную информацию либо в представлении на уровне слова (т. е. посредством внедрения контекстуализации, например, BERT BIBREF0), либо в графе вычислений модели (например, объединяя признак контекста с признаком слова BIBREF1).Однако такие методы не могут уловить явную зависимость между контекстом слова и его меткой.Более того, такое ограниченное использование контекстной информации (т. е. объединение вектора признаков и вектора контекста) в модели не может моделировать взаимодействие между представлением слова и его контекстом.Чтобы решить эти проблемы, в этой работе мы предлагаем новую модель, позволяющую явно повысить предсказуемость словесной метки с использованием ее контекста и повысить интерактивность между представлениями слова и его контекстом.Более конкретно, в нашей модели мы используем контекст слова, чтобы предсказать его метку, и тем самым наша модель изучает контекст с учетом метки для каждого слова в предложении.Чтобы улучшить интерактивность между представлением слова и его контекстом, мы увеличиваем взаимную информацию между представлениями слова и его контекстом.В дополнение к этим вкладам мы также предлагаем вспомогательную задачу, чтобы предсказать, какие метки выражены в данном предложении.Наша модель обучена в многозадачной среде.Наши эксперименты с набором данных SF для выявления семантических концепций на основе запроса на естественном языке для редактирования изображения показывают превосходство нашей модели по сравнению с предыдущими базовыми показателями.Наша модель достигает самых современных результатов на эталонном наборе данных за счет улучшения показателя F1 почти на 2%, что соответствует снижению частоты ошибок на 12,3%.Задача заполнения слотов формулируется как задача разметки последовательностей.Для этой задачи широко используется глубокое обучение (BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6, BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11).Предыдущая работа в основном использовала рекуррентную нейронную сеть в качестве кодировщика для извлечения признаков для каждого слова и условного случайного поля (CRF) BIBREF12.в качестве декодера для генерации меток для каждого слова.Недавно работа BIBREF1 показала, что глобальный контекст предложения может быть полезен для повышения эффективности маркировки нейронных последовательностей.В своем подходе они используют отдельную последовательную модель для извлечения признаков слова.После этого, используя максимальное объединение представлений слов, они получают представления предложений и объединяют их с встраиванием слов в качестве входных данных для кодера основной задачи (т. е. модели RNN для выполнения маркировки последовательностей).Преимущество использования глобального контекста при представлении слова двойное: 1) оно улучшает представление слова за счет семантики всего предложения, таким образом, представление слова становится более контекстуализированным 2)Глобальное представление предложения повысит производительность модели, поскольку оно содержит информацию обо всем предложении, и эта информация может не быть закодирована в словесных представлениях из-за долгих приличий.Однако простая конкатенация глобального контекста и встраивания слов по отдельности не обеспечит эти два преимущества глобального контекста.Чтобы решить эту проблему, мы вводим настройку многозадачности, чтобы отдельно обеспечить вышеупомянутые преимущества использования контекстной информации.В частности, чтобы обеспечить лучшее контекстуализированное представление слов, модели рекомендуется изучить представления слова, соответствующие его контексту.Это достигается за счет увеличения взаимной информации между представлением слова и его контекстом.Чтобы обеспечить полезность контекстной информации для финальной задачи, мы вводим две новые подзадачи.Первый направлен на использование контекста слова вместо его представления для предсказания названия слова.Во второй подзадаче мы используем глобальное представление предложения, чтобы предсказать, какие метки существуют в данном предложении в условиях классификации с несколькими метками.Эти две подзадачи будут способствовать тому, чтобы контекстуальные представления были информативными как для классификации на уровне слов, так и для классификации на уровне предложений.Наша модель обучена в многозадачной среде, в которой основной задачей является заполнение слотов для определения наилучшей возможной последовательности меток для данного предложения.В первой вспомогательной задаче мы стремимся повысить согласованность между представлением слова и его контекстом.Вторая вспомогательная задача заключается в расширении информации, специфичной для задачи, в контекстной информации.В этом разделе мы объясним каждую из этих задач более подробно.Входными данными модели является последовательность слов $x_1,x_2,...,x_N$.Цель состоит в том, чтобы присвоить каждому слову одну из меток: действие, объект, атрибут, значение или другое.Следуя другим методам маркировки последовательностей, мы используем схему кодирования BIO.В дополнение к последовательности слов в модель передаются теги части речи (POS) и дерево анализа зависимостей входных данных.Входное слово $x_i$ представлено конкатенацией его предварительно обученного внедрения слова и его внедрения тега POS, обозначенного $e_i$. Эти представления дополнительно абстрагируются с использованием двухуровневой двунаправленной долговременной краткосрочной памяти (LSTM) для получения вектора признаков $h_i$.Мы используем дерево зависимостей предложения, чтобы использовать синтаксическую информацию о входном тексте.Эта информация может быть полезна для определения важных слов и их зависимых слов в предложении.Чтобы смоделировать синтаксическое дерево, мы используем сверточную сеть графов (GCN) BIBREF13 поверх дерева зависимостей.Эта модель изучает контекстуализированные представления слов так, что представление каждого слова контекстуализируется его соседями.Мы используем двухслойную GCN с $h_i$ в качестве начального представления узла (то есть слова) $i$th.Представления $i$-го узла представляют собой совокупность представлений его соседей.Формально скрытые представления $i$-го слова в $l$-м слое GCN получаются следующим образом: где $N(i)$ — соседи $i$-го слова в дереве зависимостей, $W_l$ — это весовая матрица в $l$-м слое, а $deg(i)$ — степень $i$-го слова в дереве зависимостей.Смещения опущены для краткости.Окончательные представления GCN для $i$-го слова, $\hat{h}_i$, представляют структурные особенности этого слова.После этого мы объединяем структурные признаки $\hat{h}_i$ и последовательные признаки $h_i$, чтобы представить $i$-е слово вектором признаков $h^{\prime }_i$: Наконец, чтобы пометить каждое слово в В предложении мы используем двухслойную нейронную сеть прямого распространения для конкретной задачи, за которой следует модель логистической регрессии для генерации оценок класса $S_i$ для каждого слова: где $W_{LR}, W_1$ и $W_2$ — обучаемые параметры, а $S_i$ представляет собой вектор размера количества классов, в котором каждое его измерение представляет собой оценку соответствующего класса.Поскольку основной задачей является маркировка последовательностей, мы используем условное случайное поле (CRF) в качестве последнего уровня для прогнозирования последовательности меток для данного предложения.Более конкретно, оценки классов $S_i$ передаются на уровень CRF в качестве оценок выбросов для получения окончательной оценки маркировки: где $T$ — обучаемая матрица перехода, а $\theta $ — параметры модели для генерации оценок выбросов $S_i $. Потери Витерби $L_{VB}$ используются в качестве окончательной функции потерь, которую необходимо оптимизировать во время обучения.Во время вывода декодер Витерби используется для поиска последовательности меток с наивысшим баллом.В этой подзадаче мы стремимся повысить согласованность представления слова и его контекста.Чтобы получить контекст каждого слова, мы выполняем максимальное объединение всех слов предложения, исключая само слово: где $h_i$ — это представление $i$-го слова из Bi-LSTM.Мы стремимся повысить согласованность векторов $h_i$ и $h^c_i$. Один из способов добиться этого — уменьшить расстояние между этими двумя векторами.Однако прямое обеспечение близости представления слова и его контекста друг к другу не будет эффективным, поскольку в длинных предложениях контекст может существенно отличаться от слова.Поэтому, чтобы освободить достаточно места для модели для представления контекста каждого слова, согласуясь с представлением слова, мы используем косвенный метод.Мы предлагаем максимизировать взаимную информацию (MI) между представлением слова и его контекстом в функции потерь.В теории информации МИ оценивает, сколько информации мы знаем об одной случайной величине, если раскрыто значение другой переменной.Формально взаимная информация между двумя случайными величинами $X_1$ и $X_2$ получается следующим образом: Используя это определение MI, мы можем переформулировать уравнение MI как KL. Дивергенция между совместным распределением $P_{X_1X_2}=P(X_1,X_2). )$ и произведение маргинальных распределений $P_{X_1\bigotimes X_2}=P(X_1)P(X_2)$: Основываясь на таком понимании MI, мы можем видеть, что если две случайные величины зависимы, то взаимная информация между они (т. е. KL-дивергенция в уравнении DISPLAY_FORM9) будут самыми высокими.Следовательно, если представлениям $h_i$ и $h^c_i$ предлагается иметь большую взаимную информацию, мы ожидаем, что они будут делиться большей информацией.Взаимная информация будет введена непосредственно в функцию потерь для оптимизации.Одна из проблем этого подхода заключается в том, что вычисление MI для таких непрерывных векторов большой размерности, как $h_i$ и $h^c_i$, является непомерно дорогим.В этой работе мы предлагаем решить эту проблему, используя нейронную оценку взаимной информации (MINE) в BIBREF14, которая стремится оценить нижнюю границу взаимной информации между векторами большой размерности посредством состязательного обучения.С этой целью MINE пытается вычислить нижнюю границу расхождения KL между совместным и маргинальным распределениями данных многомерных векторов/переменных.В частности, MINE вычисляет нижнюю границу представления Донскера-Варадана KL-дивергенции: Однако недавно было показано, что для этой цели могут также использоваться и другие метрики дивергенции (т.е. дивергенция Дженсена-Шеннона). BIBREF15, BIBREF16 , предлагая более простые методы вычисления нижней границы индекса MI.Следовательно, следуя таким методам, мы применяем состязательный подход для получения нижней границы MI через двоичную перекрестную энтропию переменного дискриминатора.Этот дискриминатор отличает переменные, выбранные из совместного распределения, от переменных, выбранных из произведения предельных распределений.В нашем случае две переменные — это представление слова $h_i$ и представление контекста $h^c_i$.Чтобы выполнить выборку из совместных распределений, мы просто объединяем $h_i$ и $h^c_i$ (т. е. положительный пример).Чтобы выполнить выборку из произведения маргинальных распределений, мы объединяем представление $h_i$ с $h^c_j$, где $i\ne j$ (т. е. отрицательный пример).Эти выборки подаются в двухслойную нейронную сеть прямого распространения $D$ (т. е. дискриминатор) для выполнения бинарной классификации (т. е. исходя из совместного распределения или произведения маргинальных распределений).Наконец, мы используем следующую двоичную перекрестную энтропийную потерю для оценки взаимной информации между $h_i$ и $h^c_i$, чтобы добавить ее в общую функцию потерь: где $N$ — длина предложения, а$[h,h^c_i]$ — это объединение двух векторов $h$ и $h^c_i$.Эта потеря добавляется к окончательной функции потерь модели.Помимо повышения согласованности между представлением слова и его контекстным представлением, мы стремимся увеличить количество конкретной информации о задаче в контекстных представлениях.Это желательно, поскольку основная задача — использовать представление слова для предсказания его метки.Поскольку наша модель обеспечивает согласованность между представлением слова и его контекстом, увеличение конкретной информации о задаче в контекстных представлениях поможет окончательной производительности модели.Чтобы увеличить информацию о конкретной задаче в контекстном представлении, мы обучаем модель на двух вспомогательных задачах.Целью первой задачи является использование контекста каждого слова для прогнозирования метки этого слова, а целью второй вспомогательной задачи является использование информации глобального контекста для прогнозирования меток уровня предложения.Мы опишем каждую из этих задач более подробно в следующих разделах.В этой подзадаче мы используем контекстные представления каждого слова, чтобы предсказать его метку.Это увеличит информацию, закодированную в контексте слова, о метке слова.Мы используем тот же вектор контекста $h^c_i$ для $i$-го слова, как описано в предыдущем разделе.Этот вектор подается в двухслойную нейронную сеть прямого распространения со слоем softmax в конце для вывода вероятностей для каждого класса: где $W_2$ и $W_1$ — обучаемые параметры.Смещения опущены для краткости.Наконец, мы используем следующую функцию перекрестных энтропийных потерь, которую необходимо оптимизировать во время обучения: где $N$ — длина предложения, а $l_i$ — метка $i$-го слова.Прогнозирование метки слова требует, чтобы контекст каждого слова содержал информацию о его метке, но не гарантирует, что контекстная информация уловит шаблоны уровня предложения для выражения намерения.Другими словами, прогнозированию на уровне слов не хватает общего представления обо всем предложении.Чтобы увеличить общую информацию о предложении в представлении слов, мы стремимся предсказать метки, существующие в предложении, на основе представлений его слов.Более конкретно, мы вводим новую подзадачу, чтобы предсказать, какие метки выходят из данного предложения (обратите внимание, что предложения могут иметь только подмножество меток; например, только действие и объект).Мы сформулируем эту задачу как задачу многоклассовой классификации.Формально, учитывая предложение $X=x_1,x_2,...,x_N$ и набор меток $S=\lbrace action, атрибут, объект, значение\rbrace $, наша цель — предсказать вектор $L^s=l^ s_1,l^s_2,...,l^s_{|S|}$ где $l^s_i$ равно единице, если предложение $X$ содержит $i$-ю метку из набора меток $S$, в противном случае оно равно нулю .Сначала мы находим представление предложения из представлений слов.С этой целью мы используем максимальное объединение всех слов предложения, чтобы получить вектор $H$:После этого вектор $H$ дополнительно абстрагируется с помощью двухслойной нейронной сети прямого распространения с сигмовидной функцией в конце:где $ W_2$ и $W_1$ — обучаемые параметры.Обратите внимание: поскольку эта задача представляет собой многоклассовую классификацию, количество нейронов на последнем слое равно $|S|$. Мы оптимизируем следующую функцию потерь двоичной перекрестной энтропии: где $l_k$ равен единице, если предложение содержит $k$-ю метку, в противном случае оно равно нулю.Наконец, для обучения модели мы оптимизируем следующую функцию потерь: где $\alpha $, $\beta $ и $\gamma $ — гиперпараметры, которые необходимо настроить с использованием производительности набора разработки.В наших экспериментах мы используем набор данных Onsei Intent Slot.В таблице TABREF21 показаны статистические данные этого набора данных.В нашей модели мы используем следующие гиперпараметры: мы устанавливаем для встраивания слов и встраивания POS значения 768 и 30 соответственно; Предварительно обученное встраивание BERT BIBREF17 используется для инициализации встраивания слов; Скрытое измерение Bi-LSTM, GCN и сетей прямой связи составляет 200; гиперпараметры $\alpha $, $\beta $ и $\gamma $ установлены на 0,1; Для обучения модели мы используем оптимизатор Адама со скоростью обучения 0,003.В качестве показателя оценки мы используем микроусредненный показатель F1 на всех этикетках.Мы сравниваем наш метод с моделями, обученными с использованием внутреннего инструмента Adobe NLU, Pytext BIBREF18 иРаса БИБРЕФ19Инструменты НЛУ.В таблице TABREF22 показаны результаты на тестовом наборе.Наша модель улучшает оценку F1 почти на 2%, что соответствует снижению частоты ошибок на 12,3%.Эти улучшения доказывают эффективность использования контекстной информации для задачи заполнения слотов.Чтобы проанализировать вклад предлагаемых подзадач, мы также оцениваем модель, когда удаляем одну из подзадач и переобучаем модель.Результаты представлены в таблице TABREF23.В этой таблице показано, что для обеспечения максимальной производительности модели необходимы все подзадачи.Среди всех подзадач прогнозирование на уровне слов с использованием контекстной информации вносит основной вклад в производительность модели.Этот факт показывает, что контекстная информация, обученная так, чтобы быть информативной о конечной подзадаче, необходима для получения представлений, которые могут повысить конечную производительность модели.В этой работе мы представляем новую глубокую модель для задачи заполнения слотов.В многозадачной ситуации наша модель увеличивает взаимную информацию между представлениями слова и его контекстом, улучшает информацию о метках в контексте и предсказывает, какие понятия выражены в данном предложении.Наши эксперименты с корпусом запросов на редактирование изображений показывают, что наша модель достигает самых современных результатов в этом наборе данных. | Заполнение слотов — это задача по извлечению семантического понятия из данного высказывания на естественном языке. Недавно было показано, что использование контекстной информации либо в рабочих представлениях (например, внедрение BERT), либо в графе вычислений модели может повысить производительность модели. Однако недавняя работа использует контекстную информацию ограниченным образом, например, путем объединения представления слова и его вектора признаков контекста, ограничивая модель от изучения любой прямой связи между контекстом и меткой слова. Мы представляем новую глубокую модель, использующую контекстную информацию для каждого произведения в данном предложении в многозадачной обстановке. Наша модель обеспечивает согласованность между векторами признаков контекста и слова, одновременно увеличивая выразительность контекста в отношении метки слова. Наш эмпирический анализ набора данных о заполнении слотов доказывает превосходство модели над базовыми показателями. | 2,893 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | StructSum: включение скрытых и явных зависимостей предложений для обобщения одного документа. Традиционные подходы к абстрактному реферированию основывались на интерпретируемых структурированных представлениях, таких как центральность предложений на основе графа BIBREF0, AMR анализирует BIBREF1, сжатие на основе дискурса и ограничения анафоры BIBREF2.С другой стороны, современные нейронные подходы к обобщению отдельного документа кодируют документ как последовательность токенов и компонуют их в представление документа BIBREF3, BIBREF4, BIBREF5, BIBREF6, BIBREF7.Несмотря на свою эффективность, эти системы учатся в значительной степени полагаться на предвзятость макета, связанную с исходным документом BIBREF8, и с трудом поддаются интерпретации через промежуточные структуры.Недавние работы свидетельствуют о том, что структурированное представление текста приводит к лучшему представлению документов BIBREF9, BIBREF10.Однако структурированные представления недостаточно изучены в литературе по нейронному обобщению.Руководствуясь этим, мы предлагаем для обобщения структурно-ориентированную сквозную модель (§SECREF2).Предлагаемая нами модель StructSum дополняет существующую сеть генератора указателей BIBREF3 двумя новыми компонентами: (1) модулем внимания со скрытой структурой, который адаптирует структурированные представления BIBREF11, BIBREF12 для задачи суммирования, и (2) модулем внимания с явной структурой. , который включает кореферентный граф.Компоненты вместе моделируют зависимости на уровне предложений в документе, создавая богатые структурированные представления.Целью этой работы является создание основы для создания богатых интерпретируемых скрытых структур и внедрения внешних структур документов, которые можно внедрить в любую модель кодировщика документов.Было показано, что кодировщики с индуцированными скрытыми структурами помогают решать несколько задач, включая классификацию документов, вывод на естественном языке BIBREF12, BIBREF13 и машинный перевод BIBREF11.Опираясь на эту мотивацию, наш модуль внимания к скрытой структуре опирается на BIBREF12 для моделирования зависимостей между предложениями в документе.Он использует вариант теоремы Кирхгофа о матричном дереве BIBREF14 для моделирования таких зависимостей, как непроективные древовидные структуры (§SECREF3).Модуль явного внимания лингвистически мотивирован и направлен на включение структур уровня предложений из структур документов, аннотированных извне.Мы включаем граф зависимостей предложений на основе кореференции, который затем объединяется с выходными данными модуля внимания к скрытой структуре для создания гибридного представления предложения с учетом структуры (§SECREF5). Мы оцениваем нашу модель на наборе данных CNN/DM BIBREF15 и показываем на §SECREF4, что он превосходит сильные базовые показатели почти на 1,1 ROUGE-L.Мы обнаружили, что скрытая и явная структуры дополняют друг друга, и обе способствуют конечному улучшению производительности.Наши модули также независимы от базовой архитектуры кодера-декодера, что делает их гибкими для включения в любые продвинутые модели.Наш анализ количественно сравнивает созданные нами сводки с базовыми показателями и справочными документами (§SECREF5).Оно показывает, что структурно-ориентированное суммирование уменьшает предвзятость при копировании больших последовательностей из источника, что по сути делает обобщения более абстрактными за счет генерации на $\sim $15% больше новых n-грамм по сравнению с конкурентным базовым уровнем.Мы также показываем качественные примеры выученных интерпретируемых структур зависимости предложений, мотивируя дальнейшие исследования в области структурно-ориентированного моделирования.Рассмотрим исходный документ $\mathbf {x}$, состоящий из $n$ предложений $\lbrace \mathbf {s}\rbrace $, где каждое предложение $\mathbf {s}_i$ состоит из последовательности слов.Целью обобщения документа является сопоставление исходного документа с целевой сводкой из $m$ слов $\lbrace y\rbrace $.Типичная нейронная абстрактная система суммирования представляет собой модель внимания от последовательности к последовательности, которая кодирует входную последовательность $\mathbf {x}$ как непрерывную последовательность токенов $\lbrace w\rbrace $ с использованием BiLSTM.Кодировщик создает набор скрытых представлений $\lbrace\mathbf{h}\rbrace$.Декодер LSTM отображает ранее сгенерированный токен $y_{t-1}$ в скрытое состояние и вычисляет распределение вероятностей мягкого внимания $p(\mathbf {a}_t \mid \mathbf {x}, \mathbf {y}_ {1:t-1})$ по скрытым состояниям кодировщика.Распределение $p$ по словарю вычисляется на каждом временном шаге $t$, и сеть обучается с использованием отрицательного журнала потерь правдоподобия: $\text{loss}_t = - \mathrm {log}\:p(y_t) $.Сеть генератора указателей BIBREF3 дополняет стандартную архитектуру кодера-декодера путем линейной интерполяции механизма копирования на основе указателей.StructSum использует сеть генераторов указателей в качестве базовой модели.Наш кодер представляет собой структурированный иерархический кодер BIBREF16, который вычисляет скрытые представления последовательности как на уровне токена, так и на уровне предложения.Затем модель использует модули внимания с явной структурой и неявной структурой, чтобы дополнить представления предложений богатой информацией о зависимостях предложений, используя как изученную скрытую структуру, так и дополнительную внешнюю структуру из других модулей НЛП.Сопровождаемые векторы затем передаются в декодер, который создает выходную последовательность для абстрактного суммирования.В оставшейся части этого раздела мы подробно опишем архитектуру нашей модели, показанную на рисунке FigREF2.Наш иерархический кодировщик состоит из кодера BiLSTM для слов, за которым следует кодировщик BiLSTM на уровне предложения.Кодировщик слов принимает последовательность слов в предложении $\mathbf {s}_i = \lbrace w\rbrace $ в качестве входных данных и создает контекстное скрытое представление для каждого слова $\mathbf {h}_{w_{ik}}$, где $w_{ik}$ — $i^{th}$ слово $k^{th}$ предложения, $k=1:q$ и $q$ — количество слов в предложении $\mathbf {s}_i$.Скрытые представления слов объединяются в максимальный пул на уровне предложения, и результат передается в кодировщик предложений BiLSTM, который создает новые представления скрытых предложений для каждого предложения $\mathbf {h}_{\mathbf {s}_i}$.Скрытые представления предложений затем передаются в качестве входных данных в модули скрытого и явного структурного внимания.Мы моделируем скрытую структуру исходного документа как непроективное дерево зависимостей и заставляем модуль парного внимания автоматически индуцировать это дерево.Мы обозначаем предельную вероятность ребра зависимости как $a_{ij} = p(z_{ij}=1)$, где $z_{ij}$ — это скрытая переменная, представляющая ребро от предложения $i$ к предложению $j$. . С помощью нейронной сети мы параметризуем ненормализованные парные оценки между предложениями и используем теорему Кирхгофа о матричном дереве BIBREF14 для вычисления предельной вероятности края зависимости между любыми двумя предложениями.Представление предложения $\mathbf {s}_i$ разложим на семантический вектор $\mathbf {g}_{\mathbf {s}_i}$ и вектор структуры $\mathbf {d}_{\mathbf {s} _i}$ как $\mathbf {h}_{\mathbf {s}_i} =[\mathbf {g}_{\mathbf {s}_i}; \mathbf {d}_{\mathbf {s}_i}]$. Используя структурные векторы $\mathbf {d}_{\mathbf {s}_i}, \mathbf {d}_{\mathbf {s}_j}$, мы вычисляем оценку $f_{ij}$ между парами предложений $ (i,j)$ (где предложение $i$ — родительский узел предложения $j$) и оценка предложения $\mathbf {s}_i$, являющегося корневым узлом $r_i$: где $F_p, F_c$ и $F_r$ — функции линейной проекции для построения представлений родительского, дочернего и корневого узла соответственно, а $W_a$ — вес для билинейного преобразования.Здесь $f_{ij}$ — это вес ребра между узлами $(i,j)$ во взвешенном графе смежности $\mathbf {F}$, который вычисляется для всех пар предложений.Используя $f_{ij}$ и $r_i$, мы вычисляем нормализованные показатели внимания $a_{ij}$ и $a_{i}^r $, используя вариант теоремы Кирхгофа о матричном дереве BIBREF12, BIBREF14, где $a_{ij} $ — предельная вероятность края зависимости между предложениями $(i,j)$, а $a_{i}^r $ — вероятность того, что предложение $i$ является корнем.Используя эти вероятностные веса внимания и семантические векторы $\lbrace \mathbf {g}_{\mathbf {s}}\rbrace $, мы вычисляем представления посещаемых предложений следующим образом: где $\mathbf {p}_{\mathbf {s }_i}$ — вектор контекста, собранный из возможных родителей предложения $i$, $\mathbf {c}_{\mathbf {s}_i}$ — вектор контекста, собранный из возможных дочерних элементов, и $\mathbf {g} _{root}$ — это специальное встраивание корневого узла.Здесь обновленное представление предложения $\textit {l}_{\mathbf {s}_i}$ включает в себя неявную структурную информацию.BIBREF2 показал, что моделирование кореферентных знаний с помощью ограничений анафоры привело к повышению ясности и грамматичности резюме.Вдохновляясь этим, мы выбираем кореферентные связи между предложениями в качестве нашей явной структуры.Во-первых, мы используем готовый синтаксический анализатор ссылок для выявления упоминаний, связанных с ключевыми ссылками.Затем мы строим граф предложений на основе кореферентности, добавляя связь между предложениями $(\mathbf {s}_i, \mathbf {s}_j)$, если между ними есть какие-либо упоминания корреференции.Затем это представление преобразуется во взвешенный граф путем включения веса на границе между двумя предложениями, который пропорционален количеству уникальных упоминаний между ними.Мы нормализуем эти веса ребер для каждого предложения, эффективно создавая взвешенную матрицу смежности $\mathbf {K}$, где $k_{ij}$ задается формулой: где $m_i$ обозначает набор уникальных упоминаний в предложении $\mathbf {s }_i$, ($m_i$ $\bigcap $$m_j$) обозначает набор ссылающихся упоминаний между двумя предложениями, а $z$ — это скрытая переменная, представляющая ссылку в графе корферентных предложений.$\epsilon = 5e-4$ — сглаживающий гиперпараметр.Учитывая контекстные представления предложений $\lbrace \mathbf {h}_{\mathbf {s}}\rbrace $ и нашу явную взвешенную матрицу смежности на основе кореференции $\mathbf {K}$, мы изучаем представление с учетом явной структуры следующим образом: где $F_u$ и $F_e$ — линейные проекции, а $\mathbf {e}_{\mathbf {s}_i}$ — обновленное представление предложения, которое включает явную структурную информацию.Наконец, чтобы объединить два структурных представления, мы объединяем векторы скрытых и явных предложений следующим образом: $\mathbf {h}_{\mathbf {s}_i} =[\mathbf {l}_{\mathbf {s}_i};\mathbf {e}_{\mathbf {s}_i}]$ для формирования представлений предложений кодировщика исходного документа.Чтобы предоставить каждому представлению токена контекст всего документа, мы сохраняем ту же формулировку, что и в сетях генераторов указателей, где каждый токен $w_{ij}$ сопоставляется со своим скрытым представлением $\mathbf {h}_{w_{ij} }$ с использованием BiLSTM.Представление токена объединяется с соответствующим представлением предложения с учетом структуры: $\mathbf {h}_{w_{ij}} =[\mathbf {h}_{w_{ij}};\mathbf {h}_{\mathbf {s}_i}]$ где $\mathbf {s}_i$ — предложение, в котором используется слово $w_{ij }$ принадлежит.Полученные в результате представления токенов с учетом структуры можно использовать для непосредственной замены предыдущих представлений токенов в качестве входных данных для декодера.Мы оцениваем наш подход на корпусе CNN/Daily Mail BIBREF15, BIBREF17 и используем те же этапы предварительной обработки, что и в BIBREF3.Резюме CNN/DM содержат в среднем 66 токенов ($\sigma = 26$) и 4,9 предложений.В отличие от BIBREF3, мы урезаем исходные документы до 700 токенов вместо 400 в наборах обучения и проверки, чтобы моделировать более длинные документы с большим количеством предложений.Мы выбираем следующие базовые версии, исходя из их связи с задачей и широкой применимости: BIBREF3: мы повторно реализуем базовую модель генератора указателей и дополнительный механизм покрытия.Это формирует базовую модель нашей реализации, и, следовательно, добавление структуры документа моделирования можно напрямую сравнить с ней.BIBREF6:Это графовая модель внимания, наиболее близкая по духу методу, который мы представляем в этой работе.Они используют модуль графического внимания для изучения внимания между предложениями, но их нелегко использовать для создания интерпретируемых структур документов, поскольку их показатели внимания не ограничены изучением структуры.Помимо изучения скрытого и интерпретируемого структурированного внимания между предложениями, StructSum также вводит компонент явной структуры для внедрения внешней структуры документа.BIBREF7:Сравниваем с экспериментом DiffMask эту работу.В этой работе представлен отдельный селектор контента, который помечает слова и фразы для копирования.Вариант DiffMask является сквозным вариантом, подобным нашему, и поэтому включен в наши базовые показатели.Наши базовые показатели исключают системы на основе обучения с подкреплением (RL), поскольку они не могут быть напрямую сопоставимы, но наш подход можно легко внедрить в любую систему RL на основе кодера-декодера.Поскольку мы не включаем какое-либо предварительное обучение, мы не сравниваем его с недавними моделями на основе контекстного представления BIBREF18. Наш кодер использует 256 скрытых состояний для обоих направлений в одноуровневом LSTM и 512 для однослойного декодера.Мы используем оптимизатор adagrad BIBREF19 со скоростью обучения 0,15 и начальным значением аккумулятора 0,1.Мы не используем выпадение и используем градиентное отсечение с максимальной нормой 2.Мы выбрали лучшую модель, используя раннюю остановку на основе оценки ROUGE в наборе проверочных данных в качестве нашего критерия.Мы также использовали штраф за покрытие во время вывода, как показано в BIBREF7.Для декодирования мы используем луч-поиск с шириной луча 3.Мы не наблюдали значительных улучшений при большей ширине луча.В таблице TABREF8 показаны результаты нашей работы над набором данных CNN/DM.Мы используем стандартные метрики ROUGE-1,2 и L BIBREF20 F1 для оценки всех результатов нашего суммирования.Сначала мы заметили, что введение способности изучать скрытые структуры уже улучшает нашу производительность на ROUGE-L.Это предполагает, что моделирование зависимостей между предложениями помогает модели составлять более длинные последовательности по ссылке по сравнению с базовыми показателями.Мы не видим значительного улучшения в ROUGE-1 и ROUGE-2, что указывает на то, что мы извлекаем слова с похожим содержанием в качестве базового, но компонуем их в более непрерывные последовательности.Аналогичные результаты мы наблюдаем при использовании явных структур только с модулем внимания ES.Это показывает, что добавление индуктивного смещения в виде графов предложений на основе кореферентности помогает составлять длинные последовательности.Наши результаты здесь близки к модели, которая использует только внимание LS.Это демонстрирует, что внимание LS вызывает хорошие скрытые зависимости, которые компенсируют чистое внешнее знание.Наконец, наша комбинированная модель, которая использует как скрытую, так и явную структуру, работает лучше всего: значительное улучшение на 1,08 балла в ROUGE-L по сравнению с нашей базовой моделью генератора указателей и на 0,6 балла в ROUGE-1.Это показывает, что скрытая и явная информация дополняют друг друга, и модель может совместно использовать их для получения более качественных сводок.Моделирование структуры и добавление индуктивных смещений также помогает модели быстрее сходиться, поскольку комбинированная модель внимания LS+ES потребовала 126 тысяч итераций для обучения по сравнению с 230 тысячами итераций, необходимыми для обучения простой сети генератора указателей, и дополнительными 3 тысячами итераций для потери покрытия BIBREF3 Ниже мы представляем анализ качества обобщения по сравнению с нашей базовой моделью, сетью генераторов указателей с покрытием BIBREF3 и эталоном.Несмотря на то, что модель генератора указателей является абстрактной моделью, она имеет тенденцию копировать очень длинные последовательности слов, включая целые предложения, из исходного документа (что также наблюдается BIBREF7).В таблице TABREF15 показано сравнение средней длины (Copy Len) смежных скопированных последовательностей, длина которых превышает 3.Мы наблюдаем, что базовая линия генератора указателей в среднем копирует 16,61 непрерывных токенов из источника, что показывает экстрактивный характер модели.Это указывает на то, что сети указателей, призванные объединить преимущества абстрактных и экстрактивных методов, позволяя копировать контент из входного документа, имеют тенденцию смещаться в сторону копирования, особенно в этом наборе данных.Следствием этого является то, что модель не может прервать копирование при желаемой длине последовательности.Напротив, моделирование структуры документа с помощью StructSum уменьшает длину копируемых последовательностей в среднем до 9,13 слов, уменьшая смещение при полном копировании предложений.Это среднее значение ближе к эталонному (5,07 слов) для сравнения, без ущерба для производительности задачи.StructSum учится останавливаться, когда это необходимо, копируя только достаточное количество контента для создания связного резюме.Прямым результатом копирования более коротких последовательностей является возможность охватить больше контента из исходного документа в пределах заданных ограничений длины.Мы видим, что это приводит к повышению производительности обобщения.В нашем анализе мы вычисляем охват, вычисляя количество исходных предложений, из которых в резюме копируются последовательности длиной более 3.В таблице TABREF15 показано сравнение охвата исходных предложений в кратком содержании.Мы видим, что хотя базовая модель генератора указателей копирует только 12,1% исходных предложений, мы копируем контент из 24,0% исходных предложений.Кроме того, средняя длина резюме, созданных StructSum, практически не изменилась и составляет в среднем 66 слов по сравнению с 61 словом в базовой модели.Это указывает на то, что StructSum создает сводки, основанные на более широком выборе предложений из исходной статьи по сравнению с базовыми моделями.BIBREF21 показывают, что изолированное копирование более разнообразного контента не обязательно приводит к получению более качественных рефератов для извлеченного реферирования.Наш анализ показывает, что это наблюдение не может распространяться на абстрактные методы реферирования.Доля новых сгенерированных n-грамм использовалась в литературе для измерения степени абстракции моделей суммирования BIBREF3.На рисунке FigREF17 сравнивается процент новых n-грамм в StructSum по сравнению с базовой моделью.Наша модель создает новые триграммы в 21,0% случаев и копирует целые предложения только в 21,7% случаев.Для сравнения, сеть генераторов указателей содержит только 6,1% новых триграмм и копирует целые предложения в 51,7% случаев.Это показывает, что StructSum в среднем генерирует на 14,7% больше новых n-грамм по сравнению с базовым уровнем генератора указателей.Нейронные абстрактные методы реферирования, применяемые к новостным статьям, обычно склонны выбирать и генерировать рефераты на основе первых нескольких предложений статей.Это связано со структурой новостных статей, в которых основная информация статьи представлена в первых нескольких предложениях и расширяется в последующих.В результате базовый уровень LEAD 3, при котором выбираются три верхних предложения статьи, широко используется в литературе в качестве надежного базового уровня для оценки моделей реферирования, применяемых к новостному домену BIBREF22.BIBREF8 отметил, что текущие модели обобщения учатся использовать предвзятость структуры текущих наборов данных и предлагают ограниченное разнообразие в своих результатах.Чтобы проанализировать, имеет ли StructSum те же смещения макета, мы вычисляем распределение индексов исходных предложений, которые используются для копирования контента (рассматриваются скопированные последовательности длиной 3 или более).На рисунке FigREF19 показано сравнение охвата предложений.Охват предложений в справочных сводках показывает, что высокая доля первых 5 предложений любой статьи копируется в резюме.Кроме того, справочные сводки имеют более плавное распределение в конце, при этом соответствующие предложения копируются во всех позициях.Это показывает, что плавное распределение по всем предложениям является желательной особенностью.Мы замечаем, что структура последовательности-последовательности и генератора указателей (с включенным покрытием и без него) имеет более сильное смещение к началу статьи с высокой концентрацией скопированных предложений в первых 5 предложениях статьи.Напротив, StructSum немного улучшает охват, имея меньшую концентрацию первых 5 предложений и копируя больше конечных предложений, чем базовые показатели.Однако, хотя моделирование структуры действительно помогает, наша модель имеет разумный разрыв по сравнению с эталонным распределением.Мы рассматриваем это как область улучшения и направление для будущей работы.Как и в случае с BIBREF12, мы также смотрим на качество промежуточных структур, изученных моделью.Мы используем алгоритм Чу-Лю-Эдмондса BIBREF23, BIBREF24 для извлечения максимального остовного дерева из матрицы оценки внимания в качестве структуры нашего предложения.В таблице TABREF20 показана частота различных глубин дерева.Мы обнаружили, что средняя глубина дерева составляет 2,9, а средняя доля конечных узлов — 88%, что согласуется с результатами индукции дерева в классификации документов BIBREF25.Далее мы сравниваем скрытые деревья, извлеченные из StructSum, с неориентированными графами, основанными на кореференции и NER.Они строятся аналогично нашим явным графам предложений на основе кореференции в §SECREF5 путем связывания предложений с перекрывающимися упоминаниями кореференции или именованными сущностями.Мы измеряем сходство между изученными скрытыми деревьями и явными графами с помощью точности и отзыва по ребрам.Результаты показаны в таблице TABREF22.Мы наблюдаем, что наши скрытые графы имеют низкую запоминаемость, а лингвистические графы показывают, что наши скрытые графы не фиксируют коререференцию или перекрытие именованных объектов явно, предполагая, что скрытые и явные структуры фиксируют дополнительную информацию.На рисунке FigREF24 показаны качественные примеры наших индуцированных структур, а также сгенерированные сводки из модели StructSum.В первом примере показано дерево, в котором в качестве корня выбрано предложение 3, которое было ключевым предложением, упомянутым в ссылке.Мы замечаем, что в обоих примерах предложения на нижнем уровне дерева зависимостей вносят меньший вклад в сгенерированное резюме.Аналогичным образом, в примерах исходные предложения, используемые для создания резюме, имеют тенденцию быть ближе к корневому узлу.В первом резюме все предложения, из которых был взят контент, являются либо корневым узлом, либо находятся на глубине 1 корневого узла.Аналогично, во втором примере 4 из 5 исходных предложений находились в дереве на глубине = 1.В двух примерах созданные резюме расходились со ссылкой, поскольку в ней были опущены определенные предложения.Эти предложения появляются в нижней части дерева, что дает нам некоторое представление о том, какие предложения были предпочтительными для создания резюме.Далее в примере 1 мы замечаем, что скрытые структуры группируют предложения по основной теме документа.Предложения 1,2,3 отличаются от предложений 5,6,7 по обсуждаемой теме, и наша модель сгруппировала эти два набора отдельно.До появления нейронных моделей для обобщения структура документа играла решающую роль в создании релевантных, разнообразных и связных сводок.BIBREF26 сформулировал обобщение документа, используя лингвистические особенности для построения семантического графа документа и построения подграфа для резюме.BIBREF27использовать независимые от языка синтаксические графы исходного документа для автоматического обобщения документов.BIBREF1 анализирует исходный текст в набор графиков AMR, преобразует графики в сводные графики, а затем генерирует текст из сводного графика.Хотя такие системы генерируют грамматические резюме и сохраняют лингвистическое качество BIBREF2, они часто требуют больших вычислительных ресурсов и плохо обобщают BIBREF21. Управляемые данными нейронные модели для обобщения делятся на экстрактивные BIBREF13, BIBREF28 или абстрактные BIBREF29, BIBREF3, BIBREF7, BIBREF30.BIBREF3 предложил структуру генератора указателей, которая учится либо генерировать новые словарные слова, либо копировать слова из источника.Эта модель послужила основой для множества последующих работ по абстрактному реферированию BIBREF7, BIBREF31, BIBREF32.Наша модель расширяет модель генератора указателей, включая знания о скрытой и явной структуре, что делает наше расширение применимым к любой последующей работе.BIBREF6 представляет систему внимания на основе графиков, позволяющую повысить значимость резюме.Хотя эта модель обучает вниманию между предложениями, она не создает интерпретируемые промежуточные структуры.Многие недавние работы посвящены включению структуры в нейронные модели.BIBREF32.внедрить синтаксическую структуру исходной стороны в механизм копирования модели генератора указателей.Они идентифицируют явные синтаксические особенности на уровне слов на основе анализа зависимостей и частей речевых тегов и дополняют механизм копирования декодера для их обработки.Напротив, мы моделируем структуры зависимостей на уровне предложения в форме скрытых или индуцированных структур и явных структур, основанных на кореференции.Мы не выявляем никаких эвристических или существенных особенностей, кроме соединения зависимых предложений.BIBREF33 предлагает структурное сжатие и регуляризаторы покрытия, чтобы нейронные модели могли генерировать краткий и информативный контент.Здесь они включают структурную предвзятость в отношении целевых резюме, но мы предпочитаем моделировать структуру исходного предложения для создания богатых представлений документа.BIBREF34 вызывает скрытую структуру документа для обобщения на основе аспектов.BIBREF35 использует существующую модель обобщения длинных документов, применимую к научным статьям, которая учитывает разделы обсуждения в документе, в то время как BIBREF36 предлагает неконтролируемую модель для обобщения обзоров, которая изучает скрытую структуру дискурса и использует ее для обобщения обзора. BIBREF37используйте структуры дискурса, чтобы улучшить последовательность резюмирования блога.Это все взаимодополняющие направления нашей работы.Насколько нам известно, мы первые, кто одновременно включил скрытую и явную структуру документа в единую структуру для обобщения документов.Подводя итог, можно сказать, что наш вклад тройной.Мы предлагаем основу для включения скрытой и явной структуры документа в нейронное абстрактное обобщение.Мы представляем новый модуль явного внимания, который может включать внешние лингвистические структуры, и показываем одно из таких приложений, в котором мы используем кореференцию для улучшения обобщения.Мы показываем количественные улучшения показателя ROUGE по сравнению с сильными базовыми показателями суммирования и демонстрируем улучшения в абстракции и охвате посредством обширного качественного анализа.StructSum продемонстрировал прирост производительности и более высокое качество выходных сводок; с потенциальным направлением на изучение роли латентных структур в интерпретируемости моделей в будущем.Другое возможное направление — выяснить, позволяют ли структурированные представления лучше обобщать трансферное обучение и обобщение в других областях с ограниченными данными. | Традиционные донейронные подходы к обобщению отдельного документа основывались на моделировании промежуточной структуры документа перед созданием резюме. Напротив, современные модели нейронного обобщения не сохраняют никакой промежуточной структуры, прибегая к кодированию документа как последовательности токенов. Цель этой работы двоякая: улучшить качество создаваемых сводок и изучить интерпретируемые представления документов для обобщения. С этой целью мы предлагаем включить скрытые и явные зависимости предложений в модели обобщения одного документа. Мы используем кодировщики с учетом структуры, чтобы вызвать скрытые связи предложений, и вводим явный граф упоминаний, относящийся к предложениям, чтобы включить явную структуру. В наборе данных CNN/DM наша модель превосходит стандартные базовые показатели и предоставляет для анализа промежуточные скрытые структуры. Мы представляем обширный анализ наших сводок и показываем, что моделирование структуры документа сокращает копирование длинных последовательностей и включает более богатый контент из исходного документа, сохраняя при этом сопоставимую длину резюме и повышенную степень абстракции. | 4,370 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Неконтролируемое суммирование текста с помощью обратного перевода смешанной модели. Системы машинного обобщения за последние годы добились значительного прогресса, особенно в области текста новостей.Это стало возможным, среди прочего, благодаря популяризации нейронной парадигмы «последовательность-последовательность» (seq2seq) BIBREF0, BIBREF1, BIBREF2, разработке методов, сочетающих в себе сильные стороны экстрактивного и абстрактного подходов к обобщению BIBREF3, BIBREF4 и наличие больших наборов обучающих данных для этой задачи, таких как Gigaword или корпус CNN-Daily Mail, которые включают более 3,8 млн коротких и 300 тыс. более длинных статей и согласованных резюме соответственно.К сожалению, отсутствие наборов данных аналогичного масштаба для других текстовых жанров остается ограничивающим фактором при попытке в полной мере воспользоваться преимуществами этих достижений моделирования с использованием алгоритмов обучения с учителем.В этой работе мы исследуем применение обратного перевода для обучения системы реферирования неконтролируемым способом на основе невыровненного полного текста и корпусов резюме.Обратный перевод успешно применяется для обучения без учителя для других задач последовательности, таких как машинный перевод BIBREF5 или передача стилей BIBREF6.Мы обрисовываем основные различия между этими настройками и обобщением текста, разрабатываем стратегии инициализации, которые используют асимметричный характер задачи, и демонстрируем преимущество комбинирования различных инициализаторов.Наш подход превосходит предыдущие современные методы неконтролируемого суммирования текста, используя при этом меньше обучающих данных, и даже соответствует показателям румян последних полуконтролируемых методов.За работой BIBREF7 по применению нейронных систем seq2seq для задач суммирования текста последовал ряд работ, улучшающих исходную архитектуру модели.К ним относятся изменение базовой структуры кодировщика BIBREF8, добавление механизма указателя для прямого повторного использования входных слов в сводке BIBREF9, BIBREF3 или явный предварительный выбор частей полного текста для фокусировки на BIBREF4.Хотя было предпринято сравнительно мало попыток обучения этих моделей с меньшим контролем, подходы, основанные на автоматическом кодировании, добились определенного успеха.Они обучают систему на сочетании классической потери логарифмического правдоподобия в контролируемых условиях и цели реконструкции, которая требует, чтобы полный текст можно было в основном восстановить из полученного резюме.Хотя их метод может использовать преимущества немаркированных данных, он основан на хорошей инициализации кодирующей части системы, которую еще необходимо изучить на значительном количестве выровненных пар.BIBREF11расширить этот подход, заменив необходимость в контролируемых данных состязательными целями, которые побуждают структурировать резюме как естественный язык, позволяя им обучать систему в полностью неконтролируемых условиях из несогласованных корпусов полного текста и последовательностей резюме.Наконец, BIBREF12 использует предварительно обученный текстовый кодер общего назначения для изучения системы реферирования на меньшем количестве примеров.Показано, что предложенная ими схема MASS более эффективна, чем BERT BIBREF13 или автоматические кодировщики шумоподавления (DAE) BIBREF14, BIBREF15. В этой работе предлагается другой подход к обучению без учителя, основанный на обратном переводе.Идея использования исходной слабой системы для создания и итеративного уточнения искусственных обучающих данных для контролируемого алгоритма была успешно применена к полуконтролируемому BIBREF16 и неконтролируемому машинному переводу BIBREF5, а также к передаче стилей BIBREF6.Мы исследуем, как та же самая общая парадигма может быть применена к задаче резюмирования текста.Рассмотрим задачу преобразования последовательности в области $A$ в соответствующую последовательность в области $B$ (например, предложения на двух языках для машинного перевода).Пусть $\mathcal {D}_A$ и $\mathcal {D}_B$ — корпуса последовательностей из $A$ и $B$ без какого-либо отображения между соответствующими элементами.Подход обратного перевода начинается с исходных моделей seq2seq $f^0_{A \rightarrow B}$ и $f^0_{B \rightarrow A}$, которые можно создать вручную или изучить без выровненных пар, и использовать их для создавать искусственно выровненные обучающие данные: пусть $\mathcal {S}$ обозначает контролируемый алгоритм обучения, который принимает набор пар выровненных последовательностей и возвращает функцию сопоставления.Эти искусственные данные затем можно использовать для обучения следующей итерации моделей seq2seq, которые, в свою очередь, используются для создания новых искусственных обучающих наборов (здесь можно переключать $A$ и $B$): Модель обучается на каждой итерации на искусственном входные данные и реальные выходные данные, которые затем используются для создания новых входных данных для обучения.Таким образом, если исходная система не слишком далека от идеала, мы можем надеяться, что обучающие пары с каждым шагом будут приближаться к истинному распределению данных, что, в свою очередь, позволит обучать более качественные модели.В случае реферирования мы рассматриваем области полнотекстовых последовательностей $\mathcal {D}^F$ и рефератов $\mathcal {D}^S$ и пытаемся изучить реферирование ($f_{F\rightarrow S} $) и функции расширения ($f_{S\rightarrow F}$).Однако, в отличие от случая трансляции, $\mathcal {D}^F$ и $\mathcal {D}^S$ не являются взаимозаменяемыми.Учитывая, что в резюме обычно содержится меньше информации, чем в соответствующем полном тексте, мы решили определить только начальные модели ${F\rightarrow S}$.Мы по-прежнему можем следовать предложенной процедуре, чередуя направления на каждом этапе.Чтобы инициировать процесс машинного перевода, BIBREF5 использует две разные модели инициализации для своих нейронных (NMT) и фразовых (PBSMT) систем.Первый опирается на автоматические кодировщики шумоподавления на обоих языках с общим скрытым пространством, а второй использует систему PBSMT BIBREF17 с таблицей фраз, полученной путем неконтролируемого выравнивания словаря, как в BIBREF18. Хотя оба эти метода хорошо работают для машинного перевода, они полагаются на то, что входные и выходные данные имеют одинаковую длину и информационное содержание.В частности, алгоритм статистического машинного перевода пытается сопоставить большинство входных токенов с выходным словом.Однако в случае реферирования текста существует внутренняя асимметрия между полным текстом и аннотациями, поскольку последние выражают лишь часть первого.Далее мы предлагаем три системы инициализации, которые неявно моделируют эту потерю информации.Полная информация о реализации представлена в Приложении.Первая инициализация аналогична инициализации PBSMT, поскольку она основана на неконтролируемом выравнивании словаря.В частности, мы обучаем две модели встраивания слов скипграммы с помощью fasttext BIBREF19 на $\mathcal {D}^F$ и $\mathcal {D}^S$, а затем выравниваем их в общем пространстве с помощью метода Вассерштейна-Прокруста из BIBREF18.Затем мы сопоставляем каждое слово полнотекстовой последовательности с его ближайшим соседом в выровненном пространстве, если их расстояние меньше некоторого порога, или пропускаем его в противном случае.Мы также ограничиваем длину вывода, сохраняя только первые $N$ токенов.Мы называем эту функцию $f_{F\rightarrow S}^{(\text{Pr-Thr}), 0}$. Подобно BIBREF5 и BIBREF11, мы также разрабатываем стартовую модель на основе DAE.Одним из основных отличий является то, что мы используем простой кодер Bag-of-Words (BoW) с фиксированными предварительно обученными встраиваниями слов и двухслойный декодер GRU.Действительно, мы обнаружили, что автокодировщик BoW, обученный на сводках, достигает почти 70% показателя реконструкции румян-l f на тестовом наборе, что указывает на то, что информации о присутствии слов в большинстве случаев достаточно для моделирования сводок.Что касается модели шума, то для каждого токена на входе мы удаляем его с вероятностью $p/2$ и добавляем слово, взятое равномерно из сводного словаря с вероятностью $p$. Кодировщик BoW имеет два преимущества.Во-первых, ей не хватает склонности других моделей сохранять порядок слов в полном тексте резюме.Во-вторых, при использовании DBAE для прогнозирования сводок на основе полного текста мы можем взвешивать вложения входных слов по вероятности их появления в сводке на уровне корпуса, заставляя модель уделять меньше внимания словам, которые появляются только в $\mathcal { D}^F$.Автокодировщик пакета слов с шумоподавлением и повторным взвешиванием входных данных называется $f_{F\rightarrow S}^{(\text{DBAE}), 0}$. Мы также предлагаем экстрактивную модель инициализации.Учитывая то же представление BoW, что и для DBAE, функция $f_\theta ^\mu (s, v)$ предсказывает вероятность того, что каждое слово $v$ в полнотекстовой последовательности $s$ присутствует в сводке.Мы изучаем параметры $f_\theta ^\mu $ путем маргинализации выходной вероятности каждого слова по всем полнотекстовым последовательностям и сопоставления этих моментов первого порядка с предельной вероятностью присутствия каждого слова в сводке.То есть, пусть $\mathcal {V}^S$ обозначает словарь $\mathcal {D}^S$, тогда $\forall v \in \mathcal {V}^S$: Минимизируем бинарную кросс-энтропию (BCE) между выходным и итоговым моментами: Затем мы определяем исходную модель экстрактивного реферирования, применяя $f_{\theta ^*}^\mu (\cdot , \cdot )$ ко всем словам входного предложения и сохраняя те, чья выходная вероятность больше некоторого порога.Мы называем эту модель $f_{F\rightarrow S}^{(\mathbf {\mu }:1), 0}$. Мы применяем процедуру обратного перевода, описанную выше, параллельно для всех трех моделей инициализации.Например, $f_{F\rightarrow S}^{(\mathbf {\mu }:1), 0}$ дает следующую последовательность моделей и искусственно выровненных наборов данных: Наконец, чтобы воспользоваться преимуществами различных преимуществ Для каждой модели инициализации мы также объединяем набор искусственных обучающих данных на каждой нечетной итерации для обучения сумматора, например: Мы проверяем наш подход на корпусе Gigaword, который состоит из обучающего набора из 3,8 миллионов заголовков статей (считающихся полным текст) и заголовки (сводки), а также пары проверки 200 000, и мы сообщаем о производительности тестов на том же наборе 2 КБ, который использовался в BIBREF7.Поскольку мы хотим изучить системы на полностью несогласованных данных, не давая модели возможности изучить неявное сопоставление, мы также разделяем обучающий набор на 2 миллиона примеров, для которых мы используем только заголовки, и 1,8 миллиона для заголовков.Все модели после этапа инициализации реализуются как сверточные архитектуры seq2seq с использованием Fairseq BIBREF20.Для создания искусственных данных используется выборка из топ-15 с минимальной длиной 16 для полного текста и максимальной длиной 12 для сводок.оценки rouge получены с выходным словарем размером 15 КБ и лучевым поиском размером 5 для соответствия BIBREF11. В таблице TABREF9 сравнивается тест ROUGE для различных моделей инициализации, а также тривиальная базовая линия Lead-8, которая просто копирует первые 8 слов статья.Мы обнаружили, что простое определение порога расстояния на этапе выравнивания слов (Pr-Thr) работает немного лучше, чем полная система PBSMT, используемая BIBREF5.Наш автокодировщик BoW с шумоподавлением и повторным взвешиванием слов также работает значительно лучше, чем полная инициализация DAE seq2seq, используемая BIBREF11 (Pre-DAE).Исходная модель, основанная на моментах ($\mathbf {\mu }$:1), имеет более высокие оценки, чем любая из них, причем оценки уже близки к полной неконтролируемой системе BIBREF11. Чтобы исследовать эффект этих трех различных стратегий, выходящих за рамки их статистики румян, мы показываем поколения трех соответствующих расширителей первой итерации для данной сводки в таблице TABREF1.Неконтролируемое выравнивание словарного запаса в (Pr-Thr) учитывает сдвиг словарного запаса, особенно изменения времен глаголов (резюме, как правило, в настоящем времени), но сохраняет порядок слов и добавляет очень мало информации.И наоборот, функция расширения ($\mathbf {\mu }$:1), которая изучается на основе чисто экстрактивных сводок, повторно использует большинство слов в сводке без каких-либо изменений и добавляет некоторую новую информацию.Наконец, использование автокодировщика (DBAE) значительно увеличивает длину и разнообразие последовательности, но также отклоняется от первоначального значения (больше примеров в Приложении).Декодеры также, похоже, изучают факты о мире во время обучения тексту статьи (EDF/GDF — французская государственная энергетическая компания). Наконец, в таблице TABREF13 сравниваются сумматоры, полученные на различных итерациях обратного перевода, с другими неконтролируемыми и полуконтролируемыми подходами.В целом наша система превосходит неконтролируемое состязательное усиление BIBREF11 после одного цикла обратной трансляции и большинство полуконтролируемых систем после второго, включая предварительно обученный кодировщик предложений MASS BIBREF12 и сжатие предложений с принудительным вниманием (FSC) BIBREF10. используйте пары с выравниванием 100K и 500K соответственно.Что касается подходов обратного перевода, мы отмечаем, что производительность модели коррелирует с оценками инициализаторов, указанными в таблице TABREF9 (итерации 4 и 6 следуют той же схеме).Кроме того, мы обнаружили, что объединение данных всех трех инициализаторов перед обучением системы суммирования на каждой итерации, как описано в разделе SECREF8, дает наилучшие результаты, что позволяет предположить, что большее разнообразие искусственного полного текста действительно помогает модели учиться.В этой работе мы используем парадигму обратного перевода для обучения системы реферирования без учителя.Мы обнаружили, что модель выигрывает от объединения инициализаторов, что соответствует производительности полуконтролируемых подходов. | Подходы, основанные на обратном переводе, в последнее время привели к значительному прогрессу в решении неконтролируемых задач последовательного перевода, таких как машинный перевод или передача стиля. В этой работе мы расширяем парадигму на проблему обучения системе реферирования предложений на основе невыровненных данных. Мы представляем несколько начальных моделей, которые полагаются на асимметричный характер задачи выполнения первого шага обратного перевода, и демонстрируем ценность объединения данных, созданных этими различными методами инициализации. Наша система превосходит нынешнюю современную систему неконтролируемого суммирования предложений из полностью несогласованных данных более чем на 2 ROUGE и соответствует производительности последних полуконтролируемых подходов. | 2,229 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | О современном состоянии оценки в моделях нейронного языка. Научный процесс, в котором работает исследовательское сообщество глубокого обучения, основан на эмпирических исследованиях, которые оценивают относительное качество моделей.Ситуация усложняется тем, что измеренная производительность модели зависит не только от ее архитектуры (и данных), но может сильно зависеть от значений гиперпараметров, которые влияют на обучение, регуляризацию и емкость.Эта зависимость от гиперпараметров часто является недостаточно контролируемым источником вариаций в экспериментах, что создает риск того, что будут сообщаться об эмпирически необоснованных утверждениях.В этой статье мы используем метод оптимизации гиперпараметров черного ящика для контроля эффектов гиперпараметров при сравнении относительной производительности архитектур языкового моделирования, основанных на LSTM, Recurrent Highway Networks BIBREF0 и NAS BIBREF1.Мы определяем гибкие, параметризованные семейства моделей с возможностью настройки размеров встраивания и рекуррентных ячеек для заданного бюджета параметров, а также с точным контролем над гиперпараметрами регуляризации и обучения.После того, как гиперпараметры были должным образом проконтролированы, мы обнаружили, что LSTM превосходят более поздние модели, вопреки опубликованным заявлениям.Таким образом, наш результат является демонстрацией того, что сбои репликации могут произойти из-за плохо контролируемых изменений гиперпараметров, и эта статья присоединяется к другим недавним статьям, предупреждая о недостаточно признанном существовании сбоев репликации в глубоком обучении BIBREF2, BIBREF3.Однако мы показываем, что тщательный контроль возможен, хотя и требует значительных вычислительных затрат.В свете этих результатов можно сделать несколько замечаний.Во-первых, поскольку (условные) языковые модели служат центральным строительным блоком многих задач, включая машинный перевод, нет оснований ожидать, что проблема ненадежной оценки уникальна для обсуждаемых здесь задач.Однако в машинном переводе тщательный контроль эффектов гиперпараметров будет существенно дороже, поскольку стандартные наборы данных намного больше.Во-вторых, исследовательское сообщество должно стремиться к большему консенсусу относительно подходящей экспериментальной методологии, которая сбалансирует затраты на тщательное экспериментирование с рисками, связанными с ложными утверждениями.Наконец, больше внимания следует уделять чувствительности гиперпараметров.Модели, которые вводят много новых гиперпараметров или которые хорошо работают только в узких диапазонах настроек гиперпараметров, должны быть идентифицированы как часть стандартной практики публикации.Наше внимание сосредоточено на трех рекуррентных архитектурах: Наша цель состоит исключительно в том, чтобы лучше сравнивать модели для этих архитектур, и поэтому мы воздерживаемся от включения методов, которые, как известно, еще больше снимают затруднения, но которые, как полагают, в значительной степени ортогональны вопросу относительного достоинства этих рекуррентных клеток.Параллельно с нашей работой BIBREF5 демонстрирует полезность добавления нейронного кэша BIBREF6.Основываясь на своей работе, BIBREF7 показывают, что динамическая оценка BIBREF8 аналогичным образом способствует окончательному недоумению.Как изображено на рис.На фиг.1 наши модели с ячейками LSTM или NAS имеют все стандартные компоненты: таблицу поиска встраивания входных данных, повторяющиеся ячейки, сложенные в виде слоев с дополнительными пропускаемыми соединениями, объединяющими выходные данные всех слоев для облегчения оптимизации.Существует необязательная нисходящая проекция, наличие которой определяется гиперпараметром из этого объединенного вывода в меньшее пространство, что уменьшает количество параметров внедрения вывода.Если не указано иное, входные и выходные внедрения являются общими, см. BIBREF9 и BIBREF10 .Dropout.применяется к соединениям прямой связи, обозначенным на рисунке пунктирными стрелками.Снизу вверх: к встроенным входам (выпадение входа), к связям между слоями (внутрислойное выпадение), к комбинированным и проецируемым вниз выходам (выпадение выхода).Все эти исключения имеют случайные маски, рисуемые независимо для каждого временного шага, в отличие от исключения в повторяющихся состояниях, где одна и та же маска используется для всех временных шагов в последовательности.Модели на основе RHN обычно рассматриваются как единая горизонтальная «магистраль», чтобы подчеркнуть, как повторяющееся состояние обрабатывается во времени. На рис.FigREF1, мы решили нарисовать их схему таким образом, чтобы различия с LSTM были сразу очевидны.Короче говоря, состояние RHN передается с самого верхнего уровня на самый нижний уровень следующего временного шага.Напротив, каждый уровень LSTM имеет собственное рекуррентное соединение и состояние.Одни и те же варианты исключения применяются ко всем трем типам моделей, за исключением внутриуровневого исключения, которое не применяется к RHN, поскольку между слоями передается только рекуррентное состояние.Для повторяющихся состояний все архитектуры используют либо вариационное исключение BIBREF11, либо периодическое исключение BIBREF12, если явно не указано иное.Мы сравниваем модели на трех наборах данных.Самый маленький из них — корпус Penn Treebank от BIBREF13 с предварительной обработкой от BIBREF14.Мы также включаем еще один корпус уровня слов: Wikitext-2 от BIBREF15.Он примерно в два раза больше Penn Treebank, имеет больший словарный запас и гораздо более легкую предварительную обработку.Третий корпус — Enwik8 из набора данных Hutter Prize BIBREF16.Следуя общепринятой практике, мы используем первые 90 миллионов символов для обучения, а остальные 10 миллионов равномерно распределяются между проверкой и тестированием.При обучении моделей уровня слов мы следуем общепринятой практике и используем размер пакета 64, усеченное обратное распространение ошибки с 35 временными шагами и подаем конечные состояния из предыдущего пакета в качестве начального состояния последующего.В начале обучения и тестирования модель запускается с нулевого состояния.Чтобы сместить модель к возможности легко начать с такого состояния во время тестирования, во время обучения с вероятностью 0,01 в качестве начального состояния предоставляется постоянное нулевое состояние.Оптимизация выполняется Адамом BIBREF17 с INLINEFORM0, но в остальном с параметрами по умолчанию ( INLINEFORM1 , INLINEFORM2 ).Установка INLINEFORM3 таким образом отключает экспоненциальное скользящее среднее для оценок средних градиентов и очень приближает Адама к RMSProp без импульса, но из-за коррекции смещения Адама можно использовать более высокие скорости обучения.Размер пакета установлен на 64.Скорость обучения умножается на 0,1, если производительность проверки не улучшается в течение 30 последовательных контрольных точек.Эти контрольные точки выполняются после каждых 100 и 200 шагов оптимизации для Penn Treebank и Wikitext-2 соответственно.Для моделей уровня символов (например, Enwik8) различия заключаются в следующем: усеченное обратное распространение ошибки выполняется с 50 временными шагами.Параметры Адама: INLINEFORM0, INLINEFORM1.Размер пакета 128.Контрольные точки устанавливаются только через каждые 400 шагов оптимизации, а встраивания не передаются.Для оценки загружается контрольная точка с наилучшей сложностью проверки, найденная настройщиком, и модель применяется к тестовому набору с размером пакета 1.Для наборов данных на основе слов использование размера обучающего пакета ухудшает результаты на 0,3 PPL, в то время как Enwik8 практически не затрагивается из-за того, что его оценочные и обучающие наборы намного больше.Предварительные эксперименты показывают, что усреднение MC приведет к небольшому улучшению запутанности примерно на 0,4 и количеству битов на символ на 0,005, что аналогично результатам BIBREF11, но при этом будет в 1000 раз дороже, что неприемлемо для больших наборов данных.Поэтому повсюду мы используем приближение среднего поля для отсева во время тестирования.Гиперпараметры оптимизируются с помощью Google Vizier BIBREF19, настройщика гиперпараметров «черного ящика», основанного на пакетных бандитах GP с использованием функции получения ожидаемого улучшения BIBREF20.Тюнеры такого типа обычно более эффективны, чем поиск по сетке, когда количество гиперпараметров невелико.Чтобы решить проблему, мы ограничиваем набор гиперпараметров скоростью обучения, коэффициентом внедрения входных данных, выпадением входных данных, выпадением состояния, выпадением выходных данных, затуханием веса.Для глубоких LSTM необходимо настроить дополнительный гиперпараметр: отсев внутри уровня.Даже при таком небольшом наборе для достижения сходимости необходимы тысячи оценок.Руководствуясь недавними результатами BIBREF21, мы сравниваем модели на основе общего количества обучаемых параметров, а не количества скрытых единиц.Настройщику предоставляется контроль над наличием и размером проекции вниз и, таким образом, над компромиссом между количеством встраивания и параметрами повторяющихся ячеек.Следовательно, скрытый размер ячеек и размер внедрения определяются фактическим бюджетом параметров, глубиной и входным гиперпараметром коэффициента внедрения.Для Enwik8 во вложениях относительно мало параметров, поскольку размер словаря составляет всего 205.Здесь мы предпочитаем не разделять вложения и безоговорочно опускать проекцию вниз.Мы протестировали LSTM различной глубины и RHN глубины 5 с бюджетами параметров 10 и 24 миллиона, что соответствует размерам Medium и Large LSTM от BIBREF18.Результаты суммированы в таблице TABREF9. Примечательно, что в наших экспериментах даже RHN только с 10M параметрами имеет лучшую недоумение, чем 24M в оригинальной публикации.Наша версия 24M еще лучше.Тем не менее, неглубокая модель на основе LSTM с параметрами всего 10M имеет очень хороший запас по сравнению с этим, а более глубокие модели следуют за расчетным диапазоном шума.На глубине 24М все глубины дают очень похожие результаты, достигая exp(4,065).[исправлено,zerofill,precision=1] на глубине 4.Неудивительно, что NAS, архитектура которого была выбрана на основе его производительности на этом наборе данных, работает почти так же хорошо, даже лучше, чем в BIBREF1. Wikitext-2 не намного больше, чем Penn Treebank, поэтому неудивительно, что даже модели, настроенные для Penn Treebank, работают достаточно хорошо. на этом наборе данных, и именно так были получены результаты в предыдущих работах.Для более справедливого сравнения мы также настраиваем гиперпараметры в том же наборе данных.В таблице TABREF14 мы приводим цифры для обоих подходов.Все наши результаты значительно ниже предыдущего состояния для моделей без динамической оценки или кэширования.Тем не менее, наш лучший результат, exp(4.188) [fixed,zerofill,precision=1] выгодно отличается даже от Neural Cache BIBREF6, чьи нововведения достаточно ортогональны базовой модели.Мелкие LSTM здесь особенно хороши.У более глубоких моделей недоумение постепенно снижается, причем RHN значительно отстают от них всех.NAS не совсем соответствует LSTM, предполагая, что его архитектура, возможно, переоснащена Penn Treebank, но для того, чтобы сделать такой вывод, потребуются данные для более глубоких вариантов.В отличие от предыдущих наборов данных, наши цифры по этой задаче (сообщенные в BPC после совещания) немного отстают от современного состояния.Скорее всего, это связано с ограничением оптимизации 14 эпохами, что составляет примерно десятую часть того, для чего была обучена модель BIBREF0.Тем не менее, мы сопоставляем их меньший RHN с нашими моделями, которые очень близки друг к другу.С этой задачей NAS удивительно отстает от других моделей.В двух из трех наборов данных мы существенно улучшили предыдущие результаты за счет тщательной спецификации модели и оптимизации гиперпараметров, но улучшение для RHN намного меньше по сравнению с улучшением для LSTM.Хотя нельзя исключить, что наша конкретная установка каким-то образом благоприятствует LSTM, мы считаем, что этот эффект более вероятен из-за того, что исходные экспериментальные условия RHN были настроены более тщательно (это почти неизбежно во время разработки модели). Естественно, NAS выиграл от этого. только в ограниченной степени от нашей настройки, поскольку числа BIBREF1 уже были получены с использованием аналогичных методов регуляризации и поиска по сетке.Небольшое преимущество можно объяснить неоптимальностью поиска по сетке (см. раздел SECREF23).Таким образом, три архитектуры рекуррентных ячеек близко совпадают во всех трех наборах данных с незначительными различиями в Enwik8, где регуляризация имеет меньшее значение.Эти результаты подтверждают утверждения BIBREF21 о том, что способности различных клеток очень схожи, а их очевидные различия являются результатом обучаемости и регуляризации.Хотя сравнение трех похожих архитектур не может доказать эту точку зрения, включение NAS, безусловно, придает этому больше уверенности.Таким образом, у нас есть две лучшие ячейки, спроектированные человеком, и одна ячейка, оптимизированная для машины, которая показала лучшие результаты среди тысяч кандидатов.Настройщики сочли, что проекция вниз очень полезна для некоторых комбинаций глубины и бюджета.На Penn Treebank он улучшил результаты примерно на 2–5 баллов на глубинах 1 и 2 на глубине 10 м и на глубине 1 на глубине 24 м, возможно, за счет оснащения рекуррентных ячеек большей емкостью.Те же самые модели выиграли от занижения в Wikitext-2, но еще больше с разрывами примерно в 10–18 пунктов, что легко объяснить большим размером словарного запаса.Далее мы измерили вклад других особенностей моделей в серии экспериментов.См. таблицу TABREF22.Чтобы ограничить количество используемых ресурсов, в этих экспериментах на Penn Treebank оценивались только отдельные функции (а не их комбинации) с наилучшей глубиной для каждой архитектуры (LSTM или RHN) и бюджета параметров (10M или 24M), как определено выше.Во-первых, мы развязали встраивание входных и выходных данных, что усугубило недоумение примерно на 6 пунктов по всем направлениям, что согласуется с результатами BIBREF9. Во-вторых, без вариационного исключения модели RHN довольно сильно страдают, поскольку между ними вообще не остается исключения. слои.Глубокий LSTM также видит аналогичную потерю недоумения, поскольку отсев внутри уровня сам по себе не обеспечивает достаточной регуляризации.В-третьих, нас также интересовало, как будет действовать периодическое выпадение BIBREF12 вместо вариационного выпадения.Маски отсева использовались для разных временных шагов в обоих методах, и наши результаты не указывают на отсутствие постоянного преимущества ни у одного из них.При большом количестве оцениваемых комбинаций гиперпараметров возникает вопрос о том, насколько переоснащается тюнер.В игре задействовано множество источников шума, недетерминированный порядок операций с плавающей запятой в оптимизированных процедурах линейной алгебры, различные начальные значения инициализации, наборы проверки и тестирования, представляющие собой конечные выборки из бесконечной совокупности.Чтобы оценить серьезность этих проблем, мы провели следующий эксперимент: модели с лучшими настройками гиперпараметров для Penn Treebank и Wikitext-2 были переобучены с нуля с использованием различных начальных значений инициализации, а также были записаны результаты проверки и тестирования.Если во время настройки модели просто повезло из-за комбинации UID19 и UID20, то переобучение с теми же гиперпараметрами, но с другими начальными числами не сможет дать такие же хорошие результаты.В результатах есть несколько примечательных моментов.Во-первых, в нашей среде (Tensorflow с одним GPU) даже с тем же начальным значением, что и использованное тюнером, эффект от UID19 почти такой же большой, как от UID19 и UID20 вместе взятых.Во-вторых, дисперсия, вызванная UID19 и UID20 вместе, примерно эквивалентна абсолютной разнице в 0,4 в недоумении на Penn Treebank и 0,5 на Wikitext-2.В-третьих, трудности проверки лучших контрольных точек примерно на одно стандартное отклонение ниже, чем выборочное среднее повторных запусков, поэтому тюнер может подогнать шум лишь в ограниченной степени.Поскольку мы рассматриваем наши корпуса как единую последовательность, содержимое тестового набора не является iid, и мы не можем применять такие методы, как бутстрап, для оценки UID21.Вместо этого мы рассматривали разницу между оценками валидации и тестов как косвенный показатель и заметили, что она очень стабильна, внося отклонение 0,12–0,3 недоумения в окончательные результаты на Penn Treebank и Wikitext-2 соответственно.Мы не рассматривали в явном виде неизвестную неопределенность, остающуюся в Гауссовском процессе, которая может повлиять на сравнение моделей, за исключением его запуска до очевидной сходимости.В целом, наши результаты показывают, что разница в степени недоумения, равная 1,0, является статистически устойчивой разницей между моделями, обученными таким образом на этих наборах данных.Распределение результатов было примерно нормальным с примерно одинаковой дисперсией для всех моделей, поэтому мы по-прежнему сообщаем числа в табличной форме вместо того, чтобы строить график распределения результатов, например, в скрипичном графике BIBREF26.Чтобы дополнительно убедиться, что лучшая настройка гиперпараметра, найденная настройщиком, не является случайностью, мы построили график потерь при проверке в зависимости от настроек гиперпараметра. Рис.На фиг.24 показан один такой типичный график для 4-слойного LSTM.Мы вручную ограничили диапазоны лучших значений гиперпараметра примерно до 15–25% от всего настраиваемого диапазона и заметили, что подавляющее большинство настроек в этом районе вызывают недоумения в пределах 3,0 от наилучшего значения.Дальнейшее расширение диапазонов приводит к быстрому ухудшению результатов.Удовлетворившись тем, что поверхность гиперпараметров ведет себя хорошо, мы подумали, можно ли было бы достичь тех же результатов с помощью простого поиска по сетке.Опуская коэффициент внедрения входных данных, поскольку настройщик обнаружил, что проекция вниз почти безоговорочно неоптимальна для этой модели, остается настроить шесть гиперпараметров.Если бы в сетке было 5 возможных значений для каждого гиперпараметра (с одним значением в каждом 20% интервале), то нам потребовалось бы INLINEFORM0, почти 8000 испытаний, чтобы получить точность в пределах 3,0 от наилучшего значения недоумения, достигнутого настройщиком примерно за 1500 испытаний.Обычно LSTM имеют два независимых вентиля, контролирующих сохранение состояния ячейки и допуск обновлений (уравнение EQREF26).Второстепенный вариант, который уменьшает количество параметров при потере некоторой гибкости, состоит в том, чтобы связать входные данные и забыть об элементах, как в уравнении. .Возможная золотая середина, которая сохраняет количество параметров неизменным, но гарантирует, что значения состояния ячейки INLINEFORM0 остаются в INLINEFORM1, — это ограничить входной вентиль, как в уравнении. .DISPLAYFORM0 Где уравнения основаны на формулировке BIBREF27 .Все модели LSTM в этой статье используют третий вариант, за исключением тех, которые названы «Несвязанные ворота» и «Связанные ворота» в таблице TABREF22, соответствующей уравнению. EQREF26и соответственно.Результаты показывают, что LSTM нечувствительны к этим изменениям, и результаты различаются лишь незначительно, даже несмотря на то, что связанной версии выделяется больше скрытых единиц для заполнения ее бюджета параметров.Наконец, цифры показывают, что глубокие LSTM выигрывают от состояний ограниченных ячеек.В переходный период, когда модели глубокого нейронного языка начали вытеснять своих более мелких предшественников, размеры эффекта имели тенденцию быть большими, и можно было сделать надежные выводы о ценности инноваций в моделировании даже в присутствии плохо контролируемого «гиперпараметрического шума».Однако сейчас, когда нейронная революция в самом разгаре, исследователям часто приходится сравнивать конкурирующие глубокие архитектуры.В этом режиме размеры эффекта, как правило, намного меньше, и для получения надежных результатов требуется больше методологической осторожности.Более того, учитывая такой большой объем работы, выполняемой параллельно растущим исследовательским сообществом, цена ошибочных выводов возрастает.Хотя мы можем привлечь внимание к этой проблеме, эта статья не предлагает практического методологического решения, кроме установления надежных базовых показателей, которые могут стать ориентирами для последующей работы.Тем не менее, мы демонстрируем, как с помощью огромного объема вычислений можно тщательно оценить уровни шума различного происхождения и осмысленно сравнить модели.Этот очевидный компромисс между объемом вычислений и надежностью результатов, по-видимому, лежит в основе вопроса.Поэтому решения методологических проблем должны удешевить оценку модели, например, за счет сокращения количества гиперпараметров и чувствительности моделей к ним, использования более эффективных стратегий оптимизации гиперпараметров или путем определения «лиг» с заранее определенными вычислительными бюджетами для одной модели, представляющей разные точки на кривой компромисса. | Постоянные инновации в архитектурах рекуррентных нейронных сетей обеспечили постоянный приток, казалось бы, самых современных результатов в тестах языкового моделирования. Однако они оценивались с использованием разных баз кода и ограниченных вычислительных ресурсов, которые представляют собой неконтролируемые источники экспериментальных вариаций. Мы переоцениваем несколько популярных архитектур и методов регуляризации с помощью крупномасштабной автоматической настройки гиперпараметров черного ящика и приходим к несколько неожиданному выводу, что стандартные архитектуры LSTM при правильной регуляризации превосходят более поздние модели. Мы установили новый уровень развития корпусов Penn Treebank и Wikitext-2, а также надежные базовые показатели для набора данных Hutter Prize. | 3,145 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Расширенная классификация настроений в Твиттере с использованием контекстной информации. Twitter — это платформа микроблогов и социальная сеть, где пользователи могут публиковать и обмениваться короткими сообщениями длиной до 140 символов (также известными как твиты).В последние годы популярность Twitter значительно возросла благодаря его доступности и простоте использования.Рост популярности и публичный характер Твиттера (менее 10% аккаунтов Твиттера являются частными BIBREF0) сделали его важным инструментом для изучения поведения и отношения людей.Одной из областей исследований, которая привлекла большое внимание в последние несколько лет, является классификация настроений в твитах.С помощью классификации и анализа настроений можно получить представление об отношении людей к конкретным темам в Твиттере.Это можно использовать для измерения отношения людей к брендам, политическим кандидатам и социальным проблемам.Было несколько работ, в которых классификация настроений в Твиттере выполнялась с использованием стандартных методов классификации настроений, причем наиболее распространенными были вариации n-грамм и набора слов.Были попытки использовать более продвинутые синтаксические функции, как это делается в классификации настроений для других доменов BIBREF1, BIBREF2, однако ограничение в 140 символов, наложенное на твиты, затрудняет это, поскольку каждая статья в обучающем наборе Twitter состоит из предложений не более чем несколько слов, многие из которых имеют неправильную форму BIBREF3 .Onс другой стороны, то, что твитам не хватает структуры, они компенсируют огромным объемом и богатыми метаданными.Эти метаданные включают геолокацию, временную информацию и информацию об авторе.Мы предполагаем, что настроения зависят от всех этих контекстуальных факторов.Разные места, времена и авторы имеют разную эмоциональную валентность.Например, люди, как правило, счастливее по выходным и в определенные часы дня, более подавлены в конце летних каникул и счастливее в определенных штатах США.Более того, люди имеют разные базовые эмоциональные валентности.Эти утверждения подтверждаются, например, ежегодным опросом Gallup, который ранжирует штаты от самых счастливых до наименее счастливых BIBREF4, или работой Чиксентмихайи и Хантера BIBREF5, которая показала, что уровень счастья значительно варьируется в зависимости от дня недели и времени суток.Мы считаем, что эти факторы проявляются в настроениях, выраженных в твитах, и что, учитывая эти факторы, мы можем улучшить классификацию настроений в Твиттере.В этой работе мы исследовали эту гипотезу, используя удаленный контроль BIBREF6 для сбора миллионов помеченных твитов из разных мест (в США), времени суток, дней недели, месяцев и авторов.Мы использовали эти данные для анализа изменений настроений в твитах в вышеупомянутых категориях.Затем мы использовали байесовский подход, чтобы включить взаимосвязь между этими факторами и настроениями в Твиттере в стандартную классификацию настроений в Твиттере на основе n-грамм.Эта статья структурирована следующим образом.В следующих разделах мы рассмотрим соответствующую работу по классификации настроений, а затем подробно объясним наш подход и наши усилия по сбору, аннотированию и обработке данных.После этого мы опишем нашу базовую модель классификатора настроений в виде n-грамм, а затем объясним, как базовая модель расширяется для включения контекстной информации.Далее мы опишем наш анализ вариаций настроений внутри каждой из контекстуальных категорий.Затем мы оцениваем наши модели и, наконец, суммируем наши выводы и вклады и обсуждаем возможные направления будущей работы.Анализ тональности и классификация текста — это проблема, которая хорошо изучена во многих различных областях, таких как блоги, обзоры фильмов и обзоры продуктов (например, BIBREF7, BIBREF8, BIBREF9).Также ведется обширная работа по анализу настроений для Twitter.Большая часть работы по классификации настроений в Твиттере сосредоточена либо на различных методах машинного обучения (например, BIBREF10, BIBREF11), новых функциях (например, BIBREF12, BIBREF13, BIBREF3), новых методах сбора и маркировки данных (например, BIBREF6) или применении классификация настроений для анализа отношения людей к определенным темам в Твиттере (например, BIBREF14, BIBREF15).Это лишь некоторые примеры уже проведенных обширных исследований по классификации и анализу настроений в Твиттере.Ранее также проводилась работа по измерению счастья людей в различных контекстах (место, время и т. д.).Это было сделано в основном с помощью традиционных опросов наземных телефонов BIBREF5, BIBREF4, ярким примером которых является годовой индекс счастья Гэллапа BIBREF4.Совсем недавно некоторые использовали Twitter для измерения настроения и счастья людей и обнаружили, что Twitter в целом является хорошим показателем общего счастья, благополучия и настроения населения.Например, Боллен и др. BIBREF15 использовал Twitter для измерения ежедневного настроения общественности и сравнения его с записью социальных, политических, культурных и экономических событий в реальном мире.Они обнаружили, что эти события оказывают значительное влияние на общественное настроение, измеряемое через Twitter.Другим примером может служить работа Митчелла и др. BIBREF16, в котором они оценили уровни счастья в различных штатах и городах США с помощью Twitter и обнаружили статистически значимые корреляции между уровнем счастья и демографическими характеристиками (такими как уровень ожирения и уровень образования) в этих регионах.Наконец, улучшение обработки естественного языка за счет включения контекстной информации было успешно предпринято до BIBREF17, BIBREF18; но, насколько нам известно, такая попытка классификации настроений не предпринималась.В этой работе мы объединили анализ настроений различных авторов, мест, времени и дат, измеренный с помощью размеченных данных Twitter, со стандартными методами классификации настроений на основе слов, чтобы создать контекстно-зависимый классификатор настроений.Насколько мы можем судить, ранее не проводилось значительных работ по классификации настроений в Твиттере, которые позволили бы добиться этого.Основная гипотеза, лежащая в основе этой работы, заключается в том, что средний тональность сообщений в Твиттере различна в разных контекстах.В частности, твиты в разных пространственных, временных и авторских контекстах в среднем имеют разные настроения.По сути, эти факторы (многие из которых являются экологическими) влияют на эмоциональное состояние людей, что, в свою очередь, влияет на чувства, которые люди выражают в Твиттере и других местах.В этой статье мы использовали эту контекстную информацию, чтобы лучше прогнозировать настроение твитов.К счастью, твиты помечены очень обширными метаданными, включая местоположение, временную метку и информацию об авторе.Анализируя размеченные данные, собранные из этих различных контекстов, мы рассчитали априорные вероятности негативных и позитивных настроений для каждой из контекстуальных категорий, показанных ниже: Это означает, что для каждого элемента в каждой из этих категорий мы рассчитали вероятность того, что настроения будут положительными или отрицательными. на основе исторических твитов.Например, если семь из десяти исторических твитов, сделанных в пятницу, были положительными, то априорная вероятность положительного настроения для твитов, отправленных в пятницу, равна INLINEFORM0, а априорная вероятность отрицательного настроения — INLINEFORM1 .Затем мы обучили байесовский классификатор настроений, используя комбинацию этих априорных вероятностей и стандартных моделей n-грамм.Модель подробно описана в разделах «Базовая модель» и «Контекстная модель» данной статьи.Чтобы провести всесторонний анализ настроений твитов по вышеупомянутым контекстным категориям, потребовался большой объем размеченных данных.Нам нужны были тысячи твитов для каждого элемента в каждой категории (например, тысячи твитов в час в день или штат в США).Поэтому создание корпуса с использованием данных, аннотированных человеком, было бы непрактично.Вместо этого мы обратились к методам дистанционного наблюдения, чтобы получить наш корпус.Удаленный контроль позволяет нам иметь шумные, но большие объемы аннотированных твитов.Существуют разные методы получения размеченных данных с использованием дистанционного наблюдения BIBREF1, BIBREF6, BIBREF19, BIBREF12.Мы использовали смайлики, чтобы обозначить твиты как положительные или отрицательные. Этот подход был представлен Read BIBREF1 и использовался во многих работах BIBREF6, BIBREF12.Мы собрали миллионы англоязычных твитов разного времени, дат, авторов и штатов США.Всего мы использовали шесть смайлов: три отображали положительные и три отображали отрицательные настроения (таблица TABREF7).Мы определили более 120 положительных и отрицательных смайлов ASCII и смайлов Юникода, но решили использовать только шесть наиболее распространенных смайлов, чтобы избежать возможных ошибок при выборе.Например, люди, которые используют малоизвестные смайлы и эмодзи, могут иметь иные базовые чувства, чем те, кто этого не делает.Использование шести наиболее часто используемых смайлов ограничивает эту предвзятость.Поскольку «нейтральных» смайлов не существует, наш набор данных ограничен твитами с позитивными или негативными настроениями.Соответственно, в данной работе нас интересует только анализ и классификация полярности твитов (негативные или позитивные), а не их субъективность (нейтральные или ненейтральные).Ниже мы более подробно объясним наш сбор данных и корпус.Мы собрали два набора данных: один массивный и помеченный посредством дистанционного наблюдения, другой небольшой и помеченный людьми.Огромный набор данных использовался для расчета априорных вероятностей для каждой из наших контекстуальных категорий.Оба набора данных использовались для обучения и тестирования нашего классификатора настроений.Набор данных, помеченный человеком, использовался в качестве проверки работоспособности, чтобы убедиться, что набор данных, помеченный с помощью классификатора смайлов, не был слишком зашумлен, и что ярлыки человека и смайлика совпадают для большинства твитов.Мы собрали в общей сложности 18 миллионов англоязычных твитов с географическими тегами за три года, с 1 января 2012 года по 1 января 2015 года, равномерно распределив их по всем 36 месяцам, используя Historical PowerTrack для Twitter, предоставленный GNIP.Мы создали ограничивающие рамки геолокации для каждого из 50 штатов, которые использовались для сбора нашего набора данных.Все 18 миллионов твитов были созданы в одном из 50 штатов и отмечены соответствующим тегом.Более того, все твиты содержали один из шести смайлов в таблице TABREF7 и были помечены как положительные или отрицательные в зависимости от смайлика.Из 18 миллионов твитов миллион INLINEFORM0 ( INLINEFORM1 ) был помечен как положительный, а миллион INLINEFORM2 ( INLINEFORM3 ) был помечен как отрицательный.18 миллионов твитов поступили от отдельных пользователей INLINEFORM4.Мы случайным образом выбрали 3000 твитов из нашего большого набора данных и удалили все смайлики.Затем три человека-комментатора пометили эти твиты как положительные или отрицательные.Мы измерили согласие между аннотаторами с помощью каппы Фляйсса, которая вычисляет степень согласия в классификации по сравнению с той, которую можно было бы ожидать случайно BIBREF20.Оценка каппа для трех аннотаторов составила INLINEFORM0, что означает, что в отношении небольшой части твитов наблюдались разногласия в настроениях.Однако количество твитов, которые были помечены одинаково как минимум двумя из трех человек-аннотаторов, составило 2908 из 3000 твитов (INLINEFORM1).Из этих 2908 твитов INLINEFORM2 были отмечены как положительные, а INLINEFORM3 — как отрицательные.Затем мы измерили соответствие между человеческими метками и метками на основе смайлов, используя только твиты, которые были помечены одинаково как минимум двумя из трех человек-аннотаторов (метка большинства использовалась в качестве метки для твита).В таблице TABREF13 показана матрица путаницы между человеческими аннотациями и аннотациями на основе смайлов.Как видите, INLINEFORM0 всех совпадающих меток ( INLINEFORM1 ). Эти результаты очень многообещающие и показывают, что использование удаленного контроля на основе смайлов для обозначения настроений твитов является приемлемым методом.Хотя в набор данных вносится некоторый шум (о чем свидетельствует INLINEFORM0 твитов, чьи человеческие метки не соответствуют их меткам смайликов), сам объем помеченных данных, которые этот метод делает доступными, намного перевешивает относительно небольшое количество вносимого шума.Поскольку данные помечены смайликами, мы удалили все смайлы из обучающих данных.Это гарантирует, что смайлы не будут использоваться в качестве функции в нашем классификаторе настроений.Большая часть твитов содержит ссылки на другие сайты.Эти ссылки в большинстве случаев не имеют семантического значения и поэтому не могут помочь в классификации настроений.Поэтому все ссылки в твитах были заменены токеном «URL».Аналогичным образом, все упоминания имен пользователей (которые обозначаются символом @) были заменены токеном «ИМЯ ПОЛЬЗОВАТЕЛЯ», поскольку они также не могут помочь в классификации настроений.Твиты также содержат очень неформальный язык, поэтому символы в словах часто повторяются для акцентирования внимания (например, во многих твитах слово «хорошо» используется с произвольным количеством букв «о»).Любой символ, повторявшийся более двух раз, удалялся (например, «гооооооо» заменялось на «хорошо»).Наконец, все слова в твитах были выделены с помощью Porter Stemming BIBREF21.В нашей базовой модели классификации настроений мы использовали наш огромный набор данных для обучения отрицательной и положительной языковой модели n-грамм на основе отрицательных и положительных твитов.В качестве нашей базовой модели мы построили чисто лингвистические модели биграмм на Python, используя некоторые компоненты из NLTK BIBREF22.В этих моделях использовался словарь, который был отфильтрован для удаления слов, встречающихся 5 или менее раз.Распределения вероятностей были рассчитаны с использованием сглаживания Кнезера-Нея BIBREF23.В дополнение к сглаживанию Кнезера-Нея, модели биграмм также использовали сглаживание «отсрочки» BIBREF24, в котором модель n-граммы возвращается к модели INLINEFORM0-граммы для слов, которые не наблюдались в контексте n-граммы.Чтобы классифицировать настроение нового твита, его вероятность соответствия рассчитывается с использованием как отрицательной, так и положительной модели биграммы.Уравнение EQREF15 ниже показывает наши модели через байесовскую линзу.DISPLAYFORM0 Здесь INLINEFORM0 может быть INLINEFORM1 или INLINEFORM2, что соответствует гипотезе о том, что настроение твита является положительным или отрицательным соответственно.INLINEFORM3 — это последовательность слов INLINEFORM4, записанных как INLINEFORM5, которые составляют твит.INLINEFORM6 не зависит от гипотезы, поэтому его можно игнорировать.Поскольку мы используем модель биграммы, уравнение EQREF15 можно записать так: DISPLAYFORM0 Это наша чисто лингвистическая базовая модель.Байесовский подход позволяет нам легко интегрировать контекстную информацию в наши модели.INLINEFORM0 в уравнении EQREF16 — это априорная вероятность того, что твит будет иметь тональность INLINEFORM1.Априорная вероятность ( INLINEFORM2 ) может быть рассчитана с использованием контекстной информации твитов.Поэтому INLINEFORM3 в уравнении EQREF16 заменяется на INLINEFORM4, что представляет собой вероятность гипотезы с учетом контекстной информации.INLINEFORM5 — это апостериорная вероятность следующего байесовского уравнения: DISPLAYFORM0 Где INLINEFORM0 — это набор контекстных переменных: INLINEFORM1 .INLINEFORM2 фиксирует вероятность того, что твит будет положительным или отрицательным, с учетом состояния, часа дня, дня недели, месяца и автора твита.Здесь INLINEFORM3 не зависит от гипотезы, поэтому его можно игнорировать.Таким образом, уравнение EQREF16 можно переписать, включив в него контекстную информацию: DISPLAYFORM0 Уравнение EQREF18 — это наша расширенная байесовская модель для интеграции контекстной информации с более стандартной классификацией настроений на основе слов.Мы рассмотрели пять контекстуальных категорий: одну пространственную, три временные и одну авторскую.Вот список пяти категорий: Мы использовали наш огромный набор данных, помеченных смайликами, чтобы рассчитать среднее настроение для всех этих пяти категорий.Твиту был присвоен балл INLINEFORM0, если он был помечен как отрицательный, и балл 1, если он был помечен как положительный, поэтому среднее значение 0 для контекстной категории будет означать, что твиты в этой категории были одинаково помечены как положительные и отрицательные.Все 18 миллионов твитов в нашем наборе данных происходят из США и имеют географические метки.Естественно, твиты неравномерно распределены по 50 штатам, учитывая большие различия в численности населения каждого штата.На рисунке FigREF25 показан процент твитов по штатам, отсортированный от меньшего к большему.Неудивительно, что в Калифорнии наибольшее количество твитов ( INLINEFORM0 ), а в Вайоминге — наименьшее количество твитов ( INLINEFORM1 ). Дажештат с наименьшим процентом твитов имеет более десяти тысяч твитов, что достаточно для расчета статистически значимого среднего настроения для этого штата.Настроения во всех штатах, усредненные по твитам за три года, показаны на рисунке FigREF26.Обратите внимание, что среднее значение INLINEFORM0 означает, что все твиты были помечены как положительные, INLINEFORM1 означает, что все твиты были помечены как отрицательные, а INLINEFORM2 означает, что положительные и отрицательные твиты были равномерно распределены.Средние настроения во всех штатах больше склоняются к положительной стороне.Это ожидаемо, учитывая, что INLINEFORM3 твитов в нашем наборе данных были помечены как положительные.Интересно отметить, что даже при наличии зашумленного набора данных наш рейтинг штатов США, основанный на настроениях в Твиттере, коррелирует с рейтингом штатов США, основанным на индексе благосостояния, рассчитанном Освальдом и Ву BIBREF25 в их работе по измерению благосостояния. и удовлетворенность жизнью по всей Америке.Их данные взяты из опроса поведенческих факторов риска (BRFSS), который представляет собой опрос удовлетворенности жизнью в Соединенных Штатах среди INLINEFORM0 миллионов граждан.На рисунке FigREF27 показана эта корреляция (INLINEFORM1, INLINEFORM2).рассмотрел три временные переменные: время суток, день недели и месяц.Все твиты помечены временными метками, которые мы использовали для извлечения этих трех переменных.Поскольку все временные метки в исторических архивах Твиттера (и общедоступном API) находятся в часовом поясе UTC, мы сначала преобразовали временную метку в местное время того места, откуда был отправлен твит.Затем мы рассчитали настроения для каждого дня недели (рисунок FigREF29), часа (рисунок FigREF30) и месяца (рисунок FigREF31), усреднив их по всем 18 миллионам твитов за три года.18 миллионов твитов были разделены поровну между месяцами: INLINEFORM0 миллионов твитов в месяц.Твиты также были более или менее равномерно распределены по дням недели, причем каждый день содержал где-то между INLINEFORM1 и INLINEFORM2 твитов.Точно так же твиты были почти поровну разделены по часам, причем каждый из них содержал где-то между INLINEFORM3 и INLINEFORM4 твитов.Некоторые из этих результатов имеют интуитивный смысл.Например, чем ближе день недели к пятнице и субботе, тем позитивнее настроение, а в воскресенье оно снижается.Как и в случае с пространственным, среднее настроение всех часов, дней и месяцев больше склоняется к положительной стороне.Последняя контекстная переменная, которую мы рассмотрели, была авторской.У людей разные базовые установки: некоторые оптимистичны и позитивны, некоторые пессимистичны и негативны, а некоторые находятся между ними.Эта разница в личностях может проявиться в настроении твитов.Мы попытались уловить эту разницу, просматривая историю твитов пользователей.18 миллионов помеченных твитов в нашем наборе данных принадлежат авторам INLINEFORM0.Чтобы рассчитать статистически значимое среднее настроение для каждого автора, нам нужно, чтобы размер нашей выборки не был слишком маленьким.Однако большое количество пользователей из нашего набора данных написали в Твиттере только один или два раза за три года.На рисунке FigREF33 показано количество пользователей в корзинах по 50 твитов.(Таким образом, первая группа соответствует количеству пользователей, у которых за три года осталось менее 50 твитов.)Число пользователей в первых нескольких ячейках было настолько большим, что график должен был быть логарифмическим, чтобы его можно было прочитать.Мы решили рассчитать предварительные настроения для пользователей, написавших не менее 50 твитов.Это соответствовало меньшему числу пользователей INLINEFORM0 (INLINEFORM1 из общего числа пользователей INLINEFORM2).Обратите внимание, что эти пользователи являются наиболее плодовитыми авторами в нашем наборе данных, поскольку на их долю приходится INLINEFORM3 всех твитов в нашем наборе данных.У пользователей с менее чем 50 сообщениями предварительная настройка была установлена на INLINEFORM4 , что не отдавало предпочтение положительным или отрицательным настроениям (таким образом, это не влияет на байесовскую модель, позволяя другим контекстным переменным устанавливать априор). Поскольку это невозможно. Чтобы показать предыдущие средние настроения всех пользователей INLINEFORM0, мы создали 20 групп четных настроений, от INLINEFORM1 до INLINEFORM2.Затем мы построили график количества пользователей, чьи средние настроения попадают в эти ячейки (рис. FigREF34).Как и в случае с другими переменными, положительный конец графика намного тяжелее отрицательного.Мы использовали 5-кратную перекрестную проверку для обучения и оценки наших базовых и контекстных моделей, гарантируя, что твиты в обучающих сгибах не использовались при расчете каких-либо априорных значений или при обучении моделей биграмм.Таблица TABREF35 показывает точность наших моделей.Контекстная модель превзошла базовую модель, использующую любую контекстную переменную отдельно: состояние было лучшим, а день недели — худшим.Модель, в которой использовались все контекстные переменные, продемонстрировала относительное улучшение INLINEFORM0 и абсолютное INLINEFORM1 по сравнению с базовой моделью биграмм.Из-за значительного увеличения объема данных классификаторы настроений с дистанционным наблюдением для Twitter, как правило, превосходят более стандартные классификаторы, использующие наборы данных, размеченные человеком.Поэтому имеет смысл сравнить производительность нашего классификатора с другими удаленными контролируемыми классификаторами.Хотя наш контекстный классификатор не подлежит прямому сравнению, он превосходит отдаленный контролируемый классификатор настроений Twitter, разработанный Go et al BIBREF6, более чем на INLINEFORM0 (абсолютно). В таблице TABREF36 показаны точность, полнота и оценка F1 положительного и отрицательного класса для полного контекстного классификатора ( Контекстуальный-все). Несмотря на то, что наш контекстный классификатор смог превзойти предыдущий современный классификатор настроений с дистанционным контролем, следует отметить, что производительность нашего контекстного классификатора значительно повышается за счет пространственной информации, извлеченной с помощью геотегов.Однако лишь около одного-двух процентов твитов имеют географические метки.Поэтому мы обучили и оценили нашу контекстную модель, используя все переменные, кроме состояния.Точность этой модели составила INLINEFORM0, что все же значительно лучше, чем производительность чисто лингвистического классификатора.К счастью, все твиты помечены временными метками и информацией об авторе, поэтому все остальные четыре контекстные переменные, используемые в нашей модели, можно использовать для классификации настроения любого твита.Обратите внимание, что рассчитанные нами априорные вероятности необходимо время от времени пересчитывать и обновлять, чтобы учитывать изменения в мире.Например, государство может стать более богатым, в результате чего его граждане станут в среднем счастливее.Это изменение потенциально может повлиять на средние настроения, выражаемые гражданами этого штата в Твиттере, что сделает наши априорные знания устаревшими.Классификация твитов по тональности — важная область исследований.Посредством классификации и анализа настроений в Твиттере можно получить представление об отношении людей к конкретным темам.В этой работе мы использовали возможности дистанционного наблюдения, чтобы за три года собрать миллионы твитов с шумными ярлыками со всех концов США.Мы использовали этот набор данных для создания априорных вероятностей среднего настроения твитов в различных пространственных, временных и авторских контекстах.Затем мы использовали байесовский подход, чтобы объединить эти априорные значения со стандартными языковыми моделями биграмм.Полученная в результате комбинированная модель смогла достичь точности INLINEFORM0, превзойдя предыдущий современный классификатор настроений Twitter с дистанционным контролем более чем на INLINEFORM1.В будущем мы хотели бы изучить дополнительные контекстуальные функции, которые могли бы предсказать настроения в Твиттере.В частности, мы хотели бы включить в нашу модель твиты тематического типа.Тип темы характеризует характер тем, обсуждаемых в твитах (например, последние новости, спорт и т. д.).Уже была проделана обширная работа над схемами категоризации тем для Twitter BIBREF26, BIBREF27, BIBREF28, которые мы можем использовать для этой задачи.Мы хотели бы поблагодарить всех комментаторов за их усилия.Мы также хотели бы поблагодарить Брэндона Роя за то, что он поделился своими мыслями о байесовском моделировании.Эта работа была поддержана щедрым грантом Twitter. | Рост популярности и повсеместное распространение Твиттера сделали анализ настроений твитов важной и хорошо освещенной областью исследований. Однако ограничение в 140 символов, установленное для твитов, затрудняет использование стандартных лингвистических методов классификации настроений. С другой стороны, то, что твитам не хватает структуры, они компенсируют огромным объемом и богатыми метаданными. Эти метаданные включают геолокацию, временную информацию и информацию об авторе. Мы предполагаем, что настроения зависят от всех этих контекстуальных факторов. Разные места, времена и авторы имеют разную эмоциональную валентность. В этой статье мы исследовали эту гипотезу, используя удаленное наблюдение для сбора миллионов помеченных твитов из разных мест, времени и авторов. Мы использовали эти данные для анализа изменений настроений в твитах у разных авторов, в разное время и в разных местах. После того, как мы исследовали и поняли взаимосвязь между этими переменными и настроениями, мы использовали байесовский подход, чтобы объединить эти переменные с более стандартными лингвистическими функциями, такими как n-граммы, для создания классификатора настроений в Твиттере. Этот комбинированный классификатор превосходит чисто лингвистический классификатор, показывая, что интеграция богатой контекстной информации, доступной в Твиттере, в классификацию настроений является многообещающим направлением исследований. | 3,849 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Усиленный многозадачный подход для создания многоэтапных вопросов. В обработке естественного языка (НЛП) генерация вопросов считается важной, но сложной проблемой.Учитывая отрывок и ответ в качестве входных данных для модели, задача состоит в том, чтобы сгенерировать семантически связный вопрос для данного ответа.В прошлом генерация вопросов решалась с использованием подходов, основанных на правилах, таких как шаблоны вопросов BIBREF0 или использование информации об именованном объекте и структур прогнозируемых аргументов предложений BIBREF1.Недавно нейронные подходы достигли впечатляющих результатов (BIBREF2, BIBREF3, BIBREF4) для задачи генерации вопросов.Доступность крупномасштабных наборов данных по машинному чтению, таких как SQuAD BIBREF5, NewsQA BIBREF6, MSMARCO BIBREF7 и т. д., облегчила исследования в области ответов на вопросы.Сам набор данных SQuAD BIBREF5 был де-факто выбором для большинства предыдущих работ по созданию вопросов.Однако на 90% вопросов в SQuAD можно ответить одним предложением BIBREF8, поэтому бывшие системы QG, обученные на SQuAD, не способны извлекать и использовать информацию из нескольких предложений.Недавно выпущенные наборы данных с несколькими переходами, такие как QAngaroo BIBREF9, ComplexWebQuestions BIBREF10 и HotPotQA BIBREF11, больше подходят для создания систем QG, которым требуется собирать и использовать информацию в нескольких документах, а не в одном абзаце или предложении.При ответе на вопрос с несколькими переходами необходимо обдумать несколько соответствующих предложений из разных абзацев, чтобы ответить на заданный вопрос.Мы ссылаемся на эти соответствующие предложения как на подтверждающие факты в контексте.Следовательно, мы сформулируем генерацию вопросов с несколькими шагами как задачу создания вопроса на основе информации, собранной в результате анализа всех подтверждающих фактов в нескольких параграфах/документах.Поскольку эта задача требует сбора и обобщения информации из нескольких соответствующих документов, а не одного предложения/абзаца, она является более сложной, чем существующая одноступенчатая задача QG.Кроме того, наличие нерелевантной информации затрудняет сбор подтверждающих фактов, необходимых для генерации вопросов.Явная информация о подтверждающих фактах в документе часто не всегда доступна, что усложняет задачу.В этой работе мы предлагаем альтернативу получения подтверждающей фактической информации из документа с помощью многозадачного обучения.В таблице TABREF1 приведены примеры из набора данных SQuAD и HotPotQA.Из примера ясно, что вопрос с одним переходом формируется путем сосредоточения внимания на одном предложении/документе и ответе, тогда как в вопросе с несколькими переходами для формирования вопроса накапливаются многочисленные подтверждающие факты из разных документов и ответов.Multi-hop QG имеет реальные приложения в нескольких областях, таких как образование, чат-боты и т. д.Вопросы, созданные с помощью многоступенчатого подхода, будут стимулировать критическое мышление учащихся, побуждая их рассуждать о взаимосвязи между несколькими предложениями, чтобы ответить правильно.В частности, решение этих вопросов требует когнитивных навыков более высокого порядка (например, применение, анализ).Поэтому постановка сложных вопросов имеет решающее значение для оценки знаний учащегося и стимулирования самообучения.Аналогичным образом, в целенаправленных чат-ботах многоступенчатая QG является важным навыком для чат-ботов, например, при инициировании разговора, запросе и предоставлении подробной информации пользователю с учетом нескольких источников информации.Напротив, в QG с одним переходом при генерации рассматривается только один источник информации.В этой статье мы предлагаем решить проблему многоскачковой QG в два этапа.На первом этапе мы изучаем представление кодировщика с учетом подтверждающих фактов, чтобы прогнозировать подтверждающие факты из документов путем совместного обучения с генерацией вопросов и последующего обеспечения использования этих подтверждающих фактов.Первое достигается за счет совместного использования весов кодировщика с принимающей ответы сетью прогнозирования вспомогательных фактов, совместно обучаемой в многозадачной среде обучения.Последняя цель сформулирована как вознаграждение за предсказание подтверждающих фактов с учетом вопросов, которое оптимизируется наряду с контролируемой потерей последовательности.Кроме того, мы наблюдаем, что многозадачная структура обеспечивает существенные улучшения в производительности генерации вопросов, а также позволяет избежать включения информации о зашумленных предложениях в сгенерированный вопрос, а обучение с подкреплением (RL) приводит полный и сложный вопрос к оценке максимального правдоподобия (MLE). ) оптимизированная модель QG.Нашим основным вкладом в эту работу являются: (i).Мы представляем проблему генерации многоэтапных вопросов и предлагаем многозадачную структуру обучения, чтобы обеспечить общий кодировщик вспомогательной фактической информацией. (ii).Мы формулируем новую функцию вознаграждения: вознаграждение с многошаговым усилением посредством прогнозирования подтверждающих фактов с учетом вопросов, чтобы обеспечить максимальное использование подтверждающих фактов для создания вопроса; (iii).Мы вводим метрику автоматической оценки для измерения охвата подтверждающих фактов в сгенерированном вопросе. (iv).Эмпирические результаты показывают, что предлагаемый нами метод превосходит современные однопереходные модели QG по нескольким метрикам автоматической и человеческой оценки в наборе данных HotPotQA.Литературу по генерированию вопросов можно разделить на два класса в зависимости от особенностей, используемых для генерации вопросов.Первый режим состоит из подходов, основанных на правилах BIBREF12, BIBREF1, которые полагаются на созданные человеком функции, такие как информация об именованном объекте и т. д., для использования семантической информации из контекста для генерации вопросов.Во второй категории проблема генерации вопросов рассматривается как задача последовательного обучения BIBREF13, которая включает в себя автоматическое изучение полезных функций из контекста за счет использования огромного объема обучающих данных.Первая модель нейронного кодировщика-декодера для генерации вопросов была предложена в BIBREF2.Однако эта работа не принимает во внимание информацию ответа при создании вопроса.После этого было предложено несколько подходов QG на основе нейронов BIBREF3, BIBREF14, BIBREF15, которые используют информацию о позиции ответа и механизм копирования.BIBREF16 и BIBREF17 продемонстрировали заметное улучшение выполнения задачи QG при обучении в рамках многозадачного обучения.Модель, предложенная BIBREF18, BIBREF19 для контроля качества одного документа, демонстрирует значительное снижение точности при применении в настройках нескольких документов.Этот недостаток однодокументных наборов данных QA устраняется с помощью недавно выпущенных многоскачковых наборов данных BIBREF9, BIBREF10, BIBREF11.которые способствуют многоэтапному выводу из нескольких документов.До сих пор наборы данных с несколькими переходами преимущественно использовались для задач генерации ответов BIBREF20, BIBREF21, BIBREF22.Нашу работу можно рассматривать как продолжение метода генерации вопросов с одним переходом, когда нетривиальное количество подтверждающих фактов разбросано по нескольким документам.При генерации вопросов с несколькими переходами мы рассматриваем список документов $L$, содержащий $n_L$ документов, и ответ из $m$ слов $A$.Пусть общее количество слов во всех документах $D_i\in L$ вместе взятых равно $N$. Пусть список документов $L$ содержит в общей сложности $K$ предложений-кандидатов $CS=\lbrace S_1, S_2, \ldots , S_K\rbrace $ и набор подтверждающих фактов $SF$ таких, что $SF \in CS$.Ответ $A=\lbrace w_{D_k^{a_1}} , w_{D_k^{a_2}}, \ldots , w_{D_k^{a_m}} \rbrace $ представляет собой текстовый диапазон длиной $m$ в одном документов $D_k\in L$.Наша задача — сгенерировать последовательность вопросов из $n_Q$-слов $\hat{Q}= \lbrace y_1, y_2, \ldots , y_{n_Q} \rbrace $, ответ которой основан на подтверждающих фактах $SF$ в списке документов. $L$. Предлагаемая нами модель генерации вопросов с несколькими шагами изображена на рисунке FigREF2. В этом разделе мы обсуждаем различные компоненты предлагаемой нами модели QG с несколькими шагами.Предлагаемая нами модель состоит из четырех компонентов (i).Кодировщик документов и ответов, который кодирует список документов и ответов для дальнейшего создания вопроса, (ii).Многозадачное обучение для облегчения модели QG для автоматического выбора подтверждающих фактов для создания вопроса, (iii).Декодер вопросов, который генерирует вопросы с использованием механизма генератора указателей и (iv).Компонент QG с поддержкой MultiHop, который заставляет модель генерировать те вопросы, которые могут максимизировать вознаграждение, основанное на прогнозировании подтверждающих фактов.Кодер модели Multi-Hop QG кодирует ответ и документы с помощью многоуровневой сети Bi-LSTM.Мы представляем функцию маркировки ответов, которая кодирует информацию об относительном положении ответа в списке документов.Функция маркировки ответов представляет собой список длиной $N$ вектора размерности $d_1$, где каждый элемент имеет значение тега 0 или 1.Элементы, соответствующие словам в текстовом диапазоне ответа, имеют значение тега 1, в противном случае значение тега равно 0.Мы сопоставляем эти теги со встраиванием измерения $d_1$. Мы представляем функции кодирования ответов с помощью $\lbrace a_1, \ldots, a_N\rbrace $. Чтобы закодировать список документов $L$, мы сначала объединяем все документы $D_k \in L$, в результате чего получается список из $N$. слова.Каждое слово в этом списке затем отображается в $d_2$-мерное слово, встраивающее $u \in \mathbb {R}^{d_2}$. Затем мы объединяем вложения слов документа с функциями кодирования ответа и передаем их двунаправленному кодировщику LSTM $\lbrace LSTM^{fwd}, LSTM^{bwd}\rbrace $. Мы вычисляем прямые скрытые состояния $\vec{z }_{t}$ и обратные скрытые состояния $ \scalebox {-1}[1]{\vec{\scalebox {-1}[1]{z}}}_{t}$ и объедините их, чтобы получить последнее скрытое состояние $z_{t}=[\vec{z}_{t} \oplus \scalebox {-1}[1]{\vec{\scalebox {-1}[1]{z}}}_{t}]$.Сеть прогнозирования подтверждающих фактов с учетом ответов (скоро будет представлена) принимает закодированное представление в качестве входных данных и предсказывает, является ли предложение-кандидат подтверждающим фактом или нет.Мы представляем прогнозы с помощью $p_1, p_2, \ldots, p_K$. Подобно кодированию ответа, мы сопоставляем каждое предсказание $p_i$ с вектором $v_i$ размерности $d_3$. Предложение-кандидат $S_i$ содержит $n_i$ количество слов.В заданном списке документов $L$ имеется $K$ предложений-кандидатов таких, что $\sum _{i=1}^{i=K} n_i = N$. Мы генерируем подтверждающий факт, кодирующий $sf_i \in \mathbb {R}^{n_i \times d_3}$ для предложения-кандидата $S_i$ следующим образом: где $e_{n_i} \in \mathbb {R}^{n_i} $ — вектор единиц.Строки $sf_i$ обозначают кодировку подтверждающего факта слова, присутствующего в предложении-кандидате $S_i$. Обозначаем подтверждающие факты кодирования слова $w_t$ в списке документов $L$ через $s_t \in \mathbb {R}^{d_3}$. Поскольку мы также имеем дело с предсказаниями вспомогательных фактов с учетом ответов в многозадачной обстановке, поэтому, чтобы получить представление кодера, индуцированное вспомогательными фактами, мы вводим еще один уровень Bi-LSTM.Подобно первому уровню кодирования, мы объединяем прямое и обратное скрытое состояние, чтобы получить окончательное представление скрытого состояния.Мы вводим задачу прогнозирования вспомогательных фактов с учетом ответов, чтобы обеспечить кодер модели QG информацией вспомогательных фактов.Многозадачное обучение позволяет модели QG автоматически выбирать подтверждающие факты, обусловленные данным ответом.Это достигается за счет использования многозадачной среды обучения, в которой сеть прогнозирования вспомогательных фактов с учетом ответов и многоступенчатая QG используют общий кодировщик документов (раздел SECREF8).Сеть принимает закодированное представление каждого предложения-кандидата $S_i \in CS$ в качестве входных данных и прогнозирует по предложениям подтверждающие факты.Точнее, мы объединяем первое и последнее скрытое представление состояния каждого предложения-кандидата из выходных данных кодера и пропускаем его через полностью связный уровень, который выводит сигмовидную вероятность того, что предложение является подтверждающим фактом.Архитектура этой сети показана на рисунке FigREF2 (слева).Затем эта сеть обучается с помощью потери двоичной перекрестной энтропии и меток фактов, подтверждающих основную истину: где $N$ — номер списка документов, $S$ — количество предложений-кандидатов в конкретном обучающем примере, $\delta _i^ j$ и $p_i^{j}$ представляют собой метку фактов, подтверждающих основную истину, и выходную сигмовидную вероятность соответственно.Мы используем сеть LSTM с механизмом глобального внимания BIBREF23 для генерации вопроса $\hat{Q} = \lbrace y_1, y_2, \ldots, y_m\rbrace $ по одному слову за раз.Мы используем механизм копирования BIBREF24, BIBREF25 для работы с редкими или неизвестными словами.На каждом временном шаге $t$ распределение внимания $\alpha _t$ и вектор контекста $c_t$ получаются с использованием следующих уравнений: Распределение вероятностей по словарю вопросов затем вычисляется как, где $\mathbf {W_q}$ — это весовая матрица.Вероятность выбора (генерации) слова из фиксированных слов словаря или вероятность не копирования слова из списка документов $L$ в заданный момент времени $t$ вычисляется по следующему уравнению: где, $\mathbf { W_a}$ и $\mathbf {W_b}$ — весовые матрицы, а $\sigma $ представляет сигмовидную функцию.Распределение вероятностей по словам в документе вычисляется путем суммирования всех оценок внимания соответствующих слов: где $\mathbf {1}\lbrace w==w_i\rbrace $ обозначает вектор длины $N$, имеющий значение 1, где $w==w_i$, иначе 0.Окончательное распределение вероятностей по динамическому словарю (словарь документов и вопросов) рассчитывается следующим образом: мы вводим функцию вознаграждения на основе обучения с подкреплением и алгоритм последовательного обучения для обучения сети RL.Предложенная функция вознаграждения заставляет модель генерировать те вопросы, которые могут максимизировать вознаграждение.Наша функция вознаграждения — это нейронная сеть, мы называем ее сетью прогнозирования подтверждающих фактов с учетом вопросов.Мы обучаем нашу функцию вознаграждения на основе нейронной сети для задачи прогнозирования вспомогательных фактов на наборе данных HotPotQA.Эта сеть принимает на вход список документов $L$ и сгенерированный вопрос $\hat{Q}$ и прогнозирует вероятность подтверждающего факта для каждого предложения-кандидата.Эта модель включает в себя последние технические достижения в области ответов на вопросы, в том числе модели уровня персонажа, самовнимание BIBREF26 и двойное внимание BIBREF18.Сетевая архитектура модели прогнозирования подтверждающих фактов аналогична BIBREF11, как показано на рисунке FigREF2 (справа).Для каждого предложения-кандидата в списке документов мы объединяем выходные данные слоя самообслуживания в первой и последней позициях и используем двоичный линейный классификатор, чтобы предсказать вероятность того, что текущее предложение является подтверждающим фактом.Эта сеть предварительно обучена на наборе данных HotPotQA с использованием двоичной перекрестной энтропии.Для каждого сгенерированного вопроса мы вычисляем оценку F1 (в качестве награды) между фактами, подтверждающими основную истину, и прогнозируемыми подтверждающими фактами.Предполагается, что это вознаграждение следует использовать осторожно, поскольку модель QG может обмануть, жадно копируя слова из подтверждающих фактов в сгенерированный вопрос.В этом случае, даже если достигается высокий MER, модель теряет способность генерировать вопросы.Чтобы справиться с этой ситуацией, мы упорядочиваем эту функцию вознаграждения с помощью дополнительной награды Rouge-L, которая позволяет избежать процесса жадного копирования слов из подтверждающих фактов, обеспечивая соответствие содержания между основной истиной и сгенерированным вопросом.Мы также экспериментируем с BLEU в качестве дополнительной награды, но Rouge-L в качестве награды превосходит функцию вознаграждения BLEU.Мы используем алгоритм REINFORCE BIBREF27 для изучения политики, определяемой параметрами модели генерации вопросов, которая может максимизировать наши ожидаемые вознаграждения.Чтобы избежать проблемы высокой дисперсии в средстве оценки REINFORCE, для обучения последовательностей, использующего оценку жадного декодирования в качестве базовой линии, используется структура самокритического обучения последовательностей (SCST) BIBREF28.В SCST во время обучения создаются две выходные последовательности: $y^{s}$, полученные путем выборки из распределения вероятностей $P(y^s_t | y^s_1, \ldots , y^s_{t-1}, \mathcal {D})$ и $y^g$ — выходная последовательность жадного декодирования.Мы определяем $r(y,y^*)$ как вознаграждение, полученное за выходную последовательность $y$, когда основная последовательность истинности равна $y^*$. Потери SCST можно записать как, где $R= \sum _{t=1}^{n^{\prime }} \log P(y^s_t | y^s_1, \ldots , y^s_{t -1}, \mathcal {D}) $.Однако метод жадного декодирования учитывает вероятность только одного слова, тогда как выборка учитывает вероятности всех слов в словаре.Из-за этого жадное вознаграждение $r(y^{g},y^*)$ имеет более высокую дисперсию, чем вознаграждение за выборку Монте-Карло $r(y^{s}, y^*)$, и их разрыв также равен очень нестабильный.Мы экспериментируем с потерей SCST и наблюдаем, что жадная стратегия приводит к нестабильности SCST в процессе обучения.Для этого мы вводим коэффициент истории веса, аналогичный BIBREF29.Фактор истории — это соотношение среднего вознаграждения за выборку и среднего вознаграждения жадной стратегии на предыдущих $k$ итерациях.Мы обновляем функцию потерь SCST следующим образом: где $\alpha$ — гиперпараметр, $t$ — текущая итерация, $h$ — определяется историей, для оценки используется количество предыдущих наград.Знаменатель фактора истории используется для нормализации текущего жадного вознаграждения $ r(y^{g},y^*)$ со средним жадным вознаграждением предыдущих $h$ итераций.Числитель фактора истории гарантирует, что жадное вознаграждение будет иметь такую же величину, что и среднее выборочное вознаграждение предыдущих итераций $h$.С $y^* = \lbrace y^*_1, y^*_2, \ldots , y^*_{m}\rbrace $ в качестве основной выходной последовательности для данной входной последовательности $D$, максимальное Цель обучения вероятности может быть записана как: Мы используем функцию обучения со смешанными целями BIBREF32, BIBREF33 для обучения окончательной сети: где $\gamma _1$, $\gamma _2$ и $\gamma _3$ соответствуют весам $ \mathcal {L}_{rl}$, $\mathcal {L}_{ml}$ и $\mathcal {L}_{sp}$ соответственно.В наших экспериментах мы используем один и тот же словарь как для кодера, так и для декодера.Наш словарный запас состоит из 50 000 наиболее часто встречающихся слов из данных обучения.Мы используем набор данных разработки для настройки гиперпараметров.Предварительно обученные внедрения GloVe BIBREF34 размером 300 используются на этапе кодирования документа.Скрытый размер всех ячеек LSTM установлен на 512.Функции маркировки ответов и функции положения подтверждающих фактов встроены в трехмерные векторы.Вероятность выпадения BIBREF35 $p$ установлена равной $0,3$. Размер луча установлен на 4 для поиска луча.Мы инициализируем параметры модели случайным образом, используя распределение Гаусса со схемой Ксавье BIBREF36.Сначала мы предварительно обучаем сеть, минимизируя только потери максимального правдоподобия (ML).Затем мы инициализируем нашу модель с предварительно обученными весами ML и обучаем сеть с помощью функции обучения со смешанными целями.Оптимальными признаны следующие значения гиперпараметров: (i) $\gamma _1=0.99$, $\gamma _2=0.01$, $\gamma _3=0.1$, (ii) $d_1=300$, $d_2= d_3=3$, (iii) $\alpha =0.9, \beta = 10$, $h=5000$. Оптимизатор Adam BIBREF37 используется для обучения модели с (i) $ \beta _{1} = 0,9 $, (ii) $ \beta _{2} = 0,999 $ и (iii) $ \epsilon =10^{- 8} $.Для обучения MTL-QG начальная ставка обучения установлена на уровне 0,01 доллара США. Для обучения предлагаемой нами модели скорость обучения установлена на уровне 0,00001 доллара США. Мы также применяем обрезку градиента BIBREF38 с диапазоном $.[-5, 5] $.Для оценки наших методов мы используем набор данных HotPotQA BIBREF11.Этот набор данных состоит из более чем 113 тысяч пар вопросов и ответов на основе Википедии, причем каждый вопрос требует многоэтапного рассуждения в нескольких подтверждающих документах, чтобы получить ответ.Несмотря на то, что существуют другие многоскачковые наборы данных BIBREF9, BIBREF10, только набор данных HotPotQA предоставляет метки основной истины на уровне предложений для поиска подтверждающих фактов в списке документов.Мы объединяем обучающий набор (90 564 доллара США) и набор разработки (7 405 долларов США) и случайным образом разделяем полученные данные: 80% на обучение, 10% на разработку, 10% на тестирование.Мы проводим эксперименты по оценке эффективности предложенных нами и других методов QG, используя оценочные метрики: BLEU-1, BLEU-2, BLEU-3, BLEU-4 BIBREF39, ROUGE-L BIBREF40 и METEOR BIBREF41. Метрика для MultiHoping в QG:Чтобы оценить возможности многошаговой модели генерации вопросов, мы вводим дополнительную метрику покрытия SF, которая измеряется с точки зрения оценки F1.Эта метрика аналогична MultiHop-Enhanced Reward, где мы используем сеть прогнозирования подтверждающих фактов с учетом вопросов, которая принимает сгенерированный вопрос и список документов в качестве входных данных и прогнозирует подтверждающие факты.Оценка F1 измеряет среднее перекрытие между прогнозируемыми и достоверными подтверждающими фактами, рассчитанными в BIBREF11. Сначала мы опишем некоторые варианты предложенной нами модели MultiHop-QG. (1) SharedEncoder-QG:Это расширение модели NQG BIBREF30 с общим кодировщиком для QG и поддержкой задач прогнозирования фактов с учетом ответов.Эта модель является вариантом предложенной нами модели, в которой мы кодируем список документов с помощью двухуровневого Bi-LSTM, который используется обеими задачами.Входными данными для общего Bi-LSTM является кодирование слов и ответов, как показано в уравнении. DISPLAY_FORM9.Декодер представляет собой одноуровневый LSTM, который генерирует многоскачковый вопрос. (2) MTL-QG:Этот вариант похож на SharedEncoder-QG, здесь мы представляем еще один уровень Bi-LSTM, который включает встраивание вопросов, ответов и подтверждающих фактов, как показано в уравнении. DISPLAY_FORM11. Результаты автоматической оценки предложенного нами метода, базовые показатели и современная модель генерации вопросов с одним переходом на тестовом наборе HotPotQA показаны в таблице TABREF26.Улучшения производительности с помощью предложенной нами модели по сравнению с базовыми и современными моделями статистически значимы как $(p <0,005)$.Для модели прогнозирования подтверждающих фактов с учетом вопросов (см. SECREF21) мы получаем оценки F1 и EM в размере $84,49$ и $44,20$ соответственно в наборе данных разработки HotPotQA.Мы не можем напрямую сравнить результат (21,17 доллара США BLEU-4) с набором данных HotPotQA, представленным в BIBREF44, поскольку разделение их наборов данных отличается, и для генерации вопросов они используют только основные факты, подтверждающие истину.Мы также измеряем многократное переключение с точки зрения покрытия SF и сообщаем результаты в таблицах TABREF26 и TABREF27.Мы достигаем максимальной производительности на уровне $80,41$ F1 по основным вопросам набора тестовых данных HotPotQA. Наши результаты в таблице TABREF26 согласуются с BIBREF3, BIBREF14, BIBREF30, которые устанавливают тот факт, что предоставление функций маркировки ответов в качестве входных данных к значительному улучшению производительности системы QG.Наша модель SharedEncoder-QG, которая является вариантом предложенной нами модели MultiHop-QG, превосходит все базовые современные модели, за исключением Semantic-Reinforced.Предлагаемая модель MultiHop-QG обеспечивает абсолютное улучшение на 4,02 доллара и 3,18 доллара по сравнению с моделями NQG и Max-out Pointer соответственно с точки зрения метрики BLEU-4.Чтобы проанализировать вклад каждого компонента предложенной модели, мы проводим исследование абляции, представленное в таблице TABREF27.Наши результаты показывают, что обеспечение многозадачного обучения с помощью общего кодировщика помогает модели улучшить производительность QG с $19,55 до $20,64 $ BLEU-4.Введение подтверждающей фактической информации, полученной в результате задачи прогнозирования подтверждающих фактов с учетом ответов, еще больше повышает производительность QG с $20,64 до $21,28 $ BLEU-4.Совместное обучение QG с прогнозированием подтверждающих фактов обеспечивает более строгий контроль за выявлением и использованием информации, подтверждающей факты.Другими словами, используя общий кодировщик документов для обеих задач, сеть обеспечивает лучшее представление (с учетом фактов) входного документа.Такое представление способно эффективно отфильтровывать ненужную информацию при обработке нескольких документов и выполнять многошаговое рассуждение для генерации вопросов.Кроме того, MultiHop-Enhanced Reward (MER) с вознаграждением Rouge обеспечивает значительный прогресс в показателях автоматической оценки.Мы показали примеры в таблице TABREF31, где предлагаемое нами вознаграждение помогает модели максимально использовать все подтверждающие факты для генерации более качественных вопросов, похожих на человеческие.В первом примере модель, основанная на вознаграждении Rouge-L, игнорирует информацию о «втором чешском композиторе» из первого подтверждающего факта, тогда как наша предлагаемая модель, основанная на вознаграждении MER, учитывает это для генерации вопроса.Аналогичным образом, во втором примере наша модель рассматривает информацию о «расположении неиспользуемой станции» на основании подтверждающего факта, тогда как первая модель игнорирует ее при создании вопроса.Мы также сравниваем вопросы, созданные с помощью NQG и предлагаемого нами метода, с вопросами, определяющими основную истину.Человеческая оценка:Для человеческой оценки мы напрямую сравниваем эффективность предлагаемого подхода с моделью NQG.Мы случайным образом выбираем 100 троек «документ-вопрос-ответ» из тестового набора и просим четырех профессиональных носителей английского языка оценить их.Мы рассматриваем три модальности: естественность, которая указывает на грамматику и беглость речи; сложность, которая измеряет синтаксическое расхождение документа и вопроса и аргументацию, необходимую для ответа на вопрос, а также охват SF, аналогичный метрике, обсуждаемой в разделе SECREF4, за исключением того, что мы заменяем сеть прогнозирования подтверждающих фактов оценщиком-человеком и измеряем относительный охват подтверждающих фактов по сравнению с подтверждающими фактами.Измерьте относительный охват подтверждающих фактов в вопросах относительно основных фактов, подтверждающих истину.Охват научной фантастики позволяет оценить степень подтверждающих фактов, используемых для создания вопросов.Для первых двух методов оценщикам предлагается оценить работу генератора вопросов по шкале от 1 до 5 (5 – лучший результат).Чтобы оценить показатель охвата SF, оценщикам предлагается выделить подтверждающие факты из документов на основе сгенерированного вопроса.Мы указали средние баллы всех оценщиков по каждому критерию в таблице TABREF28.Предлагаемый подход способен генерировать лучшие вопросы с точки зрения сложности, естественности и охвата НФ по сравнению с моделью NQG.В этой статье мы представили задачу генерации вопросов с несколькими переходами, которая расширяет парадигму генерации вопросов на естественном языке на контроль качества нескольких документов.После этого мы представляем новую формулировку вознаграждения, позволяющую улучшить генерацию многоступенчатых вопросов с использованием рамок подкрепления и многозадачного обучения.Предлагаемый нами метод работает значительно лучше, чем современные системы генерации вопросов в наборе данных HotPotQA.Мы также представляем SF Coverage, оценочный показатель для сравнения производительности систем генерации вопросов на основе их способности накапливать информацию из различных документов.В целом, мы предлагаем новое направление исследований в области генерации вопросов, имеющее несколько практических применений.В будущем мы сосредоточимся на повышении производительности генерации многоступенчатых вопросов без какого-либо строгого контроля подтверждающих фактов. | Генерация вопросов (QG) пытается решить проблему, обратную проблеме ответа на вопрос (QA), путем генерации вопроса на естественном языке с учетом документа и ответа. Хотя последовательность нейронных моделей превосходит системы, основанные на правилах, для QG, они ограничены в своей способности сосредоточиться более чем на одном подтверждающем факте. Для QG нам часто требуется несколько подтверждающих фактов для создания качественных вопросов. Вдохновленные недавними работами по многошаговому рассуждению в QA, мы занимаемся генерацией вопросов с несколькими шагами, целью которой является создание соответствующих вопросов на основе подтверждающих фактов в контексте. Мы используем многозадачное обучение со вспомогательной задачей прогнозирования фактов с учетом ответов для управления генератором вопросов. Кроме того, мы также предложили функцию вознаграждения с учетом вопросов в рамках обучения с подкреплением (RL), чтобы максимизировать использование подтверждающих фактов. Мы демонстрируем эффективность нашего подхода посредством экспериментов с набором данных ответов на вопросы с несколькими переходами HotPotQA. Эмпирическая оценка показывает, что наша модель превосходит модели одношаговой нейронной генерации вопросов как по метрикам автоматической оценки, таким как BLEU, METEOR и ROUGE, так и по метрикам человеческой оценки качества и охвата сгенерированных вопросов. | 4,667 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Система глубокого преобразования текста в речь с моделью Seq2Seq. Традиционные системы преобразования текста в речь (TTS) состоят из сложных конвейеров BIBREF0, они часто включают в себя акустические интерфейсы, модель продолжительности, модель акустического прогнозирования и модели вокодера.Сложность проблемы TTS в сочетании с необходимостью глубокого знания предметной области означает, что эти системы часто имеют хрупкую конструкцию и приводят к неестественной синтезированной речи.Недавнее стремление использовать глубокие сквозные архитектуры TTS BIBREF1 BIBREF2, которые можно обучать на парах <текст, аудио>, показывает, что глубокие нейронные сети действительно могут использоваться для синтеза реалистично звучащей речи, в то же время устраняя необходимость для сложных подсистем, которые необходимо разрабатывать и обучать отдельно.Проблему TTS можно охарактеризовать как проблему инверсии сигнала: учитывая сильно сжатый исходный сигнал (текст), нам необходимо инвертировать или «распаковать» его в аудио.Это сложная проблема, поскольку один и тот же текст можно произнести разными способами.Кроме того, в отличие от сквозного перевода или распознавания речи, выходные данные TTS являются непрерывными, а выходные последовательности намного длиннее, чем входные.Недавние работы по нейронным TTS можно разделить на два лагеря, в одном лагере используются модели Seq2Seq с рекуррентной архитектурой BIBREF1 BIBREF3.В другом лагере используются полные сверточные модели Seq2Seq BIBREF2.Наша модель принадлежит к первому из этих классов, использующих рекуррентные архитектуры.В частности, мы вносим следующий вклад: За последние два года нейронные системы преобразования текста в речь вызвали большой исследовательский интерес.Первой, кто полностью изучил это направление исследований, была система Tacotron BIBREF1 от Google.Их архитектура основана на оригинальной платформе Seq2Seq.В дополнение к RNN кодировщика/декодера из оригинального Seq2Seq, они также включали модуль Prenet с узким местом, называемый CBHG, который состоит из наборов одномерных сетей свертки, за которыми следуют остаточные слои шоссе.Механизм внимания соответствует исходному механизму Seq2Seq BIBREF7 (часто называемому вниманием Багданау).Это первая работа, предлагающая обучение модели Seq2Seq для преобразования текста в mel-спектрограмму, которую затем можно преобразовать в аудио WAV с помощью итеративных алгоритмов, таких как Griffin Lim BIBREF8. Параллельная работа по изучению архитектуры Seq2Seq RNN для преобразования текста в речь называлась Char2Wav BIBREF3 .В этой работе использовалась очень похожая архитектура Seq2Seq на основе RNN, хотя и без каких-либо модулей Prenet.Механизм внимания — это внимание модели смеси Гуасса (GMM) из работы Алекса Грейва.Их модель сопоставила текстовую последовательность с 80 размерными векторами, используемыми для WORLD Vocoder BIBREF9, который инвертирует эти векторы в звуковую волну.Совсем недавно полностью сверточная архитектура Seq2Seq была исследована Baidu Research BIBREF2 BIBREF10.Архитектура deepvoice состоит из причинно-следственных одномерных слоев свертки как для кодера, так и для декодера.Они использовали внимание к ключам запросов, аналогичное тому, которое использовалось в архитектуре преобразователя BIBREF5.была предложена полностью сверточная архитектура Seq2Seq, известная как DCTTS BIBREF6.В этой архитектуре они используют модули, состоящие из слоев причинной одномерной свертки в сочетании с сетями шоссе.Кроме того, они представили методы, помогающие на раннем этапе концентрировать внимание.А также механизм принудительного увеличения внимания, который обеспечивает монотонное увеличение внимания, читаемого по мере декодирования модели во время вывода.В архитектуре нашей модели используется модель Seq2Seq на основе RNN для создания мел-спектрограммы из текста.Архитектура аналогична таковой у Tacotron 2 BIBREF4.Сгенерированная мел-спетрограмма может быть инвертирована либо с помощью итеративных алгоритмов, таких как Griffin Lim, либо с помощью более сложных нейронных вокодерных сетей, таких как обусловленная мел-спектрограмма.Вейвнет BIBREF11На рисунке FigREF3 ниже показана общая архитектура нашей модели.Кодер кодирует входную текстовую последовательность в компактное скрытое представление, которое используется декодером на каждом этапе декодирования.Кодер состоит из слоя внедрения INLINEFORM0 -dim, который отображает входную последовательность в плотный вектор.Далее следует однослойный двунаправленный LSTM/GRU со скрытым размером INLINEFORM1 (суммарное скрытое затемнение INLINEFORM2 для обоих направлений).два слоя линейных проекций проецируют скрытый вывод LSTM/GRU в два вектора INLINEFORM3 и INLINEFORM4 одного и того же измерения INLINEFORM5, это векторы ключа и значения.DISPLAYFORM0, где INLINEFORM0. Запрос ключа внимания аналогичен запросу из преобразователей BIBREF5.Учитывая INLINEFORM0 и INLINEFORM1 от кодера, запрос INLINEFORM2 вычисляется на основе линейного преобразования конкатенации предыдущего скрытого состояния декодера-rnn, INLINEFORM3, в сочетании со скрытым состоянием внимания-rnn, INLINEFORM4).DISPLAYFORM0 Учитывая INLINEFORM0 , INLINEFORM1 , INLINEFORM2 , внимание на каждом этапе декодирования вычисляется с помощью операции масштабированного скалярного произведения следующим образом: DISPLAYFORM0 Обратите внимание, что подобно преобразователям BIBREF5 мы применяем масштабирование скалярного произведения с помощью INLINEFORM0, чтобы предотвратить функцию softmax в областях, где он имеет чрезвычайно малые градиенты.Декодер представляет собой авторегрессионную рекуррентную нейронную сеть, которая прогнозирует мел-спектрограмму на основе закодированного входного предложения по одному кадру за раз.Декодер декодирует скрытое представление от кодера под руководством внимания.Декодер состоит из двух однонаправленных LSTM/GRU со скрытыми измерениями INLINEFORM0.Первый LSTM/GRU, называемый AttentionRNN, предназначен для вычисления элементов, связанных с механизмом внимания, таких как запрос внимания INLINEFORM1.DISPLAYFORM0 Второй LSTM/GRU, DecoderRNN, используется для вычисления скрытого вывода декодера, INLINEFORM0.DISPLAYFORM0 Двухслойный плотный пресет с размерами (256,256) проецирует выходные данные предыдущей мел-спектрограммы INLINEFORM0 в скрытое измерение INLINEFORM1.Подобно Tacotron 2, пренет действует как узкое место в информации, помогая создать полезное представление для последующего механизма внимания.Наша модель отличается от Tacotron 2 тем, что мы совместно проецируем 5 последовательных мел-кадров одновременно в наше скрытое представление, что происходит быстрее и в отличие от Tacotron 2, который проецирует по одному мел-кадру за раз.Скрытое состояние INLINEFORM0 декодера RNN также проецируется на спектрограмму INLINEFORM1.Остаточная пост-сеть, состоящая из двух плотных слоев, за которыми следует функция активации tanh, также проецирует то же самое скрытое состояние декодера INLINEFORM2 в мел-спектрограмму INLINEFORM3, которое добавляется к линейно проецируемому мел-спектрограмме INLINEFORM4 для создания окончательной мел-спектрограммы INLINEFORM5.DISPLAYFORM0 Линейная спектрограмма INLINEFORM0 также вычисляется из линейной проекции скрытого состояния декодера INLINEFORM1.Это действует как дополнительное условие для скрытого входа декодера.DISPLAYFORM0 Один скалярный стоп-токен вычисляется на основе линейной проекции скрытого состояния декодера INLINEFORM0 на скаляр, за которым следует INLINEFORM1, или сигмовидную функцию.Этот токен остановки позволяет модели узнать, когда следует прекратить декодирование во время вывода.Если во время вывода вывод токена остановки равен INLINEFORM2 , мы прекращаем декодирование.DISPLAYFORM0 Общие потери в модели рассчитываются как сумма потерь трех компонентов: 1. Среднеквадратическая ошибка (MSE) предсказанной и истинной мел-спектрограммы 2.MSE линейной спектрограммы 3.Двоичная перекрестная энтропийная потеря нашего стоп-токена.Оптимизатор Адама используется для оптимизации модели со скоростью обучения INLINEFORM0. Модель обучается с помощью преподавателя, при этом на каждом этапе декодирования предоставляется истинная мел-спектрограмма вместо собственной предсказанной мел-спектрограммы модели.Чтобы гарантировать, что модель может обучаться в долгосрочных последовательностях, коэффициент воздействия учителей изменяется от 1,0 (полное воздействие учителей) до 0,2 (20 процентов воздействия учителей) в течение 300 эпох.Предлагаемые нами улучшения основаны на наблюдении, что использование общих моделей Seq2seq для применения TTS упускает из виду дальнейшую оптимизацию, которой можно достичь, если рассматривать конкретную проблему TTS.В частности, мы замечаем, что в TTS, в отличие от таких приложений, как машинный перевод, механизм внимания Seq2Seq должен быть в основном монотонным.Другими словами, когда кто-то читает последовательность текста, естественно предположить, что положение текста изменяется почти линейно во времени с последовательностью выходной мел-спектрограммы.Благодаря этому пониманию мы можем внести в модель три модификации, которые позволят нам тренироваться быстрее, используя модель меньшего размера.В оригинальном Tacotron 2 использовался механизм внимания, чувствительный к местоположению, BIBREF12, сочетающий в себе исходную добавку Seq2Seq BIBREF7, внимание Багданау.Мы предлагаем заменить это внимание более простым запросно-ключевым вниманием из модели преобразователя.Как упоминалось ранее, поскольку для TTS механизм внимания является более простой задачей, чем, скажем, машинный перевод, мы используем внимание по ключу запроса, поскольку оно просто реализовать и требует меньше параметров, чем исходное внимание Багданау.Следуя приведенной выше логике, мы используем аналогичный метод из BIBREF6, который добавляет дополнительную управляемую потерю внимания к общей цели потери, что помогает механизму внимания стать монотонным как можно раньше.Как видно из фиг.24, создается маска потери внимания INLINEFORM0, применяющая потерю, чтобы заставить выравнивание внимания INLINEFORM1 быть почти диагональным.То есть: DISPLAYFORM0 Где INLINEFORM0 , INLINEFORM1 — это INLINEFORM2-й символ, INLINEFORM3 — максимальная длина символа, INLINEFORM4 — это INLINEFORM5-й мел-кадр, INLINEFORM6 — это максимальный мел-кадр, а INLINEFORM7 установлено на 0,2.Эта модификация значительно ускоряет согласование внимания и сходимость модели.На рисунке 3 ниже результаты показаны визуально.Два изображения представляют собой сравнение внимания модели после 10 тысяч шагов обучения.Изображение слева обучено с использованием маски внимания, а изображение справа — нет.Мы видим, что с маской внимания чёткая настройка внимания достигается гораздо быстрее.Во время вывода внимание INLINEFORM0 иногда пропускает несколько символов или останавливается на одном и том же символе для нескольких выходных кадров.Чтобы сделать генерацию более надежной, мы модифицируем INLINEFORM1 во время вывода, чтобы он был диагональным.Принудительное возрастающее внимание реализуется следующим образом:Учитывая INLINEFORM0, позицию символа, прочитанного в INLINEFORM1 -м временном интервале, где INLINEFORM2, если INLINEFORM3, текущее внимание принудительно устанавливается на INLINEFORM4, так что внимание является инкрементальным, т.е. INLINEFORM5. Для обучения нашего TTS использовался набор данных LJSpeech с открытым исходным кодом. модель.Этот набор данных содержит около 13 тысяч пар <текст, аудио> одной англоговорящей женщины, собранных из 7 различных научно-популярных книг.Общее время обучения составляет около 21 часа аудио.Следует отметить, что, поскольку это аудио с открытым исходным кодом, записанное в полупрофессиональных условиях, качество звука не такое хорошее, как у проприетарных внутренних данных Google или Baidu.Как и в большинстве случаев глубокого обучения, чем лучше данные, тем лучше модель и результаты.Наша модель обучалась в течение 300 эпох с размером пакета 32.В качестве базового сравнения мы использовали предварительно обученную реализацию Tactron 2 с открытым исходным кодом (https://github.com/NVIDIA/tacotron2).Обратите внимание, что эта версия с открытым исходным кодом обучается гораздо дольше (около 1000 эпох), однако из-за наших ограниченных вычислительных ресурсов мы обучали нашу модель только до 300 эпох. Мы решили оценить нашу модель по сравнению с предыдущими базовыми показателями по двум направлениям: средний балл опций (MOS) и скорость обучения.Типичная оценка системы TTS проводится с использованием среднего балла мнения (MOS).Для расчета этой оценки многие образцы системы TTS передаются оценщикам и оцениваются по шкале от 1 (Плохо) до 5 (Отлично).Затем MOS рассчитывается как среднее арифметическое этих оценок: DISPLAYFORM0, где INLINEFORM0 — индивидуальные оценки для данной выборки N субъектов.Для моделей TTS от Google и Baidu они использовали механический Turk от Amazon для сбора и генерации оценок MOS от большего числа работников.Однако из-за наших ограниченных ресурсов мы решили собрать оценку MOS у друзей и членов семьи (всего 6 человек). Для сравнения времени обучения мы выбираем время обучения, когда выравнивание внимания начинает становиться линейным и четким.Изучив проблемы git в реализации Tacotron 2 с открытым исходным кодом, мы нашли несколько сообщений, в которых пользователи публиковали свою кривую обучения и выравнивание внимания во время обучения (они также использовали размер пакета по умолчанию — 32).Мы использовали их этапы обучения, чтобы примерно оценить время обучения Такотрона 2, когда внимание примерно выравнивается.Для всех других моделей время обучения несопоставимо, поскольку они либо не применяются (например, параметрическая модель), либо не сообщаются (Tacotron griffin lim, Deepvoice 3). Прямое сравнение параметров модели между нашей моделью и такотроном 2 с открытым исходным кодом. наша модель содержит 4,5 миллиона параметров, тогда как Tacotron 2 содержит около 13 миллионов параметров с настройками по умолчанию.Помогая нашей модели быстрее научиться выравниванию внимания, мы можем позволить себе использовать общую модель меньшего размера для достижения аналогичного качества речи.Мы представляем новую архитектуру сквозной нейронной системы преобразования текста в речь.Наша модель основана на архитектуре Seq2seq на основе RNN с вниманием к ключевым запросам.Мы представляем новую маску управляемого внимания, позволяющую повысить скорость обучения модели и в то же время уменьшить ее параметры.Это позволяет нашей модели достигать выравнивания внимания как минимум в 3 раза быстрее, чем предыдущие модели Seq2seq на основе RNN, такие как Tacotron 2.Мы также вводим принудительное увеличение внимания во время синтеза, чтобы предотвратить ошибки выравнивания внимания и позволить модели генерировать связную речь для очень длинных предложений. | Последние тенденции в конвейерах синтеза речи/текста на основе нейронных сетей используют рекуррентные архитектуры Seq2seq, которые могут синтезировать реалистично звучащую речь непосредственно из текстовых символов. Однако эти системы имеют сложную архитектуру и требуют значительного времени для обучения. Мы вносим несколько модификаций в эти архитектуры Seq2seq, которые позволяют сократить время обучения, а также позволяют нам одновременно уменьшить сложность архитектуры модели. Мы показываем, что наша предложенная модель может обеспечить выравнивание внимания гораздо быстрее, чем предыдущие архитектуры, и что хорошее качество звука может быть достигнуто с помощью модели, которая намного меньше по размеру. Пример аудио доступен по адресу https://soundcloud.com/gary-wang-23/sets/tts-samples-for-cmpt-419. | 2,157 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Вложения справочника самообслуживания для распознавания именованных объектов. Распознавание именованных объектов (NER) — это задача пометки соответствующих объектов, таких как человек, местоположение и организация, в неструктурированном тексте.В современном NER доминируют нейронные модели BIBREF0, BIBREF1 в сочетании с контекстными встраиваниями из языковых моделей (LM) BIBREF2, BIBREF3, BIBREF4.LM предварительно обучены на больших объемах неразмеченного текста, что позволяет модели NER использовать синтаксическую и семантическую информацию, полученную с помощью вложений LM.В популярных наборах эталонных данных CoNLL-03 BIBREF5 и Ontonotes 5 BIBREF6 нейронные модели с LM достигли самых современных результатов без функций справочников, в отличие от более ранних подходов, которые в значительной степени полагались на них BIBREF7.Справочники — это списки, содержащие такие объекты, как города, страны и имена людей.Справочники сопоставляются с неструктурированным текстом, чтобы предоставить модели дополнительные функции.Данные для создания справочников доступны на нескольких языках из ресурсов структурированных данных, таких как Википедия, DBpedia BIBREF8 и Wikidata BIBREF9. В этой статье мы предлагаем GazSelfAttn, новый подход к внедрению справочника, который использует самообслуживание и кодирование диапазона соответствия для создания расширенного представления справочника. .Вложения GazSelfAttn объединяются с входными данными в LSTM BIBREF10 или CNN.Уровень последовательности BIBREF11 и комплексное обучение с использованием модели.Кроме того, мы покажем, как извлечь общие справочники из Викиданных, структурированной базы знаний, которая является частью проекта Википедии.Наш вклад заключается в следующем:[topsep=1pt, leftmargin=15pt, itemsep=-1pt]Мы предлагаем новые встраивания справочника, которые используют самообслуживание в сочетании с кодированием диапазона совпадений.Мы улучшаем сопоставление справочника с помощью совпадений с несколькими токенами и одним токеном в одном и том же представлении.Мы демонстрируем, как использовать Викиданные с фильтрацией популярности объектов в качестве ресурса для создания справочников.Оценки GazSelfAttn на наборах данных CoNLL-03 и Ontonotes 5 показывают улучшение показателя F$_1$ по сравнению с базовой моделью с 92,34 до 92,86 и с 89,11 до 89,32 соответственно.Кроме того, мы проводим эксперименты по абляции, чтобы изучить вклад различных компонентов модели.Недавно исследователи добавили географические справочники к моделям нейронных последовательностей.BIBREF12 продемонстрировал небольшие улучшения на больших наборах данных и большие улучшения на небольших наборах данных.BIBREF13 предложил обучить сеть внимательного справочника изучать закономерности названий и диапазоны объектов NER.BIBREF14 продемонстрировал, что обученные модели оценки газеттеров в сочетании со слоем гибридного полумарковского условного случайного поля (HSCRF) улучшают общую производительность.Уровень HSCRF прогнозирует набор диапазонов-кандидатов, которые переоцениваются с использованием модели классификатора справочника.Подход HSCRF отличается от обычного подхода, заключающегося в включении справочников в модель.В отличие от работы BIBREF14, наш GazSelfAttn не требует обучения отдельного классификатора справочника и уровня HSCRF, поэтому наш подход работает с любым стандартным выходным слоем, таким как условное случайное поле (CRF). BIBREF15.BIBREF16 предложил потерю автоматического кодирования вручную. специально разработанные функции, в том числе справочники, для повышения точности.Однако они не обнаружили, что функции справочника значительно повышают точность.Извлечение справочников из источников структурных знаний исследовалось BIBREF17 и BIBREF18.Они использовали пример отношений Википедии как ресурс для создания справочников с классическими моделями машинного обучения.По сравнению с Викиданными, данные, извлеченные из Википедии, меньше по размеру и содержат больше шума.Как и в этой статье, BIBREF19 использовал Викиданные в качестве справочника ресурсов.Однако они не использовали популярность объектов для фильтрации неоднозначных объектов, а функции их модели справочника используют простое горячее кодирование.Мы добавляем внедрения GazSelfAttn в популярную архитектуру модели Neural CRF с внедрениями ELMo LM из BIBREF2.На рисунке FigREF5 изображена модель, которая состоит из вложений слов Glove BIBREF20, Char-CNN BIBREF21, BIBREF1, вложений ELMo, Bi-LSTM и выходного слоя CRF с метками BILOU (начало внутри последней внешней единицы), кодирующими BIBREF22.Обратите внимание, что мы объединяем вложения справочника с входными данными Bi-LSTM.В этом разделе мы рассматриваем проблему создания высококачественного справочника-словаря $M$, который сопоставляет сущности с типами, например, $M$[Andy Murray] $\rightarrow $ Person.В этой работе мы используем Викиданные, структурированную базу знаний с открытым исходным кодом, в качестве источника географических справочников.Хотя Викиданные и DBpedia представляют собой схожие базы знаний, мы выбираем Викиданные, потому что по состоянию на 2019 год они предоставляют данные примерно о 45 миллионах объектов по сравнению с примерно 5 миллионами в DBpedia.Викиданные организованы в виде объектов и свойств.Сущности могут быть конкретными (Бостон, НАТО, Майкл Джордан) и абстрактными (Город, Организация, Человек).Свойства описывают отношения сущностей.Например, Бостон, экземпляр_Сити, и Бостон, часть_Массачусетса; оба экземпляра_of и part_of являются свойствами.Кроме того, каждый объект связан со счетчиком дополнительных ссылок, который учитывает упоминания объекта на веб-сайте Викимедиа и может использоваться в качестве показателя популярности.Чтобы извлечь справочники из Викиданных, мы обрабатываем официальные дампы в кортежи сущности и типа, основываясь только на левой и правой части триплета экземпляра_of, примерами результирующих кортежей являются Бостон $\rightarrow$ City и Массачусетс $\rightarrow$ State.Каждая сущность связана с набором псевдонимов, мы сохраняем только псевдонимы длиной менее семи токенов.Примеры псевдонимов Бостона: «Бинтаун» и «Колыбель свободы».Если для каждого псевдонима существует несколько типов, мы используем количество дополнительных ссылок, чтобы сохранить шесть наиболее популярных типов.Фильтрация дополнительных ссылок важна для уменьшения редкого значения объекта в данных справочника.Типы Викиданных, которые мы получаем после обработки дампов Викиданных, являются мелкозернистыми.Однако для некоторых задач NER требуются грубые типы.Например, задача CoNLL-03 имеет одну метку местоположения, состоящую из городов, штатов, стран и других географических местоположений.Чтобы перейти от детальных типов к более грубым, мы используем иерархическую структуру Викиданных, созданную свойством subclass_of.Примерами иерархий subclass_of в Викиданных являются: Город $\rightarrow $ Человеческое поселение $\rightarrow $ Географическое положение и Художник $\rightarrow $ Создатель $\rightarrow $ Человек.Мы меняем степень детализации типов в зависимости от задачи NER, переходя от мелкозернистых типов к целевым крупнодетализированным типам.Например, мы объединяем типы «Художник» и «Живописец» с «Человеком», а типы «Река» и «Гора» с «Местоположением».Сопоставление справочника — это процесс присвоения характеристик справочника токенам предложений.Формально, имея словарь справочника $M$, который сопоставляет сущности с типами, и предложение $S = (t_1, t_2, ..., t_n)$ с токенами $t_i$, мы должны найти типы справочника $m$ $ \lbrace g^1_i, g^2_i,..,g^m_i\rbrace $ и охватывает $\lbrace s^1_i, s^2_i,..,s^m_i\rbrace $ для каждого токена $t_i$. Обозначение набора $\lbrace $} указывает, что для каждого токена разрешено несколько совпадений $m$.Диапазон совпадений $\lbrace s^j_i\rbrace $ представляет позиционную информацию, которая кодирует совпадения с несколькими токенами.Диапазоны совпадений кодируются с использованием тегов BILU (начало внутри последней единицы), аналогичных тегам BILOU, которые мы используем для кодирования меток NER.В общем, существует два метода сопоставления справочника: по нескольким токенам и по одному токену.Сопоставление нескольких токенов ищет самые длинные сегменты предложения, находящиеся в $M$. Например, учитывая $M$[Нью-Йорк] $\rightarrow $ Штат, $M$[Нью-Йорк] $\rightarrow $ Город и предложение «Вчера в Нью-Йорке», средство сопоставления нескольких токенов присваивает справочник города введите самый длинный сегмент «Нью-Йорк».Сопоставление по одному токену — это поиск соответствия любому словарному слову из типа справочника.В предыдущем примере каждое слово из предложения индивидуально сопоставляется с токенами в $M$, таким образом, «Нью» и «Йорк» индивидуально сопоставляются как с городом, так и со штатом, а «Город» сопоставляется только с городом.BIBREF12исследования показывают, что сопоставление как с несколькими токенами, так и с одним токеном работает лучше для определенных наборов данных.Мы предлагаем объединить оба метода: мы помечаем совпадения с несколькими токенами тегами BILU, а совпадения с одним токеном - тегом Single (S).Совпадения с одним токеном используются только в том случае, если совпадения с несколькими токенами отсутствуют.Мы считаем, что совпадения с одним токеном имеют высокий уровень отзыва и низкую точность, а совпадения с несколькими токенами имеют низкий уровень отзыва и высокую точность.Таким образом, сочетание того и другого работает лучше, чем по отдельности.Примеры предложений: «Вчера в Нью-Йорке (Город-B) Йорке (Город-I) Городе (Город-L)» и «Вчера в Нью-Йорке (Город-S) Городе (Город-S)».Йорк-Сити помечен тегом одиночных игр, поскольку в $M$ нет объектов для «Йорк-Сити», «Йорка» и «Сити».Обратите внимание, что сопоставление с справочником не контролируется, т. е. у нас нет достоверных сведений о правильно сопоставленных предложениях для $M$. Кроме того, это сложная задача из-за множества вариантов написания и неоднозначности сущностей. pxEquations DISPLAY_FORM11 — показывает справочник, встраивающий вычисление $\mathbf {g}_i$ для токена $t_i$. Чтобы вычислить $\mathbf {g}_i$, учитывая набор $m$ географических типов $\lbrace g^m_i\rbrace $ и охватывающий $\lbrace s^m_i\rbrace $, мы выполняем следующую процедуру:[topsep= 1pt, левое поле=15pt, itemep=-1pt]Уравнение DISPLAY_FORM11.Вложим множества $\lbrace g^m_i\rbrace $ и $\lbrace s^m_i\rbrace $ с помощью матриц вложения $\mathbf {G}$ и $\mathbf {S}$.Затем мы выполняем поэлементное сложение, обозначаемое $\oplus $, соответствующих типов и охватываем вложения, чтобы получить матрицу $\mathbf {E}_i$.Equation .Мы вычисляем $\mathbf {A}_i$, используя масштабированное скалярное произведение самовнимания BIBREF23, где $d$ — размерность вложений справочника.Внимание контекстуализирует вложения с помощью нескольких совпадений с географическим справочником для каждого токена $t_i$.Equation .Чтобы добавить гибкости модели, мы вычисляем $\mathbf {H}_i$ с помощью позиционного слоя прямой связи и активации GELU BIBREF24.Equation .Наконец, мы выполняем максимальное объединение вложений $\mathbf {H}_i$, чтобы получить окончательное вложение справочника $\mathbf {g}_i$. Чтобы предотвратить переобучение нейронной модели NER на справочниках, мы используем отсев справочника BIBREF25.Мы случайным образом устанавливаем в ноль вложения справочника $\mathbf {g}_i$, поэтому векторы справочника, входящие в LSTM, становятся нулевыми.Мы настраиваем гиперпараметр исключения справочника в проверочном наборе.Наборы данных.Мы оцениваем англоязычные версии набора данных CoNLL-03 BIBREF5 и аннотированную человеком часть набора данных Ontonotes 5 BIBREF6.Ярлыки CoNLL-03 охватывают 4 типа объектов: человек, местоположение, организация и прочее.Набор данных Onotonotes 5 больше, и его метки охватывают 18 типов: человек, NORP, объект, организация, GPE, местоположение, продукт, событие, произведение искусства, закон, язык, дата, время, процент, деньги, количество, порядковый номер, кардинальный номер. .pxГазеттеры.Мы используем справочники Викиданных, типы которых объединены с точностью до наборов данных CoNLL-03 и Ononotes 5.Мы фильтруем нерелевантные типы (например, названия геномов, заболевания) и получаем в общей сложности один миллион записей.Для CoNLL-03 и Ontonotes 5 процент организаций, охваченных географическими справочниками, составляет 96% и 78% соответственно, а процент географических справочников, ошибочно присвоенных токенам, не являющимся юридическими лицами, составляет 41% и 41,5% соответственно.Оценка.Мы используем стандартный сценарий оценки CoNLL, который сообщает оценки F1 объекта.Очки Формулы-1 являются средними за 5 заездов.Конфигурация.Мы используем архитектуру модели Bi-LSTM-CNN-CRF с внедрениями языковых моделей ELMo из BIBREF2, которые состоят из 50 тусклых предварительно обученных вложений слов Glove BIBREF20, 128 тусклых вложений Char-CNN BIBREF21, BIBREF1 с размером фильтра 3 и инициализированных случайным образом. 16 вложений dim char, 1024 предварительно обученных встраивания ELMo, два слоя 200 dim Bi-LSTM и выходной слой CRF с BILOU (начало внутри последней внешней единицы) охватывает BIBREF22. Для встраивания справочника мы используем 128 dim для матрицы вложения $\mathbf {G}$ и $\mathbf {S}$, 128 dim для $\mathbf {W}$, что дает справочник, встраивающий $\mathbf {g}_i$ с 128 dim.Параметры инициализируются и обучаются случайным образом.Мы применяем отсев из справочника 0,1, который мы настроили в наборе разработки; мы пробовали значения от 0,05 до 0,6. Все параметры, кроме вложений ELMo, обучаются.Мы обучаемся с использованием оптимизатора Adam BIBREF26 со скоростью обучения 0,001 для 100 эпох.Мы используем раннюю остановку с терпением 25 на наборе разработки.Размер партии 64, процент отсева 0,5 и регуляризация L2 0,1. Результаты экспериментов для NER суммированы в таблице TABREF20.В верхней части таблицы показаны недавно опубликованные результаты.В работе BIBREF14 используются справочники с HSCRF, а в работе BIBREF4 используется языковая модель Flair, которая намного больше, чем ELMo.BIBREF27 — это современная языковая модель, в которой используется предварительное обучение на основе замыкания.В нижней части таблицы показаны наши базовые модели и результаты с включенными справочниками.Мы экспериментируем с моделью Neural CRF с встраиваниями ELMo и без них.С учетом встраивания ELMo в CoNLL-03 и Ontonotes 5, показатель F$_1$ улучшается с 92,34 до 92,86 и с 89,11 до 89,32 соответственно.Без встраивания ELMo показатель F$_1$ улучшается с 90,42 до 91,12 и с 86,63 до 87 соответственно.Мы видим, что относительные улучшения GazSelfAttn аналогичны с встраиванием ELMo и без него.Мы получили немного лучший показатель CoNLL-03 F$_1$ по сравнению с работой BIBREF14, в которой используется модель HSCRF, и мы соответствуем показателям Ononotes 5 F$_1$ BIBREF4, в котором используется гораздо более крупная модель.BIBREF14Результаты Ononotes 5 используют подмножество меток набора данных и не сопоставимы.Обратите внимание, что из-за ограничений вычислений мы не проводили обширную настройку гиперпараметров, за исключением частоты отсева справочника.В таблице TABREF22 показаны эксперименты по абляции.Мы удаляем компоненты модели внедрения справочника из модели Neural CRF.В каждом эксперименте мы удаляли только указанный компонент.Абляции показывают снижение оценки F$_1$ на наборе для разработки и тестирования, если какой-либо из компонентов удален.Наибольшее ухудшение происходит при удалении отдельных совпадений, что подчеркивает важность объединения методов сопоставления справочника для NER.Мы заметили, что кодирование диапазона совпадений более важно для CoNLL-02 по сравнению с Ononotes 5, поскольку в первом больше объектов с несколькими токенами.Удаление внимания к себе показывает, что внимание к себе эффективно при объединении информации из нескольких справочников.Кроме того, мы попытались переместить вставки справочника на уровень CRF и использовать вставки токенов LSTM в качестве ключей внимания, но F$_1$ значительно ухудшился.Мы экспериментировали с добавлением потери автоматического кодирования, аналогичной BIBREF16, и многоголового самообслуживания.Однако мы не наблюдали улучшения показателя F$_1$, а иногда и небольшого ухудшения.Мы представили GazSelfAttn, новый подход к встраиванию справочника, который использует самообладание и сопоставление позиций промежутков.Результаты оценки GazSelfAttn показывают улучшение по сравнению с конкурирующими базовыми моделями и современными моделями на нескольких наборах данных.Для будущей работы мы хотели бы оценить GazSelfAttn на неанглоязычных наборах данных и улучшить сопоставление нескольких токенов с помощью нечеткого сопоставления строк.Кроме того, мы хотели бы изучить возможность переноса обучения встраивания справочника из среды с высоким уровнем ресурсов в среду с низким уровнем ресурсов. | Недавние попытки включить внешние знания в нейронные модели для распознавания именованных объектов (NER) дали неоднозначные результаты. В этой работе мы представляем GazSelfAttn, новый подход к внедрению справочника, который использует самообладание и кодирование диапазона соответствия для создания расширенных внедрений справочника. Кроме того, мы демонстрируем, как создавать ресурсы справочника на основе базы знаний Викиданных с открытым исходным кодом. Оценки наборов данных CoNLL-03 и Ontonotes 5 показывают улучшения F1 по сравнению с базовой моделью с 92,34 до 92,86 и с 89,11 до 89,32 соответственно, достигая производительности, сравнимой с большими современными моделями. | 2,744 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Katecheo: портативная модульная система для ответов на многотемные вопросы. Когда люди взаимодействуют с чат-ботами, интеллектуальными колонками или цифровыми помощниками (например, Siri), одним из основных способов взаимодействия является получение информации BIBREF0.Таким образом, тем, кто строит диалоговые системы, часто приходится решать проблему ответов на вопросы.Разработчики могут поддерживать ответы на вопросы, используя общедоступные платформы чат-ботов, такие как Watson Assistant или DialogFlow.Для этого пользователю необходимо запрограммировать намерение для каждого ожидаемого вопроса с различными примерами вопроса и одним или несколькими выбранными ответами.Преимущество этого подхода состоит в том, что он дает ответы высокого качества, но он ограничивается теми вопросами, которые ожидаются разработчиками.Более того, бремя управления такой системой может оказаться непомерно высоким, поскольку количество вопросов, требующих поддержки, вероятно, со временем увеличится.Чтобы преодолеть бремя намерений программирования, разработчики могут обратиться к более продвинутым системам ответов на вопросы, которые построены с использованием данных вопросов и ответов открытого домена (например, из Stack Exchange или Wikipedia), моделей понимания прочитанного и поиска в базе знаний.В частности, BIBREF1 ранее продемонстрировал двухэтапную систему под названием DrQA, которая сопоставляет входной вопрос с соответствующей статьей из базы знаний, а затем использует модель понимания на основе рекуррентной нейронной сети (RNN) для обнаружения ответа в соответствующей статье.Было показано, что этот более гибкий метод дает многообещающие результаты для вопросов, связанных со статьями в Википедии, и он конкурентоспособен в тесте SQuAD BIBREF2. Однако, если бы разработчики захотели интегрировать такого рода методологию, основанную на понимании прочитанного, в свои приложения, как бы они это сделали в настоящее время? этот?Им нужно будет обернуть предварительно обученные модели в свой собственный код и, по крайней мере, скомпилировать аналогичные статьи в базе знаний.В лучшем случае им может потребоваться переобучить модели понимания прочитанного на открытых данных вопросов и ответов (например, SQuAD) и/или реализовать свои собственные алгоритмы поиска в базе знаний.В этой статье мы представляем Katecheo, портативную и модульную систему для ответов на вопросы, основанные на понимании прочитанного, которая пытается облегчить это бремя разработки.Система предоставляет разработчикам возможность быстрого развертывания и легкого расширения для интеграции функций ответов на вопросы в свои приложения.Katecheo включает в себя четыре настраиваемых модуля, которые в совокупности позволяют идентифицировать вопросы, классифицировать эти вопросы по темам, искать статьи в базе знаний и понимать прочитанное.Модули связаны в единый граф вывода, который можно вызвать с помощью вызова REST API.Мы демонстрируем систему, используя общедоступные предварительно обученные модели и статьи базы знаний, извлеченные с сайтов Stack Exchange.Однако пользователи могут расширить систему на любое количество тем или доменов без необходимости изменять код обслуживания модели.Все компоненты системы имеют открытый исходный код и общедоступны по разрешительной лицензии Apache 2.Оставшаяся часть теста организована следующим образом.В следующем разделе мы даем обзор системной логики и ее модулей.В разделе 3 мы описываем архитектуру и конфигурацию Katecheo, включая расширение системы на произвольное количество тем.В разделе 4 мы сообщаем о некоторых результатах, используя примеры предварительно обученных моделей и статьи общедоступной базы знаний.Затем, в заключение, мы суммируем систему, ее применимость и будущую работу по развитию.Katecheo частично вдохновлен работой BIBREF1 над DrQA.Этот ранее разработанный метод состоит из двух основных этапов ответа на вопрос: поиск документа и понимание прочитанного.Вместе эти функции позволяют отвечать на вопросы открытого домена.Однако многие диалоговые системы не являются полностью открытыми.Например, разработчики могут захотеть создать чат-бота, который будет вести разговоры о бронировании столиков в ресторанах и времени просмотра фильмов.Такому чат-боту было бы выгодно отвечать на вопросы о еде и развлечениях, но разработчики, возможно, не захотят позволять разговору уходить на другие темы.Одной из наших целей при создании Katecheo было создание системы ответов на вопросы, которая была бы более гибкой, чем системы, основанные на тщательно подобранных ответах, но при этом оставалась бы более целенаправленной, чем система ответов на вопросы полностью открытого домена.Система включает поиск документов (или то, что мы называем «поиском в базе знаний») и понимание прочитанного, но только в рамках наборов тщательно подобранных статей базы знаний, каждая из которых соответствует определенной теме (например, еда или развлечения). Когда текст вопроса вводимые в систему Katecheo, они обрабатываются с помощью четырех модулей: (1) идентификация вопросов, (2) классификация тем, (3) поиск в базе знаний и (4) понимание прочитанного.Эта общая логика изображена на рисунке FigREF6. Первый модуль Katecheo, идентификация вопроса, определяет, является ли входной текст (помеченный Q на рисунке FigREF6) на самом деле вопросом.По нашему опыту, пользователи диалоговых систем предоставляют огромное количество неожиданных входных данных.Некоторые из этих неожиданных входных данных представляют собой вопросы, а некоторые — просто утверждения.Прежде чем приступить к сопоставлению статьи базы знаний и генерированию ответа, Katecheo выполняет этот начальный шаг, чтобы убедиться, что входные данные представляют собой вопрос.Если входными данными является вопрос, модуль идентификации вопроса (далее «идентификатор вопроса») передает положительное указание/флаг следующему модулю, указывающему, что он должен продолжить обработку вопроса.В противном случае он передает отрицательный флаг для завершения обработки.Идентификатор вопроса использует подход к идентификации вопроса, основанный на правилах.Как предложено в BIBREF3, мы используем наличие вопросительных знаков и слов 5W1H, чтобы определить, является ли ввод вопросом.Согласно нашему тестированию, это обеспечивает довольно высокую производительность (точность более 90%) и не мешает общей производительности.Чтобы достичь нашей цели — создать систему ответов на вопросы, которая была бы более целенаправленной, чем предыдущие ответы на вопросы открытого домена, мы решили позволить пользователю системы определять одну или несколько тем.Модуль классификации тем системы (далее «классификатор тем») попытается классифицировать входной вопрос к одной из тем, а затем выбрать статью базы знаний из набора статей базы знаний, соответствующих этой теме.Один из способов включить эту классификацию тем — это обучить классификатор текста, который будет классифицировать входной текст по одной из тем, предоставленных пользователем.Однако этот подход потребует (i) от пользователя предоставить как тему, так и множество примеров вопросов в рамках этой темы, и (ii) систему переобучать свою модель классификации каждый раз, когда добавляется новая тема.Мы хотели сделать приоритетом простоту развертывания, модульность и расширяемость системы, поэтому решили применить немного более наивный подход.Вместе с каждой темой пользователь предоставляет системе предварительно обученную модель распознавания именованных объектов (NER), которая идентифицирует объекты в этой теме.Классификатор тем затем использует эти предварительно обученные модели, чтобы определить, включает ли входной вопрос сущности из одной из тем, предоставленных пользователем.Если это так, классификатор тем классифицирует вопрос по этой теме.Когда две темы конфликтуют, система приостанавливает обработку и возвращает нулевой ответ.Система принимает модели NER, совместимые со spaCy BIBREF4.Как обсуждается ниже, пользователь может предоставить ссылку на zip-файл, содержащий каждую модель NER по теме.Обратите внимание: в будущем возможно удастся устранить зависимость от моделей NER.В настоящее время мы изучаем возможность использования других методов тематического моделирования, включая неотрицательную матричную факторизацию и/или скрытое распределение Дирихле (LDA).Эти методы могут позволить системе автоматически сопоставлять входной вопрос с наиболее подходящей тематической базой знаний и, таким образом, полагаться только на то, что пользователь предоставит статьи базы знаний.После того как тема определена, выполняется поиск для сопоставления вопроса с соответствующей статьей базы знаний из набора предоставленных пользователем статей базы знаний, соответствующих заданной пользователем теме.Эта совпавшая статья будет использована на следующем этапе обработки для получения ответа.Предоставленные пользователем наборы статей базы знаний по каждой теме представлены в формате JSON и включают заголовок и основной текст для каждой статьи.Система предполагает, что статьи базы знаний представлены в форме базы знаний с вопросами и ответами (например, как на сайте Stack Exchange), а не в форме произвольно структурированных статей.Таким образом, мы можем использовать заголовки статей (т. е. вопросы) для сопоставления с вопросами, введенными пользователем.В модуле поиска базы знаний Katecheo (далее — модуль «Поиск KB») мы используем пакет Python FuzzyWuzzy для выполнения сопоставления строк между входным вопросом и заголовками статей базы знаний.FuzzyWuzzy использует расстояние Левенштейна BIBREF5, сопоставляющее входную строку с одной или несколькими входными строками-кандидатами.В конечном итоге мы планируем обновить этот поиск в базе знаний до подхода, аналогичного подходу BIBREF1, с использованием биграммного хеширования и TF-IDF.Однако подход нечеткого сопоставления строк работает достаточно хорошо, если поставляемые базы знаний относятся к тому типу, в котором многие заголовки статей представлены в форме актуальных вопросов.Последним модулем системы Katecheo является модуль понимания прочитанного (или просто «понимания»).Этот модуль принимает в качестве входных данных исходный входной вопрос, а также соответствующий основной текст статьи базы знаний и использует модель понимания прочитанного для выбора подходящего ответа из статьи.Текущая версия Katecheo использует двунаправленный поток внимания (BiDAF) для понимания прочитанного BIBREF6.Эта модель BiDAF включает в себя слой внедрения на уровне символов на основе сверточной нейронной сети (CNN), уровень внедрения слов, который использует предварительно обученные внедрения GloVE, уровень контекстного внедрения на основе сети долгосрочной краткосрочной памяти (LSTM), «уровень потока внимания». , а уровень моделирования включает двунаправленные LSTM.Мы используем предварительно обученную версию BiDAF, доступную в библиотеке AllenNLP BIBREF7.Будущие выпуски Katecheo будут включать возможность замены модели понимания прочитанного на более новые архитектуры, основанные, например, на BERT BIBREF8 или XLNet BIBREF9 или на специально обученных моделях.Все четыре модуля Katecheo помещаются в контейнеры с помощью Docker BIBREF10 и развертываются как модули поверх Kubernetes BIBREF11.(см. рисунок РИС. 12).Таким образом, Katecheo полностью переносится на любой стандартный кластер Kubernetes, включая размещенные версии в AWS, GCP, Digital Ocean, Azure и т. д., а также локальные версии, использующие ванильный Kubernetes, OpenShift, CaaS и т. д. Чтобы предоставить разработчикам привычный интерфейс к системе ответов на вопросы, мы предоставляем интерфейс REST API.Разработчики могут вызывать Katecheo через единую конечную точку с доступом к системе, предоставляемой Ambassador, собственным API-шлюзом Kubernetes.Seldon-core используется для упрощения маршрутизации между четырьмя модулями, создания REST API и управления развертываниями.Чтобы создать развертывание Селдона из четырех модулей, как показано на рисунке FigREF12, мы: (1) создаем класс Python для каждого модуля, который содержит стандартизированные методы, определенные Селдоном, и который загружает различные модели для прогнозирования; (2) обернуть этот класс Python в стандартный контейнерный сервер модели Seldon, используя общедоступный образ Seldon Docker и s2i ; (3) отправьте завернутый код Python в DockerHub; (4) создать граф вывода Селдона, который связывает модули в направленный ациклический граф (DAG); и (5) развернуть граф вывода в Kubernetes.После выполнения всех этих шагов открывается одна конечная точка REST API.Когда пользователь вызывает эту единственную конечную точку API, вызывается граф вывода Селдона, и модули выполняются с использованием указанной логики маршрутизации.Чтобы указать названия тем, модели NER по темам и файлы JSON базы знаний по темам (как указано в ссылке на рисунок FigREF6), пользователю необходимо всего лишь заполнить шаблон файла конфигурации JSON в следующем формате: [ { "name": "topic 1 name", "ner_model": "<link>", "kb_file": "<link>" }, { "name": "topic 2 name", "ner_model": "<link>", "kb_file": "<ссылка>" } и т. д.]гдекаждый INLINEFORM0 будет заменен соответствующим URL-адресом, содержащим модель NER или файл JSON базы знаний.Связанные модели NER должны быть совместимы со SpaCy и сжаты в один zip-файл, а JSON-файлы связанной базы знаний должны включать как заголовки, так и тела, как указано в файле README репозитория Katecheo GitHub.После создания этого файла конфигурации можно выполнить сценарий развертывания для автоматического развертывания всех модулей Katecheo.Мы продемонстрировали полезность Katecheo, применив систему ответов на вопросы по двум темам: «Медицинские науки» и «Христианство».Эти темы достаточно разнообразны, поэтому для них потребуются различные курируемые наборы статей базы знаний, и мы можем легко получить статьи базы знаний по каждому из этих предметов на сайтах «Медицинские науки» и «Христианство Stack Exchange» соответственно.У нас также есть доступ к моделям NER по обеим этим темам.Для модели NER для медицинских наук мы использовали модель en_ner_bc5cdr_md из scispaCy BIBREF12, которая обучена на корпусе BC5CDR BIBREF13.Для темы христианства мы используем специальную модель SpaCy NER, обученную на аннотированных данных с веб-сайта GotQuestions.Примеры входных и выходных данных системы включены в таблицу TABREF17.Как можно видеть, система способна сопоставлять множество вопросов с соответствующей темой и впоследствии генерировать ответ, используя модель понимания BiDAF.Не все ответы вписываются в разговорный вопрос с точки зрения естественности, но другие обещают.Были случаи, когда система не могла классифицировать входной вопрос по соответствующей теме, даже если существовала близко соответствующая статья базы знаний.В частности, при тестировании системы по теме «Медицинские науки» мы заметили большее количество таких случаев (см. четвертую и пятую строки таблицы TABREF17).Это связано с тем, что предварительно обученная модель NER для медицинских наук от scispaCy в первую очередь предназначена для распознавания химических веществ и объектов заболеваний в тексте, а не в терминологии общих медицинских наук.С другой стороны, модель NER, используемая для темы христианства, более применима в этой теме.В заключение отметим, что Katecheo — это портативная модульная система для ответов на вопросы, основанные на понимании прочитанного.Он портативен, поскольку построен на собственных облачных технологиях (например, Docker и Kubernetes) и может быть развернут в любом облаке или локальной среде.Он является модульным, поскольку состоит из четырех настраиваемых модулей, которые в совокупности позволяют идентифицировать вопросы, классифицировать эти вопросы по темам, искать статьи базы знаний и понимать прочитанное.Первоначальное использование системы показывает, что она обеспечивает гибкий и удобный для разработчиков способ включения функции ответа на вопросы для нескольких тем или доменов через REST API.При этом текущие конфигурации Katecheo ограничены ответами из баз знаний, построенных в формате вопросов и ответов, а текущая классификация тем основана на тематических моделях NER, совместимых со spaCy.В будущем мы планируем преодолеть эти ограничения, расширив нашу методологию поиска в базе знаний, позволяя использовать более широкий спектр предварительно обученных моделей и исследуя другие методы сопоставления тем/моделирования, чтобы устранить зависимость от нашей модели NER.Полный исходный код, информация о конфигурации, сценарии развертывания и примеры для Katecheo доступны по адресу https://github.com/cvdigitalai/katecheo.Скринкаст-демонстрация Katecheo доступен по адресу https://youtu.be/g51t6eRX2Y8. | Мы представляем модульную систему, которую можно развернуть в любом кластере Kubernetes для ответа на вопросы через REST API. Эта система, называемая Katecheo, включает в себя четыре настраиваемых модуля, которые в совокупности позволяют идентифицировать вопросы, классифицировать эти вопросы по темам, искать статьи в базе знаний и понимать прочитанное. Мы демонстрируем систему, используя общедоступные предварительно обученные модели и статьи базы знаний, извлеченные с сайтов Stack Exchange. Однако пользователи могут расширить систему на любое количество тем или доменов без необходимости изменять какой-либо код обслуживания модели. Все компоненты системы имеют открытый исходный код и доступны по разрешительной лицензии Apache 2. | 2,567 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Учимся ранжировать научные документы среди толпы. [block]I.1em[block]i.1em Учимся ранжировать научные документы из толпы. Обучение ранжировать научные документы из толпы -4[1]1Количество опубликованных биомедицинских исследовательских статей резко возросло в последние годы.По состоянию на октябрь 2016 года на PubMed зарегистрировано более 26 миллионов цитирований, из которых почти 1 миллион приходится на первые три квартала 2016 года.Стало невозможным, чтобы кто-то один прочитал всю публикуемую работу.Нам нужны инструменты, которые помогут нам определить, какие исследовательские статьи будут наиболее информативными и связаны с конкретным вопросом или документом.Например, распространенная задача при чтении статей — найти статьи, наиболее связанные с другими.Крупные исследовательские поисковые системы предлагают такую функцию «похожие статьи».Однако мы предлагаем вместо измерения родства с помощью показателей сходства текстов построить модель, которая сможет сделать вывод о родстве на основе суждений авторов.BIBREF0 рассматривает два типа запросов, важных для поиска библиографической информации: первый — это поисковый запрос, написанный пользователем, а второй — запрос документов, наиболее похожих на документ, который уже признан пользователем релевантным.Такая система «запрос по документу» (или «запрос за примером») была реализована в де-факто научной поисковой системе PubMed, называемой «Поиск по связанному цитированию».BIBREF1 показывает, что 19% всех поисков PubMed, выполняемых пользователями, сопровождаются хотя бы одним кликом по соответствующей статье.Google Scholar предоставляет аналогичную систему связанных статей.Помимо библиографического поиска, системы запросов по документам обычно используются, среди прочего, для поиска патентов, поиска в Интернете и обнаружения плагиата.В большинстве работ в области запроса по документу используются меры сходства на основе текста (BIBREF2, BIBREF3, BIBREF4).Однако научные исследования основаны на гипотезах, и поэтому мы задаемся вопросом, является ли одно лишь сходство текстов лучшей моделью для библиографического поиска.В этом исследовании мы просили авторов ранжировать документы по степени «близости» к их работе.Определение «близости» было оставлено на усмотрение авторов, поскольку цель состоит в том, чтобы смоделировать, какие документы, по субъективному мнению авторов, являются наиболее близкими к их собственным.На протяжении всей статьи мы будем использовать термины «близость» и «родственность» как взаимозаменяемые.Мы обнаружили, что рейтинг исследователей по степени близости существенно отличается от рейтинга, обеспечиваемого традиционной системой IR.Наш вклад состоит из трёх частей: Основные алгоритмы ранжирования по каждому документу при поиске библиографической информации в основном полагаются на меры сходства текста (BIBREF1, BIBREF0).Например, основополагающая работа BIBREF0 представила концепцию «окружения документов», в которой они предварительно вычисляют расстояние на основе сходства текста между каждой парой документов.Когда пользователь отправляет запрос, сначала извлекается исходный набор связанных документов.Затем извлекаются соседи каждого из этих документов, то есть документы с наибольшим сходством текста с документами в исходном наборе.В более поздней работе BIBREF1 разработал алгоритм PMRA для поиска статей, связанных с PubMed.PMRA — это неконтролируемая вероятностная тематическая модель, которая обучена моделировать «связность» между документами.BIBREF5 представляет для этой задачи конкурирующий алгоритм Find-Similar, обрабатывающий полный текст документов как запрос и выбирающий связанные документы из результатов.За пределами библиографических IR предыдущая работа по запросу по документу включает поиск патентов ( BIBREF6 , BIBREF3 ), поиск связанных документов по рукописи ( BIBREF1 , BIBREF7 ) и поиск по веб-страницам ( BIBREF8 , BIBREF9 ).Большая часть работы сосредоточена на создании более коротких запросов из длинного документа.Например, извлечение именной фразы использовалось для извлечения коротких описательных фраз из исходного длинного текста (BIBREF10).Тематические модели использовались для разделения документа на набор тем, используемых для формирования запроса (BIBREF11).BIBREF6 генерировал запросы с использованием терминов с наибольшим взвешиванием TF*IDF в каждом документе.BIBREF4 предложил извлекать из документа фразовые понятия, которые затем используются для генерации запросов.BIBREF2 объединил извлечение запросов и обратную связь по псевдорелевантности для поиска патентов.BIBREF9 использует контролируемую модель машинного обучения (т. е. условные случайные поля) (BIBREF12) для генерации запросов.BIBREF13 исследовал онтологию для определения химических концепций для запросов.Существует также множество поисковых систем, посвященных биомедицинской документации.Многие системы поиска информации ориентированы на системы ответов на вопросы, такие как системы, разработанные для соревнований TREC Genomics Track (BIBREF14) или BioASQ «Вопрос-ответ» (BIBREF15).Системы, предназначенные для ответов на вопросы, используют комбинацию методов обработки естественного языка для идентификации биомедицинских объектов, а затем систем поиска информации для извлечения соответствующих ответов на вопросы.Системы, подобные тем, которые подробно описаны в BIBREF16, могут с высокой точностью давать ответы на биомедицинские вопросы «да» или «нет».Однако то, что мы предлагаем, принципиально отличается от этих систем: учитывая конкретный документ, предложите наиболее важные документы, которые с ним связаны.Основная часть работы, наиболее связанная с нашей, — это рекомендации по цитированию.Цель рекомендации по цитированию — предложить небольшое количество публикаций, которые можно использовать в качестве высококачественных ссылок для конкретной статьи (BIBREF17, BIBREF1).Тематические модели использовались для ранжирования статей на основе сходства распределения скрытых тем (BIBREF11, BIBREF18, BIBREF1).Эти модели пытаются разложить документ на несколько важных ключевых слов.В частности, эти модели пытаются найти скрытое векторное представление документа, которое имеет гораздо меньшую размерность, чем сам документ, и сравнивают векторы уменьшенной размерности.Сети цитирования также изучались для ранжирования статей по важности, т. е. авторитету ( BIBREF19 , BIBREF20 ).BIBREF17представили гетерогенные сетевые модели, называемые моделями на основе метапутей, которые включают место проведения (конференцию, на которой публикуется статья) и контент (термин, который связывает две статьи, для рекомендации по цитированию).Еще одна очень актуальная работа — BIBREF8, которая разложила документ, чтобы представить его компактным вектором, который затем используется для измерения сходства с другими документами.Обратите внимание, что мы исключаем работу контекстно-зависимых рекомендаций, которые анализируют локальный контекст каждой цитаты, которая обычно краткая и не представляет собой полный документ.Одним из ключевых вкладов нашего исследования является инновационный подход к автоматической генерации золотого стандарта для каждого запроса.Благодаря краудсорсингу были созданы большие базы данных, включая Wikipedia и Freebase.Недавно BIBREF21 пришел к выводу, что неоплачиваемые участники показали лучшие результаты в ответах на вопросы, чем платные.Они объясняют это тем, что неоплачиваемые участники имеют более внутреннюю мотивацию, чем платные участники теста: они выполняли задание ради развлечения и уже имели знания по тестируемому предмету.Напротив, в другом исследовании, BIBREF22, сравнивались неоплачиваемые работники, найденные через Google Adwords (GA), с оплачиваемыми работниками, найденными через Amazon Mechanical Turk (AMT).Они обнаружили, что платные участники AMT превосходят неоплачиваемых.Это связано с тем, что наемные работники более охотно ищут информацию, которую они не знали.В библиографической сфере авторы научных публикаций предоставили аннотации (BIBREF23).Они обнаружили, что авторы более охотно комментируют свои собственные публикации (BIBREF23), чем комментируют другие публикации (BIBREF24), даже если им платят.В этой работе наш аннотированный набор данных был создан бесплатными авторами статей.Для разработки и оценки алгоритмов ранжирования нам нужен эталонный набор данных.Однако, насколько нам известно, нам неизвестен ни один общедоступный эталонный набор данных для систем библиографических запросов по документам.Поэтому мы создали такой эталонный набор данных.Создание любого эталонного набора данных — сложная трудоемкая задача, особенно сложная в научной сфере, поскольку необходимо владеть техническим жаргоном научной статьи, а таких экспертов нелегко найти при использовании традиционных технологий краудсорсинга. (например, АМТ).Для нашей задачи идеальным аннотатором каждой нашей статьи являются сами авторы.Авторы публикации обычно четко знают ссылки, которые они цитируют, и их научную значимость для публикации, и поэтому могут быть отличными судьями при ранжировании справочных статей.Учитывая полный текст научной публикации, мы хотим ранжировать ее цитируемость по мнению автора.Мы собрали недавние публикации из журналов PLoS с открытым доступом и попросили авторов ранжировать по степени близости пять цитат, которые мы выбрали из их статьи.Статьи PLoS были выбраны потому, что его журналы охватывают широкий спектр тем, а полные тексты статей доступны в формате XML.Мы выбрали самые последние публикации, поскольку предыдущая работа по краудсорсинговым аннотациям показывает, что готовность авторов участвовать в неоплачиваемой задаче по аннотированию снижается с возрастом публикации (BIBREF23).Затем мы извлекли из каждого документа аннотацию, цитаты, полный текст, авторов и соответствующий адрес электронной почты автора.Названия и рефераты цитат были получены из PubMed, и было рассчитано косинусное сходство между рефератом PLoS и рефератом цитаты.Мы выбрали пять наиболее похожих тезисов с использованием взвешенного косинусного сходства TF*IDF, перетасовали их порядок и отправили по электронной почте соответствующему автору для аннотации.Мы считаем, что ранжирование пяти статей (а не всей коллекции ссылок) является более выполнимой задачей для автора, чем просить его ранжировать все ссылки.Поскольку документы для аннотирования были выбраны на основе сходства текста, они также представляют собой сложную основу для моделей, основанных на признаках сходства текста.Всего с 416 авторами связались, и 92 ответили (22%).Два ответа были удалены из набора данных из-за неполной аннотации.Мы попросили авторов ранжировать документы по тому, насколько они «близки к вашей работе».Определение близости было оставлено на усмотрение автора.Набор данных состоит из 90 аннотированных документов с 5 цитатами, каждая из которых имеет рейтинг от 1 до 5, где 1 наименее релевантна, а 5 наиболее релевантна, всего 450 аннотированных цитат.Обучение ранжированию — это метод изменения порядка результатов, возвращаемых по запросу поисковой системы.Как правило, первоначальный запрос к поисковой системе больше связан с запоминаемостью, чем с точностью: цель состоит в том, чтобы получить из корпуса подмножество потенциально связанных документов.Затем, учитывая этот набор потенциально связанных документов, алгоритмы обучения ранжированию меняют порядок документов так, чтобы наиболее релевантные документы находились в верхней части списка.Этот процесс проиллюстрирован на рисунке FigREF6. Существует три основных типа алгоритмов обучения ранжированию: поточечный, парный и списочный.Поточечные алгоритмы присваивают балл каждому извлеченному документу и ранжируют их по баллам.Парные алгоритмы превращают обучение ранжированию в задачу двоичной классификации, получая ранжирование путем сравнения каждой отдельной пары документов.Алгоритмы списков пытаются оптимизировать параметр оценки по всем запросам в наборе данных.Машина опорных векторов (SVM) ( BIBREF25 ) — это широко используемый алгоритм контролируемой классификации, который показал хорошую производительность в ряде задач.SVM можно рассматривать как бинарный линейный классификатор, цель которого — максимизировать размер разрыва между линией, разделяющей классы, и точками по обе стороны от линии.Это помогает избежать чрезмерной подгонки обучающих данных.SVMRank — это модификация SVM, которая присваивает баллы каждой точке данных и позволяет ранжировать результаты (BIBREF26).Мы используем SVMRank в экспериментах ниже.SVMRank ранее использовался в задаче поиска документов в (BIBREF27) для более традиционных задач коротких запросов и показал себя как наиболее эффективная система для ранжирования.SVMRank — это алгоритм точечного обучения для ранжирования, который возвращает оценки для каждого документа.Мы ранжируем документы по этим баллам.Возможно, что иногда два документа будут иметь одинаковую оценку, что приведет к ничьей.В этом случае мы присваиваем обоим документам одинаковый ранг, а затем оставляем пробел в рейтинге.Например, если документы 2 и 3 связаны, их ранжированный список будет иметь вид [5, 3, 3, 2, 1]. Модели обучаются путем случайного разделения набора данных на 70 % обучающих данных и 30 % тестовых данных.Мы применяем подход случайной субвыборки, при котором набор данных случайным образом разбивается, обучается и тестируется 100 раз из-за относительно небольшого размера данных.Для каждого разделения изучается модель, и для каждого аннотированного документа создается рейтинг.Мы тестируем три разные контролируемые модели.Первая контролируемая модель использует только функции сходства текста, вторая модель использует все функции, а третья модель выполняет предварительный выбор функций, чтобы выбрать наиболее эффективную комбинацию функций.Мы также тестируем с использованием двух разных моделей, обученных на двух разных наборах данных: одна обучена с использованием аннотаций золотого стандарта, а другая обучена с использованием суждений, основанных на сходстве текстов, которые использовались для выбора цитат для авторов.Для этой работы мы протестировали несколько различных алгоритмов обучения ранжированию.В ходе предварительного тестирования мы обнаружили, что SVMRank показал наилучшую производительность, поэтому он будет использоваться в следующих экспериментах.Каждая цитата преобразуется в вектор признаков, представляющий связь между опубликованной статьей и цитатой.Используются четыре типа признаков: сходство текста, количество и местоположение цитирований, возраст цитирования и количество упоминаний цитирования в литературе (влияние цитирования).Функции сходства текста измеряют сходство слов, используемых в разных частях документа.В этой работе мы вычисляем сходство между документом INLINEFORM0 и документом, который он цитирует INLINEFORM1, путем преобразования их текста в векторы терминов.Например, чтобы вычислить сходство рефератов между INLINEFORM2 и INLINEFORM3, мы преобразуем рефераты в два вектора терминов: INLINEFORM4 и INLINEFORM5.Длина каждого из векторов терминов равна INLINEFORM6 .Затем мы взвешиваем каждое слово по его весу: частота термина * частота обратного документа (TF*IDF).TF*IDF — это метод, позволяющий придать больший вес словам, которые часто встречаются в документе, но нечасто в корпусе.Частота термина — это просто количество раз, когда слово INLINEFORM7 появляется в документе.Частота обратных документов — это логарифмически масштабированная доля документов в корпусе, в которых встречается слово INLINEFORM8.Или, более конкретно: INLINEFORM9, где INLINEFORM0 — общее количество документов в корпусе, а знаменатель — это количество документов, в которых термин INLINEFORM1 встречается в корпусе INLINEFORM2.Тогда TF*IDF определяется как: INLINEFORM3, где INLINEFORM0 — это термин, INLINEFORM1 — документ, а INLINEFORM2 — корпус.Например, слово «the» может часто встречаться в документе, но поскольку оно также встречается почти в каждом документе в корпусе, оно бесполезно для расчета сходства, поэтому оно получает очень низкий вес.Однако такое слово, как «нейрогенез», может часто встречаться в документе, но не часто появляться в корпусе, поэтому оно получает высокий вес.Сходство между векторами терминов затем рассчитывается с использованием косинусного сходства:INLINEFORM3, где INLINEFORM0 и INLINEFORM1 — два вектора термов.Косинусное сходство является мерой угла между двумя векторами.Чем меньше угол между двумя векторами, т. е. чем больше они похожи, тем ближе значение к 1.И наоборот, чем более непохожи векторы, тем ближе косинусное сходство к 0. Мы вычисляем сходство текста между несколькими различными разделами документа INLINEFORM0 и документа, который он цитирует INLINEFORM1.Из цитирующей статьи INLINEFORM2 мы используем заголовок, полный текст, аннотацию, объединенные разделы обсуждения/заключения и 10 слов по обе стороны от того места в документе, где происходит фактическое цитирование.В документе, цитируемом INLINEFORM3, мы используем только заголовок и аннотацию из-за ограниченной доступности полного текста.В этой работе мы объединяем разделы обсуждения и заключения каждого документа, поскольку в некоторых документах есть только раздел заключения, в других — только обсуждение, а в некоторых — и то, и другое.Сходство между каждым из этих разделов двух документов рассчитывается и используется в качестве признаков в модели.Возраст цитирования может иметь отношение к его важности.Мы предполагаем, что по мере старения цитаты она, скорее всего, станет «основополагающей» цитатой, а не той, которая напрямую повлияла на развитие статьи.Поэтому более поздние цитаты могут иметь большее отношение к статье.Точно так же «влияние на цитирование», то есть количество цитирований в литературе (по данным Google Scholar), может быть индикатором того, является ли статья основополагающей, а не имеет ли она непосредственное отношение к ней.Мы предполагаем, что чем меньше раз статья цитируется в литературе, тем большее влияние она оказывает на данную статью.Мы также отслеживаем, сколько раз цитата упоминается как в полном тексте, так и в разделах обсуждения/заключения.Мы предполагаем, что если цитата упоминается несколько раз, она более важна, чем цитаты, упомянутые только один раз.Кроме того, цитаты, которые появляются в разделах обсуждения/заключения, скорее всего, будут иметь решающее значение для понимания результатов.Мы нормализуем количество цитирований по общему количеству цитирований в этом разделе.Всего мы выбираем 15 признаков, показанных в таблице TABREF15.Характеристики нормализуются внутри каждого документа таким образом, что каждая характеристика цитирования имеет шкалу от 0 до 1 и равномерно распределена в этом диапазоне.Это сделано потому, что некоторые характеристики (например, количество лет с момента цитирования) не ограничены.Мы сравниваем нашу систему с различными базовыми показателями.(1) Ранжирование по количеству упоминаний цитаты в документе.(2) Ранжирование по количеству цитирований в литературе (влияние цитирования).(3) Ранжируйте с помощью статей по теме в Академии Google.(4) Ранжирование по взвешенному косинусному подобию TF*IDF.(5) Ранжирование с использованием модели обучения ранжированию, обученной на ранжировании сходства текстов.Первые две базовые системы представляют собой модели, в которых значения упорядочены от большего к меньшему для формирования рейтинга.Идея, лежащая в их основе, заключается в том, что количество упоминаний цитирования в статье или влияние цитирования уже могут быть хорошими показателями их близости.Модель сходства текста обучается с использованием тех же функций и методов, что и модель аннотаций, но обучается с использованием ранжирования сходства текста, а не оценок автора.Мы также сравниваем наши рейтинги с рейтингами в поисковой системе популярных научных статей Google Scholar.Google Scholar — это IR-система «черного ящика»: они не раскрывают подробностей о том, какие функции они используют и как они оценивают релевантность документов.Google Scholar предоставляет функцию «Похожие статьи» для каждого документа в своем индексе, которая отображает 100 самых популярных документов по каждой статье.Чтобы сравнить наши рейтинги, мы просматриваем эти связанные документы и записываем рейтинг, в котором появлялась каждая из выбранных нами цитат.Мы масштабируем эти рейтинги таким образом, чтобы статья с самым низким рейтингом в Google Scholar имела самый высокий рейтинг релевантности в нашем наборе.Если цитируемый документ не появляется в наборе, мы устанавливаем его рейтинг релевантности, равный одному ниже найденного самого низкого рейтинга релевантности.С данными Google Scholar выполняются четыре сравнения.(1) Сначала мы обучаем модель, используя наш золотой стандарт, и смотрим, сможем ли мы предсказать рейтинг Google Scholar.(2) Мы сравниваем с базовым уровнем использования рейтингов Google Scholar для обучения и сравниваем с их собственными рейтингами, используя наш набор функций.(3) Затем мы обучаем модель, используя рейтинги Google Scholar, и пытаемся спрогнозировать наш золотой стандарт.(4) Мы сравниваем ее с моделью, обученной на нашем золотом стандарте для прогнозирования нашего золотого стандарта.Нормализованный дисконтированный совокупный выигрыш (NDCG) — это распространенная мера для сравнения списка предполагаемых суждений о релевантности документа со списком известных суждений (BIBREF28).Чтобы рассчитать NDCG, мы сначала рассчитываем дисконтированную совокупную выгоду рейтинга (DCG) как: DISPLAYFORM0, где rel INLINEFORM0 — это суждение о релевантности в позиции INLINEFORM1.Интуитивно понятно, что DCG наказывает за извлечение нерелевантных документов (rel INLINEFORM2).Однако DCG является неограниченной величиной.Чтобы сравнить DCG двух моделей, мы должны его нормализовать.Для этого мы используем идеальную DCG (IDCG), т. е. максимально возможную DCG с учетом суждений о релевантности.Максимально возможная DCG возникает, когда суждения о релевантности находятся в правильном порядке.DISPLAYFORM0 Значение NDCG находится в диапазоне от 0 до 1, где 0 означает, что соответствующие документы не были получены, а 1 означает, что соответствующие документы были получены в правильном порядке их релевантности.INLINEFORM0 Кендалла — это мера корреляции между двумя ранжированными списками.Он сравнивает количество согласующихся пар с количеством несогласованных пар между каждым списком.Согласованная пара определяется по двум наблюдениям INLINEFORM1 и INLINEFORM2 .Если INLINEFORM3 и INLINEFORM4 , то пара индексов INLINEFORM5 согласована, то есть ранг INLINEFORM6 в обоих наборах ранжирования INLINEFORM7 и INLINEFORM8 согласуется друг с другом.Аналогично, пара INLINEFORM9 является дискордантной, если INLINEFORM10 и INLINEFORM11 или INLINEFORM12 и INLINEFORM13 .INLINEFORM14 Кендалла тогда определяется как: DISPLAYFORM0, где C — количество согласующихся пар, D — количество несогласованных пар, а знаменатель представляет общее количество возможных пар.Таким образом, INLINEFORM0 Кендалла попадает в диапазон INLINEFORM1, где -1 означает, что ранжированные списки полностью отрицательно коррелируют, 0 означает, что они не коррелируют существенно, а 1 означает, что ранжированные списки полностью коррелируют.Недостатком этой меры является то, что она не учитывает, где в ранжированном списке возникает ошибка.При поиске информации, как правило, больше внимания уделяется ошибкам в верхней части списка, а не ошибкам в нижней части списка.INLINEFORM0 средней точности ( BIBREF29 ) (или INLINEFORM1 ) расширяет INLINEFORM2 Кендалла, включая положение ошибок.Если ошибка возникает в верхней части списка, то за нее наказывают тяжелее, чем за ошибку, возникающую в нижней части списка.Для достижения этой цели INLINEFORM3 включает в себя идеи популярной меры средней точности: мы вычисляем точность для каждого индекса списка, а затем усредняем их вместе.INLINEFORM4 определяется как: DISPLAYFORM0 Интуитивно понятно, что если ошибка возникает в верхней части списка, то эта ошибка распространяется на каждую итерацию суммирования, а это означает, что ее штраф добавляется несколько раз.Диапазон INLINEFORM0 находится между -1 и 1, где -1 означает, что списки полностью отрицательно коррелируют, 0 означает, что они не коррелируют существенно, а 1 означает, что они полностью коррелированы.Прямой выбор признаков выполнялся путем итеративного тестирования каждого признака по одному.В модели сохраняется наиболее эффективный элемент, а для остальных элементов выполняется еще одна проверка.Это продолжается до тех пор, пока не будут выбраны все функции.Этот подход позволяет нам исследовать влияние комбинаций функций и влияние слишком большого или слишком малого количества функций.Это также позволяет нам оценить, какие функции и комбинации функций являются наиболее мощными.Сначала мы сравниваем наш золотой стандарт с базовыми показателями.Случайная базовая линия предоставляется для справки.Поскольку все документы, которые мы оцениваем, актуальны, NDCG окажется достаточно высоким просто случайно.Мы обнаружили, что количество упоминаний документа в аннотированном документе значительно выше, чем случайный базовый показатель или влияние цитирования.Чем больше раз документ упоминается в статье, тем больше вероятность, что автор отметит его как важный.Интересно, что мы видим отрицательную корреляцию с влиянием на цитирование.Чем больше раз документ упоминается в литературе, тем меньше вероятность того, что он будет важным.Эти результаты показаны в таблицеTABREF14..Затем мы ранжируем исходные значения функций и сравниваем их с нашим золотым стандартом, чтобы получить базовый уровень (таблица TABREF15).Наиболее эффективной функцией сходства текста является сходство между аннотацией аннотированного документа и рефератом цитируемого документа.Однако количество упоминаний цитируемого документа в тексте аннотируемого документа также является высокооценочным признаком, особенно по коэффициенту корреляции INLINEFORM0.Эти результаты показывают, что сходство текста само по себе не может быть хорошим показателем для оценки ранга документа.Затем мы тестируем три различных набора функций для наших контролируемых моделей обучения для ранжирования.Модель, использующая только признаки сходства текста, работает плохо: NDCG остается на базовом уровне, а показатели корреляции низкие.Модели, которые включают информацию о возрасте, количестве ссылок на цитируемый документ и влиянии цитирования этого документа в дополнение к функциям сходства текста, значительно превзошли модели, которые использовали только функции сходства текста INLINEFORM0 .Поскольку INLINEFORM1 учитывает позицию в рейтинге ошибок, это указывает на то, что модель «Все функции» смогла лучше правильно разместить документы с высоким рейтингом над документами с более низким рейтингом.Аналогичным образом, поскольку INLINEFORM2 Кендалла представляет собой общую меру корреляции, которая не учитывает положение ошибок, более высокое значение здесь означает, что большее количество рейтингов было размещено правильно.Интересно, что выбор признаков (оптимизированный для NDCG) не превосходит модель, использующую все признаки, с точки зрения наших показателей корреляции.Признаками, выбранными во время прямого выбора признаков, являются (1) влияние цитирования, (2) количество упоминаний в полном тексте, (3) сходство текста между заголовком аннотированного документа и аннотацией ссылочного документа, (4) сходство текста между раздел обсуждения/заключения аннотированного документа и название ссылочного документа.Эти результаты показаны в таблице TABREF16.Модели, обученные на суждениях о сходстве текста, работают хуже, чем модели, обученные на аннотированных данных.Однако с точки зрения NDCG и показателей корреляции они работают значительно лучше, чем случайный базовый уровень.Затем мы сравниваем нашу модель с рейтингами Google Scholar.Используя рейтинг, полученный из Google Scholar, мы создаем обучающую выборку, чтобы попытаться предсказать рейтинг наших авторов.Мы обнаружили, что Google Scholar работает аналогично модели с текстовыми функциями.Это указывает на то, что рейтинги, полученные нами от авторов, существенно отличаются от рейтингов, предоставляемых Google Scholar.Результаты представлены в таблице TABREF17..Мы обнаружили, что авторы ранжируют ссылки, которые они цитируют, существенно иначе, чем ранжирование, основанное на сходстве текстов.Наши результаты показывают, что ключевым моментом является разложение документа на набор функций, способных уловить эти различия.Хотя сходство текста действительно важно (о чем свидетельствует признак сходства(a,a) в таблице TABREF15), мы также обнаружили, что количество ссылок на документ в тексте и количество ссылок на документ в литературе также являются важными функциями (путем выбора функции).Чем чаще в тексте упоминается цитата, тем больше вероятность, что она будет важной.Эту функцию часто упускают из виду при рекомендациях по цитированию статей.Мы также обнаружили, что актуальность важна: возраст цитирования отрицательно коррелирует с рейтингом.Новые цитаты с большей вероятностью будут иметь непосредственное значение, чем старые, более фундаментальные цитаты.Кроме того, количество цитирований документа в литературе отрицательно коррелирует с его рейтингом.Вероятно, это связано с тем, что часто цитируемые документы являются более фундаментальными; это могут быть старые статьи, важные для данной области, но не влияющие напрямую на новую работу.Модель, обученная с использованием суждений автора, работает значительно лучше, чем модель, обученная с использованием суждений, основанных на сходстве текстов.Был проведен анализ ошибок, чтобы выяснить, почему некоторые рейтинги не совпадают с аннотациями автора.Мы обнаружили, что в некоторых случаях наши функции не могли уловить взаимосвязь: например, в биомедицинском документе, в котором к набору данных применяется модель, разработанная в другой области, для описания модели может использоваться совсем другой язык, чем в цитате.Предыдущая работа по использованию тематических моделей для поиска документов может оказаться полезной в таких случаях.Небольшое подмножество функций в конечном итоге работало так же хорошо, как и полный список функций.Количество упоминаний цитирования и показатель влияния цитирования в литературе оказались двумя наиболее важными характеристиками.Действительно, без функций, основанных на цитировании, модель работает так, как если бы она была обучена с использованием ранжирования сходства текстов.Разработка функций — это часть любой системы обучения для ранжирования, особенно в контексте конкретной предметной области.Цитаты являются неотъемлемой частью нашего набора данных.Чтобы обучение ранжированию можно было применить к другим наборам данных, необходимо также разработать функции для использования уникальных свойств этих наборов данных.Тем не менее, мы показываем, что объединение функций, специфичных для предметной области, с более традиционными текстовыми функциями действительно улучшает оценки модели по сравнению с простым использованием самих функций, специфичных для предметной области.Интересно, что влияние цитирования и возраст цитирования отрицательно коррелируют с рейтингом.Мы предполагаем, что это связано с тем, что оба показателя могут быть индикаторами новизны: новая публикация с большей вероятностью будет находиться под прямым влиянием более поздних работ.Однако многие другие инструменты связанного поиска рассматривают влияние цитирования как положительную особенность связанности: документы с более высоким влиянием цитирования появляются выше в списке связанных статей, чем документы с более низким влиянием цитирования.Это может быть противоположностью того, чего на самом деле желает пользователь.Мы также обнаружили, что рейтинги нашей системы IR на основе сходства текстов или системы IR Google Scholar не могут ранжировать документы по аннотациям авторов, а также наша система.В каком-то смысле это разумно: рейтинги, полученные из этих систем, были из другой системы, чем аннотации автора.Однако в сфере IR, специализирующейся на конкретной предметной области, лучшими судьями являются эксперты в предметной области.Мы создали систему, которая использует эти экспертные суждения.Модели сходства текста и Google Scholar смогли сделать это в некоторой степени, работая выше случайного базового уровня, но не на уровне нашей модели.Кроме того, мы отмечаем, что NDCG может быть не самой подходящей мерой для сравнения списков с коротким ранжированием, где все документы в той или иной степени релевантны.NDCG уделяет большое внимание соответствующим документам, встречающимся на самом высоком уровне.Однако все документы здесь актуальны, просто в разной степени.Таким образом, NDCG не кажется наиболее подходящим показателем, о чем свидетельствуют наши оценки.Коэффициенты корреляции из INLINEFORM0 и INLINEFORM1 Кендалла кажутся гораздо более подходящими для этого случая, поскольку они не связаны с релевантностью, а только с ранжированием.Одним из ограничений нашей работы является то, что мы выбрали небольшой набор ссылок на основе их сходства со статьей, в которой они цитируются.В идеале мы бы попросили авторов ранжировать для нас все свои цитирования, но это было бы для авторов непростой задачей.Мы решили использовать набор данных Google Scholar, чтобы попытаться смягчить эту проблему: мы получаем рейтинг набора ссылок из системы, которая также ранжирует многие другие документы.Пять цитат, выбранных с помощью взвешенного косинусного сходства TF*IDF, представляют собой «жесткий» золотой стандарт: мы пытаемся ранжировать документы, которые, как всем известно, релевантны по своей природе и имеют высокую степень сходства с текстом.Кроме того, существует множество других, более дорогих функций, которые мы могли бы изучить для улучшения модели.Функции сети цитирования, фразовые концепции и тематические модели могут быть использованы для улучшения наших результатов за счет вычислительной сложности.Мы разработали модель быстрого ранжирования связанных документов на основе краудсорсинговых данных.Модель, данные и программное обеспечение для сбора данных общедоступны и могут легко использоваться в будущих приложениях в качестве автоматического поиска, помогающего пользователям находить наиболее важные цитаты в конкретном документе.Экспериментальную установку можно переносить на другие наборы данных с некоторой доработкой функций.Мы смогли определить, что несколько функций, специфичных для предметной области, имели решающее значение для нашей модели, и что мы смогли улучшить результаты простого использования только этих функций, добавив более традиционные функции.Запрос по документу — сложная и трудная задача.Мы предлагаем подход с легко получаемым набором данных и недорогой в вычислительном отношении моделью.Сотрудничая с биомедицинскими исследователями, мы смогли создать систему, которая ранжирует документы количественно иначе, чем предыдущие системы, и предоставить инструмент, который помогает исследователям находить связанные документы.Мы хотели бы поблагодарить всех авторов, которые нашли время ответить на наш опрос по рейтингу цитируемости.Эта работа поддерживается Национальными институтами здравоохранения (грант номер 1R01GM095476).Спонсоры не играли никакой роли в разработке исследования, сборе и анализе данных, принятии решения о публикации или подготовке рукописи. | Поиск связанных опубликованных статей — важная задача в любой науке, но с появлением новых работ в биомедицинской области это стало особенно сложной задачей. Большинство существующих методологий используют показатели сходства текста, чтобы определить, связаны ли две статьи или нет. Однако открытие биомедицинских знаний основано на гипотезах. Наиболее похожие статьи могут не иметь наибольшего сходства текста. В этом исследовании мы сначала разрабатываем инновационный краудсорсинговый подход для создания аннотированного экспертами корпуса документов для ранжирования. Используя этот корпус в качестве золотого стандарта, мы затем оцениваем подходы к использованию сходства текстов для ранжирования связанности статей. Наконец, мы разрабатываем и оцениваем новую контролируемую модель для автоматического ранжирования связанных научных статей. Наши результаты показывают, что рейтинг авторов существенно отличается от рейтингов по моделям, основанным на сходстве текстов. Обучая модель обучения ранжированию на подмножестве аннотированного корпуса, мы обнаружили, что лучшая контролируемая модель ранжирования обучения (SVM-Rank) значительно превосходит современные базовые системы. | 5,344 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Система семантического анализа на основе эскизов. Семантический анализ открытой области направлен на сопоставление высказываний естественного языка со структурированными смысловыми представлениями.В последнее время подходы, основанные на seq2seq, достигли многообещающей производительности в структурно-ориентированных сетях, таких как последовательность действийBIBREF0 и STAMPBIBREF1. Однако этот тип подхода смешивает вместе низкоуровневые сущности, предикаты и структуры высокого уровня, что теряет точность при каждый уровень в той или иной степени.Таким образом, метод, основанный на эскизах, может быть еще одним выбором для отделения структур высокого уровня от деталей низкого уровня.В этой работе мы применяем наш эскизный подход к MSParS, большому аннотированному вручную набору семантических данных, отображающему вопросы в логические формы.Мы утверждаем, что у метода, основанного на эскизах, есть как минимум два преимущества.Во-первых, основанная на базовом внимании сеть seq2seq BIBREF2, BIBREF3 не очень хорошо работает при семантическом анализе, поскольку логические формы представляют собой структурированные последовательности и не могут включать структурную информацию логических форм.Затем последовательность-дерево(seq2tree)BIBREF4 предлагает структурно-ориентированный декодер для использования информации.Но его архитектура также становится намного сложнее.Вместо использования сложных декодеров мы можем извлекать эскизы высокого уровня для логических форм и классифицировать образцы по нескольким классам эскизов.Логические формы определенного класса эскизов имеют фиксированный шаблон, показанный в таблице TABREF2.Таким образом, проблема структуры наконец упрощается до задачи классификации.Во-вторых, логические формы часто требуют копирования ряда вопросов.Хотя CopynetBIBREF5 и PointerBIBREF6 реализуют механизм копирования, добиться ожидаемого эффекта по-прежнему сложно.Но для метода на основе эскизов эта проблема становится задачей маркировки отдельных объектов, что проще, чем создание объектов.Вообще говоря, метод seq2seq декодирует все смысловое представление за один раз, в то время как мы имеем дело с разными частями на разных уровнях детализации, как грубо2fineBIBREF7.Хотя мы увеличиваем количество этапов, сетевая архитектура каждого этапа становится намного проще без ущерба для точности.Таким образом, мы можем обнаружить ошибки и оптимизировать соответствующие детали.Мы предлагаем разбить этот процесс на три этапа.На первом этапе мы решаем задачу классификации эскизов.Затем мы находим сущности в вопросах с помощью задачи маркировки сущностей.На самом деле мы объединяем эти два этапа с помощью многозадачной модели для обеспечения точности и эффективности BIBREF8.Последний этап — самый сложный, поскольку база знаний MSParS недоступна.Мы определяем пару шаблонов вопросов и логических форм и используем сеть сопоставления для ранжирования всех этих пар.Подход, основанный на Seq2seq, — это один из двух методов, которые мы использовали здесь, чтобы помочь восстановить оценку в целом.Мы также используем современную предварительно обученную работу BertBIBREF9 в вышеупомянутых задачах, чтобы включить больше априорных знаний.Уровень ошибок нашей многозадачной модели ниже 2%, что обеспечивает правильный эскиз и объекты.Таким образом, последний этап фактически во многом определяет точность.Наша точность достигает 77,42% после трех этапов.Подход, основанный на Seq2seq, и взаимосвязь совпадений повышают точность до 86,86% в наборе проверки.Наша окончательная точность на полном тестовом наборе достигает 84,47%.А точность подмножества жестких испытаний была повышена до 63,08%, что, наконец, выше, чем у лучшей модели в списке представленных материалов, на 5,65%. В оставшейся части нашей статьи мы сначала анализируем особенности MSParS для этой задачи в разделе 2. .После этого мы подробно обсудим нашу систему в разделе 3.Затем в разделе 4 мы демонстрируем нашу экспериментальную установку, результаты и анализ.Сопутствующие работы упомянуты в разделе 5.Наконец, мы подводим итоги всей статьи и предлагаем нашу дальнейшую работу.Набор данных MSParS опубликован в рамках оценочного задания NLPCC 2019.Весь набор данных состоит из 81 826 образцов, аннотированных носителями английского языка.80% из них используются в качестве обучающего набора.10% из них используются в качестве набора для проверки, а остальные — в качестве набора для тестирования.Из тестовой выборки отбирают 3000 твердых образцов.Метрикой для этого набора данных является точное совпадение точности как для полного набора тестов, так и для подмножества жестких тестов.Каждый образец состоит из вопроса, логической формы, параметров (сущность/значение/тип) и типа вопроса, как показано в таблице TABREF3.Образцы классифицируются по 12 классам первоначально на грубом уровне, а мы переклассифицируем их на более тонком уровне, что является основой нашего метода, основанного на эскизах.Заменяем предикат в тройке на $P_i$, сущность в тройке на $E_i$ и различаем разные индексами.Число в превосходной и сравнительной степени заменяется на $V$, а тип в тройке, начинающийся со специального предиката «isa», также заменяется на $T$.Таким образом, мы получаем набросок логической формы.Наконец, мы производим 15 классов эскизов.Мы считаем, что особенности вопросов во многом коррелируют с наброском логических форм.Например, эскиз должен начинаться со слов «argmore» или «argless», если в вопросах есть сравнительные слова, такие как «выше», «больше» и «до».Поэтому мы принимаем вопросы в качестве входных данных для классификации образцов по разным классам эскизов.Как следует из таблицы TABREF3, сущности представляют собой объединенные токены из вопроса.Поэтому мы реализуем маркировку сущностей, чтобы маркировать каждый токен в вопросах.Тем не менее, трудны случаи, когда в логической форме имеется более одной сущности.Предположим, что мы пометили $E_1$ и $E_2$ из вопроса.Мы не знаем, какой из них нам следует выбрать, чтобы заполнить первый слот сущности в эскизе.Решаем эту задачу и одновременно выбираем подходящий предикат.Сущности в вопросах заменяются меткой «сущность» с подписями, указывающими порядок их появления в вопросах для получения шаблонов вопросов.Когда дело доходит до шаблонов логических форм, сущности в логических формах также заменяются, а предикаты разбиваются на небольшие токены.В таблице TABREF4 приведен пример этих двух шаблонов.Таким образом, мы успешно объединяем сочетания сущностей с предикатами.Другая причина использования здесь ярлыка «сущность» — обобщение.Например, вопрос «какая дата рождения у Барака Обамы» имеет тот же шаблон вопросов «какая дата рождения у объекта 1» и «какая дата рождения у Дональда Трампа».В этих логических формах используется предикат «mso:people.person.date_of_birth».Таким образом, мы можем сделать вывод, что предикатом для этого шаблона вопроса, скорее всего, будет «mso:people.person.date_of_birth».Если в тестовом наборе появляется вопрос «какова дата рождения Джорджа Буша», мы сможем найти правильный предикат, даже если раньше мы не видели слово «Джордж Буш».Без влияния конкретных сущностей наша модель более точно изучает сопоставление шаблонов вопросов с шаблонами логических форм.Поскольку у нас нет базы знаний, мы можем только извлекать шаблоны логических форм в обучающем наборе.И мы обнаружили, что 90,34% шаблонов логических форм в наборе проверки покрываются шаблонами в обучающем наборе, что обеспечивает осуществимость нашего метода.В качестве входных данных мы принимаем шаблоны вопросов в сочетании с шаблонами логических форм.Затем мы получаем кандидатов в логические формы путем объединения эскизов и объектов с шаблонами логических форм.Те, у кого больше баллов, с большей вероятностью будут правы.На этом этапе применяется точно настроенная задача классификации одного предложения в Bert.В начало добавлено специальное встраивание классификации ([CLS]).Мы используем окончательное скрытое состояние, соответствующее этому токену, в качестве представления совокупной последовательности для задачи классификации, обозначаемой как $C_s \in \mathbb {R}^h$, поэтому вероятность класса $c_i$ может быть вычислена как: где $W_s \ в \mathbb {R}^{k_s \times h}$ и $b_s \in \mathbb {R}^{k_s}$, $k_s$ — это количество классов эскизов.$W_s$, $b_s$ и все параметры Берта настраиваются совместно, чтобы максимизировать логарифмическую вероятность правильной метки.Здесь мы используем одно предложение, помечающее точно настроенную задачу в Bert, чтобы пометить каждый токен в вопросе, является ли это токеном сущности, который также появляется в логической форме.Чтобы упростить задачу, мы используем три метки для токенов в вопросах.Метка «b» представляет первый токен в сущности, а метка «i» — для остальных.А метка «o» представляет те токены, которых нет ни в одной сущности.Из-за лексических правил Берта мы также помечаем специальный токен ([CLS]) в начале предложения и специальный токен ([SEP]) в конце предложения как «о».Последняя метка «p» предназначена для всех токенов заполнения, добавленных для достижения максимальной длины.Кроме того, некоторые токены в вопросах разделены Бертом на несколько более мелких токенов.Для разделенных объектов они помечаются как «i», если они находятся в сущностях, и как «o» в противном случае.На этом этапе мы используем все финальные скрытые состояния, обозначенные как $D \in \mathbb {R}^{h \times m}$, где m — максимальная длина установленных нами входных токенов.Скрытое состояние отображается в измерении $k_e$ через $E = W_eD + b_e$, где $W_e \in \mathbb {R}^{k_e \times h}$ и $b_e \in \mathbb {R}^{k_e \ раз m}$, $k_e$ — количество меток здесь.Мы используем CRF на вершине сети, принимая $E$ в качестве входных представлений.Цель состоит в том, чтобы минимизировать потерю слоя CRF.Мы объединяем классификацию эскизов и маркировку объектов для совместного использования информации. Это означает, что эскизы образцов могут помочь маркировать объекты, в то время как помеченные объекты могут помочь в классификации эскизов, наоборот.Архитектура нашей модели представлена на рис.FigREF9, где параметры модели Берта точно настраиваются для двух задач.Поскольку масштаб набора данных велик, мы можем сэкономить много времени с помощью многозадачной модели вместо обучения двух разных моделей.Наконец, это способствует как точности, так и эффективности.Таким образом, наши потери, которые необходимо минимизировать, представляют собой взвешенную сумму потерь перекрестной энтропии в задаче классификации эскизов и потерь CRF в задаче маркировки объектов.Помимо задач с одним предложением, Берт также предлагает задачи по классификации пар предложений.Мы реализуем сеть сопоставления, принимая в качестве входных данных шаблоны вопросов и шаблоны логических форм.Правильные пары шаблонов считаются положительными образцами.Мы отбираем отрицательные образцы только из шаблонов логических форм в том же классе эскизов для шаблонов фиксированных вопросов.Упомянутый эскиз взят из многозадачной модели.Как и в случае с классификацией эскизов, мы обозначаем окончательное скрытое состояние, соответствующее токену ([CLS]), как $C_p \in \mathbb {R}^h$, поэтому вероятность можно вычислить как: где $W_p \in \mathbb {R }^{2 \times h}$, $b_p \in \mathbb {R}^{2}$ и $c_j \in \lbrace 0, 1\rbrace $.$W_p$, $b_p$ и все параметры bert настраиваются совместно, чтобы максимизировать логарифмическую вероятность правильного класса.На этапе прогнозирования кандидаты на шаблон вопроса также относятся к шаблонам логических форм в том же классе эскизов.Вероятности класса «1» — это оценки, которые мы получаем для этих пар шаблонов.Из шаблонов логических форм мы получаем не только правильные предикаты, но и правильный порядок появления сущностей.Таким образом, с помощью эскиза и сущностей, которые мы получаем в многозадачной модели, мы уже можем генерировать кандидатов полных логических форм с оценками от 0 до 1. Чтобы компенсировать отсутствие базы знаний, мы включаем отношения совместного появления между предикатами и сущностями, чтобы оценить кандидатов.Мы также создаем вторую сеть соответствия на основе Берта.На этот раз пары, которые мы принимаем в качестве входных данных, представляют собой пары предикатов.Мы помечаем пару предикат-сущность как «1», если они когда-либо появлялись в одной тройке в обучающем наборе.Для определенной сущности мы выбираем предикаты, которые никогда не встречаются с этой сущностью в качестве отрицательных выборок.На этапе прогнозирования мы оцениваем пары предикат-сущность в кандидатах логической формы.Однако эта сеть не принимает вопросы во внимание.Предикат для определенной сущности может сильно различаться в зависимости от разных вопросов.Например, предикат «какая дата рождения барака обамы» явно отличается от предиката «какое место рождения барака обамы».Но у сущности «Барак Обама» есть только один предикат с наивысшим баллом.Хотя эта сеть сопоставления учитывает только отношения совместного возникновения, независимо от информации из вопросов, полученные с ее помощью оценки работают в качестве вспомогательного средства.Хотя сложной сети нелегко сгенерировать всю логическую форму, такие сети отражают отображение с общей точки зрения.Поэтому мы используем здесь PointerBIBREF6 для изменения ранга.Мы воспринимаем вопросы как входные данные.В логических формах сущности и предикаты состоят из слов, объединенных символами «_» или «.».Чтобы использовать информацию слов, мы разделяем все сущности и предикаты и принимаем кандидатов на разделение логических форм в качестве выходных данных.Для фиксированного вопроса мы вычисляем кросс-энтропийные потери разных пар с расщепленными логическими формами.Затем каждая потеря делится на максимальную и вычитается на 1, чтобы быть нормализованной между 0 и 1.Чем выше балл, тем больше вероятность того, что кандидат на логическую форму будет верным.Линейная комбинация трех промежуточных оценок из сети сопоставления пар шаблонов, сети сопоставления пар предикат-сущность и указателя используется для переоценки кандидатов в логическую форму.Веса грубо корректируются в наборе проверки.В многозадачной модели количество классов эскизов — 15, а количество меток — 4.Мы применили модель Берта «BERT-Base, Uncased» с 12 слоями, 768 скрытыми, 12 головками и параметрами 110M.Все параметры точно настраиваются в наборе проверки.В многозадачной модели мы обучаем модель в течение 10 эпох.Мы установили размер пакета 32 и скорость обучения 2e-5.Вес потери в классификации эскизов равен 1, а в маркировке объектов — 2.Мы обучаем 3 модели в сети сопоставления пар шаблонов с разными эпохами.Что касается сети сопоставления пар предикат-сущность, количество эпох, которые мы используем, равно 3.В Pointer встраивание слов инициализировалось GloveBIBREF10.Скрытый размер LSTM установлен на 256.Более подробная информация будет опубликована в наших исходных кодах позже.Из-за нестабильности производительности нейронной сети в течение периодов обучения ансамблевое обучение включено как в сеть сопоставления пар шаблонов, так и в Pointer.Оценка Pointer представляет собой простое среднее значение оценок трех моделей разных эпох.Когда дело доходит до сети сопоставления пар шаблонов, это немного сложно.Мы делаем прогноз для обучающего набора с помощью нашей «лучшей» модели.Здесь мы применяем ранжирующую выборку.Из тех, которые помечены как «0», но с вероятностью больше 0,0001, мы выбираем 20, а 5 из тех, чьи вероятности меньше 0,0001, в качестве новых отрицательных образцов.Мы обучаем новые модели с помощью новых обучающих данных, перед каждой эпохой пересчитываемых на основе одной «лучшей» модели и базовой модели Берта.После нескольких эпох мы усредняем вероятности новых и исходных моделей ансамбля.Подробные характеристики мы демонстрируем в таблице TABREF16.Все образцы разделены на 15 классов.Мы показываем результаты для каждого класса и общую средневзвешенную производительность в наборе проверки.Поскольку полный набор тестов еще не открыт, мы предоставляем только общие результаты в наборе тестов, возвращенном после отправки.Видно, что общая частота ошибок нашей многозадачной модели составляет всего 1,93%, что означает, что эта задача выполнена успешно.При классификации эскизов баллы $Err_s$ для всех классов ниже 1%, за исключением многоходового ответа.Его полнота составляет 100,00%, а точность - 91,38%.0,92% выборок в многооборотном объекте ошибочно классифицируются как многооборотный ответ в наборе проверки.Мы находим разделитель «$|||$» в логических формах из трех классов многоходовых вопросов.Вопросы с несколькими поворотами-предикатами имеют две разные сущности, в то время как вопросы с несколькими поворотами и ответами с несколькими поворотами имеют только одну.Такая информация об объектах передается в классификацию эскизов через общие параметры.Таким образом, наша система допускает некоторые ошибки при различении выборок с несколькими поворотами и выборками с несколькими ответами.Что касается маркировки объектов, общий уровень ошибок составляет 1,72%.Мы проверяем неправильные образцы и обнаруживаем, что наша модель не очень хорошо распознает границы сущностей, особенно при обнаружении некоторых специальных токенов, таких как артикли, родительный падеж «s» и кавычки.На самом деле, человеку нелегко определить сущность и в этих случаях.Наконец, $Err_f$ нашей лучшей модели составляет 13,14% в проверочном наборе, 15,53% в полном тестовом наборе и 36,92% в подмножестве жесткого тестирования.Мы проверяем выходные данные нашей модели, чтобы выявить причины ошибок.Ошибка сущности составляет 20,43% не только из-за неправильных сущностей, но и из-за правильных сущностей в неправильном порядке.79,57% неправильных выборок имеют неправильные предикаты, хотя их сущности верны.Наша точность чрезвычайно низка для множественного выбора.Мы изучаем этот класс и обнаруживаем, что 50,72% ошибок происходят из-за правильных объектов в неправильном порядке.На самом деле в эскизе класса с множественным выбором есть три разных объекта, и два из них семантически взаимозаменяемы в форме $( или ( равно\ ?x\E_1 ) (равно\ ?x\ E_2 ))$.Поэтому нашей сети сопоставления пар шаблонов нелегко справиться с этой проблемой.Между тем, наша модель достигает уровня ошибок 0% для 3 классов в наборе проверки.Наша система сравнивается с системами других команд в рамках общей задачи 2 NLPCC 2019.Четыре лучших результата показаны в таблице TABREF17.Наша система в списке заявок — $WLIS$, занявшая 3-е место.После некоторой оптимизации параметров, структуры сети seq2seq и выборки производительность нашей новой системы значительно улучшилась.Точность нашей новой базовой линии достигает 77,42%.За счет включения двух вспомогательных оценок точность повышается до 86,86% в наборе проверки.Точность достигает 84,47% в полном наборе тестов и 63,08% в подмножестве жестких тестов.Наша точность на полном наборе тестов превосходит 2-е место, но все же ниже 1-го места на 1,21%, тогда как точность на жестком подмножестве выше, чем у 1-го места на 5,65%. Семантический анализ является давней проблемой в НЛП-картографии. высказывания естественного языка в логические формы BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16.Поскольку при семантическом анализе нелегко маркировать данные вручную, обучение с подкреплением BIBREF17 и передача BIBREF18, BIBREF19 применяются, когда данных недостаточно.Но в большинстве случаев мы изучаем, как улучшить результаты, когда имеется достаточно данных для контролируемого обучения.Базовая сеть seq2seqBIBREF20 позволяет обучать модель в сквозном режиме.Позже модели с учетом структуры разрабатываются для более тщательного создания логических форм.Seq2treeBIBREF4 оснащен декодером с древовидной структурой для анализа иерархических логических форм, а STAMPBIBREF1 использует переключающий вентиль в декодере для управления генерацией SQL.Все упомянутые выше модели генерируют всю логическую форму за один раз.Есть также несколько работ, в которых для решения проблемы применялся эскизный подход.Он уже исследовался в области синтеза программ BIBREF21.Coarse2fineBIBREF7 разбивает процесс декодирования на 2 этапа.На первом этапе создаются эскизы, а на втором этапе модель заполняет недостающие детали.Генерация SQL особенно подходит для этого метода из-за простых эскизов.SqlnetBIBREF22 делит задачу на 6 подзадач для генерации разных частей SQL.SQLovaBIBREF23 также унаследовал эту идею и включил BertBIBREF9 в свою модель.Идея нашей системы аналогична SQLova.Мы не используем сложные декодеры, чтобы обеспечить понимание структуры нашей сети.Архитектура моделей проста на каждом этапе.Сначала мы определяем эскизы как структуру высокого уровня.Детали низкого уровня добавляются на более поздних этапах.Потери сети seq2seq применяются здесь для изменения ранжирования с общей точки зрения.Таким образом, мы фактически в некоторой степени совмещаем метод seq2seq и метод на основе эскизов.В этой статье мы представили основанную на эскизах систему семантического анализа, которая отделяет структуры высокого уровня от деталей низкого уровня.Из-за отсутствия базы знаний мы предлагаем собирать шаблоны вопросов и шаблоны логических форм, чтобы уловить неявные отношения между вопросами и предикатами, которые затем можно использовать для изменения ранжирования в сети Pointer в рамках структуры seq2seq.Наша предыдущая представленная система заняла 3-е место, а наша новая система превосходит 1-е место по точности в подмножестве жестких тестов.Поскольку база знаний будет опубликована позже, в будущей работе мы хотели бы включить новые знания для улучшения нашей системы.Мы расширим нашу систему и на другие задачи семантического анализа.Работа частично поддерживается NSFC (грант № 61672057, 61672058, 61872294), Национальной программой исследований и разработок в области высоких технологий Китая (№ 2018YFB1005100).По вопросам переписки обращайтесь к Yansong Feng. | В этой статье представлена наша система семантического анализа для задачи оценки семантического анализа открытой области в NLPCC 2019. Во многих предыдущих работах семантический анализ формулируется как задача последовательного преобразования (seq2seq). Вместо этого мы рассматриваем задачу как задачу, основанную на эскизе, от грубого к точному (coarse2fine). Эскиз представляет собой высокоуровневую структуру логической формы, исключающую детали низкого уровня, такие как сущности и предикаты. Таким образом, мы можем оптимизировать каждую деталь индивидуально. В частности, мы разбиваем процесс на три этапа: классификация эскизов определяет структуру высокого уровня, а маркировка объектов и соответствующая сеть заполняют недостающие детали. Более того, мы применяем метод seq2seq для оценки кандидатов в логические формы с общей точки зрения. Отношения совместного появления между предикатами и сущностями также способствуют изменению ранжирования. Представленная нами система достигает точности точного совпадения 82,53% на полном наборе тестов и 47,83% на подмножестве жестких тестов, что является 3-м местом в общей задаче 2 NLPCC 2019. После оптимизации параметров, структуры сети и выборки точность достигает 84,47%. на полном наборе тестов и 63,08% на подмножестве жестких тестов. | 3,572 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Устранение неоднозначности смысла слова на основе кодировки фиксированного размера с обычным забыванием. Слова с несколькими смыслами обычно существуют во многих языках.Например, слово «банк» может означать либо «финансовое заведение», либо «землю рядом с рекой или озером или склоном к ней», в зависимости от контекста.Такое слово называется «полисемой».Задача определить значение полисемы в окружающем ее контексте называется устранением смысловой неоднозначности слова (WSD).Устранение неоднозначности смысла слова является давней проблемой обработки естественного языка (НЛП) и имеет широкое применение в других задачах НЛП, таких как машинный перевод BIBREF0 .Задание на лексический образец и задание на все слова являются двумя основными ветвями задачи WSD.Первый фокусируется только на заранее выбранном наборе многосем, тогда как второй намерен устранить неоднозначность каждой многозначности во всем тексте.Многочисленные работы были посвящены задачам WSD, включая контролируемое, неконтролируемое, полуконтролируемое обучение и обучение, основанное на знаниях BIBREF1.Наша работа сосредоточена на использовании обучения с учителем для решения задачи WSD, состоящей из всех слов.Большинство контролируемых подходов сосредоточены на извлечении характеристик из слов в контексте.Ранние подходы в основном зависят от функций, созданных вручную.Например, IMS от BIBREF2 использует в качестве функций POS-теги, окружающие слова и коллекции местных слов.Эти подходы позже улучшаются путем объединения с функциями встраивания слов BIBREF0 , которые лучше представляют семантическую информацию слов в пространстве действительных значений.Однако эти методы игнорируют ценную информацию о положении между словами в последовательности BIBREF3.Двунаправленный подход долговременной краткосрочной памяти (LSTM) от BIBREF3 обеспечивает один из способов улучшить порядок слов.Недавно BIBREF4 улучшил производительность за счет предварительного обучения языковой модели LSTM с большим немаркированным корпусом и использования этой модели для генерации смысловых векторов для дальнейших прогнозов WSD.Однако LSTM значительно увеличивает вычислительную сложность в процессе обучения.Разработка так называемого «порядково забывающего кодирования фиксированного размера» (FOFE) позволила нам рассмотреть более эффективный метод.Как впервые было предложено в BIBREF5, FOFE обеспечивает способ кодирования всей последовательности слов переменной длины в почти уникальное представление фиксированного размера, сохраняя при этом позиционную информацию для слов в последовательности.В прошлом FOFE применялся для решения нескольких задач НЛП, таких как языковая модель BIBREF5, распознавание именованных объектов BIBREF6 и встраивание слов BIBREF7.Многообещающие результаты, продемонстрированные подходом FOFE в этих областях, вдохновили нас применить FOFE для решения проблемы WSD.В этой статье мы сначала опишем, как FOFE используется для кодирования последовательности любой длины в представление фиксированного размера.Далее мы подробно рассмотрим, как модель псевдоязыка обучается с помощью кодирования FOFE на основе немаркированных данных с целью абстракции контекста и как классификатор для каждой полисемы строится на основе абстракций контекста ее помеченных обучающих данных.Наконец, мы предоставляем результаты экспериментов нашего метода на нескольких наборах данных WSD, чтобы обосновать эквивалентную производительность современного подхода.Тот факт, что человеческие языки состоят из последовательностей слов переменной длины, требует, чтобы модели НЛП могли использовать данные переменной длины.RNN/LSTM решает эту проблему с помощью рекуррентных соединений, но такая повторность, следовательно, увеличивает сложность вычислений.Напротив, нейронная сеть с прямой связью (FFNN) получила широкое распространение во многих задачах искусственного интеллекта благодаря своим мощным возможностям моделирования и быстрым вычислениям, но также ограничена требованием ввода фиксированного размера.FOFE нацелен на кодирование последовательности слов переменной длины в представление фиксированного размера, которое впоследствии может быть передано в FFNN. Учитывая словарь INLINEFORM0 размера INLINEFORM1, каждое слово может быть представлено горячим вектором.FOFE может кодировать последовательность слов любой длины, используя линейную комбинацию, с коэффициентом забывания для отражения позиционной информации.Для последовательности слов INLINEFORM2 из V пусть INLINEFORM3 обозначает горячее представление слова INLINEFORM4, тогда код FOFE слова S можно рекурсивно получить с помощью следующего уравнения (установите INLINEFORM5 ): INLINEFORM6 где INLINEFORM0 — константа от 0 до 1 , называемый фактором забывания.Например, предположим, что A, B, C — это три слова с горячими векторами INLINEFORM1, INLINEFORM2, INLINEFORM3 соответственно.Кодировка FOFE слева направо для ABC — [INLINEFORM4, INLINEFORM5,1], а для ABCBC — [INLINEFORM6, INLINEFORM7, INLINEFORM8].Становится очевидным, что код FOFE имеет фиксированный размер, равный размеру вектора one-hot, независимо от длины последовательности INLINEFORM9.Кодировка FOFE обладает тем свойством, что исходную последовательность можно однозначно восстановить из кодировки FOFE.Согласно BIBREF5, уникальность FOFE-кодирования последовательности подтверждается следующими двумя теоремами: Теорема 1.Если фактор забывания INLINEFORM0 удовлетворяет INLINEFORM1, FOFE уникален для любой последовательности конечной длины INLINEFORM2 и любого счетного словаря INLINEFORM3. Теорема2Если фактор забывания INLINEFORM0 удовлетворяет INLINEFORM1, FOFE почти уникален для любого конечного значения INLINEFORM2 и словаря INLINEFORM3, за исключением только конечного набора счетных вариантов INLINEFORM4.для ситуаций, описанных теоремой SECREF2, где уникальность не гарантирована строго, вероятность коллизии на практике чрезвычайно мала.Следовательно, FOFE можно смело рассматривать как механизм кодирования, который теоретически преобразует последовательность переменной длины в представление фиксированного размера без какой-либо потери информации.Гипотеза лингвистического распределения утверждает, что слова, встречающиеся в близких контекстах, должны иметь сходное значение BIBREF8.Это означает, что конкретный смысл полисемы тесно связан с ее окружающим контекстом.Более того, человек определяет смысл полисемы, сначала понимая ее контекст.Аналогично, наша предложенная модель состоит из двух этапов, как показано на рисунке FigREF3: обучение модели псевдоязыка на основе FOFE, которая абстрагирует контекст как встраивания, и выполнение классификации WSD по встраиваниям контекста.Языковая модель обучается с помощью большого немаркированного корпуса с помощью BIBREF4, чтобы преодолеть нехватку данных для обучения WSD.Языковая модель представляет собой распределение вероятностей данной последовательности слов и обычно используется для прогнозирования последующего слова с учетом предыдущей последовательности.BIBREF5 предложил языковую модель нейронной сети на основе FOFE путем подачи кода FOFE предыдущей последовательности в FFNN.WSD отличается от языковой модели тем, что предсказание смысла целевого слова зависит от окружающей его последовательности, а не только от предшествующей последовательности.Следовательно, мы создаем модель псевдоязыка, которая использует как предыдущую, так и последующую последовательность для соответствия целям задач WSD.Предыдущая и последующая последовательности отдельно преобразуются в коды FOFE.Как показано на рисунке ФИГРЕФ3, слова, предшествующие целевому слову, кодируются слева направо как левый код FOFE, а слова, следующие за целевым словом, кодируются справа налево как правый код FOFE.Фактор забывания, лежащий в основе направления кодирования, отражает снижение релевантности слова из-за увеличения расстояния относительно целевого слова.Более того, FOFE масштабируется до более высоких порядков за счет объединения хвостовых частичных кодов FOFE.Например, FOFE второго порядка последовательности INLINEFORM0 можно получить как INLINEFORM1.Наконец, левый и правый коды FOFE объединяются в один вектор фиксированного размера, который может быть введен в FFNN в качестве входных данных.FFNN построен в виде полносвязных слоев.Каждый уровень получает значения из предыдущего слоя в качестве входных данных и выдает значения с помощью функции над взвешенными входными значениями в качестве выходных данных.FFNN все больше абстрагирует особенности данных через слои.Поскольку модель псевдоязыка обучена предсказывать целевое слово, выходной уровень не имеет отношения к задаче WSD и, следовательно, может быть отброшен.Однако оставшиеся слои все еще научились способности обобщать признаки от слова к контексту в процессе обучения.Значения удерживаемого слоя (предпоследнего слоя) извлекаются как внедрение контекста, что обеспечивает хорошую числовую абстракцию окружающего контекста целевого слова.Слова с одинаковым смыслом чаще всего встречаются в схожих контекстах, поэтому предполагается, что вложения контекстов их контекстов близки в пространстве встраивания.Поскольку модель псевдоязыка на основе FOFE способна абстрагировать окружающий контекст для любого целевого слова в виде встраивания контекста, применение языковой модели к экземплярам в аннотированном корпусе создает встраивания контекста для смыслов.Классификатор может быть построен для каждой полисемы на основе вложений контекстов всех ее контекстов, встречающихся в обучающем корпусе.При прогнозировании смысла полисемы мы аналогичным образом извлекаем встраивание контекста из контекста, окружающего предсказывающую полисему, и отправляем его в классификатор полисемы для определения смысла.Если классификатор для прогнозирующей полисемы невозможно построить из-за отсутствия обучающего экземпляра, вместо него используется первое значение из словаря.Например, слово INLINEFORM0 имеет два значения INLINEFORM1 для INLINEFORM2, встречающихся в обучающем корпусе, и каждое значение имеет экземпляры INLINEFORM3.Модель псевдоязыка преобразует все экземпляры в внедрения контекста INLINEFORM4 для INLINEFORM5, и эти внедрения используются в качестве обучающих данных для построения классификатора для INLINEFORM6.Затем классификатор можно использовать для прогнозирования смысла экземпляра INLINEFORM7, взяв встраивание прогнозирующего контекста INLINEFORM8. Встраивание контекста должно соответствовать большинству традиционных классификаторов, а выбор классификатора является эмпирическим.BIBREF4 берет среднее значение по внедрениям контекста для построения смысловых внедрений INLINEFORM0 и выбирает смысл, смысловое внедрение которого наиболее близко к предсказанному внедрению контекста, измеряемому косинусным сходством.На практике мы обнаружили, что алгоритм k-ближайшего соседа (kNN), который предсказывает смысл большинства k ближайших соседей, обеспечивает лучшую производительность при встраивании контекста, созданном нашей моделью псевдоязыка на основе FOFE.Чтобы оценить производительность предложенной нами модели, мы реализовали нашу модель с помощью Tensorflow BIBREF11 и провели эксперименты со стандартными данными SemEval, которые помечены смыслами из WordNet 3.0 BIBREF12.Мы создали классификатор, используя SemCor BIBREF13 в качестве обучающего корпуса, и оценили его на Senseval2 BIBREF14 и SemEval-2013 Task 12 BIBREF15 .Whenобучая нашу псевдоязыковую модель на основе FOFE, мы используем корпус Google1B BIBREF10 в качестве обучающих данных, который состоит примерно из 0,8 миллиарда слов.В качестве словаря выбраны 100 000 наиболее часто встречающихся слов корпуса.Размерность встраивания слов выбрана равной 512.В ходе эксперимента наилучшие результаты дает модель псевдоязыка 3-го порядка.Объединение левого и правого кодов FOFE 3-го порядка приводит к размерности 512 * 3 * 2 = 3072 для входного слоя FFNN.Затем мы добавляем три скрытых слоя размером 4096.Кроме того, мы выбираем постоянный коэффициент забывания INLINEFORM0 для кодирования FOFE и INLINEFORM1 для нашего классификатора k-ближайших соседей.В таблице TABREF6 представлены оценки микро F1 для разных моделей.Обратите внимание, что при обучении языковой модели мы используем корпус с 0,8 миллиарда слов и словарным запасом в 100 000 слов, по сравнению с BIBREF4, использующим 100 миллиардов слов и словарный запас в 1 000 000 слов.Абстракция контекста с использованием языковой модели — наиболее важный шаг.Размеры обучающего корпуса и словарного запаса существенно влияют на производительность этого процесса и, следовательно, на конечные результаты WSD.Однако BIBREF4 не опубликовал корпус из 100 миллиардов слов, использованный для обучения их языковой модели LSTM.Недавно BIBREF9 переопределил классификатор WSD на основе LSTM.Авторы обучили языковую модель с помощью меньшего корпуса Gigaword BIBREF16 из 2 миллиардов слов и словарного запаса в 1 миллион слов и сообщили о производительности.Их опубликованный код также позволил нам обучить модель LSTM с теми же данными, которые использовались при обучении нашей модели FOFE, и сравнить производительность в эквивалентных условиях.Кроме того, узким местом подхода LSTM является скорость обучения.Процесс обучения модели LSTM с помощью BIBREF9 занял примерно 4,5 месяца даже после применения оптимизации обрезки предложений, тогда как процесс обучения нашей модели на основе FOFE занял около 3 дней для получения заявленных результатов.В этой статье мы предлагаем новый метод решения проблемы устранения неоднозначности смысла слова, который использует порядковое кодирование забывания фиксированного размера (FOFE) для преобразования контекста переменной длины в почти уникальное представление фиксированного размера.Модель псевдоязыка нейронной сети с прямой связью обучается с помощью кодов FOFE большого немаркированного корпуса и используется для абстрагирования вложений контекста аннотированного экземпляра для построения классификатора k-ближайших соседей для каждой полисемы.По сравнению с высокими вычислительными затратами, вызванными моделью LSTM, кодирование фиксированного размера с помощью FOFE позволяет использовать простую нейронную сеть с прямой связью, которая не только намного более эффективна, но и столь же многообещающа с точки зрения численной производительности. | В этой статье мы представляем наш метод использования порядкового забывающего кодирования фиксированного размера (FOFE) для решения проблемы устранения неоднозначности смысла слова (WSD). FOFE позволяет нам кодировать последовательность слов переменной длины в теоретически уникальное представление фиксированного размера, которое можно передать в нейронную сеть прямого распространения (FFNN), сохраняя при этом позиционную информацию между словами. В нашем методе FFNN на основе FOFE используется для обучения модели псевдоязыка в немаркированном корпусе, после чего предварительно обученная языковая модель способна абстрагировать окружающий контекст экземпляров полисемы в маркированном корпусе во встраивания контекста. Далее мы воспользуемся преимуществами этих вложений контекста для классификации WSD. Мы провели эксперименты на нескольких наборах данных WSD, которые показывают, что предлагаемый нами метод может достичь производительности, сравнимой с производительностью современного подхода, за счет гораздо меньших вычислительных затрат. | 1,978 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Результаты общего задания NLP4IF-2019 по детальному выявлению пропаганды. Пропаганда направлена на влияние на мышление людей с целью продвижения определенной повестки дня.В эпоху Интернета, благодаря механизму обмена информацией в социальных сетях, пропагандистские кампании могут охватить очень большую аудиторию (BIBREF0, BIBREF1, BIBREF2). Пропагандистские новостные статьи используют определенные методы для передачи своего сообщения, такие как «что насчет», отвлекающий маневр и обзывательства, среди многих других (см. раздел SECREF3).Хотя доказать намерение непросто, мы можем проанализировать язык заявления/статьи и поискать использование конкретных пропагандистских методов.Переход на этот более детальный уровень может привести к созданию более надежных систем, а также позволит объяснить пользователю, почему автоматическая система посчитала статью пропагандистской.Учитывая это, мы организовали общую задачу по детальному обнаружению пропаганды на семинаре NLP4IF@EMNLP-IJCNLP 2019.Задание основано на корпусе новостных статей, аннотированных перечнем 18 пропагандистских приемов на фрагментном уровне.Мы надеемся, что корпус вызовет интерес за пределами сообщества исследователей, изучающих пропаганду.Например, методы, связанные с заблуждениями, и методы, основанные на эмоциях, могут предоставить новую среду для исследователей, интересующихся анализом аргументации и настроений.Пропаганда в основном рассматривалась на уровне статей.BIBREF3 создал корпус новостных статей, помеченных как пропаганда, достоверная информация, мистификация или сатира.BIBREF4 экспериментировал с бинаризованной версией этого корпуса: пропаганда в сравнении с тремя другими категориями.BIBREF5 аннотировал большой бинарный массив пропагандистских и непропагандистских статей и предложил систему, основанную на признаках, для их различения.Во всех этих случаях ярлыки были получены с помощью дистанционного наблюдения, при условии, что все статьи из данного новостного издания имеют ярлык этого издания, что неизбежно вносит шум BIBREF6. Смежной областью является область вычислительной аргументации, которая, среди прочего, имеет дело с некоторые логические ошибки, связанные с пропагандой.BIBREF7 представил подборку обсуждений на веб-форумах с примерами ошибок ad hominem.BIBREF8, BIBREF9 представили Argotario, игру, обучающую людей распознавать и создавать заблуждения, побочным продуктом которой является корпус аргументов стоимостью 1,3 тыс. долларов, аннотированных пятью заблуждениями, такими как ad hominem, отвлекающий маневр и нерелевантный авторитет, которые напрямую относятся к пропаганда.В отличие от BIBREF8, BIBREF9, BIBREF7, наш корпус использует 18 методов, аннотированных в одном и том же наборе новостных статей.Более того, наши аннотации направлены на выявление минимальных фрагментов, связанных с методом, а не на пометку целых аргументов.Наиболее актуальной соответствующей работой является наша собственная, которая публикуется параллельно с этой статьей на конференции EMNLP-IJCNLP 2019 BIBREF10 и описывает корпус, который является подмножеством того, который используется для этой общей задачи.Пропаганда использует психологические и риторические приемы для достижения своей цели.Такие приемы включают в себя использование логических ошибок и обращение к эмоциям.Для общей задачи мы используем 18 методов, которые можно найти в новостных статьях и которые можно оценить самостоятельно, без необходимости получения вспомогательной информации из внешних ресурсов.Мы отсылаем читателя к BIBREF10 для получения более подробной информации о методах пропаганды; ниже мы приводим список методов: Использование слов/фраз с сильным эмоциональным подтекстом (положительным или отрицательным) для воздействия на аудиторию BIBREF11. Обозначение объекта пропаганды как чего-то, чего целевая аудитория боится, ненавидит, находит нежелательным или иным образом любит или хвалит BIBREF12. .Повторение одного и того же сообщения снова и снова, чтобы аудитория в конечном итоге приняла его BIBREF13, BIBREF12.Либо представлять что-то в чрезмерной манере: делать вещи больше, лучше, хуже, либо заставлять что-то казаться менее важным или меньшим, чем оно есть на самом деле. BIBREF14, например, сказать, что оскорбление было всего лишь шуткой.Ставить под сомнение достоверность кого-либо или чего-либо.Стремление заручиться поддержкой идеи путем внушения тревоги и/или паники среди населения по поводу альтернативы, возможно, основанной на предвзятых суждениях.Игра на сильных национальных чувствах (или в отношении группы, например, расы, пола, политических предпочтений) для оправдания или продвижения действия или идеи BIBREF15. Предположение об одной причине, когда за проблемой стоит несколько причин.Мы также включаем в себя поиск козла отпущения: перекладывание вины на одного человека или группу людей без изучения сложности вопроса.Короткая и яркая фраза, которая может включать в себя навешивание ярлыков и стереотипов.Лозунги, как правило, действуют как эмоциональные призывы. BIBREF16. Заявление о том, что утверждение верно просто потому, что его поддерживает авторитетный авторитет/эксперт по данному вопросу, без каких-либо других подтверждающих доказательств. BIBREF17.Мы включаем особый случай, когда рекомендация не является авторитетным лицом/экспертом, хотя в литературе это называется рекомендацией BIBREF14. Представление двух альтернативных вариантов как единственных возможностей, когда на самом деле существует больше возможностей BIBREF13.В крайнем случае, точное указание аудитории, какие действия следует предпринять, исключающее любой другой возможный выбор (диктатура). Слова или фразы, которые препятствуют критическому мышлению и осмысленному обсуждению данной темы.Обычно это короткие и общие предложения, которые предлагают, казалось бы, простые ответы на сложные вопросы или отвлекают внимание от других направлений мысли. BIBREF18. Дискредитируйте позицию оппонента, обвиняя его в лицемерии, не опровергая напрямую его аргументы. BIBREF19. Убеждение аудитории не одобрять действие. или идея, предполагая, что эта идея популярна среди групп, ненавидимых целевой аудиторией.Оно может относиться к любому человеку или понятию с негативным оттенком BIBREF20. Введение не относящегося к обсуждаемому вопросу материала, чтобы всеобщее внимание отвлеклось от пунктов, высказанных BIBREF11.Тех, кто подвергается отвлекающему маневру, уводят от вопроса, который был в центре обсуждения, и призывают следовать наблюдению или утверждению, которое может быть связано с первоначальным утверждением, но не имеет большого отношения к спорному вопросу BIBREF20. Попытка убедить целевую аудиторию присоединиться и принять тот же курс действий, потому что «все остальные предпринимают то же самое». BIBREF15. Использование намеренно неясных слов, чтобы позволить аудитории иметь собственную интерпретацию BIBREF21, BIBREF11.Например, когда в аргументе используется неясная фраза с несколькими возможными значениями и, следовательно, она на самом деле не подтверждает вывод.Когда предложение оппонента заменяется аналогичным, которое затем опровергается вместо исходного BIBREF22. Общая задача состоит из двух подзадач: Учитывая новостную статью, обнаружить все фрагменты текста, в которых используется пропагандистский прием.Кроме того, для каждого этапа необходимо определить применяемую технику пропаганды.Предложение считается пропагандистским, если оно содержит хотя бы один пропагандистский фрагмент.Затем мы определяем задачу бинарной классификации, в которой для данного предложения необходимо предсказать правильную метку: пропаганда или непропаганда.Исходными данными для обеих задач являются новостные статьи в свободном текстовом формате, собранные из 36 пропагандистских и 12 непропагандистских новостных агентств и затем аннотированные профессиональными аннотаторами.Более подробную информацию о сборе данных и аннотациях, а также статистику по корпусу можно найти в BIBREF10, где описана более ранняя версия корпуса, включающая 450 новостных статей.Кроме того, мы аннотировали 47 дополнительных статей для общей задачи, используя тот же протокол и тех же аннотаторов.Обучающий, развивающий и тестовый разделы корпуса, используемого для общего задания, состоят из 350, 61 и 86 статей и 16 965, 2 235 и 3 526 предложений соответственно.На рисунке FigREF15 показан аннотированный пример, который содержит несколько методов пропаганды.Например, фрагмент младенцев в строке 1 является экземпляром как Name_Calling, так и Labeling.Обратите внимание, что фрагмент, который не выглядит так, будто Трамп убил свою бабушку в строке 4, является экземпляром Exaggeration_or_Minimisation и перекрывается с фрагментом, убившим его бабушку, который является экземпляром Loaded_Language.Table.TABREF23 сообщает общее количество экземпляров для каждого метода и процент от общего количества аннотаций для обучающего и развивающего наборов.Общая задача состояла из двух этапов: на этапе разработки участникам предоставлялись помеченные наборы данных для обучения и развития; на этапе тестирования дополнительно предоставлялись данные для тестирования.Участники постарались добиться наилучших результатов на развивающем наборе.Живая таблица лидеров отслеживала представленные материалы.Тестовый набор был выпущен, и у участников было несколько дней, чтобы сделать окончательные прогнозы.На этапе 2 немедленная обратная связь по представленным материалам не предоставлялась.Победитель определялся по результатам работы на тестовом наборе.ФЛК представляет собой композицию двух подзадач: идентификация фрагментов пропагандистского текста и идентификация использованных приемов (18-сторонняя классификационная задача).Хотя мера F$_1$ подходит для задачи классификации нескольких классов, мы модифицировали ее, чтобы учесть частичное совпадение между интервалами; более подробную информацию см. в BIBREF10.Далее мы рассчитали значение F$_1$ для каждого метода пропаганды (не показано ниже в целях экономии места, но доступно в таблице лидеров). SLC — это задача двоичной классификации с несбалансированными данными.Поэтому официальной мерой оценки задачи является стандартная мера F$_1$.Далее мы сообщаем о точности и отзыве.Базовая система для задачи SLC — это очень простой классификатор логистической регрессии с параметрами по умолчанию, где мы представляем входные экземпляры с помощью одной функции: длины предложения.Производительность этого базового плана для задачи SLC показана в таблицах TABREF33 и TABREF34. Базовый план для задачи FLC генерирует промежутки и случайным образом выбирает один из 18 методов.Неэффективность такого простого случайного базового уровня проиллюстрирована в таблицах TABREF36 и TABREF41. Всего для выполнения общей задачи зарегистрировались 90 команд, и 39 из них представили прогнозы на общую сумму 3065 заявок.По задаче FLC 21 команда подала в общей сложности 527 заявок, а по задаче SLC 35 команд подали в общей сложности 2538 заявок.Ниже мы даем обзор подходов, описанных в докладах участников.Таблицы TABREF28 и TABREF29 содержат общие сведения.Команда новояза BIBREF23 добилась лучших результатов на тестовом наборе для задачи FLC, используя 20-факторную классификацию уровня слов на основе BERT BIBREF24: слово могло принадлежать одному из 18 методов пропаганды, ни одному из них или вспомогательному ( производный от токена).Команда вводила по одному предложению за раз, чтобы уменьшить рабочую нагрузку.Помимо экспериментов с готовым BERT, они также попробовали неконтролируемую точную настройку как набора новостных данных 1M, так и Википедии.Их лучшая модель была основана на бескорпусной базовой модели BERT с 12 слоями преобразователя BIBREF25 и 110 миллионами параметров.Более того, передискретизация наименее представленных классов оказалась решающей для окончательной производительности.Наконец, тщательный анализ показал, что модель уделяет особое внимание прилагательным и наречиям.Команда Сталина BIBREF26 сосредоточилась на дополнении данных для решения проблемы относительно небольшого размера данных для точной настройки контекстных представлений встраивания на основе ELMo BIBREF27, BERT и Grover BIBREF28.Балансировка пространства встраивания осуществлялась посредством синтетической избыточной выборки класса меньшинства.Затем изученные представления были переданы в LSTM. Команда CAUnLP BIBREF29 использовала два контекстно-зависимых представления на основе BERT.В первом представлении за целевым предложением следует заголовок статьи.Во втором представлении также добавляется предыдущее предложение.Они выполнили подвыборку, чтобы справиться с дисбалансом классов, и экспериментировали с BERT$_{BASE}$ и BERT$_{LARGE}$. Команда LIACC BIBREF30 использовала созданные вручную функции и предварительно обученные внедрения ELMo.Они также заметили повышение производительности при балансировке набора данных за счет исключения некоторых негативных примеров.Команда JUSTDeep BIBREF31 использовала комбинацию моделей и функций, включая встраивание слов на основе GloVe BIBREF32, объединенное с векторами, представляющими привязанность и лексические особенности.Они были объединены в ансамбль контролируемых моделей: bi-LSTM, XGBoost и варианты BERT. Команда YMJA BIBREF33 также основывала свой подход на точно настроенном BERT.Вдохновленные соревнованиями Kaggle по анализу настроений, они создали ансамбль моделей посредством перекрестной проверки.Команда jinfen BIBREF34 использовала модель логистической регрессии, дополненную множеством представлений, включая векторы TF.IDF и BERT, а также словари и меры читаемости.Команда Tha3aroon BIBREF35 реализовала ансамбль из трех классификаторов: два на основе BERT и один на основе универсального кодировщика предложений BIBREF36. Команда NSIT BIBREF37 исследовала три наиболее популярные модели трансферного обучения: различные версии ELMo, BERT и RoBERTa BIBREF38.TeamМенткокодеры BIBREF39объединили сети BERT, Bi-LSTM и Capsule BIBREF40 в одну глубокую нейронную сеть и предварительно обучили полученную сеть на корпусах, используемых для смежных задач, например, классификации эмоций.Наконец, команда ltuorp BIBREF41 использовала преобразователь внимания с помощью BERT, обученного на Wikipedia и BookCorpus.Команда MIC-CIS BIBREF42 приняла участие в обеих задачах.Для классификации на уровне предложений они использовали ансамбль голосования, включающий логистическую регрессию, сверточные нейронные сети и BERT, во всех случаях используя встраивания FastText BIBREF43 и предварительно обученные модели BERT.Помимо этих представлений, учитывались многочисленные характеристики читабельности, настроений и эмоций.Для задачи на уровне фрагмента они использовали многозадачный тегировщик нейронных последовательностей, основанный на LSTM-CRF BIBREF44, в сочетании с лингвистическими функциями.Наконец, они применили приговор-и модели на уровне фрагментов совместно.Команда CUNLP BIBREF45 рассмотрела два подхода к задаче на уровне предложения.Первый подход был основан на тонкой настройке BERT.Второй подход дополнил тщательно настроенный подход BERT, передав его решение в логистический регрессор вместе с функциями из лексикона лингвистических запросов и подсчета слов (LIWC) и функциями, производными от пунктуации.Как и в случае с BIBREF42, для решения проблемы на уровне фрагментов они использовали архитектуру Bi-LSTM-CRF, сочетающую встраивания как на уровне символов, так и на уровне слов.Команда ProperGander BIBREF46 также использовала BERT, но особое внимание они уделили дисбалансу данных, а также различиям между обучением и тестированием.Они показали, что увеличение обучающих данных за счет передискретизации дало улучшения при тестировании на данных, которые во времени далеки от обучающих (за счет увеличения отзыва).Чтобы справиться с дисбалансом, они выполнили классификацию, чувствительную к затратам, то есть ошибки в меньшем положительном классе обходились дороже.Для классификации на уровне фрагментов, основанной на распознавании именованных объектов, они использовали модель, основанную на BERT с использованием непрерывного случайного поля, наложенного поверх LSTM. Результаты тестового набора для задачи SLC показаны в таблице TABREF33, а в таблице TABREF34. представлены результаты разработки, установленной в конце этапа 1 (см. раздел SECREF6).Общее уменьшение значений F$_1$ между набором разработки и набором тестов может указывать на то, что системы имеют тенденцию к переподгонке на наборе разработки.Действительно, победившая команда ltuorp выбрала параметры своей системы как в наборе разработки, так и в подмножестве обучающего набора, чтобы повысить надежность своей системы.В таблицах TABREF36 и TABREF41 представлены результаты теста и наборов разработки для задачи FLC.Для этой задачи результаты, как правило, более стабильны в двух наборах.Действительно, команде новояза удалось сохранить почти такую же разницу в результативности по отношению к команде Антиганды.Обратите внимание, что команде MIC-CIS удалось выйти на третью позицию, несмотря на то, что она ни разу не участвовала в разработке набора.Мы описали общую задачу NLP4IF@EMNLP-IJCNLP 2019 по детальной идентификации пропаганды.Мы получили 25 и 12 заявок на тестовый набор для задач классификации на уровне предложений и классификации на уровне фрагментов соответственно.В целом задача на уровне предложений оказалась проще, и большинству представленных систем удалось превзойти базовый уровень.Задача на уровне фрагментов оказалась гораздо более сложной, с более низкими абсолютными баллами, но большинству команд все же удалось превзойти базовый уровень.Мы планируем сделать схему и набор данных общедоступными для использования после NLP4IF.Мы надеемся, что этот корпус вызовет интерес за пределами сообщества исследователей, изучающих пропаганду: методы, связанные с заблуждениями и основанные на эмоциях, могут предоставить новую среду для исследователей, интересующихся анализом аргументации и настроений.Задача 11 на SemEval 2020, своего рода реклама, является продолжением этой общей задачи.Он включает в себя две взаимодополняющие задачи: Учитывая статью с произвольным текстом, определите диапазоны пропагандистского текста.Учитывая фрагмент текста, уже отмеченный как пропагандистский, и его контекст, определите конкретную пропагандистскую технику, которую он содержит.Эта настройка позволит участникам сосредоточить свои усилия на маркировке двоичных последовательностей для Задачи 1 и на многоклассовой классификации для Задачи.2. Данное исследование является частью проекта анализа пропаганды, который осуществляется в рамках проекта Танбих.Проект Танбих направлен на ограничение эффекта «фейковых новостей», пропаганды и предвзятости СМИ, информируя пользователей о том, что они читают, тем самым способствуя медиаграмотности и критическому мышлению, что, возможно, является лучшим способом борьбы с дезинформацией и «фейковыми новостями». ».Проект разработан в сотрудничестве Катарского научно-исследовательского института вычислительной техники (QCRI), HBKU и Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL). Корпус задачи был аннотирован A Data Pro, компанией, выполняющей высококачественные руководства. аннотации. | Мы представляем общую задачу по детальному обнаружению пропаганды, которая была организована в рамках семинара NLP4IF на EMNLP-IJCNLP 2019. Было две подзадачи. FLC — это задача на уровне фрагментов, которая требует идентификации фрагментов пропагандистского текста в новостной статье, а также прогнозирования конкретной пропагандистской техники, используемой в каждом таком фрагменте (задача 18-сторонней классификации). SLC — это задача бинарной классификации на уровне предложений, требующая обнаружения предложений, содержащих пропаганду. Всего 12 команд представили системы для задачи FLC, 25 команд — для задачи SLC и 14 команд в конечном итоге представили документ с описанием системы. Для обеих подзадач большинству систем удалось значительно превзойти базовый уровень. Таблица лидеров и данные соревнований доступны по этому http-URL. | 2,803 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Создание знаний и ответы на вопросы с помощью KALM. Представление и обоснование знаний (KRR) — это процесс представления знаний предметной области на формальных языках (например, SPARQL, Prolog), чтобы они могли использоваться экспертными системами для выполнения сервисов запросов и рассуждений.KRR применяются во многих областях, включая финансовое регулирование, медицинскую диагностику, законы и т. д.Одним из основных препятствий в KRR является создание крупномасштабных баз знаний высокого качества.Во-первых, это требует от инженеров по знаниям (KE) не только базовых знаний в определенной области, но и достаточных навыков представления знаний.К сожалению, квалифицированных специалистов также не хватает.Поэтому было бы полезно создать инструмент, который позволил бы экспертам в предметной области без какого-либо опыта в логике создавать и запрашивать базу знаний просто из текста.Контролируемые естественные языки (CNL) BIBREF0 были разработаны как технология, достигающая этой цели.CNL разработаны на основе естественных языков (NL), но с ограниченным синтаксисом и правилами интерпретации, которые определяют уникальное значение предложения.Типичные CNL включают Attempto Controlled English BIBREF1 и PENG BIBREF2.Каждый CNL разработан с помощью языкового анализатора, который переводит английские предложения в промежуточную структуру, структуру представления дискурса (DRS) BIBREF3.На основе структуры DRS анализаторы языка дополнительно преобразуют DRS в соответствующие логические представления, например, программы BIBREF4 программирования наборов ответов (ASP).Одна из основных проблем вышеупомянутых CNL заключается в том, что системы не предоставляют достаточных базовых знаний для сохранения семантической эквивалентности предложений, которые представляют одно и то же значение, но выражены через разные лингвистические структуры.Например, предложения «Мэри покупает машину» и «Мэри покупает машину» переводятся в различные логические представления текущими анализаторами CNL.В результате, если пользователь задаст вопрос, кто является покупателем автомобиля, эти системы не смогут найти ответ.В этой дипломной работе я представлю KALM BIBREF5, BIBREF6, систему для создания знаний и ответов на вопросы.KALM превосходит существующие системы CNL тем, что KALM имеет сложный фрейм-семантический анализатор, который может стандартизировать семантику предложений, выражающих одно и то же значение через разные лингвистические структуры.Семантический анализатор кадров построен на основе FrameNet BIBREF7 и BabelNet BIBREF8, где FrameNet используется для захвата значения предложения, а BabelNet BIBREF8 используется для устранения неоднозначности смысла извлеченных объектов из предложения.Результаты экспериментов показывают, что KALM обеспечивает более высокую точность создания знаний и ответов на вопросы по сравнению с современными системами.Остальные части организованы следующим образом: в разделе SECREF2 обсуждаются соответствующие работы, в разделе SECREF3 представлена архитектура KALM, в разделе SECREF4 представлена KALM-QA, часть KALM, отвечающая на вопросы, в разделе SECREF5 показаны результаты оценки, в разделе SECREF6 показаны будущие работы. диссертацию, а раздел SECREF7 завершает статью.Как описано в разделе SECREF1, системы CNL были предложены в качестве технологии представления знаний и рассуждений.Связанные работы также включают инструменты извлечения знаний, например, OpenIE BIBREF9, SEMEFOR BIBREF10, SLING BIBREF11 и систему Standford KBP BIBREF12.Эти инструменты извлечения знаний предназначены для извлечения семантических отношений из английских предложений, которые передают смысл.Ограничения этих инструментов двояки: во-первых, им не хватает точности для извлечения правильных семантических отношений и сущностей, в то время как KRR очень чувствителен к неверным данным; во-вторых, эти системы не способны отображать семантические отношения в логические формы и, следовательно, не способны выполнять KRR.Другие связанные работы включают в себя структуры ответов на вопросы, например, Сеть памяти BIBREF13, Сеть вариационного рассуждения BIBREF14, ATHENA BIBREF15, PowerAqua BIBREF16.Первые два относятся к подходам сквозного обучения, основанным на моделях машинного обучения.В последних двух системах реализованы семантические анализаторы, которые переводят предложения естественного языка на промежуточные языки запросов, а затем запрашивают базу знаний для получения ответов.Для подходов, основанных на машинном обучении, результаты необъяснимы.Кроме того, их точность недостаточно высока, чтобы дать правильные ответы.В случае ATHENA и PowerAqua эти системы отвечают на вопросы на основе априорных баз знаний.Таким образом, они не поддерживают создание знаний, в то время как KALM может поддерживать как создание знаний, так и ответы на вопросы.На рисунке FigREF1 показана архитектура KALM, которая преобразует предложение CNL в соответствующие логические представления, уникальные логические представления (ULR). Механизм синтаксического анализа попыток.Входные предложения — это предложения CNL, основанные на грамматике ACE.KALM начинает с анализа входного предложения с помощью ACE Parser и генерирует структуру DRS BIBREF17, которая собирает синтаксическую информацию предложений.Парсер кадров.KALM выполняет синтаксический анализ на основе кадров на основе DRS и создает набор кадров, которые представляют семантические отношения, подразумеваемые предложением.Кадр BIBREF18 представляет собой семантическое отношение набора объектов, каждый из которых играет определенную роль в отношении кадра.Мы разработали онтологию кадров под названием FrameOnt, которая основана на кадрах FrameNet BIBREF7 и закодирована как факт Пролога.Например, фрейм Commerce_Buy показан ниже: fp(Commerce_Buy,[ role(Buyer,[bn:00014332n],[]), role(Seller,[bn:00053479n],[]), role(Goods,[bn: 00006126n,bn:00021045n],[]), role(Получатель,[bn:00066495n],[]), role(Деньги,[bn:00017803n],[валюта])]).В каждом термине роли первый аргумент — это имя роли, а второй — список значений роли, представленный через идентификаторы синсета BabelNet BIBREF8.Третий аргумент ролевого термина — это список ограничений этой роли.Например, предложение Мэри покупает машину подразумевает фрейм Commerce_Buy, где Мэри является Покупателем, а автомобиль — Товаром.Чтобы извлечь экземпляр фрейма из данного предложения CNL, KALM использует шаблоны логической валентности (lvps), которые изучаются посредством структурного обучения.Пример lvp показан ниже: lvp(buy,v,Commerce_Buy, [ шаблон(Покупатель,глагол->субъект,обязательно), шаблон(Товар,глагол->объект,обязательный), шаблон(Получатель,глагол->pp (for)->dep,optnl), шаблон(Деньги,глагол->pp(for)->dep,optnl), шаблон(Продавец,глагол->pp(from)->dep,optnl)]).Первый три аргумента lvp-факта идентифицируют лексическую единицу, ее часть речи и фрейм.Четвертый аргумент представляет собой набор терминов-шаблонов, каждый из которых состоит из трех частей: имя роли, грамматический образец и обязательный/необязательный флаг.Грамматический образец определяет грамматический контекст, в котором лексическая единица, роль и слово-заполнитель роли могут появиться в этом фрейме.Каждый грамматический образец фиксируется правилом синтаксического анализа (правилом Пролога), которое можно использовать для извлечения соответствующих слов-заполнителей ролей на основе анализа APE.Роль-наполнитель.На основе извлеченного экземпляра кадра модуль устранения неоднозначности заполнителя роли устраняет неоднозначность значения каждого слова-заполнителя роли для соответствующей роли кадра и идентификатора BabelNet Synset.Был предложен сложный алгоритм BIBREF5 для измерения семантического сходства между синсетом-кандидатом BabelNet, который содержит слово-заполнитель роли, и синсетом фрейм-роль.Алгоритм также имеет оптимизации, которые повышают эффективность алгоритма, например, поиск на основе приоритета, кэширование и т. д.Помимо устранения неоднозначности значения заполнителей ролей, этот модуль также используется для удаления извлеченных экземпляров фрейма, в которых слово-заполнитель роли и роль фрейма семантически несовместимы.Построение УЛР.Извлеченные экземпляры фрейма преобразуются в соответствующие логические представления, уникальное логическое представление (ULR).Примеры можно найти в ссылке BIBREF5. На основе KALM разработан KALM-QA BIBREF6 для ответов на вопросы.KALM-QA использует те же компоненты, что и KALM, для синтаксического анализа, анализа на основе фреймов и устранения неоднозначности наполнителя ролей.В отличие от KALM, KALM-QA преобразует вопросы в уникальное логическое представление запросов (ULRQ), которые используются для запроса авторской базы знаний.В этом разделе представлена сводка оценок KALM и KALM-QA, где KALM оценивается для создания знаний, а KALM-QA оценивается для ответов на вопросы.Мы создали в общей сложности 50 логических фреймов, в основном полученных из FrameNet, но есть и те, которые отсутствуют в FrameNet (например, Restaurant, Human_Gender) для представления значения английских предложений.На основе 50 кадров мы вручную построили 250 предложений, адаптированных из образцовых предложений FrameNet, и оценили эти предложения в системах KALM, SEMAFOR, SLING и Stanford KBP.KALM достигает точности 95,6% — намного выше, чем у других систем.Что касается KALM-QA, мы оцениваем его на двух наборах данных.Первый набор данных представляет собой общие вопросы, составленные вручную на основе 50 логических рамок.KALM-QA достигает точности анализа запросов 95%.Второй набор данных, который мы используем, — это набор данных MetaQA BIBREF14, который содержит почти 29 000 тестовых вопросов и более 260 000 обучающих вопросов.KALM-QA достигает 100% точности — намного выше, чем современный подход машинного обучения BIBREF14.Подробности оценок можно найти в BIBREF5 и BIBREF6. В этом разделе обсуждается будущая работа, выходящая за рамки диссертации: (1) улучшение KALM для создания правил и (2) поддержка рассуждений о времени.Авторские правила от CNL.Есть две исследовательские проблемы, связанные с правилами.Первая проблема — это стандартизация правил анализа, которые выражают одну и ту же информацию, но с помощью разных синтаксических форм или с использованием разных выражений.Предположим, база знаний содержит такие предложения, как: (1) если человек покупает автомобиль, то этот человек владеет автомобилем, (2) каждый человек, покупающий автомобиль, является владельцем автомобиля, (3) если автомобиль куплен человеком, то этот человек владеет автомобилем.Все приведенные выше предложения представляют собой правила и выражают одно и то же значение.Однако текущий синтаксический анализатор KALM будет представлять их в разных DRS и, следовательно, не сможет отобразить их в одну и ту же логическую форму.Вторая проблема связана с распознаванием и представлением различных типов правил в логике.Например, в тексте очень часто встречаются отменяемые правила.Однако этот тип правил не может быть обработан логикой первого порядка.Мы считаем, что отменяемая логика BIBREF19 хорошо подходит.Рассуждение о времени.Информация, связанная со временем, является важной частью человеческого знания, но семантический анализ, учитывающий время, довольно сложен.Однако мы можем разработать CNL, который будет включать в себя достаточно идиом, связанных со временем, чтобы быть полезным в ряде областей дискурса (например, в налоговом праве).Затем время можно добавить к DRS и включить в наш фреймовый подход вплоть до самого уровня логических фактов, в которые будут переведены предложения.Эта информация о времени может быть представлена либо через специальные временные связи между событиями (например, до, после, причинно-следственная связь, запуск), либо с использованием зарезервированного аргумента для представления времени в каждом свободном языке.В этом предложении диссертации представлен обзор KALM, системы создания знаний.Кроме того, он представляет KALM-QA, часть KALM, отвечающую на вопросы.Результаты экспериментов показывают, что и KALM, и KALM-QA достигают более высокой точности по сравнению с современными системами. | Представление знаний и рассуждение (KRR) является одной из ключевых областей в области искусственного интеллекта (ИИ). Он предназначен для представления мировых знаний на формальных языках (например, Пролог, SPARQL), а затем расширяет возможности экспертных систем для выполнения задач запроса и вывода. В настоящее время построение крупномасштабных баз знаний (БЗ) высокого качества запрещено тем, что для процесса построения требуется много квалифицированных инженеров по знаниям, которые не только разбираются в предметных знаниях, но и обладают достаточными навыками представления знаний. К сожалению, квалифицированных инженеров знаний не хватает. Поэтому было бы очень полезно создать инструмент, который позволил бы пользователю создавать и запрашивать базу знаний просто с помощью текста. Хотя существует ряд систем, разработанных для извлечения знаний и ответов на вопросы, они в основном терпят неудачу из-за того, что эти системы не обеспечивают достаточно высокой точности, тогда как KRR очень чувствителен к ошибочным данным. В этой дипломной работе я представлю логическую машину создания знаний (KALM), систему, основанную на правилах, которая позволяет пользователю создавать знания и запрашивать базу знаний в текстовом виде. Результаты экспериментов показывают, что KALM достигла более высокой точности при создании знаний и ответов на вопросы по сравнению с современными системами. | 1,884 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Gunrock: социальный бот для сложных и увлекательных длинных разговоров. Amazon Alexa Prize BIBREF0 предоставляет платформу для сбора реальных данных о человеко-машинных разговорах и оценки эффективности речевых социальных диалоговых систем.Наша система Gunrock BIBREF1 устраняет некоторые ограничения предыдущих чат-ботов BIBREF2, BIBREF3, BIBREF4, включая непоследовательность и трудности в понимании сложных предложений (например, длинных высказываний), и вносит ряд преимуществ: во-первых, многоэтапные модули понимания языка Gunrock позволяют системе предоставлять больше полезная информация для менеджера диалогов, включая новую схему диалоговых действий.Кроме того, модуль понимания естественного языка (NLU) может обрабатывать более сложные предложения, в том числе имеющие кореференцию.Во-вторых, Gunrock чередует действия, чтобы узнать мнение пользователей и дать ответы, чтобы создать углубленный и увлекательный разговор; Хотя соответствующая стратегия чередования задачных и незадачных функций в чат-ботах была предложена BIBREF5, насколько нам известно, ни один чат-бот не использовал стратегию чередования фактов/мнений.Наконец, мы используем обширную базу данных персон для предоставления целостной информации о профиле, что является важной задачей при создании социальных чат-ботов BIBREF3.По сравнению с предыдущими системами BIBREF4, Gunrock обеспечивает более сбалансированное общение между человеком и машиной, поощряя и понимая больше действий человека (пример см. в таблице TABREF2). На рисунке FigREF3 представлен обзор архитектуры Gunrock.Мы расширяем набор инструментов Amazon Conversational Bot Toolkit (CoBot) BIBREF6, который представляет собой гибкую управляемую событиями структуру.CoBot предоставляет результаты ASR и конвейеры обработки естественного языка через Alexa Skills Kit (ASK) BIBREF7.Gunrock корректирует ASR в соответствии с контекстом (asr) и создает модуль распознавания естественного языка (NLU) (nlu), в котором несколько компонентов анализируют высказывания пользователя.Менеджер диалогов (DM) (dm) использует функции NLU для выбора модулей тематического диалога и определяет индивидуальный поток диалога.Каждый диалоговый модуль использует несколько баз знаний (знаний).Затем модуль генерации естественного языка (NLG) (nlg) генерирует соответствующий ответ.Наконец, мы размечаем синтезированные ответы и возвращаем их пользователям посредством преобразования текста в речь (TTS) (tts).В следующих разделах мы даем обзор системы, а подробные сведения о реализации системы см. в техническом отчете BIBREF1. Gunrock получает результаты ASR с необработанным текстом и информацией о времени для каждого слова в последовательности (без информации о регистре и пунктуации). .Ключевые слова, особенно именованные объекты, такие как названия фильмов, склонны генерировать ошибки ASR без контекстной информации, но они необходимы для NLU и NLG.Поэтому Gunrock использует знания предметной области, чтобы исправить эти ошибки, сравнивая именные фразы с базой знаний (например, со списком названий самых популярных фильмов) на основе их фонетической информации.Мы извлекаем первичный и вторичный код, используя алгоритм двойного метафонного поиска BIBREF8 для именной фразы (извлеченной по стволам существительных) и выбранной базы знаний, и предлагаем потенциальное исправление путем сопоставления кода.Пример можно увидеть в User_3 и Gunrock_3 в таблице TABREF2. Gunrock предназначен для вовлечения пользователей в более глубокий диалог; соответственно, высказывание пользователя может состоять из нескольких единиц, имеющих полное смысловое значение.Сначала мы разбили исправленный необработанный текст ASR на предложения, вставив токены разрыва.Пример показан в User_3 в таблице TABREF2.Между тем, мы маскируем именованные объекты перед сегментацией, чтобы именованный объект не был разделен на несколько частей и сохранялось высказывание с полным смыслом (например, «Мне нравится фильм, в котором родилась звезда»).Мы также используем информацию о временных шагах для фильтрации ложноположительных корректировок.После сегментации наша реализация кореференции использует знания об объектах (например, о человеке и событии) и заменяет существительные их фактической ссылкой по рейтингу объектов.Мы реализуем разрешение кореференции для объектов как внутри сегментов за один ход, так и за несколько ходов.Например, слово «он» в последнем сегменте в User_5 заменено на «Брэдли Купер» в таблице TABREF2.Далее мы используем синтаксический анализатор округов для генерации именной фразы из каждого измененного сегмента.В конвейере последовательности для создания полных сегментов Gunrock обнаруживает (1) тему, (2) именованные объекты и (3) настроения, используя ASK параллельно.Модуль NLU использует графики знаний, включая Google Knowledge Graph, чтобы вызвать подробное описание каждой именной фразы для понимания.Чтобы извлечь намерение для каждого сегмента, мы разработали MIDAS, схему диалоговых действий человека и машины с 23 тегами, и реализовали модель классификации диалоговых действий с несколькими метками, используя контекстную информацию BIBREF9.Затем компоненты NLU, анализируемые в каждом сегменте пользовательского высказывания, отправляются в модуль DM и NLG для отслеживания и генерации состояния соответственно.Мы реализовали иерархический диалоговый менеджер, состоящий из DM высокого и низкого уровня.Первый использует результаты NLU для каждого сегмента и с помощью эвристики выбирает наиболее важный для системы сегмент в качестве центрального элемента.Например, «я только что закончил читать Гарри Поттера» вызывает Sub-DM: Книги.Используя центральный элемент и функции, извлеченные из NLU, входные высказывания сопоставляются с 11 возможными модулями тематического диалога (например, фильмы, книги, животные и т. д.), включая резервный модуль поиска.Управление диалогами низкого уровня осуществляется отдельными модулями тематических диалогов, которые используют модульные преобразователи конечных состояний для выполнения различных сегментов диалога, обрабатываемых NLU.Использование тематических модулей позволяет вести более глубокие беседы, сохраняя контекст.Мы также проектируем диалоговые потоки в каждом из конечных автоматов.Поток диалога определяется переходами на основе правил между указанным фиксированным набором состояний диалога.Чтобы гарантировать эффективность наших состояний и переходов, мы используем крупномасштабные пользовательские данные для поиска ответов с высокой вероятностью и ответов с высоким приоритетом для обработки в различных контекстах.При этом поток диалога настраивается для каждого пользователя путем отслеживания атрибутов пользователя в качестве контекста диалога.Кроме того, каждый диалоговый поток адаптируется к ответам пользователей, чтобы продемонстрировать признание и понимание (например, разговор о владении домашними животными в модуле о животных).Судя по отзывам пользователей, существует множество вариантов диалога, каждый раз предоставляющих новый опыт.Это уменьшает ощущение, что диалоги заскриптованы и повторяются.В наших диалогах дополнительно чередуются факты, мнения, опыт и вопросы, чтобы сделать разговор гибким и интересным.Тем временем мы рассматриваем сигналы обратной связи, такие как «продолжить» и «остановить» от диалогового модуля текущей темы, указывающие, может ли он ответить на следующий запрос в диалоговом потоке, чтобы выбрать лучший модуль ответа.Кроме того, во всех модулях мы допускаем взаимодействие со смешанной инициативой; пользователи могут запускать новый диалоговый модуль, когда хотят переключить тему, находясь в любом состоянии.Например, пользователи могут начать новый разговор о фильмах из любого другого тематического модуля.Все модули тематических диалогов запрашивают базы знаний, чтобы предоставить информацию пользователю.Чтобы ответить на общие фактические вопросы, Gunrock запрашивает фактическую базу данных EVI, а также другую актуальную очищенную информацию, подходящую для подмодуля, такую как новости и текущие показы фильмов в определенном месте из баз данных, включая IMDB.Одним из вкладов Ганрок является обширная база данных предыстории личности Ганрок, состоящая из более чем 1000 ответов на возможные вопросы Ганрок, а также обоснование ее ответов примерно на 250 вопросов (см. Таблицу 2).Мы разработали системные реакции так, чтобы выявить последовательную личность внутри и между модулями, смоделированную как позитивная, общительная женщина, интересующаяся наукой и технологиями.Чтобы избежать повторяющихся и неконкретных ответов, обычно наблюдаемых в диалоговых системах BIBREF10, Gunrock использует менеджер шаблонов для выбора из созданных вручную шаблонов ответов на основе состояния диалога.Одно состояние диалога может сопоставляться с несколькими шаблонами ответов со схожим семантическим или функциональным содержанием, но с разными поверхностными формами.Среди этих шаблонов ответов для одного и того же состояния диалога один выбирается случайным образом без повторения, чтобы обеспечить разнообразие, если все не будут исчерпаны.Когда выбран шаблон ответа, все слоты заменяются фактическим содержимым, включая запрошенную информацию о новостях и конкретные данные о погоде.Например, чтобы обосновать название фильма из-за ошибок ASR или нескольких версий, используйте один шаблон: «Вы говорите о фильме {movie_title}, выпущенном в {release_year}, с {actor_name} в главной роли в роли {actor_role}?».Шаблоны, специфичные для каждого модуля, были созданы для каждой темы (например, животные), но некоторые шаблоны можно обобщить для разных модулей (например, «Какой ваш любимый [фильм $|$ книга $|$ место для посещения]?»). В некоторых случаях шаблоны ответов, соответствующие различным диалоговым действиям, динамически составляются для получения окончательного ответа.Например, соответствующее подтверждение ответа пользователя может сочетаться с заранее заданным дополнительным вопросом.После NLG мы настраиваем TTS системы, чтобы улучшить выразительность голоса, чтобы передать, что система является вовлеченным и активным участником разговора.Мы используем систему, основанную на правилах, для систематического добавления междометий, в частности Alexa Speechcons, и наполнителей, чтобы приблизиться к человеческому когнитивно-эмоциональному выражению BIBREF11.Дополнительную информацию о структуре и анализе модификаций TTS см. в BIBREF12. С 5 января 2019 г. по 5 марта 2019 г. мы собирали данные разговоров для Gunrock.За это время других обновлений кода не произошло.Мы проанализировали разговоры для Gunrock с минимум тремя поворотами пользователя, чтобы избежать разговоров, вызванных случайно.В общей сложности это привело к 34 432 пользовательским разговорам.В совокупности эти пользователи дали Gunrock среднюю оценку 3,65 (медиана: 4,0), которая была получена в конце разговора («Как вы относитесь к тому, чтобы снова поговорить с этим социальным ботом по шкале от 1 до 5 звезд?»). .Пользователи взаимодействовали с Gunrock в среднем 20,92 общих оборотов (медиана 13,0), в среднем 6,98 слов на одно высказывание, а среднее время разговора составляло 7,33 минуты (медиана: 2,87 минуты).Мы провели три основных анализа: глубину ответа пользователей (количество слов), предысторию запросов (предысторияперсоны) и чередование личных и фактических ответов (домашние животные). Двумя уникальными особенностями Gunrock являются его способность анализировать длинные и сложные предложения и методы анализа. поощряйте пользователей быть активными собеседниками, подробно объясняя свои ответы.В предыдущей работе, даже если пользователи могли вести разговор, боты часто использовали простые вопросы типа «да/нет», чтобы контролировать ход разговора и улучшить понимание; в результате пользователи становятся более пассивными собеседниками в разговоре.Мы стремились повысить вовлеченность пользователей, организовав беседу так, чтобы в ней было больше открытых мнений и личных вопросов, а также показать, что система может понимать сложные высказывания пользователей (подробнее о NLU см. в nlu).Соответственно, мы задаемся вопросом, будет ли речевое поведение пользователей отражать технические возможности и разговорную стратегию Gunrock, создавая более длинные предложения.Мы оценивали степень глубины разговора, измеряя среднее количество слов пользователей.Предыдущая работа показала, что увеличение количества слов связано с улучшением взаимодействия с пользователем (например, в системе социального диалога BIBREF13).Для каждого разговора пользователя мы извлекли общий рейтинг, количество поворотов взаимодействия и количество слов пользователя в каждом высказывании (среднее по всем высказываниям).Мы смоделировали взаимосвязь между количеством слов и двумя показателями вовлеченности пользователей (общий рейтинг, среднее количество поворотов) с помощью отдельных линейных регрессий.Результаты показали, что пользователи, которые в среднем произносили высказывания с большим количеством слов, давали значительно более высокие оценки ($\beta $=0,01, SE=0,002, t=4,79, p$<$0,001) (см. рисунок 2) и взаимодействовали с Gunrock значительно дольше. большее количество витков ($\beta$=1,85, SE=0,05, t=35,58, p$<$0,001) (см. рисунок 2).Эти результаты можно интерпретировать как свидетельство способности Gunrock обрабатывать сложные предложения, когда пользователи не ограничены простыми ответами, чтобы их поняли, и чувствовали себя вовлеченными в разговор, а также свидетельство того, что люди более удовлетворены разговором, когда они принимают более активную роль. , а не система, доминирующая в диалоге.С другой стороны, другая интерпретация заключается в том, что более разговорчивые пользователи могут получать удовольствие от общения с ботом в целом и, таким образом, давать более высокие оценки в сочетании с более высоким средним количеством слов.Мы оценивали интерес пользователя к Gunrock, отмечая случаи, когда пользователь запускал предысторию Gunrock (например, «Какой твой любимый цвет?»).Для пользователей, у которых есть хотя бы один вопрос по предыстории, мы смоделировали общий (логарифмический) рейтинг с помощью линейной регрессии по (логарифмическому) «Количества заданных вопросов по предыстории» (логарифм преобразуется из-за нелинейной взаимосвязи переменных).Мы предположили, что пользователи, которые проявляют больший интерес к Ганрок, будут демонстрировать более высокие общие оценки беседы на основе ее ответов.В целом, количество раз, когда пользователи задавались вопросом о предыстории Gunrock, было тесно связано с оценкой, которую они дали в конце взаимодействия (log:$\beta $=0,10, SE=0,002, t=58,4, p$<$0,001) (см. рисунок). 3).Это говорит о том, что поддержание последовательной индивидуальности и наличие достаточного количества ответов на вопросы, которые интересуют пользователей, может повысить удовлетворенность пользователей.Gunrock включает специальный тематический модуль, посвященный животным, который включает фактический компонент, в котором система предоставляет факты о животных, а также более персонализированный компонент, посвященный домашним животным.Наша система предназначена для привлечения пользователей к информации о животных в более непринужденном стиле разговора BIBREF14, вызывая дополнительные вопросы, если пользователь указывает, что у него есть домашнее животное; если мы можем извлечь имя домашнего животного, мы ссылаемся на него в разговоре (например, «Оливер — отличное имя для кота!», «Как давно у вас Оливер?»).В тех случаях, когда пользователь не указывает, что у него есть домашнее животное, система предоставляет только факты о животных.Таким образом, модуль животных может служить проверкой нашей стратегии чередования: мы предположили, что объединение фактов и личных вопросов — в данном случае о домашнем животном пользователя — приведет к большей удовлетворенности пользователя в целом.Мы извлекли разговоры, в которых Ганрок спрашивал пользователя, было ли у него когда-либо домашнее животное, и классифицировали ответы как «Да», «Нет» или «НП» (если пользователи не ответили утвердительно или отрицательно).Мы смоделировали рейтинг пользователей с помощью модели линейной регрессии с предиктором «Есть домашнее животное» (2 уровня: Да, Нет).Мы обнаружили, что пользователи, которые говорили с Ганроком о своем домашнем животном, показали значительно более высокие общие оценки разговора ($\beta $=0,15, SE=0,06, t=2,53, p$=0,016 доллара) (см. рисунок 4).Одна из интерпретаций заключается в том, что чередование фактической информации с более глубокими вопросами об их питомце приводит к улучшению пользовательского опыта.Тем не менее, другая интерпретация заключается в том, что владельцы домашних животных могут быть более дружелюбными и податливыми к социальному боту; например, предыдущие исследования связали различия в личности с наличием домашних животных BIBREF15. Gunrock — это социальный чат-бот, который фокусируется на длительных и увлекательных речевых беседах с тысячами реальных пользователей.Соответственно, наша архитектура использует специальные модули для обработки более длинных и сложных высказываний и побуждает пользователей быть более активными в разговоре.Анализ показывает, что речевое поведение пользователей отражает эти возможности.Более длинные предложения и больше вопросов о предыстории Gunrocks положительно коррелируют с пользовательским опытом.Кроме того, мы находим доказательства существования чередующегося диалогового потока, когда объединение фактической информации с личными мнениями и историями повышает удовлетворенность пользователей.В целом, эта работа имеет практическое применение в применении этих принципов проектирования к другим социальным чат-ботам, а также теоретические последствия с точки зрения природы взаимодействия человека и компьютера (см.Компьютеры — это BIBREF социальных акторов16).Наши результаты показывают, что пользователи взаимодействуют с Ганроком так же, как и другие люди: болтают на общие темы (например, животные, фильмы и т. д.), интересуются предысторией и личностью Ганрока и даже в ответ предоставляют больше информации о себе.Мы хотели бы выразить признательность компании Amazon за финансовую и техническую поддержку. | Gunrock — победитель премии Amazon Alexa Prize 2018 года, которая оценивается по согласованности и вовлеченности как реальных пользователей, так и экспертов-собеседников, выбранных Amazon. Мы фокусируемся на понимании сложных предложений и ведении углубленных разговоров в открытых областях. В этой статье мы представляем некоторые инновационные конструкции систем и связанный с ними анализ проверки. В целом мы обнаружили, что пользователи пишут Gunrock более длинные предложения, которые напрямую связаны с вовлеченностью пользователей (например, рейтингами, количеством поворотов). Кроме того, предыстория запросов пользователей о Gunrock положительно коррелирует с удовлетворенностью пользователей. Наконец, мы обнаружили, что диалоговые потоки, в которых чередуются факты, личные мнения и истории, повышают удовлетворенность пользователей. | 2,828 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Углубление скрытых представлений на основе предварительно обученных языковых моделей для понимания естественного языка. Языковое представление имеет важное значение для понимания текста.Недавно было показано, что языковые модели предварительного обучения на основе Transformer BIBREF0, такие как GPT BIBREF1, BERT BIBREF2, XLNet BIBREF3 и RoBERTa BIBREF4, эффективны для изучения контекстуализированного представления языка.С тех пор эти модели продолжают достигать новых современных результатов в различных задачах естественной обработки.Они включают в себя ответы на вопросы BIBREF5, BIBREF6, вывод на естественном языке BIBREF7, BIBREF8, распознавание именованных объектов BIBREF9, анализ настроений BIBREF10 и семантическое текстовое сходство BIBREF11, BIBREF12. Обычно модели на основе Transformer предварительно обучаются на крупномасштабном немаркированном корпусе в неконтролируемом режиме. таким образом, а затем точно включил последующие задачи путем введения выходного слоя для конкретной задачи.При точной настройке контролируемых последующих задач модели непосредственно передают выходные данные последнего слоя кодировщика Transformer, который рассматривается как контекстуализированное представление входного текста, на уровень, специфичный для конкретной задачи.Однако из-за многочисленных слоев (т. е. блоков Transformer) и значительной глубины этих моделей предварительного обучения мы утверждаем, что выходные данные последнего слоя не всегда могут быть лучшим представлением входного текста во время точной настройки для нисходящего потока. задача.BIBREF2 демонстрирует разнообразные комбинации выходных данных разных уровней предварительно обученного BERT, что обеспечивает отличную производительность при выполнении задачи BIBREF9 по распознаванию именованных объектов (NER) CoNNL-2003.BIBREF13 указывает на то, что для предварительно обученных языковых моделей, включая Transformer, наиболее переносимые контекстуализированные представления входного текста обычно возникают на средних уровнях, в то время как верхние уровни специализируются на языковом моделировании.Следовательно, однократное использование выходных данных последнего слоя может ограничить мощность предварительно обученного представления.В этой статье мы представляем RTRHI:Усовершенствованное представление Transformer со скрытой информацией, основанное на подходе тонкой настройки с использованием модели на основе Transformer, которая использует скрытую информацию в скрытом слое Transformer для уточнения языкового представления.Наш подход состоит из двух основных дополнительных компонентов: Средство извлечения скрытых представлений (HIRE) динамически изучает дополнительное представление, содержащее информацию, которую выходные данные последнего слоя не могут уловить.Мы поместили двухуровневый двунаправленный GRU рядом с кодером, чтобы суммировать выходные данные каждого слоя в один вектор, который будет использоваться для вычисления оценки вклада.Уровень Fusion интегрирует скрытую информацию, извлеченную HIRE, с выходными данными последнего слоя Transformer посредством двух этапов различных функций, что приводит к уточненному контекстуализированному языковому представлению.Воспользовавшись надежностью RoBERTa, используя его в качестве кодировщика RTRHI на основе преобразователя, мы проводим эксперименты с тестом GLUE BIBREF14, который состоит из девяти задач понимания естественного языка (NLU).RTRHI превосходит нашу базовую модель RoBERTa по 5/9 из них и опережает самую современную модель набора данных SST-2.Несмотря на то, что мы не вносим никаких изменений во внутреннюю архитектуру кодировщика и не переопределяем процедуру предварительного обучения с использованием других целей или наборов данных, мы все равно получаем сопоставимую производительность с другими современными моделями в таблице лидеров GLUE.Эти результаты подчеркивают превосходную способность RTRHI улучшать языковое представление модели на основе преобразований.Языковые модели на основе преобразователей используют Transformer BIBREF0 в качестве архитектуры модели, но предварительно обучены для различных целей или языкового корпуса.OpenAI GPT BIBREF1 — первая модель, в которой архитектура Transformer была внедрена в предварительное обучение без учителя.Модель предварительно обучена на 12-слойном преобразователе слева направо с набором данных BooksCorpus BIBREF15.Но вместо использования архитектуры слева направо, такой как GPT, BERT BIBREF2 при предварительном обучении использует цель Masked LM, что позволяет представлению включать контекст с обоих направлений.Цель предсказания следующего предложения (NSP) также используется BERT, чтобы лучше понять взаимосвязь между двумя предложениями.Процедура обучения проводится на базе BooksCorpus и английской Википедии.С другой стороны, XLNet BIBREF3, как обобщенная авторегрессионная языковая модель, использует цель моделирования языка перестановок во время предварительного обучения.Помимо BooksCorpus и английской Википедии, для предварительного обучения он также использует Giga5, ClueWeb 2012-B и Common Crawl.Обученный динамическому маскированию, большим мини-пакетам и более крупному BPE на уровне байтов, полным предложениям без NSP, RoBERTa BIBREF4 повышает производительность BERT при выполнении последующих задач.Корпус предварительного обучения включает BooksCorpus, CC-News, Openwebtext и Stories.Путем точной настройки последующих задач контролируемым образом эти мощные модели на основе Transformer выводят самые современные результаты выполнения различных задач НЛП на новый уровень.В недавних работах были предложены новые методы точной настройки последующих задач, включая многозадачное обучение BIBREF16, состязательное обучение BIBREF17 или включение семантической информации в языковое представление BIBREF18. Уровень кодирования на основе преобразователя отвечает за кодирование входного текста в последовательность высокоуровневых текстов. размерные векторы, которые рассматриваются как контекстуализированное представление входной последовательности.Пусть {$w_1,\dots , w_n$} представляет собой последовательность из $n$ слов входного текста. Мы используем кодировщик на основе Transformer для кодирования входной последовательности, тем самым получая ее универсальное контекстуализированное представление $R \in \mathbb { R}^{n\times d}$:где $d$ — скрытый размер кодировщика.Следует отметить, что $R$ — это выходные данные последнего слоя кодера на основе Transformer, который имеет ту же длину, что и входной текст.В этой статье мы называем это предварительным представлением, чтобы отличить его от того, которое мы вводим в разделе SECREF6.Здесь мы опускаем довольно обширные формулировки Трансформера и отсылаем читателей к BIBREF1, BIBREF2 и BIBREF3 за более подробной информацией.Поскольку кодировщик на основе Transformer обычно имеет много одинаковых слоев, сложенных вместе, например, $\text{BERT}_{\text{LARGE}}$ и $\text{XLNet}_{\text{LARGE}}$ содержат 24 слоев идентичной структуры, выходные данные последнего слоя могут быть не лучшим кандидатом для полного представления информации, содержащейся во входном тексте.Пытаясь решить эту проблему, мы вводим экстрактор скрытых представлений (HIRE) рядом с кодировщиком, чтобы извлекать из скрытых состояний информацию, которую не удается уловить на выходе последнего слоя.Поскольку скрытые состояния каждого слоя не несут информацию одинаковой важности для представления определенной входной последовательности, мы применяем механизм, который может вычислять важность динамически.Мы называем важность оценкой вклада.Входными данными для HIRE являются $\lbrace H_0, \dots, H_j, \dots, H_l\rbrace $, где $0 < j \le l$ и $l$ представляет количество слоев в кодировщике.Здесь $H_0$ — это начальное внедрение входного текста, который является входными данными первого слоя кодировщика, но обновляется во время обучения, а $H_j \in \mathbb {R}^{n\times d}$ — это скрытое состояние энкодер на выходе слоя $j$. Для простоты мы впоследствии называем их всеми скрытыми состояниями.Для каждого скрытого состояния кодера мы используем один и тот же двухуровневый двунаправленный вентильный рекуррентный блок (GRU) BIBREF19 для его суммирования.Вместо того, чтобы использовать весь вывод GRU как представление скрытого состояния, мы объединяем каждый слой GRU и конечное состояние каждого направления вместе.Таким образом, нам удается суммировать скрытое состояние в вектор фиксированного размера.Отсюда получаем $U \in \mathbb {R}^{(l+1)\times 4d}$ с $U_i$ суммированным вектором $H_i$: где $0 \le i \le l$.Тогда значение важности $\alpha _i$ для скрытого состояния $H_i$ вычисляется по формуле: где $W^T \in \mathbb {R}^{4d} $ и $b\in \mathbb {R}$ обучаемы параметры.Пусть $S$ представляет собой результаты вычислений для всех скрытых состояний.$S$ вычисляется следующим образом: Следует отметить, что $\sum _{i=0}^{l}S_i = 1$, где $S_i$ — это вес скрытого состояния $i$ при вычислении представления.Впоследствии мы получаем новое представление входной последовательности $A$ следующим образом: Ожидается, что выходной сигнал $A$ HIRE, имеющий ту же форму, что и выходные данные последнего слоя кодера на основе Transformer, будет содержать дополнительную полезную информацию из скрытых состояний кодера, которая полезно для лучшего понимания входного текста, и мы называем это дополнительным представлением.Этот уровень объединяет информацию, содержащуюся в выходных данных кодера на основе Tansformed, и информацию, извлеченную из скрытых состояний кодировщиков с помощью HIRE. Учитывая предварительное представление $R$, вместо того, чтобы позволить ему течь непосредственно в выходной слой для конкретной задачи, мы объединяем его. вместе с дополнительным представлением $A$, чтобы получить $M$, который мы определяем следующим образом: где $\circ $ — это поэлементное умножение (произведение Адамара), а $[;]$ — это конкатенация по последнему измерению.Позже двухслойный двунаправленный GRU с выходным размером $d$ для каждого направления используется для полного объединения информации, содержащейся в предварительном представлении, и дополнительной полезной информации, включенной в дополнительное представление.Мы объединяем выходные данные графических процессоров в двух измерениях и, следовательно, получаем окончательное контекстуализированное представление $F$ входного текста: использование GRU обеспечивает полное взаимодействие между двумя различными видами информации, упомянутыми ранее.Следовательно, ожидается, что $F$ будет уточненным универсальным представлением входного текста.Выходной уровень зависит от задачи, а это означает, что мы можем использовать HIRE и уровень слияния для других последующих задач, просто изменяя выходной уровень, например, ответы на вопросы.Тест GLUE содержит два типа задач: 1. классификация;2. регресс.Для задач классификации, учитывая контекстуализированное представление входного текста $F$, следуя BIBREF2, мы берем первую строку $C \in \mathbb {R}^{2d}$ из $F$, соответствующую первому входному токену ([CLS] ) как совокупное представление.Пусть $m$ — количество меток в наборах данных. Мы передаем $C$ через сеть прямого распространения (FFN): с $W_1 \in \mathbb {R}^{2d\times d}$, $W_2 \ in \mathbb {R}^{d\times m}$, $b_1\in \mathbb {R}^{d}$ и $b_2\in \mathbb {R}^{m}$ — единственные параметры, которые мы вводим в выходном слое.Наконец, распределение вероятностей прогнозируемой метки вычисляется как: Для задачи регрессии мы получаем $Q$ таким же образом с $m = 1$ и принимаем $Q$ в качестве прогнозируемого значения.Для задач классификации потери на обучение, которые необходимо минимизировать, определяются перекрестной энтропией: где $\theta $ — набор всех параметров модели, $N$ — количество примеров в наборе данных, $p_{i, c}$ — это прогнозируемая вероятность класса $c$, например $i$, а $y$ — это двоичный индикатор, определенный ниже: Для задач регрессии мы определяем потери при обучении по среднеквадратической ошибке (MSE): где $Q_i$ — это прогнозируемое значение, например, $i$ и $y_i$ — это истинное значение, например, $i$ и $N$, $\theta $ такие же, как в уравнении DISPLAY_FORM19. Мы провели эксперименты по общему пониманию языка Тест оценки (GLUE) BIBREF14 для оценки эффективности нашего метода.GLUE — это коллекция из 9 различных наборов данных для обучения, оценки и анализа моделей понимания естественного языка.В соответствии с исходной статьей в тесте GLUE представлены три различные задачи: Задачи с одним предложением: Корпус лингвистической приемлемости (CoLA) BIBREF20 требует, чтобы модель определяла, является ли предложение грамматически приемлемым; Стэнфордский банк настроений (SST-2) BIBREF10 предназначен для прогнозирования настроения рецензий на фильмы с пометкой «положительный» или «отрицательный».Задачи на сходство и перефразирование. Задачи на сходство и перефразирование заключаются в том, чтобы предсказать, отражает ли каждая пара предложений отношения перефразирования/семантической эквивалентности.В этой категории представлены корпус Microsoft Research Paraphrase Corpus (MRPC) BIBREF12, пары вопросов Quora (QQP) BIBREF21 и тест семантического текстового сходства (STS-B) BIBREF11.Задачи вывода на естественном языке (NLI): Вывод на естественном языке — это задача определения того, является ли «гипотеза» истинной (вывод), ложной (противоречие) или неопределенной (нейтральной) с учетом «предпосылки».Тест GLUE содержит следующие задачи: многожанровый корпус вывода естественного языка (MNLI) BIBREF7, Стэнфордский набор данных для ответов на вопросы (QNLI) BIBREF22, распознавание текстовых искажений (RTE) BIBREF23.и Winograd Schema Challenge (WNLI) BIBREF24. Для оценки эффективности модели используются четыре официальных показателя:Корреляция Мэтьюза BIBREF25, точность, показатель F1, коэффициенты корреляции Пирсона и Спирмена.Более подробная информация будет представлена в разделе SECREF25. Наша реализация RTRHI основана на реализации Transformer в PyTorch. Предварительная обработка: после BIBREF4 мы используем токенизатор GPT-2 BIBREF27 со словарем байт-парного кодирования (BPE) для единиц подслов размером 50 КБ.Мы форматируем входную последовательность следующим образом.Учитывая одну последовательность $X$, мы добавляем токен <s> в начало и </s>токен в конце: <s>X</s>.Для пары последовательностей $(X, Y)$ мы дополнительно используем </s> для разделения этих двух последовательностей: <s>X</s>Y</s>. Конфигурации модели: мы используем RoBERTa-Large в качестве Кодер на основе трансформатора и загрузка предтренировочных весов RoBERTa BIBREF4.Как и BERT-Large, модель RoBERTa-Large содержит 24 блока Transformer со скрытым размером 1024 и количеством головок самообслуживания 16 BIBREF4, BIBREF2. Оптимизация: мы используем оптимизатор Adam BIBREF28 с $\beta _1=0,9$. , $\beta _2=0.98$ и $\epsilon = 10^{-6}$, а скорость обучения выбирается из {5e-6, 1e-5, 2e-5, 3e-5} со скоростью прогрева в диапазоне от От 0,06 до 0,25 в зависимости от характера задачи.Количество эпох обучения варьируется от 4 до 10 с ранней остановкой, а размер пакета выбирается из {16, 32, 48}.В дополнение к этому мы ограничиваем норму градиента в пределах 1, чтобы предотвратить возникновение проблемы взрывающихся градиентов в рекуррентных нейронных сетях в нашей модели.Регуляризация. Во время обучения мы используем два типа методов регуляризации.Мы применяем отсев BIBREF29 со скоростью 0,1 ко всем слоям кодера на основе трансформатора и GRU на уровнях HIRE и Fusion.Мы дополнительно принимаем снижение веса L2 на 0,1 во время тренировки.В таблице TABREF22 наш метод RTRHI сравнивается со списком моделей на основе трансформаторов в наборе разработки.Чтобы получить прямое и объективное сравнение с нашей базовой моделью RoBERTa, следуя оригинальному документу BIBREF4, мы настраиваем RTRHI отдельно для каждой задачи GLUE, используя только данные обучения для конкретной задачи.Приводятся результаты одной модели для каждой задачи.Мы запускаем нашу модель с пятью разными случайными начальными числами, но с одинаковыми гиперпараметрами, и берем медианное значение.Из-за проблемного характера набора данных WNLI мы исключаем его результаты из этой таблицы.Результаты показывают, что RTRHI последовательно превосходит RoBERTa по 4 наборам задач разработки GLUE с улучшением на 1,6 балла, 0,4 пункта, 0,4/0,2 балла, 0,3 балла по CoLA, SST-2, MNLI и QNLI соответственно.А в задачах QQP и RTE наша модель получает тот же результат, что и RoBERTa.Следует отметить, что улучшение полностью связано с введением в нашу модель экстрактора скрытых представлений и слоя слияния.В таблице TABREF26 представлены результаты RTRHI и других моделей тестового набора, представленных в таблице лидеров GLUE.Следуя BIBREF4, мы настраиваем STS-B и MRPC, начиная с однозадачной модели MNLI.Учитывая простоту между RTE, WNLI и MNLI, а также крупномасштабный характер набора данных MNLI (393k), мы также инициализируем RTRHI с весами однозадачной модели MNLI перед точной настройкой RTE и WNLI.Мы представили результаты ансамблевой модели в таблицу лидеров.Результаты показывают, что RTRHI по-прежнему улучшает базовую модель RoBERTa на тестовом наборе.В частности, RTRHI превосходит RoBERTa по сравнению с CoLA, SST-2, MRPC, SST-B, MNLI-mm с улучшением на 0,8 балла, 0,4 балла, 0,7/0,9 балла, 0,2/0,1 балла и 0,2 балла соответственно.Между тем, RTRHI получает те же результаты, что и RoBERTa, на QQP и WNLI.По категориям RTRHI показывает лучшие результаты, чем RoBERTa, в задачах с одним предложением, сходстве и перефразировании.Стоит отметить, что наша модель дает самые современные результаты на наборе данных SST-2 с оценкой 97,1.Результаты весьма многообещающие, поскольку HIRE не вносит никаких изменений во внутреннюю архитектуру кодера BIBREF3 и не переопределяет процедуру предварительного обучения BIBREF4, и мы по-прежнему получаем с ними сопоставимые результаты.Мы сравниваем распределение оценок вклада различных задач NLU.Для каждой задачи мы запускаем нашу лучшую единую модель в наборе разработки, и результаты рассчитываются путем усреднения значений по всем примерам в каждом наборе данных.Результаты показаны на рисунке FigREF27.Сверху вниз по карте результатов результаты располагаются в следующем порядке: задачи на одно предложение, задачи на сходство и перефразирование и задачи на вывод на естественном языке.На рисунке FigREF27 мы видим, что распределение различается среди разных задач, что демонстрирует динамическую способность RTRHI адаптироваться к отдельной задаче при вычислении дополнительного представления.Самый важный вклад происходит ниже последнего уровня для всех задач, кроме MRPC и RTE.Все уровни вносят непосредственный вклад в задачи MRPC и RTE.На рисунке FigREF28 показано распределение оценок вклада по разным слоям для каждого примера набора данных SST-2.Цифра на оси ординат обозначает индекс примера.Мы заметили, что, хотя между этими примерами и есть небольшие различия, они следуют одним и тем же шаблонам при вычислении дополнительного представления, например, слои 21 и 22 вносят наибольший вклад почти во все примеры, а также слои вокруг них.Но рисунок также показывает, что в некоторых примерах вклад всех слоев почти одинаковый.В этой статье мы представили RTRHI, новый подход, который совершенствует языковое представление за счет использования скрытых слоев модели на основе Transformer.В частности, экстрактор скрытого представления используется для динамического создания дополнительной информации, которая будет включена в предварительное представление на уровне слияния.Результаты эксперимента демонстрируют эффективность усовершенствованного языкового представления для понимания естественного языка.Анализ подчеркивает особый вклад результатов каждого слоя для различных задач и разных примеров.Мы ожидаем, что будущая работа может быть проведена в следующих областях: (1) изучить разреженную версию Hidden Representation Extractor для более эффективных вычислений и меньшего использования памяти; (2) включение дополнительной информации знаний BIBREF30 или структурированной семантической информации BIBREF18 с текущим языковым представлением на уровне слияния во время точной настройки; (3) интегрировать в нашу модель многозадачное обучение BIBREF31 или дистилляцию знаний BIBREF32, BIBREF33. | Предварительно обученные языковые модели на основе преобразователей оказались эффективными для изучения контекстуального представления языка. Однако текущие подходы используют выходные данные последнего уровня кодировщика только при точной настройке последующих задач. Мы утверждаем, что использование только выходных данных одного слоя ограничивает возможности предварительно обученного представления. Таким образом, мы углубляем представление, полученное моделью, объединяя скрытое представление с помощью явного экстрактора скрытых представлений (HIRE), который автоматически поглощает дополнительное представление по отношению к выходным данным последнего слоя. Используя RoBERTa в качестве основного кодировщика, предлагаемое нами усовершенствование по сравнению с предварительно обученными моделями демонстрирует эффективность при решении множества задач по распознаванию естественного языка и помогает нашей модели конкурировать с современными моделями в тесте GLUE. | 3,301 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | EmoAtt на EmoInt-2017: Встраивание предложений внутреннего внимания для интенсивности эмоций. Twitter — это огромный сервис микроблогов, в котором ежедневно публикуется более 500 миллионов твитов из разных мест мира и на разных языках.Этот большой, непрерывный и динамически обновляемый контент считается ценным ресурсом для исследователей.В частности, многие из этих сообщений содержат эмоциональный заряд, передающий аффект — эмоции, чувства и отношения, которые можно изучить, чтобы понять выражение эмоций в тексте, а также связанные с ним социальные явления.При изучении эмоций в тексте обычно бывает полезно охарактеризовать эмоциональный заряд отрывка на основе его слов.Некоторые слова имеют аффект как основную часть своего значения.Например, слова «удрученный» и «задумчивый» обозначают некоторую степень печали и, таким образом, связаны с грустью.С другой стороны, некоторые слова связаны с аффектом, хотя они и не обозначают аффект.Например, неудача и смерть описывают понятия, которые обычно сопровождаются печалью, и, таким образом, обозначают некоторую степень печали.При анализе эмоционального содержания текста большинство задач почти всегда оформляются как задачи классификации, цель которых состоит в том, чтобы идентифицировать одну эмоцию среди многих в предложении или отрывке.Однако приложениям часто бывает полезно знать, в какой степени эмоция выражена в тексте.С этой целью общая задача WASSA-2017 по интенсивности эмоций BIBREF0 представляет собой первую задачу, в которой системы должны автоматически определять интенсивность эмоций в твитах.Конкретно, цель состоит в том, чтобы дать твит, содержащий эмоции радости, печали, страха или гнева, определить интенсивность или степень эмоций, испытываемых говорящим, как реальную оценку от нуля до единицы.Задача особенно сложна, поскольку твиты содержат неформальный язык, орфографические ошибки и текст, относящийся к внешнему контенту.Учитывая ограничение твитов в 140 символов, также можно обнаружить некоторые явления, такие как интенсивное использование смайлов и других специальных функций Твиттера, таких как хэштеги и упоминания имен пользователей, которые используются для вызова или уведомления других пользователей.В этой статье мы описываем нашу систему, разработанную для общей задачи WASSA-2017 по интенсивности эмоций, которую мы решаем на основе предпосылки обучения представлениям без использования внешней информации, такой как словари.В частности, мы используем модель Bi-LSTM с вниманием внутри предложения поверх встраивания слов, чтобы создать представление твита, подходящее по интенсивности эмоций.Наши результаты показывают, что предложенная нами модель предлагает интересные возможности по сравнению с подходами, которые полагаются на внешние источники информации.Наша работа связана с методами глубокого обучения для распознавания эмоций на изображениях BIBREF1 и видео BIBREF2, а также с классификацией эмоций BIBREF3.Наша работа также связана с liuattention-based2016, который представил RNN внимания для заполнения слотов в понимании естественного языка.Поскольку в задаче согласование ввода-вывода является явным, они исследовали, как лучше всего использовать выравнивание в моделях кодера-декодера, и пришли к выводу, что механизмы внимания полезны.EmoAtt основан на двунаправленной RNN, которая получает встроенную входную последовательность INLINEFORM0 и возвращает список скрытых векторов, которые фиксируют контекст каждого входного токена INLINEFORM1.Чтобы улучшить возможности RNN по захвату краткосрочных временных зависимостей BIBREF4, мы определяем следующее: DISPLAYFORM0 Где INLINEFORM0 можно рассматривать как контекстное окно векторов внедрения упорядоченных слов вокруг позиции INLINEFORM1 с общим размером INLINEFORM2.Чтобы дополнительно дополнить представления токенов с учетом контекста, мы объединяем каждый скрытый вектор с вектором двоичных функций INLINEFORM3 , извлеченным из каждого токена твита, определяя расширенное скрытое состояние INLINEFORM4 .Наконец, мы объединяем наши дополненные скрытые состояния INLINEFORM5, сжимая их в один вектор, используя глобальный компонент внимания внутри предложения, аналогично vinyalsgrammar2015.Формально, DISPLAYFORM0 Где INLINEFORM0 — это вектор, который сжимает входное предложение INLINEFORM1, фокусируясь на соответствующих частях для оценки интенсивности эмоций.Мы вводим это сжатое представление предложения в нейронную сеть прямого распространения INLINEFORM2, где INLINEFORM3 — это окончательная прогнозируемая интенсивность эмоций.В качестве функции потерь мы используем мини-пакетную отрицательную корреляцию Пирсона с золотым стандартом.Чтобы протестировать нашу модель, мы экспериментируем с использованием наборов данных для обучения, проверки и тестирования, предоставленных для общей задачи BIBREF5, которые включают твиты для четырех эмоций: радость, печаль, страх и гнев.Они были аннотированы с использованием Best-Worst Scaling (BWS) для получения очень надежных оценок BIBREF6. Мы экспериментировали с GloVe BIBREF7 в качестве предварительно обученных векторов встраивания слов для размеров 25, 50 и 100.Это векторы, обученные на наборе данных из 2 млрд твитов с общим словарем 1,2 млн. Для предварительной обработки данных мы использовали Twokenizer BIBREF8, который по сути предоставляет набор тщательно подобранных правил для разделения твитов на токены.Мы также используем Tweeboparser BIBREF9 для получения POS-тегов для каждого твита.В таблице TABREF3 приведены средние, максимальные и минимальные длины предложений для каждого набора данных после их обработки с помощью Twokenizer.Мы видим, что четыре корпуса имеют схожие характеристики с точки зрения длины, при этом максимальная длина перекрестного набора данных составляет 41 токен.Мы также видим, что между набором данных и GloVe существует значительный словарный разрыв: средний охват составляет всего 64,3%.Чтобы решить эту проблему, мы использовали набор двоичных функций, полученных из тегов POS, чтобы уловить некоторую семантику слов, не охваченную встраиванием GloVe.Мы также включаем функции для упоминаний участников и хэштегов, а также функцию для отслеживания удлинения слов на основе регулярных выражений.Удлинение слов очень распространено в твитах и обычно связано с сильными эмоциями.Ниже приведены правила, основанные на тегах POS, которые мы использовали для создания наших двоичных функций.Хотя структура нашей представленной модели позволяет нам легко включать больше лингвистических функций, которые потенциально могут улучшить нашу предсказательную способность, таких как лексиконы, поскольку наша цель состоит в изучении представления предложений с точки зрения интенсивности эмоций, мы не экспериментируем с добавлением каких-либо дополнительных источников информации, таких как вход.В этой статье мы также сообщаем результаты только для LSTM, которые превзошли обычные RNN, а также GRU и пакетную нормализованную версию LSTM в предварительных экспериментах.Скрытый размер компонента внимания устанавливается в соответствии с размером дополненных скрытых векторов в каждом случае.Учитывая этот параметр, мы исследовали различные конфигурации гиперпараметров, включая размеры контекстных окон 1, 3 и 5, а также размеры скрытого состояния RNN 100, 200 и 300.Мы экспериментировали с однонаправленными и двунаправленными версиями RNN.Чтобы избежать чрезмерной подгонки, мы использовали регуляризацию отсева, экспериментируя с вероятностями сохранения INLINEFORM0 и INLINEFORM1.Мы также добавили к нашей функции потерь взвешенный член регуляризации L2.Мы экспериментировали с различными значениями веса INLINEFORM2, с минимальным значением 0,01 и максимальным 0,2. Чтобы оценить нашу модель, мы обернули предоставленные сценарии для общей задачи и рассчитали коэффициент корреляции Пирсона и ранговый коэффициент Спирмена с помощью золотого стандарта. в наборе проверки, а также те же значения в подмножестве тех же данных, сформированных путем взятия каждого экземпляра с золотым показателем интенсивности эмоций, большим или равным 0,5. Для обучения мы использовали мини-пакетный стохастический градиентный спуск с пакетом размер 16 и дополненные последовательности до максимального размера 50 токенов, учитывая характер данных.Мы использовали экспоненциальное затухание отношения INLINEFORM0 и раннюю остановку проверки, когда после 1000 шагов не было улучшения.Наш код доступен для скачивания на GitHub.Inв этом разделе мы сообщаем результаты экспериментов, которые мы провели для проверки предложенной нами модели.В целом, как показывает таблица TABREF13, наше внимание RNN внутри предложения смогло значительно превзойти базовый уровень Weka BIBREF5 в наборе данных разработки.Более того, модели удается сделать это без каких-либо дополнительных ресурсов, кроме предварительно обученных вложений слов.Однако эти результаты обратны для тестового набора данных, где наша модель работает хуже, чем базовый уровень.Это показывает, что модель не способна хорошо обобщать, что, по нашему мнению, связано с отсутствием семантической информации из-за словарного разрыва, который мы наблюдали между наборами данных и встраиваниями GloVe.Чтобы проверить полезность наших бинарных функций, мы провели эксперимент по удалению и обучили наши лучшие модели для каждого корпуса без них.В таблице TABREF15 суммированы наши результаты с точки зрения корреляции Пирсона в части наборов данных, посвященной развитию.Как видно, производительность снижается во всех случаях, что показывает, что эти функции действительно имеют решающее значение для производительности, позволяя модели лучше улавливать семантику слов, отсутствующих в GloVe.В этом смысле мы считаем, что использование дополнительных функций, например, полученных из лексиконов эмоций или настроений, действительно может расширить возможности нашей модели.Это предлагается для дальнейшей работы.С другой стороны, наша модель также предлагает нам очень интересную информацию о том, как осуществляется обучение, поскольку мы можем проверять веса внимания, которые нейронная сеть присваивает каждому конкретному токену при прогнозировании интенсивности эмоций.Визуализируя эти веса, мы можем иметь четкое представление о частях предложения, которые модель считает более важными.Как показано на рисунке FigREF16, мы видим, что модель, похоже, научилась обращать внимание на слова, которые естественным образом несут эмоции или настроения.Это особенно заметно для примеров, извлеченных из набора данных Joy, где обычно идентифицируются положительные слова.Однако мы также видим несколько примеров, когда отсутствие семантической информации о входных словах, особенно для хэштегов или упоминаний пользователей, не позволяет модели идентифицировать некоторые из этих наиболее важных слов для прогнозирования интенсивности эмоций.Для решения этой проблемы можно реализовать несколько методов предварительной обработки, которые мы намерены изучить в будущем.Что касается набора данных гнева, наши эксперименты показали, что вложения GloVe размером 50 превзошли другие, получив средний прирост корреляции 0,066 по сравнению с вложениями размера 25 и 0,021 для вложений размера 100.Однако только первое из этих значений было значимым, с p-значением INLINEFORM0.Что касается скрытого размера RNN, мы не смогли обнаружить статистических различий между протестированными размерами.Отсев также имел противоречивые эффекты, но в целом был полезен.В наборе данных радости наши эксперименты показали, что векторы GloVe размерности 50 снова превзошли другие, в этом случае получив средний коэффициент корреляции 0,052.( INLINEFORM0 ) для вложений размером 100 и 0,062 ( INLINEFORM1 ) для размера 25.Что касается скрытого размера RNN, мы заметили, что 100 скрытых единиц обеспечили лучшую производительность в наших экспериментах со средним абсолютным выигрышем 0,052 (INLINEFORM2) по сравнению с 50 скрытыми единицами.По сравнению с моделями с 200 скрытыми блоками разница в производительности была статистически незначительной.В наборе данных о страхе мы снова заметили, что встраивания размера 50 дали наилучшие результаты, предлагая средний прирост 0,12 ( INLINEFORM0 ) и 0,11 ( INLINEFORM1 ) для размеров 25 и 100 соответственно.Когда дело доходит до размера скрытого состояния RNN, наши эксперименты показали, что использование 100 скрытых единиц дает наилучшие результаты со средним абсолютным выигрышем 0,117 (INLINEFORM2) и 0,108 (INLINEFORM3) по сравнению с размерами 50 и 200. Наконец, о грусти снова используя наборы данных, мы экспериментально заметили, что использование вложений 50 дает наилучшие результаты со статистически значимым средним приростом в 0,092 точки корреляции INLINEFORM0 по сравнению с размером 25.Результаты были статистически эквивалентны для размера 100.Мы также заметили, что использование 50 или 100 скрытых единиц для RNN дает статистически эквивалентные результаты, хотя оба они обеспечивают лучшую производительность, чем при использовании скрытого размера в 200. В этой статье мы представили RNN внимания внутри предложения для определения интенсивности эмоций. , который мы разработали для общего задания WASSA-2017 по интенсивности эмоций.Наша модель не использует внешнюю информацию, за исключением предварительно обученных внедрений, и способна превосходить базовый уровень Weka для набора разработки, но не в тестовом наборе.В общем задании он занял 13 место среди 22 конкурентов. | В этой статье мы описываем систему глубокого обучения, которая была спроектирована и создана для общей задачи WASSA 2017 Emotion Intensity. Мы представляем подход к обучению представлению, основанный на внутреннем внимании поверх RNN. Результаты показывают, что наша модель предлагает хорошие возможности и способна успешно идентифицировать слова, несущие эмоции, для прогнозирования интенсивности без использования лексикона, заняв 13-е место среди 22 конкурентов с общими задачами. | 1,994 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Модально-сбалансированные модели визуального диалога. Когда мы продолжаем разговор, контекст важен для поддержания согласованности темы или для ответа на вопросы, которые задают другие, поскольку большинство новых высказываний создаются с учетом связанных упоминаний или подсказок по теме в предыдущих высказываниях в истории разговора.Однако история разговора не обязательно необходима для всех взаимодействий: например, кто-то может менять темы во время разговора и задавать внезапный новый вопрос, не связанный с контекстом.Это похоже на настройку задачи визуального диалога BIBREF0, в которой один агент (скажем, «задающий вопрос») продолжает задавать вопросы, а другой (скажем, «отвечающий») продолжает отвечать на вопросы на основе изображения в течение нескольких раундов.Задавший вопрос может задать вопрос из контекста разговора.Затем отвечающий должен ответить на вопрос, учитывая историю разговора, а также информацию об изображении, например, если спрашивающий задает вопрос: «Они в горшках?»(Q4 на рис. РИСУНОК 1), отвечающий должен найти подсказку в прошлых парах вопрос-ответ «Много ли здесь растений?»- «Я вижу только 2».(Q3-A3 на рис. РИСУНОК 1)и сначала выясните, что означает слово «они», чтобы правильно ответить на вопрос.С другой стороны, некоторые вопросы в этом задании не зависят от истории прошлого разговора, например: «Вы видите здание?»(Q8 на рис.FigREF1), где отвечающему не нужно смотреть на контекст разговора, и он может ответить на вопрос только на основе информации об изображении.Сначала мы проводим ручное исследование набора данных Visual Dialog (VisDial), чтобы выяснить, на сколько вопросов можно ответить только с помощью изображений и на сколько из них требуется история разговоров, чтобы ответить.Это исследование показывает, что около 80% вопросов можно ответить только с помощью изображений.Более того, что касается модели, мы проверяем это наблюдение, создавая модель, которая использует только изображения для ответов на вопросы.Как и ожидалось, эта модель, состоящая только из изображений, очень хорошо работает с метрикой основной задачи NDCG (оценивается на основе плотных аннотаций, которые считают несколько похожих ответов правильными с весами сходства) без какой-либо помощи из истории разговоров (см. Таблицу TABREF40).Однако мы обнаружили, что модель, использующая только изображения, не получает более высоких оценок по другим показателям, таким как средний взаимный ранг (MRR), отзыв @k и средний рейтинг (оценивается на основе единичных достоверных ответов).Поскольку модель только с изображением не использует никакой информации об истории разговоров, мы предполагаем, что такое поведение оценки может быть связано с объемом доступной исторической информации, и, следовательно, мы также проводим дополнительные эксперименты, создавая совместную модель изображения и истории и обучая ее. с разной длиной исторических особенностей.Из этих экспериментов мы видим тенденцию, что модель с меньшим количеством исторических функций получает более высокий балл NDCG (с более низкими значениями для других показателей), тогда как модель с большим количеством исторической информации имеет противоположное поведение.Ранее BIBREF1 утверждал, что набор данных Visdial имеет предвзятость ответов, поэтому простая модель без видения или истории диалогов может достичь разумных результатов.Однако наша мотивация отличается от их.Цель нашей статьи — найти характеристики существующих мультимодальных моделей в наборе данных (которые смещены в сторону языковой информации в истории диалога), проанализировать поведение этих моделей по различным метрикам, а также использовать этот анализ для построения более качественных и менее эффективных моделей. предвзятые модели, которые дают более сбалансированные оценки.Поскольку NDCG в большей степени измеряет способность модели к обобщению (поскольку она допускает несколько похожих ответов), в то время как другие метрики измеряют точность модели, мы интерпретируем результаты этих вышеупомянутых экспериментов как означающие, что модель с большим количеством исторической информации имеет тенденцию предсказывать правильные ответы путем запоминание ключевых слов или шаблонов в истории, в то время как модель с меньшим количеством исторической информации (т. Е. Модель, состоящая только из изображений) лучше подходит для обобщения, поскольку не полагается на такую извлеченную информацию с точным совпадением.Мы считаем, что идеальная модель должна иметь более сбалансированное поведение и оценки по всем метрикам, а не иметь более высокие оценки только по определенной метрике, и такую модель можно рассматривать как модель, обладающую как точностью, так и обобщением.С этой целью мы предлагаем две модели: модель «только изображение» и модель «изображение-история-совместно».Мы анализируем, что ответы, которые дают эти две модели, взаимно хороши и лучше по разным показателям.Следовательно, мы интегрируем эти две модели (только изображение и соединение истории изображения) двумя способами: консенсус-выпадение-слияние и ансамбль.Наша окончательная модель ансамбля консенсус-отсев-слияние имеет высокие оценки как по метрикам NDCG, так и по метрикам отзыва для тестового набора данных VisDial v1.0, и эти оценки превосходят современные показатели Visual Dialog Challenge 2018 по большинству показателей.Кроме того, наша модель показывает конкурентоспособные сбалансированные результаты в испытании Visual Dialog 2019 (3-е место в таблице лидеров по стандарту тестирования на основе метрики NDCG и высокий баланс между метриками). Визуальный ответ на вопрос — это задача, в которой машине предлагается ответить на вопрос о изображение.Недавний успех глубоких нейронных сетей и массивного сбора данных BIBREF2 сделал эту область более активной.Одна из самых сложных частей задачи — обосновать смысл текста визуальными свидетельствами.Совместное внимание BIBREF3 предлагается для интеграции информации из разных модальностей (т. е. изображения и языка), а более продвинутые подходы показали хорошую эффективность BIBREF4, BIBREF5, BIBREF6.Билинейный подход также был предложен для замены простых подходов сложения или конкатенации для объединения двух модальностей BIBREF7, BIBREF8, BIBREF9, BIBREF10.В нашей работе мы используем мультимодальное факторизованное билинейное объединение (MFB) BIBREF11 для объединения вопросов и функций истории изображений.Задачу визуального диалога BIBREF0 можно рассматривать как расширенную версию задачи VQA с несколькими раундами последовательных пар вопрос-ответ в качестве истории диалога, включая подпись к изображению, на которую следует обращаться перед ответом на заданный вопрос.Эта история разговоров может помочь модели лучше предсказывать правильные ответы, предоставляя прямые или косвенные подсказки для ответов или правильный контекст для разрешения соссылок.Однако наличие истории разговоров также означает, что модель должна извлекать из истории соответствующую информацию, что создает еще одну проблему для выполнения задачи.Для решения этой проблемы было предложено множество подходов.BIBREF12 пытается рекурсивно извлечь подсказки из истории, в то время как BIBREF13 и BIBREF14 используют совместное внимание для объединения визуальных, исторических и вопросовных функций.В нашей работе мы используем подход BIBREF15, позволяющий объединить визуальные и исторические особенности до того, как они будут сопровождаться вопросом.Наша совместная модель со слитыми функциями содержит много информации из истории, и мы обнаруживаем, что она дополняет нашу модель, состоящую только из изображений.Таким образом, мы объединяем две модели, чтобы получить из каждой модели наиболее подходящую информацию для ответа на вопросы.В задаче визуального диалога BIBREF0 два агента взаимодействуют посредством естественного языка относительно изображения.Спрашивающий продолжает спрашивать об изображении с подписью к изображению, не видя изображения.Другой агент (то есть отвечающий) продолжает отвечать на вопросы, просматривая изображение.Они проводят несколько раундов беседы, накапливая пары вопрос-ответ, которые называются «историей» (рис. РИС. 1).Полная история $\textrm {HISTORY}$ состоит из пар вопросов-ответов, а также подписи к изображению, которая описывает данное изображение, так что в текущий момент времени $t$ предыдущая история равна $\textrm {HISTORY}_t = \lbrace C, (Q_{1},A_{1}), (Q_{2},A_{2}), ..., (Q_{t-1},A_{t-1}) \rbrace $, где $C$ — это подпись к изображению, а $Q_{t-1}$ и $A_{t-1}$ — это вопрос и ответ в раунде $t-1$ соответственно.Затем, учитывая новый текущий вопрос с отметкой времени $Q_t$, историю $\textrm {HISTORY}_t$ и изображение, модель должна ранжировать 100 возможных ответов с точки зрения отвечающего.Визуальные функции. Для визуальных функций мы используем функции объекта, которые извлекаются из изображения с помощью Faster R-CNN BIBREF16.Визуальный признак $V_{rcnn} \in \mathbb {R}^{k \times d_{v}}$ — это матрица, строки которой соответствуют объектам, где $k$ — количество объектов (k=36 в нашем эксперименте) $d_{v}$ — размер визуального элемента ($d_{v}$ = 2048 для магистральной сети ResNet). Особенности вопроса: последовательность слов вопроса в раунде $r$, $W_{q_ {r}} = \lbrace w_{q_{r}1}, w_{q_{r}2},..., w_{q_{r}T_{q_r}}\rbrace $ кодируется через LSTM-RNN BIBREF17,и последнее скрытое состояние мы берем в качестве представления вопроса: $q_{r} = h_{T_{q_{r}}}^{q_{r}}$, где $T_{q_{r}}$ — длина вопроса в раунде $r$. Особенности истории: История $H_r$ — это функция истории в раунде $r$, закодированная в результате объединения вопроса и истинного ответа, например, где $T_{a_{r-1 }}$ — длина ответа раунда $r-1$, а длина истории в раунде $r$ равна $T_{h_{r}}=T_{q_{r-1}}+T_{a_ {r-1}} $.История $H_r$ также кодируется с помощью LSTM. Мы также принимаем последнее скрытое состояние в качестве представления истории в раунде $r$: $H_r = h_{T_{h_r}}^{h_r}$. Обратите внимание, что первая функция истории $H_1$ происходит из подписи к изображению $C$. Сначала мы создаем модель, которая использует только визуальные функции для ответа на вопросы.Мы используем современный подход «снизу вверх и сверху вниз» из BIBREF18, в котором мы применяем механизм внимания к обнаруженным особенностям объекта.Мы также применяем метод мультимодального факторизованного билинейного пула (MFB) BIBREF11 для расчета весов внимания по визуальным функциям в отношении функции вопроса.Из проецируемых визуальных особенностей и вопросительного признака мы получаем $z \in \mathbb {R}^{k \times d_{m}}$, применяя MFB: где $\textrm {Linear}_{d_v\times d}$ — это линейная проекция, проецирующая точки из пространства измерения $d_v$ в пространство измерения $d$.где $M$, $N$ $\in \mathbb {R}^{d_{m} \times d\times m}$ — обучаемые параметры, $d$ — размер проецируемых визуальных признаков и вопросительного признака, $d_m$ — размер объединенного признака, а $m$ — количество факторов.${1}_k$ $\in \mathbb {R}^k$ — вектор, все элементы которого равны единице.Следуя BIBREF11, мы также применяем степенную нормализацию и нормализацию $\ell _2$, чтобы получить $\hat{z}_{r}$. После применения линейной проекции применяется операция softmax для получения весового вектора $\alpha $: $\alpha _{r} = \textrm {softmax}(L\hat{z}_{r}^{\top }) $.Затем мы получаем вектор визуального представления $v_{r}$ путем взвешенного суммирования проецируемых визуальных признаков: $v_{r} = \sum _{i=1}^k \alpha _{ri}V_i$, где $L \in \mathbb {R}^{1 \times d_m }$ — обучаемый параметр, а $V_i$ — $i$-я вектор-строка матрицы визуальных признаков $V$.Вектор визуального представления и вектор признаков вопроса объединяются с поэлементным продуктом после линейной проекции.После еще одной линейной проекции мы получаем последний признак $f_{v_{r}}^{q_{r}}$, который в дальнейшем используется для ранжирования ответов. Где $\textrm {fc}_*$ — это полностью связный слой.В каждом туре дается 100 ответов кандидатов.$l$-й ответ в раунде $r$ кодируется так же, как вопрос и история. Где $T_{a_{rl}}$ — длина $l$-го ответа кандидата.Баллы за каждый ответ кандидата рассчитываются путем скалярного произведения объединенного признака $f_{v_r}^{q_r}$ и представления ответа каждого кандидата, $a_{rl}$: $s_{rl} = f_{v_r}^{q_r} \cdot a_{rl}$. Мы вычисляем матрицу сходства $S_r \in \mathbb {R}^{k \times r} $ между визуальными и историческими функциями в соответствии с BIBREF15.где $w_s \in \mathbb {R}^ {3d}$ — обучаемый параметр, а $H_j$ — $j$-я вектор-строка исторического признака $H_{1:r}$. Из матрицы сходства новое объединенное представление истории выглядит следующим образом: Аналогично, новое объединенное визуальное представление выглядит следующим образом: Эти объединенные функции затем передаются в модуль MFB и обслуживаются по W.R.T.вопросительный признак, соответственно, следует тому же процессу, что и визуальный признак в модели, состоящей только из изображений.Взвешенные суммы функций объединяются с функцией вопроса посредством поэлементного продукта и объединяются вместе для получения интегрированного представления: где $v_{r}^f$ и $h_{r}^f$ — это взвешенная сумма объединенных функций. относительно функции вопроса.На рисунке FigREF5 показан весь процесс совместной модели в этом разделе.Чтобы модель не слишком полагалась на историческую информацию, мы предлагаем новый подход исключения, при котором исключаются некоторые раунды исторических функций (рис. РИС. 17).Точнее, мы случайным образом выбираем до 3 раундов истории из всей истории, за исключением функции подписи к изображению, и выбрасываем их. Где $N_h^r$ — количество объектов истории в раунде $r$, а $N_D^r$ — это число. исторических функций упадет примерно на уровне $r$. Поскольку каждая из наших моделей обладает разными способностями, мы используем их взаимодополняющие способности вместе, комбинируя их двумя способами.Первый — это наше новое консенсусное объединение отсева, которое объединяет две модели во время обучения.Другой способ — построить ансамблевую модель из двух моделей во время тестирования.Чтобы объединить модель только изображения и совместную модель изображения и истории в одну модель, мы предлагаем новый метод интеграции, называемый консенсусным слиянием исключений.Наше объединение консенсусного исключения представляет собой комбинацию метода консенсуса и метода исключения экземпляра (рис. FigREF23). Мы используем метод консенсуса, в котором логиты из каждой модели добавляются для получения окончательного логита в соответствии с подходом BIBREF19. где $L_{I}$ и$L_{J}$ — это логит из модели только изображения и совместной модели истории изображения соответственно, а $L_{IJ}$ — это новый логит, полученный путем сложения двух логитов.Чтобы модель, содержащая только изображение, имела более сильный эффект и давала более сбалансированные результаты по всем показателям, мы применяем исключение к экземплярам логита совместной модели.Точнее, когда мы добавляем два логита, мы умножаем $L_{J}$ на $I_{drop}$, где ${1}_{(N\times R)} \in \mathbb {R}^{( N\times R)}$ и ${1}_{d} \in \mathbb {R}^{d}$ — векторы-единицы размерности $(N\times R)$ и $d$ соответственно.$N$ — размер обучающего пакета, а $R$ — длина раундов истории разговоров.Маска исключения $\xi $ рассчитывается в соответствии с работой BIBREF20.Мы также интегрируем наши две модели через ансамбль.Мы обучаем каждую модель отдельно и объединяем их во время тестирования.Точнее, мы берем логиты из предварительно обученных моделей и выбираем ответ с наибольшей суммой логитов.Мы используем набор данных VisDial v1.0 BIBREF0 для обучения наших моделей, где один пример содержит изображение с подписью, 9 пар вопрос-ответ, а также дополнительные вопросы и ответы кандидатов для каждого раунда.На этапе $r$ заголовок и предыдущие пары вопрос-ответ становятся контекстом разговора.Весь набор данных разделен на 123 287/2 000/8 000 изображений для обучения/валидации/тестирования соответственно.В отличие от изображений в обучающем и проверочном наборах, изображения в тестовом наборе содержат только один дополнительный вопрос и ответы кандидатов, а также соответствующий им диалоговый контекст.Для оценки задача «Визуальный диалог» использует четыре метрики.NDCG — это основной показатель конкурса визуального диалога, который считает несколько похожих ответов правильными.Остальные три — это MRR, Recall@k и средний ранг, где они учитывают только ранг одного ответа.Наши эксперименты показывают, что оценки метрик NDCG и не-NDCG в наших моделях только с изображением и совместной модели имеют компромиссные отношения из-за их разных способностей (как показано в разделе SECREF41) при выполнении задач визуального диалога: модель только с изображением имеет высокие значения NDCG и низкие значения, отличные от NDCG, в то время как совместная модель имеет низкие значения NDCG и высокие значения, отличные от NDCG.В наших моделях размер векторов слов равен 300, размерность визуальных признаков — 2048, а скрытый размер блоков LSTM, которые используются для кодировщиков вопросов, истории контекста и ответов кандидатов, — 512.В качестве оптимизатора мы используем Адама BIBREF21.Мы устанавливаем начальную скорость обучения на 0,001 и уменьшаем ее на 0,0001 за эпоху до 8-й эпохи и уменьшаем на 0,5, начиная с 9-й эпохи.Для исключения раундов мы устанавливаем максимальное количество удаляемых функций истории равным 3 и настраиваем значение p на 0,25 для исключения нашего экземпляра в модуле консенсусного исключения исключений.Перекрестная энтропия используется для расчета потерь.В этом разделе мы сначала обсудим, на сколько вопросов можно ответить только с помощью изображения и на сколько из них необходимо совместное изображение и историю, чтобы ответить путем проведения ручного исследования.Мы обнаружили, что на большую часть вопросов в наборе данных VisDial можно ответить, только используя изображения.Затем, чтобы проверить наблюдения, полученные в результате ручного исследования, мы проводим последующий эксперимент и находим компромиссное соотношение между количеством исторических признаков и тенденцией оценки показателей моделей.Затем мы анализируем ответы двух моделей (только изображение и совместная модель изображения и истории) и показываем, что они дополняют друг друга.Наконец, мы показываем, что каждая модель может компенсировать другую, объединяясь в консенсусное слияние или в ансамблевую модель.Мы проводим человеческую оценку имиджа, истории и вопросов.Точнее, мы случайным образом выбираем 100 изображений (что приводит к 1000 вопросам) из набора валидации для оценки и подсчитываем количество вопросов, на которые можно ответить только с помощью изображений, и количество вопросов, на которые необходимо ответить в контексте разговора (основной -правдивые ответы предоставляются для проверки того, можно ли получить ответы с учетом соответствующих вопросов и изображений вместо предоставления всех 100 возможных ответов).Два аннотатора проводят эксперимент независимо, и вопросы, на которые оба аннотатора отмечают, что на них можно ответить только с помощью изображений, классифицируются как вопросы, содержащие только изображения, в противном случае - как вопросы истории потребностей.Межаннотационное соглашение (каппа) составляет 0,74.Как показано в таблице TABREF36, около 80% вопросов можно ответить только с помощью изображений.И наоборот, это также означает, что модели нужен контекст разговора, чтобы лучше выполнять задачу.Однако, как обсуждалось в гл.SECREF1, использования только истории также недостаточно (можно ответить только на 1% вопросов), поэтому историю следует использовать совместно с изображениями.Обратите внимание, что мы считаем вопрос с местоимением ответом только с изображением, если местоимение можно вывести (совместно) из соответствующего изображения (например, в вопросе упоминается «он», а в изображении есть только один человек - мальчик). ). Затем мы запускаем нашу совместную модель с различной продолжительностью истории.Точнее, мы заставляем нашу совместную модель использовать только k особенностей предыдущей истории для ответа на вопрос.Как показано в таблице TABREF40, существует компромисс между значениями метрик и количеством функций истории.По мере увеличения количества особенностей истории, используемых совместной моделью, оценка NDCG снижается, а другие показатели увеличиваются.С другой стороны, по мере того, как количество особенностей истории, используемых совместной моделью, уменьшается, оценка NDCG увеличивается, а другие показатели уменьшаются.Если мы рассматриваем метрику основной задачи NDCG Visual Dialog как барометр способности модели к обобщению, а другие метрики можно рассматривать как индикатор точности, это означает, что уменьшение размера истории дает модели возможность обобщения за счет точности.Судя по этой тенденции, модель, содержащая только изображения, имеет наивысший балл NDCG.Если модель, основанная только на изображениях, хороша для NDCG, можем ли мы использовать ее возможности, объединив ее с совместной моделью?Чтобы выяснить эту возможность, мы сравниваем каждый ответ модели только изображения и совместной модели.Точнее, для R@1 мы перечисляем правильные ответы из каждой модели и подсчитываем ответы, которые находятся в обоих наборах, то есть в пересечении.В результате пересечения мы получаем объединение двух множеств.Для NDCG не существует единственного правильного ответа.Поэтому мы грубо вычисляем пересечение, беря минимальные значения между оценками двух моделей и усредняя их.Как мы видим в таблице TABREF42, пересечения не учитывают всю оценку ни одной модели по обеим метрикам.Это может означать, что модели, состоящие только из изображений, и совместные модели можно улучшить, объединив их вместе.Учитывая взаимодополняющую связь между моделью только изображения и совместной моделью, объединение двух моделей было бы хорошим подходом, позволяющим взять лучшее от обеих.Итак, мы интегрируем эти две модели двумя методами: консенсусным слиянием отсева и ансамблем (см.SECREF26). Как показано в таблице TABREF46, консенсусное объединение исключений улучшает оценку NDCG примерно на 1,0 по сравнению с оценкой совместной модели, сохраняя при этом сопоставимые оценки по другим показателям.В отличие от ансамблевого метода, консенсусное слияние с отсевом не требует значительного увеличения количества параметров модели.Как также показано в таблице TABREF46, ансамблевая модель, похоже, берет лучшие результаты из каждой модели.В частности, оценка NDCG ансамблевой модели сопоставима с оценкой модели только с изображением, а оценки других показателей сопоставимы с оценкой совместной модели изображения и истории.Из этого эксперимента мы можем подтвердить, что две модели дополняют друг друга.Для оценки тестового стандартного набора данных VisDial v1.0 мы пробуем 6 ансамблей моделей только для изображений и 6 ансамблей консенсусных моделей слияния с выпадением.Как показано в таблице TABREF48, наши две модели показывают конкурентоспособные результаты по сравнению с новейшими моделями конкурса Visual Dialog 2018 (DL-61 стал победителем конкурса Visual Dialog 2018).В частности, наша модель, основанная только на изображениях, показывает гораздо более высокий балл NDCG (60,16).С другой стороны, наша консенсусная модель объединения отсева показывает более сбалансированные результаты по всем показателям, но при этом превосходит большинство показателей оценки (NDCG, MRR, R@1 и R@5).По сравнению с результатами конкурса Visual Dialog 2019 года наши модели также показывают высокие результаты.Хотя ReDAN+ BIBREF26 и MReaL-BDAI демонстрируют более высокие оценки NDCG, наша консенсусная модель слияния с отсевом показывает более сбалансированные результаты по сравнению с метриками, сохраняя при этом конкурентоспособный показатель NDCG по сравнению с DAN BIBREF25, с рангом 3 на основе метрики NDCG и высоким балансовым рангом на основе среднего показателя. .Мы также запускаем ансамблевую модель на основе наших моделей объединения только изображений, совместных моделей и моделей консенсусного исключения (по 6 каждой, всего 18 моделей) и оцениваем ее на стандартном наборе данных VisDial v1.0.Оценки этой модели (NDCG: 59,90, MRR: 64,05, R@1: 50,28, R@5: 80,95, R@10: 90,60, среднее значение: 4,00) находятся между нашей моделью ансамбля только для изображений и нашей моделью консенсусного ансамбля с выпадением. , то есть эта модель ансамбля имеет более высокий NDCG, чем модель ансамбля слияния с консенсусным выпадением, и более высокие баллы, не связанные с NDCG, чем модель ансамбля, состоящая только из изображений.Этот результат показывает, что наши модели слияния только изображений, совместные модели и модели консенсусного исключения компенсируют друг друга, объединяясь в ансамблевую модель, как мы и ожидали.Выпадение раунда:Как показано в таблице TABREF52, наш пропуск раунда (см. раздел SECREF24) улучшает показатель NDCG на 1,2.Возможная интерпретация заключается в том, что исключение раундов может помочь модели избежать чрезмерного соответствия некоторым закономерностям в функциях истории за счет намеренного исключения некоторых функций в сеансе обучения.Консенсусное объединение отсева и уровень отсева. Мы запускаем нашу согласованную модель слияния отсева (см. раздел SECREF27) с различными показателями отсева экземпляров, чтобы выяснить, как показатели отсева влияют на производительность модели.Как показано в табл.TABREF53, по мере увеличения процента отсева показатель NDCG также увеличивается, а показатели, не относящиеся к NDCG, снижаются.Изменяя частоту отсева, мы можем модулировать влияние каждой модели (только изображения и совместной модели) на объединенную модель.Мы выбрали значение 0,25 для показателя отсева, поскольку оно дает более сбалансированные оценки по всем показателям.Объединение ансамблей: мы пробуем различные комбинации, от моделей только изображений и совместных моделей, для создания ансамблевых моделей.Общее количество моделей составляет 3: ансамблевые модели «только изображение + только изображение» (I+I), «совместно + совместно» (J+J) и «только изображение + совместно» (I+J).Как показано в таблице TABREF54, оценки ансамблевой модели I+J сопоставимы с ансамблевыми моделями того же типа (I+I и J+J).Точнее, для метрики NDCG модель I+J превосходит модель J+J, а для других метрик (MRR, Recall@k и средний ранг) модель I+J превосходит модель I+I.Это может означать, что сбалансированные баллы (т. е. высокие баллы по всем показателям) модели I+J обусловлены дополнительным отношением между совместной моделью только изображения и совместной моделью истории изображения.Примеры выходных данных: из-за нехватки места и отсутствия дополнительных разрешений в правилах AAAI, в приложении к этой версии arxiv мы приводим подробные примеры, показывающие явления кореференции и запоминания совместной модели истории изображения, а также примеры выходных данных модели только с изображением на изображении. -только вопросы.Также приведены примеры вопросов, содержащих только изображения, а также рейтинговые списки совместных моделей «изображение-история» и «только изображение».Сначала мы показали, что текущие мультимодальные модели задачи «Визуальный диалог» чрезмерно полагаются на историю диалога, и, соответственно, совместные модели «только изображение» и «история изображения» обеспечивают дополнительный прирост производительности.Следовательно, чтобы сбалансировать лучшие способности каждой модели, мы предложили два способа их объединения: консенсусное слияние и ансамбль.Наша модель консенсусного слияния и ансамбля отсева достигает высоких позиций в многочисленных таблицах лидеров.В частности, модели показывают более высокие баллы, чем современные результаты конкурса Visual Dialog 2018, и более сбалансированные оценки, чем результаты с самым высоким рейтингом в конкурсе Visual Dialog 2019.Учитывая характеристики набора данных и текущее поведение модели, потенциальным будущим направлением является динамическое объединение возможностей двух моделей, например, научиться выбирать правильную модель на основе типа вопроса.Мы благодарим рецензентов за полезные комментарии.Эта работа была поддержана премией NSF № 1840131, премией ARO-YIP № W911NF-18-1-0336 и наградами преподавателей от Google, Facebook, Bloomberg и Salesforce.Взгляды, мнения и/или выводы, содержащиеся в этой статье, принадлежат авторам и не должны интерпретироваться как представляющие официальные взгляды или политику, выраженные или подразумеваемые, финансирующего агентства. | Задача «Визуальный диалог» требует, чтобы модель использовала информацию как об изображении, так и о контексте разговора, чтобы генерировать следующий ответ на диалог. Однако с помощью ручного анализа мы обнаружили, что на большое количество разговорных вопросов можно ответить, только взглянув на изображение без какого-либо доступа к истории контекста, в то время как другим все еще нужен контекст разговора, чтобы предсказать правильные ответы. Мы демонстрируем, что по этой причине предыдущие модели совместной модальности (история и изображение) чрезмерно полагаются на историю диалога и более склонны к запоминанию (например, путем извлечения определенных ключевых слов или шаблонов из контекстной информации), тогда как модели только с изображением модели более обобщаемы (поскольку они не могут запоминать или извлекать ключевые слова из истории) и значительно лучше справляются с основной метрикой задачи нормализованного дисконтированного совокупного выигрыша (NDCG), которая допускает несколько правильных ответов. Следовательно, это наблюдение побуждает нас явно поддерживать две модели, то есть модель только изображения и совместную модель изображения и истории, и объединять их взаимодополняющие возможности для более сбалансированной мультимодальной модели. Мы представляем несколько методов интеграции двух моделей посредством объединения ансамбля и консенсусного исключения с общими параметрами. Эмпирически наши модели достигают высоких результатов в конкурсе Visual Dialog 2019 (3-е место по NDCG и высокий баланс по метрикам) и существенно превосходят победителя конкурса Visual Dialog 2018 по большинству показателей. | 4,925 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Macaw: расширяемая платформа для поиска информации в диалоговом режиме. Быстрый рост речевых и небольших экранных интерфейсов, особенно на мобильных устройствах, существенно повлиял на то, как пользователи взаимодействуют с интеллектуальными системами для удовлетворения своих информационных потребностей.Растущий интерес к персональным цифровым помощникам, таким как Amazon Alexa, Apple Siri, Google Assistant и Microsoft Cortana, демонстрирует готовность пользователей использовать диалоговое взаимодействие BIBREF0.В результате диалоговый поиск информации (CIS) был признан основной новой областью исследований на Третьем стратегическом семинаре по поиску информации (SWIRL 2018).BIBREF1.Прогресс исследований в странах СНГ зависит от доступности ресурсов для сообщества.В последнее время были предприняты усилия по предоставлению данных для различных задач CIS, таких как TREC 2019 Conversational Assistance Track (CAsT), MISC BIBREF2, Qulac BIBREF3, CoQA BIBREF4, QuAC BIBREF5, SCS BIBREF6 и CCPE-M BIBREF7.Кроме того, BIBREF8 реализовал демонстрацию рекомендаций диалоговых фильмов на основе DialogFlow от Google.Несмотря на все эти ресурсы, сообщество по-прежнему ощущает отсутствие подходящей платформы для разработки систем CIS.Мы считаем, что предоставление такой платформы ускорит прогресс в исследованиях по поиску диалоговой информации.Поэтому мы разработали общую основу для поддержки исследований в странах СНГ.Фреймворк называется Macaw.В этом документе описывается высокоуровневая архитектура Macaw, поддерживаемые функциональные возможности и наше видение будущего.Исследователи, работающие над различными задачами CIS, должны иметь возможность использовать Macaw в своих проектах.Macaw разработан на основе модульной архитектуры для поддержки различных задач по поиску информации, включая диалоговый поиск, разговорный ответ на вопросы, разговорные рекомендации и диалоговый интерфейс на естественном языке для структурированных и полуструктурированных данных.Каждое взаимодействие в Macaw (как со стороны пользователя, так и со стороны системы) представляет собой объект сообщения, поэтому разговор представляет собой список сообщений.Macaw состоит из множества действий, каждое действие представляет собой модуль, способный удовлетворить информационные потребности пользователей по некоторым запросам.Например, в Macaw поиск и ответ на вопрос могут быть двумя действиями.Даже несколько алгоритмов поиска также можно рассматривать как несколько действий.Каждое действие может давать несколько результатов (например, несколько полученных документов).При каждом взаимодействии с пользователем Macaw выполняет все действия параллельно.Результаты действий, полученные в течение заранее определенного интервала времени (т. е. константы времени ожидания взаимодействия), затем подвергаются постобработке.Macaw может выбрать один или объединить несколько из этих выходных данных и подготовить выходной объект сообщения в качестве ответа пользователя.Модульная конструкция Macaw позволяет относительно легко настроить другой пользовательский интерфейс или добавить новый.Текущая реализация Macaw поддерживает интерфейс командной строки, а также мобильные, настольные и веб-приложения.Более подробно, интерфейс Macaw может представлять собой бот Telegram, который поддерживает широкий спектр устройств и операционных систем (см. РИС. 4).Это позволяет Macaw поддерживать мультимодальные взаимодействия, такие как текст, речь, изображение, щелчок и т. д.Для поддержки речевого взаимодействия используется ряд API-интерфейсов для автоматического распознавания и генерации речи.Обратите внимание, что архитектура и реализация Macaw допускают взаимодействие со смешанной инициативой.Исследовательское сообщество может извлечь выгоду из Macaw для следующих целей:[leftmargin=*]Разработка алгоритмов, инструментов и методов для CIS.Изучение взаимодействия пользователей с системами CIS.Проведение исследований СНГ с помощью посредника и волшебника из страны Оз.Подготовка быстрой демонстрации разработанной модели СНГ.Macaw имеет модульную конструкцию, цель которой — упростить настройку и добавление новых модулей, таких как другой пользовательский интерфейс или другой модуль поиска.Общая настройка также соответствует архитектуре, подобной модели-представлению-контроллеру (MVC).Конструктивные решения были приняты для того, чтобы облегчить внедрение и расширение Macaw.Macaw реализован на Python, поэтому модели машинного обучения, реализованные с использованием PyTorch, Scikit-learn или TensorFlow, можно легко интегрировать в Macaw.Общий обзор Macaw показан на FigREF8.Пользователь взаимодействует с интерфейсом, и интерфейс создает объект Message в результате текущего взаимодействия пользователя.Взаимодействие может осуществляться в мультимодальной форме, такой как текст, речь, изображение и щелчок.Macaw хранит все взаимодействия в «Базе данных взаимодействий».Для каждого взаимодействия Macaw ищет самые последние взаимодействия пользователя с системой (включая ответы системы), чтобы создать список сообщений, называемый списком разговоров.Затем он отправляется на множество действий по поиску информации (и связанных с ними действий).Действия выполняются параллельно, и каждое из них должно реагировать в течение заранее определенного интервала времени.Компонент выбора выходных данных выбирает (или потенциально объединяет) выходные данные, сгенерированные различными действиями, и создает объект «Сообщение» в качестве ответа системы.Это сообщение регистрируется в базе данных взаимодействия и отправляется в интерфейс для представления пользователю.Опять же, ответное сообщение может быть мультимодальным и включать в себя текст, речь, ссылку, список опций и т. д.Macaw также поддерживает исследования «Волшебника страны Оз» или исследования по поиску информации через посредников.Архитектура Macaw для такой установки представлена на фиг.16.Как показано на рисунке, искатель взаимодействует с реальным диалоговым интерфейсом, который поддерживает мультимодальные взаимодействия и взаимодействия со смешанной инициативой на нескольких устройствах.Посредник (или волшебник) получает сообщение искателя и выполняет различные действия по поиску информации с Ара.Все взаимодействия искателя-посредника и посредника-системы будут регистрироваться для дальнейшего анализа.Эта установка может моделировать идеальную систему CIS и, таким образом, полезна для сбора высококачественных данных от реальных пользователей для исследования CIS.Обзор действий поиска и ответа на вопросы в Macaw показан на FigREF17.Эти действия состоят из следующих компонентов:[leftmargin=*]Разрешение совместных ссылок: для поддержки многоповоротных взаимодействий иногда необходимо использовать методы разрешения совместных ссылок для эффективного поиска.В Macaw мы идентифицируем все ссылки от последнего запроса пользователя до истории разговоров.Одни и те же выходные данные разрешения соссылок могут использоваться для разных компонентов генерации запросов.Это может быть общий компонент или компонент, ориентированный на конкретное действие.Генерация запроса:Этот компонент генерирует запрос на основе прошлых взаимодействий пользователя с системой.Компонент генерации запросов может использовать разрешение совместных ссылок для расширения или перезаписи запроса.Модель поиска:Это основной компонент ранжирования, который извлекает документы или отрывки из большой коллекции.Macaw может извлекать документы из произвольной коллекции документов, используя интерфейс Python Indri BIBREF9, BIBREF10.Мы также предоставляем поддержку веб-поиска с использованием API веб-поиска Bing.Macaw также позволяет выполнять многоэтапное переранжирование документов.Генерация результатов:Полученные документы могут быть слишком длинными, чтобы их можно было представить с помощью некоторых интерфейсов.Генерация результатов — это, по сути, этап постобработки полученного списка результатов.В случае ответа на вопрос он может использовать методы выбора или генерации ответа, такие как модели машинного понимания чтения.Например, в Macaw имеется модель DrQA BIBREF11 для ответов на вопросы.Эти компоненты реализованы в общей форме, поэтому исследователи могут легко заменить их своими любимыми алгоритмами.Мы реализовали следующие интерфейсы для Macaw:[leftmargin=*]File IO: этот интерфейс разработан для экспериментальных целей, таких как оценка производительности метода диалогового поиска в наборе данных с несколькими запросами.Это не интерактивный интерфейс.Стандартный ввод-вывод: этот интерактивный интерфейс командной строки предназначен для целей разработки, позволяющий взаимодействовать с системой, просматривать журналы, а также отлаживать или улучшать систему. Telegram:Этот интерактивный интерфейс предназначен для взаимодействия с реальными пользователями (см. РИС. 4).Telegram — популярный сервис обмена мгновенными сообщениями, клиентский код которого имеет открытый исходный код.Мы реализовали Telegram-бот, который можно использовать с разными устройствами (персональными компьютерами, планшетами и мобильными телефонами) и разными операционными системами (Android, iOS, Linux, Mac OS и Windows).Этот интерфейс обеспечивает мультимодальное взаимодействие (текст, речь, щелчок, изображение).Его также можно использовать для речевого взаимодействия.Для распознавания и генерации речи Macaw использует онлайн-API, например, сервисы, предоставляемые Google Cloud и Microsoft Azure.Кроме того, в Telegram существует множество популярных групп и каналов, что позволяет осуществлять дальнейшую интеграцию социальных сетей с диалоговыми системами.Например, см. исследование Насери и Замани о популярности новостей в Telegram BIBREF12. Подобно другим модулям, Macaw можно легко расширить, используя другие подходящие пользовательские интерфейсы.В текущей реализации Macaw отсутствуют следующие действия.Мы намерены постепенно улучшать Macaw, поддерживая больше действий и еще более продвинутые методы для разработанных действий.[leftmargin=*]Разъяснение и выявление предпочтений:Задание уточняющих вопросов недавно было признано необходимым компонентом разговорной системы BIBREF3, BIBREF7.Авторам неизвестно опубликованное решение для формирования уточняющих вопросов с использованием общедоступных ресурсов.Поэтому Ара в настоящее время не поддерживает разъяснения.Объяснение:Несмотря на свою важность, объяснение списка результатов также является относительно менее изученной темой.Мы намерены расширить Macaw объяснением списка результатов, как только найдем стабильное и зрелое решение.Рекомендация:В нашем первом выпуске мы сосредоточились на диалоговом поиске и задачах ответа на вопросы.В будущем мы намерены обеспечить поддержку диалоговых рекомендаций, например, BIBREF13, BIBREF14, BIBREF15, а также совместного поиска и рекомендаций, например, BIBREF16, BIBREF17.Интерфейс естественного языка:Macaw потенциально может поддерживать доступ к структурированным данным, таким как граф знаний.В наших будущих выпусках мы хотели бы упростить диалоговый интерфейс на естественном языке для структурированных и полуструктурированных данных.Macaw распространяется по лицензии MIT.Мы приветствуем вклад и предложения.Большинство вкладов требует от вас согласия с Лицензионным соглашением для авторов (CLA), в котором говорится, что вы имеете право и действительно предоставляете нам права на использование вашего вклада.Подробную информацию можно найти на странице https://cla.opensource.microsoft.com.В этом проекте принят Кодекс поведения Microsoft с открытым исходным кодом.Когда вы отправляете запрос на включение, бот CLA автоматически определит, нужно ли вам предоставить CLA, и соответствующим образом оформить PR (например, проверку статуса, комментарий).Просто следуйте инструкциям бота.Вам нужно будет сделать это только один раз во всех репозиториях, используя наш CLA. В этом документе описывается Macaw, платформа с открытым исходным кодом для диалоговых исследований по поиску информации.Macaw поддерживает многоходовые, мультимодальные и смешанные взаимодействия.Он был разработан на основе модульной архитектуры, которая допускает дальнейшие улучшения и расширения.Исследователи могут воспользоваться Macaw для разработки алгоритмов и методов диалогового поиска информации, изучения пользователей с различными интерфейсами, сбора данных от реальных пользователей и подготовки демонстрации модели CIS.Авторы выражают благодарность Ахмеду Хасану Авадалле, Кристиану Балогу и Арьену П. де Фрису за их неоценимые отзывы. | Диалоговый поиск информации (CIS) был признан основной новой областью исследований в области поиска информации. Для такого исследования потребуются данные и инструменты, позволяющие внедрять и изучать диалоговые системы. В этом документе представлен Macaw, платформа с открытым исходным кодом и модульной архитектурой для исследований СНГ. Macaw поддерживает многоходовые, мультимодальные и смешанные взаимодействия, а также позволяет проводить исследования для таких задач, как поиск документов, ответы на вопросы, рекомендации и исследование структурированных данных. Он имеет модульную конструкцию, способствующую изучению новых алгоритмов CIS, которые можно оценивать в пакетном режиме. Он также может интегрироваться с пользовательским интерфейсом, который позволяет изучать пользователей и собирать данные в интерактивном режиме, где серверная часть может быть полностью алгоритмической или с помощью мастера настройки oz. Macaw распространяется по лицензии MIT. | 1,748 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Универсальное представление текста от BERT: эмпирическое исследование. Универсальные текстовые представления важны для многих задач НЛП, поскольку современные модели глубокого обучения становятся все более требовательными к данным и требуют больших вычислительных затрат.С одной стороны, большинство исследовательских и отраслевых задач сталкиваются с проблемой разреженности данных из-за высокой стоимости аннотаций.Универсальные текстовые представления могут в определенной степени смягчить эту проблему, выполняя неявное переносное обучение между задачами.С другой стороны, современные модели глубокого обучения с миллионами параметров требуют больших затрат на обучение и размещение, в то время как модели, использующие текстовое представление в качестве строительных блоков, могут достичь аналогичной производительности с гораздо меньшим количеством настраиваемых параметров.Предварительно вычисленные встраивания текста также могут помочь значительно уменьшить задержку модели во время вывода.С момента появления предварительно обученных векторных представлений слов, таких как word2vec BIBREF0 и GloVe BIBREF1, много усилий было направлено на разработку универсальных векторных представлений предложений.Первоначальные попытки обучения представлению предложений с использованием неконтролируемых подходов не дали удовлетворительных результатов.Недавняя работа BIBREF2 показала, что модели, обученные контролируемым образом на таких наборах данных, как Стэнфордский корпус вывода естественного языка (SNLI) BIBREF3, могут постоянно превосходить неконтролируемые методы, такие как векторы SkipThought BIBREF4.Совсем недавно универсальный кодировщик предложений BIBREF5, оснащенный преобразователем BIBREF6 в качестве кодера, совместно обученный на большом объеме неконтролируемых обучающих данных и корпусе SNLI, продемонстрировал удивительно хорошую производительность при минимальном количестве контролируемых обучающих данных для задачи передачи.BERT BIBREF7, одна из новейших моделей, в которых активно используется предварительное обучение языковой модели, достигла высочайшего уровня производительности во многих задачах понимания естественного языка, начиная от классификации последовательностей и пар последовательностей и заканчивая ответами на вопросы.Тот факт, что предварительно обученный BERT можно легко настроить с помощью всего лишь одного дополнительного выходного слоя для создания современной модели для широкого круга задач, предполагает, что представления BERT являются потенциальными универсальными встраиваниями текста.Отрывки, состоящие из нескольких предложений, представляют собой связные единицы естественного языка, передающие информацию на прагматическом или дискурсивном уровне.Несмотря на то, что существует множество моделей для создания и оценки встраивания предложений, не было проведено много работы по созданию и оценке встраивания на уровне отрывка.В этой статье мы провели эмпирическое исследование послойных активаций BERT как встраивания текста общего назначения.Мы хотим понять, в какой степени представление BERT захватывает синтаксическую и семантическую информацию.Встраивания на уровне предложения оцениваются в последующих и исследовательских задачах с использованием набора инструментов SentEval BIBREF8, а кодировки на уровне отрывка оцениваются на четырех наборах данных QA на уровне отрывка (как фактоидных, так и нефактоидных) в режиме обучения для ранжирования.Рассмотрены различные методы объединения вложений запроса с встраиваниями ответов на уровне отрывка.Мы используем набор инструментов SentEval для оценки качества представления предложений при активации BERT.Оценка включает в себя множество последующих и исследовательских задач.Последующие задачи включают классификацию текста, вывод на естественном языке, обнаружение перефразирования и семантическое сходство.Задачи исследования используют встраивание одного предложения в качестве входных данных и предназначены для исследования лингвистических явлений на уровне предложения, от поверхностных свойств предложений до синтаксической информации и семантической приемлемости.Подробную информацию о задачах см. в BIBREF8 и BIBREF9.Мы сравниваем встраивания BERT с двумя современными встраиваниями предложений: Universal Sentence Encoder BIBREF5, InferSent BIBREF2 и базовым уровнем усреднения встраивания слов GloVe.Эффект уровня кодировщика: мы сравниваем производительность вложений, извлеченных из разных слоев кодировщика предварительно обученного BERT, используя bert-as-service BIBREF10.Поскольку нас интересует лингвистическая информация, закодированная во вложениях, мы добавляем только слой логистической регрессии поверх вложений для каждой задачи классификации.Результаты использования активации токена [CLS] в качестве встраивания представлены на рисунке FigREF1.Исходные значения представлены в Приложении.На тепловой карте необработанные значения метрик нормализованы по наилучшей производительности конкретной задачи из всех оцениваемых нами моделей, включая BERT.Задачи на рисунке сгруппированы по категориям задач.Например, все задачи, связанные с семантическим сходством, расположены вверху рисунка.Как видно из рисунка, вложения из верхних слоев обычно работают лучше, чем нижние.Однако для некоторых задач семантического исследования, таких как временная классификация, классификация номеров субъектов и объектов, лучше всего работают встраивания среднего уровня.Интуитивно понятно, что внедрения из верхнего уровня должны быть более смещены в сторону целей предварительного обучения BERT, тогда как внедрения нижнего уровня должны быть близки к внедрению слов.Мы наблюдали более высокую корреляцию производительности между встраиваниями нижнего слоя и встраиваниями GloVe, чем встраиваниями из других слоев.В целом, предварительно обученные внедрения BERT хорошо справляются с задачами классификации текста и синтаксического исследования.Самое большое ограничение заключается в задачах семантического сходства и исследования поверхностной информации предложений, где мы наблюдали большой разрыв между BERT и другими современными моделями.Эффект методов объединения: мы рассмотрели различные методы извлечения активаций скрытого состояния BERT.Методы объединения, которые мы оценивали, включают в себя: объединение CLS (скрытое состояние, соответствующее токену [CLS]), объединение SEP (скрытое состояние, соответствующее токену [SEP]), объединение среднего значения (среднее значение скрытого состояния уровень кодирования на оси времени) и Max-pooling (максимум скрытого состояния слоя кодирования на оси времени).Чтобы устранить послойные эффекты, мы усреднили производительность каждого метода объединения по разным слоям.Результаты суммированы в таблице TABREF2, где оценка для каждой категории задач рассчитывается путем усреднения нормализованных значений для задач внутри каждой категории.Хотя активация скрытых состояний токена [CLS] часто используется при точной настройке BERT для задач классификации, объединение скрытых состояний по среднему значению работает лучше всего во всех категориях задач среди всех методов объединения.Предварительно обученный и точно настроенный BERT:Все модели, которые мы рассмотрели в этой статье, выигрывают от контролируемого обучения на наборах данных вывода естественного языка.В этом разделе мы сравниваем производительность вложений предварительно обученного BERT и точно настроенного BERT.В эксперименте рассматривались два набора данных вывода естественного языка: MNLI BIBREF11 и SNLI.Вдохновленные тем фактом, что внедрения из разных слоев превосходно справляются с разными задачами, мы также провели эксперименты по объединению внедрений из нескольких слоев.Результаты представлены в таблице TABREF3, а исходные значения представлены в Приложении.Как видно из таблицы, внедрения из предварительно обученного BERT хороши для сбора синтаксической и семантической информации на уровне предложения, но плохо справляются с задачами семантического сходства и задачами с поверхностной информацией.Наши результаты согласуются с работой BIBREF12 по оценке синтаксических способностей BERT.Точная настройка наборов данных вывода естественного языка улучшает качество встраивания предложений, особенно в задачах семантического сходства и задачах следствия.Объединение вложений из двух слоев может еще больше повысить производительность при выполнении задач по исследованию поверхности предложений и синтаксической информации.Также проводились эксперименты по комбинированию вложений из нескольких слоев.Однако существенного и последовательного улучшения по сравнению с объединением всего лишь двух слоев не наблюдается.Добавление многослойного перцептрона (MLP) вместо слоя логистической регрессии поверх вложений также не дает существенных изменений в производительности, что предполагает, что большинство лингвистических свойств можно извлечь с помощью простого линейного считывания вложений.Наша лучшая модель — это комбинация вложений верхнего и нижнего слоев BERT, точно настроенных на наборе данных SNLI.В этом разделе мы оцениваем встраивания BERT на уровне отрывка в наборах данных «вопрос-ответ» в рамках задачи обучения ранжированию.Наборы данных. Мы экспериментировали с четырьмя наборами данных: (1) WikiPassageQA BIBREF13, (2) InsuranceQA (версия 1.0) BIBREF14, (3) Quasar-t BIBREF15 и (4) SearchQA BIBREF16.Они охватывают как фактоидный, так и нефактоидный контроль качества и различаются средней продолжительностью прохождения.Статистика четырех наборов данных представлена в Приложении.Чтобы сгенерировать данные ответов на вопросы на уровне отрывка из Quasart-t и SearchQA, мы использовали отрывки, полученные для каждого вопроса из OpenQA, и сгенерировали метку релевантности отрывка вопроса на основе того, содержится ли в отрывке основной истинный ответ.Настройка эксперимента: мы используем те же методы объединения, что и в эксперименте по внедрению предложений, для извлечения внедрений отрывков и проверяем, что длина отрывка находится в пределах максимальной длины последовательности BERT.Были исследованы различные методы объединения вложений запроса с встраиваниями прохода ответа, в том числе: косинусное сходство (без обучаемого параметра), билинейная функция, конкатенация и $(u, v, u * v, |u - v|)$, где $u$ и $v$ — это внедрение запроса и внедрение ответа соответственно.Слой логистической регрессии или слой MLP добавляется поверх вложений для вывода оценки ранжирования.Мы применяем попарную потерю шарнира ранга $l(q, +a, -a; \theta ) = max\lbrace 0, - S(q, +a; \theta )+S(q, -a; \theta )\rприкрепите $ к каждому кортежу $(query, +ответ, -ответ)$.Для измерения производительности используются такие показатели ранжирования, как MRR (средний обратный ранг), MAP (средняя средняя точность), Precision@K и Recall@K.Мы сравнили встраивания проходов BERT с базовым уровнем BM25, другими современными моделями, а также с точно настроенным BERT на контролируемых данных внутри домена, который служит верхней границей.Для тонкой настройки BERT внутри домена мы передаем скрытое состояние токена [CLS] из верхнего уровня в двухуровневый MLP, который выводит оценку релевантности между вопросом и отрывком ответа кандидата.Мы точно настраиваем все параметры BERT, кроме слоев встраивания слов.Результаты: Сравнение вложений BERT и других моделей представлено в таблице TABREF5.В целом, точно настроенный BERT внутри домена обеспечивает наилучшую производительность.Мы сообщаем о новых современных результатах WikiPassageQA (улучшение MAP на $33\%$) и InsuranceQA (версия 1.0) (улучшение P@1 на $3,6\%$) посредством контролируемой точной настройки BERT с использованием попарной потери шарнира ранга. .При оценке на нефактоидных наборах данных QA существует большой разрыв между встраиваниями BERT и полностью настроенным BERT, что предполагает, что глубокое взаимодействие между вопросами и ответами имеет решающее значение для задачи.Однако для фактоидных наборов данных по обеспечению качества разрыв намного меньше.Поскольку нефактоидный контроль качества больше зависит от соответствия содержания, а не соответствия словарного запаса, результаты в некотором роде ожидаемы.Подобно BERT для встраивания предложений, объединение средних значений и объединение встраивания верхнего и нижнего уровней приводит к повышению производительности, а $(u, v, u * v, |u - v|)$ показывает самые сильные результаты среди других схем взаимодействия.В отличие от внедрения на уровне предложений, точная настройка BERT для SNLI не приводит к значительному улучшению, что предполагает возможное несоответствие предметной области между SNLI и наборами данных QA.Уровень MLP обычно обеспечивал прирост производительности на 1–2 процента по сравнению со слоем логистической регрессии.Для WikiPassageQA встраивания BERT работают примерно так же, как базовый уровень BM25.Для InsuranceQA встраивания BERT превосходят надежную модель сопоставления на основе представлений DSSM BIBREF18, но все еще сильно отстают от современной модели на основе взаимодействия SUBMULT+NN BIBREF17 и полностью настроенного BERT.В наборах фактоидных данных (Quasar-t и SearchQA) встраивания BERT значительно превосходят базовый уровень BM25.В этой статье мы провели эмпирическое исследование BERT-активаций как универсальных вложений текста.Мы показываем, что встраивания предложений из BERT хорошо справляются с задачами SentEval, а объединение вложений из верхнего и нижнего слоев BERT, точно настроенных на SNLI, обеспечивает наилучшую производительность.На уровне прохода мы оценили встраивания BERT на четырех наборах данных QA.Модели, основанные на встраиваниях проходов BERT, значительно превосходят базовый уровень BM25 на фактоидных наборах данных QA, но не работают лучше, чем BM25 на нефактоидных наборах данных.Мы наблюдали большой разрыв между моделями на основе внедрения и полностью настроенным BERT для наборов данных контроля качества.Необходимы будущие исследования, чтобы лучше моделировать взаимодействие между парами вложений текста. | Мы представляем систематическое исследование послойных активаций BERT для текстовых представлений общего назначения, чтобы понять, какую лингвистическую информацию они собирают и насколько их можно переносить в различных задачах. Встраивания на уровне предложения оцениваются по двум современным моделям последующих и исследовательских задач из SentEval, а встраивания на уровне прохода оцениваются по четырем наборам данных «вопрос-ответ» (QA) в рамках задачи обучения для ранжирования. Вложения из предварительно обученной модели BERT плохо справляются с задачами исследования семантического сходства и поверхностной информации предложений. Точная настройка BERT на данных вывода естественного языка значительно улучшает качество встраивания. Объединение вложений из разных слоев BERT может еще больше повысить производительность. Встраивания BERT значительно превосходят базовый уровень BM25 на фактоидных наборах данных QA на уровне прохода, но не работают лучше, чем BM25 на нефактоидных наборах данных. Для всех наборов данных контроля качества существует разрыв между методом, основанным на встраивании, и внутри предметной точной настройкой BERT (мы сообщаем о новых современных результатах по двум наборам данных), что предполагает, что глубокое взаимодействие между парами вопросов и ответов имеет решающее значение. для этих сложных задач. | 2,012 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Оценка руководителя горных работ и обратная связь с коллегами при аттестации персонала. Оценка эффективности (PA) — важный процесс управления персоналом, особенно для современных организаций, которые в решающей степени зависят от навыков и опыта своих сотрудников.Процесс PA позволяет организации периодически измерять и оценивать работу каждого сотрудника.Он также обеспечивает механизм, позволяющий связать цели, установленные организацией, с повседневной деятельностью и производительностью каждого сотрудника.Проектирование и анализ процессов PA — это активная область исследований в HR-сообществе BIBREF0, BIBREF1, BIBREF2, BIBREF3. Процесс PA в любой современной организации в настоящее время реализуется и отслеживается с помощью ИТ-системы (системы PA), которая записывает взаимодействия, которые происходить на различных этапах.Наличие этих данных в базе данных, читаемой компьютером, открывает возможности для их анализа с использованием автоматизированных методов статистики, анализа данных и текста, для получения новых и практических идей/моделей, а также для оказания помощи в повышении качества и эффективности процесса ПА. BIBREF4 , BIBREF5 , BIBREF6 .Автоматизированный анализ крупномасштабных данных PA теперь облегчается технологическими и алгоритмическими достижениями и становится необходимым для крупных организаций, в которых работают тысячи географически распределенных сотрудников, выполняющих самые разные роли и задачи.Типичный процесс PA включает целенаправленное многоэтапное мультимодальное общение между сотрудниками, их руководителями и коллегами.В большинстве процессов PA коммуникация включает в себя следующие этапы: (i) при самооценке сотрудник фиксирует свои достижения, действия, выполненные задачи и т. д.; (ii) при оценке руководителя руководитель высказывает критику, оценку и предложения по улучшению работы и т. д.; и (iii) в режиме обратной связи от коллег (так называемое представление INLINEFORM0) коллеги сотрудника предоставляют свои отзывы.Есть несколько бизнес-вопросов, которые интересуют менеджеров.Примеры: В этой статье мы разрабатываем методы интеллектуального анализа текста, которые могут автоматически давать ответы на эти вопросы.Поскольку предполагаемыми пользователями являются руководители отдела кадров, в идеале методы должны работать с минимальными данными обучения и экспериментами с настройкой параметров.Эти методы были реализованы и используются в системе громкой связи в крупной транснациональной ИТ-компании.Оставшаяся часть теста организована следующим образом.Раздел SECREF2 суммирует соответствующую работу.В разделе SECREF3 обобщается набор данных PA, используемый в этой статье.В разделе SECREF4 применяются алгоритмы классификации предложений для автоматического обнаружения трех важных классов предложений в корпусе PA, а именно:предложения, в которых обсуждаются сильные и слабые стороны сотрудника и содержатся предложения по улучшению ее работы.В разделе SECREF5 рассматривается проблема сопоставления фактических целей, упомянутых в сильных и слабых сторонах и предложениях, с фиксированным набором атрибутов.В разделе SECREF6 мы обсуждаем, как можно обобщить отзывы коллег о конкретном сотруднике.В разделе SECREF7 мы делаем выводы и определяем дальнейшую работу.Сначала мы рассмотрим некоторые работы, связанные с классификацией предложений.Семантическая классификация предложений (в зависимости от цели предложения) — гораздо более сложная задача, и ей уделяется все больше внимания лингвистов и исследователей НЛП.Макнайт и Шринивасан BIBREF7, а также Ямамото и Такаги BIBREF8 использовали SVM для классификации предложений в биомедицинских рефератах на такие классы, как ВВЕДЕНИЕ, ПРЕДПОСЫЛКИ, ЦЕЛЬ, МЕТОД, РЕЗУЛЬТАТ, ЗАКЛЮЧЕНИЕ.Коэн и др.BIBREF9 применил SVM и другие методы для изучения классификаторов предложений в электронных письмах на классы, которые представляют собой речевые акты, определяемые парой глагол-существительное, с такими глаголами, как запрос, предложение, изменение, принятие решения, доставка, и такими существительными, как встреча, документ, комитет. ; см. также BIBREF10.Ху и др. BIBREF11 использует различные классификаторы для классификации предложений в электронных письмах на такие классы, как ИЗВИНЕНИЕ, ИНСТРУКЦИЯ, ВОПРОС, ПРОСЬБА, ПРИВЕТСТВИЕ, ЗАЯВЛЕНИЕ, ПРЕДЛОЖЕНИЕ, БЛАГОДАРНОСТЬ и т. д.Кадир и Рилофф BIBREF12 предлагают несколько фильтров и классификаторов для разделения предложений на досках объявлений (системах обеспечения качества сообщества) на 4 речевых акта: КОМИССИВНЫЙ (говорящий обязуется совершить будущее действие), ДИРЕКТИВНЫЙ (говорящий ожидает, что слушатель предпримет определенные действия), ВЫРАЖИТЕЛЬНЫЙ (говорящий выражает его или ее психологическое состояние для слушателя), РЕПРЕЗЕНТАТИВНЫЙ (представляет веру говорящего во что-то).Хачи и Гровер BIBREF13 использовали SVM и классификаторы максимальной энтропии для классификации предложений в юридических документах на такие классы, как ФАКТ, ПРОЦЕДУРЫ, ПРЕДПОСЫЛКИ, ОБРАМЛЕНИЕ, УДАЛЕНИЕ; см. также BIBREF14.Дешпанде и др. BIBREF15 предлагает неконтролируемые лингвистические шаблоны для классификации предложений по классам ПРЕДЛОЖЕНИЕ, ЖАЛОБА. Существует много работ по тесно связанной проблеме, а именно, классификации предложений в диалогах через категории, специфичные для диалога, называемые диалоговыми актами BIBREF16, которые мы не будем рассматривать здесь.В качестве примера: Cotterill BIBREF17 классифицирует вопросы в электронных письмах на диалоговые действия YES_NO_QUESTION, WH_QUESTION, ACTION_REQUEST, RHETORICAL, MULTIPLE_CHOICE и т. д.Нам не удалось найти много работ, связанных с анализом данных служебной аттестации.Павар и др. BIBREF18 использует классификацию на основе ядра для классификации предложений как в тексте оценки эффективности, так и в обзорах продуктов на классы ПРЕДЛОЖЕНИЕ, БЛАГОДАРНОСТЬ, ЖАЛОБА.Апте и др. BIBREF6 предоставляет два алгоритма для сопоставления описаний целей или задач, поставленных перед сотрудниками, со стандартным шаблоном целей модели.Один алгоритм основан на системе совместного обучения и использует описания целей и комментарии самооценки как две отдельные точки зрения.Второй подход использует семантическое сходство при слабой системе контроля.Рамрахияни и др. BIBREF5 предлагает алгоритмы распространения меток для выявления аспектов оценки руководителя при аттестации производительности, где аспект моделируется как пара глагол-существительное (например, проводить обучение, улучшать кодирование). В этой статье мы использовали оценку руководителя и текст отзывов коллег, созданный в ходе оценка эффективности 4528 сотрудников крупной международной ИТ-компании.Корпус супервизионной оценки насчитывает 26972 предложения.Сводная статистика о количестве слов в предложении: мин: 4 макс: 217 среднее: 15,5.STDEV:9.2 Q1:9 Q2:14 Q3:19. Корпус PA содержит несколько классов предложений, представляющих интерес.В этой статье мы сосредоточимся на трех важных классах предложений, а именно:предложения, в которых обсуждаются сильные стороны (класс СИЛА), слабые стороны сотрудника (класс СЛАБОСТЬ) и предложения по улучшению ее работы (класс ПРЕДЛОЖЕНИЕ).Сильные и слабые стороны в основном касаются эффективности выполняемой работы, но иногда они могут касаться стиля работы или других личных качеств.Классы СЛАБОСТЬ и ПРЕДЛОЖЕНИЕ в некоторой степени пересекаются; например, предложение может быть направлено на устранение предполагаемой слабости.Ниже приведены два примера предложений в каждом классе.СИЛА: СЛАБОСТЬ: ПРЕДЛОЖЕНИЕ:Некоторые лингвистические аспекты этих классов предложений очевидны.Подлежащее присутствует во многих предложениях.Сильные стороны часто упоминаются либо в виде существительных (NP) с положительными прилагательными (отличное технологическое лидерство), либо в виде положительных существительных (инженерная сила), либо через глаголы с положительной полярностью (преданные), либо в виде глагольных фраз, содержащих положительные прилагательные (предлагает инновационные решения).Аналогично и со слабыми сторонами, где чаще используется отрицание (презентация не является его сильной стороной), или, альтернативно, полярности глаголов (избегать) или прилагательных (плохой) имеют тенденцию быть отрицательными.Однако иногда форма как сильных, так и слабых сторон одинакова, обычно это отдельная нейтральная по настроениям NP, что затрудняет различие между ними; например, соблюдение сроков или своевременное закрытие.Предложения часто имеют повелительное наклонение и содержат второстепенные глаголы, такие как надо, следует, должен.Предложения иногда выражаются с использованием сравнительных сравнений (лучшее соблюдение процесса).Мы построили простой набор шаблонов для каждого из трех классов на основе предложений с тегами POS.Мы используем каждый набор этих шаблонов в качестве неконтролируемого классификатора предложений для этого класса.Если конкретное предложение соответствует шаблонам для нескольких классов, у нас есть простые правила разрешения конфликтов для выбора окончательного класса.Шаблон для класса СИЛА предполагает наличие положительных слов/фраз, таких как «берёт на себя ответственность», «отлично», «трудолюбивый», «обязательство» и т. д.Аналогично, шаблон для класса СЛАБОСТЬ ищет наличие негативных слов/фраз, таких как «недостаток», «неуверенный в себе», «медленно обучающийся», «менее сосредоточенный» и т. д.Шаблон ПРЕДЛОЖЕНИЕ ищет не только ключевые слова типа «должен», «нужно», но и шаблон на основе POS, например «глагол в базовой форме (VB) в начале предложения».Мы случайным образом выбрали 2000 предложений из корпуса оценок руководителя и вручную пометили их тегами (набор данных D1).Этот помеченный набор данных содержал 705, 103, 822 и 370 предложений, имеющих метки классов СИЛА, СЛАБОСТЬ, ПРЕДЛОЖЕНИЕ или ДРУГОЕ соответственно.На этом наборе данных мы обучили несколько многоклассовых классификаторов.В таблице TABREF10 показаны результаты 5-кратных экспериментов по перекрестной проверке набора данных D1.Для первых пяти классификаторов мы использовали их реализацию из библиотеки SciKit Learn на Python (scikit-learn.org).Признаками, использованными для этих классификаторов, были просто слова предложения вместе с их частотностью.Для двух последних классификаторов (в таблице TABREF10) мы использовали собственную реализацию.Общая точность классификатора определяется как INLINEFORM0, где знаменатель равен 2000 для набора данных D1.Обратите внимание, что подход, основанный на шаблонах, является неконтролируемым, т. е. не использует никаких обучающих данных.Следовательно, результаты, показанные для него, относятся ко всему набору данных и не основаны на перекрестной проверке.Мы также исследовали, можно ли использовать анализатор настроений в качестве основы для определения меток классов СИЛА и СЛАБОСТЬ.Мы использовали реализацию анализатора настроений из TextBlob, чтобы получить оценку полярности для каждого предложения.В таблице TABREF13 показано распределение положительных, отрицательных и нейтральных настроений по трем классам: СИЛА, СЛАБОСТЬ и ПРЕДЛОЖЕНИЕ.Можно заметить, что распределение положительных и отрицательных настроений почти одинаково в предложениях СИЛА и ПРЕДЛОЖЕНИЕ, поэтому мы можем заключить, что информация о настроениях не очень полезна для нашей задачи классификации.Определив предложения в каждом классе, мы теперь можем ответить на вопрос (1) в разделе SECREF1.Из 12742 предложений, которые, по прогнозам, будут иметь метку СИЛА, мы извлекаем существительные, указывающие на фактическую силу, и группируем их с помощью простого алгоритма кластеризации, который использует косинусное сходство между вложениями слов этих существительных.Мы повторяем это для 9160 предложений с прогнозируемой меткой СЛАБОСТЬ или ПРЕДЛОЖЕНИЕ как одного класса.Таблицы TABREF15 и TABREF16 показывают несколько репрезентативных групп сильных и слабых сторон соответственно.Мы также исследовали кластеризацию 12742 предложений STRENGTH напрямую с использованием алгоритмов кластеризации CLUTO BIBREF19 и Carrot2 Lingo BIBREF20.Carrot2 Lingo обнаружил 167 кластеров и также присвоил этим кластерам метки.Затем мы также сгенерировали 167 кластеров, используя CLUTO.CLUTO не генерирует метки кластеров автоматически, поэтому в качестве меток мы использовали 5 наиболее часто встречающихся слов внутри кластера.В таблице TABREF19 показаны 5 крупнейших кластеров по обоим алгоритмам.Было замечено, что кластеры, созданные CLUTO, были более содержательными и информативными по сравнению с кластерами Carrot2 Lingo.Также было замечено, что существует некоторое соответствие между группами существительных и группами предложений.Например. кластер существительных, мотивация, опыт, знания, талант, навыки (таблица TABREF15) соответствует кластеру предложений CLUTO, навык, команда знаний по управлению клиентами (таблица TABREF19).Но в целом пользователи сочли группы существительных более значимыми, чем группы предложений.Во многих организациях АП осуществляется на основе заранее определенного набора точек зрения, которые мы называем атрибутами.Каждый атрибут охватывает один конкретный аспект работы, выполняемой сотрудниками.Преимущество этого подхода состоит в том, что мы можем легко сравнить эффективность любых двух сотрудников (или групп сотрудников) по любому заданному признаку.Мы можем соотнести различные атрибуты производительности и найти между ними зависимости.Мы также можем группировать сотрудников в составе рабочей силы, используя рейтинги их руководителей по каждому атрибуту, чтобы получить интересную информацию о рабочей силе.Менеджеры по персоналу в организации, рассматриваемой в этой статье, определили 15 атрибутов (таблица TABREF20).Каждый атрибут по существу представляет собой рабочий элемент или рабочую категорию, описанную на абстрактном уровне.Например, FUNCTIONAL_EXCELLENCE охватывает любые задачи, цели или действия, связанные с жизненным циклом разработки программного обеспечения (например, анализ требований, проектирование, кодирование, тестирование и т. д.), а также такие технологии, как базы данных, веб-сервисы и графический интерфейс. Раздел SECREF4, первое предложение (имеющее класс STRENGTH) можно сопоставить с двумя атрибутами: FUNCTIONAL_EXCELLENCE и BUILDING_EFFECTIVE_TEAMS.Аналогично, третье предложение (имеющее класс WEAKNESS) может быть сопоставлено с атрибутом INTERPERSONAL_EFFECTIVENESS и так далее.Таким образом, чтобы ответить на второй вопрос в разделе SECREF1, нам нужно сопоставить каждое предложение в каждом из трех классов с нулем, одним, двумя или более атрибутами, что представляет собой проблему многоклассовой классификации с несколькими метками.Мы вручную пометили те же 2000 предложений в наборе данных D1 атрибутами, где каждое предложение может иметь значения 0, 1, 2 и т. д., вплоть до 15 меток классов (это набор данных D2).Этот размеченный набор данных содержал 749, 206, 289, 207, 91, 223, 191, 144, 103, 80, 82, 42, 29, 15, 24 предложения, имеющие метки классов, перечисленные в таблице TABREF20, в том же порядке.Количество предложений, имеющих 0, 1, 2 или более 2 атрибутов: 321, 1070, 470 и 139 соответственно.На этом наборе данных мы обучили несколько многоклассовых классификаторов с несколькими метками.В таблице TABREF21 показаны результаты 5-кратных экспериментов по перекрестной проверке набора данных D2. Точность, полнота и F-мера для этой классификации с несколькими метками вычисляются с использованием стратегии, аналогичной стратегии, описанной в BIBREF21.Пусть INLINEFORM0 — это набор прогнозируемых меток, а INLINEFORM1 — набор фактических меток для экземпляра INLINEFORM2.Точность и полнота для этого экземпляра рассчитываются следующим образом:INLINEFORM3 Можно заметить, что INLINEFORM0 будет неопределенным, если INLINEFORM1 пуст, и аналогично INLINEFORM2 будет неопределенным, если INLINEFORM3 пуст.Следовательно, общая точность и полнота вычисляются путем усреднения по всем экземплярам, за исключением случаев, когда они не определены.F-мера уровня экземпляра не может быть вычислена для случаев, когда точность или полнота не определены.Таким образом, общая F-мера вычисляется с использованием общей точности и полноты.Система PA включает в себя набор комментариев коллег для каждого сотрудника.Чтобы ответить на третий вопрос в разделе SECREF1, нам нужно создать сводку всех комментариев коллег о данном сотруднике.В качестве примера ниже приведены отзывы пяти коллег сотрудника.Сначала идентифицируются отдельные предложения в комментариях, написанные каждым участником, а затем каждому предложению присваиваются POS-теги.Мы предполагаем, что хорошее резюме этих многочисленных комментариев можно составить, выявив набор важных текстовых фрагментов или фраз.Первоначально из этих комментариев извлекается набор фраз-кандидатов, и подмножество этих фраз-кандидатов выбирается в качестве окончательного резюме с использованием целочисленного линейного программирования (ILP).Подробности состава ILP показаны в таблице TABREF36.В качестве примера ниже приводится сводка, созданная для пяти вышеуказанных комментариев коллег. Скромный характер, эффективное общение, технические знания, всегда поддержка, обширные знания. Для определения фраз-кандидатов используются следующие правила: Для оценки фраз-кандидатов на предмет их важности используются различные параметры. .Фраза-кандидат более важна: Полный список параметров подробно описан в таблице TABREF36.Существует тривиальное ограничение INLINEFORM0, которое гарантирует, что из фраз-кандидатов INLINEFORM2 выбирается только INLINEFORM1.Подходящее значение INLINEFORM3 используется для каждого сотрудника в зависимости от количества фраз-кандидатов, идентифицированных среди всех одноранговых узлов (см. алгоритм SECREF6).Другой набор ограничений (от INLINEFORM4 до INLINEFORM5) гарантирует, что для каждого из атрибутов лидерства выбрана хотя бы одна фраза.Ограничение INLINEFORM6 гарантирует, что несколько фраз с одним и тем же заголовком не будут выбраны одновременно.Кроме того, фразы-кандидаты из одного слова выбираются только в том случае, если они являются прилагательными или существительными с лексической категорией существительное.атрибут.Это наложено ограничением INLINEFORM7.Важно отметить, что все ограничения, кроме INLINEFORM8, являются мягкими ограничениями, т. е. могут существовать возможные решения, которые не удовлетворяют некоторым из этих ограничений.Но каждое невыполненное ограничение приводит к штрафу из-за использования слабых переменных.Эти ограничения подробно описаны в таблице TABREF36.целевая функция максимизирует общую оценку важности выбранных фраз-кандидатов.В то же время он также минимизирует сумму всех слабых переменных, чтобы нарушить минимальное количество ограничений.INLINEFORM0 : количество фраз-кандидатов INLINEFORM1 : количество фраз, которые нужно выбрать как часть резюме INLINEFORM0 INLINEFORM1 INLINEFORM2 INLINEFORM3 INLINEFORM4 INLINEFORM5 INLINEFORM6 INLINEFORM7 INLINEFORM8 INLINEFORM0 и INLINEFORM1 INLINEFORM2 INLINEFORM3 INLINEFORM4 INLINEFORM5 INLINEFORM6 INLINEFORM0 (для определения количества фраз) выбрать для включения в сводку)Мы рассмотрели набор данных из 100 сотрудников, где для каждого сотрудника было записано несколько комментариев коллег.Кроме того, для каждого сотрудника сотрудник отдела кадров вручную составлял сводку.Сводки, созданные с помощью нашего подхода на основе ILP, сравнивались с соответствующими сводками, полученными вручную, с использованием униграммной оценки ROUGE BIBREF22.Для сравнения производительности нашего алгоритма суммирования на основе ILP мы исследовали несколько алгоритмов суммирования, предоставляемых пакетом Sumy.Общим параметром, который требуется для всех этих алгоритмов, является количество предложений, сохраняемых в итоговом резюме.Для суммирования на основе ILP требуется аналогичный параметр K, который автоматически определяется на основе общего количества фраз-кандидатов.Предполагая, что предложение эквивалентно примерно 3 фразам, для сумских алгоритмов мы устанавливаем параметр количества предложений равным потолку K/3.В таблице TABREF51 показано среднее и стандартное отклонение оценок ROUGE unigram f1 для каждого алгоритма по 100 сводкам.Производительность суммирования на основе ILP сопоставима с другими алгоритмами, поскольку двухвыборочный t-критерий не показывает статистически значимой разницы.Кроме того, оценщики-люди предпочитали резюме, основанное на фразах, созданное с помощью нашего подхода, другим резюме, основанным на предложениях.В этой статье мы представили анализ текста, созданного в процессе аттестации (PA) в крупной транснациональной ИТ-компании.Мы провели классификацию предложений, чтобы выявить сильные и слабые стороны и предложения по улучшению, обнаруженные в оценках руководителей, а затем использовали кластеризацию, чтобы выявить среди них широкие категории.Поскольку это нетематическая классификация, мы обнаружили, что SVM с ядром ADWS BIBREF18 дает наилучшие результаты.Мы также использовали методы классификации по нескольким классам и по нескольким критериям, чтобы сопоставить оценки руководителей с заранее определенными широкими взглядами на производительность.Было замечено, что классификатор логистической регрессии дает наилучшие результаты для этой тематической классификации.Наконец, мы предложили метод обобщения на основе ILP, позволяющий составить сводку комментариев коллег по данному сотруднику и сравнить ее со сводками, составленными вручную.Процесс PA также генерирует много структурированных данных, таких как рейтинги руководителей.Это интересная задача — сравнить и объединить идеи, полученные из структурированных данных и неструктурированного текста.Кроме того, мы планируем автоматически обнаруживать любые дополнительные атрибуты производительности в списке из 15 атрибутов, используемых в настоящее время HR. | Оценка эффективности (PA) — это важный процесс управления персоналом, позволяющий периодически измерять и оценивать эффективность работы каждого сотрудника с точки зрения целей, установленных организацией. Процесс PA включает в себя целенаправленное многоэтапное мультимодальное общение между сотрудниками, их руководителями и коллегами, такое как самооценка, оценка руководителя и обратная связь от коллег. Анализ структурированных данных и текста, полученных в PA, имеет решающее значение для измерения качества оценок и отслеживания фактических улучшений. В этой статье мы применяем методы интеллектуального анализа текста для получения информации из текста PA. Сначала мы выполняем классификацию предложений, чтобы выявить сильные и слабые стороны и предложения по улучшению, обнаруженные в оценках руководителя, а затем используем кластеризацию для выявления среди них широких категорий. Затем мы используем методы классификации по нескольким классам и по нескольким меткам, чтобы сопоставить оценки руководителей с заранее определенными широкими взглядами на производительность. Наконец, мы предлагаем метод краткого текстового обобщения, позволяющий составить сводку комментариев коллег для данного сотрудника и сравнить ее со сводками, составленными вручную. Все методы проиллюстрированы с использованием реального набора данных оценки руководителей и текста обратной связи, полученного во время PA 4528 сотрудников крупной международной ИТ-компании. | 3,230 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Оценка вознаграждений за модели генерации вопросов. Постановка вопросов о документе на естественном языке является важнейшим аспектом усилий по автоматической обработке данных на естественном языке, позволяя машинам задавать уточняющие вопросы BIBREF0 , становиться более устойчивыми к запросам BIBREF1 и действовать как автоматические наставники BIBREF2 . Последние подходы к генерации вопросов использовали модели Seq2Seq BIBREF3 с вниманием к BIBREF4 и форме механизма копирования BIBREF5, BIBREF6.Такие модели обучены генерировать правдоподобный вопрос, зависящий от входного документа и диапазона ответов в этом документе BIBREF7 , BIBREF8 , BIBREF9 , BIBREF10 . Тамв настоящее время нет специальных наборов данных для генерации вопросов, и авторы использовали тройки контекст-вопрос-ответ, доступные в SQuAD.Для каждой пары контекст-ответ доступен только один вопрос, а модели обучаются с использованием преподавателя, форсирующего BIBREF11.Отсутствие разнообразных данных обучения в сочетании с процедурой обучения на один шаг усугубляет проблему систематической ошибки воздействия BIBREF12.Модель не учится распределять вероятностную массу по последовательностям, которые действительны, но отличаются от основной истины; во время вывода модель должна предсказывать всю последовательность и может быть неустойчивой к ошибкам во время декодирования.В недавней работе изучалось обучение моделей непосредственно на основе целей, основанных на производительности, либо путем оптимизации для оценки BLEU BIBREF13, либо других показателей качества BIBREF10.Отделив процедуру обучения от основных данных, модель способна исследовать пространство возможных вопросов и стать более устойчивой к ошибкам во время декодирования.Хотя используемые показатели часто кажутся интуитивно хорошим выбором, существует предположение, что они являются хорошим показателем качества вопросов, которое еще не подтверждено.Наш вклад заключается в следующем.Мы проводим тонкую настройку, используя ряд наград, включая состязательную цель.Мы показываем, что, хотя точная настройка приводит к увеличению оценок вознаграждения, полученные модели работают хуже при оценке людьми.Мы также демонстрируем, что сгенерированные вопросы используют недостатки моделей вознаграждения.Многие достижения в области генерации естественного языка были достигнуты благодаря машинному переводу BIBREF3, BIBREF4, BIBREF6. Предыдущие работы по генерации вопросов широко использовали эти методы.BIBREF8 использует модель на основе Seq2Seq для генерации вопросов, обусловленных парами контекст-ответ, и опирается на эту работу, предварительно обрабатывая контекст для разрешения кореференций и добавляя сеть указателей BIBREF9.Аналогичным образом, BIBREF7 использует тегировщик части речи для расширения векторов внедрения.Оба автора проводят человеческую оценку своих моделей и демонстрируют значительное улучшение по сравнению с исходным уровнем.BIBREF13 использует аналогичную модель, но применяет ее к задаче создания вопросов без привязки к конкретному диапазону ответов.BIBREF14 использует модифицированный кодировщик контекста, основанный на многоракурсном сопоставлении контекста BIBREF15.BIBREF16 предлагает структуру для точной настройки с использованием политических градиентов, используя в качестве вознаграждения BLEU и другие автоматические показатели, связанные с достоверными данными.BIBREF10 описывает модель Seq2Seq с вниманием и сетью указателей с дополнительным уровнем кодирования для ответа.Они также описывают метод дальнейшей настройки своей модели на языковую модель и цели вознаграждения за ответы на вопросы с использованием политических градиентов.К сожалению, они не проводят никакой человеческой оценки, чтобы определить, привела ли эта настройка к улучшению качества вопросов.Для решения соответствующей задачи суммирования BIBREF17 предлагает структуру для точной настройки модели суммирования с использованием обучения с подкреплением, в качестве награды используется метрика сходства ROUGE.Задача состоит в том, чтобы сгенерировать вопрос на естественном языке, обусловленный документом и ответом.Например, учитывая входной документ «в этой статье исследуется вознаграждение за генерацию вопросов» и ответ «генерация вопросов», модель должна генерировать такой вопрос, как «что исследуется в статье?» Мы используем архитектуру модели, описанную BIBREF10.Вкратце, это модель Seq2Seq BIBREF3 с учетом BIBREF4 и механизма копирования BIBREF5, BIBREF6.BIBREF10 также добавляет дополнительный уровень кодировщика ответа и инициализирует декодер со скрытым состоянием, созданным на основе конечного состояния кодера.Лучевой поиск BIBREF18 используется для выборки модели во время вывода.Модель была обучена с использованием максимального правдоподобия, прежде чем была применена точная настройка.Наша реализация достигает конкурентоспособной оценки BLEU-4 BIBREF19 в размере 13,5 долларов США на тестовом наборе, используемом BIBREF8 , до точной настройки.Сгенерированные вопросы должны быть составлены на языке, который должен быть беглым и соответствовать контексту и ответу.Поэтому мы выполнили точную настройку обученной модели, используя вознаграждение, даваемое либо отрицательным недоумением в языковой модели LSTM, либо баллом F1, полученным с помощью системы ответов на вопросы (QA), либо взвешенной комбинацией того и другого.Языковая модель представляет собой стандартную рекуррентную нейронную сеть, состоящую из одного слоя LSTM.Для системы контроля качества мы используем QANet BIBREF1, реализованный BIBREF20.Кроме того, мы предлагаем новый подход, изучая вознаграждение непосредственно из обучающих данных, используя дискриминатор, подробно описанный в Приложении «Архитектура дискриминатора».Мы предварительно обучили дискриминатор, чтобы предсказать, были ли входной вопрос и соответствующая пара контекст-ответ сгенерированы нашей моделью или возникли из обучающих данных.Затем мы использовали в качестве награды оцененную дискриминатором вероятность того, что сгенерированный вопрос действительно был реальным.Другими словами, генератор был вознагражден за успешный обман дискриминатора.Мы также экспериментировали с чередованием обновлений дискриминатора на этапе точной настройки, что позволило дискриминатору стать состязательным и адаптироваться вместе с генератором.Эти вознаграждения $R(\hat{Y})$ использовались для обновления параметров модели с помощью алгоритма градиента политики REINFORCE BIBREF21 в соответствии с $\nabla \mathcal {L} = \nabla \frac{1}{l} \sum. \limits _t (\frac{R(\hat{Y})-\mu _R}{\sigma _R}) \log p(\hat{y}_t | \hat{y}_{< t}, \mathbf {D}, \mathbf {A})$ .Мы, учитель, заставили декодер с помощью сгенерированной последовательности воспроизвести активации, рассчитанные при поиске луча, чтобы включить обратное распространение ошибки.Все вознаграждения были нормализованы с помощью простой формы PopArt BIBREF22, при этом скользящее среднее $\mu _R$ и стандартное отклонение $\sigma _R$ обновлялись онлайн во время обучения.Во время этой точной настройки мы продолжали применять цель обучения с максимальным правдоподобием.Мы сообщаем об отрицательной логарифмической вероятности (NLL) тестового набора в рамках различных моделей, а также о показателе BLEU-4 уровня корпуса BIBREF19 сгенерированных вопросов по сравнению с основной истиной.Мы также сообщаем о наградах, достигнутых на тестовом наборе, в виде оценок QA, LM и дискриминатора.Для оценки человеком мы следуем стандартному подходу к оценке систем машинного перевода BIBREF23, который используется для генерации вопросов BIBREF9.Мы попросили трех сотрудников оценить 300 сгенерированных вопросов от 1 (плохо) до 5 (хорошо) по двум отдельным критериям: свободное владение используемым языком и соответствие вопроса контексту документа и ответа.В таблице 2 показаны изменения автоматических показателей для моделей, настроенных на различные комбинации вознаграждений, по сравнению с моделью без настройки.Во всех случаях показатель BLEU снизился, поскольку цель обучения больше не была тесно связана с данными обучения.В целом модели получили более высокие оценки по показателям, по которым они были точно настроены.Совместное обучение по QA и вознаграждению LM привело к лучшим результатам LM, чем обучение только по вознаграждению LM.Мы пришли к выводу, что точная настройка с использованием градиентов политики может быть использована для достижения более высоких результатов, как и ожидалось.В Таблице 3 показаны оценки человека для подмножества точно настроенных моделей.Модель, точно настроенная на цели обеспечения качества и LM, оценивается людьми-аннотаторами как значительно худшая, несмотря на достижение более высоких оценок по автоматическим метрикам.Другими словами, цель обучения, заданная этими источниками вознаграждения, не соответствует истинному качеству вопросов, несмотря на то, что они интуитивно являются хорошим выбором.Модель, настроенная с использованием состязательного дискриминатора, также не смогла добиться лучших человеческих оценок, поскольку модель дискриминатора не смогла изучить полезный источник вознаграждения.В таблице 1 показан пример, когда точная настройка не только не улучшила качество сгенерированных вопросов, но и заставила модель использовать источник вознаграждения.Модель, настроенная на вознаграждение LM, деградировала до создания цикла слов, который, очевидно, считается вероятным, в то время как модель, обученная на вознаграждении QA, научилась, что она может просто указать местонахождение ответа.Это наблюдение подтверждается показателями; модель, настроенная на вознаграждение за обеспечение качества, потерпела катастрофическое ухудшение показателя LM до +226. На рис. 1 показаны автоматические оценки по сравнению с человеческими оценками для всех рейтинговых вопросов.Коэффициент корреляции между человеческой релевантностью и автоматическими оценками QA составил 0,439, а между беглостью речи и оценкой LM — всего 0,355.Хотя автоматические оценки являются хорошим индикатором того, достигнет ли вопрос наименьшей человеческой оценки или нет, они не позволяют четко разграничить более высокие оценки: обучение модели этим целям не обязательно научит генерировать более качественные вопросы.Хороший вопрос, скорее всего, получит высокий балл QA и LM, но обратное неверно; последовательность может использовать недостатки показателей и получить высокий балл, несмотря на то, что она непонятна человеку.Мы пришли к выводу, что точная настройка модели генерации вопросов с учетом этих вознаграждений не приводит к повышению качества вопросов.В этой статье мы исследовали использование внешних источников вознаграждения для точной настройки моделей генерации вопросов, чтобы компенсировать недостаток данных обучения для конкретных задач.Мы показали, что хотя точная настройка и может быть использована для достижения более высоких наград, это не означает повышение качества вопросов, когда их оценивают люди.Использование вознаграждений QA и LM в качестве цели обучения заставляет генератор выявлять слабые места в этих моделях, что, в свою очередь, предполагает возможное использование этого подхода для создания состязательных примеров обучения для моделей QA.Оценки QA и LM хорошо коррелируют с человеческими оценками в нижней части шкалы, что позволяет предположить, что их можно использовать как часть системы изменения рейтинга или фильтрации.Мы использовали архитектуру, основанную на модифицированной QANet, как показано на рисунке 2, заменяя выходные уровни модели для получения единой вероятности.Поскольку дискриминатор также может рассматривать полную тройку контекст-вопрос-ответ в качестве входных данных (в отличие от пары контекст-вопрос для задачи контроля качества), мы объединили эту информацию в выходных слоях.В частности, мы применили максимальное объединение во времени к выходным данным первых двух кодировщиков и взяли среднее значение выходных данных третьего кодера, которые составляли часть диапазона ответов.Эти три сокращенные кодировки были объединены, применен скрытый слой из 64 единиц с активацией ReLU, а выходные данные прошли через один выходной слой сигмовидной формы, чтобы дать расчетную вероятность того, что входная тройка контекст-вопрос-ответ возникла из набора основных данных или была генерируется. | В недавних подходах к генерации вопросов использовались модификации архитектуры Seq2Seq, вдохновленные достижениями в области машинного перевода. Модели обучаются с использованием учителя, заставляющего оптимизировать прогноз только на один шаг вперед. Однако во время тестирования модели предлагается сгенерировать целую последовательность, что приводит к распространению ошибок в процессе генерации (систематическая ошибка экспозиции). Ряд авторов предложили противостоять этой предвзятости, оптимизируя вознаграждение, которое менее тесно связано с обучающими данными, используя обучение с подкреплением. Мы оптимизируем непосредственно для показателей качества, включая новый подход с использованием дискриминатора, полученного непосредственно из обучающих данных. Мы подтверждаем, что методы политического градиента могут использоваться для отделения обучения от реальных фактов, что приводит к увеличению показателей, используемых в качестве вознаграждения. Мы проводим человеческую оценку и показываем, что, хотя ранее считалось, что эти показатели являются хорошим показателем качества вопросов, они плохо согласуются с человеческим суждением, и модель просто учится использовать слабости источника вознаграждения. | 1,802 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | От квантовых основ через значение естественного языка к теории всего. Никаких физиков!..символ INLINEFORM0 выше не обозначает операцию, которая превращает два гильбертовых пространства в наименьшее гильбертово пространство, в которое два заданных билинейно встраиваются.Никаких теоретиков категорий!... это также не означает операцию композиции, которая превращает любую пару объектов (и морфизмов) в моноидальной категории в другой объект и подчиняется ужасающему набору условий, гарантирующих согласованность с остальной частью структуры.Вместо этого это означает следующее: INLINEFORM1. Более конкретно, оно представляет собой совокупность foo INLINEFORM0 и foo INLINEFORM1 без каких-либо указаний о том, кто/что на самом деле представляют собой foo INLINEFORM2 и foo INLINEFORM3.Другими словами, это что-то новое, что появляется, когда foo INLINEFORM4 и foo INLINEFORM5 собираются вместе.Если они вообще не нравятся друг другу, это может быть ссора.Если они действительно понравятся друг другу, это может быть свадьба, а чуть позже и дети.Обратите внимание, что единение жизненно важно для того, чтобы возникновение действительно произошло, учитывая, что довольно сложно устроить ссору, свадьбу или ребенка, если вокруг никого нет.Конечно, это правда, что в формализации квантовой теории фон Неймана эту роль BIBREF0 играет тензорное произведение гильбертовых пространств (также обозначаемое INLINEFORM0), порождая возникающее явление запутанности BIBREF1, BIBREF2.В более общем смысле, в теории категорий можно аксиоматизировать композицию объектов (опять обозначаемую INLINEFORM1) внутри симметричной моноидальной категории BIBREF3, создавая элементы, которые не возникают просто путем спаривания, как в случае с тензорным произведением гильбертова пространства. .Однако в случае формализации квантовой теории фон Неймана речь идет о формализации, которая, несмотря на широкое распространение, самому ее создателю фон Нейману даже не понравился BIBREF4.Более того, в этом формализме INLINEFORM0 возникает только как вторичная конструкция, требующая подробного описания foo INLINEFORM1 и foo INLINEFORM2, совместность которых она описывает.Нам нужна концепция INLINEFORM3 без «foo».Операция композиции INLINEFORM4 в симметричных моноидальных категориях движется в этом направлении.Однако, делая ненужную приверженность теории множеств, это неоправданно усложняет ситуацию BIBREF5.Более того, хотя эта операция достаточно общая, чтобы обеспечить единство, на самом деле она нам ничего о нем не говорит.Название этого раздела представляет собой метафору, направленную на то, чтобы противостоять полному пренебрежению концепцией единения в науке, и особенно в физике, где все усилия были направлены на описание индивидуума, обычно путем разбивки его описания на что даже более мелких особей.Хотя, вне всякого сомнения, это было полезное начинание, оно, к сожалению, превратилось в жесткую доктрину, не оставляющую места ни для чего другого.Наиболее крайним проявлением этой догмы является использование термина «теория всего» в физике элементарных частиц.Мы предоставим альтернативный концептуальный шаблон теории всего, подкрепленный не только научными, но и повседневными примерами.Биология эволюционировала от измельчения отдельных животных в лабораториях до рассмотрения их в контексте других животных и различных сред.результатом является теория эволюции видов.Точно так же наше нынешнее (пока очень плохое) понимание человеческого мозга проясняет, что человеческий мозг следует изучать не как что-то изолированное, а как нечто, что фундаментально требует взаимодействия с другим мозгом BIBREF6.В современном аудиооборудовании музыка состоит только из последовательности нулей и единиц.Вместо этого сущностями, которые действительно составляют музыку, являются высота, звук, ритм, последовательность аккордов, крещендо и так далее.И в частности, музыка – это не просто набор этих составляющих, поскольку их сложное взаимодействие даже важнее самих этих составляющих.То же самое и с фильмом, где даже не совсем ясно, из чего он состоит, но он включает в себя такие вещи, как (легко заменяемые) актеры, декорации, камеры, которые все являются частью супа, размешанного режиссером. .Но опять же, в современной видеотехнике это не что иное, как строка нулей и единиц.Фактически, все, что происходит практически во всех современных устройствах, представляет собой не что иное, как нули и единицы.Хотя Тьюрингу было гениально осознать, что это на самом деле можно сделать, и это послужило основой для теории вычислимости BIBREF7 , на самом деле это единственное место, где нули и единицы действительно имеют смысл, в форме машины Тьюринга.В других случаях это не что иное, как (универсальное) представление без каких-либо концептуальных качеств относительно предмета.Итак, как же можно формализовать концепцию единения?Хотя нам не нужно явное описание foo, нам нужны какие-то средства для идентификации foo.Поэтому мы просто даем каждому foo имя, скажем, INLINEFORM0.Затем INLINEFORM1 представляет собой объединение INLINEFORM2 и INLINEFORM3.Нам также не нужно явное описание INLINEFORM4, так как же мы можем что-либо сказать о INLINEFORM5 без явного описания INLINEFORM6, INLINEFORM7 и INLINEFORM8?Что ж, вместо того, чтобы описывать эти системы сами по себе, мы могли бы описать их взаимоотношения.Например, в определенной теории совместность может подчиняться следующему уравнению: INLINEFORM0 То есть совместность двух копий чего-либо точно такая же, как и одна копия, или, проще говоря, одна равнозначна двум.Например, если вам нужен сантехник, чтобы починить трубу, вам понадобится только один.Единственное, что может внести второй водопроводчик, — это счет за время, потраченное на приезд к вам домой.Очевидно, что это не тот вид единения, который нас действительно интересует, учитывая, что такой вид вообще ничего не добавляет.Немного более интересен случай, когда два равно трем: INLINEFORM0, например. когда нужно что-то пронести по лестнице, а места действительно хватает только для двух человек.Или, когда INLINEFORM0 — женщина, а INLINEFORM1 — мужчина, и целью является воспроизводство, мы имеем: INLINEFORM2 (игнорируя драки, вызванные тестостероном, и преимущества естественного отбора.) Таким способом мы действительно не продвинемся далеко.Одним из способов улучшения ситуации является замена уравнений неравенствами.Например, INLINEFORM0 просто означает, что один из двух является избыточным, вместо этого: INLINEFORM0 может означать, что из INLINEFORM0 мы можем создать INLINEFORM1, и: INLINEFORM2 может означать, что из INLINEFORM0 и INLINEFORM1 вместе мы можем создать INLINEFORM2, и: INLINEFORM3 может означать что при наличии INLINEFORM0 из INLINEFORM1 мы можем произвести INLINEFORM2, т.е. что INLINEFORM3 является катализатором.Сейчас мы имеем так называемую теорию ресурсов, то есть теорию, которая показывает, как вещи, которые нас интересуют, могут быть взаимопреобразованы BIBREF8 .Теории ресурсов допускают количественный анализ, например, с точки зрения коэффициента конверсии: INLINEFORM0 Итак, очевидно, что теперь у нас есть некая реальная суть.Но мы все еще можем добиться большего.Чего теория ресурсов не может уловить (фактически намеренно), так это реальный процесс преобразования одного ресурса в другой.Итак, давайте исправим эту проблему и явно учтем процессы.С точки зрения единства это означает, что мы явно объединяем все то удовольствие, которое foo INLINEFORM0 и foo INLINEFORM1 могут получить вместе на картинке.Пусть: INLINEFORM2 обозначает некоторый процесс, который преобразует INLINEFORM0 в INLINEFORM1. Тогда, учитывая два таких процесса INLINEFORM2 и INLINEFORM3, мы также можем рассмотреть их совместность:ИНЛАЙНФОРМ4Более того, некоторые процессы могут быть последовательно связаны: INLINEFORM0 Мы говорим «некоторые», поскольку INLINEFORM0 должен создать INLINEFORM1 , чтобы имело место: INLINEFORM2.Здесь можно попасть в неприятную ситуацию, если не умен.В частности, немного подумав, можно быстро понять, что нужно подчиняться некоторым уравнениям, например: (f1f2)f3 = f1(f2f3) h(gf) = (hg)f и еще немного более сложным: ( g1g2)(f1f2)=(g1f1)(g2f2)Возможно, есть еще несколько уравнений, которые хотелось бы иметь, но какие именно?Это оказывается очень сложной проблемой.Слишком сложно в свете нашего ограниченного существования в этом мире.Происхождение этой проблемы заключается в том, что мы рассматриваем INLINEFORM0 , а также INLINEFORM1 , как алгебраические связки, и что корни алгебры лежат в теории множеств.Этой проблемы можно избежать столь же элегантным, сколь и простым способом.Чтобы утверждать, что объекты находятся вместе, мы просто записываем их вместе: INLINEFORM0 На самом деле нет никакой причины помещать между ними символ INLINEFORM0.Теперь эти INLINEFORM1 и INLINEFORM2 будут играть роль входа или выхода преобразующих их процессов.Поэтому будет полезно изобразить их проводом:INLINEFORM3 Тогда процесс преобразования INLINEFORM0 в INLINEFORM1 можно представить в виде рамки: INLINEFORM2 Совместность процессов теперь становится: INLINEFORM0, а цепочка процессов становится: INLINEFORM0 В частности, уравнения ( SECREF3 ), ( SECREF3 ) и ( SECREF3 ) становятся: INLINEFORM0 , все уравнения стали тавтологиями! Одним из важных видов процессов являются состояния:INLINEFORM0 Они изображены без каких-либо входов, где «нет провода» можно прочитать как «ничего» (или «no-foo»).Противоположное понятие — это эффект, то есть процесс без результата: INLINEFORM0 заимствует терминологию из квантовой теории.Теперь мы можем определить те теории, в которых единение не дает ничего нового.Жизнь в таком мире довольно одинока...Теория единства является декартовой, если каждое состояние: INLINEFORM0 разлагается следующим образом: INLINEFORM0 Таким образом, декартовость означает, что все возможные реализации двух foo-s могут быть достигнуты путем объединения в пары реализаций отдельных задействованных foo-s.Короче говоря, целое можно описать через его части, что делает единство пустой концепцией.Очень одинокий и действительно...Но подождите минутку.Почему же тогда большая часть традиционной математики следует этому картезианскому шаблону и что даже теория категорий долгое время следовала строгой картезианской позиции? Меня это удивляет.Серьезно... это меня поразило! В любом случае, очевидным следствием этого является то, что для тех областей, где единство является действительно нетривиальной концепцией, традиционные математические структуры не всегда так уж полезны.Возможно, именно поэтому социальные науки мало используют современную чистую математику.А теперь о совершенно другом: теория единства является антидекартовой, если для каждого INLINEFORM0 существует INLINEFORM1 , особое состояние INLINEFORM2 и специальный эффект INLINEFORM3 : INLINEFORM4, которые таковы, что выполняется следующее уравнение:дерганиеПричиной слова «анти» в названии этого вида единения является тот факт, что когда теория единения является одновременно картезианской и антикартезианской, то это не что иное, как теория абсолютной смерти, т. е. она описывает мир, в котором нет ничего. когда-нибудь случается.Действительно, у нас есть: INLINEFORM0. То есть личность — это постоянный процесс, всегда выдающий состояние INLINEFORM0, независимо от того, что является входными данными.И как ни странно, любой произвольный процесс INLINEFORM1 делает то же самое: INLINEFORM2.Следовательно, любая антикартезианская теория единения, которая включает в себя тот или иной аспект изменений, не может быть картезианской и, следовательно, может содержать интересные вещи, возникающие из единения.Антикартезианское единство — это весьма специфическая альтернатива картезианскому единству (вопреки любой теории, которая не является картезианской).Поэтому можно задаться вопросом, есть ли какие-нибудь интересные примеры.И да, они есть!Одним из примеров является квантовая запутанность в квантовой теории.Фактически, именно здесь начался интерес автора к антикартезианскому единству BIBREF15 , BIBREF16 , BIBREF14 .Как показано в этих статьях, уравнение (SECREF4) в значительной степени воплощает явление квантовой телепортации BIBREF19.Полное описание квантовой телепортации выглядит следующим образом: BIBREF20, BIBREF21, BIBREF13:telefull Здесь не важно полностью понимать детали.Важно отметить, что бит этой диаграммы, соответствующий уравнению ( SECREF4 ), представляет собой жирный провод, проходящий через него зигзагами:telefullbit Тонкие провода и прямоугольники с надписью INLINEFORM0 связаны с тем фактом, что квантовая теория недетерминирована.Обуславливая конкретные результаты измерений, телепортация упрощается до BIBREF13: teledet Равенство левой и правой частей следует непосредственно из уравнения (SECREF4).Хотя в этой картине мы устранили квантовый недетерминизм, обуславливая результат измерения, здесь все еще происходит что-то очень «квантовое»: (условное) измерение Алисы — это не что иное, как пассивное наблюдение, а весьма нетривиальное вмешательство, которое делает Со стороны Боба появляется состояние Алисы INLINEFORM1: mapstoДавайте более внимательно проанализируем, что здесь происходит, явно различая верхний и нижний уровни этой диаграммы: верхняя часть: top включает в себя соответствующий эффект INLINEFORM2, а также вывод.Благодаря взаимодействию нижней и верхней частей, в частности INLINEFORM3 и INLINEFORM4, состояние INLINEFORM5 оказывается на выходе верхней части.Более сложная вариация на ту же тему позволяет гораздо яснее понять, какой механизм здесь происходит.Используя уравнение ( SECREF4 ), диаграмма: telecompl1pre сводится к: INLINEFORM0Серая точка с надписью INLINEFORM0 — это некоторая (на данный момент не важная) унитарная квантовая операция BIBREF13.Давайте еще раз рассмотрим нижнюю и верхнюю части: telecompl1Верхняя часть представляет собой гораздо более сложное измерение, состоящее в основном из INLINEFORM1 -s.Кроме того, нижняя часть намного более сложна и включает множество INLINEFORM2 -s.Теперь они вызывают весьма нетривиальное взаимодействие трех состояний INLINEFORM3, INLINEFORM4 и INLINEFORM5.Почему мы выбрали именно этот пример, станет ясно из следующего раздела.Важно отметить, что общее состояние и общий эффект должны быть выбраны особым образом, чтобы создать желаемое взаимодействие, подобно старомодному телефонному коммутатору, который должен быть подключен очень точным образом, чтобы реализовать правильное соединение.Еще одним примером антикартезианского единения является то, как значения слов взаимодействуют в естественном языке!Учитывая, что логика зародилась на естественном языке, когда Аристотель анализировал аргументы, включающие «и», «если... то», «или» и т. д., антикартезианство можно рассматривать как некий новый вид логики!Так что же такое INLINEFORM0 и INLINEFORM1 в этом контексте? Чтобы понять, что такое INLINEFORM0, нам нужно понять математику грамматики.Изучение математической структуры грамматики показало, что основными вещами, составляющими предложения, являются не слова, а некоторые атомарные грамматические типы, такие как тип существительного и тип предложения BIBREF23, BIBREF24, BIBREF25.Переходный тип глагола не является атомарным грамматическим типом, а представляет собой смесь, состоящую из двух типов существительных и одного типа предложения.Следовательно, особенно интересно то, что атомарный на самом деле не означает наименьший...С другой стороны, как и в физике элементарных частиц, где есть частицы и античастицы, атомные типы включают в себя как типы, так и антитипы.Но в отличие от физики элементарных частиц здесь есть два вида антитипов: левые и правые.Это делает язык еще более некоммутативным, чем квантовая теория! Все это становится гораздо яснее при рассмотрении примера.Пусть INLINEFORM0 обозначает атомарный тип существительного, а INLINEFORM1 и INLINEFORM2 — соответствующие антитипы.Пусть INLINEFORM3 обозначает атомарный тип предложения.Тогда неатомарный переходный тип глагола — INLINEFORM4.Интуитивно легко понять, почему.Рассмотрим переходный глагол, например «ненависть».Тогда простое высказывание «ненавижу» не несет никакой полезной информации, пока мы не укажем также «кто» ненавидит «кого».Именно в этом и состоит роль антитипов: они указывают, что для образования осмысленного предложения необходимо существительное слева, а существительное — справа: INLINEFORM5 Затем INLINEFORM0 и INLINEFORM1 сокращаются, и так происходит. ИНЛАЙНФОРМ2 и ИНЛАЙНФОРМ3.Остаётся INLINEFORM4, подтверждающий, что «Алиса ненавидит Боба» — это грамматически правильно типизированное предложение.Теперь мы можем изобразить отмены следующим образом: ненавидим и бинго, мы нашли INLINEFORM5 !Хотя математика структуры предложений исследуется уже около 80 лет, тот факт, что INLINEFORM0 -s может учитывать грамматическую структуру, является всего лишь идеей 15-летней давности BIBREF26.Так что же такое INLINEFORM1 -s?Это еще более недавняя история, в которой мы участвовали, и, по сути, для ее создания мы черпали вдохновение из истории предыдущего раздела BIBREF27.В то время как INLINEFORM2 -s относятся к грамматике, INLINEFORM3 -s относятся к значению.Парадигма распределения значений естественного языка утверждает, что значение может быть представлено векторами в векторном пространстве BIBREF28.До недавнего времени при этом по существу игнорировалась грамматическая структура, и, в частности, не существовало теории, позволяющей вычислить значение предложения по значениям его слов.Наша новая композиционно-распределительная модель значения BIBREF29 делает именно это.Чтобы объяснить, как работает эта композиционно-распределительная модель значения, давайте вернемся к нашему примеру.Поскольку вокруг нас есть грамматические типы, смысловые векторы должны соответствовать грамматической структуре, то есть векторы, представляющие составные типы, сами должны жить в составных векторных пространствах.Таким образом, строка векторов, представляющих значения слов в нашем примере, будет выглядеть следующим образом:ненавидит2 Теперь мы хотим выдвинуть новую гипотезу: Грамматика — это взаимодействие значений слов.Вдохновленный предыдущим разделом, это можно реализовать следующим образом: ненавидит3, где INLINEFORM0 -s теперь интерпретируются точно так же, как и в предыдущем разделе.А вот более сложный пример: Hatescompl, где серый кружок с меткой INLINEFORM1 теперь следует воспринимать как отрицающий значение BIBREF29 .Грамматическая структура здесь: Hatescomplgram Она просто взята из учебника, такого как BIBREF32, значения INLINEFORM2, INLINEFORM3 и INLINEFORM4 могут быть автоматически сгенерированы из некоторого корпуса, в то время как значения INLINEFORM5 и INLINEFORM6 просто умело выбраны как BIBREF33, BIBREF29. :Hatescomplclever В предыдущем разделе мы уже видели, что таким образом мы получаем:ненавидитcompl2Это действительно отражает предполагаемый смысл: INLINEFORM7, где мы можем думать о INLINEFORM0 как о предикате, а INLINEFORM1 как о себе.Итак, интересный новый аспект последнего примера заключается в том, что некоторые смысловые векторы слов просто удачно выбраны и, в частности, включают INLINEFORM0 -s.Следовательно, мы искренне эксплуатируем полномасштабную антикартезианство.Антикартезианство здесь обеспечивает то, что переходный глагол INLINEFORM1 «принимает» INLINEFORM2 в качестве объекта.Обратите также внимание на то, что INLINEFORM3 делает почти то же самое, что и INLINEFORM4, направляя значения слов через предложение, конечно же, с одной очень важной дополнительной задачей: отрицанием значения предложения.Внимательный читатель, конечно, должен был заметить, что в предыдущем разделе мы использовали толстые провода, а здесь — тонкие.Кроме того, в этом разделе исчезли точки в полномасштабном описании квантовой телепортации, которые представляют собой классические операции с данными.Между тем, толстые провода, а также точки приобрели различную естественную роль в более совершенной модели значения естественного языка.Точки позволяют грамотно выбирать значения относительных местоимений BIBREF34, BIBREF35:relpron Толстые провода (представляющие матрицы плотности, а не векторы BIBREF13 ) позволяют кодировать неоднозначность слова как смешанную BIBREF36 , BIBREF37 .Например, разные значения слова INLINEFORM0 (рок-группа, человек, пчела, шахматная фигура или дрэг —).Смешанность исчезает, если предоставить достаточную строку слов, которая устраняет неоднозначность этого значения, например: queen, а в случае: queen2 нам нужно больше слов, устраняющих неоднозначность, поскольку INLINEFORM1 по-прежнему может относиться к человеку, рок-группе, а также к трансвеститу.Модель распределения значений BIBREF28 очень полезна тем, что допускает автоматизацию при наличии значительно большого объема текста.Однако с концептуальной точки зрения он далек от идеала.Поэтому можно задать вопрос: Что такое смысл? Можно попытаться поиграть с различными математическими структурами.Метод, представленный в BIBREF29, на самом деле не зависит от того, как моделируется значение, если мы придерживаемся антикартезианского единства или чего-то достаточно тесно связанного с BIBREF38.Это увлекательное упражнение — поразмышлять над идеей того, что могло бы стать окончательной математической структурой, отражающей смысл естественного языка, пока не поймешь, что смысл естественного языка действительно охватывает все.Действительно, мы используем язык, чтобы говорить обо всем, например: логика, жизнь, биология, физика, социальное поведение, политика, поэтому окончательная модель смысла должна охватывать все эти области.Итак, теория значения естественного языка на самом деле является теорией всего!Можем ли мы понять шаблон значения на естественном языке, представленный в предыдущем разделе, как шаблон для...все? Давайте сначала выясним, может ли общая парадигма распределения быть специализирована для множества предметных областей, упомянутых выше.Принцип работы модели распределения заключается в том, что значения присваиваются относительно фиксированного выбранного набора контекстных слов.Вектор значения любого слова затем получается путем подсчета количества вхождений этого слова в непосредственной близости от каждого контекстного слова в большом корпусе текста.Можно думать о контекстных словах как об атрибутах, а об относительных частотах как о релевантности атрибута слову.Просто специализируя контекстные слова и корпус, можно специализироваться на определенной предметной области.Например, если кто-то интересуется социальным поведением, то корпус может состоять из сайтов социальных сетей, и контекстные слова могут быть выбраны соответствующим образом.Этот прагматичный подход позволяет проводить количественный анализ, как и композиционно-распределительная модель BIBREF29..Вот еще один пример: охота. Здесь значение слова «молитва» может включать в себя определение доступной молитвы, и тогда смысл предложения будет отражать успех выживания льва, учитывая природу доступной молитвы.В совокупности результирующий смысл является результатом взаимодействия конкретного охотника, конкретной молитвы и тонкостей охотничьего процесса, который может зависеть от конкретной среды, в которой он происходит.Должно быть ясно, что эта ситуация снова радикально некартезианская.Конечно, если мы теперь рассмотрим пример квантовой теории из двух разделов назад, аналогами грамматических типов являются системные типы, то есть спецификация видов (в т.ч.количество) задействованных систем.Поэтому имеет смысл уточнить грамматические типы в соответствии с предметной областью.Точно так же, как существительные в физике включают в себя определение видов задействованных систем, например, в биологии это может включать в себя указание вида, размера популяции, окружающей среды, наличия пищи и т. д.Соответственно, верхняя часть будет ограничиваться не только грамматическим взаимодействием, но и взаимодействием, специфичным для предметной области, как в случае с квантовой теорией.В целом мы получаем следующую картину: общее как (очень грубый) шаблон теории всего.Экстраполяция значения за пределы естественного языка была вызвана необходимостью прочитать курс на семинаре «Логика социального поведения», организованном Александром Курцем и Алессандрой Пальмиджано в Лоренц-центре в Лейдене.Рефери предоставил полезную информацию: я выучил новое слово: «фу». | В этой статье мы выступаем за парадигматический сдвиг от «редукционизма» к «единству». В частности, мы показываем, как взаимодействие между системами в квантовой теории естественным образом переносится на моделирование взаимодействия значений слов в естественном языке. Поскольку значение в естественном языке, в зависимости от предметной области, охватывает дискуссии в рамках любой научной дисциплины, мы получаем шаблон для таких теорий, как социальное взаимодействие, поведение животных и многих других. | 3,812 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Байтовый подход к распознаванию именованных объектов. В то время как задачи NER в разных областях имеют схожие проблемы, связанные с неоднозначными аббревиатурами, омонимами и другими вариациями сущностей, область биомедицинского текста создает некоторые уникальные проблемы.Хотя в принципе существует известный набор биомедицинских объектов (например, все известные белки), существует удивительное количество вариаций для любого данного объекта.Например, PPCA, C4 PEPCase, C4 PEPCase и фотосинтетическая PEPCase относятся к одному и тому же объекту.Кроме того, некоторые объекты, такие как белки и гены, естественным образом могут охватывать меньше, чем одно «слово» (например, HA и APG12 являются отдельными белками в pHA-APG12).Большинство современных методов NER помечают объекты на уровне «слова» и полагаются на правила предварительной или последующей обработки для извлечения объектов подслова.Наша цель — разработать подход к подсловам, который не полагается на специальные этапы обработки.С этой целью мы представляем новый подход к идентификации именованных объектов с использованием подслов.Наше решение работать с входными функциями и выходными тегами на уровне байтов, а не на уровне символов, обусловлено тем, что наборы биомедицинских данных обычно содержат аннотации смещения байтов; однако наши методы также могут быть применены к моделям уровня персонажа.В этой статье мы называем «моделями подслов» модели, которые принимают на вход последовательность подслов (например, байты) и выводят соответствующую последовательность тегов подслов (например, один тег на байт).Наше внимание сосредоточено на влиянии различных функций подслов на идентификацию именованных объектов в различных наборах биомедицинских данных NER, что особенно полезно для объектов, которые, возможно, более естественно аннотируются на уровне подслов.Современные нейронные методы NER, разработанные в последние годы, используют комбинацию нейронных сетей (NN) и условных случайных полей (CRF) для достижения высокой точности и запоминаемости именованных объектов.Эти методы передают встраивание слов и символов на уровень двунаправленной долговременной краткосрочной памяти (BLSTM), за которым может следовать уровень CRF BIBREF0, BIBREF1, BIBREF2.Эти современные методы также были успешно применены к наборам биомедицинских данных BIBREF3, BIBREF4.Хотя эти методы используют функции «подслов», такие как встраивание символов, эти модели принимают на вход последовательность слов и выводят последовательность тегов слов и, таким образом, отличаются от того, что мы называем моделями подслов в этой статье.Мы опираемся на современные нейронные методы для оценки моделей, которые принимают входные функции подслова и создают соответствующие выходные теги подслова.Модели подслов в основном разрабатывались в контексте многоязычных наборов данных BIBREF5, машинного перевода BIBREF6 и обработки для языков на основе символов BIBREF7.BIBREF8 разрабатывает модель, которая маркирует последовательности байтов, хотя в конечном итоге они полагаются на границы слов для определения соответствующих тегов.BIBREF9 использует символы, фонемы и байты в качестве функций подслов и аналогичным образом помечает объекты на границах уровня слова.Кодирование парами байтов итеративно объединяет часто встречающиеся символы для создания «кодовой книги» операций слияния символов BIBREF10, BIBREF11.BIBREF12 также использует BPE в качестве функций в своей модели извлечения биологических связей и многозадачной модели NER, хотя в первую очередь они фокусируются на первой задаче.Первый набор данных, BioCreative VI Bio-ID, был представлен для задачи 1 BioCreative VI BIBREF13 и состоит из подписей к рисункам с аннотациями для шести типов объектов.Набор данных Bio-ID — единственный набор данных, над которым мы экспериментируем, который снабжен байтовыми смещениями и содержит необработанный текст, который не был токенизирован или преобразован в формат ASCII.Второй набор данных, JNLPBA, представляет собой аннотированный набор из 2404 биомедицинских рефератов BIBREF14 с аннотациями для пяти типов объектов.Третий набор данных, GENETAG BIBREF15, представляет собой набор из 20 тысяч предложений из MEDLINE, аннотированных белками/генами.Все образцы в JNLPBA и GENETAG преобразованы в формат ASCII и снабжены аннотациями на уровне слов.Для байтовых моделей NN мы извлекаем перекрывающиеся выборки из исходного обучающего набора, чтобы собрать больше данных для наших моделей для обучения; эти дополнительные выборки предназначены для компенсации семантической информации, которая обычно получается из предварительно обученных вложений слов.Для байтовых моделей NN мы извлекаем обучающие выборки размером 150 байт из всех наборов данных, что достаточно долго, чтобы охватить большинство помеченных объектов в обучающих данных.Чтобы извлечь несколько выборок из исходной выборки данных, мы сдвигаем вправо на 75 байт, чтобы собрать следующую выборку размером 150 байт, тем самым создавая новые выборки с некоторым перекрывающимся содержимым.Мы экспериментируем с извлечением образцов, используя разную длину шага; шаг в 75 байт обычно повышает производительность модели по сравнению с использованием выборок без перекрытия, сохраняя при этом разумное время обучения.Перекрывающиеся выборки в новом обучающем наборе ограничены таким образом, чтобы не начинаться и не заканчиваться в середине объекта.Мы также разбиваем образцы в наборах для разработки и тестирования на образцы по 150 байт, снова используя шаг в 75 байт для сбора следующего образца; затем мы следуем методу BIBREF5, используя перекрывающиеся выборки для захвата возможных объектов, которые встречаются на границе выборки, а затем повторно объединяя выборки, чтобы избавиться от перекрывающихся частей.Для всех остальных моделей мы передаем исходные данные обучения, разработки и тестирования без дополнительного извлечения выборок.Реализация модели словесной NN, которую мы используем, берет самую длинную выборку во всем наборе данных и дополняет все выборки до максимальной длины выборки.Мы сравниваем варианты модели на уровне байта с двумя моделями на уровне слов для каждого набора данных, а также приводим самые современные результаты.Для моделей NN мы берем предложения из 10% файлов в наборе данных Bio-ID и наборе данных JNLPBA, а также 10% предложений в наборе данных GENETAG в качестве наборов разработки.Наши модели NN учатся прогнозировать выходные данные тега IOBES для каждого байта.Схемы IOBES и IOB схожи по эффективности BIBREF16; BIBREF17 выбирает IOBES из-за выразительности.Наша NN-модель относительно велика, и мы считаем, что количество сетевых параметров позволит нам использовать более выразительную схему с незначительными затратами.NERSuite — это система NER на основе CRF, которая использует токенизацию, лемматизацию, POS-теги и фрагментацию в качестве функций для маркировки токенов в последовательности.Для каждого набора данных мы обучаем модель NERSuite на наборах обучения и разработки и помечаем каждое слово в последовательности тегом IOB.INLINEFORM0 BIBREF0 представляет современную модель NER, которая принимает слова в качестве входных данных и выводит прогнозы тегов IOBES для каждого слова.Архитектура BLSTM-CRF использует встраивания символов из слоев сверточной нейронной сети (CNN), объединенные с предварительно обученными встраиваниями слов в качестве функций.Для набора данных Bio-ID мы также используем токенизатор NERSuite для токенизации данных перед их передачей в модель NER на уровне слов; эта токенизация делает модель согласованной с токенизированными наборами данных JNLPBA и GENETAG, хотя модель, таким образом, опирается на эвристику токенизации.Мы используем реализацию NER на уровне слов BIBREF16.Все наши варианты модели на уровне байтов используют подмножество из четырех функций: встраивание байтов, встраивание BPE, предварительно обученное встраивание BPE и предварительно обученное встраивание слов.Вложения байтов и внедрения BPE обучаются вместе с моделью.Предварительно обученные внедрения слов обучаются на рефератах PubMed и полных текстах PubMed Central, а предварительно обученные внедрения BPE обучаются только на последних.Все предварительно обученные внедрения получены из модели пропуска грамм BIBREF18.Для каждого байта во входной последовательности мы объединяем все вложения функций для этого байта.Когда функции BPE или слова занимают несколько байтов, одна и та же функция повторяется в разных байтах.Мы выполняем простую токенизацию пробелов, чтобы решить, для каких слов (а затем и подслов) получить вложения, чтобы наша модель была свободна от правил токенизации, созданных вручную.Мы обнаружили, что наша модель немного лучше, когда мы используем токены подслов BPE, сгенерированные на основе полного текста PubMed Central, а не на основе обучающих данных.Кроме того, предварительное обучение для токенов подслов BPE повышает производительность.Наши первоначальные эксперименты также показывают, что при использовании функций BPE в нашей модели выполнение алгоритма BPE с операциями слияния 5K дает наилучшие результаты; при использовании функций внедрения BPE наилучшие результаты дает запуск алгоритма BPE с 50 тыс. операций слияния и последующее создание 100-мерных предварительно обученных внедрений BPE.В наших отчетах о результатах мы всегда используем предыдущие конфигурации.Если не указано иное, модель байтовой NN с векторными представлениями байтов и предварительно обученными внедрениями BPE в качестве функций является общей моделью «байтовой NN», для которой мы сообщаем результаты.Эти функции вместе с общей байтовой архитектурой CNN-BLSTM-CRF дают наилучшие результаты.Модель начинается со стека из 20 слоев CNN с остаточными связями между каждым слоем.Следуя образцу эффективных нейронных NER-архитектур, за стеком CNN следует уровень BLSTM, а затем уровень CRF со скрытыми слоями между ними, как показано на рисунке FigREF12.Наши предварительные эксперименты показывают, что стек CNN и остаточные соединения необходимы для того, чтобы наши модели на уровне байтов достигли производительности, сравнимой с моделями на уровне слов.Мы обнаружили, что передача предварительно обученных вложений через всю сеть CNN-BLSTM-CRF, а также возможность точной настройки вложений через уровни CNN улучшает общие оценки.Дополнительное исключение BIBREF19 вложений после каждого слоя CNN еще больше повышает производительность модели.Мы также используем метод исключения байтов BIBREF5, который делает модель более устойчивой к шуму за счет случайной замены процента входных байтов специальным символом DROP.Для модели byte NN мы используем отсев со скоростью 0,5, байт-отсев со скоростью 0,3, скорость обучения 0,0001 с Адамом и размер мини-пакета из 256 выборок.Предварительно обученные векторные представления слов представляют собой 200-мерные векторные представления, а предварительно обученные векторные представления BPE — это 100-мерные векторные представления.Мы используем CNN с 250 фильтрами, размером фильтра 7 байт, шагом фильтра 1 байт и функцией активации ReLu.Уровень BLSTM также имеет 250 единиц и использует функцию активации tanh.Мы запускаем байтовые модели NER для 300 эпох.Необученные внедрения инициализируются со случайным равномерным распределением [-0,05, 0,05]. Вложения BPE представляют собой 100-мерные внедрения и обучаются в течение 10 итераций с использованием модели пропуска грамм с размером окна в 5 токенов.Модель словесной NN имеет размер мини-пакета из 32 выборок, норму клипа 1, выходной отсев 0,5, периодический отсев 0,5, скорость обучения по умолчанию 0,002 с Надамом.Он использует слой CNN с 25 фильтрами, размером фильтра 7 символов, шагом фильтра 1 символ и функцией активации ReLu для получения вложений символов.Дополнительные функции (токены и регистр) имеют размеры по умолчанию 10.Уровень BLSTM имеет 200 единиц и использует функцию активации tanh.Модель выполняется в течение 100 эпох без преждевременной остановки.В таблице TABREF15 сравниваются оценки INLINEFORM0 объектов в наборе данных Bio-ID, помеченных нашими моделями.Байтовая модель NN лучше подходит для поиска типов или линий клеток, организмов или видов, а также белков или генов, чем словесная модель NN.Мы изучаем тот факт, что словесная модель NN имеет оценку INLINEFORM1 на 10% выше, чем у других моделей для малых молекул.Хотя большое количество (55%) объектов в наборе данных Bio-ID представляют собой белки и гены, мы обнаружили, что доля малых молекул, ошибочно принимаемых за белки или гены, выше, чем доля других объектов, ошибочно принимаемых за белки или гены.Для более точной идентификации малых молекул может потребоваться изучение общей последовательности слов.Лучшая модель, представленная на BioCreative VI Track 1, использует подход на основе CRF на уровне слов, а также предварительную обработку и эвристику BIBREF20.Модель byte NN превосходит все другие модели для категорий белков или генов; Важно отметить, что байтовая модель NN — единственная полностью изученная модель, которая не использует эвристику для токенизации и другой обработки.Таблицы TABREF15 и TABREF15 показывают, что модель на уровне байтов не превосходит модель на уровне слов в наборах данных JNLPBA и GENETAG.Поскольку аннотации JNLPBA и GENETAG были явно ограничены словами, мы считаем, что они не служат полезной основой для нашего исследования моделей на уровне байтов.Наши первоначальные результаты по этим наборам данных показывают, что полностью сквозные модели на уровне байтов могут быть более подходящими для объектов, чьи диапазоны не совпадают с диапазонами слов.Мы также рассмотрим влияние функций байта, BPE и слова в таблице TABREF16.Предыдущие работы показали, что предварительно обученные встраивания слов являются важными функциями для моделей NER на уровне слов; мы обнаруживаем, что они менее полезны для моделей на уровне байтов.Для согласованного набора функций в байтах смежные байты, принадлежащие одному и тому же слову, имеют один и тот же признак слова.Такое повторение информации может снизить эффективность встраивания слов в модели на уровне байтов.Однако, хотя мы повторяем функции BPE таким же образом, таблица TABREF16 показывает, что функции BPE полезны.Поскольку в наборе данных Bio-ID преобладают белки или гены, байтовая модель NN, обученная на байтовых и предварительно обученных внедрениях BPE, имеет более высокий общий балл micro-INLINEFORM0, чем байтовая модель NN, которая использует только предварительно обученные внедрения BPE.Этими результатами мы подчеркиваем, что функции BPE представляют собой полезную информацию о подсловах для NER на уровне байтов.Наши первоначальные эксперименты с моделями NER на уровне байтов в наборах данных мотивируют эти модели как полезную сквозную альтернативу для объектов, которые естественным образом существуют на уровне подслов.Дальнейшие исследования моделей на уровне байтов могут помочь создать более точные схемы аннотаций на уровне байтов для биомедицинской области.Мы хотели бы поблагодарить Хосе-Луиса Амбите, Скотта Миллера, Арама Галстяна, Райана Габбарда, а также всех анонимных рецензентов за их неоценимые советы относительно этой работы. | В биомедицинской литературе границы сущностей часто не совпадают с границами слов. Следовательно, эффективная идентификация диапазонов сущностей требует подходов, способных учитывать токены, которые меньше слов. Мы представляем новый подход к распознаванию именованных объектов (NER), основанный на подсловах, который использует парное кодирование байтов (BPE) в сочетании со сверточными и рекуррентными нейронными сетями для создания тегов объектов на уровне байтов. Мы представляем экспериментальные результаты на нескольких стандартных наборах биомедицинских данных, а именно наборах данных BioCreative VI Bio-ID, JNLPBA и GENETAG. Мы демонстрируем конкурентоспособную производительность, игнорируя при этом специализированные знания в предметной области, необходимые для создания правил токенизации биомедицинского текста. | 2,313 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Понимание машинного чтения, основанное на знаниях. В последние годы растет интерес к машинному чтению (MRC), которое играет жизненно важную роль в оценке того, насколько хорошо машина может понимать естественный язык.В последние годы было выпущено несколько наборов данных BIBREF0, BIBREF1, BIBREF2 для машинного понимания чтения, которые способствовали развитию мощных нейронных моделей.Тем не менее, большая часть исследований до сих пор была сосредоточена на ответах на вопросы, которые можно хорошо решить, используя поверхностную информацию, но с трудом обеспечивающие точное понимание и рассуждение на естественном языке.Например, BIBREF3 jia2017Adversarial показывает, что существующие системы машинного обучения для MRC плохо работают при состязательной оценке.Недавние разработки в наборах данных MRC BIBREF4, BIBREF5, BIBREF6 усилили потребность в глубоком понимании.Знания играют ключевую роль в точном понимании и рассуждении на естественном языке в MRC.Предыдущие исследования BIBREF7, BIBREF8 установили, что понимание человеком прочитанного требует как слов, так и мировых знаний.В данной работе мы рассматриваем слова и мировоззренческие знания в формате троек (подлежащее, сказуемое, объект).В частности, мы считаем, что использование знаний в MRC имеет три преимущества.Во-первых, использование знаний в MRC поддерживает рассуждения по нескольким тройкам, поскольку одна тройка может не охватить весь вопрос.Многошаговое рассуждение также является давней целью ответа на вопросы.Во-вторых, построение системы ответов на вопросы, основанной на знаниях в стиле триплета, облегчает интерпретацию процесса принятия решений.Триплеты организуют документ вместе с базами знаний в виде графа, где хорошо продуманная модель, такая как PCNet, которую мы опишем в следующем разделе, явно раскрывает обоснование их прогнозов.В-третьих, представление документов как знаний позволяет упростить доступ и использование знаний из внешних/фоновых знаний, поскольку представление знаний документа легко согласуется как с вручную курируемыми, так и с автоматически извлеченными базами знаний.В этой статье мы представляем понимание машинного чтения, основанное на знаниях, которое требует рассуждения о знаниях в стиле триплета, содержащихся в документе.Однако мы считаем, что опубликованный набор данных недостаточно поддерживает эту задачу.Проводим предварительную разведку на SQuAD BIBREF0.Мы используем сильный открытый алгоритм IE BIBREF9 для извлечения триплетов из документов и наблюдаем, что только 15% случаев имеют ответ, который точно такой же, как соответствующий субъект/объект в извлеченных тройках.Чтобы выполнить MRC на основе знаний, мы создаем новый набор данных, состоящий из 40 047 примеров для задачи MRC на основе знаний.Аннотация к этому набору данных составлена таким образом, что для успешного ответа на вопросы требуется понимание и знания, необходимые для работы с документом.Каждый экземпляр состоит из вопроса, набора троек, полученных из документа, и ответа.Мы реализуем структуру, состоящую как из модели ответов на вопросы, так и из модели генерации вопросов, каждая из которых использует знания, извлеченные из документа, а также соответствующие факты из внешней базы знаний, такой как Freebase/ProBase/Reverb/NELL.Модель ответа на вопрос дает каждому ответу кандидата оценку путем измерения семантической релевантности между представлением и представлением ответа кандидата в векторном пространстве.Модель генерации вопросов присваивает каждому ответу-кандидату оценку путем измерения семантической релевантности между вопросом и сгенерированным вопросом на основе семантики ответа-кандидата.Мы реализуем модель MRC BiDAF BIBREF10 в качестве основы для предлагаемого набора данных.Чтобы проверить масштабируемость нашего подхода к использованию внешних баз знаний, мы используем как созданные вручную, так и автоматически извлеченные базы знаний, включая Freebase BIBREF11, ProBase BIBREF12, NELL BIBREF13.и реверберация BIBREF14.Эксперименты показывают, что включение данных из внешних баз знаний улучшает подходы как на основе сопоставления, так и на основе генерации вопросов.Качественный анализ показывает преимущества и ограничения наших подходов, а также остающиеся проблемы.Мы формулируем задачу понимания машинного чтения на основе знаний, сокращенно KBMRC, и описываем набор данных, созданный для KBMRC, и внешние открытые базы знаний, используемые в этой работе.Наша структура состоит из модели ответов на вопросы и модели генерации вопросов.Мы реализуем две модели ответов на вопросы, которые напрямую измеряют семантическое сходство между вопросами и вариантами ответов в семантическом пространстве.Во-первых, чтобы сделать прогнозы модели более понятными, мы реализуем модель контроля качества PCNet на основе пути.В этой модели, чтобы получить ответы кандидатов из документа на основе троек для данного вопроса.Сначала мы извлекаем «точку привязки» $arg1_i$ или $arg2_i$ в факте документа $f_i$ .Эти привязки выбираются на основе расстояния редактирования между словами в вопросах и аргументами.Затем мы рассматриваем все аргументы в фактах якорей с 1 и 2 шагами как ответы.Однако охват ответов кандидатов в модели может составлять 100%.Затем мы реализуем вторую сквозную нейронную модель KVMenNet, которая охватывает все ответы, но с меньшей интерпретируемостью.Обе модели генерируют оценку $f_{qa}(q, a)$ каждого ответа кандидата.Затем мы реализуем модель на основе поколений.Мотивацией для разработки этой модели является то, что мы хотим связать фразы естественного языка с представлением, основанным на знаниях.Он принимает семантику возможного ответа в качестве входных данных и генерирует вопрос $\hat{q}$ .Затем модель перефразирования дает оценку $f_{qg}(q,\hat{q})$ , которая вычисляется между сгенерированным вопросом $\hat{q}$ и исходным вопросом $q$ в качестве рейтинговой оценки.Мы получаем окончательные оценки $S(q,a)$, используемые для ранжирования, следующим образом.$$S(q,a) = \lambda f_{qa}(q, a) +(1-\лямбда)f_{qg}(q,\hat{q})$$ (уравнение 7)Более того, в три модели мы включаем дополнительную информацию из внешних баз знаний.Подробности того, как мы используем внешние базы знаний для улучшения представления элементов в базе знаний документа, будут описаны в разделе «Включение внешних знаний».В этом разделе мы представляем две модели сопоставления для измерения семантической связи между вопросом и возможным ответом в векторном семантическом пространстве.После этого мы представляем нашу стратегию, которая включает открытые базы знаний в качестве внешних знаний для улучшения обеих моделей.Мы следуем BIBREF17, BIBREF18 bordes2014question,dong-EtAl:2015:ACL-IJCNLP1 и разрабатываем PCNet, что является сокращением от нейронной сети на основе пути и контекста.В PCNet ответы-кандидаты поступают из аргументов базы знаний документа, и каждый ответ-кандидат представлен соседними аргументами и предикатами, а также путем от привязки в базе знаний документа.Для обнаружения привязки мы используем подход, основанный на правилах и основанный на нечетком совпадении строк.Каждый аргумент измеряется $\sum _{i,j}^{}\mathbb {I}(arg_i, q_j)$ , где $i$ и $j$ перебирают аргументные и вопросительные слова соответственно.$\mathbb {I}(x,y)$ — индикаторная функция, значение которой равно 1, если минимальное расстояние редактирования между $x$ и $y$ не более 1, в противном случае — 0.Аргументы, связанные с якорем с помощью путей с 1 и 2 шагами, считаются вариантами ответа.Поскольку аргумент может включать в себя несколько слов, например «популярная игра Angry Bird», мы используем RNN на основе GRU, чтобы получить векторное представление каждого аргумента/предиката.Представление пути $v_{p}$ вычисляется путем усреднения векторов элементов пути.Аналогичным образом мы используем другой RNN, чтобы получить вектор каждого соседнего аргумента/предиката, и усредняем их, чтобы получить вектор контекста $v_{c}$. Мыпредставить вопрос $q$, используя двунаправленный уровень RNN на основе блока GRU.Объединение последних скрытых векторов с обоих направлений используется в качестве вектора вопроса $v_{q}$ .Скалярное произведение используется для измерения семантической релевантности между вопросом b b и двумя типами доказательств.$$f_{qa}(q, a) = v_{q}^{T}v_{p} + v_q^{T}v_{c}$$ (уравнение 10) Несмотря на интерпретируемость PCNet, охват обнаружение якоря ограничивает верхнюю границу подхода.Мы реализуем более мощный метод, основанный на сети памяти «ключ-значение» BIBREF19, сокращенно KVMemNet, которая доказала свою эффективность при ответе на вопросы на основе КБ.KVMenNet можно рассматривать как подход «мягкого» сопоставления, который включает в себя параметризованную память, состоящую из пар ключ-значение.Интуитивно понятно, что ключи используются для сопоставления с вопросом, а значения используются для сопоставления с возможным ответом.Учитывая факт КБ ($subj, pred, obj$), мы рассматриваем оба направления и добавляем в память две пары ключ-значение, а именно ($key = subj+pred, value=obj$) и ($key =obj + pred, value=subj$).Векторы аргументов/предикатов рассчитываются так же, как описано в PCNet.Объединение двух векторов используется в качестве ключевого вектора $v_{key}$. Каждому элементу памяти присваивается вероятность релевантности путем сравнения вопроса с каждым ключом.$$\alpha _{key_i} = {softmax}(v_q \cdot v_{key_i})$$ (уравнение 12)После этого векторы в памяти ( $v_{value}$ ) взвешиваются в соответствии с их вероятностями адресации, и возвращается вектор $v_o$.$$v_o = \sum _i \alpha _{key_i}v_{value_i}$$ (уравнение 13)В PCNet рассуждение о двух фактах достигается за счет включения двухшаговых путей, тогда как в KVMemNet это достигается путем двойного повторения процесса доступа к памяти.После получения результата $v_o$ мы обновляем запрос, используя $q_2 = R(v_q + v_o)$, где $R$ — параметр модели.Наконец, после фиксированного числа $n$ прыжков (в этой работе $n=2$) полученный вектор используется для измерения релевантности ответам кандидата посредством скалярного произведения.Пусть $\mathcal {D} = \lbrace (q_i, a_i);я = 1,
\ldots , |\mathcal {D}|\rbrace $ — обучающие данные, состоящие из вопросов $q_i$ в паре с правильным ответом $a_i$ .Мы обучаем обе модели сопоставления с помощью функции потерь ранжирования на основе маржи, которая рассчитывается следующим образом, где $m$ — это маржа (фиксированная на уровне $0,1$), а $\bar{a}$ случайным образом выбирается из набора неправильных кандидатов. $\bar{\mathcal {A}}$ .$$
\sum _{i=1}^{|\mathcal {D}|} \sum _{\tiny {\bar{a} \in \bar{\mathcal {A}}(q_i)}}
\max \lbrace 0, m - S(q_i,a_i) +S(q_i,\bar{a})\rbrace ,$$ (уравнение 15) Для тестирования по заданному вопросу $q$ модель предсказывает ответ на основе следующего уравнения, где $ \mathcal {A}(q )$ — набор ответов-кандидатов.$$\hat{a} = {\mbox{argmax}}_{a^{\prime } \in \mathcal {A}(q)} S(q,a^{\prime })$$ (уравнение. 16)В этом разделе мы представляем модель генерации, которая генерирует вопрос на основе семантики возможного ответа.Затем мы покажем, как предварительно обучается наша модель перефразирования, которая измеряет семантическую релевантность между сгенерированным вопросом и исходным вопросом.Наша модель генерации вопросов проходит путь между «привязкой» и возможным ответом и выводит вопрос.Мы принимаем архитектуру последовательности в качестве нашей базовой модели генерации вопросов из-за ее эффективности в задачах генерации естественного языка.Иерархический кодер и механизм иерархического внимания вводятся для учета структуры входных фактов.Факты из внешних баз данных традиционно интегрируются в модель тем же способом, который описан в модели сопоставления.Как показано на рисунке 3, модель генерации вопросов содержит кодировщик и декодер.Мы используем иерархический кодировщик, состоящий из двух слоев, для моделирования значения каждого элемента (субъекта, предиката или объекта) и отношений между ними.Поскольку каждый элемент может содержать несколько слов, мы используем RNN в качестве кодировщика слоя слов, чтобы получить представление каждого элемента.Мы определяем последовательность уровня фактов как путь, начинающийся от привязки и заканчивающийся возможным ответом.Другой RNN используется в качестве кодировщика уровня фактов.Последнее скрытое состояние на уровне фактов передается в декодер.Мы разрабатываем иерархический механизм внимания в декодере, который сначала выполняет мягкое выравнивание по скрытым состояниям на уровне фактов, выходные данные которого в дальнейшем используются для отслеживания скрытых состояний на уровне слов.В частности, учитывая скрытое состояние декодера $h^{dec}_{t-1}$ , мы используем модель внимания на уровне фактов $Att_{fct}$ для вычисления контекстного вектора, который далее объединяется с текущим скрытым состоянием. $h^{dec}_{t}$ , что приводит к $c_{fct}$ .Контекстный вектор рассчитывается путем взвешенного усреднения по скрытым векторам на уровне фактов, который задается следующим образом, где $\odot$ — скалярное произведение, $h^{fld}_j$ — $j$-е скрытое состояние на уровне факта. слой фактов от кодировщика, а $l_f$ — количество скрытых состояний на уровне фактов.$$c_{fct} &= GRU(h^{dec}_{t}, \sum _{j=1}^{{l_f}} \alpha _{tj}h^{fct}_j) \\
\alpha _{tj} &= \frac{ exp(h^{dec}_{t-1} \odot h^{fct}_j)}{\sum _{k=1}^{{l_f}}exp (h^{dec}_{t-1} \odot h^{fct}_k)}$$ (уравнение 19)Аналогичным образом мы передаем $c_{fct}$ в функцию внимания на уровне слова $Att_{wrd}$ и вычисляем скрытые векторы на уровне слова.Выходные данные $c_{wrd}$ будут объединены с $h^{dec}_{t}$ для предсказания следующего слова.Поскольку многие имена объектов, имеющих большое значение, являются редкими словами из входных данных, мы используем механизм копирования BIBREF20, который учится, когда реплицировать слова из входных данных или прогнозировать слова из целевого словаря.Распределение вероятностей генерации слова $y$ рассчитывается следующим образом: функция $softmax$ вычисляется по комбинированным логитам с обеих сторон.$$\begin{сплит}
&p(y)=\frac{exp({e_y \odot W_g[h_t^{dec};c_{wrd}]})+exp(s_c(y))}{Z}\\
&s_c(y) = c_{wrd} \odot {tanh(W_ch_t^{wrd})}
\end{split}$$ (уравнение 20)Мы обучаем нашу модель генерации вопросов с оценкой максимального правдоподобия.Функция потерь задается следующим образом, где $D$ — обучающий корпус.Мы используем лучевой поиск в процессе вывода.$$l = -\sum _{(x,y)\in D} \sum _t log p(y_t |y_{<t}, x)$$ (уравнение 21)Преимущество модели заключается в том, что внешние знания можно легко интегрировать с помощью того же механизма, который мы описали в разделе «Включение внешних знаний».Мы улучшаем представление аргумента или предиката путем объединения открытых векторов КБ в скрытые состояния кодера.Модель перефразирования используется для измерения семантической релевантности между исходным вопросом и вопросом, созданным на основе модели QG.Мы используем двунаправленную RNN с вентилируемым рекуррентным блоком для представления двух вопросов и компонуем их с помощью поэлементного умножения.За результатами следует слой $softmax$, выходная длина которого равна 2.Модель обучается путем минимизации ошибки перекрестной энтропии, при этом контроль обеспечивается в данных обучения.Мы собираем два набора данных для обучения модели перефразирования.Первый набор данных взят из набора данных Quora, который создан для определения того, являются ли пары вопросов семантически эквивалентными.В первый набор данных включено 345 989 пар положительных вопросов и 255 027 пар отрицательных вопросов.Второй набор данных включает веб-запросы из журналов запросов, которые получаются путем кластеризации веб-запросов, которые щелкают одну и ту же веб-страницу.Таким образом, мы получаем 6 118 023 пары положительных запросов.Мы реализуем эвристическое правило, чтобы получить 6 118 023 отрицательных экземпляра для набора данных запроса.Для каждой пары текста запроса мы фиксируем первый запрос и получаем запрос, который в основном похож на второй запрос.Чтобы повысить эффективность этого процесса, мы случайным образом выбираем 10 000 запросов и определяем «сходство» как количество слов, одновременно встречающихся между двумя вопросами.Во время обучения мы инициализируем значения вложений слов с помощью векторов $300d$ Glove, которые изучаются по текстам Википедии.Мы используем сохраненные данные, состоящие из 20 тысяч пар запросов, чтобы проверить производительность модели перефразирования.Точность модели перефразирования на имеющемся наборе данных составляет 87,36%. Существует множество возможных способов реализовать идею улучшения ответов на вопросы с помощью внешних баз знаний.В этой работе мы используем внешние базы знаний (такие как NELL и ProBase) для улучшения представления элементов в базе знаний документа.Например, аргумент «последовательность аминокислот» на рисунке 1 из документа KB извлекается («аминокислоты», «есть», «белок») из NELL.Благодаря этой дополнительной подсказке исходный аргумент лучше соответствует вопросу.Подобно ответу на BIBREF21 khot2017, мы используем ElasticSearch для извлечения фактов из открытых баз знаний.Мы удаляем стоп-слова из токенов каждого аргумента и предиката в КБ документа и рассматриваем оставшиеся слова как запросы ElasticSearch.Мы установили разные параметры поиска для аргументов и предикатов, а именно установили аргументы в качестве доминирующих полей для поиска для запросов с аргументами и установили предикаты в качестве доминирующих полей для поиска для запросов предикатов.Сохраняем 10 лучших подсказок и выборочно используем их в эксперименте.Мы рассматриваем полученные из внешней базы данных факты как соседей аргументов, которые необходимо усилить.Вдохновленные BIBREF22 Scarselli2009graph, мы обновляем вектор элемента $v_e$ следующим образом, где $(e)$ и $(e)$ представляют собой соседние аргументы из фактов, полученных объектом и субъектом соответственно.В данной работе $f(\cdot )$ реализуется путём усреднения векторов двух аргументов.$$v_e=v_e + \sum _{o^{\prime } \in (e)}^{}f(v_{p^{\prime }},v_{s^{\prime }})+\sum _{s^{\prime } \in (e)}^{}f(v_{p^{\prime }},v_{o^{\prime }})$$ (уравнение 26)Задача KBMRC отличается от машинного понимания чтения (MRC) как по входным, так и по выходным аспектам.Входные данные KBMRC — это знания, включающие как словесные знания, извлеченные из документа, так и мировые знания, полученные из внешней базы знаний, тогда как входные данные MRC — это неструктурированный текст документа.Выходные данные KBMRC — это тема или аргумент, а выходные данные MRC — текстовый диапазон документа.Между тем, KBMRC облегчает доступ и использование знаний из внешних баз знаний, поскольку база знаний документов согласуется с представлением фактов во внешних базах знаний.KBMRC также относится к ответу на вопросы базы знаний (KBQA) BIBREF23, цель которого - отвечать на вопросы на основе внешних крупномасштабных баз знаний, таких как Freebase или ProBase.KBMRC отличается от KBQA тем, что исходная база знаний создается на основе содержимого документа.Внешняя база знаний используется в этой работе для расширения базы знаний документа.Более того, существующие наборы эталонных данных для KBQA, такие как WebQuestions BIBREF24, обычно ограничиваются простыми вопросами.Задача KBMRC требует рассуждения над двумя фактами из документа KB. Наш подход основан на двух основных классах существующих подходов KBQA, а именно на основе ранжирования и синтаксического анализа.Подходы, основанные на ранжировании BIBREF17, BIBREF25, являются восходящими и обычно сначала находят набор ответов кандидатов, а затем ранжируют кандидатов с функциями на разных уровнях, чтобы получить ответ.Подходы, основанные на синтаксическом анализе BIBREF16, являются нисходящими: сначала интерпретируется логическая форма высказывания на естественном языке, а затем выполняется выполнение для получения ответа.Подходы, основанные на ранжировании, обеспечивают более высокую производительность, чем подходы, основанные на синтаксическом анализе, в WebQuestions, эталонном наборе данных для KBQA.Мы следуем подходам, основанным на ранжировании, и разрабатываем как модель на основе сопоставления с функциями на разных уровнях, так и модель генерации вопросов.Дополнительные ссылки можно найти по адресу https://aclweb.org/aclwiki/Question_Answering_(State_of_the_art). Наша работа также связана с ответом на вопросы BIBREF21 khot2017, который использует открытые выходные данные IE из внешних текстовых корпусов для улучшения ответов на вопросы с несколькими вариантами ответов.Однако наша работа отличается от них тем, что их задача не содержит документальной информации.Кроме того, мы разрабатываем подход к генерации вопросов, в то время как они рассматривают задачу обеспечения качества как поиск подграфа на основе подхода целочисленного линейного программирования (ILP).Наша работа также связана с вопросом BIBREF26 khashabi2018, который фокусируется на ответах на вопросы с несколькими вариантами ответов на основе семантики документа.Они используют маркировку семантических ролей и поверхностный анализ документа для построения семантического графа, на основе которого разрабатывается подход, основанный на ILP, для поиска вспомогательного подграфа.Отличие нашего подхода состоит в том, что предикаты из нашей формы документальной базы знаний не ограничиваются заранее определенным набором, поэтому они не учитывают знания из внешних баз баз данных, а также разницу с точки зрения методологии.BIBREF19 miller2016ключевые ответы на вопросы на основе знаний в области фильмов или результатов извлечения информации из документов Википедии.В отличие от этого метода, наш подход фокусируется на объектах из внешней базы знаний, наша база знаний документа получается через открытый IE, и мы объединяем базу знаний документа с открытой базой знаний для ответов на вопросы.В этом разделе мы описываем настройки эксперимента, сообщаем цифры и анализ.В наших экспериментах мы настраиваем параметры модели на экспериментальном наборе и сообщаем результаты на тестовом наборе.Мы разрабатываем эксперименты как на основе рейтинга, так и на основе генерации вопросов.Метрикой оценки является точность @1 BIBREF17 , которая указывает, является ли результат с самым высоким рейтингом правильным ответом.Мы также сообщаем оценку BLEU BIBREF27 за подход к генерации вопросов.Мы также адаптируем BiDAF BIBREF10, наиболее эффективную модель понимания прочитанного на наборе данных SQuAD BIBREF0 в качестве надежной основы.Поскольку BiDAF выводит диапазон из входного документа в качестве ответа на заданный вопрос, мы адаптируем его к KBMRC в качестве модели ранжирования аналогично подходу, использованному в предыдущем исследовании BIBREF28.Мы используем BiDAF для выбора диапазона ответов из соответствующего документа на основе заданного вопроса и выбора ответа-кандидата, который максимально перекрывается с диапазоном ответов, в качестве окончательного ответа.В таблице 3 показаны результаты наших двух моделей ответов на вопросы.Очевидно, что KVMemNet достигает лучших результатов P@1 как на наборах для разработки, так и на тестовых наборах, чем PCNet.Причина в том, что ответы-кандидаты PCNet поступают из «якорной» точки по путям с 1 или 2 шагами.Однако правильный ответ может быть не связан из-за качества обнаружения якоря.В наборе разработчиков мы видим, что только 69,6% правильных ответов могут быть охвачены набором ответов-кандидатов в PCNet, что, по-видимому, ограничивает верхнюю границу подхода.Это рассматривается в KVMemNet, поскольку все аргументы являются вариантами ответов.И PCNet, и KVMemNet превосходят нашу реализацию вопроса BIBREF17 bordes2014, поскольку последняя игнорирует порядок слов.Мы включили каждую из четырех баз знаний отдельно в PCNet и KVMemNet и обнаружили, что включение внешних баз знаний может привести к улучшениям.На рисунке 4 мы видим, что модель KVMemNet учитывает ключ «(Сент-Джонс, находится)» для вопроса «Где находится Сент-Джонс?».Таким образом, модель имеет более высокую степень уверенности в том, что в качестве ответа она рассматривает значение «в округе Клинтон».В таблице 4 показаны результаты различных моделей генерации вопросов.Наш подход сокращенно обозначается как QGNet, что означает использование модели перефразирования плюс нашей модели генерации вопросов.Мы видим, что QGNet работает лучше, чем Seq2Seq, с точки зрения оценки BLEU, поскольку многие важные слова с низкой частотой из входных данных реплицируются в целевую последовательность.Однако это улучшение не является существенным для задачи обеспечения качества.Мы также включили каждую из четырех КБ в QGNet и наблюдаем небольшие улучшения в NELL и Reverb.Несмотря на то, что общая точность QGNet ниже, чем у PCNet и KVMemNet, объединение их результатов может дать абсолютный выигрыш на 1,5% и 0,8% соответственно.На рисунке 5 мы показываем примеры, сгенерированные нашей моделью QG, в которых пути двух ответов-кандидатов рассматриваются как входные данные для модели QG.Мы видим, что исходный вопрос ближе к первому сгенерированному результату, чем второй.Соответственно, первому кандидату ($61 300) будет присвоен ответ с большей вероятностью.Мы проводим анализ ошибок с разных точек зрения, чтобы показать ограничения и будущие возможности различных компонентов нашего подхода.В этой статье мы сосредоточимся на понимании машинного чтения, основанном на знаниях.Мы создаем вручную размеченный набор данных для задачи и разрабатываем структуру, состоящую как из модели ответов на вопросы, так и модели генерации вопросов.Мы также включаем четыре открытых базы знаний в качестве внешних знаний как в методы ответов на вопросы, так и в генеративные подходы, и демонстрируем, что включение дополнительных данных из открытых баз знаний повышает общую точность.Мы проводим обширный анализ моделей и анализ ошибок, чтобы показать преимущества и ограничения наших подходов. | Понимание машинного чтения (MRC) требует рассуждений как о знаниях, содержащихся в документе, так и о знаниях о мире. Однако в существующих наборах данных обычно преобладают вопросы, которые можно хорошо решить с помощью сопоставления контекста, но которые не позволяют проверить эту возможность. Чтобы стимулировать прогресс в рассуждениях, основанных на знаниях, в MRC, мы представляем MRC, основанный на знаниях, в этой статье и создаем новый набор данных, состоящий из 40 047 пар вопрос-ответ. Аннотация к этому набору данных составлена таким образом, что для успешного ответа на вопросы требуется понимание и знания, необходимые для работы с документом. Мы реализуем структуру, состоящую как из модели ответов на вопросы, так и из модели генерации вопросов, каждая из которых использует знания, извлеченные из документа, а также соответствующие факты из внешней базы знаний, такой как Freebase/ProBase/Reverb/NELL. Результаты показывают, что включение дополнительной информации из внешней базы знаний повышает точность базовой системы вопросов и ответов. Мы сравниваем его со стандартной моделью MRC BiDAF, а также указываем сложность набора данных и излагаем оставшиеся проблемы. | 4,474 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Система обнаружения аномалий с использованием языкового моделирования и ее применение для финансирования.. Обнаружение аномальных тенденций в финансовой сфере в основном сосредоточено на обнаружении мошенничества BIBREF0, моделировании рисков BIBREF1 и прогнозном анализе BIBREF2.Данные, используемые в большинстве таких исследований, имеют временной ряд, транзакционный, графический или вообще количественный или структурированный характер.Это противоречит критической важности полуструктурированных или неструктурированных текстовых корпусов, из которых практики в области финансов черпают информацию, — таких корпусов, как финансовые отчеты, пресс-релизы, стенограммы звонков о прибылях и убытках, кредитные соглашения, новостные статьи, журналы взаимодействия с клиентами и социальные данные.Предыдущие исследования по обнаружению аномалий по тексту развивались в значительной степени независимо от финансовых приложений.К документам применялись неконтролируемые методы кластеризации для выявления выбросов и новых тем BIBREF3.К тексту применен анализ отклонений с целью выявления ошибок в написании BIBREF4 и маркировке документов BIBREF5.Недавняя популярность семантики распределения BIBREF6 привела к дальнейшему прогрессу в анализе семантических отклонений BIBREF7.Однако текущие исследования по-прежнему в значительной степени оторваны от конкретных приложений в области финансов.В следующих разделах мы перечисляем основные применения обнаружения аномалий в тексте в финансовой сфере и контекстуализируем их в рамках текущих тем исследований в области обработки естественного языка.Обнаружение аномалий — это стратегия, которая часто используется в ситуациях, когда необходимо выявить отклонение от определенной нормы, особенно когда крайний классовый дисбаланс препятствует использованию контролируемого подхода.Реализация таких методов позволяет раскрыть ранее скрытые или затрудненные идеи.В этом разделе мы излагаем пять точек зрения на то, как обнаружение текстовых аномалий может применяться в контексте финансов, и как каждое приложение открывает возможности для исследователей НЛП применять текущие исследования в финансовой сфере.Предыдущие исследования использовали обнаружение аномалий для выявления и исправления ошибок в тексте BIBREF4, BIBREF5.Часто это непреднамеренные ошибки, возникающие в результате той или иной формы передачи данных, например. из аудио в текст, из изображения в текст или с одного языка на другой.Такие исследования напрямую применимы к подверженному ошибкам процессу звонков о доходах или транскрипции звонков клиентов, где качество звука, акценты и термины, специфичные для предметной области, могут привести к ошибкам.Рассмотрим сценарий, в котором генеральный директор компании заявляет на аудиоконференции: «Теперь инвестиции будут осуществляться в Азии».Однако вместо этого система записывает: «В Азии не будет инвестиций».Существует значительная разница в значении этих двух утверждений, которая может сильно повлиять на анализ и будущее направление компании.Кроме того, что касается второго сценария, крайне маловероятно, что генеральный директор сделает такое резкое и негативное заявление публично, поддержав тем самым использование обнаружения аномалий для исправления ошибок.Оптическое распознавание символов по изображениям — еще один подверженный ошибкам процесс, широко применимый в сфере финансов.Многие финансовые отчеты и презентации распространяются в виде графических документов, которые необходимо подвергнуть оптическому распознаванию, чтобы они стали машиночитаемыми.OCR также может быть применимо к спутниковым изображениям и другим формам графических данных, которые могут включать важный текстовый контент, например графическое представление финансовых данных.Ошибки, возникающие в результате распознавания документов, часто можно исправить с помощью систем, которые имеют надежное семантическое представление целевого домена.Например, модель, обученная на финансовых отчетах, могла бы закодировать понимание того, что смайлы вряд ли появятся в них или что числовое значение прибыли обычно превышает значение выручки.Аномалия в семантическом пространстве может отражать нарушения, которые являются преднамеренными или возникающими, сигнализируя о рискованном поведении или явлениях.Внезапное изменение тона и словарного запаса руководства компании в разговорах о финансовых результатах или финансовых отчетах может сигнализировать о риске.Новостные сюжеты с ненормальным языком или нестандартными моделями происхождения или распространения могут быть ненадежными или не заслуживающими доверия.BIBREF8 показал, что при обучении на схожих предметах или контекстах распределенные представления слов, скорее всего, будут стабильными, причем стабильность измеряется как сходство их ближайших соседей в распределенном пространстве.Такое понимание может быть использовано для оценки аномалий в этом смысле.В качестве примера BIBREF9 выявил группы пользователей в Твиттере, которые постоянно делились новостями из схожих доменов.Охарактеризовав эти сети как «эхо-камеры», они затем представили контент, общий для этих эхо-камер, как распределенные представления.Когда определенные темы из одной эхо-камеры начинали отклоняться от аналогичных тем в других эхо-камерах, контент отмечался как недостоверный.BIBREF9 показал, что этот метод можно использовать для повышения эффективности стандартных методов обнаружения фейковых новостей.В другом исследовании BIBREF10 исследователи предположили, что прозрачные формулировки в разговорах о прибылях и убытках указывают на высокие ожидания в отношении результатов в предстоящих кварталах, тогда как семантическая двусмысленность может сигнализировать об отсутствии уверенности и ожидаемых плохих результатах.Количественно оценивая прозрачность как частое использование цифр, более коротких слов и простого словарного запаса, они показали, что изменение прозрачности связано с изменением будущих результатов.Аномалия может указывать на новое событие или явление, которое может быть рискованным или не быть рискованным.Срочные новости часто проявляются как аномальные тенденции в социальных сетях.BIBREF11 экспериментировал с этим, пытаясь обнаружить новые события из разговоров в Твиттере.Представляя каждое событие в виде кластера твитов в реальном времени (где каждый твит был закодирован как вектор), им удалось оценить новизну события, сравнив его центроид с центроидами более старых событий.Обнаружение новинок также можно использовать для выявления новых тенденций в социальных сетях, например. Споры, охватывающие различные бренды, часто начинаются с небольших местных событий, о которых рассказывают в социальных сетях и которые привлекают внимание в течение короткого периода времени.То, как люди реагируют на эти события на ранних стадиях развития, может быть мерой их правдивости или противоречивости. BIBREF12, BIBREF13. Аномалия в отраслевой группе компаний также может указывать на то, что компания нарушает нормы этой отрасли и появление нового сектора или подсектора.Эти компании, которых часто называют первопроходцами, внедряют инновации быстрее, чем их конкуренты, чтобы удовлетворить потребности рынка, иногда даже до того, как потребитель узнает об их потребностях.Поскольку эти компании постоянно развивают свои бизнес-направления, их основная деятельность отличается от других компаний той же отраслевой классификации, что может служить значимым сигналом об изменении потребностей отрасли.Большая часть текстовых документов, которыми пользуются аналитики и исследователи финансового сектора, имеют нормативный характер.Годовые финансовые отчеты, кредитные соглашения и документы, подаваемые в Комиссию по ценным бумагам и биржам США (SEC), являются одними из таких типов документов.Эти документы могут занимать десятки или сотни страниц и часто содержать шаблонные формулировки, которые читателям, возможно, придется пропустить или игнорировать, чтобы добраться до сути содержания.Часто аномальные положения, встречающиеся в этих документах, закапываются в стандартный текст, чтобы не привлекать внимание к уникальным фразам.BIBREF14 использовал сглаженные представления n-грамм в документах SEC для выявления шаблонного и ненормального языка.Они сделали это, сравнив вероятность каждого n-грамма с предыдущими заявками компании, с другими заявками в том же секторе и с другими заявками от компаний с аналогичной рыночной капитализацией.Цель заключалась в том, чтобы помочь аналитикам бухгалтерского учета отказаться от шаблонных формулировок и сосредоточить свое внимание на важных фрагментах этих документов.Аналогичные методы могут быть применены к кредитным соглашениям, где слишком общие условия и положения часто игнорируются аналитиками риска, а особое внимание уделяется положениям, которые «выделяются» из аналогичных соглашений.Определенные типы документов включают как универсальные, так и контекстно-зависимые сигналы.В качестве примера рассмотрим финансовые отчеты конкретной компании.Отчеты могут включать стандартные финансовые показатели, такие как общий доход, чистые продажи, чистая прибыль и т. д.В дополнение к этим универсальным показателям компании часто сообщают о своей эффективности с точки зрения эффективности своих операционных сегментов.Этими сегментами могут быть бизнес-подразделения, продукты, услуги или региональные операции.Сегменты часто специфичны для компании или ее аналогов.Например, сегменты Apple Inc. могут включать «iPhone», «iMac», «iPad» и «услуги».Эти же сегменты не появятся в отчетах других компаний.Для многих аналитиков и исследователей операционные сегменты являются важной частью исследовательского или прогнозного анализа.Они используют показатели эффективности, связанные с этими сегментами, для сравнения бизнеса с конкурентами, оценки его доли на рынке и прогнозирования общих показателей бизнеса в предстоящих кварталах.Автоматизация идентификации и нормализации этих показателей может способствовать более глубоким аналитическим исследованиям.Поскольку эти сегменты часто специфичны для каждого бизнеса, контролируемые модели, обученные на разнообразном наборе компаний, не могут охватить их без переоснащения для определенных компаний.Вместо этого эти сегменты можно рассматривать как аномалии, специфичные для компании.В отличие от числовых данных, текстовые данные не являются машиночитаемыми напрямую и требуют некоторой формы преобразования на этапе предварительной обработки.В методах «мешка слов» это преобразование может происходить путем присвоения порядкового номера каждому слову и представления любого блока текста как неупорядоченного набора этих слов.Несколько более сложный подход мог бы объединить слова в непрерывные «н-граммы» и представить блок текста как упорядоченную серию «н-грамм», которые были извлечены в скользящем окне размеромн. Эти подходы традиционно известны как «моделирование языка».появление мощных процессоров позволило широко использовать распределенные представления, языковое моделирование быстро развилось и адаптировалось к этим новым возможностям.Рекуррентные нейронные сети могут захватывать последовательность текста произвольной длины и выполнять различные задачи, такие как классификация или генерация текста BIBREF16.В этом новом контексте языковое моделирование часто относится к обучению рекуррентной сети, которая предсказывает слово в заданной текстовой последовательности BIBREF17.Языковые модели легко обучать, поскольку, хотя они и следуют механизму прогнозирования, им не нужны никакие размеченные данные, и поэтому они не контролируются.Рисунок FigREF6 представляет собой простую иллюстрацию того, как нейронная сеть, состоящая из повторяющихся блоков, таких как долговременная память (LSTM) BIBREF18, может выполнять языковое моделирование.Сеть состоит из четырех основных компонентов: Входные векторы ($x_i$), которые представляют единицы (т. е. символы, слова, фразы, предложения, абзацы и т. д.) во входном тексте.Иногда они представлены в виде горячих векторов, которые присваивают уникальный индекс каждому конкретному входу.Чаще всего эти векторы адаптируются из предварительно обученного корпуса, где распределенные представления были выведены либо с помощью более простого процесса автоматического кодирования BIBREF19, либо путем применения той же рекуррентной модели к базовому корпусу, такому как Wikipedia BIBREF17. Выходные векторы ($ y_i$), которые представляют собой предсказание модели следующего слова в последовательности.Естественно, они представлены в той же размерности, что и $x_i$s.Скрытые векторы ($h_i$), которые часто инициализируются случайным образом и изучаются посредством обратного распространения ошибки.Эти векторы, которые часто обучаются как плотные представления, имеют тенденцию отображать характеристики, которые указывают на семантическое богатство BIBREF20 и композиционность BIBREF19.Хотя языковая модель может использоваться в качестве механизма генерации текста, скрытые векторы являются сильным побочным продуктом, который иногда извлекается и повторно используется в качестве дополненных функций в других системах машинного обучения BIBREF21. Веса сети ($W_{ij}$ ) (или другие параметры в сети), которые настраиваются посредством обратного распространения ошибки.Они часто указывают, как каждый вектор во входной или скрытой последовательности используется для генерации выходных данных.Эти параметры играют большую роль в том, как выходные данные нейронных сетей реконструируются или объясняются конечному пользователю. Распределение любого из вышеупомянутых компонентов можно изучить, чтобы выявить сигналы аномального поведения в контексте нерегулярности. ошибка, новизна, семантическое богатство или контекстуальная релевантность.Как упоминалось ранее, входные векторы для текстовой нейронной сети часто адаптируются из общедоступных корпусов векторов слов.В более простых архитектурах сети разрешено обратное распространение ошибок вплоть до входного уровня, что может привести к изменению входных векторов.Это может служить сигналом об аномалии в семантических распределениях между исходными векторами и модифицированными векторами.Анализ стабильности векторов слов при обучении на различных итерациях также может сигнализировать об аномальных тенденциях BIBREF8. Как упоминалось ранее, языковые модели генерируют распределение вероятностей для слова (или символа) в последовательности.Эти вероятности можно использовать для обнаружения ошибок транскрипции или распознавания символов удобным для домена способом.Когда языковая модель обучена на финансовых данных, тенденции, специфичные для предметной области (например, использование запятых и круглых скобок в финансовых показателях), могут быть зафиксированы и учтены сетью, сводя к минимуму уровень ложных срабатываний.Недавним достижением в области обработки текста является внедрение методов точной настройки нейронных сетей, обученных на тексте BIBREF17.Точная настройка — это подход, который облегчает передачу семантических знаний из одного домена (источника) в другой домен (цель).Исходный домен часто бывает большим и общим, например, веб-данные или корпус Википедии, тогда как целевой домен часто является конкретным (например, документы SEC).Сеть предварительно обучается на исходном корпусе, так что ее скрытые представления обогащаются.Затем предварительно обученные сети повторно обучаются в целевом домене, но на этот раз настраиваются только последние (или несколько верхних) слоев, а параметры в остальных слоях остаются «замороженными».Самый верхний уровень сети может быть изменен для выполнения задач классификации, прогнозирования или генерации в целевом домене (см. рисунок FigREF15). Целью точной настройки является изменение распределения скрытых представлений таким образом, чтобы важная информация о исходный домен сохраняется, в то время как особенности целевого домена эффективно фиксируются BIBREF22.Аналогичный процесс можно использовать для определения аномалий в документах.В качестве примера рассмотрим модель, предварительно обученную на исторических документах из данного сектора.Если точная настройка модели на недавних документах из того же сектора резко меняет представление определенных векторов, это может сигнализировать о развивающейся тенденции.Модели с интерпретируемыми параметрами можно использовать для выявления областей отклонений или аномального содержания.Механизмы внимания BIBREF23 позволяют сети учитывать определенные входные сигналы больше, чем другие.Механизм изученного внимания может дать представление о потенциальных аномалиях во входных данных.Рассмотрим языковую модель, которая предсказывает активность конкретного твита в социальных сетях.Такую модель можно использовать, чтобы отличить привлекательный и насыщенный информацией контент от кликбейта, созданного ботами, пропагандистского или рекламного контента, показывая, как в этих категориях вовлеченность связана с вниманием к определенному распределению «триггерных слов».В таблице TABREF17 перечислены четыре сценария использования различных слоев и параметров языковой модели для обнаружения аномалий по тексту.Как и во многих других областях, в финансовой сфере применение языковых моделей в качестве измерения семантической регулярности текста сопряжено с проблемой работы с невидимыми входными данными.Невидимые входные данные могут быть приняты за аномалии, особенно в системах, предназначенных для обнаружения ошибок.Например, система, обученная исправлять ошибки в расшифровке отчета о прибылях и убытках, может рассматривать поименованные объекты, такие как имена руководителей компании или недавнее приобретение, как аномалии.Эта проблема особенно заметна в точно настроенных языковых моделях, которые предварительно обучаются на общих корпусах, которые могут не включать термины, специфичные для предметной области.Когда аномалии имеют злонамеренный характер, например, в случае, когда аномальные положения включены в кредитные соглашения, реализация аномального содержания адаптируется так, чтобы выглядеть нормально.Таким образом, задача обнаружения нормального языка становится более сложной.С другой стороны, в случае языка, используемого руководителями в презентациях компании, таких как звонки о прибылях и убытках, данные могут содержать много шума из-за большой вариативности личностей и языковых моделей различных лидеров.Изменчивость шума, присутствующая в этом контенте, может быть похожа на реальные аномалии, что затрудняет выявление истинных аномалий.Факторы, связанные с рыночным взаимодействием и конкурентным поведением, также могут влиять на эффективность моделей обнаружения аномалий.При обнаружении появления нового сектора промышленности системе может быть сложно обнаружить новизну, когда аномальным образом ведет себя группа компаний, а не одна компания.Первый вариант может быть более распространенным в реальной жизни, поскольку компании внимательно следят за инновациями своих конкурентов и имитируют их.Точное понятие аномалии также может варьироваться в зависимости от сектора и момента времени.Например, в технологическом секторе нормой в современном мире являются постоянные инновации и технологические достижения.Кроме того, некоторые типы аномалий могут взаимодействовать друг с другом, что затрудняет различение систем.Например, система, обученная идентифицировать операционные сегменты компании, имеет тенденцию различать информацию, специфичную для компании, и информацию, которая является общей для разных компаний.В результате он может идентифицировать имена совета директоров компании или расположение ее офисов как ее операционные сегменты.Традиционные модели машинного обучения ранее решали вышеупомянутые проблемы, и решения, вероятно, также появятся в нейронных парадигмах.Любые будущие исследования в этих направлениях должны будут учитывать влияние таких решений на надежность и объяснимость полученных моделей, а также их устойчивость к состязательным данным.Обнаружение аномалий по тексту может иметь множество применений в финансах, включая обнаружение рисков, прогнозный анализ, исправление ошибок и обнаружение коллег.Мы изложили различные точки зрения на то, как аномалии могут быть интерпретированы в контексте финансов, а также соответствующие взгляды на то, как языковое моделирование может использоваться для обнаружения таких аспектов аномального контента.Мы надеемся, что эта статья закладывает основу для создания основы для понимания возможностей и рисков, связанных с этими методами при их применении в финансовой сфере. | В финансовом секторе исследования, направленные на обнаружение аномалий, часто связаны с анализом временных рядов и транзакционных данных. В этой статье мы излагаем возможности применения методов обнаружения аномалий и отклонений к текстовым корпусам и проблемы, связанные с ними. Мы утверждаем, что языковые модели, использующие распределительную семантику, могут сыграть значительную роль в продвижении этих исследований в новых направлениях с новыми приложениями в идентификации рисков, прогнозном моделировании и анализе тенденций. | 2,887 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Исследование выявления языка вражды в мультимодальных публикациях. Платформы социальных сетей, такие как Facebook, Twitter или Reddit, расширили возможности голоса людей и облегчили свободу выражения мнений.Однако они также стали рассадником разжигания ненависти и других видов онлайн-преследований.Язык ненависти определяется в юридической литературе как речь (или любая форма выражения), которая выражает (или направлена на поощрение, или способна усиливать) ненависть против человека или группы людей из-за их общих характеристик или группы. которому они принадлежат BIBREF0.Twitter развивает это определение в своей политике ненавистнического поведения как насилие в отношении других людей, прямое нападение или угрозы на основании расы, этнической принадлежности, национального происхождения, сексуальной ориентации, пола, гендерной идентичности, религиозной принадлежности, возраста, инвалидности или серьезного заболевания.В этой работе мы уделяем особое внимание выявлению языка вражды.Из-за сложности этой задачи важно отличать разжигание ненависти от других видов онлайн-преследований.В частности, хотя это может быть оскорбительно для многих людей, само по себе присутствие оскорбительных терминов не означает и не передает разжигание ненависти.И наоборот, язык ненависти может унижать или угрожать отдельному лицу или группе людей без использования каких-либо ненормативных выражений.Люди из афро-американского сообщества, например, часто используют термин «ниггер» в Интернете, в повседневной речи, без злонамеренных намерений в отношении людей в своем сообществе, а слово «пизда» часто используется в публикациях, не содержащих разжигания ненависти, и без какой-либо сексистской цели. .Целью этой работы не является обсуждение того, следует ли преследовать расовые оскорбления, такие как «ниггер».Цель состоит в том, чтобы провести различие между публикациями, использующими оскорбительные термины, и публикациями, нападающими на сообщества, которые мы называем языком ненависти.Контент современных социальных сетей обычно включает изображения и текст.Некоторые из этих мультимодальных публикаций представляют собой лишь разжигание ненависти из-за сочетания текста с определенным изображением.Это связано с тем, что, как мы уже заявляли, наличие оскорбительных терминов само по себе не означает языка ненависти, а наличие языка ненависти часто определяется контекстом публикации.Более того, пользователи, пишущие разжигание ненависти, склонны намеренно создавать публикации, в которых текста недостаточно, чтобы определить, что это высказывания, разжигающие ненависть.Особенно это происходит в Твиттере, где мультимодальные твиты формируются из изображения и короткого текста, чего во многих случаях недостаточно, чтобы о них судить.В таких случаях изображение может дать дополнительный контекст, позволяющий сделать правильное суждение.Рис.FigREF5 показывает некоторые из таких примеров в MMHS150K. Вклад этой работы заключается в следующем: [noitemsep,leftmargin=*]Мы предлагаем новую задачу по обнаружению языка вражды в мультимодальных публикациях, сбору, аннотированию и публикации крупномасштабного набора данных.Мы оцениваем современные мультимодальные модели для решения этой конкретной задачи и сравниваем их производительность с унимодальным обнаружением.Несмотря на то, что изображения оказались полезными для обнаружения языка вражды, предлагаемые мультимодальные модели не превосходят унимодальные текстовые модели.Мы изучаем сложности предложенной задачи и открываем поле для будущих исследований.Литература по выявлению разжигания ненависти в текстовых онлайн-публикациях обширна.Шмидт и Виганд BIBREF1 недавно представили хороший обзор этого вопроса, в котором они рассматривают терминологию, используемую с течением времени, используемые функции, существующие наборы данных и различные подходы.Однако в этой области отсутствует последовательный набор данных и протокол оценки для сравнения предлагаемых методов. Салим и др.ал. BIBREF2 сравнивает различные методы классификации, выявляющие разжигание ненависти на Reddit и других форумах.Вассем и Хови BIBREF3 работали над обнаружением разжигания ненависти в Твиттере, опубликовали аннотированный вручную набор данных и изучили распространение ненависти.Позже Вассем BIBREF4 расширил предыдущий опубликованный набор данных и сравнил любительские и экспертные аннотации, придя к выводу, что любители-аннотаторы чаще, чем эксперты-аннотаторы, называют элементы разжиганием ненависти.Парк и Фунг BIBREF5 работали над наборами данных Вассема и предложили метод классификации с использованием CNN вместо встраивания слов Word2Vec BIBREF6, продемонстрировав также результаты классификации по подклассам ненависти к расизму и сексизму.Дэвидсон и др.BIBREF7 также работал над обнаружением разжигания ненависти в Твиттере, опубликовав еще один набор данных, аннотированный вручную.Они тестируют различные классификаторы, такие как SVM и деревья решений, и сравнивают производительность.Малмаси и Зампиери BIBREF8 работали над набором данных Дэвидсона, улучшая его результаты, используя более сложные функции.ЭльШериф и др.BIBREF9 изучил язык ненависти в Твиттере и выбрал наиболее часто встречающиеся термины в твитах ненависти на основе Hatebase, хранилища выражений ненависти.Они предлагают большой набор данных о ненависти, но в нем отсутствуют ручные аннотации, а все твиты, содержащие определенные выражения ненависти, считаются языком ненависти.Чжан и др. BIBREF10 недавно предложил более сложный подход к обнаружению разжигания ненависти, используя CNN и GRU BIBREF11 вместо встраивания слов Word2Vec BIBREF6.Они показывают эксперименты на разных наборах данных, превосходящие предыдущие методы.Далее мы суммируем существующие наборы данных о высказываниях, разжигающих ненависть: [noitemsep,leftmargin=*]RM BIBREF10: Состоит из твитов стоимостью $2435$, в которых обсуждаются вопросы беженцев и мусульман, с пометками, разжигающими ненависть или не разжигающими ненависть.ДТ BIBREF7:Состоит из твитов стоимостью 24 783 доллара, помеченных как ненависть, оскорбительные выражения или ни то, ни другое.В нашей работе твиты с оскорбительной лексикой не считаются проявлением ненависти.WZ-LS BIBREF5:Комбинация наборов данных Вассема BIBREF4, BIBREF3, помеченных как расизм, сексизм, ни то, ни другое или то и другое, в общей сложности составляет 18 624 доллара за твиты.Полуконтролируемый BIBREF9: содержит общие высказывания, разжигающие ненависть, на сумму 27 330 долларов США. Твиты в Твиттере, просканированные полуконтролируемым способом.Хотя современные публикации в социальных сетях часто включают изображения, существует не так уж много публикаций, использующих визуальную информацию.Чжун и др. BIBREF12 работал над классификацией изображений Instagram как потенциальных объектов киберзапугивания, используя как содержание изображения, подпись к изображению и комментарии.Однако их обработка визуальной информации ограничивается использованием функций, извлеченных предварительно обученной CNN, использование которых не приводит к каким-либо улучшениям.Хоссейнмарди и др. BIBREF13 также решает проблему выявления случаев киберзапугивания в Instagram с использованием как текстового, так и графического контента.Но, опять же, их обработка визуальной информации ограничена использованием функций предварительно обученной CNN, а улучшение при использовании визуальных функций при классификации киберзапугивания составляет всего 0,01%. Типичная задача мультимодального визуального и текстового анализа состоит в том, чтобы изучить выравнивание между пространствами признаков.Для этого обычно CNN и RNN обучаются совместно, чтобы изучить совместное пространство внедрения на основе согласованных мультимодальных данных.Этот подход применяется в таких задачах, как создание подписей к изображениям BIBREF14, BIBREF15 и мультимодальный поиск изображений BIBREF16, BIBREF17.С другой стороны, вместо явного изучения выравнивания между двумя пространствами, цель визуального ответа на вопрос (VQA) состоит в том, чтобы объединить обе модальности данных, чтобы решить, какой ответ правильный.Эта проблема требует моделирования очень точных корреляций между изображением и представлениями вопросов.Требования к задаче VQA аналогичны нашей проблеме обнаружения разжигания ненависти в мультимодальных публикациях, где у нас есть визуальный и текстовый ввод, и нам необходимо объединить оба источника информации, чтобы понять глобальный контекст и принять решение.Таким образом, мы черпаем вдохновение из литературы VQA для тестируемых моделей.Ранние методы VQA BIBREF18 объединяют текстовую и визуальную информацию путем конкатенации функций.Более поздние методы, такие как мультимодальное компактное билинейное объединение BIBREF19, используют билинейное объединение для изучения мультимодальных функций.Важным ограничением этих методов является то, что мультимодальные функции объединяются на последнем этапе модели, поэтому текстовые и визуальные отношения моделируются только на последних слоях.Еще одним ограничением является то, что визуальные характеристики получаются путем представления выходных данных CNN в виде одномерного вектора, при котором теряется пространственная информация входных изображений.В недавней работе Гао и др. BIBREF20 предлагает схему объединения функций для преодоления этих ограничений.Они изучают ядра свертки из текстовой информации, которую они называют ядрами, управляемыми вопросами, и на более раннем этапе свертывают их с визуальной информацией, чтобы получить мультимодальные функции.Маргффой-Туай и др. BIBREF21 использует аналогичный подход для объединения визуальной и текстовой информации, но решает другую задачу: сегментацию экземпляров на основе запросов на естественном языке.В этих последних работах по объединению функций мы вдохновляем на создание моделей обнаружения разжигания ненависти.Существующие наборы данных о разжигании ненависти содержат только текстовые данные.Более того, эталонного эталона не существует.Большинство опубликованных наборов данных сканируются из Твиттера и распространяются в виде идентификаторов твитов, но, поскольку Твиттер удаляет зарегистрированные учетные записи пользователей, значительная часть их ненавистнических твитов больше не доступна.Мы создаем новый мультимодальный набор данных о разжигании ненависти, аннотированный вручную, состоящий из твитов стоимостью 150 000 долларов США, каждый из которых содержит текст и изображение.Мы назвали набор данных MMHS150K и разместили его в Интернете.В этом разделе мы объясним этапы создания набора данных.Мы использовали API Twitter для сбора твитов в режиме реального времени с сентября 2018 года по февраль 2019 года, выбирая те, которые содержат любой из 51 термина базы ненависти, которые наиболее распространены в твитах с разжиганием ненависти, как описано в BIBREF9.Мы отфильтровали ретвиты, твиты, содержащие менее трех слов, и твиты, содержащие термины, связанные с порнографией.Из этой выборки мы сохранили те, которые включали изображения, и загрузили их.Twitter применяет фильтры разжигания ненависти и другие виды контроля контента в соответствии со своей политикой, хотя надзор основан на отчетах пользователей.Таким образом, поскольку мы собираем твиты из публикаций в реальном времени, получаемый нами контент еще не прошел ни одного фильтра.Мы стремимся создать мультимодальную базу данных по разжиганию ненависти, где все экземпляры будут содержать визуальную и текстовую информацию, которую мы сможем позже обработать, чтобы определить, является ли твит разжиганием ненависти или нет.Однако значительная часть изображений выбранных твитов содержит только текстовую информацию, например скриншоты других твитов.Чтобы гарантировать, что все экземпляры набора данных содержат как визуальную, так и текстовую информацию, мы удаляем эти твиты.Для этого мы используем TextFCN BIBREF22, BIBREF23, полностью сверточную сеть, которая создает попиксельную карту вероятности текста изображения.Мы установили эмпирические пороговые значения для отбрасывания изображений, которые имеют значительную общую вероятность текста, отфильтровывая $23\%$ собранных твитов.Мы аннотируем собранные твиты с помощью краудсорсинговой платформы Amazon Mechanical Turk.Там мы даем работникам определение языка вражды и показываем несколько примеров, чтобы прояснить задачу.Затем мы показываем текст и изображение твита и просим отнести его к одной из 6 категорий: «Никаких нападок на какое-либо сообщество», расистских, сексистских, гомофобных, религиозных нападений или нападений на другие сообщества.Каждый из твитов стоимостью 150 000 долларов помечен тремя разными работниками, чтобы сгладить разногласия между работниками.Мы получили много ценных отзывов от комментаторов.Большинство из них правильно поняли задачу, но их беспокоила ее субъективность.Это действительно субъективная задача, во многом зависящая от убеждений и чувствительности комментатора.Однако мы ожидаем, что аннотации будут более чистыми, чем сильнее будет атака, а именно те публикации, которые мы больше заинтересованы в обнаружении.Мы также обнаружили, что некоторые пользователи комментируют твиты на предмет разжигания ненависти, просто замечая оскорбления.Как уже было сказано ранее, само использование отдельных слов может быть оскорбительным для многих людей, но это не та задача, которую мы стремимся решить.Мы не включали в наши эксперименты те хиты, которые были совершены менее чем за 3 секунды, понимая, что для понимания мультимодального контекста и принятия решения требуется больше времени.Мы проводим большинство голосов между тремя аннотациями, чтобы получить категорию твитов.В итоге мы получаем 112 845 долларов за ненавистнические твиты и 36 978 долларов за ненавистнические твиты.Последние делятся на расистские твиты стоимостью 11 925 долларов США, сексистские 3 495 долларов США, гомофобные твиты стоимостью 3 870 долларов США, 163 твита, разжигающие религиозную ненависть, и другие твиты ненависти стоимостью 5 811 долларов США (рис. FIGREF17).В этой работе мы не используем подкатегории ненависти и придерживаемся разделения ненависти/нененависти.Мы разделяем сбалансированные проверочные (5000 долларов США) и тестовые (10 000 долларов США) наборы.Остальные твиты используются для обучения.Мы также экспериментировали с использованием оценок ненависти для каждого твита, рассчитанных с учетом разных голосов трех комментаторов, вместо двоичных меток.Результаты не показали существенных отличий от результатов, показанных в экспериментальной части этой работы, но, тем не менее, необработанные аннотации будут опубликованы для дальнейших исследований.Насколько нам известно, этот набор данных является крупнейшим на сегодняшний день набором данных о языке ненависти и первым мультимодальным набором данных о языке ненависти.Одной из задач является различение твитов, в которых используются одни и те же ключевые оскорбительные слова, которые представляют собой или не представляют собой атаку на сообщество (язык вражды).Рис.FigREF18 показывает процент твитов, содержащих и не содержащих ненависть, по самым популярным ключевым словам.Размер всех изображений изменяется таким образом, чтобы их минимальный размер составлял 500 пикселей.Во время обучения применяется онлайн-дополнение данных в виде случайной обрезки $299\times 299$ патчей и зеркалирования.В качестве экстрактора функций изображения мы используем CNN, который представляет собой предварительно обученную архитектуру Google Inception v3 Imagenet BIBREF24 BIBREF25.Процесс тонкой настройки слоев Inception v3 направлен на изменение их весов для извлечения функций, которые в сочетании с текстовой информацией являются оптимальными для обнаружения разжигания ненависти.Мы обучаем однослойный LSTM со 150-мерным скрытым состоянием для классификации ненависти/нененависти.Входная размерность установлена равной 100, а в качестве словесных представлений используются вложения GloVe BIBREF26.Поскольку наш набор данных недостаточно велик для обучения модели встраивания слов GloVe, мы использовали предварительно обученную модель, обученную на двух миллиардах твитов.Это гарантирует, что модель сможет создавать встраивания слов для сленга и других слов, обычно используемых в Твиттере.Для обработки текста твитов перед генерацией встраивания слов мы используем тот же конвейер, что и авторы модели, который включает в себя генерацию символов для кодирования специальных взаимодействий в Твиттере, таких как упоминания пользователя (@user) или хэштеги (#hashtag).Чтобы закодировать текст твита и позже ввести его в мультимодальные модели, мы используем скрытое состояние LSTM после обработки последнего слова твита.Поскольку LSTM обучен классификации разжигания ненависти, он извлекает наиболее полезную информацию для этой задачи из текста, который закодирован в скрытом состоянии после ввода последнего слова твита.Текст на изображении также может содержать важную информацию, позволяющую решить, является ли публикация разжиганием ненависти или нет, поэтому мы извлекаем ее и вводим в нашу модель.Для этого мы используем модуль обнаружения текста Google Vision API BIBREF27.Мы вводим текст твита и текст с изображения отдельно в мультимодальные модели, чтобы они могли изучить разные отношения между ними, а также между ними и изображением.Например, модель может научиться связывать текст изображения с областью изображения, где он появляется, поэтому она может научиться интерпретировать текст по-разному в зависимости от места, где он написан на изображении.Текст изображения также кодируется LSTM как скрытое состояние после обработки его последнего слова.Целью этой работы является создание детектора разжигания ненависти, который будет использовать как текстовые, так и визуальные данные и обнаруживать публикации с разжиганием ненависти на основе контекста, заданного обоими модальностями данных.Чтобы изучить, как мультимодальный контекст может повысить производительность по сравнению с унимодальным контекстом, мы оцениваем различные модели: модель конкатенации функций (FCM), модель пространственной конкатенации (SCM) и модель текстовых ядер (TKM).Все они представляют собой модели CNN+RNN с тремя входными данными: изображение твита, текст твита и текст, появляющийся на изображении (если есть). Изображение передается в архитектуру Inception v3 и 2048-мерный вектор признаков после последнего среднего значения. Слой пула используется в качестве визуального представления.Затем этот вектор объединяется со 150 размерными векторами скрытых состояний последнего слова LSTM текста изображения и текста твита, в результате чего получается вектор признаков из 2348.Затем этот вектор обрабатывается тремя полносвязными слоями уменьшающейся размерности $(2348, 1024, 512)$ с последующей пакетной нормализацией и слоями ReLu до тех пор, пока размеры не уменьшатся до двух, количества классов, в последнем слое классификации.Архитектура FCM показана на рис. FigREF26. Вместо использования последнего вектора признаков перед классификацией Inception v3 в качестве визуального представления, в SCM мы используем карту признаков $8\times 8\times 2048$ после последнего модуля Inception.Затем мы объединяем 150 векторов измерений, кодирующих текст твита и текст изображения твита в каждом пространственном положении этой карты объектов.Полученная мультимодальная карта объектов обрабатывается двумя блоками Inception-E BIBREF28.После этого применяются отсев и объединение средних значений, и, как и в модели FCM, используются три полностью связанных слоя для уменьшения размерности до слоя классификации.Дизайн TKM, вдохновленный BIBREF20 и BIBREF21, направлен на более выразительное отражение взаимодействия между двумя модальностями, чем модели конкатенации.Как и в SCM, мы используем карту объектов $8\times 8\times 2048$ после последнего модуля Inception в качестве визуального представления.Из 150-мерного вектора, кодирующего текст твита, мы изучаем текстозависимые ядра $K_t$, используя независимые полносвязные слои, которые обучаются вместе с остальной частью модели.Результирующие текстозависимые ядра $K_t$ будут иметь размерность $1\times 1\times 2048$.Мы делаем то же самое с вектором признаков, кодирующим текст изображения, изучая ядра $K_{it}$.Текстовые ядра свернуты с картой визуальных признаков в измерении канала в каждом пространственном местоположении, в результате чего получается мультимодальная карта признаков $8\times 8\times (K_i+K_{it})$, и применяется пакетная нормализация.Затем, как и в SCM, 150 векторов измерений, кодирующих текст твита и текст изображения твита, объединяются в каждом пространственном измерении.В остальном архитектура такая же, как в SCM: два блока Inception-E, отсев, средний пул и три полносвязных слоя до уровня классификации.Количество текстовых ядер твитов $K_t$ и текстовых ядер изображений твитов $K_it$ установлено в $K_t = 10$ и $K_it = 5$.Архитектура ТКМ показана на рис.FigREF29. Мы обучаем мультимодальные модели с перекрестной энтропийной потерей с помощью активации Softmax и оптимизатора ADAM с начальной скоростью обучения $1e-4$. Наш набор данных страдает от дисбаланса высокого класса, поэтому мы взвешиваем вклад в потерю образцов, чтобы полностью компенсировать его.Одна из целей этой работы — изучить, как каждый из входных данных способствует классификации, и доказать, что предлагаемая модель может обнаруживать совпадения между визуальными и текстовыми данными, что полезно для улучшения результатов классификации разжигания ненависти на мультимодальных данных.Для этого мы обучаем различные модели, в которых доступны все или только некоторые входные данные.Когда ввод недоступен, мы устанавливаем для него нули и делаем то же самое, когда изображение не имеет текста.В таблице TABREF31 показаны F-показатель, площадь под кривой ROC (AUC) и средняя точность (ACC) предлагаемых моделей при наличии различных исходных данных.$TT$ относится к тексту твита, $IT$ к тексту изображения и $I$ к изображению.Он также показывает результаты для LSTM, для метода Дэвисона, предложенного в BIBREF7, обученного с помощью MMHS150K, и для случайных оценок.Рис.На фиг.32 показаны график зависимости точности от полноты и кривая ROC (которая отображает соотношение истинного положительного результата и уровня ложноположительного результата) различных моделей.Во-первых, заметим, что учитывая субъективность задачи и разногласия между аннотаторами, получить оптимальные баллы по метрикам оценки практически невозможно.Тем не менее, система с относительно низкими показателями метрики все же может быть очень полезна для обнаружения языка ненависти в реальном приложении: она будет активировать публикации, в отношении которых большинство аннотаторов согласны с тем, что они являются разжиганием ненависти, что часто является более сильной атакой.Предлагаемый LSTM для обнаружения разжигания ненависти, когда доступен только текст, дает аналогичные результаты, что и метод, представленный в BIBREF7, который мы обучали с помощью MMHS150K, и с теми же разбиениями.Тем не менее, наша основная цель в этой работе — не просто существенно улучшить современный уровень выявления языка вражды в текстовых публикациях, а представить и работать над его обнаружением в мультимодальных публикациях.Мы используем LSTM, потому что он обеспечивает четкое представление текстов твитов.FCM, обученный только с помощью изображений, дает достойные результаты, учитывая, что во многих публикациях изображения могут не давать никакой полезной информации для задачи.Рис.На фиг.33 показаны некоторые репрезентативные примеры изображений этой модели с наибольшим количеством ненависти и без нее.Многие ненавистнические твиты сопровождаются унизительными изображениями обнаженной натуры, сексистскими или гомофобными.Другие расистские твиты сопровождаются карикатурными изображениями чернокожих людей.Наконец, МЕМЫ также обычно используются в публикациях, разжигающих ненависть.Изображения, набравшие наибольшее количество баллов за отсутствие ненависти, — это портреты людей, принадлежащих к меньшинствам.Это происходит из-за использования оскорблений внутри этих сообществ без оскорбительного намерения, например, слова «ниггер» внутри афроамериканского сообщества или слова «лесбиянка» внутри лесбийского сообщества.Эти результаты показывают, что изображения можно эффективно использовать для различения оскорбительного и неоскорбительного использования этих слов.Несмотря на то, что модель, обученная только с помощью изображений, доказывает, что они полезны для обнаружения языка вражды, предлагаемые мультимодальные модели не способны улучшить обнаружение по сравнению с текстовыми моделями.Помимо различных архитектур, мы опробовали различные стратегии обучения, такие как инициализация весов CNN с помощью модели, уже обученной исключительно с помощью изображений MMHS150K, или использование исключения, чтобы заставить мультимодальные модели использовать визуальную информацию.Однако в конечном итоге эти модели используют для прогнозирования почти только текстовый ввод и дают результаты, очень похожие на результаты текстовых моделей.Предложенные мультимодальные модели, такие как TKM, показали хорошие результаты в других задачах, например VQA.Далее мы анализируем, почему они плохо справляются с этой задачей и с этими данными: [noitemsep,leftmargin=*]Шумные данные.Основной проблемой этой задачи является расхождение между аннотациями из-за субъективного суждения.Хотя это также влияет на обнаружение с использованием только текста, его последствия больше в более сложных задачах, таких как обнаружение с использованием изображений или мультимодальное обнаружение.Сложность и многообразие мультимодальных отношений.В мультимодальных публикациях, посвященных разжиганию ненависти, используется много базовых знаний, что делает отношения между используемыми ими визуальными и текстовыми элементами очень сложными и разнообразными, и поэтому их трудно изучить нейронной сети.Небольшой набор мультимодальных примеров.Рис.Figref5 показывает некоторые из сложных примеров мультимодальной ненависти, которые мы стремились обнаружить.Но хотя мы собрали большой набор данных из твитов стоимостью 150 тысяч долларов, подмножество мультимодальной ненависти все еще слишком мало, чтобы изучить сложные мультимодальные отношения, необходимые для выявления мультимодальной ненависти.В этой работе мы исследовали задачу выявления языка вражды в мультимодальных публикациях.Мы создали MMHS150K, насколько нам известно, самый большой доступный набор данных о разжигании ненависти и первый набор, состоящий из мультимодальных данных, а именно твитов, образованных изображением и текстом.Мы обучили на этих данных различные текстовые, визуальные и мультимодальные модели и обнаружили, что, несмотря на то, что изображения полезны для обнаружения языка вражды, мультимодальные модели не превосходят текстовые модели.Наконец, мы проанализировали проблемы предлагаемой задачи и набора данных.Учитывая, что большая часть контента в социальных сетях в настоящее время является мультимодальной, мы искренне верим в важность продвижения этих исследований.Код, используемый в этой работе, доступен в формате . | В данной работе мы ставим перед собой задачу выявления языка вражды в мультимодальных публикациях, состоящих из текста и изображения. Мы собираем и аннотируем крупномасштабный набор данных из Twitter, MMHS150K, и предлагаем различные модели, которые совместно анализируют текстовую и визуальную информацию для обнаружения разжигания ненависти, сравнивая их с унимодальным обнаружением. Мы предоставляем количественные и качественные результаты и анализируем сложности предложенной задачи. Мы обнаружили, что, хотя изображения полезны для обнаружения разжигания ненависти, современные мультимодальные модели не могут превзойти модели, анализирующие только текст. Мы обсудим, почему, и откроем поле и набор данных для дальнейших исследований. | 4,002 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | О взаимосвязи между самовниманием и сверточными слоями. Недавние достижения в области обработки естественного языка (NLP) во многом связаны с появлением преобразователя BIBREF1.Предварительно обученные для решения неконтролируемых задач с большими объемами текста, архитектуры на основе преобразователей, такие как GPT-2 BIBREF2, BERT BIBREF3 и Transformer-XL BIBREF4, по-видимому, обладают способностью изучать основную структуру текста и, как Как следствие, изучить представления, которые обобщают задачи.Ключевое различие между трансформаторами и предыдущими методами, такими как рекуррентные нейронные сети BIBREF5 и сверточные нейронные сети (CNN), заключается в том, что первые могут одновременно обрабатывать каждое слово своей входной последовательности.Это стало возможным благодаря механизму внимания, первоначально представленному в нейронном машинном переводе для лучшей обработки долгосрочных зависимостей BIBREF6.В частности, что касается внимания к себе, сходство двух слов в последовательности фиксируется оценкой внимания, измеряющей расстояние между их представлениями.Затем представление каждого слова обновляется на основе тех слов, показатель внимания которых самый высокий.Вдохновленные его способностью узнавать значимые взаимозависимости между словами, исследователи недавно рассмотрели возможность использования самовнимания для решения зрительных задач.Самовнимание было впервые добавлено в CNN либо с использованием внимания на основе каналов BIBREF7, либо с помощью нелокальных отношений в изображении BIBREF8.Совсем недавно BIBREF9 дополнил CNN, заменив некоторые сверточные слои слоями самообслуживания, что привело к улучшению задач классификации изображений и обнаружения объектов.Интересно, что BIBREF0 заметил, что, хотя самые современные результаты достигаются при объединении внимания и сверточных функций, при тех же ограничениях по вычислениям и размеру модели, архитектуры, ориентированные только на самообслуживание, также достигают конкурентоспособной точности классификации изображений.Эти результаты поднимают вопрос: обрабатывают ли слои самообслуживания изображения аналогично сверточным слоям?С теоретической точки зрения можно утверждать, что трансформаторы способны моделировать любую функцию, включая CNN.Действительно, BIBREF10 показал, что многоуровневая архитектура, основанная на внимании, с аддитивными позиционными кодировками является полной по Тьюрингу при некоторых строгих теоретических предположениях, таких как арифметика с неограниченной точностью.К сожалению, результаты универсальности не показывают, как машина решает задачу, а лишь показывают, что она способна это сделать.Таким образом, вопрос о том, как на самом деле слои самовнимания обрабатывают изображения, остается открытым.В этой работе мы представили теоретические и эмпирические доказательства того, что слои самообслуживания могут (и действительно) научиться вести себя аналогично сверточным слоям: .В частности, мы показываем, что одиночный уровень самообслуживания с несколькими головками, использующий относительное позиционное кодирование, может быть повторно параметризован для выражения любого сверточного слоя.Наши идеи привели к относительному позиционному кодированию, которое мы называем квадратичным кодированием, которое очень эффективно с точки зрения размера.Наши эксперименты показывают, что первые несколько уровней архитектур, ориентированных только на внимание, BIBREF0 учатся учитывать сеточный шаблон вокруг каждого пикселя запроса, аналогично нашей теоретической конструкции.Поразительно, но такое поведение подтверждается как для нашего квадратичного кодирования, так и для относительного кодирования, которое изучается во время обучения.Наши результаты, похоже, предполагают, что локализованная свертка является правильным индуктивным смещением для первых нескольких слоев сети классификации изображений.С другой стороны, для более глубоких слоев более актуальными становятся долгосрочные и горизонтально-симметричные взаимозависимости.В целях воспроизводимости наш код общедоступен на GitHub.Здесь мы напоминаем математическую формулировку слоев самообслуживания и подчеркиваем роль позиционных кодировок.Пусть $\in ^{T\times D_{\textit {in}}}$ — входная матрица, состоящая из токенов $T$ размерности ${D_{\textit {in}}}$ каждая.Хотя в НЛП каждый токен соответствует слову в предложении, тот же формализм можно применить к любой последовательности дискретных объектов $T$, например пикселей.Уровень самообслуживания отображает любой токен запроса $t \in[T]$ из измерений $D_{\textit {in}}$ в $D_{\textit {out}}$ следующим образом: Self-Attention()t,: := ( t,: ) val, где мы ссылаемся к элементам матрицы $T \times T$ := qrykey как оценки внимания и выходным данным softmax как вероятностям внимания.Слой параметризуется матрицей запроса $_{\!\textit {qry}}\in ^{D_{\textit {in}} \times D_{k}}$, ключевой матрицей $_{\!\textit {key}}\in ^{D_{\textit {in}} \times D_{k}}$ и матрица значений $_{\!\textit {val}}\in ^{D_{\textit {in} } \times D_{\textit {out}}}$.Для простоты мы исключаем любые остаточные связи, пакетную нормализацию и постоянные коэффициенты.Ключевым свойством описанной выше модели самообслуживания является то, что она эквивалентна переупорядочению, то есть дает один и тот же результат независимо от того, как перетасовываются входные токены $T$.Это проблематично в тех случаях, когда мы ожидаем, что порядок вещей имеет значение.Чтобы смягчить это ограничение, позиционное кодирование изучается для каждого токена в последовательности (или пикселя изображения) и добавляется к представлению самого токена перед применением самоконтроля := (+) qrykey(+), где $ \in ^{T \times D_{\textit {in}}}$ содержит векторы вложения для каждой позиции.В более общем смысле, $$ может быть заменено любой функцией, которая возвращает векторное представление позиции.На практике оказалось полезным воспроизвести этот механизм самообслуживания на нескольких головках, каждая из которых может сосредоточиться на разных частях входных данных, используя разные матрицы запросов, ключей и значений.При самообслуживании с несколькими головками выходные данные $N_h$ головок выходного измерения $D_h$ объединяются и проецируются на измерение $D_{\textit {out}}$ следующим образом: MHSA() := *concath[Nh][Self-Attentionh()] out + out и введены два новых параметра: матрица проекции $_{\!\textit {out}} \in ^{N_h D_h \times D_{\textit {out}} }$ и термин смещения $_{\textit {out}}\in ^{D_{\textit {out}}}$. Сверточные слои являются фактическим выбором для построения нейронных сетей, работающих с изображениями.Напомним, что задан тензор изображений $~\in ~^{W\times H \times D_{\textit {in}}}$ ширины $W$, высоты $H$ и $D_{\textit {in} }$ каналов, выходные данные сверточного слоя для пикселя $(i,j)$ определяются выражением Conv()i,j,: := (1, 2) K 1,2,:,: i+1, j +2, :+ , где $$ — $K \times K \times D_{\textit {out}} \times D_{\textit {in}}$ тензор веса, $\in ^{D_{\textit {out}}} $ — вектор смещения, и набор содержит все возможные сдвиги, возникающие при свертке изображения с ядром $K\times K$.Ниже мы рассмотрим, как можно адаптировать внимание к себе от одномерных последовательностей к изображениям.С изображениями, а не токенами, у нас есть запросы и ключевые пиксели $,\в [Вт] \раз[Ч]$. Соответственно, входными данными является тензор $$ размерности $W \times H \times D_{\textit {in}}$, и каждая оценка внимания связывает запрос и ключевой пиксель.Чтобы формулы соответствовали случаю 1D, мы злоупотребляем обозначениями и тензорами срезов, используя вектор индекса 2D: если $= (i,j)$, мы пишем $_{,:}$ и $_{,:}$ означает $_{i, j,:}$ и $_{i, j,:,:}$ соответственно.При таком обозначении выходные данные слоя самообслуживания с несколькими головками в пикселе $$ могут быть выражены следующим образом: Self-Attention(),: = ( ,: ) ,: val и, соответственно, для случая с несколькими головками.В архитектурах на основе преобразователей используются два типа позиционного кодирования: абсолютное и относительное (см. также вкладку:relworkattention в Приложении). При абсолютном кодировании используется (фиксированный или изученный) вектор $_{,:} $ присваивается каждому пикселю $$.Вычисление показателей внимания, которое мы видели в eq:attcoeff, можно затем разложить следующим образом: , abs = (,:+ ,:) qrykey(,: + ,:)= ,: qrykey,: + ,: qrykey,: + ,:qrykey,: + ,: qrykey,: где $$ и $$ соответствуют запросу и ключевым пикселям, соответственно.Относительное позиционное кодирование было введено BIBREF4.Основная идея состоит в том, чтобы учитывать только разницу положения между пикселем запроса (пикселем, представление которого мы вычисляем) и ключевым пикселем (пикселем, который мы посещаем) вместо абсолютного положения ключевого пикселя: , rel := ,: qry key , :+ ,: qry key + key ,: + key Таким образом, оценка внимания зависит только от сдвига ${{\delta }}:= - $.Вышеупомянутые обучаемые векторы $$ и $$ уникальны для каждой головы, тогда как для каждого сдвига ${{\delta }}$ относительное позиционное кодирование $_{{{\delta }}} \in ^{D_p}$ равно общий для всех слоев и руководителей.Более того, теперь веса ключей разделены на два типа: $_{\!\textit {key}}$ относятся к вводу и $\widehat{}_{\!\textit {key}}$ к относительному положению пикселей.В этом разделе выводятся достаточные условия, при которых слой самообслуживания с несколькими головками может моделировать сверточный слой.Наш основной результат состоит в следующем. Теорема 1.Слой самообслуживания с несколькими головками с $N_h$ головами размерности $D_h$, выходной размерностью $D_{\textit {out}}$ и относительным позиционным кодированием размерности $D_p \ge 3$ может выражать любой сверточный слой размер ядра $\sqrt{N_h} \times \sqrt{N_h}$ и $\min (D_h, D_{\textit {out}})$ каналов вывода.Теорема доказывается конструктивно путем подбора параметров многоголового слоя самообслуживания таким образом, чтобы последний действовал как сверточный слой.В предлагаемой конструкции оценки внимания каждой головы самовнимания должны соответствовать разным относительным сдвигам в пределах множества $\Delta \!\!\!\!\!\Delta _K = \lbrace -\lfloor K/2.\rпол, \dots,\lэтаж К/2\rfloor \rbrace ^2$ всех сдвигов пикселей в ядре $K\times K$.Точное условие можно найти в формулировке леммы UNKREF15. Затем лемма UNKREF17 показывает, что вышеупомянутое условие выполняется для относительного позиционного кодирования, которое мы называем квадратичным кодированием: (h):= -(ч) (1, -21(ч), -22(ч)) := (2 , 1, 2) qry = ключ := 0 ключ :=Изученные параметры ${{\Delta }}^{(h)} = ({{\Delta }}^{(h)}_1, {{\Delta }}^{(h)}_2)$ и $\ альфа ^{(h)}$ определяют центр и ширину внимания каждой головы соответственно.С другой стороны, ${{\delta }}= ({{\delta }}_1, {{\delta }}_2)$ фиксировано и выражает относительный сдвиг между запросом и ключевыми пикселями.Важно подчеркнуть, что приведенная выше кодировка — не единственная, для которой выполняются условия леммы UNKREF15.Фактически, в наших экспериментах относительное кодирование, изученное нейронной сетью, также соответствовало условиям леммы (несмотря на то, что оно отличалось от квадратичного кодирования).Тем не менее, кодирование, определенное выше, очень эффективно с точки зрения размера, поскольку только размеров $D_p = 3$ достаточно для кодирования относительного положения пикселей, а также достижения аналогичных или лучших эмпирических характеристик (чем изученная).Хотя формального доказательства у нас нет, мы предполагаем, что каждое кодирование, удовлетворяющее лемме UNKREF15, должно иметь как минимум три измерения.Сверточные слои, действующие на последовательности, обычно используются в литературе для текста BIBREF11, а также аудио BIBREF12 и временных рядов BIBREF13.Теорему UNKREF11 можно напрямую расширить, чтобы показать, что многоголовое самообслуживание с $N_h$ головами также может моделировать одномерный сверточный слой с ядром размера $K=N_h$ с $\min (D_h, D_{\textit {out }})$ выходные каналы с использованием позиционного кодирования размерности $D_p \ge 2$.Поскольку мы не проверяли эмпирически, соответствует ли предыдущая конструкция поведению одномерного самовнимания на практике, мы не можем утверждать, что она действительно учится свертывать входную последовательность — только то, что она обладает способностью делать это.Доказательство следует непосредственно из лемм UNKREF15 и UNKREF17, изложенных ниже: Лемма 1. Рассмотрим многоголовочный слой самообслуживания, состоящий из $N_h = K^2$ голов, $D_h \ge D_{\textit {out}}$ и пусть $ ~:~[N_h]~\rightarrow ~{\Delta \!\!\!\!\Delta }_K$ — биективное отображение головок на сдвиги.Далее, предположим, что для каждой головы выполнено следующее: ((h),:) = {ll 1 if (h) =-0 иначе. .Тогда для любого сверточного слоя с ядром $K \times K$ и выходными каналами $D_{\textit {out}}$ существует $\lbrace _{\!\textit {val}}^{(h)} \rbrace _{h \in [N_h]}$ такой, что $ \operatorname{MHSA}() = \operatorname{Conv}() $ для каждого $\in ^{W\times H \times D_{\textit {in}}}$.Нашим первым шагом будет переработка выражения оператора многоголового самообслуживания из (SECREF6) и (SECREF6) таким образом, чтобы эффект нескольких головок становится более прозрачным: MHSA() = out+ h[Nh] ((h)) val(h)выход[(h-1)Dh+ 1:ч Дч +1](h) Обратите внимание, что матрица значений каждой головы $_{\!\textit {val}}^{(h)} \in ^{D_{\textit {in}} \times D_{h}}$ и каждый блок изучается матрица проекции $_{\textit {out}}$ размерности $D_h \times D_{\textit {out}}$.Предполагая, что $D_h \ge D_{\textit {out}}$, мы можем заменить каждую пару матриц изученной матрицей $^{(h)}$ для каждой головы.Рассмотрим один выходной пиксель многоголового самовнимания: MHSA(),:= h[Nh] ( ((h),:) ,: ) (h) + outПо условиям леммы для $h$-й головки внимания вероятность внимания равна единице при $ = - (h)$ и нулю в противном случае.Таким образом, выходные данные слоя в пикселе $$ равны MHSA() = h.[Нч] - (ч),: (ч)+ out Для $K = \sqrt{N_h}$ вышесказанное эквивалентно сверточному слою, выраженному в уравнении.SECREF8: существует взаимно-однозначное отображение (предполагаемое отображением $$) между матрицами $^{(h)}$ для $h =[N_h]$ и матрицы $_{k_1,k_2,:,:}$ для всех $(k_1,k_2) \in [K]^2.$В архитектурах на основе трансформаторов часто устанавливают $D_h~= ~D_{\textit {out}}/N_h$, следовательно, $D_h < D_{\textit {out}}$. В этом случае можно увидеть, что $^{(h)}$ имеет ранг $D_{\textit {out}} - D_h$, которого недостаточно для выражения каждого сверточного слоя с помощью $D_{\textit {out} }$ каналы.Тем не менее, можно видеть, что любой $D_h$ из $D_{\textit {out}}$ выходов $\operatorname{MHSA}()$ может выражать выход любого сверточного слоя с выходными каналами $D_h$.Чтобы охватить оба случая, в формулировке основной теоремы мы утверждаем, что выходные каналы сверточного слоя должны быть $\min (D_h, D_{\textit {out}})$.На практике мы советуем объединять главы измерения $D_h = D_{\textit {out}}$ вместо разделения измерений $D_{\textit {out}}$ между головками, чтобы иметь точную перепараметризацию и отсутствие «неиспользуемых» размеров. каналы. Лемма 2.Существует относительная схема кодирования $\lbrace _{{\delta }}\in ^{D_p}\rbrace _{{{\delta }}\in \mathbb {Z}^2}$ с $D_p \ge 3$ и параметры $_{\!\textit {qry}}, _{\!\textit {key}}, \widehat{}_{\!\textit {key}},$ с $D_p \le D_k$ такие, что , для каждого ${{\Delta }}\in \Delta \!\!\!\!\Delta _K$существует некоторый вектор $$ (обусловленный ${{\Delta }}$), который дает $ (_{,:})_{} = 1 $, если $ - = {{\Delta }}$, и ноль в противном случае.По построению показано существование $D_p=3$-мерной схемы относительного кодирования, дающей требуемые вероятности внимания.Поскольку вероятности внимания не зависят от входного тензора $$, мы устанавливаем $_{\!\textit {key}}=_{\!\textit {qry}}={0}$, что оставляет только последний член уравнения :attrel.Установка $\widehat{}_{\!\textit {key}}\in ^{D_k\times D_p}$ в единичную матрицу (с соответствующим заполнением строк), дает $_{, } = ^{\top } _{{{\delta }}}$ где $\quad {{\delta }}:= - $.Выше мы предположили, что $D_p \le D_k$ такой, что никакая информация из $_{{{\delta }}}$ не теряется.Теперь предположим, что мы могли бы написать: , = -(- 2 + c) для некоторой константы $c$. В приведенном выше выражении максимальная оценка внимания для $_{, :}$ равна $-\alpha c$ и достигается для $_{, }$ при ${{\delta }}= {{\Delta }} $.С другой стороны, коэффициент $\alpha $ можно использовать для произвольного масштабирования разницы между $_{,{{\Delta }}}$ и другими показателями внимания.Таким образом, для ${{\delta }}= {{\Delta }}$ имеем (,:) = e-(- 2+c) 'e-((- ')- 2+c)= e-- 2 e-c ' e-(- ')- 2 e-c= e-- 2 ' e-(- ')- 2 = 1 1 + ' e-( - ')- 2 = 1 и для ${{\delta }}\ne {{\Delta }}$ уравнение принимает вид $ \lim _{\alpha \rightarrow \infty } (_{,:})_{ } = 0, $ ровно столько, сколько необходимо для выполнения условия леммы.Осталось доказать, что существуют $$ и $\lbrace _{{\delta }}\rbrace _{{{\delta }}\in \mathcal {Z}^2}$, для которых выполняется уравнение eq:isoattdecompose.Развернув правую часть уравнения, получим $ -\alpha (\Vert {{\delta }}- {{\Delta }}\Vert^2 + c)= -\alpha ( \Vert {{\delta }}\Vert ^2 + \Vert {{\Delta }}\Vert ^2 - 2\langle {{\delta }}, {{\Delta }}\rangle + в )\,.$Теперь, если мы установим $ = -\alpha \, (1, -2{{\Delta }}_1, -2{{\Delta }}_2) $ и $ _{{\delta }}= (\Vert {{ \delta }}\Vert ^2 , {{\delta }}_1, {{\delta }}_2), $ thenкоторый соответствует eq:isoattdecompose с $c = -\Vert {{\Delta }}\Vert ^2$ и доказательство закончено.Цель этого раздела — подтвердить применимость наших теоретических результатов, которые утверждают, что самовнимание может выполнять свертку, и изучить, действительно ли слои самообслуживания на практике учатся работать как сверточные слои при обучении на стандартном изображении. Классификационные задачи.В частности, мы изучаем взаимосвязь между самовниманием и сверткой с помощью квадратичных и изученных относительных позиционных кодировок.Мы обнаруживаем, что в обоих случаях полученные вероятности внимания имеют тенденцию соответствовать условиям леммы UNKREF15, что подтверждает нашу гипотезу.Мы изучаем модель полного внимания, состоящую из шести слоев самообслуживания с несколькими головками.Поскольку BIBREF9 уже показал, что сочетание функций внимания со сверточными функциями повышает производительность Cifar-100 и ImageNet, мы не концентрируемся на достижении современной производительности.Тем не менее, чтобы убедиться, что наша модель изучает значимый классификатор, мы сравниваем ее со стандартным ResNet18 BIBREF14.в наборе данных CIFAR-10 BIBREF15.Во всех экспериментах мы используем $2\times 2$ обратимую понижающую дискретизацию BIBREF16 на входе, чтобы уменьшить размер изображения, поскольку для хранения тензора коэффициента внимания требуется большой объем памяти графического процессора.Представление входного изображения фиксированного размера вычисляется как среднее объединение представлений последнего слоя и передается линейному классификатору.Мы использовали библиотеку PyTorch BIBREF17 и основывали нашу реализацию на преобразователях PyTorch.Мы публикуем наш код на Github, и все гиперпараметры находятся на вкладке:hyper-parameter в Приложении.В качестве первого шага мы стремимся убедиться, что с помощью кодирования относительного положения, представленного в (SECREF3), уровни внимания учатся вести себя как сверточные слои.Мы обучаем девять голов внимания на каждом уровне, чтобы они соответствовали ядрам $3\times 3$, используемым преимущественно в архитектуре ResNet.Центр внимания каждой головы $h$ инициализируется $\Delta ^{(h)} \sim \mathcal {N}({0}, 2_2)$.fig:isoduringtraining показывает, как начальные положения голов ( разные цвета) на слое 4 менялись во время обучения.Мы видим, что после оптимизации головы обращаются к определенному пикселю изображения, образуя сетку вокруг пикселя запроса.Наша интуиция о том, что Self-Attention, примененная к изображениям, изучает сверточный фильтр вокруг запрашиваемого пикселя, затем подтверждается. fig:isoattentionfinal отображает все внимание на каждом уровне модели в конце обучения.Видно, что на первых нескольких слоях головы имеют тенденцию сосредотачиваться на локальных шаблонах (уровни 1 и 2), в то время как более глубокие слои (слои 3–6) также обращают внимание на более крупные шаблоны, располагая центр внимания дальше от запрашиваемого пикселя. позиция.Мы также включаем в Приложение график положений внимания для большего количества голов ($N_h=16$), fig:isomanyheads отображает как локальные закономерности, аналогичные CNN, так и дальние зависимости.Интересно, что головы внимания не перекрываются и, кажется, расположены таким образом, чтобы максимально охватывать входное пространство.Чтобы убедиться, что наша модель самообслуживания работает так же хорошо, как и небольшая ResNet (tab:parametersize), на рисунке fig:learnedattentionmap мы показываем эволюцию точности теста на CIFAR-10 за 300 эпох обучения.ResNet сходится быстрее, но мы не можем установить, соответствует ли это свойству архитектуры или артефакту принятых процедур оптимизации.Наша реализация может быть оптимизирована для использования локальности гауссовских вероятностей внимания и значительного уменьшения количества FLOPS. Мы переходим к изучению позиционного кодирования, используемого на практике моделями полного внимания на изображениях.Мы реализовали схему 2D относительного позиционного кодирования, используемую BIBREF0, BIBREF9: мы изучаем вектор кодирования позиции $\lfloor D_p/2 \rfloor$ для каждой строки и каждого сдвига пикселя столбца.Следовательно, относительное позиционное кодирование ключевого пикселя в позиции $$ с пикселем запроса в позиции $$ представляет собой конкатенацию внедрения сдвига строки ${{\delta }}_1$ и внедрения сдвига столбца ${{\delta }}. _2$ (где ${{\delta }}= - $).В эксперименте мы выбрали $D_p = D_{\textit {out}} = 400$.Мы отличаемся от (неопубликованной) реализации, описанной BIBREF0, в следующих моментах: (i) мы не используем основу свертки и узкие места ResNet для понижающей дискретизации, а только $2\times 2$ обратимый слой понижающей дискретизации BIBREF16 на входе, (ii) мы используйте $D_h = D_{\textit {out}}$ вместо $D_h = D_{\textit {out}} / N_h$, основываясь на нашей теории о том, что эффективное количество обученных фильтров равно $\min (D_h, D_{\ textit {out}})$, (iii) оценки внимания вычисляются с использованием только относительных положений пикселей, а не данных.Как видно из tab:parametersize, наша реализация обеспечивает точность, близкую к точности ResNet18. Вероятности внимания каждой головы на каждом слое отображаются на fig:learnedattentionmap.Рисунок подтверждает нашу гипотезу для первых двух слоев и частично для третьего: даже когда им остается изучить кодировку на основе данных, определенные головы самообслуживания (изображенные слева) учатся обслуживать отдельные пиксели, что близко соответствует состоянию Лемма UNKREF15 и, следовательно, теорема UNKREF11.В то же время другие руководители обращают внимание на горизонтально-симметричные, но нелокализованные паттерны, а также на дальние взаимозависимости пикселей.Это явление особенно заметно для слоев с четвертого по шестой, где поведение самовнимания отклоняется от поведения свертки.Мы также замечаем, что вертикальная симметрия гораздо реже встречается в вероятностях усвоенного внимания на высоких уровнях.Это соответствует интуиции, согласно которой для классификации изображений более важно различать то, что находится выше или ниже чего-либо, чем то, что находится слева или справа.Наконец, тот факт, что некоторые из голов в последних двух слоях кажутся избыточными, вероятно, указывает на то, что вычислительную и пространственную сложность модели можно было бы дополнительно уменьшить, например, путем обрезки.Мы показали, что слои самообслуживания, примененные к изображениям, могут выражать любой сверточный слой (при наличии достаточного количества голов) и что изученные модели полного внимания на практике ведут себя аналогично CNN.В более общем смысле, модели с полным вниманием, похоже, изучают обобщение CNN, где шаблон ядра изучается одновременно с фильтрами — аналогично деформируемым сверткам BIBREF18, BIBREF19.Интересные направления будущей работы включают перевод существующих идей из обширной литературы по CNN обратно в преобразователи различных модальностей данных, включая изображения, текст и временные ряды.Кроме того, хотя в настоящее время нам не хватает вычислительных ресурсов для этого, нам было бы интересно проверить, воспроизводятся ли наши результаты для наборов данных более крупного масштаба, таких как ImageNet и COCO. Мы заметили сходство вероятностей внимания в квадратичном позиционном кодировании. (sec:attentioncanimplementcnn) к изотропным двумерным гауссовским распределениям с ограниченной поддержкой: (, :) = e-(- ) -2' [W] [H] е-(' - ) - 2 .Основываясь на этом наблюдении, мы расширили наш механизм внимания на неизотропное распределение Гаусса по позициям пикселей.Каждая голова параметризуется центром внимания ${{\Delta }}$ и ковариационной матрицей $$ для получения следующих показателей внимания: , = -1 2 (- )-1(- ) = -1 2-1 + -1 - 1 2 -1 , где еще раз ${{\delta }}= - $.Последний член можно отбросить, поскольку softmax инвариантен к сдвигу, и мы переписываем коэффициент внимания как скалярное произведение между целевым вектором головы $$ и кодировкой относительного положения $_{{{\delta }}}$ (состоящей из первых и комбинации сдвига пикселей второго порядка ${{\delta }}$): Мы обучили нашу модель, используя это обобщенное квадратичное кодирование относительного положения.Нам было любопытно посмотреть, научится ли модель самообслуживания, используя приведенное выше кодирование, обслуживать неизотропные группы пикселей, формируя таким образом невидимые закономерности в CNN.Каждая голова была параметризована ${{\Delta }}\in ^2$ и $^{-1/2} \in ^{2\times 2}$, чтобы гарантировать, что ковариационная матрица оставалась положительной полуопределенной.Мы инициализировали центр внимания ${{\Delta }}^{(h)} \sim \mathcal {N}(\mathbf {0}, 2 _2)$ и $^{-1/2} = _2 + \mathcal {N}(\mathbf {0}, 0,01 _2)$так что начальные вероятности внимания были близки к изотропной гауссиане.рис:Nonisoattentionfinal показывает, что сеть действительно усвоила неизотропные модели вероятности внимания, особенно на верхних уровнях.Тем не менее, тот факт, что мы не получили какого-либо улучшения производительности, по-видимому, предполагает, что неизотропия внимания не особенно полезна на практике — достаточно квадратичного позиционного кодирования.Мы заметили, что некоторые неизотропные головы внимания посещали «неинтуитивные» участки пикселей: либо посещали очень тонкую полоску пикселей, когда $^{-1}$ был почти сингулярным, либо равномерно посещали все пиксели, когда $^ {-1}$ было близко к $\mathbf {0}$ (т. е. постоянные оценки внимания).Мы спросили себя, действительно ли такие модели внимания полезны для модели или эти головы выродились и не используются?Чтобы выяснить это, мы отсекли все головки, чьи наибольшие собственные значения меньше $10^{-5}$ или число обусловленности (отношение самых больших и наименьших собственных значений) больше $10^5$. В частности, в нашей модели с 6 слоями и 9 головками в каждой мы обрезали $[2, 4, 1, 2, 6, 0]$ головок от первого до последнего слоя.Это означает, что эти слои больше не могут выражать ядро $3 \times 3$.Как показано желтым цветом на fig:learningcurve, такое удаление изначально немного ухудшает производительность, вероятно, из-за отклонений, но после нескольких периодов непрерывного обучения с меньшей скоростью обучения (деленной на 10) точность восстанавливает свое необрезанное значение.Следовательно, не жертвуя производительностью, мы уменьшаем размер параметров и количество FLOPS на четверть.Для полноты картины мы также протестировали увеличение количества голов в нашей архитектуре с 9 до 16. Как показано на рисунке FigREF23, мы видим, что сеть различает два основных типа моделей внимания.Локализованные головки (т. е. те, которые обслуживают почти отдельные пиксели) чаще появляются в первых нескольких слоях.Уровень самообслуживания использует эти головки, чтобы действовать аналогично тому, как это делают сверточные слои.Головы с менее локализованным вниманием чаще встречаются на более высоких уровнях. | Недавние тенденции включения механизмов внимания в зрение заставили исследователей пересмотреть превосходство сверточных слоев как основного строительного блока. Помимо помощи CNN в обработке долгосрочных зависимостей, Рамачандран и др. (2019) показали, что внимание может полностью заменить свертку и добиться высочайшей производительности при решении зрительных задач. Возникает вопрос: действуют ли выученные слои внимания аналогично сверточным слоям? Эта работа доказывает, что слои внимания могут выполнять свертку и, действительно, они часто учатся делать это на практике. В частности, мы доказываем, что многоголовочный слой самообслуживания с достаточным количеством голов по крайней мере так же эффективен, как и любой сверточный слой. Наши численные эксперименты показывают, что это явление встречается и на практике, что подтверждает наш анализ. Наш код общедоступен. | 5,920 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Предложение по созданию персонализированной ансамблевой диалоговой системы, основанной на знаниях и самостоятельной игре. Подсказка: как ваша команда видит своего социального бота?Что вы хотите, чтобы ваши клиенты чувствовали себя в конце взаимодействия с вашим социальным ботом?Как ваша команда будет измерять успех на соревнованиях? Наше видение состоит из следующих основных пунктов:1.Естественный, увлекательный и основанный на знаниях разговорный опыт.Это стало возможным благодаря социальному боту, который может обрабатывать все виды тем и переключать темы более естественно, чем нынешние боты Alexa.Наша цель не обязательно состоит в том, чтобы у пользователя возникло ощущение, будто он разговаривает с человеком.2.Более естественная обработка тем и переключение тем.Включение знаний в нейронные модели BIBREF0 и использование набора данных тематических чатов Amazon могут помочь улучшить существующие социальные боты в этом аспекте.Построение более глубокой и персонализированной связи с пользователем.Мы считаем, что предложение индивидуального опыта так же важно, как и возможность говорить на широкий круг тем BIBREF1.4.Последовательность.Последовательность — еще один важный аспект разговоров, который мы хотим учитывать с помощью наших пользовательских моделей.5.Разнообразие и интересность.Социальный бот должен давать разнообразные и интересные ответы, и у пользователя никогда не должно возникнуть ощущение, что он просто повторяет то, что он сказал ранее.В конце взаимодействия клиенты должны чувствовать, что они только что весело поговорили, возможно, узнали что-то новое и с нетерпением ждут возможности снова поговорить с ботом.На протяжении всего диалога клиенты должны чувствовать, что социальный бот интересуется ими и их темами и может предложить ценную информацию и мнения.Также важно предлагать актуальные темы в увлекательной форме.Пользователи никогда не должны чувствовать, что бот не заинтересован или не может продолжить разговор.Именно по этой причине мы классифицируем и рассчитываем наши показатели для каждого пользовательского ввода, чтобы получить представление об участии пользователей в текущем разговоре.Нашими основными мерами успеха являются: - Отзывы пользователей. - Сравнение с другими диалоговыми системами в A/B-тестах. - Автоматические метрики.Мы будем измерять успех частично, глядя на отзывы пользователей.Мы ожидаем, что рейтинги нашего социального бота будут постоянно расти, а устные отзывы будут становиться более позитивными на протяжении всего конкурса.Мы планируем классифицировать устную обратную связь с помощью простого классификатора настроений, чтобы количественно оценить степень улучшения.Для нас важно работать с клиентами и постоянно улучшать качество общения на основе отзывов.Успех также будет измеряться путем сравнения нашей системы с предыдущими социальными ботами или другими диалоговыми системами в A/B-тестах с участием краудсорсинговых оценщиков.Наша цель — вести долгие и качественные разговоры, но долговечность не должна обеспечиваться неловко длинными, конкретными и вынужденными ответами, как в случае с некоторыми из нынешних социальных ботов.Хотя в целом более продолжительный разговор лучше, это не единственный показатель, который мы хотим учитывать.Помимо пользовательских рейтингов, у нас также есть множество автоматических показателей, которые мы хотим улучшить, таких как метрики, измеряющие глубину и широту темы BIBREF2, энтропийные метрики, измеряющие разнообразие, или встроенные метрики, измеряющие согласованность BIBREF3.Различные метрики измеряют разные аспекты ответов, поэтому важно не рассматривать метрики только по отдельности.Подсказка: поделитесь примером взаимодействия/разговора, которого вы ожидаете от своего социального робота к концу конкурса.Пользователь: Алекса, давай пообщаемсяАлекса:Добро пожаловать на Alexa Prize.SYS:Привет, <имя пользователя>, о чём ты хочешь поговорить? Пользователь: Я не знаю, тебе решать.СИС: А как насчет книг?Я помню, что ты любил книги, но какую книгу ты прочитал последней? Пользователь: Хм, кажется, это был «Американский психопат».SYS: Один из моих любимых. Вы знали, что есть экранизация? Пользователь:No.SYS: Это очень хорошо.Вы сейчас что-то читаете, а если нет, то я могу дать несколько рекомендаций.Пользователь: Пристрели меня.SYS: Я слышал, что «Молчание ягнят» действительно хорошо. Пользователь:Да, я смотрел фильм, но никогда не читал книгу, возможно, я возьму ее. SYS:Рад, что смог быть полезен.Пользователь: Какой твой любимый фильм? SYS: Мне очень понравился «Бегущий по лезвию», а ты? Пользователь: Я его ненавидел. SYS:Ах, это очень плохо, но мне также нравится твой любимый фильм, если я правильно помню, «Мстители». Пользователь:Ух ты, я удивлен, что ты это помнишь, но думаю, у тебя должна быть идеальная память.СИС: К сожалению, моя память не идеальна, но я стараюсь изо всех сил.Пользователь: Какое ваше самое раннее воспоминание? SYS: Я был очень маленьким и играл в песке, это все, что я помню. Вы? Пользователь:Ух, не знаю, может быть, когда мне было четыре, я упал с качелей.СИС: Должно быть, это было больно, у тебя хватило смелости снова покататься на качелях?Пользователь: Конечно, это было не так уж и важно.СИС: Рад это слышать.Раз уж мы уже заговорили о качелях, вам нравится жанр свинга? Пользователь:Да, особенно электросвинг.СИС: Я тоже!Я люблю Паров Стелар!Пользователь:Хаха, я думаю, что он немного переоцененно да, мне нравится смотреть на YouTube подборки людей, танцующих под это.SYS: Хотел бы я так хорошо танцевать. Пользователь:Да, я тоже.SYS: Какие еще подборки на Youtube ты смотришь? Пользователь:Не получается, и кошкиSYS: Кошки слишком милые, у вас есть такие? Пользователь: Нет, может быть, когда-нибудь.SYS:Что ж, я надеюсь, что однажды у тебя появится кот.Пользователь: Можешь мне его достать? SYS:К сожалению, я не могу, но могу сказать мур-мур-мур.Подсказка: подробно опишите свой научный подход и связанную с ним системную архитектуру.Планируйте масштабную работу при определении архитектуры.Архитектура нашей системы (рис. РИС. 1) состоит из 3 основных компонентов:Сначала пользовательский ввод обрабатывается через компонент myblueNLP, затем эти данные отправляются в myyellowResponse Candidates, который содержит набор нейронных моделей и моделей на основе правил, и, наконец, диспетчер mygreenDialog выбирает лучший ответ с учетом истории диалогов и текущих данных myblueNLP. .Эти компоненты взаимодействуют друг с другом через диспетчер состояний mygrayDialog, а компонент myredKnowledge Base, к которому наши компоненты могут обращаться с запросами, хранит наши базы знаний.Мы работаем на базе CoBot BIBREF2, поэтому система является масштабируемой и можно легко добавлять новые компоненты.Мы используем архитектуры бывших конкурентов Alexa BIBREF4, BIBREF5.Мы минимизируем задержку, запуская задачи параллельно, когда это возможно, чтобы разговор выглядел естественным.Также включена некоторая избыточность (например, в виде генераторов множественных ответов), и мы определяем фиксированное временное окно для каждого основного шага нашего конвейера, после чего мы прерываем текущий компонент и используем информацию, уже вычисленную из подкомпонентов в следующий шаг, сокращающий общее время обработки.Мы будем разрабатывать нашу систему в три этапа (рис. РИС. 1):Компоненты с пометками core, core+ и core++ должны быть завершены к концу этапов 5, 7 и 9 соответственно.Это минимально запланированные компоненты для каждой категории, но если позволит время, мы будем продвигаться быстрее.Это дает нам поэтапный и итеративный подход к построению нашей архитектуры, начиная с наиболее важных компонентов, всегда тестируя включенные компоненты перед переходом к новым.Наши основные новинки включают в себя:[topsep=2pt,itemsep=-1ex,partopsep=1ex,parsep=1ex]Использование стратегий самостоятельной игры для обучения ранжера нейронных реакций.Вычисление большого количества метрик как для ввода, так и для ответа, а также конкретная оптимизация некоторых моделей для наших метрик.Обучение отдельной диалоговой модели для каждого пользователя.Использование предсказателя классификации ответов и классификатора ответов для прогнозирования и управления аспектами ответов.Прогнозирование того, какая модель выдаст лучший ответ, прежде чем генерировать ответ.Используя наш подход к фильтрации на основе энтропии для фильтрации наборов данных диалога BIBREF3. Используя большие предварительно обученные иерархические модели BERT и GPT BIBREF6, BIBREF7, BIBREF8. Далее мы подробно описываем каждый компонент в порядке потока данных.Это включено в CoBot, и мы расширяем его для управления текущим состоянием диалога (т. е. разговоров и связанных с ними данных, описанных ниже), сохраняя их в DynamoDB BIBREF9, когда это необходимо.DynamoDB хранит все прошлые состояния диалогов для каждого пользователя.Диспетчер состояний GrayDialog взаимодействует с компонентами myblueNLP и mygreenDialog Manager, которые могут обновлять состояние диалога.Он работает параллельно со всеми компонентами, поэтому не влияет на задержку. Данные mygrayASR отправляются в первый компонент конвейера (myblueNLP), начиная с постпроцессора myblueASR.Если показатель достоверности расшифрованного высказывания ниже определенного порога, конвейер прерывается, и мы возвращаем ответ с просьбой к пользователю повторить или перефразировать свое предложение.В противном случае, если достоверность выше этого значения, но все же ниже среднего, мы рассматриваем n-лучшие гипотезы mygrayASR и пытаемся исправить высказывание на основе контекста (планируется, что это будет частью core++.).Исправленное высказывание передается всем подкомпонентам, работающим параллельно.Время токена также сохраняется в состоянии диалога и используется в качестве дополнительных входных данных для моделей диалога, поскольку это может помочь распутать отдельные фразы.Мы используем и расширяем некоторые встроенные компоненты НЛП CoBot (классификаторы myblueNER, myblueTopic, myblueSentiment и myblueOffensive Speech), а также добавляем свои собственные.Именованные объекты извлекаются, и мы используем myredNeptune BIBREF10 и myredGoogle Knowledge Graph BIBREF11, чтобы получить связанные объекты и фрагменты информации о них.Классификаторы речи myblueTopic, myblueDialog Act, myblueSentiment и myblueOffensive учитывают предыдущие состояния диалога (контекст) из DynamoDB.Мы сохраняем всю информацию в DynamoDB и строим статистику о пользователе (например, какие у него любимые темы).Мы вычисляем все наши показатели автоматической оценки BIBREF3 для высказываний пользователя, что полезно для стратегии выбора ответа (например, если мы обнаружим, что пользователю скучно, мы попытаемся предложить новую тему на основе сохраненной информации о пользователе).После завершения работы всех подкомпонентов или превышения временного окна все данные отправляются в диспетчер состояний mygrayDialog.Мы также планируем поэкспериментировать со вставкой шага прогнозирования классификации ответов (mygreenRCP), который прогнозирует тему, диалог и настроение ответа, используя контекст и текущие данные myblueNLP.Прогнозируемая информация об ответе добавляется в состояние диалога, и модели диалога в myyellowResponse Candidates могут ее использовать.Мы также планируем поэкспериментировать с использованием этой информации для управления желаемыми аспектами ответа3. BIBREF12. Как только myblueNLP и mygreenRCP завершатся, диспетчер состояний mygrayDialog отправляет текущее состояние диалога нашим диалоговым моделям, работающим параллельно.Большинство моделей также будут использовать историю разговоров и информацию о пользователях из DynamoDB.Ансамблевое моделирование, распространенный метод почти во всех социальных роботах Alexa BIBREF5, BIBREF2, улучшает качество ответов, поскольку у нас могут быть разные модели, относящиеся к различным областям и ситуациям.Модели, основанные на правилах, включают myyellowEvi (встроенный в CoBot) и общедоступные AIML-части myyellowAlice BIBREF13 и myyellowMitsuku,3.Основой всех нейронных моделей является большая иерархическая модель на основе BERT или GPT, предварительно обученная на недиалоговых данных BIBREF8, BIBREF14.Иерархическая часть гарантирует, что наши модели основаны на прошлых высказываниях и что они по-разному реагируют на одно и то же входное высказывание (поскольку прошлое разное).Мы также планируем экспериментировать со вставкой слоев BERT в вариационные модели3 BIBREF15, BIBREF16, которые могут дать более интересные и недетерминированные ответы.Далее мы совместно обучаем наши предварительно обученные модели на всех доступных наборах диалоговых данных.Наконец, мы настраиваем модели myyellowTopic для наборов данных, связанных с конкретными темами (например, сабреддиты), тогда как модели myyellowMetric настраиваемся совместно для всех наборов данных диалогов, но мы заменяем функцию потерь определенной метрикой (например, согласованностью, разнообразием и т. д.).Модели myyellowMetric могут фокусироваться на конкретных свойствах диалога и обеспечивать разнообразие и привлекательность создаваемых ответов.Мы обучаем модели с дополнительными аннотациями (например, темой, настроением в DailyDialog BIBREF17 или использованием фрагментов знаний BIBREF0 через новый набор данных тематического чата Amazon).Существует несколько проблем с функцией перекрестных энтропийных потерь BIBREF18, BIBREF3, BIBREF19, BIBREF20, BIBREF21, BIBREF22, BIBREF23, и мы предложили использовать все виды функций BIBREF18, мотивируя использование аннотаций, вычисленных с помощью myblueNLP, которые помогают исправить потери. функциональная проблема и дает более интересные и разнообразные ответы BIBREF24, BIBREF17, BIBREF25, BIBREF26, BIBREF27, BIBREF0, BIBREF28, BIBREF29.Мы используем два варианта каждой модели myyellowTopic и myyellowMetric: нейронную генеративную и поисковую, которая просто возвращает n-лучших ответов из обучающих данных.MyyellowUser Model4 — это модель диалога для конкретного пользователя, настроенная на диалоги между пользователем и Alexa.Она будет как минимум на порядок меньше, чем другие модели, поскольку нам придется обучать и хранить веса (в DynamoDB) одной модели для каждого пользователя.С помощью этой модели мы можем кодировать информацию о пользователе, и модель может оставаться более согласованной (если она обучена с использованием собственных ответов в качестве целей).Персонализация нашей системы важна, и мы считаем, что благодаря этому нашему чат-боту будет приятнее общаться с BIBREF1.Модель myyellowWikiSearch просто выполняет поиск в myredWikidata BIBREF30 и возвращает соответствующие предложения, которые мы можем рассматривать как ответы.Аналогичная модель используется для живого API Washington Post, чтобы быть в курсе событий и новостей.Мы также планируем поэкспериментировать с настройкой ансамблевой модели, в которой все кандидаты на ответ пословно объединяются в один ответ, который можно рассматривать как дополнительный кандидат на ответ.С помощью модели myyellowUser и моделей myyellowTopic, дополненных знаниями, наша цель — добиться увлекательного и интересного разговора, в котором обработка тем и переключение тем происходят более естественно, чем в нынешних социальных роботах Alexa.На начальных этапах конкурса мы планируем экспериментировать с как можно большим количеством моделей и с помощью краудсорсинга исключать из нашей системы модели, генерирующие некачественные ответы.Как только все диалоговые модели вычислят ответ или истечет время ожидания, мы отправляем кандидатов на ответ в диспетчер mygreenDialog.MygreenModel Predictor4 работает параллельно с моделями диалогов, пытаясь предсказать, какая модель сгенерирует лучший ответ на основе состояния диалога и контекста.Если мы обнаружим, что такая модель может точно предсказать выбранную модель (с помощью mygreenResponse Ranker), то мы сможем значительно снизить вычислительные затраты за счет сокращения количества моделей, необходимых для получения ответа.Мы планируем поэкспериментировать с несколькими стратегиями выбора ответов (mygreenResponse Ranker) и оценить их с помощью краудсорсинговых оценщиков в A/B-тестах.На начальных этапах (основная часть) конкурса мы планируем использовать безопасные базовые стратегии, такие как выбор ответов только из моделей поиска и правил, использование стратегии выбора CoBot и ранжирование ответов с использованием взвешенной суммы по всем показателям.Наша конечная цель — научиться нейронному ранкеру, который принимает в качестве входных данных состояние диалога, контекст и кандидатов на ответ (а также их оценки вероятности в случае нейронных моделей) и выводит лучший ответ4.Один из подходов — использовать краудсорсинг для сбора обучающих данных для рейтингера, позволяя людям выбирать лучший ответ среди кандидатов.Мы также планируем использовать отзывы пользователей при обучении с подкреплением BIBREF5.В финальной версии ранкера мы планируем поэкспериментировать с самостоятельной игрой3 BIBREF31, BIBREF32, BIBREF12, подробно описанной в документе о новых подходах к приложению.По сути, как во время обучения, так и во время тестирования мы можем выполнять развертывание с помощью ранкера, где диалоговая система передает свой ответ самой себе, чтобы фильтровать ответы, которые приводят к плохим разговорам.Это трудоемкий метод вычислений, который будет настроен на желаемую задержку.Чтобы повысить достоверность выбора, мы будем использовать соглашение между прогнозом mygreenModel и выбранным ответом, а также между классификатором mygreenResponse и mygreenRCP.Классификатор mygreenResponse использует компонент myblueNLP для вычисления тех же данных, что и mygreenRCP, и полезен для ранжирования ответов mygreenResponse Ranker на основе того, являются ли они оскорбительными, по теме, позитивными, интересными и т. д., обеспечивая веселый и интересный разговор. .Таким образом, ранкер mygreenResponse использует все компоненты диспетчера mygreenDialog перед выдачей окончательного ответа, который отправляется в mygrayTTS Alexa.И mygreenRCP, и предиктор mygreenModel обучены, поэтому они аппроксимируют свои аналоги-кандидаты после myyellowResponse (классификатор mygreenResponse и ранкер mygreenResponse).Этот обучающий сигнал также можно использовать в функции потерь моделей нейронного диалога.Подсказка: Что нового в подходе команды?(Это может быть совершенно новый подход или новая комбинация известных методов). Наши новинки включают в себя: Использование самостоятельного обучения для ранжирования нейронных реакций (подробно описано ниже). Оптимизация нейронных моделей для конкретных показателей (например, разнообразия, согласованности) в наших установка ансамбля.Обучаем отдельную модель диалога для каждого пользователя, персонализируем нашего социального бота и делаем его более последовательным.Использование предсказателя классификации ответов и классификатора ответов для прогнозирования и контроля таких аспектов ответов, как тональность, тема, обидность, разнообразие и т. д.Использование предиктора модели для прогнозирования модели с лучшим ответом до того, как будут созданы кандидаты на ответ, что снижает вычислительные затраты.Использование нашей технологии фильтрации на основе энтропии для фильтрации всех наборов диалоговых данных и получения более качественных обучающих данных BIBREF3. Создание больших, предварительно обученных иерархических моделей диалогов BERT и GPT BIBREF6, BIBREF7, BIBREF8. Постоянное отслеживание вводимых пользователем данных с помощью наших автоматических показателей, обеспечивающих что пользователь остается вовлеченным.Самостоятельная игра BIBREF31, BIBREF32 предлагает решение проблемы нехватки наборов диалоговых данных и проблем, возникающих при использовании перекрестной энтропийной потери в качестве целевой функции BIBREF18, BIBREF3.В нашей настройке диалоговая система разговаривала бы сама с собой, выбирая лучший ответ с помощью нейронного ранкера на каждом этапе.Через несколько ходов мы награждаем ранкера на основе сгенерированного разговора.Наши идеи вознаграждения включают взвешенную сумму показателей, а также использование краудсорсинга и рейтингов пользователей.Кроме того, мы хотим изучить две захватывающие схемы самостоятельной игры: 1.Состязательная установка, в которой ранкер обучается генерировать диалог путем самостоятельной игры, чтобы обмануть нейронный дискриминатор, решающий, создан ли он машиной или человеком.2.Мы применяем идеи любопытства и случайной дистилляции сети для обучения нейронного ранкера BIBREF32.Мы также планируем поэкспериментировать с идеями самостоятельной игры для некоторых отдельных моделей нейронных диалогов.Подсказка: предоставьте краткое описание технической работы/исследований (имеющих отношение к предлагаемой вами архитектуре), ваших или других, которые вы будете использовать и каким образом.Мы используем классификаторы тем, диалоговых актов и настроений, которые широко используются в литературе BIBREF4.В нашей системе мы используем ботов, основанных на правилах, поскольку они могут предоставлять другой класс ответов, чем нейронные модели.Мы используем последние модели НЛП BIBREF6, BIBREF7, настраивая их на наших наборах данных диалогов и модифицируя их, чтобы они больше подходили для моделирования диалогов, например делая их иерархическими или интегрируя их в другие современные модели диалога BIBREF15, BIBREF16.Мы используем базовые рейтинги ответов и адаптируем идеи из областей подкрепления и обучения самостоятельной игре для моделирования диалогов BIBREF5, BIBREF12, BIBREF32. Мы и другие обнаружили, что функция потери перекрестной энтропии проблематична и является основной причиной создания коротких и скучные ответы BIBREF18, BIBREF19, BIBREF20, BIBREF21, BIBREF33, BIBREF23.Чтобы исправить это, мы используем нашу идею фильтрации наборов данных диалога на основе энтропии, получая более качественные обучающие данные BIBREF3.Мы решаем проблему функции потерь, используя различные функции и показатели (из компонента НЛП) и фрагменты знаний (используя новый набор данных тематического чата и Викиданные), которые могут помочь нейронным моделям генерировать более естественные и разнообразные ответы BIBREF24, BIBREF17, BIBREF26, BIBREF27. , BIBREF0, BIBREF29. Мы создаем, модифицируем и расширяем архитектуры CoBot и бывших конкурентов, поскольку они обеспечивают прочную основу для нашей диалоговой системы BIBREF4, BIBREF5.Постобработка ASR и нейронный ранкер, выбирающий между кандидатами на ответ, — это некоторые методы, которые мы включаем в нашу архитектуру.Подсказка: как вы обеспечите создание интересного для пользователей опыта? У нас есть несколько механизмов для обеспечения привлекательного опыта: мы классифицируем высказывания пользователей по темам, настроениям и т. д. и рассчитываем наши автоматические показатели, используя эту информацию при выборе и генерации ответов. .Если мы обнаружим, что пользователь потерял интерес к разговору, мы можем предложить новую тему, соответствующую его интересам (с помощью нашей темы и моделей пользователей). Мы также классифицируем кандидатов на ответы, чтобы убедиться, что они интересны и актуальны.С помощью моделей BIBREF0, дополненных знаниями, мы предлагаем пользователю интересный и информативный диалог естественным образом, что способствует его вовлеченности.Персонализация с помощью наших пользовательских моделей является важным фактором вовлеченности.Если пользователь чувствует, что социальный бот способен запомнить и включить прошлую информацию о нем в свои ответы, то это напрямую способствует построению более глубокой связи с пользователем и поддержанию его интереса.Определение максимальной задержки для нашего конвейера — небольшая, но важная функция, обеспечивающая постоянную вовлеченность пользователей.Мы планируем активно использовать отзывы пользователей (путем классификации устных отзывов и использования рейтингов для уточнения рейтинга ответов) для улучшения нашей системы.Подсказка: Как, по вашему мнению, ваша работа повлияет на область разговорного ИИ? Мы стремимся продвинуть область диалогового ИИ и моделирования нейронных диалогов с помощью трех основных новинок: самостоятельного обучения, решения проблемы функции потерь и персонализации.Мы считаем, что вместо использования компонентов на основе правил и менеджеров диалогов на основе правил наша усовершенствованная система нейронных ансамблей, основанная на самостоятельной игре, гораздо более способна к масштабированию и станет большим шагом вперед в этой области на пути к достижению лучшего опыта общения. .Наша работа популяризирует идею самостоятельной игры и устранит некоторые проблемы существующих моделей нейронного диалога.Мы считаем, что применение самостоятельной игры на уровне ранжирования ответов — это недостаточно исследованная идея, с помощью которой мы потенциально могли бы обучать гораздо лучших диалоговых агентов, чем нынешние.Мы считаем, что наши комбинированные подходы решат проблемы с обучением через функцию перекрестной энтропии и создадут более разнообразные и интересные модели диалога BIBREF18, BIBREF3.К ним относятся внесение классификации и аннотаций показателей в наши нейронные модели, оптимизация моделей специально для наших показателей и использование самостоятельной игры.С точки зрения пользователя, персонализация в диалоговых агентах является одним из наиболее важных аспектов, которых не хватает нынешним социальным ботам, и на который мы хотим оказать большое влияние с помощью наших пользовательских моделей. | Это заявка на участие в конкурсе Amazon Alexa 2019 года. Мы даем общее видение нашего разговорного опыта, а также пример разговора, которого мы хотели бы достичь в нашей диалоговой системе к концу конкурса. Мы считаем, что персонализация, знания и самостоятельная игра являются важными компонентами улучшения чат-ботов. Они дополнительно освещены в нашем подробном предложении по архитектуре системы и в разделе новинок. Наконец, мы описываем, как мы обеспечим интересный опыт, как это исследование повлияет на эту область и связанную с ней работу. | 3,832 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Анализ непроективных зависимостей с нелокальными переходами. Жадные парсеры на основе переходов популярны в НЛП, поскольку они обеспечивают конкурентоспособную точность при высокой эффективности.Они синтаксически анализируют предложение, жадно применяя переходы, которые читают его слева направо и создают дерево зависимостей.Однако этот жадный процесс склонен к распространению ошибок: один неправильный выбор перехода может привести синтаксический анализатор в ошибочное состояние, что приведет к еще большему количеству неверных решений.Это особенно важно для длинных вложений, требующих большего количества переходов.Кроме того, анализаторы на основе переходов традиционно сосредотачиваются только на двух словах предложения и их локальном контексте, чтобы выбрать следующий переход.Отсутствие глобальной перспективы благоприятствует наличию ошибок при создании дуг, включающих множественные переходы.Как и ожидалось, анализаторы на основе переходов строят короткие дуги более точно, чем длинные BIBREF0. Предыдущие исследования, такие как BIBREF1 и BIBREF2, доказывают, что широко используемый анализатор переходов на основе проективной дуги Nivre2003 выигрывает от сокращения длины последовательностей переходов за счет создания нелокальные вложения.В частности, они дополнили исходную систему переходов новыми действиями, поведение которых влечет за собой более одного резкого перехода и включает контекст, выходящий за рамки традиционных двух фокусных слов. attardi06 и sartorio13 также с тем же успехом расширили стандартный алгоритм переходов BIBREF3, основанный на дуге.В том же духе мы представляем новую неограниченную непроективную систему переходов, основанную на хорошо известном алгоритме covington01fundamental, который сокращает последовательность переходов, необходимую для анализа данного предложения с помощью исходного алгоритма, который становится линейным, а не квадратичным по отношению к предложению. длина.Для достижения этой цели мы предлагаем новые переходы, которые влияют на нелокальные слова и эквивалентны одному или нескольким действиям Ковингтона, аналогично переходам, определенным Qi2017 на основе анализатора arc-eager.Эксперименты показывают, что этот новый вариант значительно превосходит исходный во всех протестированных наборах данных и обеспечивает наилучшую заявленную точность для жадного анализатора зависимостей при преобразовании Стэнфордских зависимостей WSJ Penn Treebank.Исходный непроективный парсер, определенный covington01fundamental, был смоделирован в рамках структуры синтаксического анализа на основе переходов от Nivre2008.Мы только кратко обрисуем эту систему перехода из соображений экономии места и обратимся к BIBREF4 за подробностями.Конфигурации синтаксического анализатора имеют форму INLINEFORM0 , где INLINEFORM1 и INLINEFORM2 — это списки частично обработанных слов, INLINEFORM3 — список (называемый буфером) необработанных слов, а INLINEFORM4 — набор дуг зависимостей, построенных на данный момент.Учитывая входную строку INLINEFORM5 , синтаксический анализатор начинается с начальной конфигурации INLINEFORM6 и выполняет переходы до тех пор, пока не будет достигнута терминальная конфигурация формы INLINEFORM7: в этот момент INLINEFORM8 содержит граф зависимостей для ввода.Набор переходов показан в верхней половине рисунка FigREF1.Их логику можно резюмировать следующим образом: в конфигурации формы INLINEFORM0 синтаксический анализатор имеет возможность создать зависимость, включающую слова INLINEFORM1 и INLINEFORM2, которые мы будем называть левым и правым фокусными словами этой конфигурации.Переходы INLINEFORM3 и INLINEFORM4 используются для создания дуги влево ( INLINEFORM5 ) или вправо ( INLINEFORM6 ) между этими словами соответственно, а также перемещения INLINEFORM7 из INLINEFORM8 в первую позицию INLINEFORM9 , эффективно перемещая фокус на INLINEFORM10 и INLINEFORM11 .Если между ключевыми словами не требуется никакой зависимости, переход INLINEFORM12 выполняет ту же модификацию INLINEFORM13 и INLINEFORM14 , но без построения какой-либо дуги.Наконец, переход INLINEFORM15 перемещает все содержимое списка INLINEFORM16 плюс INLINEFORM17 в INLINEFORM18, когда между INLINEFORM19 и словами INLINEFORM20 больше нет вложений, считывая таким образом новое входное слово и помещая фокус на INLINEFORM21 и INLINEFORM22.Переходы, создающие дуги, запрещены в конфигурациях, где это нарушает ограничения на одну головку или ацикличность (циклы и узлы с несколькими головками не допускаются в графе зависимостей).На рисунке FigREF4 показана последовательность переходов в системе переходов Ковингтона, которая выводит граф зависимостей, показанный на рисунке FigREF3. Полученный анализатор может генерировать произвольные непроективные деревья, а его сложность равна INLINEFORM0. Исходная логика, описанная covington01fundamental, анализирует предложение, систематически проходя каждое пара слов.Переход INLINEFORM0, представленный Nivre2008 в версии на основе переходов, представляет собой оптимизацию, которая позволяет избежать необходимости применять последовательность переходов INLINEFORM1 для очистки списка INLINEFORM2 перед чтением нового входного слова.Однако все еще существуют ситуации, когда необходимы последовательности переходов INLINEFORM0.Например, если мы находимся в конфигурации INLINEFORM1 со словами фокуса INLINEFORM2 и INLINEFORM3, и следующая дуга, которую нам нужно создать, идет от INLINEFORM4 к INLINEFORM5 INLINEFORM6 , тогда нам понадобятся последовательные переходы INLINEFORM7 INLINEFORM8, чтобы переместить левое слово фокуса в INLINEFORM9, а затем применить ИНЛАЙНФОРМА10 .Этого можно было бы избежать, если бы нелокальный переход INLINEFORM11 можно было выполнить непосредственно в INLINEFORM12, создавая необходимую дугу и сразу перемещая слова INLINEFORM13 в INLINEFORM14.Преимущество такого подхода будет двойным: (1) меньший риск ошибки в INLINEFORM15 из-за учета ограниченного локального контекста и (2) более короткая последовательность переходов, облегчающая распространение ошибок.Мы представляем новую систему перехода под названием NL-Covington (что означает «нелокальный Ковингтон»), описанную в нижней половине рисунка FigREF1.Он заключается в модификации непроективного алгоритма Ковингтона, где: (1) переходы INLINEFORM0 и INLINEFORM1 параметризуются с помощью INLINEFORM2 , что позволяет немедленно создавать любую вставку между INLINEFORM3 и самым левым словом INLINEFORM4 в INLINEFORM5 и перемещать слова INLINEFORM6 в INLINEFORM7. сразу, и (2) переход INLINEFORM8 удаляется, поскольку он больше не нужен.Эта новая система переходов может использовать некоторую ограниченную глобальную информацию для построения нелокальных зависимостей и, следовательно, уменьшения количества переходов, необходимых для анализа входных данных.Например, как показано на рисунке FigREF5, анализатору NL-Covington потребуется 9 переходов вместо 12 традиционных действий Ковингтона для анализа предложения на рисунке FigREF3.Фактически, в то время как в стандартном алгоритме Ковингтона последовательность перехода для предложения длиной INLINEFORM0 в худшем случае имеет длину INLINEFORM1 (если все узлы соединены с первым узлом, то нам нужно пройти каждый узел слева от каждого правого фокусного слова ); для NL-Covington длина последовательности всегда равна INLINEFORM2: один переход INLINEFORM3 для каждого слова INLINEFORM4 плюс один переход построения дуги для каждой дуги INLINEFORM5 в дереве зависимостей.Однако обратите внимание, что это не влияет на временную сложность анализатора, которая по-прежнему квадратична, как и в исходном анализаторе Ковингтона.Это связано с тем, что алгоритм имеет возможные переходы INLINEFORM6, которые необходимо оценить в каждой конфигурации, в то время как исходный алгоритм Covington имеет переходы INLINEFORM7 из-за ограничения на создание локальных дуг влево/вправо между словами фокуса.Полноту и надежность NL-Covington можно легко доказать, поскольку существует сопоставление между последовательностями переходов обоих анализаторов, где последовательность INLINEFORM0 INLINEFORM1 и один дуговой переход в Covington эквивалентны INLINEFORM2 или INLINEFORM3 в NL-Covington.Мы используем 9 наборов данных из CoNLL-X BIBREF5 и все наборы данных из общей задачи CoNLL-XI BIBREF6.Чтобы сравнить нашу систему с современными синтаксическими анализаторами на основе переходов, мы также оцениваем ее при преобразовании Стэнфордских зависимостей BIBREF7 (с использованием Стэнфордского парсера v3.3.0) WSJ Penn Treebank BIBREF8, далее PT-SD, со стандартным разделением.Баллы привязанности с маркировкой и без метки (LAS и UAS) рассчитываются без учета знаков препинания только на PT-SD для сопоставимости.Мы повторяем каждый эксперимент с тремя независимыми случайными инициализациями и сообщаем среднюю точность.Статистическая значимость оценивается с помощью парного теста с 10 000 бутстреп-образцами.Для реализации нашего подхода мы воспользовались преимуществами архитектуры модели, описанной в Qi2017, для анализатора дуги, которая расширяет архитектуру Kiperwasser2016 за счет применения биаффинной комбинации в процессе фичеризации.Мы реализуем парсеры Covington и NL-Covington в рамках этой архитектуры, адаптируем процесс фичеризации с биаффинной комбинацией Qi2017 к этим парсерам и используем их ту же настройку обучения.Более подробная информация об этих параметрах модели представлена в Приложении SECREF6.эта архитектура использует пакетное обучение, мы тренируемся с помощью статического оракула.Алгоритм НЛ-Ковингтона вообще не имеет ложной двусмысленности, поэтому существует только один возможный статический оракул: канонические последовательности переходов генерируются путем выбора перехода, который создает самую короткую ожидающую золотую дугу, включающую текущее правое фокусное слово INLINEFORM0 или INLINEFORM1, если таковые имеются. никаких незастроенных золотых дуг с участием INLINEFORM2. МыОбратите внимание, что динамический оракул для парсера NL-Covington можно получить, адаптировав его для стандартного Covington из GomFerACL2015.Поскольку переходы НЛ-Ковингтона являются конкатенациями переходов Ковингтона, их алгоритм расчета потерь совместим с переходами НЛ-Ковингтона.Помимо исследования ошибок, это также открывает путь к включению немонотонности BIBREF9.Хотя эти подходы показали повышение точности в условиях онлайн-обучения, здесь мы отдаем приоритет однородной сопоставимости с BIBREF2, поэтому мы используем пакетное обучение и статический оракул и при этом получаем современную точность для жадного парсера.В таблице TABREF10 представлено сравнение парсера Ковингтона и нового варианта, разработанного здесь.Синтаксический анализатор NL-Covington превосходит исходную версию во всех протестированных наборах данных, причем все улучшения статистически значимы ( INLINEFORM0 ). ТаблицаTABREF12 сравнивает нашу новую систему с другими современными анализаторами зависимостей на основе переходов на PT-SD.Жадные парсеры находятся в первом блоке, парсеры лучевого поиска и динамического программирования — во втором блоке.Третий блок показывает лучший результат в этом тесте, полученный при парсинге составляющих с генеративным переранжированием и преобразованием в зависимости.Несмотря на то, что наш синтаксический анализатор является единственным непроективным парсером, протестированным на практически проективном наборе данных, он набирает наивысший балл среди жадных моделей, основанных на переходах (даже выше тех, которые обучены с помощью динамического оракула). с той же архитектурой модели, реализацией и настройкой обучения, но вместо этого основан на анализаторе на основе проективных переходов с дуговым переходом.Это может быть связано с тем, что наша система принимает во внимание любое допустимое соединение между фокусным словом INLINEFORM0 и любым словом в INLINEFORM1 в каждой конфигурации, в то время как их подход ограничен логикой стремления к дуге: она допускает все возможные дуги вправо (возможно, меньше, чем наш подход). поскольку стек, ориентированный на дугу, обычно содержит небольшое количество слов), но для каждого состояния синтаксического анализатора разрешена только одна дуга влево.Также стоит отметить, что анализаторы arc-swift и NL-Covington имеют одинаковую временную сложность в наихудшем случае ( INLINEFORM2 ), поскольку добавление нелокальных дуговых переходов в анализатор arc-eager увеличивает его сложность с линейной до квадратичной, но это не влияет на сложность алгоритма Ковингтона.Таким образом, можно утверждать, что этот метод лучше подходит для Ковингтона, чем для интенсивного анализа.Мы также сравниваем NL-Covington с анализатором arc-swift наборов данных CoNLL (таблица TABREF15).Для справедливости сравнения мы проектируем (через мальтпарсер)все наборы обучающих данных вместо фильтрации непроективных предложений, поскольку некоторые языки в значительной степени непроективны.Даже при этом анализатор NL-Covington превосходит систему arc-swift с точки зрения БПЛА в 14 из 19 наборов данных, получая статистически значимое улучшение точности в 7 из них и статистически значимое снижение только в одном.Наконец, мы анализируем, как наш подход уменьшает длину последовательности переходов, используемой исходным парсером Ковингтона.В таблице TABREF16мы сообщаем длину последовательности перехода на одно предложение, используемую алгоритмами Ковингтона и НЛ-Ковингтона для анализа каждого набора данных из одного и того же теста, используемого для оценки точности синтаксического анализа.Как видно из таблицы, NL-Covington обеспечивает заметно более короткие переходные последовательности, чем Covington, со снижением в среднем около 50%.Мы представляем новый вариант непроективного парсера на основе переходов Ковингтона, включающий нелокальные переходы, уменьшающий длину последовательностей переходов от INLINEFORM0 до INLINEFORM1.Эта система явно превосходит оригинальный парсер Ковингтона и достигает высочайшей точности в WSJ Penn Treebank (Стэнфордские зависимости), полученной на сегодняшний день с помощью жадного анализа зависимостей.Эта работа получила финансирование от Европейского исследовательского совета (ERC), в рамках программы исследований и инноваций Европейского Союза Horizon 2020 (FASTPARSE, грантовое соглашение № 714150), от TELEPARES-UDC (FFI2014-51978-C2-2-R) и Проекты ANSWER-ASAP (TIN2017-85160-C2-1-R) от MINECO и Xunta de Galicia (ED431B 2017/01). Мы предоставляем более подробную информацию об архитектуре нейронной сети, используемой в этой статье, которая взята из Qi2017. Модель состоит из двух блоков 2-слойной двунаправленной сети долговременной краткосрочной памяти (BiLSTM) BIBREF23 с 400 скрытыми блоками в каждом направлении.Первый блок используется для маркировки POS, второй — для синтаксического анализа.В качестве входных данных блока тегов мы используем слова, представленные как встраивания слов, а BiLSTM используются для извлечения признаков.Полученный результат передается в многослойный перцептрон (MLP) со скрытым слоем из 100 выпрямленных линейных единиц (ReLU), который предоставляет тег POS для каждого входного токена в 32-мерном представлении.Внедрения слов, объединенные с этими встраиваниями тегов POS, служат входными данными для второго блока BiLSTM для выполнения этапа синтаксического анализа.Затем выходные данные блока синтаксического анализа передаются в MLP с двумя отдельными скрытыми слоями ReLU (один для получения представления головы, а другой для метки зависимости), которые после слияния и с помощью функции softmax оценить все возможные переходы, позволяя жадно выбрать и применить переход с наивысшим баллом.Кроме того, мы адаптируем процесс фичеризации с комбинацией биаффинов, описанный в Qi2017, для системы arc-swift, которая будет использоваться в исходных парсерах Covington и NL-Covington.В частности, переходы дуг характеризуются конкатенацией представления заголовка и зависимых слов создаваемой дуги, переход INLINEFORM0 характеризуется самым правым словом в INLINEFORM1 и самым левым словом в буфере INLINEFORM2 и, наконец, для при переходе INLINEFORM3 используется только самое левое слово в INLINEFORM4.В отличие от Qi2017 для базовых парсеров, мы не используем метод определения признаков, подробно описанный в Kiperwasser2016, для исходного парсера Covington, поскольку мы заметили, что это приводит к более низким оценкам, и тогда сравнение было бы несправедливым в нашем случае.Мы реализуем обе системы в одной и той же структуре: исходный парсер Covington представлен как система NL-Covington плюс переход INLINEFORM5, а INLINEFORM6 ограничен 1.Подробное описание архитектуры модели и механизма определения признаков можно найти в Qi2017. Наша настройка обучения точно такая же, как и в Qi2017: обучение моделей происходит в течение 10 эпох для больших наборов данных и 30 для маленьких.Кроме того, мы инициализируем встраивание слов с помощью 100-мерных векторов GloVe BIBREF25 для английского языка и используем 300-мерные векторы Facebook BIBREF20 для других языков.Остальные параметры нейронной сети сохраняют те же значения.Исходный код парсера находится в свободном доступе по адресу https://github.com/danifg/Non-Local-Covington. | Мы представляем новую систему переходов, основанную на непроективном анализаторе Ковингтона, которая вводит нелокальные переходы, которые могут напрямую создавать дуги, включающие узлы слева от текущих позиций фокуса. Это позволяет избежать необходимости использования длинных последовательностей переходов без дуг для создания дуг на большие расстояния, что облегчает распространение ошибок. Полученный парсер превосходит исходную версию и обеспечивает лучшую точность преобразования Стэнфордских зависимостей Penn Treebank среди жадных алгоритмов на основе переходов. | 2,479 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Обнаружение потенциальных тем в новостях с использованием BERT, CRF и Википедии. Подходы распознавания именованных объектов (NER) можно разделить на три типа.Обнаружение NER с помощью предопределенных словарей и правил BIBREF2, некоторых статистических подходов BIBREF3 и подходов глубокого обучения BIBREF4. Stanford CoreNLP NER — это широко используемый базовый уровень для многих приложений BIBREF5.Авторы использовали подходы выборки Гиббса и условного случайного поля (CRF) для нелокального сбора информации, а затем алгоритм Витерби для вывода наиболее вероятного состояния в выходных данных последовательности CRFBIBREF6. Подходы к глубокому обучению в НЛП используют представления документов, слов или токенов вместо векторы с горячим кодированием.С развитием трансферного обучения предварительно обученные Word2VecBIBREF7, GloVeBIBREF8, fasttextBIBREF9, которые обеспечивают встраивание слов, использовались с рекуррентными нейронными сетями (RNN) для обнаружения NER.Здесь BIBREF10 рассматривается использование слоев LSTM, за которыми следуют слои CRF с предварительно обученными встраиваниями слов в качестве входных данных.Кроме того, здесь были исследованы CNN с встраиванием символов в качестве входных данных, за которыми следуют двунаправленные слои LSTM и CRF. BIBREF11. С появлением внимания и преобразователей BIBREF12 за последние несколько лет появилось множество глубоких архитектур.Подход к использованию таких предварительно обученных моделей, как ElmoBIBREF13, FlairBIBREF14 и BERTBIBREF0, для словесных представлений с последующими различными комбинациями LSMT и CRF был протестирован авторами в BIBREF15, и эти подходы показывают современную производительность.Существует очень мало подходов, в которых исследуется задача NER без регистра.В этой недавней статье авторы BIBREF16 исследовали эффекты «обусловленных» сущностей и то, как работают различные сети, и показали, что наиболее эффективной стратегией является объединение регистрируемых и строчных обучающих данных, создавая единую модель с высокой производительностью как для регистрируемого, так и для нерегистрированного текста. .В другой статье BIBREF17 авторы предложили предварительное обучение True-Case перед использованием подхода BiLSTM+CRF для эффективного обнаружения NER.Хотя он показывает хорошие результаты по сравнению с предыдущими подходами, он бесполезен в контексте индийских языков, поскольку здесь нет понятия падежей.В нашем подходе мы больше уделяем внимание подготовке данных для определения тем, используя некоторые современные архитектуры, основанные на уровнях BERT, LSTM/GRU и CRF, как они были исследованы в предыдущих подходах, упомянутых выше.Обнаружению безрегистровых тем с более высокой запоминаемостью и разумной точностью присвоен приоритет по сравнению с показателем f1.Были проведены сравнения с доступными и готовыми к использованию библиотеками с открытым исходным кодом с точки зрения производства.Нам нужен большой объем данных, чтобы опробовать современные алгоритмы глубокого обучения.Существует множество открытых наборов данных по именам, местоположениям, организациям, но не по темам, как определено в Кратком изложении выше.Кроме того, определение и определение тем является индивидуальным предпочтением, и не существует фиксированного набора правил для их определения.Но согласно нашему определению, мы можем использовать заголовки Википедии в качестве целевых тем.Набор данных английской Википедии насчитывает более 18 миллионов наименований, если рассматривать все их версии до сих пор.Нам пришлось очистить заголовки, чтобы удалить ненужные заголовки, поскольку заголовок в Википедии содержит почти все слова, которые мы используем ежедневно.Чтобы удалить такие заголовки, мы применили следующие простые правила: - Удалите заголовки с общими словами: «are», «the», «который». Удалите заголовки с числовыми значениями: 29, 101. Удалите заголовки с техническими компонентами, именами драйверов, названиями транзисторов: X00. , lga-775Удалите 1-граммовые заголовки, кроме местоположений (почти 80% из них также встречаются в остальных n-граммовых заголовках). После дополнительной очистки у нас осталось 10 миллионов заголовков.У нас есть куча из 15 миллионов новостных статей на английском языке, опубликованных за последние 4 года.Кроме того, мы сократили количество статей, удалив повторяющиеся и похожие статьи.Мы использовали наши предварительно обученные модели doc2vec и косинусное сходство, чтобы обнаружить почти похожие новостные статьи.Затем отбирается минимальное количество статей, необходимое для покрытия всех возможных 2-5 граммов.Этот шаг сделан для того, чтобы сэкономить время обучения без потери точности.Обратите внимание, что в будущем мы планируем использовать весь набор данных и надеемся увидеть дальнейший рост в F1 и Recall.Но, согласно ручной проверке, наш набор данных содержит достаточно вариантов предложений с богатым словарным запасом, который содержит имена знаменитостей, политиков, местных властей, национальных / местных организаций и почти всех мест, Индии и других стран, упомянутых в тексте новостей за последние 4 года. .Затем мы создали формат параллельного корпуса, как показано в таблице 1.Используя предварительно обученный Bert-Tokenizer от обнимающего лица, преобразовывал слова в предложениях в токены.Используется предварительно обученный токенизатор Caseless-BERT.Обратите внимание, что некоторые слова темы разбиты на токены и тег NER соответственно повторен.Например, во второй строке Таблицы 1 слово «преследование» разбито на «har ##ass ##ment».Аналогично, один тег «NER» повторяется три раза, чтобы сохранить длину пары последовательностей одинаковой.Наконец, для примерно 3 миллионов новостных статей создается параллельный корпус, состоящий примерно из 150 миллионов предложений, примерно из 3 миллиардов слов (все в нижнем регистре) и примерно из 5 миллиардов токенов.Мы попробовали несколько вариантов слоев LSTM и GRU, со слоем CRF или без него.Использование слоев GRU по сравнению с LSTM дает незначительный выигрыш.Кроме того, мы увидели выгоду от использования всего одного слоя GRU вместо нескольких.Наконец, мы остановились на архитектуре, показанной на рисунке 1, для финального обучения, основанной на оценках проверочного набора с образцом обучающего набора.Перед передачей в сеть текст необходимо было токенизировать с помощью pytorch-pretrained-bert, как описано выше.Архитектура построена с использованием tensorflow/keras.Вдохновение для кодирования взято из BERT-keras и слоя CRF keras-contrib.Если вам удобнее работать с pytorch, на github доступно множество примеров, но для легкого старта лучше подойдет pytorch-bert-crf-ner.Мы использовали многоязычную модель BERT, чтобы можно было обучать и точно настраивать ту же модель для других индийских языков.Вы можете использовать BERT-base или BERT-large для повышения производительности только с английским набором данных.Или вы можете использовать DistilBERT для английского языка и DistilmBERT для 104 языков для более быстрого предварительного обучения и вывода.Кроме того, мы не выбрали подход AutoML для настройки гиперпараметров, который мог бы привести к гораздо более точным результатам, но в то же время мог занять очень много времени.Поэтому вместо этого выберите и настройте параметры на основе первоначальных результатов.Мы обучили две модели: одну с длиной последовательности 512 для захвата важных n-грамм на уровне документа, а вторую с длиной последовательности 64 для захвата важных n-грамм на уровне предложения/абзаца.В ходе экспериментов стало очевидно, что длина последовательности играет жизненно важную роль в определении контекста и локально/глобально важных n-грамм.Конечный результат представляет собой объединение обоих результатов модели.Обучена тематическая модель на одном NVidia-V100 емкостью 32 ГБ, и обучение модели с длиной последовательности 512 заняло около 50 часов.Нам пришлось взять машину с оперативной памятью 256 ГБ, чтобы разместить все данные в памяти и ускорить чтение/запись.Кроме того, обученная модель с длиной последовательности 64 примерно за 17 часов.Очень важно отметить, что длина последовательности определяет, сколько берт-токенов вы можете передать для вывода, а также время обучения и точность.В идеале, чем больше, тем лучше, потому что вывод также будет быстрее.Для длины последовательности 64 мы перемещаем окно из 64 токенов по всему тексту токена и распознаем темы в каждом окне.Таким образом, длину последовательности следует выбирать в соответствии с вариантом использования.Кроме того, ранее мы объяснили нашу мотивацию выбора двух отдельных моделей длин последовательностей.Мы прекратили обучение обеих моделей, когда точность превысила 70 %, а полнота — 90 % на обучающих и тестовых наборах, так как мы просто стремились получить максимальную полноту и не беспокоились о точности в нашем случае.Обе модели достигают этой точки примерно через 16 эпох.Сравнение с существующими библиотеками NER с открытым исходным кодом не совсем справедливо, поскольку они НЕ обучены обнаруживать темы и важные n-граммы, а также НЕ обучены работе с текстом без регистра.Но они полезны при тестировании и сравнительном анализе, обнаруживает ли наша модель традиционные NER или нет, что она и должна фиксировать, поскольку заголовки Википедии содержат почти все имена, места и названия организаций.Вы можете проверить образец вывода здесь. Сравнения проводились между Flair-NER, Stanford-caseless-NER (использовался english.conll.4class.caseless, поскольку он работал лучше, чем 3class и 7class), Spacy-NER и нашими моделями.Из них только Stanford-NER предлагает модели без корпуса.В Таблице 2 баллы рассчитаны на основе традиционного списка NER.В Таблице 4 то же самое сделано с набором ссылок на заголовки Википедии.Как вы можете видеть в таблицах 2 и 3, полнота отлично подходит для нашей модели, но точность не очень хороша, поскольку модель также пытается обнаружить новые потенциальные темы, которых нет даже в справочных заголовках Wikipedia и наборах NER.При захвате тем Википедии наша модель явно превосходит другие модели по всем показателям.Результаты Spacy хороши, несмотря на то, что он не обучен работе с данными без регистра.С точки зрения Формулы-1 и общей стабильности Спейси показал лучшие результаты, чем Стэнфордский NER, в нашем наборе проверки новостей.Точно так же Стэнфорд преуспел в Precision, но не смог догнать Спейси и нашу модель с точки зрения отзыва.В целом Flair показал плохие результаты, но, как уже говорилось ранее, эти модели с открытым исходным кодом не подготовлены для нашего конкретного случая использования.Давайте проверим несколько примеров для детального анализа моделей и их результатов.Ниже приведены новости, связанные с экономикой.Пример 1. Ежегодно из-за коррупции теряется около 1–1,5 триллионов долларов, или около двух процентов мирового ВВП, заявил президент института управления природными ресурсами nrgi.Выступая на панели по вопросам добросовестности в государственном управлении во время ежегодного собрания группы Всемирного банка и Международного валютного фонда в воскресенье, Дэниел Кауфманн, президент nrgi, представил статистические данные, результаты исследования nrgi, независимой некоммерческой организации, основанной в Нью-Йорке.однако, по словам Кауфмана, эта цифра представляет собой лишь прямые издержки коррупции, поскольку она не учитывает возможности, потерянные в результате инноваций и производительности, сообщает агентство Синьхуа.Исследование показало, что страна, которая борется с коррупцией и значительно улучшает верховенство закона, может ожидать огромного увеличения дохода на душу населения в долгосрочной перспективе.он также увидит аналогичные успехи в снижении детской смертности и улучшении образования, сказал Кауфманн.Обнаруженные NER можно увидеть в таблице 4 для каждой модели.Наша модель не фиксирует числа, поскольку мы удалили все числа из моих вики-заголовков в качестве тем.Причина в том, что мы можем легко написать регулярное выражение для определения валюты, цен, времени, даты, и для этого не требуется глубокое обучение.Ниже приведены несколько важных n-грамм, которые смогли уловить только наши модели: - доход на душу населения, младенческая смертность, ежегодное собрание международного валютного фонда, институт управления природными ресурсами, государственное управление. НЭР.Еще один пример новостей в политической сфере и обнаруженных НЭР можно увидеть для каждой модели в Таблице 5. Пример 2: Сунита Кеджривал, надев кепку с торговой маркой партии «аам аадми» и держа в руках копии партийного табеля успеваемости за пять лет, выглядит совершенно непринужденно. .В Дели холодный зимний полдень, и бывший сотрудник налоговой службы Индии (IRS) отправляется в предвыборную кампанию, чтобы поддержать своего мужа и коллегу по партии, главного министра Арвинда Кеджривала.впервые выйдя на задний план, она подставляет свое плечо подножке ААП в избирательном округе Нью-Дели, откуда КМ, тогдашний политический новичок, стал гигантским убийцей, победив действующего конгрессмена Шейлу Дикшит в 2013 году. Верно n-граммы, захватываемые только нашей моделью, - это -aam aadmi partyaap подножная партия Delhi избирательный округ гигант-убийца индийская налоговая служба политический новичок. В этом примере Стэнфордская модель справилась лучше и правильно зафиксировала имена, например «шейла дикшит», которую Спейси не смог обнаружить, но Спейси уловил почти все числовые значения. наряду с числами, выраженными словами.Важно отметить, что наша модель фиксирует НЭР с некоторыми дополнительными словами вокруг них.Например, модель распознает «президент nrgi», но не «ngri».Но выходные данные модели действительно передают больше информации, чем предыдущие.Чтобы получить одно и то же для всех моделей (и сделать сравнение справедливым), было включено частичное совпадение, и если правильный NER является частью прогнозируемого NER, то позже один из них помечается как совпавший.Это может быть причиной хорошей оценки Спейси.Обратите внимание, что частичное совпадение отключено для задачи сопоставления заголовков Википедии, как показано в Таблице 3.Здесь наша модель превзошла все модели.Благодаря этому упражнению мы смогли протестировать наиболее подходящую архитектуру модели и этапы подготовки данных, чтобы аналогичные модели можно было обучить для индийских языков.Создание корпусных или безрегистровых NER для английского языка не было конечной целью, и это уже оценивалось и исследовалось ранее в предыдущих подходах, описанных в разделе «Сопутствующие работы».Мы не использовали традиционные наборы данных для сравнения производительности моделей и тестов.Как упоминалось ранее, все сравнения проводятся с моделями и библиотеками с открытым исходным кодом с точки зрения производства.Мы использовали набор данных проверки англоязычных новостей, который важен и соответствует нашей конкретной задаче, а все наборы данных проверки и необработанные выходные результаты можно найти по нашей ссылке на GitHub. Википедия.заголовков для индийских языков очень и очень меньше, а результирующих тегированных данных еще меньше для запуска глубоких архитектур.Мы пытаемся перевести/транслитерировать английские вики-названия, чтобы улучшить данные по объектам/темам на индийских языках.Этот подход также полезен при построении моделей обобщения новостей, поскольку он обнаруживает почти все важные n-граммы, присутствующие в новостях.Выходные данные этой модели можно ввести в сеть реферирования, чтобы добавить больше предвзятости в отношении важных слов и предвзятости при их включении. | Для платформы распространения новостного контента, такой как Dailyhunt, распознавание именованных объектов является ключевой задачей для создания лучших алгоритмов рекомендаций и уведомлений для пользователей. Помимо определения имен, местоположений и организаций из новостей на более чем 13 индийских языках и использования их в алгоритмах, нам также необходимо идентифицировать n-граммы, которые не обязательно подходят под определение именованной сущности, но они важны. Например, «движение «Я тоже», «запрет на говядину», «линчевание толпой Алвара». В этом упражнении, учитывая текст на английском языке, мы пытаемся обнаружить n-граммы без регистра, которые передают важную информацию и могут использоваться в качестве тем и/или хэштегов для новостей. Модель построена с использованием данных заголовков Википедии, частного корпуса новостей на английском языке и предварительно обученной многоязычной модели BERT, архитектуры Bi-GRU и CRF. Он показывает многообещающие результаты по сравнению с лучшими в отрасли Flair, Spacy и Stanford-less-NER с точки зрения F1 и особенно Recall. | 2,402 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Изучение иерархического взаимодействия между обзором и резюме для лучшего анализа настроений. Анализ тональности BIBREF0, BIBREF1 — фундаментальная задача обработки естественного языка.В частности, широкое применение имеет анализ настроений отзывов пользователей BIBREF2, BIBREF3, BIBREF4, BIBREF5.На многих веб-сайтах с обзорами, таких как Amazon и IMDb, пользователю разрешено давать краткое изложение в дополнение к своему обзору.Резюме обычно содержат более абстрактную информацию об обзоре.Как показано на рисунке FigREF3, два скриншота обзоров были взяты с веб-сайтов Amazon и IMDb соответственно.Краткое изложение этих обзоров, написанное пользователями, может быть весьма показательным для окончательной полярности.В результате их стоит рассматривать вместе с самим обзором для классификации настроений.С этой целью в некоторых недавних работах BIBREF6, BIBREF7 используется совместное моделирование.Структуру модели можно проиллюстрировать на рисунке РИС. РИСУНОК 4.В частности, учитывая входные данные обзора, модель обучается одновременно прогнозировать настроение и резюме.В результате как сводная информация, так и информация обзора интегрируются в кодировщик обзора посредством обучения обратному распространению ошибки.Однако одним из ограничений этого метода является то, что он не кодирует сводку явно во время тестирования.Одним из решений, как показано на рисунке FigREF4, является обучение отдельного генератора сводок, который учится прогнозировать сводку на основе обзора.Это позволяет классификатору настроений одновременно кодировать обзор и его резюме, прежде чем делать прогноз с использованием обоих представлений.Еще одним преимуществом этой модели является то, что она может использовать предоставленную пользователем сводку, если она доступна в обзоре, что имеет место для веб-сайтов с обзорами, показанных на рисунке 1.Поэтому мы исследуем такую модель.Однако одним из ограничений этого метода является то, что он не фиксирует взаимодействие обзорной и сводной информации так же тщательно, как метод, показанный на рисунке FigREF4, поскольку обзор и сводка кодируются с использованием двух отдельных кодеров.Чтобы решить эту проблему, мы дополнительно исследуем совместный кодер для обзора и обобщения, что показано на рисунке FigREF4.Модель работает путем совместного кодирования обзора и резюме в многоуровневую структуру, постепенно обновляя представление обзора, обращаясь к представлению сводки на каждом уровне.Как показано на рисунке FigREF5, наша модель состоит из сводного кодировщика, иерархически уточненного кодировщика обзора и выходного уровня.Кодер обзора состоит из нескольких уровней внимания, каждый из которых состоит из уровня кодирования последовательности и уровня вывода внимания.Сводная информация интегрируется в представление содержания обзора на каждом уровне внимания, таким образом, более абстрактное представление обзора изучается на последующих уровнях на основе представления более низкого уровня.Этот механизм позволяет резюме лучше направлять представление обзора снизу вверх для улучшения классификации настроений.Мы оцениваем предложенную нами модель по SNAP (Стэнфордский проект сетевого анализа).Наборы обзорных данных Amazon BIBREF8, которые содержат не только обзоры и рейтинги, но и «золотые» сводки.В сценариях, где нет написанного пользователем резюме для обзора, мы используем сеть генератора указателей BIBREF9 для создания абстрактных резюме.Эмпирические результаты показывают, что наша модель значительно превосходит все сильные базовые модели, включая совместное моделирование, методы отдельного кодировщика и совместного кодировщика.Кроме того, наша модель достигла нового уровня производительности, достигнув абсолютного улучшения на 2,1% (с сгенерированным резюме) и 4,8% (с золотым резюме) по сравнению с предыдущим лучшим методом в тесте обзора SNAP Amazon.Большинство последних моделей анализа настроений основаны либо на сверточных, либо на рекуррентных нейронных сетях для кодирования последовательностей BIBREF10, BIBREF11. В частности, широко исследуются модели, основанные на внимании, которые присваивают веса внимания скрытым состояниям для создания представления входной последовательности. .Для классификации документов BIBREF12 была предложена иерархическая модель с двумя уровнями механизмов внимания.Механизм самообслуживания также использовался при анализе настроений BIBREF13, BIBREF14.Тем не менее, BIBREF15 эмпирически показал, что механизм внимания к себе не всегда соответствует наиболее важным характеристикам, а это означает, что модели внимания к себе могут пострадать из-за внимания к явным, но не относящимся к делу сентиментальным словам.Также были представлены обоснования задачи анализа настроений.BIBREF16 предложил неконтролируемую латентную модель, которая выбирает обоснование, а затем использует его для анализа настроений.Была предложена модель CNN с расширенным обоснованием BIBREF17, которая рассматривает золотые обоснования как дополнительные входные данные и использует вероятность в качестве весов внимания на уровне обоснования для генерации окончательного представления для классификации текста.Также проводилась работа по совместному обобщению и классификации настроений BIBREF6, BIBREF7, общая структура которых показана на рисунке FigREF4.Эти модели могут одновременно прогнозировать метку настроения и сводку.Однако они не кодируют сводные данные явным образом во время тестирования, что в некоторой степени ограничивает их производительность.В этом разделе мы подробно представляем предлагаемую нами модель.Сначала мы даем формулировку проблемы, затем даем обзор предлагаемой модели и подробно объясняем каждый уровень нашей модели, прежде чем, наконец, представить функцию потерь и методы обучения.Входными данными для нашей задачи является пара $(X^w, X^s)$, где $X^w = x^w_1, x^w_2, ..., x^w_n$ — это сводка, а $X^s = x^s_1, x^s_2,...,x^s_m$ — обзор, задача — предугадать метку настроения $y \in[1, 5]$, где 1 обозначает наиболее негативное настроение, а 5 — наиболее позитивное.$n$ и $m$ обозначают размер обзора и аннотации в количестве слов соответственно.Обучающий набор: $D=\lbrace (X^w_i, X^s_i, y_i)\rbrace |_{i=1}^M$, где $M$ — общее количество обучающих примеров.На рисунке FigREF5 показана архитектура предлагаемой модели, которая состоит из трех модулей: сводного кодировщика, иерархически уточненного кодировщика обзора и выходного уровня.Кодер сводки кодирует сводку в скрытую матрицу состояний.Кодировщик обзора состоит из нескольких слоев для представления $\mathbf {x}^w$, каждый из которых содержит подуровень кодирования последовательности и подуровень вывода внимания.Подуровень кодирования последовательностей кодирует текст обзора как последовательность слов.Уровень вывода внимания действует как ключевой компонент, который принимает скрытые состояния как из исходного обзора, так и из сводки в качестве входных данных для расчета весов внимания скалярного произведения для исходного обзора под дополнительным контролем из сводной информации.Также применяется многоголовочное внимание BIBREF18, а также остаточное соединение.Выходной слой прогнозирует потенциальную метку настроения в соответствии со скрытыми состояниями предыдущего слоя.Входными данными для сводного кодировщика является последовательность представлений сводных слов $\mathbf {x}^s = \mathbf {x}^s_1, \mathbf {x}^s_2, ..., \mathbf {x}^s_m = \ lbrace emb(x_1^s), ..., emb(x_m^s)\rbrace $, где $emb$ обозначает таблицу поиска встраивания слов.Словесные представления вводятся в стандартный BiLSTM.Мы принимаем стандартную формулировку LSTM, в которой последовательность скрытых состояний $\mathbf {h}_t$ вычисляется из последовательности $\mathbf {x}_t$($t \in[1,...,m]$).Прямой слой LSTM слева направо и обратный LSTM справа налево дают последовательность прямых скрытых состояний $\lbrace {\stackrel{\rightarrow }{\mathbf {h}_1^s}},...,{\stackrel{\rightarrow }{\mathbf {h}_n^s}}\rbrace $ и последовательность обратных скрытых состояний $\lbrace {\stackrel{\leftarrow }{\mathbf {h}_1^s}},...,{\stackrel{\leftarrow }{\mathbf {h}_n^s}}\rbrace $ соответственно.Два скрытых состояния объединяются для формирования окончательного представления: затем мы применяем операцию подсчета среднего значения к скрытому состоянию и принимаем $\mathbf {h}^s = avg\_pooling(\mathbf {h}^s_1, \mathbf {h }^s_2,...,\mathbf {h}^s_n)$ как окончательное представление текста резюме.Иерархически усовершенствованный кодировщик обзора состоит из нескольких уровней кодера обзора, каждый из которых состоит из уровня кодирования последовательности и уровня вывода внимания.Учитывая обзор $\mathbf {x}^w = \lbrace emb(x_1^w),...,emb(x_n^w)\rbrace $, принимается другое BiLSTM (то же уравнение с другими параметрами по сравнению с одним используется в сводном кодировщике), получая последовательность просмотра скрытых состояний $\mathbf {H}^w=\lbrace \mathbf {h}^w_1, \mathbf {h}^w_2,...,\mathbf {h} ^s_n \rbrace $.InНа уровне вывода внимания мы моделируем зависимости между исходным обзором и резюме с помощью многоглавого скалярного произведения.Каждая голова создает матрицу внимания $\mathbf {\alpha } \in \mathbb {R}^{d_h \times 1}$, состоящую из набора оценок сходства между скрытым состоянием каждого токена текста обзора и сводным представлением. .Выходные данные скрытого состояния вычисляются по формуле: $\mathbf {W}_i^Q \in \mathbb {R}^{d_{h} \times \frac{d_{h}}{k}}$, $\mathbf {W }_i^K \in \mathbb {R}^{d_{h} \times \frac{d_{h}}{k}}$ и $\mathbf {W}_i^V \in \mathbb {R}^ {d_{h} \times \frac{d_{h}}{k}}$ — параметры модели.$Q$, $K$ и $V$ представляют собой запрос, ключ и значение соответственно.$k$ — количество параллельных головок, а $i \in [1,k]$ указывает, какая головка обрабатывается.Следуя BIBREF18, мы принимаем остаточное соединение вокруг каждого уровня вывода внимания с последующей нормализацией слоя. BIBREF19 :$\mathbf {H}$ затем подается на последующий уровень кодирования последовательности в качестве входных данных, если таковой имеется.Согласно уравнениям стандарта LSTM и уравнению DISPLAY_FORM13, токены исходного обзора, которые наиболее релевантны для резюме, фокусируются на большем количестве путем просмотра представления сводки.Таким образом, скрытые состояния $\mathbf {H}^{w,s}$ представляют собой матрицу представления текста обзора, охватывающую ключевые особенности представления сводки.Механизм многостороннего внимания гарантирует, что в ходе процесса могут быть зафиксированы многогранные функции семантической зависимости, что полезно для сценариев, в которых в одном обзоре присутствует несколько ключевых точек.Также обратите внимание, что наша конструкция части кодирования обзора иерархически уточненной сети внимания аналогична архитектуре Transformer в использовании многоголового внимания, остаточного соединения и нормализации уровней BIBREF18.Однако наши эксперименты показывают, что двунаправленный LSTM работает лучше по сравнению с сетью самообслуживания в качестве базовой многоуровневой структуры.Это может быть связано с тем, что для максимальной эффективности Transformer требуется больший объем обучающих данных.Наконец, после предыдущего слоя применяется глобальное объединение средних значений, а затем следует слой классификатора: где $\hat{y}$ — прогнозируемая метка настроения; $\mathbf {W}$ и $\mathbf {b}$ — параметры, которые необходимо изучить.Учитывая набор данных $D={\lbrace (X^w_t,X^s_t,y_t)\rbrace }|^{|T|}_{t=1}$, нашу модель можно обучить, минимизировав потери перекрестной энтропии. Междугде $\mathbf {p}^{y_t}$ обозначает значение метки в $\mathbf {p}$, которое соответствует $y_t$. Мы сравниваем нашу модель с несколькими сильными базовыми показателями и предыдущими состояниями методы, исследующие его основные эффекты.Мы эмпирически сравниваем различные методы, используя набор данных Amazon SNAP Review BIBREF20, который является частью Стэнфордского проекта сетевого анализа.Необработанный набор данных состоит из около 34 миллионов обзоров Amazon в различных областях, таких как книги, игры, спорт и фильмы.Каждый отзыв в основном содержит идентификатор продукта, часть информации о пользователе, текстовый обзор, резюме обзора и общий рейтинг настроений, который варьируется от 1 до 5.Статистика нашего принятого набора данных показана в таблице TABREF20.Для справедливого сравнения с предыдущей работой мы используем те же разделы, которые использовались в предыдущей работе BIBREF6, BIBREF7, то есть для каждого домена первые 1000 образцов берутся в качестве набора разработки, следующие 1000 образцов — в качестве тестового набора, а остальные в качестве обучающего набора.Мы используем перчатки BIBREF22.300-мерные вложения как предварительно обученные векторы слов.Принят скрытый размер LSTM 256 и четыре головки для механизма внимания с несколькими головками.Мы используем Adam BIBREF23 для оптимизации нашей модели с начальной скоростью обучения 0,0003, скоростью затухания 0,97, параметрами импульса $\beta _1 = 0,9$, $\beta _2 = 0,999$ и $\epsilon = 1 \times 10. ^{-8}$.Коэффициент отсева устанавливается в зависимости от размера каждого набора данных: 0,5 для «Игрушки и игры» и «Спорт и отдых» и 0,2 для «Кино и ТВ». Мы проводим эксперименты как с «золотыми» сводками, так и с сгенерированными сводками.Для создания автоматически декодированных сводок мы обучаем сеть генератора указателей (PG-Net) с механизмом покрытия BIBREF9, который представляет собой специально разработанную модель, основанную на последовательности действий, которая может генерировать сводку путем копирования слов из текстового документа. или одновременно генерировать слова из фиксированного словарного набора.Обычно мы следуем экспериментальным настройкам, указанным в оригинальной статье, за исключением некоторых незначительных корректировок, специально внесенных для наших наборов данных.Отмечено, что в нашей работе PG-Net можно заменить любой другой моделью реферирования.В этой модели используется совместное использование параметров кодировщика для совместной классификации и обобщения настроений.Он прогнозирует метку настроения, используя слой магистрали, объединяя скрытое состояние в сводном декодере и исходное текстовое представление в кодировщике.В этой работе также используется совместное использование параметров кодировщика для совместной классификации и обобщения настроений.Они используют два отдельных BiLSTM с механизмом самообслуживания для создания обзорных и сводных представлений.Для этой базовой линии мы используем BiLSTM со скрытыми размерами 256 в обоих направлениях и среднее объединение по всем скрытым состояниям для формирования представления.Этот метод служит простой основой для использования как обзора, так и резюме при классификации настроений.Его также можно использовать для сравнения эффективности самого обзора, самого резюме и их комбинации, когда они используются в качестве входных данных для решения проблемы.В этой базовой линии используется BiLSTM со скрытым размером 256 в обоих направлениях.В верхней части BiLSTM самообслуживание используется для предоставления набора весовых векторов суммирования для окончательного представления.Этот метод концептуально прост, но дает самые современные результаты для многих задач классификации и сопоставления текста.Его главное отличие от нашей модели заключается в том, что в этом методе внимание осуществляется только в верхнем скрытом слое, а в нашем – во всех слоях.Чтобы продемонстрировать эффективность нашей структуры модели, мы также принимаем для сравнения пристальное внимание BIBREF24, которое контролируется с использованием цели экстрактивного обобщения.В частности, слова в исходном обзоре, соответствующие соответствующему резюме, рассматриваются как резюме в исходном порядке.В случае с рисунком FigREF3, краткое изложение рецензии выглядит следующим образом: «Титаник Джеймса Кэмерона, несомненно, самый переоцененный фильм в истории», что соответствует написанному пользователем резюме: «Титаник Джеймса Кэмерона 1997 года, несомненно, является самым переоцененным фильмом в истории!» ».Модель также вычисляет еще одну потерю между весами внимания и метками экстрактивного резюме, так что жесткие веса внимания обучаются строго следовать экстрактивному резюме.Для базовых показателей, в которых используется отдельная структура кодировщика, мы обычно рассчитываем представления обзора и сводки отдельно с двумя кодировщиками, которые содержат свои собственные параметры, а затем объединяем два представления вместе с измерением скрытого размера.Для базовых показателей совместного кодировщика мы сначала объединяем текст обзора и сводки, а затем кодируем объединенный текст с помощью одного кодировщика.Мы используем набор для разработки Toys & Games для исследования различных ключевых конфигураций нашей модели.Результаты показаны в таблице TABREF29. Мы сравниваем различное количество слоев BiLSTM и скрытые размеры в BiLSTM самостоятельно.Как можно видеть, при большем количестве слоев сложенный BiLSTM с большими скрытыми размерами также не дает лучших результатов по сравнению со скрытым размером 256.Мы видим очевидное улучшение нашей модели, когда скрытый размер увеличивается со 128 до 256.Однако улучшение становится относительно небольшим по сравнению с большим увеличением количества параметров при дальнейшем увеличении скрытого размера до 360.Поэтому в наших экспериментах мы принимаем 256 в качестве скрытого размера.Как показывает таблица TABREF29, точность увеличивается при увеличении количества слоев с 1 до 2.Увеличение количества слоев не увеличивает точность набора для разработки.Таким образом, в экспериментах мы установили 2 в качестве количества слоев кодера обзора.Наилучший размер модели сопоставим с размером самообслуживания BiLSTM, демонстрируя, что количество параметров не является ключевым фактором производительности модели.Таблица TABREF34иВ таблице TABREF35 показаны окончательные результаты.Наша модель превосходит все базовые модели и самые эффективные модели как по сгенерированному сводному, так и по золотому сводному отчету для всех трех наборов данных.В сценарии, где используются «золотые сводки», BiLSTM+самовнимание работает лучше всех среди всех базовых показателей, что показывает, что внимание — полезный способ интеграции сводной и обзорной информации.Жесткое внимание получает больше супервизионной информации по сравнению с мягким вниманием благодаря сигналам супервизии из экстрактивных сводок.Однако она уступает модели мягкого внимания, которая указывает на то, что наиболее важные слова для классификации настроений могут не полностью перекрываться с экстрактивными резюме.Это оправдывает важность написанного пользователем или автоматически созданного резюме.Сравнение моделей, использующих сводную информацию, и моделей, которые не используют сводную информацию, показывает, что сводка обзора полезна для классификации настроений.Кроме того, одни и те же модели работают стабильно лучше, когда используется резюме, написанное пользователем, по сравнению с резюме, сгенерированным системой, что интуитивно разумно, поскольку современные модели абстрактного обобщения далеки от совершенства.Интересно, что, как показано во втором разделе таблицы, золотое резюме само по себе не приводит к большей точности настроений по сравнению с самим обзором, что показывает, что резюме лучше служат вспомогательными источниками информации для обзора содержания.Как с золотыми сводками, так и с автоматически генерируемыми сводками наша модель дает лучшие результаты по сравнению с BiLSTM + самовнимание.Последний интегрирует информацию из обзоров и резюме только на верхнем уровне представления, что также является стандартной практикой в моделях ответов на вопросы BIBREF25 и машинного перевода BIBREF26.Напротив, наша модель интегрирует сводную информацию в представление обзора на каждом уровне, тем самым позволяя иерархически уточнять интегрированное представление, что приводит к более абстрактным скрытым состояниям.Наконец, тот факт, что с золотым резюме наши базовая и окончательная модели превосходят современные методы при совместном обучении, показывает важность использования резюме, написанных пользователями, когда они доступны.Даже с учетом сводки системы наши модели по-прежнему превосходят HSSC и SAHSSC, показывая, что наша сеть более эффективна, чем совместное использование параметров при одних и тех же настройках без сводки входных данных.Рисунок FigREF37 состоит из линейных графиков точности BiLSTM+собственного внимания, BiLSTM+пулинга и нашей модели в зависимости от длины обзора.По мере увеличения длины обзора производительность всех моделей снижается.BiLSTM+самообслуживание не превосходит BiLSTM+пулирование при работе с длинным текстом.Наш метод дает лучшие результаты по сравнению с двумя базовыми моделями для длительных обзоров, демонстрируя, что наша модель эффективна для выявления долгосрочной зависимости.Вероятно, это связано с тем, что иерархически очищенное внимание сохраняет наиболее важную информацию, игнорируя при этом избыточные части исходного текста обзора.Таким образом, наша модель может быть более надежной, если в обзоре есть неуместные сентиментальные слова, что обычно присутствует в более крупных обзорах, таких как пример на рисунке FigREF3.Иерархическая архитектура позволяет нижним уровням кодировать локальную информацию, в то время как более высокие уровни могут фиксировать долгосрочную зависимость и, таким образом, лучше кодировать глобальную информацию.Наша модель имеет естественное преимущество интерпретируемости благодаря использованию слоя вывода внимания.Мы визуализируем иерархически уточненное внимание двух образцов из тестового набора игрушек и игр.Мы также визуализируем распределение внимания к себе для объективного сравнения.Чтобы сделать визуализации понятными и избежать путаницы, мы решили визуализировать наиболее важные части, перемасштабировав все веса внимания в интервал $[0, 100]$ и приняв 50 в качестве порога для визуализации внимания, показывая только веса внимания $. \ge 50$. Как показано на рисунке FigREF38, пример со сгенерированной сводкой имеет 5 звезд в качестве золотого рейтинга.В кратком тексте говорится: «Развлекательная игра для всей новой игры всех возрастов! !!веселье ! ! !«, что предполагает, что игра (1) увлекательна (от слова «весело») и (2) не сложна в освоении (от словосочетания «все возрасты»).Видно, что и модель внимания к себе, и первый уровень нашей модели учитывают сильно положительную фразу «довольно весело», которая соответствует слову «весело» в резюме.В сравнениях второй уровень обращается к фразе «гораздо проще», которая соответствует фразе «во все времена» в резюме.Это подтверждает эффективность нашей модели в использовании абстрактной сводной информации.На рисунке FigREF38 показан пример 5-звездочного рейтинга с золотым резюме.Краткое содержание: «Любимая игра для обучения новичков».Как показано на тепловой карте, внимание к себе может быть сосредоточено только на некоторых общих сентиментальных словах, таких как «тяжело», «весело», «безмерно» и «самый», что отклоняется от основной идеи текста документа.Для сравнения, первый уровень нашей модели содержит такие фразы, как «легко обучать», что идеально соответствует фразе «обучать новичков» в резюме.Это показывает, что поверхностный уровень вывода последовательностей может изучать прямую информацию о сопоставлении сходства под контролем суммирования.Кроме того, второй уровень нашей модели учитывает фразы, в том числе «рекомендую это всем», что связано с «легко обучать» и «обучать новичков», показывая, что более глубокий уровень вывода последовательности нашей модели может изучать потенциальные связи. между обзором и резюме.Мы исследовали иерархически усовершенствованную сеть внимания для лучшего прогнозирования настроений.Наша модель допускает многократное взаимодействие между представлением сводки и обзора в иерархическом порядке.Эмпирические результаты показывают, что предлагаемый метод превосходит все надежные базовые показатели и предыдущие работы и обеспечивает новую современную производительность на наборе данных SNAP Amazon Review. | Анализ настроений дает полезный обзор содержания отзывов клиентов. Многие веб-сайты с обзорами позволяют пользователю вводить не только полный обзор, но и краткий обзор. Было показано, что совместное прогнозирование сводки обзора и рейтинга настроений приносит пользу обеим задачам. Однако эти методы предусматривают интеграцию обзорной и сводной информации неявным образом, что в некоторой степени ограничивает их производительность. В этой статье мы предлагаем иерархически усовершенствованную сеть внимания для лучшего использования мультивзаимодействия между обзором и его резюме для анализа настроений. В частности, представление обзора послойно уточняется с учетом краткого представления. Эмпирические результаты показывают, что наша модель может лучше использовать написанные пользователями сводки для анализа настроений в обзорах, а также является более эффективной по сравнению с существующими методами, когда сводка пользователя заменяется сводкой, созданной системой автоматического обобщения. | 3,895 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Нейронная сеть лекарств. В последние годы наблюдается быстрый рост использования социальных сетей.Люди регулярно публикуют сообщения о своих повседневных событиях.BIBREF0 предлагает четыре задачи для определения названий лекарств, классификации приема лекарств, классификации побочных реакций на лекарства и выявления поведения при вакцинации на основе твитов.Мы участвовали в задачах 2 и 4. Основной вклад в работу можно резюмировать как создание нейронной сети, основанной на ансамбле двух моделей LSTM, которую мы называем Neural DrugNet.Мы обсудим нашу модель в разделе 2.Раздел 3 содержит подробную информацию об экспериментах и предварительной обработке.В разделе 4 мы обсуждаем результаты и предлагаем будущие работы.Обнаружение приема наркотиков во многом зависит от: Сети долговременной краткосрочной памяти BIBREF1 оказались эффективными в задачах, требующих изучения структуры последовательных данных.Чтобы изучить модель, которая может оценить первое условие, мы используем нейронные сети на основе LSTM.Наша первая модель основана на BIBREF2, модели LSTM, кодировщик которой взят из языковой модели, предварительно обученной на текстах Википедии и точно настроенной на твитах.После этого плотный слой используется для классификации по различным категориям.А чтобы также принять во внимание упоминание препарата, которого не было в обучающих данных, мы используем словесную структуру названий лекарств.Большинство названий лекарств имеют один и тот же суффикс.Пример: мелатонин, окситоцин и метформин имеют суффикс «-ин».Для этого мы используем модель на основе LSTM, обученную на триграммах.Затем мы берем ансамбль этих двух моделей.Мы придаем одинаковое значение обеим моделям.То есть вероятность прогнозирования Neural-DrugNet представляет собой среднее значение вероятностей прогнозирования двух моделей LSTM.Прогнозируемый класс — это тот, который имеет максимальную вероятность прогнозирования.Обучение предварительно обученной модели LSTM на основе языка соответствует рекомендациям, приведенным в оригинальной статье BIBREF2.Они используют дискриминационную тонкую настройку, наклонную треугольную скорость обучения и постепенное размораживание слоев.Для модели LSTM на основе n-грамм символов, поскольку точная настройка не требуется, мы обучаем модель сквозным образом.Методы сбора данных, используемые для составления набора данных для общих задач, описаны в BIBREF0.подавая твиты в Neural-DrugNet, мы используем ту же схему предварительной обработки, которая обсуждалась в BIBREF3.Затем для модели на основе символьной триграммы мы добавляем специальный символ «$» в качестве разделителя слова.То есть триграммами символов слова «ram» будут: «$ra», «ram», «am$».Мы экспериментировали с разными типами архитектур для обеих задач.Хотя можно использовать любой классификатор, такой как случайный лес, деревья решений или классификатор повышения градиента.Но из-за нехватки времени мы использовали в качестве базовой линии только машину опорных векторов с линейным ядром (обозначаемую как LinearSVC).На этапе разработки мы ошибочно использовали в качестве показателя для задачи 2 только точность.Приведенные результаты основаны на разделении проверки поездов в соотношении 4:1. Окончательные результаты по варианту с лучшими показателями по данным испытаний для обеих задач таковы: В этой статье мы представляем Neural-DrugNet для классификации приема лекарств и выявления поведения при вакцинации.Это ансамбль двух моделей LSTM.Первая представляет собой предварительно обученную языковую модель, дополненную классификатором и принимающую слова в качестве входных данных, а вторая представляет собой модель LSTM с блоком внимания над ней, который принимает в качестве входных данных символьную триграмму.Он постоянно превосходит стандартные модели LSTM и другие базовые показатели, что подтверждает наше утверждение о том, что классификация употребления наркотиков и обнаружение поведения при вакцинации основаны как на структуре предложений, так и на функциях, основанных на триграммах символов.Производительность, о которой сообщается в этой статье, может быть дополнительно повышена за счет использования языковой модели, предварительно обученной на твитах, а не на текстах Википедии.Кроме того, модуль ансамбля можно изучить сквозно, используя плотный слой. | В этой статье мы описываем систему, представленную командой Light для выполнения общей задачи по интеллектуальному анализу социальных сетей для приложений здравоохранения. Предыдущие работы показывают, что LSTM достигли выдающихся результатов в задачах обработки естественного языка. Мы развертываем ансамбль из двух моделей LSTM. Первая представляет собой предварительно обученную языковую модель, дополненную классификатором и принимающую слова в качестве входных данных, а вторая представляет собой модель LSTM с блоком внимания над ней, который принимает в качестве входных данных символьную триграмму. Мы называем ансамбль этих двух моделей: Neural-DrugNet. Наша система занимает 2-е место по второй общей задаче: Автоматическая классификация постов с описанием приема лекарств. | 639 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Проблемы на горизонте: прогнозирование спада онлайн-обсуждений по мере их развития. «Ché saetta previsa vien più lenta». – Данте Алигьери, Divina Commedia, ParadisoАнтисоциальное поведение — это постоянная проблема, от которой страдают онлайн-платформы для общения; это широко распространенный BIBREF0 и потенциально вредный для психического и эмоционального здоровья BIBREF1, BIBREF2.Нагрузка, которую это явление оказывает на сопровождающих сообщества, вызвала недавний интерес к вычислительным подходам для помощи модераторам-людям.Предыдущая работа в этом направлении в основном была сосредоточена на апостериорном выявлении различных видов антисоциального поведения, включая разжигание ненависти BIBREF3, BIBREF4, преследование BIBREF5, личные нападки BIBREF6 и общую токсичность BIBREF7.Тот факт, что эти подходы выявляют антисоциальный контент только постфактум, ограничивает их практичность как инструментов для помощи в упреждающей модерации в разговорных областях.Устранение этого ограничения требует прогнозирования будущего срыва разговора на основе ранних предупреждающих знаков, давая модераторам время потенциально вмешаться, прежде чем будет нанесен какой-либо вред (BIBREF8, BIBREF8, BIBREF9, BIBREF9, обсуждение см. в BIBREF10, BIBREF10).Такая цель признает срыв как результат развития разговора и относится к более широкой области разговорного прогнозирования, которая включает в себя задачи прогнозирования будущего, такие как прогнозирование возможной продолжительности разговора BIBREF11, будет ли попытка убеждения в конечном итоге успешной BIBREF12, BIBREF13, BIBREF14, приведут ли командные обсуждения в конечном итоге к повышению производительности BIBREF15, или будут ли текущие консультационные беседы в конечном итоге восприниматься как полезные BIBREF16. Однако подход к таким диалоговым проблемам прогнозирования требует преодоления нескольких присущих моделированию проблем.Во-первых, разговоры динамичны, и их результат может зависеть от того, как последующие комментарии взаимодействуют друг с другом.Рассмотрим пример на рисунке FigREF2: хотя ни один отдельный комментарий не является откровенно оскорбительным, читатель может почувствовать напряжение, возникающее из-за их последовательности (например, пренебрежительные ответы на повторяющиеся вопросы).Таким образом, модель прогнозирования должна отражать не только содержание каждого отдельного комментария, но и отношения между комментариями.Предыдущие работы в основном полагались на созданные вручную функции для фиксации таких отношений — например, сходство между комментариями BIBREF16, BIBREF12 или структурой разговора BIBREF17, BIBREF18 — хотя архитектуры нейронного внимания также недавно показали многообещающие результаты BIBREF19. Вторая проблема моделирования связана с тем фактом, что что разговоры имеют неизвестный горизонт: они могут быть разной продолжительности, а прогнозируемое событие может произойти в любое время.Так когда же самое время делать прогноз?Предыдущие работы в основном предлагали два решения, каждое из которых приводило к важным практическим ограничениям.Одно из решений состоит в том, чтобы предположить (нереалистично) предварительное знание того, когда произойдет прогнозируемое событие, и извлечь функции до этого момента BIBREF20, BIBREF8.Другим компромиссным решением является извлечение функций из окна фиксированной длины, часто в начале диалога BIBREF21, BIBREF15, BIBREF16, BIBREF9.Однако выбор размера окна для охвата всех непрактичен: короткие окна будут пропускать информацию в комментариях, которые они не охватывают (например, окно, состоящее только из двух комментариев, будет пропускать цепочку повторяющихся вопросов в комментариях с 3 по 6 на рисунке РИС. 2), в то время как Более длинные окна рискуют вообще пропустить прогнозируемое событие, если оно произойдет до конца окна, что помешает раннему обнаружению.В этой работе мы представляем модель прогнозирования диалоговых событий, которая преодолевает как эти присущие проблемы путем обработки комментариев, так и их взаимосвязей по мере их возникновения (т. е. в онлайн-режиме).Наше главное открытие заключается в том, что модели с этими свойствами уже существуют, хотя и ориентированы на генерацию, а не на прогнозирование: недавняя работа по созданию контекстно-зависимых диалогов (или «чат-ботов») предложила последовательные нейронные модели, которые эффективно используют внутриразговорную динамику BIBREF22. , BIBREF23, BIBREF24, одновременно имея возможность обрабатывать разговор по мере его развития (см. обзор BIBREF25). Чтобы эти системы хорошо работали в генеративной области, их необходимо обучать на огромных объемах (немаркированных) разговорных данных. .Основная трудность в непосредственной адаптации этих моделей к контролируемой области диалогового прогнозирования заключается в относительной нехватке размеченных данных: для большинства задач прогнозирования доступно не более нескольких тысяч размеченных примеров, чего недостаточно для печально известных последовательных нейронных моделей, требующих большого количества данных.Чтобы преодолеть эту трудность, мы предлагаем отделить цель изучения нейронного представления разговорной динамики от цели прогнозирования будущих событий.Первые могут быть предварительно обучены на больших объемах неконтролируемых данных, аналогично тому, как обучаются чат-боты.Последний может использовать полученное представление после его точной настройки для классификации с использованием относительно небольших размеченных данных.В то время как аналогичные подходы «предварительное обучение, а затем точная настройка» недавно позволили достичь современной производительности в ряде задач НЛП, включая вывод на естественном языке, ответы на вопросы и рассуждения на основе здравого смысла (обсуждаемые в разделе SECREF2), до Насколько нам известно, это первая попытка применить эту парадигму к диалоговому прогнозированию.Чтобы проверить эффективность этой новой архитектуры в прогнозировании срыва онлайн-общений, мы разрабатываем и распространяем два новых набора данных.Первые утрояют размер тщательно курируемого набора данных «Беседы пошли наперекосяк» BIBREF9, где гражданские разговоры на странице обсуждения в Википедии помечаются толпой в зависимости от того, приводят ли они в конечном итоге к личным нападкам; второй основан на модерации популярного субреддита ChangeMyView, цель которого — спрогнозировать, станет ли дискуссия впоследствии объектом действий модератора из-за «грубого или враждебного» поведения.В обоих наборах данных наша модель превосходит существующие подходы с фиксированным окном, а также более простые последовательные базовые показатели, которые не могут учитывать отношения между комментариями.Кроме того, благодаря онлайн-обработке разговора наша система может заранее уведомить о предстоящем сбое, вызывая в среднем 3 комментария (или 3 часа), прежде чем будет опубликован откровенно токсичный комментарий.Подводя итог, в этой работе мы: представляем первую модель прогнозирования разговорных событий, которая может отражать динамику разговора по мере его развития; создаем два различных набора данных (один совершенно новый, другой расширяет предыдущую работу) для задачи прогнозирования сбоя онлайн-технологий. разговоры; сравните производительность нашей модели с текущим состоянием техники и оцените ее способность подавать сигналы раннего предупреждения.Наша работа мотивирована целью оказания помощи модераторам онлайн-сообществ путем упреждающего оповещения о рискованных разговорах, которые могут заслуживать их внимания.Однако мы предупреждаем, что любые автоматизированные системы могут кодировать или даже усиливать предвзятости, существующие в обучающих данных BIBREF26, BIBREF27, BIBREF28, поэтому публичная реализация должна быть тщательно изучена на предмет таких предубеждений. BIBREF29. Антисоциальное поведение.Антисоциальное поведение в Интернете проявляется во многих формах, включая преследование BIBREF30, киберзапугивание BIBREF31 и общую агрессию BIBREF32.Предыдущая работа была направлена на понимание различных аспектов такого поведения, включая его влияние на сообщества, в которых оно происходит (BIBREF33, BIBREF34), вовлеченных участников (BIBREF35, BIBREF36, BIBREF37, BIBREF38) и связи с внешним миром BIBREF39. Апостериорная классификация разговоров.Существует обширная предварительная работа по классификации результатов разговора после его завершения или классификации событий разговора после того, как они произошли.Существует множество примеров, но некоторые из них более тесно связаны с нашей нынешней работой, включая определение победителя дебатов BIBREF40, BIBREF41, BIBREF42, выявление успешных переговоров BIBREF21, BIBREF43, а также определение того, является ли обман BIBREF44, BIBREF45, BIBREF46 или разногласие BIBREF47, BIBREF48, Произошли BIBREF49, BIBREF50, BIBREF51.Наша цель другая, потому что мы хотим прогнозировать события разговора до того, как они произойдут, и пока разговор еще продолжается (потенциально допуская вмешательство).Обратите внимание, что некоторые апостериорные задачи также можно переформулировать как задачи прогнозирования (при условии наличия необходимых меток); например, прогнозирование того, приведет ли продолжающийся разговор в конечном итоге к разногласиям BIBREF18, вместо того, чтобы выявлять уже существующие разногласия.Разговорное прогнозирование.Как описано в разделе SECREF1, предыдущая работа по прогнозированию результатов и событий разговоров в значительной степени опиралась на созданные вручную функции для отражения аспектов динамики разговора.Примеры наборов функций включают статистические измерения, основанные на сходстве высказываний BIBREF16, дисбалансе настроений BIBREF20, потоке идей BIBREF20, увеличении враждебности BIBREF8, частоте ответов BIBREF11 и графическом представлении разговоров BIBREF52, BIBREF17.Напротив, мы стремимся автоматически изучать нейронные представления разговорной динамики посредством предварительного обучения.Такие созданные вручную функции обычно извлекаются из окон разговора фиксированной длины, оставляя без внимания проблему неизвестного горизонта.Хотя в некоторых работах обучалось несколько моделей для разной длины окна BIBREF8, BIBREF18, они считают эти модели независимыми и, как таковые, не решают проблему их агрегирования в единый прогноз (т. е. принятия решения, в какой момент сделать прогноз). прогноз).В качестве основы мы реализуем простое решение с раздвижными окнами (раздел SECREF5). Предварительное обучение НЛП.Использование предварительного обучения для решения задач на естественном языке становится все более популярным после недавних достижений, продемонстрировавших улучшение производительности при выполнении широкого спектра контрольных задач BIBREF53, BIBREF54.В существующих работах в качестве цели предварительного обучения обычно использовалась цель языкового моделирования; примеры включают предсказание следующего слова BIBREF55, автоматическое кодирование предложений, BIBREF56 и машинный перевод BIBREF57.BERT BIBREF58 представляет вариант этого подхода, цель которого — предсказать следующее предложение в документе по текущему предложению.Наша цель предварительного обучения схожа по духу, но действует на уровне разговора, а не на уровне документа.Следовательно, мы рассматриваем нашу цель как диалоговое моделирование, а не (только) языковое моделирование.Более того, хотя цель прогнозирования предложения BERT сформулирована как задача с множественным выбором, наша цель сформулирована как генеративная задача.Мы рассматриваем два набора данных, представляющие связанные, но несколько разные задачи прогнозирования.Первый набор данных представляет собой расширенную версию аннотированного набора данных разговоров Википедии из BIBREF9.В этом наборе данных используются тщательно контролируемые краудсорсинговые ярлыки, строго фильтруемые, чтобы гарантировать вежливость разговоров вплоть до момента личного нападения.Это полезное свойство для целей анализа модели, и поэтому мы ориентируемся на него как на наш основной набор данных.Однако мы осознаем возможность того, что эти строгие ярлыки могут не полностью отражать тот тип поведения, который на практике волнует модераторов.Поэтому мы представляем вторичный набор данных, созданный на основе субреддита ChangeMyView (CMV), который не использует апостериорные аннотации.Вместо этого задача прогнозирования состоит в том, чтобы спрогнозировать, будет ли разговор подвергаться действиям модератора в будущем.Данные Википедии.Набор данных BIBREF9 «Conversations Gone Awry» состоит из 1270 разговоров, которые происходили между редакторами Википедии на общедоступных страницах обсуждения.Разговоры взяты из набора данных WikiConv BIBREF59 и помечены краудворкерами как содержащие личные нападки изнутри (т. е. враждебное поведение одного пользователя в разговоре, направленное по отношению к другому) или сохраняющие вежливость на протяжении всего разговора.Ряд элементов управления реализован для предотвращения обнаружения моделями тривиальных корреляций.Чтобы модели не собирали информацию, специфичную для конкретной темы (например, политические разговоры с большей вероятностью сорваны), каждый разговор, содержащий атаки, сочетается с чистым разговором с той же страницы обсуждения, где страница обсуждения служит прокси-сервером для темы.Чтобы заставить модели действительно фиксировать динамику разговора, а не выявлять уже существующую токсичность, используются человеческие аннотации, гарантирующие, что все комментарии, предшествующие личным нападкам, являются вежливыми.В целях более эффективного обучения модели мы решили расширить набор данных «Разговоры пошли наперекосяк», используя исходную процедуру аннотации.Поскольку мы обнаружили, что исходные данные были искажены в сторону более коротких разговоров, мы сосредоточили этот краудсорсинговый анализ на более длинных разговорах: тех, в которых перед атакой было 4 или более комментариев.Благодаря этому дополнительному краудсорсингу мы расширяем набор данных до 4188 разговоров, которые мы публично публикуем как часть набора инструментов для разговорного анализа Корнелла (ConvoKit). Мы выполняем разделение 80-20-20 обучение/разработка/тестирование, гарантируя, что парные разговоры завершатся. в одном и том же расколе, чтобы сохранить контроль над темой.Наконец, мы случайным образом выбираем еще 1 миллион разговоров из WikiConv, чтобы использовать их для неконтролируемого предварительного обучения генеративного компонента.Данные Reddit CMV.Набор данных CMV состоит из разговоров, собранных через API Reddit.В отличие от набора данных на основе Википедии, мы явно избегаем использования постфактум-аннотаций.Вместо этого мы используем в качестве метки, был ли комментарий в конечном итоге удален модератором за нарушение Правила 2: «Не будьте грубы или враждебны по отношению к другим пользователям».Хотя отсутствие постфактумных аннотаций ограничивает степень контроля над данными (например, некоторые разговоры могут содержать токсичные комментарии, не отмеченные модераторами), мы воспроизводим столько элементов управления данными Википедии, сколько можем.А именно, мы воспроизводим пару управления темой, выбирая пары положительных и отрицательных примеров, принадлежащих к одному и тому же сообщению верхнего уровня, после BIBREF12; и обеспечить, чтобы удаленный комментарий был оставлен пользователем, который ранее участвовал в разговоре.В результате этого процесса получается 6842 диалога, к которым мы снова применяем разделение 80-20-20 с сохранением пар.Наконец, мы собираем более 600 000 разговоров, которые не содержат ни одного удаленного комментария, для предварительной подготовки без присмотра.Теперь мы опишем нашу общую модель прогнозирования будущих диалоговых событий.Наша модель объединяет два компонента: (а) модель генеративного диалога, которая учится представлять динамику разговора без присмотра; и (б) контролируемый компонент, который точно настраивает это представление для прогнозирования будущих событий.На рисунке FigREF13 представлен обзор предлагаемой архитектуры, далее CRAFT (диалоговая рекуррентная архитектура для прогнозирования). Терминология.В целях моделирования мы рассматриваем диалог как последовательность $N$ комментариев $C = \lbrace c_1,\dots ,c_N\rbrace $.Каждый комментарий, в свою очередь, представляет собой последовательность токенов, где количество токенов может меняться от комментария к комментарию.Для $n$-го комментария ($1 \le n \le N)$ через $M_n$ обозначим количество токенов.Тогда комментарий $c_n$ можно представить как последовательность токенов $M_n$: $c_n = \lbrace w_1,\dots ,w_{M_n}\rbrace $.Генераторный компонент.Для генеративного компонента нашей модели мы используем архитектуру иерархического рекуррентного кодировщика-декодера (HRED) BIBREF60, модифицированную версию популярной архитектуры последовательности-последовательности (seq2seq) BIBREF61, предназначенную для учета зависимостей между последовательными входными данными.BIBREF23 показал, что HRED может успешно моделировать диалоговый контекст, кодируя временную структуру ранее увиденных комментариев, что делает его идеальным для нашего варианта использования.Здесь мы приводим общее описание архитектуры HRED, отложив более глубокое техническое обсуждение до BIBREF60 и BIBREF23. Диалоговая модель HRED состоит из трех компонентов: кодировщика высказываний, кодировщика контекста и декодера.Кодировщик высказываний отвечает за создание семантических векторных представлений комментариев.Он состоит из рекуррентной нейронной сети (RNN), которая считывает комментарий токен за токеном и для каждого токена $w_m$ обновляет скрытое состояние $h^{\text{enc}}$ на основе текущего токена и предыдущего. скрытое состояние: где $f^{\text{RNN}}$ — нелинейная вентильная функция (наша реализация использует GRU BIBREF62).Итоговое скрытое состояние $h^{\text{enc}}_M$ можно рассматривать как векторное кодирование всего комментария.Запуск кодировщика для каждого комментария $c_n$ приводит к получению последовательности $N$ векторных кодировок.Затем над этой последовательностью запускается второй кодировщик, кодировщик контекста: Каждое скрытое состояние $h^{\text{con}}_n$ затем можно рассматривать как кодировку полного контекста разговора вплоть до $n$ включительно. -й комментарий.Для генерации ответа на комментарий $n$ используется контекстная кодировка $h^{\text{con}}_n$ для инициализации скрытого состояния $h^{\text{dec}}_{0}$ декодера. РНН.Декодер создает токен ответа токен за токеном, используя следующую повторение: где $f^{\text{out}}$ — некоторая функция, которая выводит распределение вероятностей по словам; мы реализуем это, используя простой уровень прямой связи.В нашей реализации мы дополнительно дополняем декодер, уделяя внимание BIBREF63, BIBREF64 состояниям кодировщика контекста, чтобы помочь фиксировать долгосрочные зависимости между комментариями.Этот генеративный компонент можно предварительно обучить с использованием неразмеченных диалоговых данных.Компонент прогнозирования.Учитывая предварительно обученную диалоговую модель HRED, мы стремимся расширить ее, чтобы на основе контекста разговора предсказать, произойдет ли прогнозируемое событие.Наш предиктор состоит из многослойного перцептрона (MLP) с 3 полносвязными слоями, дырявыми активациями ReLU между слоями и сигмовидной активацией для вывода.Для каждого комментария $c_n$ предиктор принимает на вход кодировку контекста $h^{\text{con}}_n$ и передает ее через уровни MLP, в результате чего на выходе получается оценка, которая интерпретируется как вероятность $p_{\ text{event}}(c_{n+1})$ о том, что прогнозируемое событие произойдет (например, что разговор сорвется). Обучение прогнозирующего компонента начинается с инициализации весов кодировщиков полученными значениями. на предварительной тренировке.Затем основной цикл обучения работает следующим образом: для каждого положительного образца — то есть диалога, содержащего экземпляр прогнозируемого события (например, схода с рельсов) в комментарии $c_e$ — мы передаем контекст $c_1,\dots , c_{e-1}$ через кодер и классификатор и вычислите перекрестную энтропийную потерю между выходными данными классификатора и ожидаемым выходным значением 1.Аналогично, для каждого отрицательного образца — то есть диалога, в котором ни один из комментариев не содержит прогнозируемого события и который заканчивается $c_N$ — мы передаем контекст $c_1,\dots ,c_{N-1}$ через потеря модели и вычисления по сравнению с ожидаемым выходным значением 0. Обратите внимание, что параметры генеративного компонента не остаются фиксированными во время этого процесса; вместо этого обратному распространению разрешается проходить через все уровни кодера.Этот процесс, известный как точная настройка, изменяет представление, полученное во время предварительного обучения, чтобы оно было более полезным для прогнозирования BIBREF55. Мы реализуем модель и код обучения с помощью PyTorch и публично публикуем нашу реализацию и обученные модели вместе с данные как часть ConvoKit.Мы оцениваем эффективность CRAFT в задаче прогнозирования сбоя диалога как в сценариях Википедии, так и в сценариях CMV.С этой целью для каждого из этих наборов данных мы предварительно обучаем генеративный компонент на немаркированной части данных и точно настраиваем его на помеченном обучающем разбиении (размер данных подробно описан в разделе SECREF3). Чтобы оценить нашу последовательную систему по сравнению с На разговорном уровне нам нужно агрегировать прогнозы на уровне комментариев.Если какой-либо комментарий в разговоре вызывает положительный прогноз (т. е. $p_{\text{event}}(c_{n+1})$ превышает порог, полученный при разделении разработки, то соответствующий разговор, по прогнозам, сорвется. .Если этот прогноз срабатывает в разговоре, который фактически сходит с рельсов, но до того, как срыв действительно произошел, тогда разговор считается истинно позитивным; в противном случае это ложное срабатывание.Если для разговора не срабатывает никаких положительных прогнозов, но он фактически срывается, то это считается ложноотрицательным; если это не сошло с рельсов, то это настоящий негатив.Базовые линии окна фиксированной длины.Сначала мы попытаемся сравнить CRAFT с существующими подходами к прогнозированию с фиксированной длиной окна.С этой целью мы реализуем два таких базовых плана: Awry, который представляет собой современный метод, предложенный в BIBREF9, основанный на прагматических функциях в первой паре комментарий-ответ, и BoW, простой базовый набор слов, который делает прогноз, используя функции взвешенного набора слов TF-IDF, извлеченные из первой пары комментарий-ответ.Базовые показатели онлайн-прогнозирования.Далее мы рассмотрим более простые подходы к составлению прогнозов по мере общения (т. е. в режиме онлайн).Во-первых, мы предлагаем Cumulative BoW — модель, которая пересчитывает функции «мешка слов» для всех комментариев, просмотренных до сих пор, каждый раз, когда поступает новый комментарий.Хотя этот подход действительно демонстрирует желаемое поведение при создании обновленных прогнозов для каждого нового комментария, он не учитывает связи между комментариями.Этот простой кумулятивный подход нельзя напрямую распространить на модели, функции которых основаны строго на фиксированном количестве комментариев, например, на Аури.Альтернативой является использование скользящего окна: для набора функций, основанного на окне комментариев $W$, при каждом новом комментарии мы можем извлекать функции из окна, содержащего этот комментарий и предшествующие ему комментарии $W-1$.Мы применим это к методу Аури и назовем эту модель Sliding Awry.Для обоих этих базовых показателей мы агрегируем прогнозы на уровне комментариев так же, как и в нашей основной модели.КРАФТ-абляции.Наконец, мы рассматриваем две модифицированные версии модели CRAFT, чтобы оценить влияние двух ее ключевых компонентов: (1) этапа предварительного обучения и (2) ее способности фиксировать зависимости между комментариями через иерархическую память.Чтобы оценить влияние предварительного обучения, мы обучаем компонент прогнозирования CRAFT только на помеченных обучающих данных, без предварительного предварительного обучения слоев кодера с помощью неразмеченных данных.Мы обнаружили, что, учитывая относительно небольшой размер помеченных данных, этот базовый уровень не может успешно обучаться и в конечном итоге работает на уровне случайного угадывания.Этот результат подчеркивает необходимость этапа предварительного обучения, на котором можно использовать немаркированные данные.Чтобы оценить влияние иерархической памяти, мы реализуем упрощенную версию CRAFT, в которой размер памяти кодировщика контекста равен нулю (CRAFT $-$ CE), таким образом эффективно действуя так, как будто компонент предварительного обучения представляет собой стандартную модель seq2seq.Другими словами, эта модель не может фиксировать зависимости между комментариями и вместо этого на каждом этапе делает прогноз, основанный только на кодировке высказывания последнего комментария. Результаты.В таблице TABREF17 сравнивается CRAFT с базовыми показателями в тестовых группах (случайная базовая величина составляет 50%) и иллюстрируются несколько ключевых выводов.Во-первых, мы обнаружили, что неудивительно, что учет полного контекста разговора действительно полезен, причем даже простые базовые онлайн-версии превосходят базовые показатели с фиксированным окном.В обоих наборах данных CRAFT превосходит все базовые показатели (включая другие онлайн-модели) с точки зрения точности и F1.Более того, хотя он проигрывает по точности (CRAFT $-$ CE) и полноте (Cumulative BoW) индивидуально по данным Википедии, CRAFT имеет превосходный баланс между ними, имея как заметно более высокую кривую точности отзыва, так и большую площадь под ним. кривая (AUPR), чем базовые линии (рис. FigREF20).Последнее свойство особенно полезно на практике, поскольку оно позволяет модераторам настраивать производительность модели до некоторой желаемой точности, не жертвуя при этом слишком многим способом отзыва (или наоборот) по сравнению с базовыми показателями и ранее существовавшими решениями.Теперь мы рассмотрим поведение CRAFT более подробно, чтобы лучше понять его преимущества и ограничения.Мы конкретно рассматриваем следующие вопросы: (1) Насколько раннее предупреждение обеспечивает модель?(2) Действительно ли модель обучается чувствительному к порядку представлению разговорного контекста? Раннее предупреждение, но насколько рано?Недавний интерес к прогнозированию антисоциального поведения был вызван желанием предоставить модераторам упреждающее и действенное предупреждение.Но срабатывает ли наша модель достаточно рано для достижения таких практических целей? Для каждой личной атаки, правильно спрогнозированной нашей моделью, мы подсчитываем количество комментариев, прошедших между моментом первого запуска модели и атакой.На рисунке FigREF22 показано распределение этих значений: в среднем модель предупреждает об атаке за 3 комментария до того, как она действительно произойдет (4 комментария для CMV).Чтобы дополнительно оценить, сколько времени это раннее предупреждение даст модератору, мы также учитываем разницу во временных метках между комментарием, в котором впервые срабатывает модель, и комментарием, содержащим фактическую атаку.Более 50% разговоров получают предварительное предупреждение как минимум за 3 часа (2 часа для CMV).Более того, 39% разговоров получают как минимум 12 часов раннего предупреждения, прежде чем они сорваны.Имеет ли значение порядок?Одной из причин разработки нашей модели было интуитивное понимание того, что комментарии в разговоре не являются независимыми событиями; скорее, важен порядок, в котором они появляются (например, резкий комментарий, за которым следует вежливый комментарий, интуитивно кажется отличным от вежливого комментария, за которым следует резкий комментарий).По замыслу CRAFT обладает способностью изучать представление разговорного контекста с учетом порядка, но как мы можем узнать, что эта возможность действительно используется?Вполне возможно, что модель просто вычисляет нечувствительный к порядку «набор функций».Модели нейронных сетей печально известны своей недостаточной прозрачностью, что исключает анализ того, как именно CRAFT моделирует контекст разговора.Тем не менее, с помощью двух простых исследовательских экспериментов мы стремимся показать, что порядок комментариев не игнорируется полностью.Первый эксперимент по проверке того, учитывает ли модель порядок комментариев, — это эксперимент по перетасовке префиксов, представленный на рисунке FigREF23.Для каждого разговора, который, по прогнозам модели, сойдет с рельсов, пусть $t$ обозначает индекс инициирующего комментария, т. е. индекс, по которому модель впервые сделала прогноз срыва.Затем мы строим синтетические диалоги, беря первые комментарии $t-1$ (далее называемые префиксом) и рандомизируя их порядок.Наконец, мы подсчитываем, как часто модель больше не предсказывает крушение при индексе $t$ в синтетических разговорах.Если модель игнорировала порядок комментариев, ее прогноз должен остаться неизменным (как и для базового плана Cumulative BoW), поскольку фактическое содержание первых $t$ комментариев не изменилось (и вывод CRAFT является детерминированным).Вместо этого мы обнаруживаем, что примерно в одной пятой случаев (12% для CMV) модель меняет свой прогноз в отношении синтетических разговоров.Это говорит о том, что CRAFT изучает чувствительное к порядку представление контекста, а не просто «набор функций».Чтобы более конкретно оценить, насколько это чувствительное к порядку контекстное моделирование помогает в прогнозировании, мы можем активно запретить модели изучать и использовать любую динамику, связанную с порядком.Мы достигаем этого с помощью другого типа эксперимента по перетасовке, когда мы возвращаемся еще дальше и меняем порядок комментариев в диалогах, используемых для предварительного обучения, точной настройки и тестирования.Эта процедура сохраняет способность модели улавливать сигналы, присутствующие в отдельных обработанных комментариях, поскольку это не затрагивает кодировщик высказываний, но не позволяет ему улавливать любую значимую динамику, чувствительную к порядку.Мы обнаружили, что это снижает производительность модели (точность 65 % для Википедии, 59,5 % для CMV), снижая ее до уровня, аналогичного уровню версии, в которой мы полностью отключили кодировщик контекста.В совокупности эти эксперименты доказывают, что CRAFT использует свою способность моделировать разговорный контекст с учетом порядка и эффективно использует внутреннюю динамику.Важным направлением будущей работы станет разработка более прозрачных моделей, которые смогут пролить свет на то, какие именно особенности, связанные с порядком, извлекаются и как они используются в прогнозировании.В этой работе мы представили модель прогнозирования диалоговых событий, которая обрабатывает комментарии по мере их возникновения и учитывает весь диалоговый контекст для составления обновленного прогноза на каждом этапе.Эта модель заполняет пробел в существующей литературе по диалоговому прогнозированию, одновременно решая двойную задачу: фиксировать динамику комментариев и работать с неизвестным горизонтом.Мы обнаружили, что наша модель обеспечивает самую современную производительность в задаче прогнозирования сбоя в двух разных наборах данных, которые мы публикуем публично.Мы также показываем, что полученная система может обеспечить существенное предварительное уведомление о сходе с рельсов, открывая возможность упреждающего вмешательства со стороны модераторов-людей BIBREF65. Хотя мы сосредоточились конкретно на задаче прогнозирования схода с рельсов, мы рассматриваем эту работу как шаг к более общей задаче. модель для прогнозирования в реальном времени других типов эмерджентных свойств разговоров.Последующая работа могла бы адаптировать архитектуру CRAFT для решения других задач прогнозирования, упомянутых в разделе SECREF2, включая те, для которых результат не имеет отношения к обсуждению.Мы ожидаем, что разные задачи будут определяться разными типами динамики комментариев, а дальнейшие расширения архитектуры могут добавить дополнительную контролируемую точную настройку, чтобы направить ее на сосредоточение на конкретной динамике, которая может иметь отношение к задаче (например, обмен идеями). Что касается прогнозирования срыва, остаются открытыми вопросы относительно того, чего на самом деле хотят модераторы от системы раннего предупреждения, что повлияет на разработку практической системы, основанной на этой работе.Например, насколько ранним должно быть предупреждение, чтобы модераторы сочли его полезным?Каков оптимальный баланс между точностью, отзывом и частотой ложных срабатываний, при котором такая система действительно повышает производительность модераторов, а не тратит их время на ложные срабатывания?Каковы этические последствия такой системы?Последующая работа могла бы провести пользовательское исследование прототипа системы с реальными модераторами для решения этих вопросов.Практическим ограничением текущего анализа является то, что он опирается на сбалансированные наборы данных, в то время как сбой является относительно редким событием, для которого был бы уместен более строгий порог срабатывания.Хотя наш анализ кривой точности и отзыва показывает, что система устойчива при нескольких пороговых значениях ($AUPR = 0,7$), необходима дополнительная работа, чтобы установить, будет ли компромиссный вариант отзыва приемлемым на практике.Наконец, одним из основных ограничений настоящей работы является то, что она присваивает каждому разговору один ярлык: сорвется он или нет?На самом деле сход с рельсов не обязательно означает конец разговора; вполне возможно, что разговор может вернуться в нужное русло, подвергнуться повторению антисоциального поведения или любому количеству других траекторий.Было бы интересно рассмотреть возможность более детального прогнозирования траекторий разговора, учитывающего естественные — а иногда и хаотичные — приливы и отливы человеческих взаимодействий.Благодарности.Мы благодарим Калеба Чиама, Лие Фу, Лилиан Ли, Александру Никулеску-Мизил, Эндрю Ванга и Жюстин Чжан за содержательные беседы (с неизвестным горизонтом), Адитью Джа за огромную помощь в реализации и выполнении задач по краудсорсингу, Томаса Дэвидсона и Клэр. Ляну за аннотации исследовательских данных, а также анонимным рецензентам за полезные комментарии.Эта работа частично поддерживается наградой NSF CAREER IIS-1750615 и грантом NSF SES-1741441. | Онлайн-дискуссии часто перерастают в токсичные обмены мнениями между участниками. Недавние усилия в основном были сосредоточены на выявлении антисоциального поведения постфактум путем анализа отдельных комментариев в отдельности. Чтобы обеспечить более своевременное уведомление модераторов-людей, система должна заранее обнаружить, что разговор движется к срыву, прежде чем он действительно станет токсичным. Это означает, что сбой моделируется как возникающее свойство разговора, а не как изолированное событие на уровне высказывания. ::: Однако прогнозирование новых диалоговых свойств сопряжено с рядом проблем, присущих моделированию. Во-первых, поскольку разговоры динамичны, модель прогнозирования должна отражать ход обсуждения, а не свойства отдельных комментариев. Во-вторых, у настоящих разговоров неизведанный горизонт: они могут закончиться или сойти под откос в любой момент; таким образом, практическая модель прогнозирования должна оценивать риск в режиме онлайн по мере развития разговора. В этой работе мы представляем модель разговорного прогнозирования, которая изучает неконтролируемое представление разговорной динамики и использует ее для прогнозирования будущего срыва по мере развития разговора. Применяя эту модель к двум новым разнообразным наборам данных онлайн-разговоров с ярлыками антиобщественных событий, мы показываем, что она превосходит самые современные системы в прогнозировании сбоев. | 5,162 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Обнаружение эмоций в тексте: фокус на скрытой репрезентации. В методах машинного обучения было достигнуто множество достижений, которые помогают машинам понимать поведение человека лучше, чем когда-либо.Одним из наиболее важных аспектов человеческого поведения являются эмоции.Если бы машины могли обнаруживать выражения человеческих эмоций, их можно было бы использовать для повышения достоверности таких приложений, как маркетинг BIBREF0 , взаимодействие человека с компьютером BIBREF1 , политология BIBREF2 и т. д. Эмоции у людей сложны и их трудно различить.В психологии существовало множество эмоциональных моделей, которые пытались классифицировать и указать на основные человеческие эмоции, такие как 6 основных эмоций Экмана BIBREF3, колесо эмоций Плутчика BIBREF4 или трехуровневая категоризация эмоций Пэррота BIBREF5.Эти разновидности показывают, что эмоции трудно определить, различить и классифицировать даже людям-экспертам.Добавив сложность языка и тот факт, что выражения эмоций очень сложны и зависят от контекста BIBREF6, BIBREF7, BIBREF8, мы можем понять, почему обнаружение эмоций в текстовых данных является сложной задачей.Эту трудность можно увидеть, когда аннотаторы-люди пытаются присвоить тексту эмоциональные метки, но с использованием различных методов задача аннотирования может быть решена при желательном согласии между аннотаторами BIBREF9. Была проделана большая работа по обнаружению эмоций в речевых или визуальных данных. BIBREF10 , BIBREF11 , BIBREF12 , BIBREF13 .Но обнаружение эмоций в текстовых данных — относительно новая область, требующая дополнительных исследований.Было предпринято множество попыток обнаружить эмоции в тексте с использованием традиционных методов машинного обучения и функций, созданных вручную, в которых, учитывая набор данных, авторы пытаются найти лучший набор функций, который представляет больше всего и наилучшую информацию о тексте, а затем передает преобразованный текст. в качестве векторов признаков для классификатора для обучения BIBREF14, BIBREF15, BIBREF16, BIBREF17, BIBREF18, BIBREF19, BIBREF20, BIBREF21, BIBREF22, BIBREF23, BIBREF24, BIBREF25, BIBREF26.В процессе создания набора функций в этих методах некоторая наиболее важная информация в тексте, такая как последовательный характер данных и контекст, будет потеряна.Учитывая сложность задачи и тот факт, что эти модели теряют много информации из-за использования более простых моделей, таких как модель мешка слов (BOW) или функций лексикона, эти попытки приводят к методам, которые нельзя использовать повторно и обобщать.Дальнейшее совершенствование алгоритмов классификации и опробование новых путей необходимы для повышения эффективности методов обнаружения эмоций.Некоторые предложения, которые менее представлены в литературе, заключаются в разработке методов, выходящих за рамки лексических представлений и учитывающих поток языка.Благодаря такой последовательной природе рекуррентные и сверточные нейронные сети использовались во многих задачах НЛП и смогли улучшить производительность в различных задачах классификации BIBREF27, BIBREF28, BIBREF29, BIBREF30.Было очень мало работ по использованию глубокой нейронной сети для обнаружения эмоций в тексте BIBREF31, BIBREF32.Эти модели могут лучше отражать сложность и контекст языка не только за счет сохранения последовательной информации, но и за счет создания скрытого представления текста в целом и изучения важных функций без каких-либо дополнительных (и часто неполных) функций, созданных человеком.В этой работе мы утверждаем, что создание модели, которая может лучше отражать контекст и последовательный характер текста, может значительно улучшить производительность в сложной задаче обнаружения эмоций.Мы показываем это, используя классификатор на основе рекуррентной нейронной сети, который может научиться создавать более информативное скрытое представление целевого текста в целом, и показываем, что это может значительно улучшить конечную производительность.Исходя из этого, мы предлагаем сосредоточиться на методологиях, которые повышают качество этих скрытых представлений как контекстуально, так и эмоционально, и могут улучшить производительность этих моделей.Основываясь на этом предположении, мы предлагаем архитектуру глубокой рекуррентной нейронной сети для обнаружения дискретных эмоций в наборе данных твитов.Доступ к коду можно получить на GitHub [https://github.com/armintabari/Emotion-Detection-RNN]. Мы сравниваем наш подход с двумя другими: первый использует почти те же данные твитов, которые мы используем для обучения, а второй второй — набор данных CrowdFlower, аннотированный для эмоций.В первом Wang et al. BIBREF21 загрузил более 5 миллионов твитов, которые включали один из 131 эмоциональных хэштегов, основанных на трехуровневой классификации эмоций Пэрротта по семи категориям: радость, печаль, гнев, любовь, страх, благодарность, удивление.Чтобы оценить качество использования хэштегов в качестве меток, случайным образом было выбрано 400 твитов, и после сравнения человеческих аннотаций по меткам хэштегов они придумали простую эвристику, позволяющую повысить качество маркировки, игнорируя твиты с цитатами и URL-адресами и сохраняя только твиты с 5 терминами или болееу которых есть эмоциональные хэштеги в конце твитов.Используя эти правила, они извлекли около 2,5 миллионов твитов.После выборки еще 400 случайных твитов и сравнения их с человеческими аннотациями выяснилось, что хэштеги могут классифицировать твиты с точностью 95%.Они выполнили некоторую предварительную обработку, сделав все слова строчными буквами, заменили упоминания пользователей на @user, заменили буквы/пунктуацию, которые повторяются более двух раз, на одни и те же две буквы/знаки препинания (например, оооо INLINEFORM0 ох, !!!!!INLINEFORM1 !!); нормализованы некоторые часто используемые неформальные выражения (например, ll → will, dnt INLINEFORM2 — нет); и удалены хеш-символы.Они использовали подвыборку своего набора данных, чтобы определить наилучшие подходы к классификации, и, попробовав два разных классификатора (мультиномиальный наивный Байес и LIBLINEAR) и 12 различных наборов признаков, они получили наилучшие результаты, используя ветвь логистической регрессии для классификатора LIBLINEAR и набор функций состоит из n-gram(n=1,2), лексиконов LIWC и MPQA, тегов WordNet-Affect и POS.Во втором случае сообщенные результаты взяты из статьи BIBREF33, в которой они использовали классификатор максимальной энтропии с моделью «мешка слов» для классификации различных наборов эмоциональных данных.Здесь мы сообщаем только часть результатов для набора данных CrowdFlower, который можно сопоставить с одной из наших семи меток.Для классификации эмоций доступно не так много бесплатных наборов данных.Большинство наборов данных узкоспециализированы (например, заголовки новостей, сказки и т. д.) и недостаточно велики для обучения глубоких нейронных сетей.Здесь мы используем набор данных твитов, созданный Вангом и др.Как упоминалось в предыдущем разделе, они собрали более 2 миллионов твитов, используя хэштеги для маркировки своих данных.Они создали список слов, связанных с 7 эмоциями (шесть эмоций из BIBREF34: любовь, радость, удивление, гнев, печаль, страх плюс благодарность (см. таблицу TABREF3), и использовали этот список в качестве руководства для обозначения выбранных твитов приемлемого качества.После предварительной обработки они использовали 250 тысяч твитов в качестве тестового набора, около 250 тысяч — в качестве теста разработки, а остальные данные (около 2 миллионов) — в качестве обучающих данных.их лучшие результаты с использованием классификатора LIBLINEAR и набора функций, содержащего n-gram(n=1,2), лексиконы LIWC и MPQA, теги WordNet-Affect и POS, можно увидеть в таблице TABREF4.Видно, что их лучшие результаты были для эмоций с большим количеством эмоций, таких как радость и печаль, до 72,1 по F-мере, а худший результат был для эмоций с низким количеством эмоций-сюрпризов с F-мерой 13,9. Поскольку Twitter против полировки такого количества твитов. , Ван и др. предоставил идентификаторы твитов вместе с их ярлыком.Для нашего эксперимента мы извлекли твиты из набора данных Ванга и др. по идентификаторам твитов.Поскольку набор данных создан 7 лет назад, нам удалось загрузить только более 1,3 миллиона твитов примерно из 2,5 миллионов идентификаторов твитов в наборе данных.Распределение данных можно увидеть в таблице TABREF5.В нашем эксперименте мы использовали более простые этапы предварительной обработки, которые будут объяснены позже в разделе «Эксперимент».В этом разделе мы представляем архитектуру глубокой нейронной сети, которую мы использовали для классификации эмоций в наборе данных твитов.Эмоциональные выражения являются более сложными и контекстно-зависимыми даже по сравнению с другими формами выражений, основанными главным образом на сложности и неоднозначности человеческих эмоций и эмоциональных выражений, а также на огромном влиянии контекста на понимание выражаемых эмоций.Именно эти сложности заставили нас поверить в то, что функции на основе лексики, которые обычно используются в традиционных подходах машинного обучения, не способны уловить сложность выражений эмоций.Наша архитектура была разработана, чтобы показать, что использование модели, которая лучше передает информацию о контексте и последовательном характере текста, может превзойти методы, основанные на лексике, обычно используемые в литературе.Как упоминалось во введении, рекуррентные нейронные сети (RNN) хорошо справляются с задачами НЛП, особенно с задачами классификации.А поскольку нашей целью было собрать больше информации о контексте и последовательном характере текста, мы решили использовать модель, основанную на двунаправленной RNN, а именно двунаправленную сеть ГРУ для анализа твитов.Для создания классификатора эмоций мы решили использовать семь бинарных классификаторов — по одному для каждой эмоции — каждый из которых использует одну и ту же архитектуру для обнаружения конкретной эмоции.Графическую диаграмму модели можно увидеть на рисунке FigREF6.Первый уровень состоит из слоя поиска внедрения, который не будет меняться во время обучения и будет использоваться для преобразования каждого термина в соответствующий вектор внедрения.В наших экспериментах мы опробовали различные модели встраивания слов, но не заметили особой разницы в их производительности.Здесь мы сообщаем результаты для двух, которые показали лучшую производительность среди всех: ConceptNet Numberbatch BIBREF35 и fastText BIBREF36, оба имели 300 измерений.Поскольку ни в одном из наших твитов не было более 35 терминов, мы установили размер слоя внедрения на 35 и добавили отступы к более коротким твитам.Выходные данные этого слоя передаются на двунаправленный уровень GRU, выбранный для захвата каждого твита целиком перед передачей его вывода вперед.Цель состоит в том, чтобы создать промежуточное представление твитов, отражающее последовательный характер данных.На следующем шаге мы используем объединение слоев глобального максимального и среднего пула (с размером окна, равным двум).Затем использовалось максимальное объединение для извлечения наиболее важных функций из выходных данных GRU, а слой среднего пула использовался для рассмотрения всех функций для создания представления текста в целом.Эти частичные представления затем объединялись для создания окончательного скрытого представления.Для классификации выходные данные конкатенации передаются на плотный слой классификации с 70 узлами вместе со слоем исключения со скоростью 50%, чтобы предотвратить переобучение.Последний слой — это сигмовидный слой, который генерирует конечный результат классификатора, возвращающего вероятность класса.Минимальная предварительная обработка осуществлялась путем преобразования текста в нижний регистр, удаления хэштегов в конце твитов и отделения каждого знака препинания от связанного токена (например, круто!!INLINEFORM0 круто !!)и замена запятых и символов новой строки пробелами.Затем текст был токенизирован с помощью токенизатора TensorFlow-Keras.Были выбраны и добавлены в наш словарь первые N терминов, где N=100 тыс. для эмоций с большим количеством эмоций: радости, печали, гнева, любви, N=50 тыс. для благодарности и страха и N=25 тыс. для удивления.Семь бинарных классификаторов были обучены для семи эмоций с размером пакета 250 и для 20 эпох с двоичной кросс-энтропией в качестве целевой функции и оптимизатором Адама.Архитектуру модели можно увидеть на рисунке FigREF6.Для обучения каждого классификатора был создан сбалансированный набор данных с выбором всех твитов из целевого набора как класса 1 и случайной выборки того же размера из других классов как класса 0.Для каждого классификатора 80% данных были случайным образом выбраны в качестве обучающего набора, 10% — для проверочного набора и 10% — в качестве тестового набора.Как упоминалось ранее, мы использовали две модели внедрения, ConceptNet Numberbatch и fastText, в качестве двух более современных предварительно обученных векторных пространств слов, чтобы увидеть, как изменение слоя внедрения может повлиять на производительность.Результат сравнения различных вложений можно увидеть в таблице TABREF10.Видно, что лучшая производительность была разделена между двумя моделями внедрения с небольшими различиями в производительности.Сравнение нашего результата с Wang et al. можно увидеть в таблице TABREF9.Как показано, результаты нашей модели показывают значительное улучшение от 10% увеличения F-меры для большого количества эмоций радости до увеличения F-меры на 61,7 балла для небольшого количества эмоций удивления.в среднем мы показали увеличение F-меры на 26,8 пунктов для всех категорий, и, что более интересно, наш результат показывает очень небольшую разницу между различными эмоциями по сравнению с результатами, представленными Wang et al.Чтобы оценить эффективность этих моделей на совершенно невидимых данных, мы попытались классифицировать набор данных эмоциональных твитов CrowdFlower.Набор данных CrowdFlower состоит из 40 тысяч твитов, аннотированных с помощью краудсорсинга, каждый с одной эмоциональной меткой.Этот набор данных считается сложным для классификации и содержит много шума.Распределение набора данных можно увидеть в таблице TABREF18.Разметка в этом наборе данных нестандартна, поэтому мы использовали следующее сопоставление для меток: печаль INLINEFORM0 печальбеспокойство INLINEFORM0 страх счастье INLINEFORM0 радость любовь INLINEFORM0 любовьсюрприз INLINEFORM0 удивление INLINEFORM0 гнев. Затем мы классифицировали эмоции, используя предварительно обученные модели и эмоционально адаптированное встраивание быстрого текста.Результат можно увидеть в таблице TABREF19.Базовые результаты взяты из BIBREF33 и получены с использованием модели BOW и классификатора максимальной энтропии.Мы увидели огромное улучшение с 26 пунктов по F-мере для эмоции радости (счастья) до 57 пунктов по удивлению с общим средним увеличением на 38,6 пунктов.Бостан и Клингер не представили результаты классификации эмоции любви, поэтому мы не включили ее в среднее значение.Эти результаты показывают, что наши обученные модели работают исключительно на совершенно новом наборе данных с другим методом аннотации.В этой статье мы показали, что, используя разработанную сеть на основе RNN, мы можем значительно повысить производительность классификации.Мы показали, что сохранение последовательного характера данных может быть чрезвычайно полезным при работе с текстовыми данными, особенно при решении сложной задачи обнаружения более сложных явлений, таких как эмоции.Мы достигли этого, используя рекуррентную сеть в процессе создания нашего скрытого представления.Мы также использовали слой максимального пула для захвата наиболее важных функций и средний слой пула для захвата текста в целом, доказывая, что мы можем добиться большей производительности, сосредоточившись на создании более информативного скрытого представления.В будущем мы можем сосредоточиться на улучшении этих представлений, например, используя сети внимания BIBREF37, BIBREF38 для захвата более контекстуального представления или используя методы на основе языковой модели, такие как BERT BIBREF39, которые показали себя очень успешными в различных задачах НЛП. | В последние годы обнаружение эмоций в тексте стало более популярным благодаря его обширным потенциальным применениям в маркетинге, политологии, психологии, взаимодействии человека с компьютером, искусственном интеллекте и т. д. В этой работе мы утверждаем, что современные методы, основанные на традиционных Модели машинного обучения не могут понять сложность эмоционального языка, игнорируя последовательный характер текста и контекст. Таким образом, этих методов недостаточно для создания применимой и обобщаемой методологии обнаружения эмоций. Понимая эти ограничения, мы представляем новую сеть, основанную на двунаправленной модели GRU, чтобы показать, что получение более значимой информации из текста может значительно улучшить производительность этих моделей. Результаты показывают значительное улучшение: увеличение F-меры в среднем на 26,8 пункта на наших тестовых данных и на 38,6 пункта на совершенно новом наборе данных. | 2,467 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Удивительная плотность иллюзорной естественной речи. Растущее количество работ по состязательным примерам выявило, что для систем машинного обучения (ML), которые работают с многомерными данными, почти для каждого естественного входного сигнала существует небольшое возмущение точки, которое будет неправильно классифицировано системой, что создает проблему угроза его развертывания в определенных критических настройках BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6, BIBREF7, BIBREF8.В более широком смысле, восприимчивость систем МО к состязательным примерам побудила пересмотреть вопрос о том, действительно ли нынешние системы МО являются обучаемыми или же они представляют собой совокупность эффективных, но хрупких и легко обманываемых трюков BIBREF9 .В этой линии рассуждений неявно заложено предположение, что случаи «реального» обучения, такие как человеческое познание, приводят к чрезвычайно устойчивым системам.Действительно, по крайней мере в компьютерном зрении, человеческое восприятие считается золотым стандартом устойчивости к состязательным примерам.Очевидно, что людей можно обмануть различными иллюзиями, будь то оптические, слуховые или другие; и существует длинный ряд исследований со стороны сообществ когнитивных наук и психологов, изучающих эти BIBREF10.Однако в целом эти иллюзии рассматриваются как отдельные примеры, возникающие нечасто и далекие от случаев, встречающихся в повседневной жизни.В этой работе мы пытаемся понять, насколько восприимчивы системы восприятия естественной речи человека к тщательно продуманным «соперническим атакам».Мы исследуем плотность определенных классов иллюзий, то есть долю высказываний на естественном языке, на понимание которых иллюзия может повлиять.Наше исследование сосредоточено на эффекте Макгерка — хорошо изученном явлении, благодаря которому на восприятие того, что мы слышим, может влиять то, что мы видим BIBREF0 .Типичным примером является то, что звук фонемы «баа», сопровождаемый видеозаписью, где кто-то произносит «ваа», может восприниматься как «ваа» или «гаа» (рис. 1).Этот эффект сохраняется, даже если субъект осознает установку, хотя сила эффекта значительно варьируется в зависимости от людей и языков, а также от таких факторов, как возраст, пол и расстройства. BIBREF18 , BIBREF19 .Азначительная плотность иллюзорных экземпляров для людей может представлять те же типы рисков безопасности, что и состязательные примеры для систем ML.Звуковые сигналы, такие как объявления общественной службы, инструкции, отправленные службам экстренного реагирования и т. д., могут стать целью злонамеренного агента.Имея доступ только к экрану в пределах видимости предполагаемых жертв, агент может существенно запутать или изменить сообщение, воспринимаемое теми, кто видит экран (даже периферийно). Иллюзорные случаи для людей аналогичны состязательным примерам для систем ML.Однако, строго говоря, наше исследование плотности естественного языка, для которого могут быть созданы иллюзии Макгерка, не является человеческим аналогом состязательных примеров.Состязательными примерами для систем ML являются точки данных, которые неправильно классифицированы, несмотря на то, что они очень похожи на типичные точки данных (которые правильно классифицированы).Наши иллюзии неправильно дублированного звука не очень близки к обычно встречающимся входным сигналам, поскольку в наших сэмплах МакГурка есть слуховые сигналы, соответствующие одной фонеме/слову, и визуальные сигналы, соответствующие другой.Кроме того, существует убедительный аргумент в пользу того, почему возникает путаница Макгерка, а именно, что восприятие человеческой речи является бимодальным (аудиовизуальным) по своей природе, когда доступно чтение по губам BIBREF20, BIBREF21.Насколько нам известно, до нашей работы проводилось мало систематических исследований того, в какой степени эффект Макгерка или другие типы иллюзий могут быть уплотнены во множестве случаев, встречающихся в повседневной жизни.Ближайшая работа — BIBREF22, где авторы демонстрируют, что некоторые состязательные примеры для систем компьютерного зрения также обманывают людей, когда на просмотр изображения людям давалось менее десятой секунды.Однако некоторые из этих примеров кажутся менее удовлетворительными, поскольку возмущение действует как интерполяция в пространстве пикселей между исходным изображением и «неправильным» классом.В результате получаются изображения, которые визуально находятся на границе между двумя классами и, как таковые, не вызывают у зрителя ощущения иллюзии.В целом исследователи не исследовали надежность человеческого восприятия с помощью тех же инструментов, намерений или точек зрения, с помощью которых сообщество безопасности в настоящее время проверяет надежность систем ML.Для эффекта Макгерка мы пытаемся создать иллюзию языкового токена (например, фонемы, слова, предложения) $x$, создавая видео, в котором аудиопоток $x$ визуально дублируется человеком, говорящим $x^{\prime }\ne x$ .Мы подчеркиваем, что звуковая часть иллюзии не изменяется и соответствует тому, что человек говорит $x$ .Иллюзия $f(x^{\prime },x)$ влияет на слушателя, если он воспринимает то, о чем говорят, как $y\ne x$, если он смотрел иллюзорное видео, тогда как он воспринимает $x$, если он либо слушал в аудиопоток без просмотра видео или просмотр исходного неизмененного видео, в зависимости от спецификации.Мы называем токен иллюзорным, если для токена можно создать иллюзию, влияющую на восприятие значительной части людей.В разделе «Эксперименты на уровне фонем» мы анализируем, в какой степени эффект Макгерка можно использовать для создания иллюзий для фонем, слов и предложений, а также анализируем ту часть естественного языка, которая подвержена такой иллюзорности.Тем самым мы получаем нижнюю оценку плотности иллюзорной естественной речи.Мы обнаружили, что 1) значительная часть слов, встречающихся в повседневной речи, может быть превращена в иллюзии в стиле Макгерка, 2) такие иллюзии сохраняются, когда они встроены в контекст естественных предложений, и фактически влияют на значительную часть естественных предложений, и 3) иллюзорность слов и предложений можно предсказать, используя функции моделирования естественного языка.Мы начали с определения того, какие звуки фонем можно сочетать с видеокопиями других фонем, чтобы создать воспринимаемую фонему, отличную от реального звука.Мы создали видеоролики Макгерка для всех пар гласных, которым предшествует согласная //, а также для всех пар согласных, за которыми следует гласная //, произносимая говорящим.В американском английском 20 гласных фонем и 24 согласных фонемы, хотя /ʤ/и /ʒ/ являются избыточными для наших целей.Основываясь на ярлыках, предоставленных 10 людьми, мы обнаружили, что, хотя гласные нелегко спутать, существует ряд иллюзорных согласных.Отметим, что иллюзорные пары фонем зависят как от личности говорящего, так и от личности слушателя.Учитывая Таблицу 1 иллюзорных фонем, целью было понять, можно ли их использовать в словах или предложениях; и если да, то какая часть естественной речи подвержена этому воздействию.Мы выбрали 200 уникальных слов (перечисленных в таблице 2) из 10 000 наиболее распространенных слов в романах «Проекта Гутенберг» пропорционально их частоте в корпусе.В совокупности 10 тысяч слов имеют распространенность в корпусе 80,6%.Из 200 выбранных слов 147 (73,5%) содержали фонемы, которые, как показало наше предварительное исследование фонем, могли быть иллюзорными.Для этих 147 слов мы соединили аудиоклипы, произносимые говорящим, с иллюзорными видеозаписями говорящего, произносящего слова с соответствующим образом отключенными фонемами.Мы протестировали эти видео на 20 наивных испытуемых, которые не участвовали в предварительном исследовании.Каждый испытуемый просмотрел половину слов и прослушал без видео вторую половину слов, после чего ему были даны инструкции: «Запишите то, что слышите.То, что вы слышите, может быть, а может и не иметь смысла.Также запишите, если клип кажется вам непонятным.Не то чтобы клип мог показаться бессмысленным, но ясным».Испытуемым было разрешено до трех воспроизведений каждого клипа.Мы обнаружили, что просмотр иллюзорных видеороликов приводил к среднему уровню непонимания в 24,8%, что на 148% больше, чем при прослушивании только звука (таблица 3).Из-за иллюзорных видеороликов люди стали менее уверены в своих правильных ответах: еще 5,1% слов были услышаны правильно, но нечетко, по сравнению с 2,1% только для аудио.Для 17% из 200 слов иллюзорные видеоролики увеличили частоту ошибок более чем на 30% по сравнению с базовым показателем только для аудио.Чтобы создать прогнозирующую модель иллюзорности на уровне слов, мы использовали иллюзорные фонемы, обогащенные позиционной информацией, в качестве признаков.В частности, для каждой из 10 иллюзорных фонем мы создали три признака: фонема находится в начальной позиции (будучи первой фонемой слова), срединной позиции (когда фонемы идут до и после) или конечной позиции (будучи последняя фонема слова).Затем мы представили каждое слово с помощью двоичной модели набора слов BIBREF23, придав каждой из 30 особенностей фонемы с фонетическим контекстом значение 1, если оно присутствует в слове, и 0 в противном случае.Мы выполнили гребневую регрессию по этим признакам с постоянным членом.Мы искали оптимальную константу регуляризации $l2$ среди значений [0,1, 1, 10, 100] и выбрали оптимальную на основе производительности обучающего набора.Соотношение поезд:тест составляло 85%:15% и выбиралось случайным образом для каждого испытания.В ходе 10 тысяч рандомизированных испытаний мы получили среднюю корреляцию обучающего и тестового наборов, составившую $91,1\pm 0,6\%$ и $44,6\pm 28,9\%$ соответственно.Наша окончательная модель достигает вневыборочной корреляции 57% между предсказанными и наблюдаемыми иллюзионистами.Здесь наблюдаемая иллюзорность слов рассчитывается как разница между точностью зрителей иллюзорных видеороликов и точностью слушателей, где «точность» определяется как доля респондентов, которые были правы.Для каждого слова прогнозируемая иллюзорность рассчитывается на основе вывода по этому слову с использованием усредненных коэффициентов регрессии регрессионных испытаний, где слово не входит в обучающий набор.Наша предсказанная иллюзорность также калибруется в том смысле, что для слов, предсказанная иллюзорность которых <0,1, средняя эмпирическая иллюзорность равна 0,04; для слов с прогнозируемой иллюзорностью в интервале [0,1, 0,2] средняя эмпирическая иллюзорность равна 0,14; для прогнозируемой иллюзии между [0,2, 0,3] наблюдаемое среднее значение составляет 0,27; а для прогнозируемой иллюзорности >0,3 наблюдаемое среднее значение составляет 0,50.На рисунке 2 наглядно показано соответствие между наблюдаемой и прогнозируемой иллюзорностью слов.Мы поставили следующий эксперимент с предложениями естественного происхождения.Мы случайным образом выбрали 300 предложений длиной 4–8 слов включительно из романа «Маленькие женщины BIBREF24» из корпуса Project Gutenberg.Из этой сокращенной выборки мы выбрали и исказили 32 предложения, которые, как мы ожидали, были иллюзорными (перечислены в Таблице 4).С помощью динамика мы подготовили два формата каждого предложения: оригинальное видео (с оригинальным звуком) и иллюзорное видео (с оригинальным звуком). Затем мы оценили их восприятие на 1306 наивных испытуемых на Amazon Mechanical Turk.Тёркерам показали видео с шестью случайно выбранными предложениями, тремя иллюзорными и тремя оригинальными, и дали подсказку: «Нажмите любую клавишу, чтобы начать видео [индекс #] из 6.Посмотрите видео целиком, а затем вам будет предложено записать то, что сказал спикер».Разрешался только один просмотр любого клипа, чтобы имитировать естественную обстановку наблюдения за живым аудио/видеопотоком.Каждый Теркер был ограничен шестью видео, чтобы снизить утомляемость респондентов.Турок также попросили сообщить о своем уровне уверенности в том, что они услышали, по шкале от отсутствия неопределенности (0%) до полной неопределенности (100%).Сто двенадцать турок (8,6%) не последовали заданию, написав несвязанные ответы, и их результаты были исключены из анализа.Мы обнаружили, что просмотр иллюзорных видеороликов приводил к среднему уровню непонимания в 32,8%, что на 145% выше исходного уровня при прослушивании только звука (таблица 5).Иллюзорные видеоролики лишили людей уверенности в своих правильных ответах.Тюркеры, которые правильно идентифицировали аудиосообщение в иллюзорном видео, сообщили о средней неопределенности 42,9%, что на относительные 123% выше, чем средний показатель, о котором сообщили туркеры, которые правильно поняли исходные видео.Примеры ошибок, допущенных слушателями иллюзорных видеороликов, приведены в таблице 6.В целом мы обнаружили, что для 11,5% из 200 выборочных предложений (23 из 30 созданных нами видеороликов) иллюзорные видеоролики увеличили частоту ошибок более чем на 10% по сравнению с базовым уровнем только для аудио.Мы получили модель прогнозирования иллюзорности на уровне предложения с вневыборочной корреляцией 33% между предсказанными и наблюдаемыми иллюзорностями.Здесь наблюдаемая иллюзорность предложений рассчитывалась как разница между точностью зрителей иллюзорных видео и точностью зрителей оригинальных видео, где «точность» определяется как доля респондентов, которые были правы.Мы получили прогнозируемые иллюзорности, просто используя максимальный прогноз иллюзорности слова среди слов в каждом предложении, причем прогнозы слов были получены на основе модели уровня слов.Мы попытались улучшить нашу модель прогнозирования на уровне предложения, учтя вероятность появления слов в естественном языковом распределении, рассматривая три класса слов: слова в предложении, для которых не было попыток создать иллюзию, слова, для которых была предпринята попытка создать иллюзию, и потенциально воспринимаемые слова вместо слов, для которых была предпринята попытка создать иллюзию.Мы использовали журнал частот слов, полученный из 36,7 тыс. наиболее распространенных слов из корпуса Project Gutenberg.Этот подход не мог достичь лучших корреляций вне выборки, чем наивный метод.Это означает, что контекст важен для иллюзорности на уровне предложения, и следует использовать более сложные языковые модели.Наконец, сравнивая иллюзорность Макгерка на уровне слов и предложений в естественной речи, мы видим, что первая значительно выше.Следует ожидать большего эффекта Макгерка на уровне слов: предложения обеспечивают контекст, с помощью которого зритель может внести путаницу и недоразумения.Кроме того, при просмотре видеоролика с предложением по сравнению с видеороликом с короткими словами внимание зрителя с большей вероятностью отвлекается как от визуальной составляющей видео, что, очевидно, снижает эффект Макгерка, так и от звуковой составляющей, которая, вероятно, побуждает зрителя еще больше полагаться на контекст.Тем не менее, на уровне предложений остается значительная степень иллюзорности.Эта работа является первым шагом на пути к исследованию плотности иллюзорных явлений для человека.Есть много естественных направлений для будущей работы.В целях дальнейшего понимания иллюзий в стиле МакГерка, кажется, стоит построить более точные модели прогнозирования эффектов на уровне предложений и продолжить исследование рисков безопасности, создаваемых иллюзиями МакГерка.Например, следующим конкретным шагом в понимании иллюзий в стиле Макгерка могла бы стать реализация системы, которая принимает аудиовход и выводит дубляж видео, что приводит к серьезным недопониманиям.Такая система должна будет объединить высококачественную систему синтеза речи в видео BIBREF25, BIBREF26 с детализированной языковой моделью и моделью прогнозирования Макгерка.Существует также вопрос о том, как защититься от «атак» на человеческое восприятие.Например, в случае с эффектом МакГерка, как можно перефразировать отрывок текста таким образом, чтобы смысл не изменился, но перефразированный текст был значительно более устойчив к манипуляциям со стилем МакГерка?Центральный вопрос в этом направлении заключается в том, какую часть естественного языка можно сделать более устойчивой без существенного изменения семантики.Лучшее понимание того, когда и почему определенные системы человеческого восприятия ненадежны, также может быть применено для повышения надежности систем ML.В частности, было обнаружено, что нейронные сети восприимчивы к состязательным примерам в автоматическом распознавании речи BIBREF27, BIBREF28 и эффекту Макгерка BIBREF29, а элементарным подходом к обеспечению устойчивости языка к последней проблеме было бы использование сокращенного словарного запаса, избегающего слов. которые высоко оцениваются в нашей модели прогнозирования иллюзорности на уровне слов.Кроме того, на стыке когнитивной науки и состязательных примеров была проведена работа, предполагающая, что люди могут предвидеть, когда и как машины будут ошибочно классифицировать, в том числе для состязательных примеров BIBREF30, BIBREF31, BIBREF32.ПодробнееВ целом, по мере дальнейшего развития инструментов для исследования слабых мест систем МО, кажется, что настало время пересмотреть предполагаемую надежность человеческого восприятия.Мы ожидаем неожиданных результатов.В качестве примера мы суммируем некоторые предварительные результаты по аудиоиллюзиям.Аудиоклип со словом «Лорел» привлек широкое внимание в 2018 году и был освещен такими известными новостными агентствами, как The New York Times и Time.Примерно половина слушателей воспринимает «Лорел», а другая половина воспринимает «Янни» или похожие по звучанию слова с высокой уверенностью с обеих сторон BIBREF1 .Одна из причин, по которой общественность была заинтригована, заключается в том, что примеры таких явлений рассматриваются как редкие, изолированные случаи.В предварительной попытке исследовать плотность таких явлений мы выявили пять дополнительных отдельных примеров (таблица 7).Дополнительные файлы включают 10 версий одного из этих примеров, в которых слушатели склонны воспринимать либо «миры», либо «ууу».В различных аудиоклипах можно услышать обе интерпретации.Порог переключения от одной интерпретации к другой индивидуален.Эти примеры были созданы путем изучения 5000 слов и выбора 50, чьи спектрограммы содержат баланс высокочастотных и низкочастотных компонентов, который наиболее точно соответствует таковому для слова «Лорел».Каждый аудиофайл соответствовал синтезу слова Google Cloud Text-to-Speech API после затухания низких частот и замедления звука на $1,3$ - $1,9$ x. Прослушав этих 50 лучших кандидатов, мы оценили пятерку наиболее перспективных среди 15 человек (3 женщины, 12 мужчин, возрастной диапазон 22–33 года).Мы обнаружили несколько режимов распределения восприятия для всех пяти аудиоклипов.Например, клип «миры» с заглушенными и замедленными в 1,5 раза высокими частотами был воспринят пятью слушателями как «миры», четырьмя — как «ууу/ууу» и шестью — как «ночами/светами».Хотя эти эксперименты не демонстрируют плотности таких примеров по отношению к набору всех слов — и маловероятно, что иллюзорные звуковые дорожки в этом стиле можно создать для большинства слов — они иллюстрируют, что даже удивительный феномен Янни или Лорел не является единичным явлением.Еще неизвестно, насколько плотными могут быть такие явления при правильной тонкой манипуляции со звуком.«Наша работа предполагает, что значительную часть естественной речи человеческое восприятие можно изменить с помощью тонких, легко обучаемых возмущений.Это первый шаг на пути к изучению плотности иллюзорного явления для людей и изучению степени, в которой человеческое восприятие может быть уязвимо для рисков безопасности, подобных тем, которые представляют собой состязательные примеры для систем ML.Мы надеемся, что наша работа вдохновит будущие исследования по открытию, генерации и количественной оценке мультимодальных и унимодальных аудиовизуальных и слуховых иллюзий для людей.Существует множество открытых исследовательских вопросов о том, когда и почему люди подвержены различным типам иллюзий, как смоделировать иллюзорность естественного языка и как можно сделать естественный язык более устойчивым к иллюзорным возмущениям.Кроме того, мы надеемся, что такие расследования помогут нам понять сильные и слабые стороны существующих систем ОД.Наконец, существует вероятность того, что некоторая уязвимость перед тщательно продуманными состязательными примерами может быть присуща всем сложным системам обучения, которые взаимодействуют с многомерными входными данными в среде с ограниченными данными; любое тщательное исследование этого вопроса должно также исследовать человеческую когнитивную систему.Это исследование было частично поддержано наградой NSF AF:1813049, премией молодого исследователя ONR (N00014-18-1-2295) и грантом Стэнфордского института человеко-ориентированного искусственного интеллекта.Авторы хотели бы поблагодарить Джин Беттертон, Шивама Гарга, Ноа Гудмана, Кельвина Гуу, Мишель Ли, Перси Лянга, Александра Макелова, Джейкоба Плахту, Джейкоба Стейнхардта, Джима Терри и Александра Уотли за полезные отзывы о работе.Исследование проводилось в соответствии со Стэнфордским протоколом IRB 46430. | Недавняя работа над состязательными примерами продемонстрировала, что большинство естественных входных данных можно исказить, чтобы обмануть даже самые современные системы машинного обучения. Но происходит ли это и с людьми? В этой работе мы исследуем: какая часть естественных случаев речи может быть превращена в «иллюзии», которые либо изменяют восприятие людей, либо приводят к тому, что у разных людей восприятие существенно различается? Сначала мы рассмотрим эффект МакГурка — явление, при котором добавление тщательно выбранного видеоклипа к аудиоканалу влияет на восприятие зрителем сказанного (McGurk and MacDonald, 1976). Мы получили эмпирические оценки того, что значительная часть слов и предложений, встречающихся в естественной речи, в той или иной степени подвержена этому эффекту. Мы также изучаем модели для прогнозирования иллюзорности Макгерка. Наконец, мы демонстрируем, что слуховая иллюзия Янни или Лорел (Pressnitzer et al., 2018) не является изолированным явлением, создавая несколько совершенно разных новых случаев. Мы считаем, что удивительная плотность иллюзорной естественной речи требует дальнейшего исследования с точки зрения как безопасности, так и когнитивной науки. Дополнительные видеоролики доступны по адресу: https://www.youtube.com/playlist?list=PLaX7t1K-e_fF2iaenoKznCatm0RC37B_k. | 3,318 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Классификация коротких текстов с использованием неконтролируемого расширения ключевых слов. Интернет предоставил исследователям огромные объемы неразмеченных текстовых данных и позволил разработать все более сложные языковые модели, которые могут достичь высочайшего уровня производительности, несмотря на отсутствие специального обучения BIBREF0, BIBREF1, BIBREF2.Желательно адаптировать эти модели для индивидуальных задач, таких как классификация коротких текстов.Краткий текст имеет множество нюансов, его трудно моделировать статистически и он скудный по функциям, что затрудняет традиционный анализ BIBREF3.Эти трудности еще больше усугубляются, когда обучение ограничено, как это имеет место во многих практических приложениях.В этой статье представлен метод расширения короткого текста дополнительными ключевыми словами, созданными с использованием предварительно обученной языковой модели.Этот метод использует преимущества общего понимания языка, чтобы предлагать контекстуально релевантные новые слова без необходимости использования дополнительных данных предметной области.Этот метод может формировать как производные входного словаря, так и совершенно новые слова, возникающие в результате контекстуализированных взаимодействий слов, и идеально подходит для приложений, где объем данных ограничен. с расширенными псевдозаголовками, когда обучающая выборка мала.Использование: классификатор случайного леса, 1000 тестовых примеров, 10-кратная перекрестная проверка.Методы расширения документа обычно направлены на создание новых функций с помощью пользовательских моделей.Модели совместного появления слов BIBREF4, тематическое моделирование BIBREF5, расширение скрытых понятий BIBREF6 и кластеризация внедрения слов BIBREF7 — все это примеры методов расширения документов, которые сначала необходимо обучить с использованием либо исходного набора данных, либо внешнего набора данных из одного и того же домена.Поэтому модели расширения можно использовать только при наличии достаточно большого обучающего набора.Трансферное обучение было разработано как метод снижения потребности в обучающих данных путем адаптации моделей, обученных в основном на внешних данных BIBREF8.Переносное обучение может быть эффективным методом классификации коротких текстов и требует небольшого количества обучающих данных для конкретной предметной области (BIBREF9, BIBREF10), однако оно требует обучения новой модели для каждой новой задачи классификации и не предлагает общего решения для обогащения разреженных данных.Недавно многозадачные языковые модели были разработаны и обучены с использованием сверхбольших онлайн-наборов данных, не ограничиваясь какими-либо узкими приложениями BIBREF0, BIBREF1, BIBREF2.Теперь можно извлечь выгоду из информации, содержащейся в этих моделях, адаптировав их к задачам расширения и классификации текста.Эта статья представляет собой новый подход, который сочетает в себе преимущества расширения документа, трансферного обучения и многозадачного моделирования.Он добавляет в документы новые и релевантные ключевые слова, используя модель предварительно обученного обучения BERT, тем самым используя преимущества трансферного обучения, полученного во время предварительного обучения BERT.Он также не контролируется и не требует специального обучения для конкретной задачи, что позволяет применять одну и ту же модель ко многим различным задачам или областям.Набор данных по категориям новостей BIBREF11 представляет собой набор заголовков, опубликованных HuffPost BIBREF12 в период с 2012 по 2018 год и полученных онлайн от Kaggle BIBREF13.Полный набор данных содержит 200 тысяч заголовков новостей с метками категорий, датами публикации и краткими текстовыми описаниями.Для этого анализа была использована выборка из примерно 33 тысяч заголовков, охватывающих 23 категории.Дальнейший анализ можно найти в таблице SECREF12 в приложении.Слова были сгенерированы с использованием предварительно обученной модели BERT, разработанной и обученной Google AI Language BIBREF0.BERT создает контекстуальное встраивание слов, пропуская список токенов слов через 12 скрытых слоев преобразователя и генерируя векторы закодированных слов.Для генерации расширенного текста исходный краткий текстовый документ был передан предварительно обученному BERT.На каждом слое преобразователя формировалось и сохранялось новое вложение слова.Затем векторный декодер BERT использовался для преобразования векторов скрытых слов в слова-кандидаты, при этом три верхних слова-кандидата на каждом уровне кодера были сохранены.Каждое входное слово давало 48 слов-кандидатов, однако многие из них были дубликатами.Примеры сгенерированных слов для каждого слоя можно найти в таблицах SECREF12 и SECREF12 в приложении.Сгенерированные слова были отсортированы по частоте, повторяющиеся слова из исходного ввода были удалены, а также стоп-слова, знаки препинания и неполные слова.Сгенерированные слова затем добавлялись к исходному документу для создания расширенных псевдодокументов. Расширенный документ был ограничен 120 словами, чтобы нормализовать каждый набор функций.Дальнейший анализ можно найти в таблице SECREF12 в приложении. Рисунок. Предлагаемый метод использует предварительно обученную модель встраивания слов BERT для генерации новых слов, которые добавляются к исходному тексту, создавая расширенные псевдодокументы.Чтобы проверить способность предложенных методов генерировать неконтролируемые слова, необходимо было разработать метод измерения релевантности слов.Тематическое моделирование использовалось на основе предположения, что слова, встречающиеся в одной и той же теме, более релевантны друг другу, чем слова из разных тем BIBREF14.Полный набор данных заголовков BIBREF11 из 200 тысяч слов был смоделирован с использованием наивного байесовского алгоритма BIBREF15 для создания модели совместной встречаемости категорий слов.Затем для каждой категории были найдены 200 наиболее релевантных слов и использованы для создания тематической таблицы SECREF12.Предполагалось, что каждая категория представляет свою уникальную тему.Было измерено количество соответствующих выходных слов в зависимости от метки категории заголовка, и это можно найти на рисунке SECREF4.Результаты показывают, что предложенный метод может правильно идентифицировать новые слова, относящиеся к входной теме, при соотношении сигнал/шум 4 к 1. цель'.Результаты показывают, что метод неконтролируемой генерации генерирует гораздо больше слов, относящихся к категории меток, чем к другим темам.Протестировано на 7600 примерах по 23 темам.Три набора данных были сформированы путем взятия образцов одинаковой длины из каждой метки категории.Новые наборы данных: «Worldpost против преступности», «Политика против развлечений» и «Спорт против комедии». Четвертый многоклассовый набор данных был сформирован путем объединения трех вышеуказанных наборов.Для каждого примера были созданы три варианта функции путем расширения каждого заголовка на 0, 15 и 120 слов.Перед каждым запуском тестовый набор снимался и откладывался в сторону.Остальные данные были выбраны на основе желаемого размера обучения.Каждый вариант функции был горячо закодирован с использованием уникального tfidf-векторизатора BIBREF16 и использовался для обучения классификатора случайного леса BIBREF17 с 300 оценками для двоичных предсказаний и 900 оценками для мультиклассов.Был выбран случайный лес, поскольку он хорошо работает с небольшими наборами данных и устойчив к переобучению BIBREF18.Каждый вариант функции оценивался по соответствующему набору тестов.Для каждого набора данных было выполнено 10 прогонов.Желательно генерировать новые слова, которые имеют отношение к целевым темам, и увеличивать прогнозирующий сигнал, избегая при этом слов, которые не имеют отношения к делу, добавляют шум и вводят в заблуждение прогнозы.Стратегия, описанная в разделе SECREF4, была создана для измерения релевантности слов и количественной оценки эффективности неконтролируемой модели.Из рисунков SECREF4 и SECREF12 в приложении видно, что предложенный метод расширения эффективен при генерировании слов, которые относятся к темам входного предложения, даже из очень небольшого количества данных.Из контекста всего лишь одного слова метод может генерировать 3 новых релевантных слова и может генерировать до 10 новых релевантных слов из предложений, которые содержат 5 слов, связанных с темой SECREF12.Хотя метод чувствителен к шуму, производя в среднем одно слово, относящееся к каждой несущественной теме, количество правильных предсказаний статистически превышает шум.Более того, поскольку предлагаемый метод не требует каких-либо предварительных знаний о своих целевых темах, он остается полностью независимым от предметной области и может применяться в целом для краткого текста по любой теме.Сравнение производительности расширенных псевдодокументов на трех отдельных наборах данных двоичной классификации показывает значительное улучшение по сравнению с базовым уровнем в области разреженных данных от 100 до 1000 обучающих примеров.Набор данных «Worldpost vs Crime» показал наибольшее улучшение, как видно на рисунке SECREF1.В области с разреженными данными расширенные псевдодокументы могут достичь той же производительности, что и оригинальные заголовки, но только с половиной данных, и улучшить оценку F1 на 13,9–1,7%.Набор данных «Комедия против спорта», показанный на рисунке SECREF11, показал среднее улучшение на 2% в этом редком регионе.Набор данных «Политика против развлечений», рисунок SECREF11, был уникальным.Это единственный набор данных, для которого расширенный набор функций из 15 слов превосходит набор функций из 120 слов.Он демонстрирует, что длина расширенных псевдодокументов может вести себя как гиперпараметр для определенных наборов данных и должна быть настроена в соответствии с размером поезда.Расширенные псевдодокументы улучшили производительность мультиклассов в среднем на 4,6% в диапазоне от 100 до 3000 обучающих примеров, как показано на рисунке SECREF11.Результаты показывают эффективность предложенного метода при предложении релевантных слов в узкой тематической области даже без каких-либо предварительных знаний предметной области.В каждом случае было обнаружено, что расширенные псевдодокументы улучшают производительность только при небольших объемах обучения.Это показывает, что, хотя расширенные псевдодокументы эффективны при создании искусственных данных, они также создают много шума.Как только размер обучения превышает определенный порог, больше не требуется создавать дополнительные данные, а использование расширенных документов просто добавляет шум в хорошо обученную модель. может вести себя как гиперпараметр и должен настраиваться в зависимости от размера обучения.Протестировано на 1000 примерах с 10-кратной перекрестной проверкой. Рисунок. Бинарная классификация «Политика» и «Спорт» имеет меньшие улучшения по сравнению с другими наборами данных, что указывает на то, что предлагаемый метод, хотя и построен с учетом независимости предметной области, показывает лучшую производительность по определенным темам.Протестировано на 1000 примерах с 10-кратной перекрестной проверкой. Добавленные слова улучшают мультиклассовую классификацию на 1,5–13 % в диапазоне от 150 до 2000 обучающих примеров.Тесты проводились с использованием равного размера выборок заголовков, разделенных на категории «World-Post», «Криминал», «Политика», «Развлечения», «Спорт» или «Комедия».Классификатор случайного леса 900 Estimator был обучен для каждой точки данных, протестирован на 2000 примерах и усреднен с помощью 10-кратной перекрестной проверки.2 Генерация новых слов на основе очень маленьких подсказок, состоящих из 10 слов или меньше, является серьезной проблемой.Короткое предложение часто характеризуется всего одним ключевым словом, и моделировать темы на основе таких небольших данных сложно.Любой метод генерации ключевых слов, который чрезмерно полагается на отдельные слова, будет лишен контекста и не сможет добавить новую информацию, в то время как попытки свободно формировать новые слова без каких-либо предварительных знаний предметной области являются неопределенными и приводят к вводящим в заблуждение предположениям.Этот метод пытается найти баланс между генерацией синонимов и слов в свободной форме, ограничивая слова так, чтобы они соответствовали исходному предложению, но при этом допуская взаимодействие «слово-слово» и «слово-предложение» для создания новых результатов.Векторы слов должны перемещаться через слои преобразователя вместе и, следовательно, сохранять одинаковый порядок токенов и семантическое значение, однако они также получают новые входные данные от окружающих слов на каждом уровне.В результате, как видно из таблиц SECREF12 и SECREF12 в приложении, первые несколько слоев преобразователя в основном являются синонимами входного предложения, поскольку векторы слов не были сильно изменены.Центральные преобразовательные слои актуальны и новы, поскольку они все еще немного ограничены, но на них также сильно влияет контекст предложения.А конечные слои преобразователя по большей части бессмысленны, поскольку они были полностью изменены по сравнению с исходным состоянием и потеряли способность извлекать настоящие слова.Этот метод уникален, поскольку он позволяет избежать необходимости в предварительном наборе данных за счет использования информации, содержащейся в весах общей языковой модели.Модели встраивания слов, и в частности BERT, содержат огромные объемы информации, собранной в ходе их обучения.База BERT, например, имеет 110 миллионов параметров и была обучена как на Wikipedea Corpus, так и на BooksCorpus BIBREF0, совокупной коллекции из более чем 3 миллиардов слов.Полный потенциал таких хорошо обученных общеязыковых моделей все еще раскрывается.В этой статье показано, что, тщательно подсказывая и анализируя эти модели, можно извлечь из них новую информацию и расширить анализ короткого текста за пределы ограничений, налагаемых количеством слов. Рисунок Таблица тем, созданная на основе меток категорий полного набора данных заголовков. , можно использовать для измерения релевантности сгенерированных слов.Исходный заголовок анализировался путем подсчета количества слов, относящихся к каждой теме.Сгенерированные слова затем анализировались таким же образом.Изменение количества слов между входными и выходными темами было измерено и отображено на графике, как показано на рисунке SECREF12.figureBox, где показано количество сгенерированных слов в теме как функция количества входных слов в той же теме.Результаты показывают, что дополнительные связанные слова могут быть сгенерированы за счет увеличения сигнала входной подсказки.Протестировано на 7600 примерах, охватывающих 23 темы.figureИнформация об исходных заголовках и сгенерированных словах, используемых для создания расширенных псевдозаголовков.figureTop 3 предположения для каждой позиции токена в каждой последующей модели внедрения, предварительно обученной BERT.Учитывая входное предложение «2 человека пострадали в результате стрельбы в школе в Индиане», полный список сгенерированных слов можно получить из значений в таблице. | Классификация коротких текстов, как и вся наука о данных, с трудом достигает высокой эффективности при использовании ограниченных данных. В качестве решения можно расширить короткое предложение новыми и релевантными ключевыми словами, чтобы сформировать искусственно увеличенный набор данных и добавить новые функции к данным тестирования. В этой статье применяется новый подход к расширению текста путем создания новых слов непосредственно для каждого входного предложения, что не требует дополнительных наборов данных или предварительного обучения. В этом неконтролируемом подходе новые ключевые слова формируются в скрытых состояниях предварительно обученной языковой модели, а затем используются для создания расширенных псевдодокументов. Процесс генерации слов оценивался путем проверки того, насколько хорошо предсказанные слова соответствуют темам входного предложения. Было обнаружено, что этот метод позволяет получить от 3 до 10 релевантных новых слов для каждой целевой темы, в то же время генерируя только 1 слово, относящееся к каждой нецелевой теме. Сгенерированные слова затем добавлялись к коротким заголовкам новостей для создания расширенных псевдозаголовков. Результаты экспериментов показали, что модели, обученные с использованием псевдозаголовков, могут повысить точность классификации при ограничении количества обучающих примеров. | 2,161 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Метаобучение для создания естественного языка с низкими ресурсами в ориентированных на задачи диалоговых системах. В качестве важной части ориентированной на задачи диалоговой системы BIBREF0 задача генерации естественного языка (NLG) состоит в том, чтобы создать высказывание на естественном языке, содержащее желаемую информацию, с учетом семантического представления, состоящего из типов диалоговых актов с набором пар слот-значений. .Традиционные методы, использующие созданные вручную правила, часто порождают монотонные высказывания и требуют значительного объема человеческой инженерной работы.Недавно были предложены различные нейронные подходы BIBREF1, BIBREF2, BIBREF3 для генерации точных, естественных и разнообразных высказываний.Однако эти методы обычно разрабатываются для конкретных областей.Более того, для их обучения часто требуется большой объем данных.Высокая стоимость аннотаций не позволяет разработчикам создавать собственные компоненты NLG с нуля.Поэтому чрезвычайно полезно обучить модель NLG, которую можно обобщить на другие области или задачи NLG с разумным количеством аннотированных данных.В данной статье это относится к задаче NLG с низкими ресурсами.Недавно были предложены некоторые методы для задач NLG с низкими ресурсами.Помимо простого трюка с увеличением данных BIBREF4, для изучения инвариантных к предметной области представлений были предложены специализированные архитектуры моделей, в том числе условные вариационные автокодировщики (CVAE, BIBREF3, BIBREF5, BIBREF6) и критики адаптации состязательных доменов BIBREF5.Хотя были получены многообещающие результаты, мы обнаружили, что наборы данных, используемые этими методами, просты и имеют тенденцию перечислять множество слотов и значений в высказывании без особых лингвистических вариаций.Как следствие, переподбор слотов и значений в целевом домене с низким уровнем ресурсов может даже превзойти версии, обученные с помощью примеров домена с богатым исходным кодом BIBREF6 .К счастью, существует новый крупномасштабный набор данных диалогов (MultiWoz, BIBREF7), который содержит большое количество доменов и лингвистических шаблонов, что позволяет нам проводить обширный и содержательный экспериментальный анализ для задач NLG с низким уровнем ресурсов.В этой статье вместо того, чтобы рассматривать проблему как подход, основанный на модели, мы предлагаем обобщенный подход метаобучения, основанный на оптимизации, для непосредственного улучшения процедуры оптимизации для задачи NLG с низкими ресурсами.Мы начнем с утверждения, что недавно предложенный независимый от модели алгоритм метаобучения (MAML, BIBREF8) хорошо подходит для задачи NLG с низкими ресурсами.Затем мы предложили обобщенный алгоритм NLG под названием Meta-NLG, основанный на MAML, рассматривая языки в разных областях или типах диалоговых действий как отдельные задачи Meta NLG.Следуя сути MAML, цель Meta-NLG — научиться лучше инициализировать параметры модели, что способствует быстрой адаптации к новым сценариям NLG с низким уровнем ресурсов.Поскольку Meta-NLG не зависит от модели, пока модель может быть оптимизирована с помощью градиентного спуска, мы можем применить его к любым существующим моделям NLG, чтобы оптимизировать их таким образом, чтобы они лучше и быстрее адаптировались к новым задачам с низким уровнем ресурсов.Основной вклад этой статьи двоякий: нейронные модели недавно показали многообещающие результаты в решении задач NLG для задачно-ориентированных диалоговых систем.При условии некоторого семантического представления, называемого диалоговым актом (DA), модель NLG декодирует высказывание слово за словом, а вероятность создания выходного предложения длиной INLINEFORM0 факторизуется следующим образом: DISPLAYFORM0 INLINEFORM0 — это модель NLG, параметризованная INLINEFORM1 и INLINEFORM2. — это DA предложения INLINEFORM3.Например, INLINEFORM4 — это яркое представление DA «Inform(name=The Oak Bistro, food=British)».«Информ» (тип DA) управляет функциональностью предложения, а «имя» и «еда» — два задействованных слота.Высказыванием реализации INLINEFORM5 может быть: «Есть ресторан под названием[Бистро Oak], где подают [британскую] еду».Каждое предложение может содержать несколько типов DA.Был предложен ряд нейронных методов, в том числе HLSTM BIBREF9, SCLSTM BIBREF1, Enc-Dec BIBREF10 и RALSTM BIBREF2. Целью NLG с низким уровнем ресурсов является тонкая настройка предварительно обученной модели NLG для новых задач NLG (например, новых доменов) с небольшим количеством обучающих примеров.BIBREF4 предложил метод «подделки данных» для увеличения данных обучения с низким уровнем ресурсов в новой задаче без изменения модели или процедуры обучения.BIBREF3 предложил семантически обусловленный вариационный автокодировщик (SCVAE) для изучения инвариантных к предметной области представлений, передаваемых в SCLSTM.Они показали, что это улучшает SCLSTM в условиях ограниченности ресурсов.BIBREF6 принял ту же идею, что и BIBREF3.Они использовали два условных вариационных автокодировщика для кодирования предложения и DA в два отдельных скрытых вектора, которые вместе передаются в декодер RALSTM BIBREF2.Позже они разработали два критика адаптации предметной области с алгоритмом состязательного обучения BIBREF5, чтобы изучить неразличимое скрытое представление исходного и целевого доменов для лучшего обобщения на целевой домен.В отличие от этих подходов, основанных на моделях, мы напрямую решаем проблему оптимизации с точки зрения метаобучения.Метаобучение или обучение обучению, которое восходит к некоторым ранним работам BIBREF11, в последнее время привлекло широкое внимание.Фундаментальной проблемой является «быстрая адаптация к новым и ограниченным данным наблюдений».Для решения этой проблемы существует три категории методов метаобучения: Основанные на метриках: Идея состоит в том, чтобы изучить метрическое пространство и затем использовать его для сравнения тестовых выборок с низким уровнем ресурсов с богатыми обучающими выборками.Типичные работы в этой категории включают сиамскую сеть BIBREF12, согласующую сеть BIBREF13, нейронную сеть с расширенной памятью (MANN BIBREF14), сеть прототипов BIBREF15 и сеть отношений BIBREF16. На основе модели: идея состоит в том, чтобы использовать дополнительного мета-обучаемого для обучения. чтобы обновить исходного учащегося несколькими обучающими примерами.BIBREF17 разработал мета-обучающегося на основе LSTM.Гиперсети BIBREF18, MetaNet BIBREF19 и TCML BIBREF20 также изучают отдельный набор представлений для быстрой адаптации модели.BIBREF21 предложил мета-обучаемый модуль на основе LSTM для изучения алгоритма оптимизации (градиентов), используемого для обучения исходной сети.На основе оптимизации: сам алгоритм оптимизации может быть разработан таким образом, чтобы обеспечить быструю адаптацию.Независимое от модели метаобучение (MAML, BIBREF8, BIBREF22, BIBREF23) достигло высочайшего уровня производительности за счет прямой оптимизации градиента в сторону хорошей инициализации параметров для легкой точной настройки в сценариях с низким уровнем ресурсов.Он не вводит никаких дополнительных архитектур или параметров.Reptile BIBREF24 похож на MAML только с градиентом первого порядка.В этой статье мы предлагаем обобщенный метод метаоптимизации, основанный на MAML, для непосредственного решения внутренних проблем обучения задач NLG с низким уровнем ресурсов.В этом разделе мы сначала описываем цель точной настройки модели NLG для задачи NLG с низкими ресурсами в разделе 3.1.Затем мы опишем, как наш алгоритм Meta-NLG инкапсулирует эту цель в задачи Meta NLG и в алгоритм мета-оптимизации для лучшего изучения моделей NLG с низким уровнем ресурсов.Предположим, что INLINEFORM0 — это базовая модель NLG, параметризованная INLINEFORM1 , и у нас есть начальная INLINEFORM2, предварительно обученная с помощью пар DA-высказываний INLINEFORM3 из набора INLINEFORM4 исходных задач с высоким уровнем ресурсов.Когда мы адаптируем INLINEFORM5 к некоторой задаче с низкими ресурсами INLINEFORM6 с парами DA-высказываний INLINEFORM7 , процесс тонкой настройки INLINEFORM8 можно сформулировать следующим образом:DISPLAYFORM0 Параметр INLINEFORM0 будет использоваться для инициализации, а модель будет дополнительно обновляться новыми наблюдениями INLINEFORM1.Размер INLINEFORM2 в задачах NLG с низким уровнем ресурсов очень мал из-за высокой стоимости аннотаций, поэтому хороший параметр инициализации INLINEFORM3, полученный из исходных задач с большим количеством ресурсов, имеет решающее значение для производительности адаптации на новых задачах NLG с низким уровнем ресурсов.Чтобы изучить INLINEFORM0, который можно легко настроить для новых задач NLG с низким уровнем ресурсов, идея нашего алгоритма Meta-NLG состоит в том, чтобы неоднократно моделировать вспомогательные задачи Meta NLG из INLINEFORM1, чтобы имитировать процесс тонкой настройки в уравнении ( EQREF9 ). .Затем мы рассматриваем каждую задачу Meta NLG как отдельный образец/эпизод мета-обучения и используем цель мета-оптимизации в следующем разделе, чтобы напрямую учиться на них.Поэтому первым шагом является создание набора вспомогательных задач Meta NLG INLINEFORM0 для моделирования процесса тонкой настройки с низким уровнем ресурсов.Мы создаем задачу Meta NLG INLINEFORM1 с помощью: DISPLAYFORM0 INLINEFORM0 и INLINEFORM1 каждого INLINEFORM2 — это два независимых подмножества пар DA-высказываний из исходных данных с большим количеством ресурсов INLINEFORM3.INLINEFORM4 и INLINEFORM5 соответствуют наборам мета-обучения (поддержки) и мета-тестов (запросов) типичной установки мета-обучения или обучения в несколько этапов, а INLINEFORM6 часто называют эпизодом обучения.Эта мета-настройка с INLINEFORM7 и INLINEFORM8 в одной задаче Meta NLG позволяет нашему алгоритму Meta-NLG напрямую учиться на различных задачах Meta NLG.Их использование будет описано позже.Задачи Meta NLG строятся с использованием двух дополнительных принципов: Обобщение задачи: для обобщения на новые задачи NLG задачи Meta NLG следуют той же модальности, что и целевая задача.Например, если нашей целевой задачей является адаптация к парам DA-высказываний в новом домене, то пары DA-высказываний в каждом INLINEFORM0 выбираются из одного и того же исходного домена.Мы также рассматриваем возможность адаптации к новым типам DA в последующих экспериментах.В этом случае пары DA-высказываний в каждом INLINEFORM1 имеют один и тот же тип DA.Эта настройка объединяет цель обобщения задачи.Адаптация с низким уровнем ресурсов. Чтобы смоделировать процесс адаптации к задаче NLG с низким уровнем ресурсов, размеры обоих подмножеств INLINEFORM0 и INLINEFORM1 , особенно INLINEFORM2 , устанавливаются небольшими.Поэтому, когда модель обновляется в INLINEFORM3 в рамках последующих этапов метаобучения, она видит только небольшое количество образцов в этой задаче.Эта установка включает в себя цель адаптации с низким уровнем ресурсов.Опираясь на задачи мета-NLG, определенные выше, мы формулируем цель мета-обучения Meta-NLG следующим образом:DISPLAYFORM0 DISPLAYFORM1 Оптимизация для каждой задачи Meta NLG INLINEFORM0 вычисляется на INLINEFORM1 со ссылкой на INLINEFORM2.Во-первых, параметр модели INLINEFORM3, который необходимо оптимизировать, обновляется в INLINEFORM4 по формуле.( EQREF14 ).Этот шаг имитирует процесс, когда INLINEFORM5 адаптируется к новой задаче NLG с низким уровнем ресурсов INLINEFORM6 с наблюдениями с низким уровнем ресурсов INLINEFORM7 .Нам необходимо отметить, что уравнение.( EQREF14 ) является промежуточным шагом, и он предоставляет только адаптированный параметр ( INLINEFORM8 ) для нашей базовой модели INLINEFORM9, который необходимо оптимизировать на каждой итерации.После этого базовая модель, параметризованная обновленным параметром ( INLINEFORM10 ), оптимизируется в INLINEFORM11 с использованием метацели в уравнении ( EQREF13 ).Эта цель оптимизации мета-обучения напрямую оптимизирует модель для обобщения на новые задачи NLG с низким уровнем ресурсов путем многократного моделирования процесса с помощью задач Meta NLG в уравнении ( EQREF13 ).Оптимизацию уравнения ( EQREF13 ) можно получить с помощью уравнения ( EQREF15 ).Он включает в себя стандартный градиент первого порядка INLINEFORM0, а также градиент через другой градиент INLINEFORM1.Предыдущее исследование BIBREF8 показывает, что второй член можно аппроксимировать для эффективности вычислений с незначительным падением производительности.В нашем случае мы по-прежнему используем точную оптимизацию в уравнении.( EQREF15 ), поскольку на данный момент мы не сталкиваемся с какими-либо трудностями в вычислениях даже на самом большом наборе данных NLG.Градиент второго порядка вычисляется с помощью матрицы Гессе INLINEFORM2 .DISPLAYFORM0 DISPLAYFORM0 Чтобы лучше понять метацель, мы включаем стандартную цель многозадачного обучения (MTL) в уравнение.( EQREF17 ).MTL обучается через отдельные пары DA-высказываний из различных задач NLG с высоким уровнем ресурсов INLINEFORM0 и не учится явно адаптироваться к новым задачам NLG с низким уровнем ресурсов.Рисунок FigREF16 наглядно иллюстрирует различия с тремя исходными задачами INLINEFORM1 с высокими ресурсами и оптимальными параметрами INLINEFORM2 для каждой задачи.INLINEFORM3 изучается из отдельных пар DA-высказываний в INLINEFORM4, в то время как Meta-NLG повторно создает вспомогательные задачи Meta NLG INLINEFORM5 из INLINEFORM6 и напрямую изучает INLINEFORM7 из них.В результате INLINEFORM8 ближе к INLINEFORM9 и INLINEFORM10 (оптимальным параметрам некоторых новых малоресурсных задач, например, INLINEFORM11 и INLINEFORM12), чем INLINEFORM13.Как мы вскоре увидим, наша схема метаоптимизации приводит к существенному увеличению конечной производительности.Алгоритм 1 иллюстрирует процесс изучения INLINEFORM0 из INLINEFORM1.Отметим, что пакеты находятся на уровне задач Meta NLG, а не пар DA-высказываний.Точная настройка Meta-NLG для новой задачи NLG с низким уровнем ресурсов с аннотированными парами DA-высказываний INLINEFORM2 использует тот же алгоритм, параметризованный ( INLINEFORM3 ).[1]INLINEFORM0 INLINEFORM1 Инициализировать INLINEFORM0 INLINEFORM0 не сходится Имитировать пакет мета-задач NLG INLINEFORM0 INLINEFORM1 Вычислить INLINEFORM0 в уравнении.( EQREF14 )Мета-обновление INLINEFORM0 в уравнении.( EQREF15 )Возврат INLINEFORM0 Meta-NLG( INLINEFORM0 )Мы использовали широко известный семантически обусловленный LSTM (SCLSTM BIBREF1) в качестве базовой модели INLINEFORM0.Мы использовали настройки гиперпараметров по умолчанию (n_layer = 1, Hidden_size = 100, dropout = 0,25, clip = 0,5, Beam_width = 5).Мы реализовали Meta-NLG на основе реализации PyTorch SCLSTM из BIBREF7.Поскольку Meta-NLG не зависит от модели, он применим ко многим другим моделям NLG.Мы включили различные настройки модели в качестве базовых: Scratch-NLG: обучение INLINEFORM0 только с данными целевой задачи с низким уровнем ресурсов, игнорируя все исходные данные задачи с высоким уровнем ресурсов.MTL-NLG: обучение INLINEFORM0 с использованием парадигмы многозадачного обучения с исходными данными задачи, а затем точная настройка целевой задачи с низким уровнем ресурсов.Zero-NLG: обучение INLINEFORM0 с использованием многозадачного обучения (MTL) с исходными данными задачи, а затем непосредственное тестирование целевой задачи без этапа тонкой настройки.Это соответствует сценарию обучения с нулевым выстрелом.Supervised-NLG: обучение INLINEFORM0 с использованием MTL с полным доступом к данным с большим количеством ресурсов как из исходных, так и из целевых задач.Его производительность соответствует верхнему пределу с использованием многозадачного обучения без ограничений по малому количеству ресурсов.Meta-NLG (предлагается): используйте алгоритм 1 для обучения INLINEFORM0 на данных исходной задачи, а затем настройте целевую задачу с низким уровнем ресурсов.Для Meta-NLG мы устанавливаем размер пакета равным 5, а также INLINEFORM0 и INLINEFORM1.Для каждого метаобновления с Adam BIBREF25 используется одно обновление внутреннего градиента.Размер задачи Meta NLG установлен на 400, при этом 200 выборок назначены INLINEFORM2 и INLINEFORM3, поскольку в наших последующих экспериментах минимальное количество целевых выборок с низким уровнем ресурсов составляет 200.Во время тонкой настройки целевой задачи с низким уровнем ресурсов ранняя остановка выполняется на небольшом проверочном наборе размером 200.Затем модель оценивается на других парах DA-высказываний в целевой задаче.Как и в более ранних исследованиях NLG, мы используем показатель BLEU-4 BIBREF26 и частоту ошибок слота (ERR) в качестве показателей оценки.ERR вычисляется как отношение суммы количества пропущенных и избыточных слотов в сгенерированном высказывании к общему количеству слотов в DA.Мы случайным образом выбирали целевую задачу с низким уровнем ресурсов пять раз для каждого эксперимента и сообщали средний балл.Мы использовали недавно предложенный крупномасштабный набор многодоменных диалоговых данных (MultiWOZ, BIBREF7).Это подходящий эталон для оценки компонентов NLG из-за сложности предметной области и богатых лингвистических вариаций.Визуализация типов DA в разных доменах представлена на рисунке FigREF25, а слоты в разных доменах суммированы в таблице TABREF26.Средняя длина высказывания составляет 15,12, и почти 60% высказываний имеют более одного типа или домена диалогового акта.Всего используется 69 607 аннотированных высказываний, из них 55 026, 7 291, 7 290 высказываний для обучения, проверки и тестирования соответственно.В этом разделе мы проверили, когда модель NLG адаптируется к двум типам (ближним и дальним) языковых областей с низким уровнем ресурсов.Эксперимент следует схеме исключения одного, оставляя один целевой домен для адаптации с низким уровнем ресурсов, а остальные домены используют в качестве исходных данных для обучения с высоким уровнем ресурсов.Целевой домен является почти доменом, если он не содержит тип DA, специфичный для домена, а только слоты, специфичные для домена, по сравнению с остальными доменами.Напротив, целевой домен, содержащий как специфичные для домена типы DA, так и слоты, считается дальним доменом.Адаптация к ближним доменам требует захвата невидимых мест, тогда как адаптация к дальним доменам требует изучения новых слотов, а также новых языковых моделей.Размер адаптации — это количество пар DA-высказываний в целевом домене, используемых для точной настройки модели NLG.Чтобы протестировать различные степени нехватки ресурсов, в последующих экспериментах мы рассматривали разные размеры адаптации (1000, 500, 200).Ближняя адаптация: рисунок FigREF25andВ таблице TABREF26 показано, что «Аттракцион», «Отель», «Ресторан» и «Такси» представляют собой четыре близких домена по сравнению с остальными доменами.Из-за ограничения на количество страниц включены только результаты «Достопримечательности» и «Отель».Два других домена также проще и имеют только один слот для конкретного домена.Из результатов, приведенных в таблице TABREF27, можно сделать несколько наблюдений.Во-первых, использование только образцов исходного или целевого домена не обеспечивает конкурентоспособной производительности.Использование только образцов исходного домена (Zero-NLG) дает худшие результаты.Он получает очень низкие оценки BLEU-4, что указывает на то, что сгенерированные предложения не соответствуют лингвистическим шаблонам в целевом домене.Использование только образцов целевого домена с низким уровнем ресурсов (Scratch-NLG) работает немного лучше, но все же намного хуже, чем MTL-NLG и Meta-NLG.Во-вторых, Meta-NLG показывает очень хорошие результаты в этом параметре адаптации, близком к домену.Он неизменно превосходит MTL-NLG и другие методы с очень значительным запасом по различным показателям и размерам адаптации.Что еще более важно, он работает даже лучше, чем Supervised-NLG, который обучается на образцах с большим количеством ресурсов в целевом домене.В-третьих, Meta-NLG особенно эффективен при небольшом размере адаптации.При уменьшении размера адаптации с 1000 до 200 производительность Scratch-NLG и MTL-NLG быстро падает, тогда как Meta-NLG работает стабильно хорошо.И BLEU-4, и ERR даже увеличиваются в домене «Отель», когда размер адаптации уменьшается с 500 до 200. Адаптация в дальнем домене: в этом эксперименте мы тестировали производительность при адаптации к двум дальним доменам с низким уровнем ресурсов («Бронирование» и «Поезд»).Опять же, мы видим, что Meta-NLG показывает очень хорошие результаты в обоих дальних доменах с разными размерами адаптации.Можно сделать аналогичные наблюдения, как и в предыдущих экспериментах по адаптации в ближней области.Поскольку адаптация в дальней области является более сложной, Meta-NLG не превосходит Supervised-NLG, а производительность Meta-NLG падает более очевидно по мере уменьшения размера адаптации.Примечательно, что «Поезд» сложнее, чем «Бронирование», поскольку первый содержит больше слотов, некоторые из которых можно получить только из самого маленького домена «Такси».Преимущество Meta-NLG по сравнению с MTL-NLG и другими методами больше в более сложном домене «Поезд», чем в домене «Бронирование».Для ориентированной на задачи диалоговой системы также важно и привлекательно адаптироваться к новым функциям, а именно, поддерживать новые диалоговые действия, которые система никогда раньше не наблюдала.Чтобы проверить эту способность, мы оставили некоторые типы DA для адаптации в условиях ограниченных ресурсов.Мы выбрали «Рекомендовать», «Забронировать» в качестве целевых типов DA и имитируем ситуацию, когда диалоговой системе необходимо добавить новую функцию для предоставления рекомендаций или бронирования для клиентов с несколькими аннотированными парами DA-высказываний.Как представлено в таблице TABREF31, результаты показывают, что Meta-NLG значительно превосходит другие базовые показатели.Таким образом, мы видим, что Meta-NLG также способен хорошо адаптироваться к новым функциям, которые диалоговая система никогда раньше не наблюдала.Для дальнейшего изучения процесса адаптации мы представили на рисунке FigREF34 кривые производительности MTL-NLG и Meta-NLG по мере того, как продолжается эпоха тонкой настройки в наиболее сложной области «Поезд».Эффект метаобучения для NLG с низкими ресурсами можно наблюдать, сравнивая две сплошные кривые с соответствующими пунктирными кривыми.Во-первых, Meta-NLG адаптируется быстрее, чем MTL-NLG.Мы видим, что ERR Meta-NLG (сплошной красный цвет) снижается гораздо быстрее, чем у MTL-NLG (пунктирный красный), а показатель BLEU-4 Meta-NLG (сплошной фиолетовый цвет) также увеличивается быстрее. .Оптимальные BLEU-4 и ERR, к которым сходится MTL-NLG, могут быть получены Meta-NLG в течение 10 эпох.Во-вторых, Meta-NLG адаптируется лучше, чем MTL-NLG.Как можно видеть, Meta-NLG достигает гораздо более низкого ERR и более высокого показателя BLEU-4 при сходимости, что указывает на то, что он нашел лучшую INLINEFORM0 базовой модели NLG для обобщения на целевой домен с низким уровнем ресурсов.Чтобы лучше оценить качество сгенерированных высказываний, мы провели ручную оценку.Метрики: Учитывая DA и эталонное высказывание в целевом домене с низким уровнем ресурсов и размером адаптации 500, два ответа, сгенерированные Meta-NLG и MTL-NLG, были представлены трем аннотаторам-людям для оценки каждого из них с точки зрения информативности и естественности ( рейтинг из 3), а также указать свои парные предпочтения (Выигрыш-Ничья-Проигрыш) на Meta-NLG против MTL-NLG.Информативность определяется тем, охватывает ли сгенерированное высказывание всю информацию, включая несколько слотов и, возможно, несколько типов DA, указанных в DA.Естественность измеряет, правдоподобно ли высказывание создано человеком.Статистика аннотаций: Случаи с идентичными высказываниями, сгенерированными двумя моделями, были отфильтрованы.Всего мы получили 600 аннотаций по каждой отдельной метрике для каждого целевого домена.Мы рассчитали каппу Флейса BIBREF27 для измерения согласованности между экспертами.Общие значения каппа Флейса для информативности и естественности составляют 0,475 и 0,562, что указывает на «умеренное согласие», и 0,637 для парных предпочтений, что указывает на «существенное согласие».Результаты: Оценки информативности и естественности представлены в таблице TABREF36.Meta-NLG превосходит MTL-NLG по обоим показателям во всех четырех областях.В целом, Meta-NLG получил значительно более высокие оценки (двусторонний t-критерий, INLINEFORM0), чем MTL-NLG.Результаты парных предпочтений суммированы в таблице TABREF37.Несмотря на определенное количество случаев, когда высказывания, сгенерированные разными моделями, почти одинаковы (связываются) с аннотаторами, Meta-NLG в целом значительно предпочтительнее MTL-NLG (двусторонний t-критерий, INLINEFORM1) в разных целевых доменах. .В таблице TABREF32 показаны три примера в области «Поезд».Первый пример показывает, что MTL-NLG не может генерировать специфичный для домена слот «Билет», вместо этого он ошибочно генерирует слоты («Выход» и «Прибытие»), которые часто наблюдаются в наборе адаптации с низким уровнем ресурсов.Во втором примере MTL-NLG не удалось сгенерировать специфичный для домена слот «Id» и еще один редкий слот «Dest», в то время как Meta-NLG удалось оба.Последний пример демонстрирует аналогичные результаты для типа диалогового действия «Offer_Booked», специфичного для домена, в котором Meta-NLG успешно захватил два слота для конкретного домена и редкий слот.Мы предлагаем обобщенный подход мета-обучения на основе оптимизации Meta-NLG для задачи NLG с низкими ресурсами.Meta-NLG использует задачи Meta NLG и процедуру оптимизации метаобучения, основанную на MAML.Обширные эксперименты с новым эталонным набором данных (MultiWoz) показывают, что Meta-NLG значительно превосходит другие процедуры обучения, что указывает на то, что наш метод быстро и хорошо адаптируется к новым настройкам с низким уровнем ресурсов.Наша работа может вдохновить исследователей использовать аналогичные методы оптимизации для создания более надежных и масштабируемых компонентов NLG в ориентированных на задачи диалоговых системах. | Генерация естественного языка (NLG) является важным компонентом ориентированных на задачи диалоговых систем. Несмотря на недавний успех нейронных подходов к NLG, они обычно разрабатываются для конкретных областей с богатыми аннотированными примерами обучения. В этой статье мы изучаем NLG в условиях ограниченных ресурсов, чтобы генерировать предложения в новых сценариях с несколькими обучающими примерами. Мы формулируем проблему с точки зрения метаобучения и предлагаем обобщенный подход, основанный на оптимизации (Meta-NLG), основанный на общепризнанном алгоритме метаобучения, независимого от модели (MAML). Meta-NLG определяет набор метазадач и напрямую включает задачу адаптации к новым задачам NLG с низкими ресурсами в процесс оптимизации метаобучения. Обширные эксперименты проводятся на большом многодоменном наборе данных (MultiWoz) с разнообразными лингвистическими вариациями. Мы показываем, что Meta-NLG значительно превосходит другие процедуры обучения в различных конфигурациях с низким уровнем ресурсов. Мы анализируем результаты и показываем, что Meta-NLG очень быстро и хорошо адаптируется к ситуациям с нехваткой ресурсов. | 4,000 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Расширение конвейера понимания естественного языка с открытым исходным кодом RASA. Нет недостатка в услугах, которые продаются как решения для распознавания естественного языка (nlu) для использования в чат-ботах, цифровых личных помощниках или системах разговорного диалога (sds).Недавно Braun2017 систематически оценивал несколько таких сервисов, включая Microsoft LUIS, IBM Watson Conversation, API.ai, wit.ai, Amazon Lex и RASA BIBREF0.Совсем недавно Лю2019b оценил LUIS, Watson, RASA и DialogFlow, используя некоторые установленные тесты.Некоторые службы nlu работают лучше других в определенных задачах и областях, и это, возможно, удивительная закономерность: RASA, единственная служба nlu с полностью открытым исходным кодом среди оцененных, стабильно работает на одном уровне с коммерческими службами.Хотя эти сервисы обеспечивают высочайшую производительность при выполнении ряда задач NLU, одним из недостатков для исследователей SDS и робототехники является тот факт, что все эти решения NLU обрабатывают вводимые данные на уровне произнесения; ни один из них не обрабатывается постепенно на уровне слов.Тем не менее, исследования показали, что люди понимают высказывания, когда они раскрывают BIBREF1.Более того, когда слушатель чувствует, что ему не хватает какой-то важной информации в середине высказывания, он может вставить запрос на разъяснение, чтобы убедиться, что они и говорящий поддерживают общий язык BIBREF2 .Пользователи, которые взаимодействуют с sdss, воспринимают инкрементальные системы более естественными, чем традиционные пошаговые системы BIBREF3, BIBREF4, BIBREF5, предлагают более человеческий опыт BIBREF6 и с ними более приятно взаимодействовать, чем с неинкрементными системами BIBREF7.Пользователи даже предпочитают взаимодействовать с инкрементными SDS, когда система менее точна или требует заполненных пауз при ответе на BIBREF8 или работает в ограниченном домене, пока есть инкрементная обратная связь BIBREF9.В этой статье мы сообщаем о наших недавних усилиях по поэтапному созданию процесса конвейера RASA nlu.Мы кратко объясняем структуру и конвейер RASA, объясняем, как мы изменили структуру RASA и отдельные компоненты (включая добавленный нами новый компонент), чтобы обеспечить возможность поэтапной обработки, затем мы объясняем, как мы оценивали систему, чтобы гарантировать, что RASA работает должным образом. и как исследователи могут использовать этот инструмент.RASA состоит из nlu и основных модулей, последний из которых похож на диалоговый менеджер; наше внимание здесь сосредоточено на nlu.Сам nlu далее модульен в виде конвейеров, которые определяют, как обрабатываются пользовательские высказывания, например, высказывание может проходить через токенизатор, называемый распознавателем объектов, а затем через классификатор намерений, прежде чем производить распределение по возможным действиям или намерениям диалога.Конвейер и данные обучения являются авторскими (после представления уценки; формат json также может использоваться для данных обучения), что позволяет пользователям легко настраивать и запускать эксперименты в любом домене в качестве автономного компонента nlu или в качестве модуля в SDS или чат-боте. .Важно отметить, что в RASA предусмотрены возможности для создания новых компонентов, а также изменения существующих.На рисунке FigREF7 показана схема конвейера для трех компонентов.Контекст (т. е. данные обучения) передается компоненту A, который выполняет обучение, а затем сохраняет обученную модель для этого компонента.Затем данные передаются через компонент A в качестве входных данных для компонента B, который также обучается и сохраняется, и так далее для компонента C. Во время выполнения сохраненные модели загружаются в память и вместе образуют модуль nlu.Наш подход к созданию инкрементального RASA соответствует структуре инкрементных единиц (iu) Schlangen2011, как это было сделано в предыдущей работе для наборов инструментов обработки диалогов BIBREF10.Мы рассматриваем каждый модуль в RASA как модуль обработки iu и специально используем операции ADD и REVOKE iu; например, ДОБАВИТЬ, когда новое слово напечатано или распознано распознавателем речи, и ОТМЕНИТЬ, если это слово идентифицировано как ошибочно распознанное в свете новой информации.По умолчанию компоненты RASA ожидают полные высказывания, а не отдельные слова.Помимо сложности выполнения компонентов в конвейере nlu пословно, мы сталкиваемся с еще одной важной проблемой: нет готового сигнала окончания высказывания.Чтобы решить эту проблему, мы добавили функцию, сигнализирующую об окончании высказывания; этот сигнал может быть инициирован любым компонентом, включая распознаватель речи, где он традиционно исходил через конечную точку.Благодаря такой гибкости любой компонент (или набор компонентов) может принять более обоснованное решение о том, когда высказывание будет завершено (например, если пользователь произносит части, может произойти конечная точка, но намерение, стоящее за частями пользователя, еще не завершено; Решение о том, когда произнесение завершено, может быть принято nlu или менеджером диалога). Обучение RASA nlu происходит, как описано выше (т. е. не поэтапно).Во время выполнения поэтапная обработка через конвейер RASA является сложной задачей, поскольку каждый компонент должен иметь средства для обработки ввода на уровне слов и должен иметь возможность обрабатывать операции ADD и REVOKE iu.Каждый компонент в конвейере, например, как показано на рисунке FigREF7, должен работать синхронно друг с другом, при этом слово добавляется к компоненту A, который немедленно обрабатывается, затем добавляет результат своей обработки к компоненту B, затем компонент B обрабатывает. и передает выходные данные компоненту C до того, как будет создано следующее слово для компонента A. Теперь мы объясним, как мы изменили определенные компоненты RASA, чтобы заставить их работать постепенно.Класс Message в RASA nlu — это основная шина сообщений между компонентами в конвейере.Message следует подходу «черной доски» для передачи информации между компонентами.Например, в конвейере, содержащем токенизатор, классификатор намерений и экстрактор сущностей, каждый из компонентов будет хранить токены, класс намерения и сущности в объекте Message соответственно.Наши изменения в «Сообщении» были минимальными; мы просто использовали его для хранения ius и соответствующих типов редактирования (т. е. ADD или REVOKE). Чтобы увеличить RASA nlu, мы расширили базовый компонент, добавив новый компонент IncrementalComponent.Пользователь, определяющий свой собственный IncrementalComponent, понимает разницу в функциональности, особенно в методе анализа.Во время выполнения неинкрементальный компонент ожидает полного произнесения, тогда как инкрементный компонент ожидает только один iu.Поскольку неинкрементные компоненты ожидают всего высказывания, им нет необходимости сохранять какое-либо внутреннее состояние при вызовах процесса, и они могут очистить любые внутренние данные в конце метода.Однако с появлением дополнительных компонентов этот рабочий процесс меняется; каждый вызов процесса должен сохранять свое внутреннее состояние, чтобы его можно было обновлять по мере получения нового имени.Более того, IncrementalComponents дополнительно имеет метод new_utterance.В неинкрементальных системах вызов процесса неявно сигнализирует о том, что высказывание завершено, и нет необходимости хранить внутренние данные при вызовах процесса, тогда как в инкрементных системах в результате этот сигнал теряется.В качестве этого сигнала действует метод new_utterance.Класс Interpreter в RASA nlu — это основной интерфейс между пользовательским вводом (например, asr) и рядом компонентов в конвейере.При обучении интерпретатор подготавливает обучающие данные и последовательно вызывает команду train для каждого компонента конвейера.Аналогичным образом, для обработки входных данных используется метод синтаксического анализа Интерпретатора, при котором Интерпретатор подготавливает входные данные (т. е. текущее высказывание) и последовательно вызывает процесс для компонентов в конвейере (аналогично обновлениям левого буфера в среде iu).В результате его разработки мы смогли использовать класс Interpreter для инкрементной обработки, в частности, благодаря использованию в нем постоянного объекта Message в качестве шины связи между компонентами.Как и в случае с нашей реализацией класса IncrementalComponent, мы создали IncrementalInterpreter.Класс IncrementalInterpreter добавляет два новых метода: new_utteranceparse_incremental. Метод new_utterance довольно прост; он очищает внутренний объект Message RASA nlu, который является общим для всех компонентов, и вызывает каждый IncrementalComponent в методе new_utterance конвейера, сигнализируя, что высказывание завершено, и для каждого компонента очищает свое внутреннее состояние.Метод parse_incremental берет iu из входных данных вызова (например, asr) и добавляет его к списку предыдущих ius, хранящемуся в объекте Message.После того, как iu был добавлен в сообщение, IncrementalInterpreter вызывает метод процесса каждого компонента, где они могут работать с новейшим iu.Это было намеренно разработано с возможностью обобщения, чтобы будущие инкрементные компоненты могли использовать разные форматы или типы редактирования для своей соответствующей реализации инфраструктуры iu.Имея инкрементную структуру, мы дополнительно разработали образец инкрементного компонента для проверки функциональности наших изменений.Для этого мы использовали модель Simple Incremental Update Model (sium), описанную в BIBREF11.Эта модель представляет собой генеративное факторизованное совместное распределение, которое использует простое байесовское обновление при добавлении новых слов.На каждом этапе распределения намерений и объектов генерируется с оценками достоверности, и намерение может быть классифицировано на каждом этапе как результат с наивысшим значением достоверности.С другой стороны, сущности могут быть извлечены, если их достоверность превышает заранее определенный порог.Следуя khouzaimi-laroche-lefevre:2014:W14-43), мы увеличили существующий компонент RASA Tensorflow Embedding для распознавания намерений в качестве дополнительного компонента.Конвейер состоит из токенизатора пробелов, экстрактора сущностей условного случайного поля (crf) scikit-learn, средства мешка слов и, наконец, нейронной сети TensorFlow для классификации намерений.Чтобы начать с приращения, мы модифицировали токенизатор пробелов, чтобы он работал с приращениями на уровне слова, а не всего высказывания.Что касается экстрактора сущностей crf, мы модифицировали его так, чтобы он обновлял сущности до этого момента в высказывании при каждом вызове процесса, а затем модифицировали средство функциональности Bag-of-Words, чтобы оно обновляло его встраивания при каждом вызове процесса путем векторизации отдельного слова в iu и суммируем этот вектор с существующими вложениями.При каждом приращении слова iu мы рассматриваем весь префикс высказывания до этой точки как полное высказывание в качестве входных данных для компонента Tensorflow Embeddings, который возвращает распределение по намерениям.Этот процесс повторяется до тех пор, пока все слова высказывания не будут добавлены к префиксу.Таким образом, компонент отличается от Sium тем, что он не обновляет свое внутреннее состояние; скорее, он рассматривает каждый префикс как полное высказывание (т. е. так называемую инкрементальную перезагрузку). модули встраивания тензорного потока в известную задачу nlu.Чтобы оценить эффективность нашего подхода, мы использовали подмножество набора данных SNIPS BIBREF12, который легко доступен в формате RASA nlu.Наши обучающие данные состояли из 700 высказываний по 7 различным намерениям (AddToPlaylist, BookRestaurant, GetWeather, PlayMusic, RateBook, SearchCreativeWork и SearchScreeningEvent).Чтобы протестировать нашу реализацию дополнительных компонентов, мы первоначально протестировали их неинкрементальные аналоги и использовали это в качестве основы для инкрементных версий (чтобы рассматривать компонент Sium как неинкрементальный, мы просто применили к нему все слова в каждом высказывании). и получили распределение по намерениям после обработки каждого полного высказывания). Мы используем точность намерения и распознавание объектов в качестве нашей задачи и показателя.Чтобы оценить, что компоненты работают должным образом, мы затем использовали IncrementalInterpreter для анализа сообщений как отдельных пользователей.Чтобы гарантировать, что REVOKE работает должным образом, мы вводили случайные неправильные слова с частотой 40 %, а затем следовали отзывы, гарантируя, что ADD, за которым следует отзыв, приводит к такому же результату, как если бы неправильное слово никогда не добавлялось.Хотя мы реализовали как компонент RASA nlu с инкрементным обновлением, так и с инкрементальным перезапуском, результаты этих двух нельзя напрямую сравнивать по точности, поскольку базовые модели сильно различаются (т. Е. Sium является генеративным, тогда как Tensorflow Embedding является дискриминационной нейронной сетью; более того, sium был разработан для работы в качестве компонента разрешения ссылок для физических объектов, а не абстрактных намерений), и эти результаты не способствуют спору о подходах обновления или перезапуска, поскольку базовая архитектура моделей сильно различается.Результаты нашей оценки можно найти в таблице TABREF14.Эти результаты показывают, что наша инкрементная реализация работает так, как предполагалось, поскольку инкрементальная и неинкрементная версия каждого компонента дала одинаковые результаты.Хотя существует небольшая разница между оценками F1 между неинкрементальными и инкрементными компонентами, 1% находится в пределах разумного допуска, поскольку при обучении базовой модели присутствует некоторая случайность.RASA nlu — это полезный и хорошо зарекомендовавший себя набор инструментов для разработки компонентов nlu в системах SD и чат-ботах.Мы расширили RASA, добавив условия для инкрементальной обработки в целом, и реализовали два компонента для распознавания намерений, которые использовали подходы обновления и перезапуска.Наши результаты показывают, что инкрементация сработала, как и ожидалось.Для текущей и будущей работы мы планируем разработать инкрементальный аналог компонента Tensorflow Embeddings, который использует рекуррентную нейронную сеть для поддержания состояния.В дальнейшем мы будем оценивать нашу работу с инкрементальным АСР в задачах живого диалога.Мы сделаем наш код доступным после принятия этой публикации.language: "en"pipeline:- name: "intent_featurizer_count_vectors"- name: "intent_..._tensorflow_embedding" Intent_tokenization_flag: true намерение_split_symbol: "+" | По мере того как системы разговорного диалога и чат-боты получают все более широкое распространение, появляются коммерческие и открытые сервисы для понимания естественного языка. В этой статье мы объясняем, как мы изменили конвейер понимания естественного языка RASA с открытым исходным кодом, чтобы он обрабатывался постепенно (т. е. пословно), следуя структуре дополнительных единиц, предложенной Шлангеном и Сканце. Для этого мы изменили существующие компоненты RASA для постепенной обработки и добавили модель распознавания намерений с инкрементным обновлением в качестве компонента RASA. Наши оценки набора данных Snips показывают, что наши изменения позволяют RASA функционировать как эффективный дополнительный сервис понимания естественного языка. | 2,183 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Обзор и таксономия состязательных нейронных сетей для синтеза текста в изображение. «(GAN) и предлагаемые сейчас варианты — это, на мой взгляд, самая интересная идея за последние 10 лет в машинном обучении». (2016) –Янн ЛеКун: Фотография стоит тысячи слов!В то время как письменный текст обеспечивает эффективные, действенные и краткие способы общения, визуальный контент, такой как изображения, является более полным, точным и понятным методом обмена и понимания информации.Генерация изображений из текстовых описаний, то есть синтез текста в изображение, представляет собой сложную проблему компьютерного зрения и машинного обучения, в которой за последние годы наблюдается значительный прогресс.Автоматическое создание изображений на естественном языке может позволить пользователям описывать визуальные элементы с помощью визуально насыщенных текстовых описаний.Возможность делать это эффективно крайне желательна, поскольку ее можно использовать в приложениях искусственного интеллекта, таких как компьютерное проектирование, редактирование изображений BIBREF0, BIBREF1, игровые движки для разработки видеоигр следующего поколения BIBREF2 и поколение изобразительного искусства BIBREF3. На ранних этапах исследования синтез текста в изображение в основном осуществлялся посредством комбинированного процесса поиска и контролируемого обучения BIBREF4, как показано на рисунке FigREF4.Чтобы связать текстовые описания с изображениями, можно использовать корреляцию между ключевыми словами (или ключевой фразой) и изображениями, которая идентифицирует информативные и «изображаемые» текстовые единицы; затем эти устройства будут искать наиболее вероятные части изображения, обусловленные текстом, в конечном итоге оптимизируя макет изображения, обусловленный как текстом, так и частями изображения.Такие методы часто объединяют несколько ключевых компонентов искусственного интеллекта, включая обработку естественного языка, компьютерное зрение, компьютерную графику и машинное обучение.Основным ограничением традиционных подходов к синтезу текста в изображения, основанных на обучении, является то, что им не хватает возможности генерировать новый контент изображений; они могут лишь изменять характеристики заданных/обучающих изображений.С другой стороны, исследования в области генеративных моделей значительно продвинулись вперед и предлагают решения для обучения на обучающих изображениях и создания нового визуального контента.Например, Attribute2Image BIBREF5 моделирует каждое изображение как комбинацию переднего плана и фона.Кроме того, с использованием вариационного автокодировщика изучается многоуровневая генеративная модель с распутанными скрытыми переменными для создания визуального контента.Поскольку обучение настраивается/обуславливается заданными атрибутами, генеративные модели Attribute2Image могут генерировать изображения с учетом различных атрибутов, таких как пол, цвет волос, возраст и т. д., как показано на рисунке FigREF5. -синтез изображений обеспечивает гораздо более реалистичные результаты синтеза изображений, генерация изображений по-прежнему обусловлена ограниченными атрибутами.В последние годы было опубликовано несколько статей по теме синтеза текста в изображение.Большая часть материалов этих статей основана на подходах мультимодального обучения, которые включают генеративно-состязательные сети и сети глубокого сверточного декодера в качестве основных движущих сил для создания захватывающих изображений из текста BIBREF7, BIBREF8, BIBREF9, BIBREF10, BIBREF11. Впервые представлено Яном Гудфеллоу и др. BIBREF9, генеративно-состязательные сети (GAN), состоят из двух нейронных сетей, соединенных с дискриминатором и генератором.Эти две модели конкурируют друг с другом: генератор пытается создать синтетические/поддельные образцы, которые обманут дискриминатор, а дискриминатор пытается отличить настоящие (подлинные) от синтетических образцов.Поскольку состязательное обучение GAN направлено на то, чтобы заставить генераторы создавать изображения, похожие на реальные (обучающие) изображения, GAN, естественно, можно использовать для генерации синтетических изображений (синтез изображений), и этот процесс можно даже дополнительно настроить, используя текстовые описания для указания типы изображений для генерации, как показано на рисунке FigREF6. Подобно преобразованию текста в речь и речи в текст, существует широкий спектр проблем, которые синтез текста в изображение может решить в области компьютерного зрения, в частности BIBREF8. , БИБРЕФ12.В настоящее время исследователи пытаются решить множество проблем компьютерного зрения с помощью глубоких сверточных сетей, генеративно-состязательных сетей и комбинации нескольких методов, часто называемых методами мультимодального обучения BIBREF8.Для простоты в дальнейшем BIBREF13 множественные методы обучения будут называться мультимодальным обучением.Исследователи часто описывают мультимодальное обучение как метод, который включает в себя характеристики нескольких методов, алгоритмов и идей.Сюда могут входить идеи двух или более подходов к обучению с целью создания надежной реализации для решения необычной проблемы или улучшения решения BIBREF8, BIBREF14, BIBREF15, BIBREF16, BIBREF17.black. решить задачу синтеза текста в изображение с использованием генеративно-состязательных сетей (GAN).Чтобы обеспечить четкую дорожную карту, мы предлагаем таксономию, объединяющую рассмотренные GAN в четыре основные категории.В нашем обзоре будут подробно рассмотрены мотивы методов в каждой категории, проанализированы типичные модели, их сетевая архитектура и возможные недостатки для дальнейшего улучшения.Визуальная аннотация опроса и список проверенных инфраструктур GAN показаны на рисунке FigREF8.black. Оставшаяся часть опроса организована следующим образом.В разделе 2 представлен краткий обзор существующих работ по темам, аналогичным теме данной статьи, и выделены ключевые различия, делающие нашу уникальную работу.В разделе 3 дается краткое введение в GAN и некоторые предварительные концепции, связанные с генерацией изображений, поскольку они являются механизмами, которые делают возможным синтез текста в изображение, и являются важными строительными блоками для получения фотореалистичных изображений из текстовых описаний.В разделе 4 предлагается таксономия для обобщения синтеза текста в изображение на основе GAN, обсуждаются модели и архитектуры новых работ, ориентированных исключительно на синтез текста в изображение.В этом разделе также будут представлены ключевые вклады этих работ в отношении их приложений.В разделе 5 рассматриваются тесты синтеза текста в изображение на основе GAN, показатели производительности и сравнения, включая простой обзор GAN для других приложений.В разделе 6 мы завершаем кратким изложением и обрисовываем идеи для будущих интересных разработок в области синтеза текста в изображение.С ростом и успехом GAN, сетей глубокого сверточного декодера и методов мультимодального обучения эти методы стали одними из первых процедур, направленных на решение проблемы синтеза изображений.Многие инженеры и ученые в области компьютерного зрения и искусственного интеллекта внесли свой вклад посредством обширных исследований и экспериментов, выпустив многочисленные предложения и публикации, подробно описывающие их вклад.Поскольку GAN, представленные BIBREF9, являются новой темой исследований, их практическое применение для синтеза изображений все еще находится в зачаточном состоянии.В последнее время было предложено множество новых архитектур и проектов GAN для использования GAN для различных приложений, например. использование GAN для создания сентиментальных текстов BIBREF18 или использование GAN для преобразования естественных изображений в мультфильмы BIBREF19. Хотя GAN становятся все более популярными, в настоящее время существует очень мало обзорных статей, в которых суммируются и обрисовываются современные технические инновации и вклад различных архитектур GAN BIBREF20, BIBREF21.Обзорных статей, специально предназначенных для анализа различных вкладов в синтез текста в изображение с использованием GAN, еще меньше.Таким образом, мы нашли два опроса BIBREF6, BIBREF7 по синтезу изображений с использованием GAN, которые являются двумя наиболее тесно связанными с целью нашего опроса публикациями.В следующих параграфах мы кратко суммируем каждое из этих исследований и указываем, чем наши цели отличаются от их целей.В BIBREF6 авторы предоставляют обзор синтеза изображений с использованием GAN.В этом обзоре авторы обсуждают мотивы исследования синтеза изображений и представляют некоторую справочную информацию об истории GAN, включая раздел, посвященный основным концепциям GAN, а именно генераторам, дискриминаторам и аналогии с играми min-max, а также некоторым усовершенствования исходной модели GAN, такие как условные GAN, добавление вариационных автокодировщиков и т. д. В этом обзоре мы проведем аналогичный обзор базовых знаний, поскольку понимание этих предварительных концепций имеет первостепенное значение для остальной части бумага.Рассмотрены три типа подходов к генерации изображений, включая прямые методы (один генератор и дискриминатор), иерархические методы (две или более пары генератор-дискриминатор, каждая из которых преследует разные цели) и итеративные методы (каждая пара генератор-дискриминатор генерирует постепенно изображение с более высоким разрешением).После введения в BIBREF6 обсуждаются методы синтеза текста в изображение и изображения в изображение соответственно, а также описываются несколько показателей оценки синтетических изображений, включая начальные оценки и начальное расстояние Фреше (FID), и объясняется значение дискриминаторы действуют как функции изученных потерь, а не как функции фиксированных потерь.В отличие от приведенного выше исследования, которое имеет относительно широкую сферу применения в GAN, наша цель в значительной степени сосредоточена на синтезе текста в изображение.Хотя эта тема, синтез текста в изображение, действительно была освещена в BIBREF6, они сделали это гораздо менее подробно, в основном перечисляя множество различных работ в последовательном во времени порядке.Для сравнения мы рассмотрим несколько репрезентативных методов в этой области и подробно опишем их модели и вклад.Как и BIBREF6, второй обзорный документ BIBREF7 начинается со стандартного введения, посвященного мотивации синтеза изображений и проблемам, которые он представляет, за которым следует раздел, посвященный основным концепциям GAN и улучшениям исходной модели GAN.Кроме того, в статье рассматривается обзор двух типов приложений: (1) неограниченные приложения синтеза изображений, такие как суперразрешение, закрашивание изображений и т. д., и (2) ограниченные приложения синтеза изображений, а именно преобразование изображения в изображение. преобразование текста в изображение и эскиз в изображение, а также обсуждается редактирование изображений и видео с использованием GAN.Опять же, объем этой статьи по своей сути является всеобъемлющим, в то время как мы фокусируемся конкретно на преобразовании текста в изображение и более подробно рассматриваем вклад новых современных моделей.Были опубликованы и другие обзоры по смежным вопросам, в основном связанным с достижениями и применением GAN BIBREF22, BIBREF23, но мы не нашли каких-либо предыдущих работ, посвященных конкретно синтезу текста в изображение с использованием GAN.Насколько нам известно, это первая статья, в которой это сделано. модели синтеза изображений.После этого мы кратко разделим синтез текста в изображение на основе GAN на два типа: простые платформы GAN и расширенные платформы GAN, и обсудим, почему расширенная архитектура GAN для синтеза изображений. Слишком кратко, наша таксономия в следующем разделе предложит таксономию, которая обобщит передовые структуры GAN по четырем категориям в зависимости от их цели и конструкции.Прежде чем перейти к обсуждению и анализу работ, применяющих GAN для синтеза текста в изображение, есть некоторые предварительные концепции, улучшения GAN, наборы данных и оценочные метрики, которые присутствуют в некоторых работах, описанных в следующем разделе, и поэтому стоит представить.Как указывалось ранее, GAN были представлены Яном Гудфеллоу и др. BIBREF9 в 2014 году и состоят из двух глубоких нейронных сетей, генератора и дискриминатора, которые обучаются независимо с противоречивыми целями: цель генератора — генерировать образцы, тесно связанные с исходным распределением данных, и обманывать дискриминатор, в то время как дискриминатор стремится различать между выборками из модели генератора и выборками из истинного распределения данных путем расчета вероятности поступления выборки из любого источника.Концептуальное представление архитектуры генеративно-состязательной сети (GAN) показано на рисунке FigREF11. Обучение GAN — это итеративный процесс, который с каждой итерацией обновляет генератор и дискриминатор с целью победы каждого из них над другим.побуждая каждую модель становиться все более искусной в выполнении своей конкретной задачи, пока не будет достигнут определенный порог.Это аналогично игре мин-макс между двумя моделями согласно следующему уравнению: В уравнении (DISPLAY_FORM10), $x$ обозначает многомерную выборку, например изображение, а $z$ обозначает многомерный вектор скрытого пространства, например, многомерную точку данных, соответствующую предопределенной функции распределения, такой как функция нормального распределения.$D_{\theta _d}()$ обозначает дискриминаторную функцию, управляемую параметрами $\theta _d$, целью которой является классификация выборки в двоичном пространстве.$G_{\theta _g}()$ обозначает функцию-генератор, управляемую параметрами $\theta _g$, целью которой является создание выборки из некоторого вектора скрытого пространства.Например, $G_{\theta _g}(z)$ означает использование скрытого вектора $z$ для создания синтетического/поддельного изображения, а $D_{\theta _d}(x)$ означает классификацию изображения $x$ как двоичный вывод (т. е. истина/ложь или 1/0).В настройках GAN дискриминатор $D_{\theta _d}()$ обучается отличать подлинное/истинное изображение (помеченное как 1) от поддельных изображений (помеченных как 0).Следовательно, при истинном изображении $x$ идеальный результат дискриминатора $D_{\theta _d}(x)$ будет равно 1.Учитывая поддельное изображение, сгенерированное генератором $G_{\theta _g}(z)$, идеальным предсказанием дискриминатора $D_{\theta _d}(G_{\theta _g}(z))$ будет 0, что указывает на образец является поддельным изображением.Следуя приведенному выше определению, целевая функция $\min \max $ в уравнении.Целью (DISPLAY_FORM10) является изучение параметров дискриминатора ($\theta _d$) и генератора ($\theta _g$) для достижения цели оптимизации: дискриминатор намеревается различать настоящие и поддельные изображения с максимальной возможностью $\max _{ \theta _d}$, тогда как генератор намерен минимизировать разницу между поддельным изображением и настоящим изображением.$\min _{\theta _g}$.Другими словами, дискриминатор задает характеристики, а генератор итеративно создает элементы, часто изображения, до тех пор, пока не будут соответствовать атрибутам, установленным дискриминатором.GAN часто используются с изображениями и другими визуальными элементами и общеизвестно эффективны для создания убедительных и убедительных фотореалистичных изображений.Совсем недавно GAN использовались для создания оригинальной картины без присмотра BIBREF24.В следующих разделах более подробно описано, как обучаются генератор и дискриминатор в GAN.Генератор. При синтезе изображений сеть генератора можно рассматривать как отображение одного пространства представления (скрытого пространства) в другое (фактические данные) BIBREF21.Когда дело доходит до синтеза изображений, все изображения в пространстве данных попадают в некоторое распределение в очень сложном и многомерном пространстве признаков.Выборка из такого сложного пространства очень сложна, поэтому вместо этого GAN обучают генератор создавать синтетические изображения из гораздо более простого пространства признаков (обычно случайного шума), называемого скрытым пространством.Сеть генератора выполняет повышающую дискретизацию скрытого пространства и обычно представляет собой глубокую нейронную сеть, состоящую из нескольких сверточных и/или полностью связанных слоев BIBREF21.Генератор обучается с использованием градиентного спуска для обновления весов сети генератора с целью создания данных (в нашем случае изображений), которые дискриминатор классифицирует как реальные.Дискриминатор. Сеть дискриминатора можно рассматривать как отображение данных изображения на вероятность появления изображения из реального пространства данных, а также, как правило, представляет собой глубокую нейронную сеть, состоящую из нескольких сверточных и/или полностью связанных слоев.Однако дискриминатор выполняет понижающую дискретизацию, а не повышающую.Как и генератор, он обучается с использованием градиентного спуска, но его цель — обновить веса, чтобы с большей вероятностью правильно классифицировать изображения как настоящие или поддельные.В GAN идеальный результат состоит в том, чтобы функции стоимости генератора и дискриминатора сходились, так что генератор создает фотореалистичные изображения, неотличимые от реальных данных, а дискриминатор в то же время становится экспертом в различении реальных и синтетических данных. .Однако это невозможно, поскольку снижение стоимости одной модели, как правило, приводит к увеличению стоимости другой.Это явление делает обучение GAN очень трудным, а обучение их одновременно (обе модели выполняют градиентный спуск параллельно) часто приводит к стабильной орбите, на которой ни одна модель не может сойтись.Чтобы бороться с этим, генератор и дискриминатор часто обучаются независимо.При этом ГАН остается прежним, но есть разные этапы обучения.На одном этапе веса генератора остаются постоянными, и градиентный спуск обновляет веса дискриминатора, а на другом этапе веса дискриминатора остаются постоянными, в то время как градиентный спуск обновляет веса генератора.Это повторяется в течение некоторого количества эпох, пока не будет достигнута желаемая низкая стоимость для каждой модели. BIBREF25. Условно-генеративно-состязательные сети (cGAN) представляют собой усовершенствование GAN, предложенное BIBREF26 вскоре после введения GAN BIBREF9.Целевая функция cGAN определяется в уравнении.(DISPLAY_FORM13), которая очень похожа на целевую функцию GAN в уравнении.(DISPLAY_FORM10), за исключением того, что входные данные как дискриминатора, так и генератора обусловлены меткой класса $y$. Основное техническое новшество cGAN заключается в том, что он вводит дополнительные входные данные или входные данные в исходную модель GAN, что позволяет обучать модель. такая информация, как метки классов или другие кондиционные переменные, а также сами образцы одновременно.В то время как исходный GAN обучался только на выборках из распределения данных, в результате чего сгенерированная выборка отражала общее распределение данных, cGAN позволяет направить модель на создание более адаптированных результатов.На рисунке FigREF14 вектор условия представляет собой метку класса (текстовую строку).«Красная птица», которая подается и на генератор, и на дискриминатор.Однако важно, чтобы вектор условий был связан с реальными данными.Если модель на рисунке FigREF14 была обучена с тем же набором реальных данных (красные птицы), но текстом условия был «Желтая рыба», генератор научится создавать изображения красных птиц при условии использования текста «Желтая рыба».Обратите внимание, что вектор условий в cGAN может иметь множество форм, например, текст, а не ограничиваться только меткой класса.Такая уникальная конструкция обеспечивает прямое решение для создания изображений в соответствии с заранее заданными спецификациями.В результате cGAN используется для синтеза текста в изображение с самого первого дня его изобретения, хотя современные подходы могут обеспечить гораздо лучшие результаты синтеза текста в изображение. использовать конструкции условных GAN (cGAN) и добавлять условия к обучающим выборкам, чтобы GAN обучалась с учетом базовых условий.В нескольких пионерских работах использовались схожие конструкции синтеза текста в изображение. входы GAN.Если текстовые входы содержат несколько ключевых слов (или длинных текстовых описаний), их нельзя использовать одновременно для ограничения ввода.Вместо использования текста в качестве условий другие два подхода (BIBREF8, BIBREF16) используют текст в качестве входных признаков и объединяют такие признаки с другими признаками для обучения дискриминатора и генератора, как показано на рисунках FigREF15(b) и (c).Чтобы гарантировать использование текста в качестве входных данных GAN, часто вводится встраивание или представление функций, изучающее BIBREF29, функцию BIBREF30 $\varphi ()$ для преобразования входного текста в числовые функции, которые в дальнейшем объединяются с другими функциями для обучения GAN.blackМотивирован При проектировании GAN и условного GAN (cGAN) было предложено множество фреймворков на основе GAN для генерации изображений с различными конструкциями и архитектурами, такими как использование нескольких дискриминаторов, использование дискриминаторов с прогрессивным обучением или использование иерархических дискриминаторов.На рисунке FigREF17 показаны несколько усовершенствованных инфраструктур GAN, представленных в литературе.В дополнение к этим структурам предлагается множество дизайнов новостей, которые продвигают эту область с довольно сложными дизайнами.Например, недавняя работа BIBREF37 предлагает использовать генератор пирамид и три независимых дискриминатора, каждый из которых фокусируется на разных аспектах изображений, чтобы привести генератор к созданию изображений, фотореалистичных на нескольких уровнях.Другая недавняя публикация BIBREF38 предлагает использовать дискриминатор для измерения семантической релевантности между изображением и текстом вместо предсказания класса (как это делает большинство дискриминаторов в GAN), в результате чего новая структура GAN превосходит по производительности вспомогательный классификатор с текстовым условием (TAC-GAN) BIBREF16 и генерирует разнообразные, реалистичные и имеет отношение к входному тексту независимо от class.black. В следующем разделе мы сначала предложим таксономию, которая обобщает передовые структуры GAN для синтеза текста в изображение, а также рассмотрим самые последние предложенные решения проблемы создания фотореалистичных изображений. изображения, обусловленные текстовыми описаниями на естественном языке с использованием GAN.Решения, которые мы обсуждаем, выбираются на основе актуальности и качества вкладов.Существует множество публикаций по теме генерации изображений с использованием GAN, но в этой статье мы фокусируемся конкретно на моделях синтеза текста в изображение, при этом в обзоре особое внимание уделяется «модели» и «вкладу» в синтез текста в изображение. .В конце этого раздела мы также кратко рассмотрим методы использования GAN для других приложений синтеза изображений.В таксономии структуры GAN разделены на четыре категории, включая GAN семантического улучшения, GAN улучшения разрешения, GAN улучшения разнообразия и GAG улучшения движения.Следуя предложенной таксономии, в каждом подразделе будут представлены несколько типичных структур и рассмотрены методы использования GANS для решения определенных аспектов задач синтеза текста в изображение.Конечной целью синтеза текста в изображение является создание изображений, тесно связанных с текстовыми описаниями. Соответствие изображений текстам часто проверяется с разных точек зрения из-за присущего разнообразия человеческого восприятия.Например, при создании изображений, соответствующих описанию «цветы розы», некоторые пользователи знают точный тип цветов, которые им нравятся, и намереваются создать цветы розы похожих цветов.Другие пользователи могут попытаться создать высококачественные цветы роз на красивом фоне (например, в саду).Третья группа пользователей может быть более заинтересована в создании цветов, похожих на розу, но другого цвета и внешнего вида, например. розы, бегония и пион.Четвертая группа пользователей может захотеть не только создавать изображения цветов, но и использовать их для формирования осмысленного действия, например. видеоклип, демонстрирующий рост цветов, представление магического шоу с использованием этих цветов или рассказ истории любви с использованием цветов. изображениями, и их цель – сопоставить тексты и изображения на семантическом уровне.Вторая группа пользователей больше ориентирована на разрешение и качество изображений, а также на требование, чтобы изображения и текст были семантически связаны.Для третьей группы пользователей их целью является диверсификация выходных изображений, чтобы их изображения имели разнообразный внешний вид и были также семантически связаны.Четвертая группа пользователей добавляет новое измерение в синтез изображений и стремится генерировать последовательности изображений, которые являются последовательными во временном порядке, то есть захватывать информацию о движении. таксономию с четырьмя основными категориями, как показано на рис.FigREF24. GAN семантического улучшения: GAN семантического улучшения представляют собой пионерские разработки инфраструктур GAN для синтеза текста в изображение.Основная задача фреймворков GAN — гарантировать, что сгенерированные изображения семантически связаны с входными текстами.Эта цель в основном достигается за счет использования нейронной сети для кодирования текстов в виде плотных признаков, которые затем передаются во вторую сеть для генерации изображений, соответствующих текстам.GAN повышения разрешения. GAN повышения разрешения в основном ориентированы на создание высококачественных изображений, которые семантически соответствуют текстам.В основном это достигается за счет многоэтапной структуры GAN, в которой выходные данные GAN более раннего этапа передаются на GAN второго (или более позднего) этапа для создания более качественных изображений.GAN улучшения разнообразия: GAN улучшения разнообразия предназначены для диверсификации выходных изображений, так что сгенерированные изображения не только семантически связаны, но также имеют разные типы и внешний вид.Эта цель в основном достигается за счет дополнительного компонента для оценки семантической релевантности между сгенерированными изображениями и текстами, чтобы максимизировать разнообразие выходных данных.GAN улучшения движения: GAN улучшения движения предназначены для добавления временного измерения к выходным изображениям, чтобы они могли формировать значимые действия по отношению к текстовым описаниям.Эта цель в основном достигается с помощью двухэтапного процесса, в ходе которого сначала генерируются изображения, соответствующие «действиям» текстов, после чего следует процедура сопоставления или выравнивания, чтобы гарантировать согласованность изображений во временном порядке. как эти структуры GAN развиваются для синтеза текста в изображение, а также будут рассмотрены некоторые типичные методы каждой категории.Для большинства GNA, обсуждаемых в этом обзоре, требуется генерировать изображения, семантически связанные с текстовыми описаниями.Однако семантическая релевантность является достаточно субъективной мерой, и изображения по своей сути богаты с точки зрения ее семантики и интерпретаций.Поэтому предлагается использовать множество GAN для улучшения синтеза текста в изображение с разных точек зрения.В этом подразделе мы рассмотрим несколько классических подходов, которые обычно служат основой для синтеза текста в изображение. Генерирующая состязательная сеть blackDeep свертки (DC-GAN) BIBREF8 представляет собой новаторскую работу по синтезу текста в изображение с использованием GAN.Его основная цель — обучить глубокую сверточную генеративно-состязательную сеть (DC-GAN) на текстовых функциях.Во время этого процесса эти текстовые функции кодируются другой нейронной сетью.Эта нейронная сеть представляет собой гибридную сверточную рекуррентную сеть на уровне символов.Одновременно обе нейронные сети также имеют упреждающий вывод при определении особенностей текста.Автоматическое создание реалистичных изображений из текста на естественном языке является мотивацией нескольких работ, предложенных в этой области компьютерного зрения.Однако реальные системы искусственного интеллекта (ИИ) далеки от решения этой задачи.В последнее время рекуррентные нейронные сети проложили путь к разработке фреймворков, которые распознают особенности текста.В то же время генеративно-состязательные сети (GAN) недавно начали показывать некоторые перспективы в создании убедительных изображений целого ряда элементов, включая, помимо прочего, лица, птиц, цветы и необычные изображения, такие как интерьеры комнатBIBREF8.DC-GAN — это мультимодальная модель обучения, которая пытается объединить оба вышеупомянутых алгоритма машинного обучения без учителя, рекуррентные нейронные сети (RNN) и генеративно-состязательные сети (GAN), с единственной целью — ускорить генерацию текста в -image Synthyn.black Глубокое обучение пролило свет на некоторые из наиболее сложных достижений в области представления естественного языка, синтеза изображений BIBREF7, BIBREF8, BIBREF43, BIBREF35 и классификации общих данных BIBREF44.Однако большая часть последних достижений в области глубокого обучения и компьютерного зрения была связана с контролируемым обучением BIBREF8.Несмотря на то, что естественный язык и синтез изображений были частью нескольких вкладов в контролируемую сторону глубокого обучения, в неконтролируемом обучении в последнее время наблюдался огромный рост вклада исследовательского сообщества, особенно по двум подзадачам: текстовый естественный язык и синтез изображений BIBREF45, BIBREF14, BIBREF8, BIBREF46, BIBREF47.Эти подпроблемы обычно подразделяются на целевые области исследований.Вклад DC-GAN в основном обусловлен этими двумя областями исследований.Чтобы генерировать правдоподобные изображения на естественном языке, DC-GAN вращается вокруг разработки простой, но эффективной архитектуры GAN и стратегии обучения, которая позволяет синтезировать естественный текст в изображение.Эти материалы в первую очередь тестируются на наборах данных Caltech-UCSD Birds и Oxford-102 Flowers.Каждое изображение в этих наборах данных содержит пять текстовых описаний.Эти текстовые описания были созданы исследовательской группой при настройке среды оценки.Модель DC-GAN впоследствии обучается по нескольким подкатегориям.Подкатегории в этом исследовании представляют собой поднаборы данных для обучения и тестирования.Производительность, показанная в этих экспериментах, демонстрирует многообещающий, но эффективный способ генерации изображений из текстовых описаний на естественном языке BIBREF8.black. Следуя новаторской структуре DC-GAN BIBREF8, многие исследователи предлагают пересмотренные сетевые структуры (например, различные дискриминационные механизмы) для улучшения изображений с лучшей семантикой. соответствие текстам.На основе сетевой архитектуры глубокой сверточной состязательной сети (DC-GAN), GAN-CLS с дискриминатором сопоставления изображения и текста, GAN-INT, обученный с помощью интерполяции текстового многообразия, и GAN-INT-CLS, который сочетает в себе оба, предлагаются для поиска семантического соответствия между текстом. и изображение.Подобно архитектуре DC-GAN, для семантического синтеза изображений предлагается адаптивная функция потерь (т.е. перцепционная потеря BIBREF48), которая может синтезировать реалистичное изображение, которое не только соответствует целевому текстовому описанию, но также сохраняет нерелевантные функции (например,фон) из исходных изображений BIBREF49.Что касается перцепционных потерь, в BIBREF50 предложены три функции потерь (т.е. потеря реконструкции пикселей, потеря реконструкции активации и потеря реконструкции текстуры), в которых они строят сетевые архитектуры на основе DC-GAN, т.е. GAN-INT-CLS-Pixel, GAN-INT-CLS-VGG и GAN-INT-CLS-Gram относительно трёх потерь.В BIBREF49 в сеть добавляется блок остаточного преобразования, чтобы сохранить аналогичную структуру исходного изображения. архитектур (например, Paired-D GAN) предлагается синтезировать фон и передний план из исходного изображения отдельно BIBREF51.Между тем, пропускное соединение в генераторе используется для более точного сохранения фоновой информации в исходном изображении. .Это, вероятно, проблематично, поскольку большинство изображений естественным образом состоят из двух важнейших компонентов: переднего плана и фона.Без надлежащего разделения этих двух компонентов трудно охарактеризовать семантику изображения, если все изображение рассматривается как единое целое без надлежащего разделения. GAN) BIBREF52 предлагается синтезировать целевое изображение путем объединения фона исходного изображения и описанного текстом объекта переднего плана, которого нет в исходном изображении.Уникальной особенностью MC-GAN является то, что он предлагает блок синтеза, в котором объект фона извлекается из данного изображения без нелинейной функции (т.е. только с использованием свертки и пакетной нормализации), а объект переднего плана представляет собой карту объектов из предыдущего Layer.black Поскольку MC-GAN способен правильно моделировать фон и передний план сгенерированных изображений, уникальное преимущество MC-GAN заключается в том, что пользователи могут предоставлять базовое изображение, а MC-GAN может сохранять фоновую информацию базовое изображение для создания новых изображений.черныйВ связи с тем, что обучение GAN будет значительно затруднено при создании изображений с высоким разрешением, предлагается двухэтапная GAN (т.е. stackGAN), в которой грубые изображения (т.е.изображения низкого разрешения) генерируются на этапе I и уточняются на этапе II.Для дальнейшего улучшения качества генерируемых изображений во второй версии StackGAN (т.е. Stack++) предлагается использовать многоэтапные GAN для генерации многомасштабных изображений.Термин регуляризации согласованности цвета также добавляется к потерям, чтобы сохранить согласованность изображений в разных масштабах. (DAMSM)) для моделирования многоуровневой информации (т.е. уровня слова и уровня предложения) в GAN.Ниже будут подробно описаны StackGAN, StackGAN++ и AttnGAN. успех создания изображений высокого качества.В 2017 году Чжан и др. предложил модель генерации фотореалистичных изображений из текстовых описаний под названием StackGAN (Stacked Generative Adversarial Network) BIBREF33.В своей работе они определяют двухэтапную модель, в которой используются две каскадные GAN, каждая из которых соответствует одному из этапов.Этап I GAN принимает текстовое описание в качестве входных данных, преобразует текстовое описание во встраивание текста, содержащее несколько кондиционирующих переменных, и генерирует низкокачественное изображение размером 64x64 с грубыми формами и цветами на основе вычисленных кондиционирующих переменных.Затем GAN этапа II берет это низкокачественное изображение этапа I, а также то же встраивание текста, и использует кондиционные переменные для исправления и добавления большей детализации к результату этапа I.Результатом этапа II является фотореалистичное изображение размером 256$x256, которое с поразительной точностью напоминает текстовое описание.Одним из основных достижений StackGAN является использование каскадных GAN для синтеза текста в изображение посредством процесса уточнения эскиза.Обуславливая GAN этапа II на изображении, созданном GAN этапа I, и текстовом описании, GAN этапа II способен исправлять дефекты на выходе этапа I, в результате чего получаются высококачественные изображения размером 256x256.В предыдущих работах использовались «сложенные» GAN для разделения процесса генерации изображения на структуру и стиль BIBREF42, несколько этапов, каждый из которых генерирует представления более низкого уровня из представлений более высокого уровня предыдущего этапа BIBREF35, а также несколько этапов в сочетании с подходом пирамиды Лапласа BIBREF54. который был представлен для сжатия изображений П. Бертом и Э. Адельсоном в 1983 году и использует различия между последовательными понижающими дискретизациями исходного изображения для восстановления исходного изображения из его уменьшенной версии BIBREF55.Однако в этих работах не использовались текстовые описания для обоснования моделей генераторов.Расширение условий — еще один важный вклад StackGAN.Предыдущие работы преобразовали текстовое описание на естественном языке в фиксированное встраивание текста, содержащее статические кондиционирующие переменные, которые передавались в генератор BIBREF8.StackGAN делает это, а затем создает распределение Гаусса на основе встраивания текста и случайным образом выбирает переменные из распределения Гаусса, чтобы добавить их к набору кондиционирующих переменных во время обучения.Это повышает надежность за счет внесения небольших изменений в исходное встраивание текста для конкретного обучающего изображения, сохраняя при этом обучающее изображение, с которым сравниваются сгенерированные выходные данные.В результате обученная модель создает более разнообразные изображения в одном и том же распределении при использовании условного дополнения, чем та же модель, использующая встраивание фиксированного текста BIBREF33. StackGAN++, предложенный теми же пользователями, что и StackGAN, также представляет собой сложенную модель GAN, но организует генераторы. и дискриминаторы в «деревовидной» структуре BIBREF47 с несколькими этапами.Первый этап объединяет вектор шума и кондиционирующие переменные (с условным увеличением, представленным в BIBREF33) для ввода в первый генератор, который генерирует изображение с низким разрешением, 64$\times $64 по умолчанию (это можно изменить в зависимости от желаемого числа). этапов).На каждом следующем этапе используются результаты предыдущего этапа и кондиционирующие переменные для постепенного создания изображений с более высоким разрешением.Эти этапы больше не используют вектор шума, поскольку создатели предполагают, что вносимая им случайность уже сохраняется в выходных данных первого этапа.На заключительном этапе создается высококачественное изображение стоимостью 256$\x 256$.StackGAN++ представляет совместную условную и безусловную аппроксимацию в своих проектах BIBREF47.Дискриминаторы обучены рассчитывать разницу между изображением, созданным генератором, и кондиционирующими переменными (измеряющими, насколько точно изображение представляет описание), а также разницу между изображением и реальными изображениями (вероятность того, что изображение является реальным или поддельным). .Затем генераторы стремятся минимизировать сумму этих потерь, улучшая конечный результат.Генеративно-состязательная сеть внимания (AttnGAN) BIBREF10 по своей структуре очень похожа на StackGAN++ BIBREF47, обсуждавшуюся в предыдущем разделе, но добавлены некоторые новые компоненты.Как и в предыдущих работах BIBREF56, BIBREF8, BIBREF33, BIBREF47, текстовый кодер генерирует встраивание текста с кондиционирующими переменными на основе всего предложения.Кроме того, кодировщик текста генерирует отдельное встраивание текста с кондиционирующими переменными на основе отдельных слов.Этот процесс оптимизирован для создания значимых переменных с использованием двунаправленной рекуррентной нейронной сети (BRNN), а точнее двунаправленной долговременной краткосрочной памяти (LSTM) BIBREF57, которая для каждого слова в описании генерирует условия на основе предыдущего слова, а также предыдущего слова. следующее слово (двунаправленное).На первом этапе AttnGAN генерирует изображение с низким разрешением на основе встраивания текста на уровне предложения и вектора случайного шума.Выходные данные вместе с встраиванием текста на уровне слов передаются в «модель внимания», которая сопоставляет кондиционирующие переменные на уровне слов с областями изображения этапа I, создавая матрицу контекста слов.Затем это передается на следующий этап модели вместе с необработанными выходными данными предыдущего этапа.Каждый последующий этап работает одинаково, но постепенно создает изображения с более высоким разрешением, обусловленные предыдущим этапом.В AttnGAN были представлены два основных проекта: генеративная сеть внимания и модель мультимодального подобия глубокого внимания (DAMSM) BIBREF47.Генеративная сеть внимания сопоставляет определенные области выходного изображения каждого этапа с кондиционирующими переменными из встраивания текста на уровне слов.Это очень достойный вклад, позволяющий на каждом последующем этапе самостоятельно фокусироваться на конкретных областях изображения, добавляя «внимательные» детали по регионам, а не по всему изображению.DAMSM также является ключевой функцией, представленной AttnGAN, которая используется после результата заключительного этапа для расчета сходства между сгенерированным изображением и встраиванием текста как на уровне предложения, так и на более детальном уровне слов.В таблице TABREF48 показаны оценки по различным метрикам для StackGAN, StackGAN++, AttnGAN и HDGAN в наборах данных CUB, Oxford и COCO.Из таблицы видно, что AttnGAN незначительно превосходит другие модели с точки зрения IS на наборе данных CUB и значительно превосходит их на наборе данных COCO.Иерархически-вложенная состязательная сеть (HDGAN) — это метод, предложенный BIBREF36, и его основная цель — решить сложную проблему обработки фотографических изображений из семантических текстовых описаний.Эти семантические текстовые описания применяются к изображениям из различных наборов данных.Этот метод вводит состязательные цели, вложенные в иерархически ориентированные сети BIBREF36.Иерархические сети помогают упорядочить проявления среднего уровня.Помимо регуляризации проявлений среднего уровня, он помогает тренировать генератор для захвата очень сложных неподвижных медиа-элементов.Эти элементы фиксируются в статистическом порядке для обучения генератора на основе настроек, извлеченных непосредственно из изображения.Последнее является идеальным сценарием.Тем не менее, эта статья направлена на внедрение однопоточной архитектуры.Эта однопотоковая архитектура действует как генератор, который обеспечивает оптимальную адаптируемость к объединенным дискриминаторам.После того, как объединенные дискриминаторы настроены оптимальным образом, однопотоковая архитектура будет продвигать сгенерированные изображения для достижения гораздо более высокого разрешения BIBREF36. Основной вклад HDGAN включает введение меры визуально-семантического сходства BIBREF36.Эта функция поможет оценить согласованность сгенерированных изображений.Помимо проверки согласованности сгенерированных изображений, одной из ключевых целей этого шага является проверка логической согласованности конечного продукта BIBREF36.Конечным продуктом в этом случае будут изображения, которые семантически отображаются из текстовых описаний на естественном языке в каждую область изображения, например крыло у птицы или лепесток у цветка.Глубокое обучение создало множество возможностей и проблем для исследователей в области искусственного интеллекта в области компьютерного зрения.В сочетании с GAN и архитектурами мультимодального обучения в этой области наблюдается огромный рост BIBREF8, BIBREF39, BIBREF40, BIBREF41, BIBREF42, BIBREF22, BIBREF26.Основываясь на этих достижениях, HDGAN пытаются еще больше расширить некоторые желательные и менее распространенные функции при создании изображений из текстового естественного языка BIBREF36.Другими словами, он берет предложения и рассматривает их как иерархическую структуру.В большинстве случаев это имеет как положительные, так и отрицательные последствия.Во-первых, это усложняет создание привлекательных изображений.Однако одним из ключевых преимуществ этого сложного процесса является реалистичность, достигаемая после завершения всех процессов.Кроме того, в этот процесс добавлена одна общая особенность — возможность идентифицировать части предложений с помощью ограничивающих рамок.Если предложение включает общие характеристики птицы, оно окружает атрибуты такой птицы ограничивающими рамками.На практике это должно произойти, если желаемое изображение содержит другие элементы, например, человеческие лица (например, глаза, волосы и т. д.), цветы (например, размер, цвет лепестков и т. д.) или любой другой неодушевленный предмет (например, стол, кружка, и т. д).Наконец, HDGAN оценили некоторые из своих претензий на общие идеальные наборы данных преобразования текста в изображение, такие как CUB, COCO и Oxford-102 BIBREF8, BIBREF36, BIBREF39, BIBREF40, BIBREF41, BIBREF42, BIBREF22, BIBREF26.Эти наборы данных впервые были использованы в более ранних работах BIBREF8, и большинство из них содержат модифицированные функции, такие как аннотации к изображениям, метки или описания.Качественные и количественные результаты, представленные исследователями в этом исследовании, намного превосходят более ранние работы в этой же области компьютерного зрения AI.black. В этом подразделе мы представляем методы синтеза текста в изображения, которые пытаются максимизировать разнообразие выходных изображений. на основе текстовых описаний.blackДве проблемы возникают в традиционных GAN BIBREF58 для синтеза изображений: (1) проблема масштабируемости: традиционные GAN не могут предсказать большое количество категорий изображений; и (2) проблема разнообразия: изображения часто подвергаются сопоставлению «один ко многим», поэтому одно изображение может быть помечено разными тегами или описано с использованием разных текстов.Для решения этих проблем GAN использует дополнительную информацию, например. cGAN — альтернативное решение.Однако, хотя cGAN и многие ранее представленные подходы способны генерировать изображения по отношению к текстовым описаниям, они часто выдают изображения схожего типа и внешнего вида. улучшить разнообразие выходных изображений за счет использования вспомогательного классификатора для управления выходными изображениями.Общая структура AC-GAN показана на рис.РИСУНОК 15(с).В AC-GAN каждое сгенерированное изображение связано с меткой класса в дополнение к метке true/fake, которая обычно используется в GAN или cGAN.Дискриминатор AC-GAN не только выводит распределение вероятностей по источникам (т. е. является ли изображение правдивым или поддельным), он также выводит распределение вероятностей по метке класса (т. е. предсказывает, к какому классу принадлежит изображение). Вспомогательный слой классификатора для прогнозирования класса изображения, AC-GAN может использовать прогнозируемые метки классов изображений, чтобы гарантировать, что выходные данные состоят из изображений из разных классов, что приводит к диверсифицированному синтезу изображений.Результаты показывают, что AC-GAN может генерировать изображения с большим разнообразием. Основываясь на AC-GAN, TAC-GAN BIBREF59 предлагается заменить информацию о классе текстовыми описаниями в качестве входных данных для выполнения задачи синтеза текста в изображение.Архитектура TAC-GAN показана на рис.FigREF15(d), аналогичный AC-GAN.В целом, основное различие между TAC-GAN и AC-GAN заключается в том, что TAC-GAN обусловливает генерируемые изображения текстовыми описаниями, а не метками классов.Этот дизайн делает TAC-GAN более универсальным для синтеза изображений. Черный Для TAC-GAN он накладывает ограничения на генерируемые изображения как в тексте, так и в метках классов.Входной вектор генеративной сети TAC-GAN построен на основе вектора шума и встроенного векторного представления текстовых описаний.Дискриминатор TAC-GAN аналогичен дискриминатору AC-GAN, который не только предсказывает, является ли изображение поддельным, но также предсказывает метку изображения.Небольшое отличие дискриминатора TAC-GAN от дискриминатора AC-GAN заключается в том, что он также получает текстовую информацию в качестве входных данных перед выполнением классификации. Эксперименты и проверки на наборе данных цветов Oxford-102 показывают, что результаты созданные TAC-GAN «немного лучше», чем другие подходы, включая GAN-INT-CLS и StackGAN.black. Чтобы улучшить разнообразие выходных изображений, дискриминаторы AC-GAN и TAC-GAN прогнозируют метки классов синтезированных изображений. .Этот процесс, вероятно, обеспечивает семантическое разнообразие изображений, но метки классов по своей сути ограничивают описание семантики изображения, а изображения, описываемые текстом, могут сопоставляться с несколькими метками.Поэтому вместо прогнозирования меток классов изображений альтернативным решением является непосредственная количественная оценка их семантической релевантности. Архитектура Text-SeGAN показана на рис. FigREF15(e).Чтобы напрямую оценить семантическую релевантность, Text-SeGAN BIBREF28 добавляет слой регрессии для оценки семантической релевантности между изображением и текстом вместо слоя классификатора прогнозирующих меток.Предполагаемая семантическая ссылка представляет собой дробное значение в диапазоне от 0 до 1, причем более высокое значение отражает лучшую семантическую релевантность между изображением и текстом.Благодаря этому уникальному дизайну неотъемлемым преимуществом Text-SeGAN является то, что генерируемые изображения не ограничиваются определенными классами и семантически соответствуют введенному тексту. может генерировать разнообразные изображения, семантически соответствующие входному тексту.Кроме того, результаты Text-SeGAN показывают улучшенную начальную оценку по сравнению с другими подходами, включая GAN-INT-CLS, StackGAN, TAC-GAN и HDGAN.black, из-за присущей визуальным образам сложности и разнообразия текстовых описаний. (т.е. одни и те же слова могут иметь разные значения), на семантических уровнях сложно точно сопоставить тексты с визуальными образами.Для большинства методов, которые мы обсуждали до сих пор, используется процесс прямой генерации текста в изображение, но не существует проверки того, как сгенерированные изображения соответствуют тексту в обратном порядке. зеркальная структура, которая обратно обучается на основе сгенерированных изображений для вывода текстов (процесс преобразования изображения в текст) для дальнейшей проверки того, действительно ли сгенерированные изображения соответствуют входным текстам.MirrowGAN включает в себя три модуля: модуль встраивания семантического текста (STEM), глобально-локальный модуль совместного внимания для каскадной генерации изображений (GLAM) и модуль семантической регенерации и выравнивания текста (STREAM).Обмены «текст-изображение» (T2I) и «изображение-текст» (I2T) объединяются для постепенного увеличения разнообразия и семантической согласованности генерируемых изображений.Чтобы повысить разнообразие выходного изображения, Scene Graph GAN BIBREF61 предлагает использовать визуальные графы сцен для описания расположения объектов, что позволяет пользователям точно определять отношения между объектами на изображениях.Чтобы преобразовать граф визуальной сцены в качестве входных данных для GAN для генерации изображений, этот метод использует свертку графов для обработки входных графов.Он вычисляет макет сцены, прогнозируя ограничивающие рамки и маски сегментации для объектов.После этого он преобразует вычисленный макет в изображение с помощью каскадной сети уточнения.В этом контексте синтезированные видео часто являются полезными ресурсами для автоматизированной помощи или рассказывания историй. при вводе текста BIBREF62.Эта структура состоит из трех частей: преобразования текста в речь с использованием «Char2Wav», представления формы рта, синхронизированного со звуком с использованием LSTM с задержкой по времени, и «генерации видео», обусловленной формой рта с использованием архитектуры «U-Net».Хотя результаты кажутся многообещающими, ObamaNet моделирует только область рта, а видео не генерируются из шума, который можно рассматривать как предсказание видео, а не как генерацию видео. текст) в видеопоследовательности на языке жестов (т. е. T2S) BIBREF63.Это часто достигается с помощью двухэтапного процесса: преобразование текстов в значимые единицы для создания изображений, за которым следует компонент обучения для упорядочения изображений в последовательном порядке для наилучшего представления.В частности, с использованием методов машинного перевода на основе RNN тексты переводятся в последовательности глосс на языке жестов.Затем глоссы сопоставляются с последовательностями поз скелета с помощью справочной таблицы.Для генерации видео строится условный DCGAN с вводом конкатенации скрытого представления изображения для базовой позы и информации о позе скелета. В BIBREF64 предлагается модель преобразования текста в видео (T2V) на основе cGAN, в которой входными данными является изометрический гауссовский шум с вектором text-gist, служащим генератором.Ключевым компонентом создания видео из текста является обучение условной генеративной модели для извлечения как статической, так и динамической информации из текста, после чего следует гибридная структура, объединяющая вариационный автокодировщик (VAE) и генеративно-состязательную сеть (GAN). Для создания видео T2V использует два типа функций: статические и динамические.Статические функции, называемые «суть», используются для эскиза обусловленного текстом цвета фона и структуры макета объекта.С другой стороны, динамические функции рассматриваются путем преобразования входного текста в фильтр изображений, который в конечном итоге формирует видеогенератор, состоящий из трех запутанных нейронных сетей.Вектор text-gist генерируется генератором gist, который сохраняет статическую информацию (например, фон), и text2filter, который фиксирует динамическую информацию (т. е. действия) в тексте для создания видео. семантически связаны с текстами, но имеют довольно низкое качество (например, разрешение всего $64 \times 64$). абзац из нескольких предложений) с использованием последовательной модели GAN BIBREF65.Кодировщик истории, кодировщик контекста и дискриминаторы являются основными компонентами этой модели.Используя стохастическую выборку, кодировщик истории намеревается изучить низкоразмерный вектор внедрения для всей истории, чтобы сохранить ее непрерывность.Предлагается кодер контекста для захвата контекстной информации во время последовательной генерации изображений на основе глубокой RNN.Двумя дискриминаторами StoryGAN являются дискриминатор изображений, который оценивает сгенерированные изображения, и дискриминатор историй, который обеспечивает глобальную согласованность. квалифицируются с точки зрения индекса структурного сходства (SSIM), визуальной квалификации, последовательности и релевантности (последние три показателя основаны на оценке человека). Приложения компьютерного зрения имеют большой потенциал для отраслей, включая, помимо прочего, медицину, правительство, военную, развлечения и социальные сети в Интернете BIBREF7, BIBREF66, BIBREF67, BIBREF68, BIBREF69, BIBREF70.Синтез текста в изображение — одно из таких приложений в области искусственного интеллекта компьютерного зрения, которое в последние годы стало основным направлением деятельности из-за его потенциала обеспечения полезных свойств и возможностей для широкого спектра применимых областей.Синтез текста в изображение является побочным продуктом приложения сетей глубокого сверточного декодера в сочетании с GAN BIBREF7, BIBREF8, BIBREF10.Глубокие сверточные сети способствовали нескольким прорывам в обработке изображений, видео, речи и звука.Этот метод обучения, помимо прочего, предназначен для помощи в переводе последовательных текстовых описаний в изображения, дополненные одним или несколькими дополнительными методами.Алгоритмы и методы, разработанные в области компьютерного зрения, позволили исследователям в последние годы создавать реалистичные изображения из простых предложений.Достижения в области компьютерного зрения, глубоких сверточных сетей и семантических единиц пролили свет и перенаправили фокус на эту область исследований синтеза текста в изображение, основной задачей которой является помощь в создании убедительных изображений с максимальной точностью текстовые описания по возможности.На сегодняшний день модели генерации синтетических изображений из текстового естественного языка в исследовательских лабораториях университетов и частных компаний позволили получить убедительные изображения цветов и птиц BIBREF8.Хотя цветы и птицы являются наиболее распространенными объектами изучения до сих пор, исследования были применены и к другим классам.Например, были исследования, сосредоточенные исключительно на человеческих лицах BIBREF7, BIBREF8, BIBREF71, BIBREF72. Это увлекательное время для исследователей и энтузиастов компьютерного зрения, искусственного интеллекта и глубокого обучения.Постоянное развитие аппаратного и программного обеспечения, а также одновременное развитие исследований в области искусственного интеллекта в области компьютерного зрения меняют многие отрасли.Эти достижения в области технологий позволяют извлекать несколько типов данных из различных источников.Например, данные изображений, полученные с различных устройств, готовых к фотосъемке, таких как смартфоны, и онлайн-сервисов социальных сетей, открыли двери для анализа больших объемов наборов медиаданных BIBREF70.Доступность больших наборов медиаданных позволяет предлагать новые структуры и алгоритмы и тестировать их на реальных данных.Краткое изложение некоторых рассмотренных методов и базовых наборов данных, использованных для проверки, представлено в таблице TABREF43.Кроме того, производительность различных GAN по отношению к эталонным наборам данных и показателям производительности представлена в таблице TABREF48. Чтобы синтезировать изображения из текстовых описаний, многие платформы использовали минималистичный подход, создавая небольшие изображения без фона BIBREF73.В большинстве случаев эксперименты проводились на простых наборах данных, изначально содержащих изображения птиц и цветов.BIBREF8 внес свой вклад в эти наборы данных, добавив соответствующие текстовые описания на естественном языке в подмножества наборов данных CUB, MSCOCO и Oxford-102, что облегчило работу по синтезу текста в изображение для нескольких статей, выпущенных совсем недавно.Хотя большинство алгоритмов глубокого обучения используют набор данных MNIST BIBREF74 в качестве эталона, существует три основных набора данных, которые обычно используются для оценки предлагаемых моделей GAN для синтеза текста в изображение: CUB BIBREF75, Oxford BIBREF76, COCO BIBREF77 и CIFAR-10 BIBREF78. .CUB BIBREF75 содержит 200 птиц с соответствующими текстовыми описаниями, а Oxford BIBREF76 содержит 102 категории цветов с 40-258 изображениями в каждой и соответствующими текстовыми описаниями.Эти наборы данных содержат отдельные объекты с текстовым описанием, соответствующим этому объекту, что делает их относительно простыми.COCO BIBREF77 намного сложнее и содержит 328 тыс. изображений с 91 различным типом объектов.Набор данных CIFAI-10 BIBREF78 состоит из 60 000 цветных изображений размером 32$×32 в 10 классах, по 6000 изображений в каждом классе.В отличие от CUB и Oxford, каждое изображение которых содержит отдельный объект, изображения COCO могут содержать несколько объектов, каждый из которых имеет метку, поэтому на одно изображение приходится много меток.Общее количество меток на 328 тысячах изображений составляет 2,5 миллиона BIBREF77. Для оценки изображений, созданных с помощью GAN преобразования текста в изображение, используются несколько показателей оценки.Предложенный BIBREF25, Inception Scores (IS) вычисляет энтропию (случайность) условного распределения, полученного путем применения начальной модели, представленной в BIBREF79, и предельного распределения большого набора сгенерированных изображений, которые должны быть низкими и высокими соответственно. для осмысленных изображений.Низкая энтропия условного распределения означает, что оценщик уверен, что изображения пришли из распределения данных, а высокая энтропия предельного распределения означает, что набор сгенерированных изображений разнообразен, что является желаемыми характеристиками.Затем показатель IS рассчитывается как KL-дивергенция между двумя энтропиями.FCN-оценки BIBREF2 вычисляются аналогичным образом, полагаясь на интуитивное понимание того, что реалистичные изображения, созданные с помощью GAN, должны иметь возможность правильно классифицироваться классификатором, обученным на реальных изображениях того же распределения.Следовательно, если классификатор FCN точно классифицирует набор синтетических изображений, изображение, вероятно, является реалистичным, и соответствующий GAN получает высокий балл FCN.Начальное расстояние Фреше (FID) BIBREF80 — это еще одна часто используемая метрика оценки, использующая другой подход, фактически сравнивая сгенерированные изображения с реальными изображениями в распределении.Высокий FID означает, что между статистикой синтетических и реальных изображений мало связи, и наоборот, поэтому более низкие значения FID лучше. Производительность различных GAN по отношению к эталонным наборам данных и показателям производительности представлена в таблице TABREF48.Кроме того, на рисунке FigREF49 дополнительно представлена производительность 14 GAN с учетом их начальных показателей (IS). Хотя мы собрали все данные, которые смогли найти по оценкам для каждой модели в наборах данных CUB, Oxford и COCO, используя IS, FID, FCN и человеческих классификаторов, к сожалению, нам не удалось найти определенные данные для AttnGAN и HDGAN (отсутствующие в таблице TABREF48).Лучшая оценка, которую мы можем дать тем, у кого отсутствуют данные, — это наше собственное мнение, просмотрев примеры сгенерированных изображений, представленных в их статьях.В этом отношении мы заметили, что HDGAN показал относительно лучшие визуальные результаты на наборах данных CUB и Oxford, в то время как AttnGAN показал гораздо более впечатляющие результаты, чем остальные, на более сложном наборе данных COCO.Это свидетельствует о том, что модель внимания и DAMSM, представленные AttnGAN, очень эффективны для создания высококачественных изображений.Примеры лучших результатов по птицам и тарелкам овощей, полученных с помощью каждой модели, представлены на рисунках FigREF50 и FigREF51 соответственно. Результаты в таблице TABREF48 показывают, что StackGAN++ продемонстрировал лишь небольшое улучшение по сравнению со своим предшественником StackGAN в синтезе текста в изображение.Однако StackGAN++ внес очень достойное усовершенствование для безусловной генерации изображений, организовав генераторы и дискриминаторы в «древовидной» структуре.Это указывает на то, что пересмотр структур дискриминаторов и/или генераторов может привести к умеренному улучшению синтеза текста в изображение. ОБЖ-ГАН БИБРЕФ81.Обратите внимание, что и DM-GAN, и Obj-GAN являются последними разработанными методами в этой области (оба опубликованы в 2019 году), что указывает на то, что исследования в области синтеза текста в изображения постоянно улучшают результаты для лучшего визуального восприятия и перехвата.С технической точки зрения DM-GAN BIBREF53 представляет собой модель, использующую динамическую память для уточнения содержимого нечетких изображений, первоначально сгенерированных из сетей GAN.Ворота записи в память используются DM-GAN для выбора важной текстовой информации и создания изображений на основе выбранного текста.С другой стороны, Obj-GAN BIBREF81 фокусируется на объектно-центрированном синтезе текста в изображение.Предлагаемая структура Obj-GAN состоит из генерации макета, включая генератор ограничивающей рамки и генератор формы, а также объектно-ориентированный генератор внимательных изображений.Разработка и развитие DM-GAN и Obj-GAN показывают, что исследования в области синтеза текста в изображение продвигаются вперед, чтобы уделять больше внимания деталям изображения и семантике текста для лучшего понимания и восприятия.Стоит отметить, что, хотя этот обзор в основном посвящен синтезу текста в изображение, существуют и другие применения GAN в более широкой области синтеза изображений, которые мы нашли интересными и достойными посвятить небольшой раздел.Например, BIBREF72 использовал Sem-Latent GAN для создания изображений лиц на основе атрибутов лица, давая впечатляющие результаты, которые на первый взгляд можно было принять за настоящие лица.BIBREF82, BIBREF70 и BIBREF83 продемонстрировали большой успех в создании текстовых описаний из изображений (подписей к изображениям) с большой точностью: BIBREF82 использовал модель, основанную на внимании, которая автоматически учится фокусироваться на заметных объектах, а BIBREF83 использовал глубокое визуально-семантическое выравнивание.Наконец, есть вклад StackGAN++, который не был упомянут в специальном разделе из-за его отношения к безусловной генерации изображений, а не к условной, а именно термин регуляризации цвета BIBREF47.Этот дополнительный термин направлен на то, чтобы образцы, сгенерированные из одних и тех же входных данных на разных этапах, были более согласованными по цвету, что привело к значительно лучшим результатам для безусловной модели.Недавние достижения в области исследований синтеза текста в изображение открывают двери для нескольких привлекательных методов и архитектур.Первоначально основной целью синтеза текста в изображение было создание изображений из простых меток, а позже эта цель была распространена на естественные языки.В этой статье мы рассмотрели новые методы, которые генерируют, по нашему мнению, наиболее визуально насыщенные и фотореалистичные изображения на основе текстового естественного языка.Эти сгенерированные изображения часто полагаются на генеративно-состязательные сети (GAN), сети глубокого сверточного декодера и методы мультимодального обучения. GAN, GAN повышения разрешения, GAN улучшения разнообразия и GAN улучшения движения.Таксономия представляет собой четкую дорожную карту, показывающую мотивацию, архитектуру и различия различных методов, а также очерчивает график их развития и взаимосвязь.Следуя предложенной таксономии, мы рассмотрели важные особенности каждого метода и их архитектуру.Мы указали на определение модели и ключевые вклады некоторых передовых инфраструктур GAN, включая StackGAN, StackGAN++, AttnGAN, DC-GAN, AC-GAN, TAC-GAN, HDGAN, Text-SeGAn, StoryGAN и т. д.Многие из решений, рассмотренных в этой статье, позволили решить весьма сложную задачу создания фотореалистичных изображений, выходящих за рамки образцов размера образцов.Другими словами, за пределами работы BIBREF8, в которой изображения генерировались из текста в 64$\times$64 крошечных образцах.Наконец, все методы были оценены на наборах данных, которые включали птиц, цветы, людей и другие разные элементы.Нам также удалось выделить несколько важных документов, которые были столь же впечатляющими, как и те, которые мы наконец рассмотрели.Тем не менее, эти известные работы еще не внесли прямого или косвенного вклада в расширение обширной области искусственного интеллекта в области компьютерного зрения.Заглядывая в будущее, отличным продолжением работ, рассмотренных в этой статье, могло бы стать предоставление большей независимости нескольким методам обучения (например, меньшее вмешательство человека), задействованных в исследованиях, а также увеличение размера выходных изображений.Авторы заявляют об отсутствии конфликта интересов относительно публикации данной статьи. | Синтез текста в изображение относится к вычислительным методам, которые переводят написанные человеком текстовые описания в форме ключевых слов или предложений в изображения с семантическим значением, аналогичным тексту. В более ранних исследованиях синтез изображений основывался в основном на корреляционном анализе слов и изображений в сочетании с контролируемыми методами для поиска наилучшего соответствия визуального контента тексту. Недавний прогресс в глубоком обучении (DL) принес новый набор методов глубокого обучения без учителя, в частности, глубокие генеративные модели, которые способны генерировать реалистичные визуальные изображения с использованием соответствующим образом обученных моделей нейронных сетей. В этой статье мы рассматриваем самые последние разработки в области исследований синтеза текста в изображение. В нашем обзоре сначала рассматривается синтез изображений и связанные с ним проблемы, а затем рассматриваются ключевые концепции, такие как генеративно-состязательные сети (GAN) и глубокие сверточные нейронные сети кодер-декодер (DCNN). После этого мы предлагаем таксономию, которая суммирует синтез текста в изображение на основе GAN по четырем основным категориям: GAN семантического улучшения, GAN улучшения разрешения, GANS улучшения разнообразия и GAN улучшения движения. Мы уточняем основную цель каждой группы и далее рассматриваем типичные архитектуры GAN в каждой группе. Таксономия и обзор описывают методы и эволюцию различных подходов и в конечном итоге предоставляют четкую дорожную карту для обобщения списка современных решений, которые используют GAN и DCNN для получения захватывающих результатов в таких категориях, как человеческие лица, птицы, цветы, интерьеры комнат. , реконструкция объектов по картам границ (игры) и т. д. Обзор завершится сравнением предлагаемых решений, проблем, которые остаются нерешенными, и будущих разработок в области синтеза текста в изображение. | 9,763 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Сверточная нейронная сеть, основанная на внимании, для машинного понимания. Наделение машин способностью понимать естественный язык является давней целью НЛП и обещает революционизировать способы взаимодействия людей с машинами и получения информации.Ричардсон и др. richardson2013mctest предложил задачу машинного понимания вместе с MCTest — набором данных с ответами на вопросы для оценки.Способность машины понимать текст оценивается путем постановки серии вопросов, где ответ на каждый вопрос можно найти только в соответствующем тексте.Решения обычно сосредоточены на некоторой семантической интерпретации текста, возможно, с некоторой формой вероятностного или логического вывода для ответа на вопрос.Несмотря на интенсивную недавнюю работу BIBREF0, BIBREF1, BIBREF2, BIBREF3, проблема далека от решения.Машинное понимание — это вопросно-ответная задача с открытой областью, которая содержит фактоидные вопросы, но ответы могут быть получены путем извлечения или индукции ключевых подсказок.На рисунке FigREF1 показан один пример в MCTest.Каждый пример состоит из одного документа и четырех связанных вопросов; за каждым вопросом следуют четыре варианта ответа, из которых только один правильный.Вопросы в MCTest имеют две категории: «один» и «несколько».Метка означает, что для ответа на этот вопрос требуется одно или несколько предложений из документа.Чтобы правильно ответить на первый вопрос в примере, необходимы два синих предложения; вместо этого во втором вопросе может помочь только красное предложение.Следующие наблюдения справедливы для всего MCTest.(i) Большинство предложений в документе не имеют отношения к данному вопросу.Это намекает на то, что нам нужно уделить внимание лишь некоторым ключевым регионам.(ii) Кандидаты на ответ могут представлять собой текст с гибкой длиной и уровнем абстракции и, вероятно, не появляться в документе.Например, кандидат Б на второй вопрос — «снаружи», то есть одно слово и не существует в документе, тогда как кандидаты на ответ на первый вопрос представляют собой более длинные тексты с некоторыми вспомогательными словами, такими как «Потому что» в тексте.Для этого наша система должна обрабатывать гибкие тексты посредством извлечения, а также абстракции.(iii) Для получения ответа на некоторые вопросы требуется несколько предложений, и эти важные предложения обычно расположены близко друг к другу (мы называем их фрагментами).Следовательно, наша система должна быть в состоянии сделать выбор или компромисс между потенциальной подсказкой из одного предложения и подсказкой из фрагмента.Предыдущая работа над этой задачей в основном основывалась на разработке функций.Вместо этого эта работа представляет собой подход, основанный на глубоких нейронных сетях, без каких-либо лингвистических особенностей.В частности, мы предлагаем HABCNN, иерархическую сверточную нейронную сеть, основанную на внимании, для решения этой задачи в двух дорожных картах.В первом мы проецируем документ двумя разными способами: один на основе внимания к вопросу, другой на основе внимания к ответу, а затем сравниваем два проецируемых представления документа, чтобы определить, соответствует ли ответ вопросу.Во втором случае каждая пара вопрос-ответ переформатируется в утверждение, а затем вся задача обрабатывается посредством текстового следования.В обеих дорожных картах рассматривается сверточная нейронная сеть (CNN) для моделирования всех типов текста.Ожидается, что наша модель сможет обнаруживать ключевые фрагменты, ключевые предложения, а также ключевые слова или фразы в документе, как это обычно делают люди при выполнении такой задачи контроля качества.Чтобы обнаружить те информативные части, которые необходимы для вопросов, мы исследуем механизм внимания, моделирующий документ так, чтобы его представление интенсивно содержало необходимую информацию.На практике, вместо того, чтобы имитировать людей в задачах контроля качества сверху вниз, наша система моделирует документ снизу вверх, накапливая наиболее релевантную информацию от уровня слова до уровня фрагмента.Наш подход является новым в трех аспектах.(i) Документ моделируется с помощью иерархической CNN с различной степенью детализации: от уровня слова до уровня предложения, затем от уровня предложения до уровня фрагмента.Причина выбора CNN, а не других моделей последовательностей, таких как рекуррентная нейронная сеть BIBREF4, блок долговременной краткосрочной памяти (LSTM BIBREF5), вентилируемый рекуррентный блок (GRU BIBREF6) и т. д., заключается в том, что мы утверждаем, что CNN более подходят для обнаружения ключевых предложений. в документах и ключевые фразы в предложениях.Если снова рассмотреть второй вопрос на рисунке РИС.1, исходное предложение «Они сидели у огня и говорили о насекомых» содержит больше информации, чем требуется, т. е. нам не нужно знать «они говорили о насекомых».Нейронные сети, моделирующие последовательность, обычно моделируют значение предложения, накапливая всю последовательность.Предполагается, что CNN с этапами объединения сверток должны обнаруживать некоторые важные функции независимо от того, откуда они берутся.(ii) В примере на рисунке FigREF1 очевидно, что не все предложения требуются для ответа на вопрос, и обычно для разных вопросов требуются разные фрагменты.Следовательно, один и тот же документ должен иметь разные представления в зависимости от того, о чем идет речь.С этой целью в иерархическую CNN включается внимание, чтобы направлять изучение динамических представлений документов, которые точно соответствуют требованиям к информации по вопросам.(iii) Представления документов на уровне предложения и фрагмента информативны для вопроса, для их объединения разработана сеть магистралей, что позволяет нашей системе найти гибкий компромисс.В целом мы вносим три вклада.(i) Мы представляем иерархическую систему CNN, основанную на внимании, «HABCNN».Насколько нам известно, это первая система, основанная на глубоком обучении для задачи MCTest.(ii) Предыдущие системы моделирования документов, основанные на глубоких нейронных сетях, в основном генерируют общее представление, эта работа является первой, в которой внимание уделяется таким образом, что представление документа смещено в сторону требований к вопросу.(iii) Наши системы HABCNN значительно превосходят других конкурентов в области глубокого обучения.Существующие системы для задачи MCTest в основном основаны на функциях, спроектированных вручную.Репрезентативная работа включает BIBREF7, BIBREF3, BIBREF8, BIBREF9.В этих работах обычно сначала определяют регуляризованную функцию потерь на основе предполагаемых векторов признаков, а затем усилия сосредотачиваются на разработке эффективных признаков на основе различных правил.Несмотря на то, что эти исследования являются новаторскими для решения этой задачи, их гибкость и способность к обобщению ограничены.Подходы, основанные на глубоком обучении, привлекают растущий интерес к аналогичным задачам.Уэстон и др., Weston2014memory представляют сети памяти для контроля качества фактоидов.Структура сети памяти расширена в BIBREF1, BIBREF10 для набора данных Facebook bAbi.Пэн и др.Neural Reasoner PengLLW15 делает выводы на основе множества подтверждающих фактов, чтобы сгенерировать ответ сущности на заданный вопрос, а также протестирован на bAbI. Все эти работы посвящены коротким текстам с простой грамматикой, целью которых является создание ответа, который ограничивается одним словом, обозначающим место, человека и т. д.Некоторые работы также пытались выполнить другие задачи контроля качества.Например, Айер и др., iyyer2014neural представили QANTA, рекурсивную нейронную сеть, позволяющую делать выводы о сущности на основе ее текста описания.По сути, эта задача представляет собой сопоставление описания и сущности, явных вопросов не существует.Другое отличие от нас заключается в том, что все предложения в описании сущности на самом деле содержат частичную информацию о сущности, следовательно, описание должно иметь только одно представление.Однако в нашей задаче моделирование документа должно динамически меняться в соответствии с анализом вопроса.Герман и др., hermann2015teaching включили в LSTM механизм внимания для задачи контроля качества текста новостей.Тем не менее, их работа не обрабатывает некоторые сложные типы вопросов, такие как «Почему...», они просто стремятся найти объект в документе, чтобы заполнить слот в запросе, чтобы завершенный запрос был истинным на основе документа.Тем не менее, это вдохновляет нас относиться к нашей задаче как к проблеме текстуального следования, сначала переформатируя пары вопрос-ответ в утверждения.Некоторые другие системы глубокого обучения разработаны для задачи выбора ответа BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15.Иными словами, такого рода задача ответа на вопрос не предполагает понимания документа.Они только пытаются сопоставить кандидата вопросов и ответов без какой-либо дополнительной информации.Вместо этого в этой работе мы рассматриваем машинное понимание как задачу сопоставления вопросов и ответов под руководством.В целом, для задачи машинного понимания MCTest в открытой области эта работа впервые прибегает к использованию глубоких нейронных сетей.Мы исследуем эту задачу тремя подходами, проиллюстрированными на рисунке FigREF2.(i) Мы можем вычислить два разных представления документа (D) в общем пространстве: одно на основе внимания к вопросу (Q), другое на основе внимания к ответу (A) и сравнить их.Эту архитектуру мы называем HABCNN-QAP.(ii) Мы вычисляем представление D на основе внимания Q (как и раньше), но теперь мы сравниваем его напрямую с представлением A. Мы называем эту архитектуру HABCNN-QP.(iii) Мы рассматриваем эту задачу контроля качества как текстовое следствие (TE), сначала переформатируя пару Q-A в утверждение (S), затем напрямую сопоставляя S и D.Эту архитектуру мы называем HABCNN-TE.Все три подхода реализованы в общей структуре HABCNN. Напомним, что мы используем сокращения A (ответ), Q (вопрос), S (утверждение), D (документ).HABCNN выполняет обучение представлению для тройки (Q, A, D) в HABCNN-QP и HABCNN-QAP для кортежа (S, D) в HABCNN-TE.Для удобства мы используем слово «запрос» для единообразного обращения к Q, A или S.HABCNN, изображенный на рисунке FigREF3, имеет следующие фазы.Входной слой.Входные данные: (запрос,D).Запрос — это два отдельных предложения (для Q, A) или одно отдельное предложение (для S), D — последовательность предложений.Слова инициализируются с помощью INLINEFORM0-мерных предварительно обученных вложений слов.В результате каждое предложение представляется в виде карты объектов размерностью INLINEFORM1 ( INLINEFORM2 — длина предложения).На рисунке FigREF3 каждое предложение во входном слое изображено прямоугольником с несколькими столбцами.Приговор-CNN.Sentence-CNN используется для обучения представлению предложений на уровне слов.Учитывая предложение длиной INLINEFORM0 с последовательностью слов: INLINEFORM1 , пусть вектор INLINEFORM2 будет объединенными вложениями слов INLINEFORM3 INLINEFORM4, где INLINEFORM5 — ширина фильтра, INLINEFORM6 — размерность представлений слов, а INLINEFORM7 .Вложения для слов INLINEFORM8 , INLINEFORM9 и INLINEFORM10 представляют собой заполнение нулями.Затем мы генерируем представление INLINEFORM11 для фразы INLINEFORM12, используя веса свертки INLINEFORM13:DISPLAYFORM0, где смещение INLINEFORM0 .INLINEFORM1 называется «размером ядра» в CNN. Обратите внимание, что CNN предложений для запроса и всех предложений документа имеют одинаковые веса, так что результирующие представления предложений сопоставимы.Представление на уровне предложения.CNN-предложение генерирует новую карту признаков (опущена на рисунке FigREF3) для каждого входного предложения, один столбец в карте признаков обозначает представление фразы (т. е. INLINEFORM0 в уравнении (1)). Для запроса и каждого предложения D, мы выполняем поэлементное объединение 1-max (для краткости «max-pooling») BIBREF16 над представлениями фраз, чтобы сформировать их представления на этом уровне.Теперь мы рассматриваем D как набор «жизненных» предложений и «шумовых» предложений.Мы предлагаем объединить внимание для изучения представления D на уровне предложения следующим образом: сначала определите важные предложения, вычисляя внимание для каждого предложения D как косинусное сходство между его представлением и представлением запроса, затем выберите предложения INLINEFORM0 с наибольшим вниманием, чтобы сделайте над ними максимальный пул.Взяв в качестве примера рисунок FigREF3, на основе выходных данных слоя CNN предложения важные предложения INLINEFORM1 синего цвета объединяются посредством максимального пула как представление INLINEFORM2 уровня предложения D; другие – белые – представления предложений игнорируются, поскольку им уделяется мало внимания.(Если INLINEFORM3 , объединение внимания возвращается к обычному максимальному объединению в BIBREF16 .)Когда запрос имеет вид (Q,A), этот шаг будет повторен один раз для Q и один раз для A, чтобы вычислить представления D на уровне предложения, которые смещены по отношению к Q и A соответственно.Фрагмент-CNN.Как показывает пример на рисунке FigREF1, для ответа на первый вопрос «почему дедушка открыл дверь?» недостаточно сравнить этот вопрос только с предложением «Дедушка открыл дверь с улыбкой и приветствовал Джимми внутри»; вместо этого отрывок «Наконец, Джимми подошел к дому дедушки и постучал.Дедушка с улыбкой открыл дверь и приветствовал Джимми внутри» следует использовать для сравнения.Для этого необходимо сложить еще один слой CNN, snippet-CNN, чтобы изучить представления фрагментов, т. е. единиц одного или нескольких предложений.Таким образом, основные единицы ввода в сниппет-CNN (соответственно.предложение-CNN) представляют собой предложения (соответственно.слова), а выходные данные представляют собой фрагменты (соответственно.предложения). Конкретно, snippet-CNN помещает все представления предложений в последовательность столбцов в виде карты объектов и выполняет над ней еще одну операцию свертки.При ширине фильтра INLINEFORM0 на этом этапе создается представление фрагмента с последовательными предложениями INLINEFORM1.Точно так же мы используем ту же CNN для изучения представлений запросов с более высокой абстракцией (просто рассматривая запрос как документ, содержащий только одно предложение, так что представление запроса с более высокой абстракцией находится в том же пространстве, что и соответствующие представления фрагментов). Представление на уровне фрагмента.Для вывода фрагмента-CNN каждое представление является более абстрактным и означает большую степень детализации.Мы применяем тот же процесс объединения внимания к представлениям на уровне фрагментов: значения внимания вычисляются как косинусные сходства между запросом и фрагментами, а фрагменты с наибольшим вниманием INLINEFORM0 сохраняются.Максимальное объединение выбранных представлений фрагментов INLINEFORM1 затем создает представление INLINEFORM2 уровня фрагмента D. Два выбранных фрагмента показаны красным на рисунке FigREF3. Общее представление.На основе слоев свертки с двумя разными уровнями детализации мы получили представления D, основанные на запросах, на уровне предложения (т. е. INLINEFORM0 ), а также на уровне фрагмента (т. е. INLINEFORM1 ).Чтобы создать гибкий выбор для открытых вопросов и ответов, мы разрабатываем сеть магистралей BIBREF17, чтобы объединить два уровня представлений в общее представление INLINEFORM2 из D:DISPLAYFORM0, где веса сети автомагистралей INLINEFORM0 изучаются DISPLAYFORM0, где INLINEFORM0 .Используя ту же сеть магистралей, мы можем сгенерировать общее представление запроса INLINEFORM1 на рисунке FigREF3, объединив два представления запроса на уровне предложения и фрагмента.HABCNN-QP/QAP вычисляет представление D как проекцию D, либо на основе внимания Q, либо на основе внимания A. Мы надеемся, что эти две проекции документа близки для правильного A и менее близки для неправильного. А. Как мы говорили в соответствующей работе, машинное понимание можно рассматривать как задачу выбора ответа, используя документ D в качестве важной исходной информации.Здесь HABCNN-QP/QAP не сравнивают вопросы и ответы напрямую, а используют вопросы и ответы для различной фильтрации документа, извлекая то, что имеет решающее значение для совпадения вопросов и ответов, путем объединения внимания.Затем они сопоставляют два представления документа в новом пространстве.Для простоты изложения до сих пор мы использовали символ INLINEFORM0, но в HABCNN-QP/QAP мы вычисляем два разных представления документа: INLINEFORM1, для которого внимание вычисляется относительно Q; и INLINEFORM2, для которого внимание вычисляется относительно A. INLINEFORM3 также имеет две версии: одну для Q: INLINEFORM4 , одну для A: INLINEFORM5 .HABCNN-QP и HABCNN-QAP по-разному используют INLINEFORM0 .HABCNN-QP сравнивает INLINEFORM1 с представлением ответа INLINEFORM2.HABCNN-QAP сравнивает INLINEFORM3 с INLINEFORM4.HABCNN-QAP проецирует D дважды: один раз на основе внимания со стороны Q, один раз на основе внимания со стороны A, и сравнивает два проецируемых представления, показанных на рисунке FigREF2 (вверху).HABCNN-QP использует только проекцию D на основе Q, а затем сравнивает спроецированный документ с представлением ответа, показанным на рисунке FigREF2 (в центре). HABCNN-TE рассматривает машинное понимание как текстовое следствие.Мы используем утверждения, предоставленные как часть MCTest.Каждое утверждение соответствует паре вопрос-ответ; например, пара вопросов и ответов «Почему дедушка открыл дверь?»/ «Потому что он видел насекомых» (рис. ФИГРЕФ1) переформатируется в высказывание «Дедушка открыл дверь, потому что увидел насекомых».Затем задача ответа на вопрос формулируется следующим образом: «Содержит ли документ утверждение?» Для HABCNN-TE, показанного на рисунке FigREF2 (внизу), входными данными для рисунка FigREF3 является пара (S,D).HABCNN-TE пытается сопоставить представление S INLINEFORM0 с представлением D INLINEFORM1. MCTest имеет два подмножества.MCTest-160 представляет собой набор из 160 элементов, каждый из которых состоит из документа, четырех вопросов, за которыми следует один правильный ответ и три неправильных ответа (разделенных на 70 обучающих, 30 для разработчиков и 60 тестовых), а MCTest-500 — набор из 500 элементов (разделенных на на 300 поездов, 50 разработчиков и 150 тестов). Наша цель обучения — минимизировать следующую функцию потерь ранжирования: DISPLAYFORM0, где INLINEFORM0 — это оценка соответствия между двумя векторами представления.Косинусное подобие используется повсюду.INLINEFORM1 — константа.Для этой общей потери рейтинга у нас также есть два стиля использования данных, поскольку каждый положительный ответ сопровождается тремя отрицательными ответами.Один рассматривает ( INLINEFORM0 , INLINEFORM1 , INLINEFORM2 , INLINEFORM3 , INLINEFORM4 ) как обучающий пример, тогда наша функция потерь может иметь три члена «max()», каждый для положительно-отрицательной пары; другой рассматривает ( INLINEFORM5 , INLINEFORM6 , INLINEFORM7 ) как пример индивидуального обучения.На практике мы обнаруживаем, что второй способ работает лучше.Мы предполагаем, что второй способ содержит больше обучающих примеров, а положительные ответы используются неоднократно, чтобы сбалансировать количество положительных и отрицательных ответов.Многозадачное обучение:Типизация вопросов широко используется и оказалась очень полезной в задачах контроля качества BIBREF3.Вдохновленные, мы накладываем слой логистической регрессии на представление вопроса INLINEFORM0 с той целью, чтобы эта подзадача могла способствовать настройке параметров всей системы и, наконец, лучше распознавать вопрос и давать возможность более точно найти ответ.Если говорить конкретнее, мы разделяем вопросы на 12 классов: «как», «сколько», «сколько», «что», «кто», «где», «какой», «когда», «чей», « почему», «будет» и «другое».Метка вопроса создается путем запроса ключевого слова метки в вопросе.Если в вопросе встречается более одного ключевого слова, мы принимаем то, которое появилось раньше и более конкретное (например, «сколько», а не «как»).В случае отсутствия совпадения присваивается класс «другое».Мы тренируемся с помощью AdaGrad BIBREF18 и используем 50-мерную перчатку BIBREF19 для инициализации представлений слов, которые сохраняются во время обучения.В таблице TABREF15 приведены значения гиперпараметров, настроенные на dev.Мы рассматриваем два показателя оценки: точность (доля правильно отвеченных вопросов) и NDCG INLINEFORM0 BIBREF20.В отличие от точности, которая оценивает, правильно ли дан ответ на вопрос, NDCG INLINEFORM1, являясь показателем качества ранжирования, оценивает позицию правильного ответа в нашем прогнозируемом рейтинге.Эта работа сосредоточена на сравнении с системами обучения распределенного представления и глубокого обучения: дополнение.Непосредственно сравнивайте вопросы и ответы, не принимая во внимание D. Представления предложений вычисляются путем поэлементного сложения словесных представлений.Дополнение-проект.Сначала вычислите представления предложений для Q, A и всех предложений D так же, как и сложение, затем сопоставьте два предложения в D, которые имеют наибольшее сходство с Q и A соответственно.NR.Neural Reasoner BIBREF21 имеет уровень кодирования, несколько уровней рассуждения и уровень окончательного ответа.Входными данными для уровня кодирования являются вопрос и предложения документа (называемые фактами); каждое предложение кодируется ГРУ в вектор.На каждом уровне рассуждения NR позволяет представлению вопроса взаимодействовать с каждым представлением факта как процесс рассуждения.Наконец, все временные подсказки для рассуждений объединяются в виде представления ответа.AR.Внимательный читатель BIBREF2 реализован путем моделирования всего D как последовательности слов – без конкретных представлений предложений/фрагментов – с использованием LSTM.Механизм внимания реализован на уровне представления слов.В целом, базовые версии Addition и Addition-proj не требуют сложной композиции и вывода.NR и AR представляют собой самые эффективные глубокие нейронные сети в задачах контроля качества.В дополнение к основным архитектурам, описанным выше, мы также исследуем два варианта ABCHNN, вдохновленные BIBREF21 и BIBREF2 соответственно.Вариант-I: Поскольку RNN широко признаны конкурентами CNN в моделировании предложений, как и в случае с BIBREF21, мы заменяем предложение-CNN на рисунке FigREF3 на GRU, сохраняя при этом другие части неизменными.Вариант II: Как моделировать внимание к детализации слов, было показано в BIBREF2; подробности см. в их статье.Мы развиваем их идею внимания и моделируем внимание к детализации предложения и фрагмента.Наше внимание придает разный вес предложениям/фрагментам (не словам), а затем вычисляет представление документа как средневзвешенное значение всех представлений предложений/фрагментов.В таблице TABREF16 перечислены характеристики базовых показателей, вариантов HABCNN-TE и систем HABCNN в первом, втором и последнем блоке соответственно (мы сообщаем только о вариантах для наиболее эффективных HABCNN-TE).Наши системы HABCNN неизменно превосходят все базовые показатели, особенно превосходят две конкурирующие системы на основе глубокого обучения AR и NR.Разрыв между нашими лучшими моделями ABHCNN-TE и NR составляет 15,6/16,5 (точность/NDCG) в MCTest-150 и 7,3/4,6 в MCTest-500.Это демонстрирует перспективность нашей архитектуры в решении этой задачи.Как было сказано ранее, системы AR и NR стремятся генерировать ответы в форме объекта.Их конструкции могут не подходить для задачи машинного понимания, в которой ответы формируются открыто на основе обобщения или абстрагирования подсказок.Если быть более конкретным, AR-модели D всегда на уровне слов, внимание также уделяется соответствующим представлениям слов, что применимо для ответов в стиле сущностей, но менее подходит для понимания на уровне предложения или даже на уровне фрагмента.NR, наоборот, всегда моделирует D на уровне предложения, пренебрегая обнаружением ключевых фраз, которые, однако, составляют большую часть ответов.Кроме того, внимание системы AR и взаимодействие вопросов и фактов в системе NR приносят большое количество параметров, что потенциально ограничивает их мощность в наборе данных ограниченного размера.Для варианта I и варианта II (второй блок таблицы TABREF16) мы видим, что обе модификации наносят ущерб исходной производительности HABCNN-TE.Первый вариант, т. е. замена предложения-CNN на рисунке FigREF3 на модуль GRU, бесполезен для этой задачи.Мы подозреваем, что в этом заключается фундаментальная функция CNN и ГРУ.CNN моделирует предложение, не заботясь о глобальной информации о порядке слов, а максимальное объединение должно извлекать особенности ключевых фраз в предложении независимо от того, где они расположены.Это свойство должно быть полезно для обнаружения ответов, поскольку ответы обычно формируются путем обнаружения некоторых ключевых фраз, не следует учитывать все слова в предложении.Однако ГРУ моделирует предложение, читая слова последовательно, важность фраз в меньшей степени определяется требованиями вопроса.Второй вариант, использующий более сложную схему внимания для моделирования предвзятых D-представлений, чем простое внимание, основанное на косинусном сходстве, используемое в нашей модели, менее эффективен для обнаружения действительно информативных предложений или фрагментов.Мы сомневаемся в такой схеме внимания при использовании в последовательностях предложений большого размера.При обучении веса внимания после нормализации softmax на самом деле имеют небольшую разницу между предложениями, это означает, что система не может эффективно отличать ключевые предложения от предложений-шумов.Наше объединение внимания на основе косинусного сходства, хотя и довольно простое, позволяет более эффективно фильтровать шумовые предложения, поскольку мы выбираем только самые верхние из них.Основные предложения INLINEFORM0 для окончательного формирования D-представления.Этот трюк делает систему простой, но эффективной.На рисунке FigREF17 мы визуализируем распределение внимания на уровне предложения, а также на уровне фрагмента для утверждения «Дедушка открыл дверь, потому что постучал Джимми», для ответа на соответствующий вопрос которого требуется несколько предложений.В левой части мы видим, что фраза «Дедушка открыл дверь с улыбкой и приветствовал Джимми внутри» имеет наибольший вес внимания.Это отвечает интуитивному предположению, что это предложение имеет семантическое совпадение с утверждением.И все же это предложение не содержит ответа.Посмотрите дальше на правую часть, в которой слой CNN поверх представлений на уровне предложений должен извлекать высокоуровневые функции фрагментов.На этом уровне наибольший вес внимания уделяется лучшему фрагменту «Наконец-то Джимми прибыл... постучался.Дверь открыл дедушка...».И соседние фрагменты также привлекают относительно большее внимание, чем другие регионы.Напомним, что наша система выбирает одно предложение с наибольшим вниманием в левой части и выбирает три лучших фрагмента в правой части (ссылаясь на значение INLINEFORM0 в таблице TABREF15), чтобы сформировать D-представления с разной степенью детализации, а затем использует сеть магистралей для объединения обоих представлений как общее представление D.Эта визуализация намекает на то, что наша архитектура предоставляет хороший способ для вопроса скомпрометировать ключевую информацию с различной степенью детализации.Мы также проводим предварительный анализ ошибок.Одним из больших препятствий для наших систем являются вопросы «сколько».Например, на вопрос «сколько комнат, как я сказал, я проверил?» а кандидатами на ответ являются четыре цифры «5,4,3,2», которые никогда не появляются в D, но требуют подсчета некоторых мест.Однако эти цифровые ответы пока не могут быть хорошо смоделированы с помощью распределенных представлений.Кроме того, на вопросы типа «что» появляются цифровые ответы, например «сколько времени…».Еще одно большое ограничение заключается в вопросах «почему».Этот тип вопросов требует сложных выводов и зависимостей на расстоянии.Мы заметили, что все системы глубокого обучения, включая две базовые версии, несколько пострадали от этого.Эта работа возглавляет представление системы нейронных сетей на основе CNN для задач машинного понимания в открытой области.Наши системы попытались решить эту задачу как путем проецирования документа, так и путем текстового следования.Последний демонстрирует несколько лучшую производительность.В целом наша архитектура, моделирующая динамическое представление документов по схеме внимания от уровня предложения до уровня фрагмента, показывает многообещающие результаты в этой задаче.Ожидается, что в будущем более детальные подходы к обучению представлению будут моделировать сложные типы ответов и типы вопросов. | Понимание текста открытого домена является одной из основных задач обработки естественного языка (НЛП). Тесты машинного понимания оценивают способность системы понимать текст только на основе текстового содержимого. В этой работе мы исследуем машинное понимание с помощью MCTest, теста ответов на вопросы (QA). Предыдущая работа в основном основана на подходах к проектированию функций. Мы разработали структуру нейронной сети, названную иерархической сверточной нейронной сетью, основанной на внимании (HABCNN), для решения этой задачи без каких-либо функций, разработанных вручную. В частности, мы исследуем HABCNN для этой задачи двумя способами: один — посредством традиционного совместного моделирования отрывка, вопроса и ответа, другой — посредством текстового следования. HABCNN использует механизм внимания для обнаружения ключевых фраз, ключевых предложений и ключевых фрагментов, которые имеют отношение к ответу на вопрос. Эксперименты показывают, что HABCNN значительно превосходит предыдущие подходы к глубокому обучению. | 4,516 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Объединение рекуррентных и сверточных нейронных сетей для классификации отношений. Классификация отношений — это задача присвоения предложений с двумя отмеченными сущностями заранее определенному набору отношений.Предложение «Мы налили <e1>молоко</e1> в <e2>тыквенную смесь</e2>», например, выражает отношение Entity-Destination(e1,e2).В то время как ранние исследования в основном были сосредоточены на машинах опорных векторов или классификаторах максимальной энтропии BIBREF0, BIBREF1, недавние исследования показали улучшение производительности за счет применения нейронных сетей (NN).BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6, BIBREF7 на основе контрольных данных SemEval 2010, общая задача 8. BIBREF8. В этом исследовании исследуются два разных типа нейронных сетей: рекуррентные нейронные сети (RNN) и сверточные нейронные сети (CNN), а также их комбинации. .Мы вносим следующие вклады:(1)Мы предлагаем расширенный средний контекст, новое представление контекста для CNN для классификации отношений.Расширенный средний контекст использует все части предложения (аргументы отношения, слева от аргументов отношения, между аргументами, справа от аргументов) и уделяет особое внимание средней части.(2)Мы представляем коннекционистские двунаправленные модели RNN, которые особенно подходят для задач классификации предложений, поскольку они объединяют все промежуточные скрытые уровни для окончательного решения.Кроме того, для оптимизации модели RNN введена функция потерь ранжирования, которая ранее не исследовалась в литературе по классификации отношений. (3)Наконец, мы объединяем CNN и RNN, используя простую схему голосования, и достигаем новых современных результатов на наборе контрольных данных SemEval 2010.В 2010 году аннотированные вручную данные для классификации отношений были выпущены в контексте общей задачи SemEval BIBREF8.Участники общих задач использовали, например, машины опорных векторов или классификаторы максимальной энтропии BIBREF0 , BIBREF1 .Недавно их результаты в этом наборе данных были превзойдены применением нейронных сетей BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6.zeng2014 построил CNN, основанную только на контексте между аргументами отношения, и расширил ее несколькими лексическими функциями.kim2014 и другие использовали сверточные фильтры разных размеров для CNN.Нгуен применил это к классификации отношений и получил улучшения по сравнению с фильтрами одного размера.deSantos2015 заменил слой softmax CNN слоем ранжирования.Насколько нам известно, они продемонстрировали улучшения и опубликовали лучший на данный момент результат в наборе данных SemEval. Сохер использовал другую архитектуру NN для классификации отношений: рекурсивные нейронные сети, которые создавали рекурсивные представления предложений на основе синтаксического анализа.Напротив, Чжан исследовал временную структурированную RNN, в которой в качестве входных данных использовались только слова.Они использовали двунаправленную модель с слоем пула сверху.CNN выполняют дискретную свертку входной матрицы с набором различных фильтров.Для задач НЛП входная матрица представляет собой предложение: каждый столбец матрицы хранит вложение соответствующего слова.Применяя фильтр шириной, например, в три столбца, три соседних слова (триграммы) свертываются.После этого результаты свертки объединяются.Следуя CollobertWeston, мы выполняем max-pooling, который извлекает максимальное значение для каждого фильтра и, следовательно, наиболее информативную n-грамму для следующих шагов.Наконец, полученные значения объединяются и используются для классификации отношения, выраженного в предложении.Одним из наших достижений является новое входное представление, специально разработанное для классификации отношений.Контексты разделены на три непересекающиеся области на основе двух аргументов отношения: левый контекст, средний контекст и правый контекст.Поскольку в большинстве случаев средний контекст содержит наиболее важную информацию для отношения, мы хотим сосредоточиться на нем, но не игнорировать полностью другие регионы.Следовательно, мы предлагаем использовать два контекста: (1) комбинацию левого контекста, левой сущности и среднего контекста; и (2) сочетание среднего контекста, правильного объекта и правильного контекста.За счет повторения среднего контекста мы заставляем сеть обратить на него особое внимание.Два контекста обрабатываются двумя независимыми слоями свертки и максимального пула.После объединения результаты объединяются для формирования представления предложения.На рисунке FigREF3 показана эта процедура.На нем показано примерное предложение: «У него была боль в груди и <e1>головные боли</e1> из-за <e2>плесени</e2> в спальне».Если бы мы рассматривали только средний контекст «от», у сети мог бы возникнуть соблазн предсказать отношение типа Entity-Origin(e1,e2).Однако, принимая во внимание левый и правый контекст, модель может обнаружить связь Причина-Следствие(e2,e1).Хотя этого также можно достичь путем интеграции всего контекста в модель, использование всего контекста может иметь недостатки для более длинных предложений: на этапе максимального объединения можно легко выбрать значение из части предложения, которая находится далеко от упоминания связь.Разделив контекст на две части, мы уменьшаем эту опасность.Повторение среднего контекста увеличивает вероятность того, что шаг максимального объединения выберет значение из среднего контекста.Следуя предыдущей работе (например, BIBREF5, BIBREF6), мы используем 2D-фильтры, охватывающие все измерения внедрения.После свертки применяется операция максимального объединения, в которой сохраняется только самая высокая активация каждого фильтра.Мы применяем фильтры с разными размерами окон 2-5 (мультиоконные), как в BIBREF5, т. е. охватывающие разное количество входных слов.Традиционные RNN состоят из входного вектора, вектора истории и выходного вектора.На основе представления текущего входного слова и предыдущего вектора истории вычисляется новая история.Затем прогнозируется результат (например, с использованием слоя softmax).В отличие от большинства традиционных архитектур RNN, мы используем RNN для моделирования предложений, т. е. прогнозируем выходной вектор только после обработки всего предложения, а не после каждого слова.Обучение выполняется с использованием обратного распространения ошибки во времени BIBREF9, которое разворачивает рекуррентные вычисления вектора истории для определенного количества временных шагов.Чтобы избежать взрыва градиентов, мы используем обрезку градиента с порогом 10 BIBREF10. Первоначальные эксперименты показали, что использование триграмм в качестве входных данных вместо отдельных слов привело к превосходным результатам.Следовательно, на временном шаге INLINEFORM0 мы передаем модели не только слово INLINEFORM1, но и триграмму INLINEFORM2 путем объединения соответствующих вложений слов.Особенно при классификации отношений обработка аргументов отношения может быть проще, если известны последующие слова.Поэтому в двунаправленных RNN рассматривается не только вектор истории слова INLINEFORM0, но и вектор будущего.Это приводит к следующей условной вероятности для истории INLINEFORM1 на временном шаге INLINEFORM2: DISPLAYFORM0. Таким образом, сеть можно разделить на три части: прямой проход, который обрабатывает исходное предложение слово за словом (уравнение EQREF6); обратный проход, который обрабатывает перевернутое предложение слово за словом (уравнение); и комбинация того и другого (уравнение).Все три части обучаются совместно.Это также показано на рисунке FigREF7. Объединение прямого и обратного прохода путем добавления их скрытого слоя аналогично BIBREF7.Однако мы также добавляем соединение с предыдущим объединенным скрытым слоем с весом INLINEFORM0, чтобы иметь возможность включить все промежуточные скрытые слои в окончательное решение сети (см. Уравнение).Мы называем это «коннекционистской двунаправленной RNN».В наших экспериментах мы сравниваем эту RNN с однонаправленными RNN и двунаправленными RNN без дополнительных связей скрытого слоя.Слова представлены объединенными векторами: встраиванием слова и вектором признаков положения.Предварительно обученные встраивания слов.В этом исследовании мы использовали набор инструментов word2vec BIBREF11 для обучения встраиванию в английской Википедии с мая 2014 года.Мы учитывали только слова, встречающиеся более 100 раз, и добавили специальный токен PADDING для свертки.В результате в обучающий текст входит около 485 000 терминов и токенов INLINEFORM0.Во время обучения модели встраивания обновляются.Особенности позиции.Мы включаем встраивания случайно инициализированных позиций, аналогичные zeng2014, nguyen и deSantos2015.В наших экспериментах с RNN мы исследуем различные возможности интеграции информации о позиции: встраивание позиции, встраивание позиции с флагами присутствия сущности (флаги, указывающие, является ли текущее слово одним из аргументов отношения) и индикаторы позиции BIBREF7.Ranking.Для обучения наших моделей мы применили функцию потерь ранжирования, предложенную в deSantos2015.Он максимизирует расстояние между истинной меткой INLINEFORM0 и лучшей конкурирующей меткой INLINEFORM1 с учетом точки данных INLINEFORM2 .Целевой функцией является DISPLAYFORM0, где INLINEFORM0 и INLINEFORM1 являются оценками для классов INLINEFORM2 и INLINEFORM3 соответственно.Параметр INLINEFORM4 управляет штрафом за ошибки прогнозирования, а INLINEFORM5 и INLINEFORM6 представляют собой пределы для правильных и неправильных классов.Следуя deSantos2015, мы установили INLINEFORM7.Мы не изучаем шаблон для класса Other, а увеличиваем его разницу до лучшей конкурентной метки, используя только второе слагаемое в уравнении EQREF10 во время обучения.Мы использовали набор данных классификации отношений из задачи 8 BIBREF8 SemEval 2010.Он состоит из предложений, вручную помеченных 19 отношениями (9 направленных отношений и один искусственный класс «Другое»).8000 предложений были распределены в качестве обучающего набора, а 2717 предложений служили тестовым набором.Для оценки мы применили официальный сценарий оценки и сообщили оценку макроса F1, которая также служила официальным результатом общей задачи.Модели RNN и CNN были реализованы с помощью theano BIBREF12, BIBREF13.Для всех наших моделей мы используем регуляризацию L2 с весом 0,0001.Для обучения CNN мы используем мини-пакеты из 25 обучающих примеров и выполняем стохастический градиентный спуск для RNN.Начальная скорость обучения составляет 0,2 для CNN и 0,01 для RNN.Мы обучаем модели на 10 (CNN) и 50 (RNN) эпохах без ранней остановки.В качестве функции активации мы применяем tanh для CNN и ограниченный ReLU для RNN.Для настройки гиперпараметров мы разделили данные обучения на две части: 6,5 тыс. (обучающие) и 1,5 тыс. (развитие) предложений.Мы также настроили график скорости обучения в dev.Помимо обучения отдельных моделей, мы также сообщаем результаты ансамбля, для которых мы объединили представленные отдельные модели с процессом голосования.В качестве базовой системы мы реализовали CNN, аналогичную описанной zeng2014.Он состоит из стандартного сверточного слоя с фильтрами только с одним размером окна, за которым следует слой softmax.В качестве входных данных используется средний контекст.В отличие от zeng2014, наш CNN не имеет дополнительного полносвязного скрытого слоя.Поэтому мы увеличили количество сверточных фильтров до 1200, чтобы сохранить сопоставимость количества параметров.При этом мы получаем базовый результат 73,0.После включения 5-мерных функций положения производительность была улучшена до 78,6 (по сравнению с 78,9, как сообщает zeng2014, без лингвистических функций). На следующем этапе мы исследуем, как изменится этот результат, если мы последовательно добавим дополнительные функции в нашу CNN: многооконные функции. для свертки (размеры окон: 2,3,4,5 и 300 карт признаков каждый), ранжирующий слой вместо softmax и предлагаемый нами расширенный средний контекст.В таблице TABREF12 показаны результаты.Обратите внимание, что все числа производятся CNN с сопоставимым количеством параметров.Мы также сообщаем F1 для увеличения размерности встраивания слов с 50 до 400.Размерность встраивания позиции равна 5 в сочетании с 50-мерными вложениями слов и 35 с 400-мерными вложениями слов.Наши результаты показывают, что особенно важное влияние на производительность оказывают уровень ранжирования и размер встраивания.В качестве основы для моделей RNN мы применяем однонаправленную RNN, которая прогнозирует отношение после обработки всего предложения.С помощью этой модели мы получили оценку F1 61,2 на тестовом наборе SemEval.После этого мы исследуем влияние различных характеристик позиции на производительность однонаправленных RNN (встраивания позиций, встраивания позиций, объединенные с флагом, указывающим, является ли текущее слово сущностью или нет, и индикаторы позиции BIBREF7).Результаты показывают, что индикаторы положения (т. е. искусственные слова, обозначающие присутствие объекта) лучше всего работают с данными SemEval.С ними мы достигли показателя F1 73,4.Однако разница с использованием встраивания позиций с флагами сущностей не является статистически значимой.Подобно нашим экспериментам с CNN, мы последовательно варьируем модели RNN, используя двунаправленность, добавляя связи между скрытыми слоями («коннекционист»), применяя ранжирование вместо softmax для прогнозирования связи и увеличивая размерность встраивания слов до 400. .Результаты в таблицеTABREF14 показывают, что все эти изменения приводят к статистически значимым улучшениям.Особенно большое влияние на производительность оказывают дополнительные соединения скрытых слоев и интеграция уровня ранжирования.Наконец, мы объединяем наши модели CNN и RNN, используя процесс голосования.Для каждого предложения в тестовом наборе мы применяем несколько моделей CNN и RNN, представленных в таблицах TABREF12 и TABREF14, и прогнозируем класс, набравший наибольшее количество голосов.В случае ничьей мы случайным образом выбираем один из наиболее часто встречающихся классов.Комбинация достигает показателя F1 84,9, что лучше, чем производительность двух типов NN по отдельности.Таким образом, это подтверждает наше предположение о том, что сети предоставляют дополнительную информацию: в то время как RNN вычисляет взвешенную комбинацию всех слов в предложении, CNN извлекает наиболее информативные n-граммы для отношения и учитывает только их результирующие активации.В таблице TABREF16 показаны результаты наших моделей ER-CNN (расширенный рейтинг CNN) и R-RNN (рейтинг RNN) в контексте других современных моделей.Предлагаемые нами модели дают самые современные результаты на наборе данных задачи 8 SemEval 2010 без использования каких-либо лингвистических функций.В этой статье мы исследовали различные функции и варианты архитектуры сверточных и рекуррентных нейронных сетей для классификации отношений без использования каких-либо лингвистических функций.Для сверточных нейронных сетей мы представили новое контекстное представление для классификации отношений.Кроме того, мы представили коннекционистские рекуррентные нейронные сети для задач классификации предложений и провели первые эксперименты с ранжированием рекуррентных нейронных сетей.Наконец, мы показали, что даже простая комбинация сверточных и рекуррентных нейронных сетей улучшает результаты.С помощью наших нейронных моделей мы достигли новых современных результатов на контрольных данных задачи 8 SemEval 2010.Хайке Адель является лауреатом Европейской докторской стипендии Google в области обработки естественного языка, и это исследование поддерживается этой стипендией.Это исследование также было поддержано Deutsche Forschungsgemeinschaft: грант SCHU 2246/4-2. | В этой статье исследуются две разные нейронные архитектуры для задачи классификации отношений: сверточные нейронные сети и рекуррентные нейронные сети. Для обеих моделей мы демонстрируем влияние различных архитектурных решений. Мы представляем новое представление контекста для сверточных нейронных сетей для классификации отношений (расширенный средний контекст). Кроме того, мы предлагаем коннекционистские двунаправленные рекуррентные нейронные сети и вводим потерю ранжирования для их оптимизации. Наконец, мы показываем, что объединение сверточных и рекуррентных нейронных сетей с использованием простой схемы голосования достаточно точно, чтобы улучшить результаты. Наши нейронные модели достигают самых современных результатов в задаче классификации отношений SemEval 2010. | 2,310 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | BB_twtr на SemEval-2017, задание 4: Анализ настроений в Твиттере с помощью CNN и LSTM. Определение полярности настроений в твитах стало знаковым домашним заданием на уроках обработки естественного языка (НЛП) и науки о данных.Возможно, это связано с тем, что задачу легко понять, а также легко получить хорошие результаты с помощью очень простых методов (например, подсчета положительных и отрицательных слов).Практическое применение этой задачи широко: от мониторинга популярных событий (например, президентских дебатов, вручения премии «Оскар» и т. д.) до извлечения торговых сигналов путем мониторинга твитов о публичных компаниях.Эти приложения часто выигрывают от максимально возможной точности, поэтому конкурс SemEval-2017 в Твиттере способствует исследованиям в этой области.Соревнование разделено на пять подзадач, которые включают стандартную классификацию, порядковую классификацию и оценку распределения.Более подробное описание см. в BIBREF0.InЗа последние несколько лет методы глубокого обучения значительно превзошли традиционные методы в ряде задач НЛП (BIBREF1, BIBREF2), и анализ настроений (BIBREF3) не является исключением из этой тенденции.Фактически, предыдущие итерации конкурса SemEval по анализу настроений в Твиттере уже доказали свою власть над другими подходами BIBREF4, BIBREF5, BIBREF6.Двумя наиболее популярными методами глубокого обучения для анализа настроений являются CNN и LSTM.Следовательно, пытаясь создать современный классификатор настроений в Твиттере, мы исследуем обе модели и создаем систему, которая сочетает в себе обе.Данная статья организована следующим образом. В разд.SECREF2 мы описываем архитектуру CNN и LSTM, используемых в нашей системе. В разд.SECREF3 мы подробно рассмотрим три этапа обучения, используемые в нашей системе. В разд.SECREF4 мы обсуждаем различные хитрости, которые использовались для тонкой настройки системы для каждой отдельной подзадачи.Наконец в с.SECREF5 мы представляем производительность системы и в сек.SECREF6 мы излагаем наши основные выводы.Давайте теперь опишем архитектуру CNN, с которой мы работали.Его архитектура практически идентична CNN BIBREF8.Уменьшенная версия нашей модели показана на рис.FIGREF2.Входными данными сети являются твиты, которые преобразуются в слова.Каждое слово сопоставляется с представлением вектора слов, то есть с встраиванием слова, так что весь твит можно сопоставить с матрицей размера INLINEFORM0 , где INLINEFORM1 — количество слов в твите, а INLINEFORM2 — размер пространства встраивания ( мы выбрали INLINEFORM3).Мы следуем стратегии заполнения нулями BIBREF8, так что все твиты имеют одинаковую размерность матрицы INLINEFORM4, где мы выбрали INLINEFORM5.Затем мы применяем к этой матрице несколько операций свертки разного размера.Одна свертка включает матрицу фильтрации INLINEFORM6, где INLINEFORM7 — размер свертки, то есть количество слов, которые она охватывает.Операция свертки определяется как DISPLAYFORM0, где INLINEFORM0 — это член смещения, а f(x) — нелинейная функция, которую мы выбрали в качестве функции relu.Таким образом, выходные данные INLINEFORM1 представляют собой конкатенацию оператора свертки для всех возможных окон слов в твите.Обратите внимание, что из-за используемой нами стратегии заполнения нулями мы эффективно применяем широкие свертки BIBREF9 .Мы можем использовать несколько матриц фильтрации для изучения различных функций, а также мы можем использовать свертки нескольких размеров, чтобы сосредоточиться на меньших или больших областях твитов.На практике мы использовали три размера фильтров (INLINEFORM2, INLINEFORM3 или INLINEFORM4 в зависимости от модели) и использовали в общей сложности 200 матриц фильтрации для каждого размера фильтра.Затем мы применяем операцию максимального объединения к каждой свертке INLINEFORM0 .Операция max-pooling извлекает наиболее важную функцию для каждой свертки, независимо от того, где в твите эта функция расположена.Другими словами, структура CNN эффективно извлекает наиболее важные n-граммы из пространства встраивания, поэтому мы считаем, что эти системы хорошо справляются с классификацией предложений.Операция max-pooling также позволяет нам объединить все INLINEFORM1 каждого фильтра в один вектор INLINEFORM2, где m — общее количество фильтров (в нашем случае INLINEFORM3).Затем этот вектор проходит через небольшой полностью связный скрытый слой размером 30, который затем, в свою очередь, проходит через слой softmax для получения окончательных вероятностей классификации.Чтобы уменьшить переобучение, мы добавляем исключаемый слой BIBREF10 после слоя максимального пула и после полностью связанного скрытого слоя с вероятностью исключения 50 INLINEFORM4 во время обучения.Давайте теперь опишем архитектуру системы LSTM, с которой мы работали.Уменьшенная версия нашей модели показана на рис. FigREF3.Его основными строительными блоками являются два модуля LSTM.LSTM являются частью семейства рекуррентных нейронных сетей (RNN), которые представляют собой нейронные сети, созданные для обработки последовательных данных путем совместного использования своих внутренних весов по всей последовательности.Для каждого элемента последовательности, то есть для каждого слова в твите, RNN использует встраивание текущего слова и его предыдущее скрытое состояние для вычисления следующего скрытого состояния.В своей простейшей версии скрытое состояние INLINEFORM0 (где m — размерность RNN, которую мы выбираем в качестве INLINEFORM1 ) во время INLINEFORM2 вычисляется DISPLAYFORM0, где INLINEFORM0 — текущее встраивание слова, INLINEFORM1 и INLINEFORM2 — весовые матрицы, INLINEFORM3 — термин смещения, а INLINEFORM4 — нелинейная функция, обычно выбираемая INLINEFORM5 .Начальное скрытое состояние выбирается как вектор нулей.К сожалению, эта простая RNN страдает от проблемы взрыва и исчезновения градиента на этапе обучения обратному распространению ошибки BIBREF11.LSTM решают эту проблему, имея более сложную внутреннюю структуру, которая позволяет LSTM запоминать информацию как в течение длительного, так и в течение короткого времени BIBREF12.Скрытое состояние модуля LSTM вычисляется с помощью BIBREF13 DISPLAYFORM0, где INLINEFORM0 называется входным вентилем, INLINEFORM1 — шлюзом забывания, INLINEFORM2 — состояние ячейки, INLINEFORM3 — обычным скрытым состоянием, INLINEFORM4 — сигмовидной функцией, а INLINEFORM5 — функцией Адамара. продукт.Одним из недостатков LSTM является то, что он недостаточно учитывает информацию о постслове, поскольку предложение читается только в одном направлении; вперед.Чтобы решить эту проблему, мы используем так называемый двунаправленный LSTM, который представляет собой два LSTM, выходные данные которых складываются вместе.Один LSTM читает предложение вперед, а другой LSTM читает его назад.Мы объединяем скрытые состояния каждого LSTM после того, как они обработали свое последнее слово.Это дает вектор размерности INLINEFORM0, который подается в полностью связанный скрытый слой размером 30, а затем проходит через слой softmax для получения окончательных вероятностей классификации.Здесь мы снова используем отсев, чтобы уменьшить переобучение; мы добавляем слой исключения до и после LSTM, а также после полностью связанного скрытого слоя с вероятностью исключения 50 INLINEFORM1 во время обучения.Для обучения этих моделей у нас был доступ к 49 693 твитам, помеченным людьми, для подзадачи A, 30 849 твитам для подзадач (C, E) и 18 948 твитам для подзадач (B, D).В дополнение к этим данным, размеченным людьми, мы собрали 100 миллионов уникальных неразмеченных твитов на английском языке с помощью API потоковой передачи Twitter.Из этого немаркированного набора данных мы извлекли удаленный набор данных из 5 миллионов положительных и 5 миллионов отрицательных твитов.Чтобы извлечь этот удаленный набор данных, мы использовали стратегию BIBREF14, то есть мы просто связываем положительные твиты с наличием положительных смайлов (например, «:)») и наоборот для отрицательных твитов.Эти три набора данных (немаркированные, удаленные и маркированные) использовались отдельно на трех этапах обучения, которые мы сейчас представляем.Обратите внимание, что наша стратегия обучения очень похожа на ту, которая используется в BIBREF5, BIBREF6. Прежде чем подавать твиты на любой этап обучения, они предварительно обрабатываются с использованием следующей процедуры: URL-адреса заменяются URL-адресом INLINEFORM0 URL-адреса INLINEFORM1.Некоторые смайлы заменяются токенами INLINEFORM0 smile INLINEFORM1, INLINEFORM2 sadface INLINEFORM3, INLINEFORM4 lolface INLINEFORM5 или INLINEFORM6 нейтральный INLINEFORM7. Любая буква, повторенная более 2 раз подряд, заменяется 2 повторениями этой буквы (например, заменяется «оооооо»). на «суа»). Все твиты пишутся строчными буквами.Мы начнем с использования 100 миллионов немаркированных твитов для предварительного обучения встраиванию слов, которые позже будут использоваться в CNN и LSTM.Для этого мы экспериментировали с тремя алгоритмами обучения без учителя: Google Word2vec BIBREF15, BIBREF16 и Facebook FastText BIBREF17.и Стэнфордская перчатка BIBREF18.Word2vec изучает представления векторов слов, пытаясь предсказать контекстные слова вокруг входного слова.FastText очень похож на Word2vec.но он также использует информацию о подсловах в модели прогнозирования.GloVe, с другой стороны, представляет собой модель, основанную на глобальной статистике совпадения слов.Для всех трех алгоритмов мы использовали предоставленный авторами код с настройками по умолчанию.Вложения, изученные на этапе без присмотра, содержат очень мало информации о полярности настроений слов, поскольку контекст положительного слова (например, «хороший») имеет тенденцию быть очень похожим на контекст отрицательного слова (например, «плохой»). ).Чтобы добавить информацию о полярности к встраиваниям, мы следуем обучению без присмотра путем точной настройки вложений посредством фазы дистанционного обучения.Для этого мы используем CNN, описанную в разд.SECREF2 и инициализировать встраивания, полученные на этапе без присмотра.Затем мы используем удаленный набор данных, чтобы обучить CNN классифицировать шумные положительные твиты и шумные негативные твиты.Первая эпоха обучения выполняется с замороженными вложениями, чтобы свести к минимуму большие изменения во вложениях.Затем мы размораживаем вложения и тренируемся еще 6 эпох.После этого этапа обучения слова с очень разной полярностью настроений (например, «хороший» и «плохой») оказываются далеко друг от друга в пространстве встраивания.На заключительном этапе обучения используются данные, меченные людьми, предоставленные SemEval-2017.Мы инициализируем внедрения в моделях CNN и LSTM с точно настроенными внедрениями этапа дистанционного обучения и замораживаем их для первых эпох INLINEFORM0.Затем мы тренируемся для других эпох INLINEFORM1 с незамороженными вложениями и скоростью обучения, уменьшенной в 10 раз.Мы выбираем кросс-энтропию в качестве функции потерь и взвешиваем ее по обратной частоте истинных классов, чтобы противодействовать несбалансированному набору данных.Потери минимизируются с помощью оптимизатора Адама BIBREF19 с начальной скоростью обучения 0,001.Модели были реализованы в TensorFlow, а эксперименты проводились на графическом процессоре GeForce GTX Titan X. Чтобы уменьшить дисперсию и повысить точность, мы объединили 10 CNN и 10 LSTM вместе посредством мягкого голосования.Объединенные модели имеют разные инициализации случайного веса, разное количество эпох (всего от 4 до 20), разный набор размеров фильтров (INLINEFORM0, INLINEFORM1 или INLINEFORM2) и разные алгоритмы встраивания предварительного обучения (Word2vec или FastText). модели, описанные в разд.SECREF2 и метод обучения, описанный в разд.SECREF3 используются одинаково для всех пяти подзадач, за некоторыми особыми исключениями, о которых мы сейчас поговорим.Очевидно, что выходная размерность различается в зависимости от подзадачи: для подзадачи А выходная размерность равна 3, для B и D — 2, а для подзадач C и E — 5.Кроме того, для подзадач количественной оценки (D и E) мы используем подход средней вероятности BIBREF20 для преобразования выходных вероятностей в распределения настроений.Наконец, для подзадач, тема которых связана с твитом (B, C, D и E), мы добавляем два специальных шага, которые, как мы заметили, повышают точность на этапе перекрестной проверки.Во-первых, если какое-либо слово в теме не упоминается в твите явно, мы добавляем недостающие слова в конец твита на этапе предварительной обработки.Во-вторых, мы присоединяем к обычным вложениям слов другое пространство вложения размерности 5, которое имеет только 2 возможных вектора.Один из этих двух векторов указывает, что текущее слово является частью темы, а другой вектор указывает, что текущее слово не является частью темы.Обсудим теперь результаты, полученные с помощью этой системы.Чтобы оценить производительность каждой модели и их вариаций, мы сначала показываем их результаты на историческом тестовом наборе Twitter за 2013, 2014, 2015 и 2016 годы, не используя ни один из этих наборов в наборе обучающих данных, как это требовалось для Этот конкурс 2016 года.Для краткости мы сосредоточимся только на задаче А, поскольку она, как правило, самая популярная.Более того, чтобы соответствовать историческим изданиям этого конкурса, мы используем средний балл INLINEFORM0 положительного и отрицательного класса в качестве интересующей метрики.Это отличается от макросреднего отзыва, который используется в издании 2017 года, но это не должно существенно повлиять на выводы этого анализа, поскольку мы обнаружили, что эти два показателя сильно коррелируют.Результаты суммированы в таблице TABREF16.Эта таблица не является исчерпывающим списком всех проведенных экспериментов, но она иллюстрирует относительные характеристики наиболее важных вариаций рассматриваемых здесь моделей.Из таблицы TABREF16 видно, что неконтролируемый алгоритм GloVe дает более низкий балл, чем FastText и Word2vec.Именно по этой причине мы не включили вариант GloVe в модель ансамбля.Также отметим, что отсутствие классовых весов или отсутствие дистанционного этапа обучения существенно снижает баллы, что свидетельствует о том, что это правильные дополнения.За исключением этих трех вариантов, остальные модели имеют аналогичные показатели.Однако ансамблевая модель эффективно превосходит все другие отдельные модели.Действительно, хотя эти отдельные модели дают схожие оценки, их результаты достаточно некоррелированы, поэтому их объединение дает небольшой прирост оценки.Чтобы получить представление о том, насколько коррелируют друг с другом эти модели, мы можем вычислить коэффициент корреляции Пирсона между выходными вероятностями любых пар моделей, см. Таблицу TABREF17.Из этой таблицы мы видим, что наиболее некоррелированные модели получены из разных моделей обучения с учителем (CNN против LSTM) и из разных алгоритмов обучения без учителя (Word2vec против FastText). Для прогнозов на тестовом наборе 2017 года система переобучается на все доступные данные по обучению, включая данные тестирования за предыдущие годы.Результаты нашей системы на тестовом наборе 2017 года показаны в таблице TABREF18.Наша система получила лучшие результаты по всем пяти подзадачам по английскому языку.Для подзадачи A на самом деле существует связь между нашей отправкой и работой другой команды (DataStories), но обратите внимание, что по другим показателям (точность и оценка INLINEFORM0) наша работа имеет более высокий рейтинг.В этой статье мы представили систему, которую использовали для участия в конкурсе по анализу настроений в Твиттере SemEval-2017.Нашей целью было поэкспериментировать с моделями глубокого обучения вместе с современными стратегиями обучения, чтобы создать наилучший классификатор настроений для твитов.Последняя модель, которую мы использовали, представляла собой ансамбль из 10 CNN и 10 LSTM с разными гиперпараметрами и разными стратегиями предварительного обучения.Мы участвовали во всех подзадачах по английскому языку и во всех получили первое место.Для будущей работы было бы интересно изучить системы, которые объединяют CNN и LSTM более органично, чем через ансамблевую модель, возможно, модель, аналогичную модели BIBREF21.Также было бы интересно проанализировать зависимость количества неразмеченных и удаленных данных от производительности моделей.Мы благодарим Карла Стратоса, Анджу Камбадура, Лян Чжоу, Александра М. Раша, Дэвида Розенберга и Бие Ли за их помощь в этом проекте. | В этой статье мы описываем нашу попытку создать современный классификатор настроений в Твиттере с использованием сверточных нейронных сетей (CNN) и сетей долгосрочной краткосрочной памяти (LSTM). Наша система использует большой объем немаркированных данных для предварительного обучения встраиванию слов. Затем мы используем подмножество немаркированных данных для точной настройки встраивания с помощью дистанционного контроля. Окончательные CNN и LSTM обучаются на наборе данных Twitter SemEval-2017, где вложения снова настраиваются. Чтобы повысить производительность, мы объединяем несколько CNN и LSTM вместе. Наш подход занял первое место по всем пяти подзадачам английского языка среди 40 команд. | 2,535 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Быстро меняющийся ландшафт диалоговых агентов. Одной из первых целей искусственного интеллекта (ИИ) было создание машин, которые могли бы общаться с нами.Будь то ранняя литература по искусственному интеллекту или современная популярная культура, диалоговые агенты захватили наше воображение, как никакая другая технология.Фактически, окончательный тест на то, был ли достигнут истинный искусственный интеллект, тест Тьюринга BIBREF0, предложенный Аланом Тьюрингом, отцом искусственного интеллекта, в 1950 году, вращается вокруг концепции хорошего диалогового агента.Тест считается пройденным, если диалоговый агент способен обмануть судей-людей, заставив их поверить, что он на самом деле человек.Начиная с программ сопоставления шаблонов, таких как ELIZA, разработанных в Массачусетском технологическом институте в 1964 году, и заканчивая нынешними коммерческими диалоговыми агентами и личными помощниками (Siri, Allo, Alexa, Cortana и др.), которые все мы носим в карманах, диалоговые агенты прошли долгий путь.В этой статье мы рассмотрим это невероятное путешествие.Мы начнем с рассмотрения ранних методов, основанных на правилах, которые состояли из функций, разработанных вручную, большинство из которых были специфичными для предметной области.Однако, на наш взгляд, появление нейронных сетей, которые были способны фиксировать долговременные зависимости в тексте, и создание модели последовательного обучения BIBREF1, которая была способна обрабатывать высказывания различной длины, — это то, что действительно произвело революцию в этой области.С тех пор, как в 2016 году модель последовательностей была впервые использована для создания нейронного диалогового агента BIBREF2, эта область стремительно развивалась.Учитывая множество новых подходов, предложенных за последние два года, которые существенно влияют на качество этих диалоговых агентов, мы склоняем нашу статью к эпохе после 2016 года.Действительно, одной из ключевых особенностей этой статьи является то, что она рассматривает захватывающие новые разработки в области диалоговых агентов.Диалоговые системы, также известные как интерактивные диалоговые агенты, виртуальные агенты и иногда чат-боты, используются в широком спектре приложений, начиная от служб технической поддержки и заканчивая инструментами изучения языка и развлечениями.Диалоговые системы можно разделить на целевые системы, такие как службы технической поддержки, системы бронирования и системы запросов.С другой стороны, у нас есть системы, не ориентированные на достижение цели, которые также называются моделями болтовни.У взаимодействия с этими агентами нет никакой явной цели, кроме развлечения.По сравнению с целеориентированными диалоговыми системами, где вселенная ограничена приложением, построение открытых моделей болтовни является более сложной задачей.Согласно тесту Тьюринга, нецелеориентированные агенты являются хорошим показателем современного уровня искусственного интеллекта.Не имея ни здравого смысла, ни понимания контекста, этим агентам приходится прибегать к шаблонным ответам и прибегать к поиску в Интернете.Но, как мы обсудим в разделе SECREF5, появляются новые методы, позволяющие предоставить этим агентам столь необходимый контекст.Недавние успехи в области обучения с подкреплением (RL) также открыли новые возможности применения в диалоговых агентах.Мы рассмотрим некоторые из этих подходов в разделе SECREF6. Еще одна особенность, которой традиционно не хватает агентам диалога, — это индивидуальность.Винайял и др. BIBREF2 выдвинули гипотезу о том, что отсутствие последовательной личности является одной из основных причин, мешающих нам пройти тест Тьюринга.Разговорным агентам также не хватает эмоциональной последовательности в своих ответах.Эти функции жизненно важны, если мы хотим, чтобы люди доверяли диалоговым агентам.В разделе SECREF7 мы обсуждаем современные подходы к решению этих проблем.Несмотря на такие огромные достижения в этой области, способ оценки этих моделей нуждается в кардинальном изменении.В настоящее время не существует идеального количественного метода сравнения двух разговорных агентов.Эта область должна полагаться на качественные меры или меры, такие как BLeU и недоумение, заимствованные из машинного перевода.В разделе SECREF8 мы подробно обсуждаем эту проблему.Первоначально интерактивные диалоговые системы были основаны на независимом от говорящего распознавании отдельных слов и фраз или ограниченной непрерывной речи, такой как строки цифр, и ограничивались этим.В августе 1993 года появился проект ESPRIT SUNDIAL (Peckham et al, 1993 BIBREF3), целью которого было предоставление возможности спонтанных разговорных запросов по телефону о расписании поездов и информации о рейсах.Компонент лингвистической обработки в нем был основан на анализе естественного языка.Синтаксический анализатор использовал альтернативные гипотезы слов, представленные в решетке или графе, при построении дерева разбора, а также учитывал пробелы и частично анализируемые строки.Он использовал как синтаксические, так и семантические знания для предметной области.Ему удалось добиться успеха в 96% приложения для запроса рейсов на английском языке.Однако проблема заключалась в том, что данный диалоговый агент был сильно ограничен в типах приложений, которые он мог выполнять, и его высокий уровень успеха был обусловлен скорее этим, а не отличными методами естественного языка (по сравнению с недавним временем). В 1995 году два исследователя ( Болл и др., 1995 BIBREF4) в Microsoft разработали диалогового помощника под названием Persona, который был одним из первых настоящих личных помощников, подобных тем, которые мы имеем в последнее время (например, Siri и т. д.).Это позволяло пользователям максимальную гибкость выражать свои запросы в любом синтаксисе, который они считали наиболее естественным, а интерфейс был основан на системе НЛП с широким охватом, в отличие от системы, обсуждавшейся в предыдущем абзаце.При этом на основе речевого ввода генерируется помеченный семантический граф, который кодирует рамки прецедентов или тематические роли.После этого к нему применяется последовательность преобразований графа, используя знание сценария взаимодействия и предметной области приложения.В результате образуется нормализованная структура, специфичная для приложения, называемая графом задач, которая затем сопоставляется с шаблонами (в приложении), которые представляют нормализованные графы задач, соответствующие всем возможным операторам пользователя, которые понимает помощник, и затем выполняется действие.Точность была не очень хорошей, и они не удосужились ее вычислить.Также ввиду интегрированности диалогового взаимодействия в Персоне необходимые знания должны быть предоставлены каждому компоненту системы.Хотя у него были ограничения, он обеспечил очень полезную лингвистическую основу для разговорного взаимодействия.Исследователи полагали, что если они смогут создавать модели помощников, специфичные для соответствующих моделей, они смогут добиться большей точности для этих приложений вместо создания общего унифицированного персонального помощника, который в то время работал довольно плохо.Произошел всплеск специализированных помощников, таких как интеллектуальный персональный помощник в автомобиле (Schillo et al, 1996 BIBREF5), голосовой интерфейс для выполнения военных учений (Stent et al, 1999 BIBREF6) и т. д.Поскольку разработать системы с высокой расширяемостью предметной области было сложно, исследователи придумали распределенную архитектуру для агентов совместного разговорного диалога (Lin et al, 1999 BIBREF7).В рамках этой архитектуры разные агенты голосового диалога, работающие с разными доменами, могут разрабатываться независимо и взаимодействовать друг с другом, отвечая на запросы пользователя.В то время как агент пользовательского интерфейса может получить доступ к правильному агенту разговорного диалога через протокол переключения домена и перенести состояние и историю диалога, чтобы обеспечить постоянную и согласованную обработку знаний в разных доменах.На рисунке FigREF1 показано агентское сообщество для устного диалога для туристической информационной службы.Если мы определим уровень ложных тревог путем подсчета высказываний, в которых произошло ненужное переключение домена, и уровень обнаружения путем подсчета высказываний, в которых желаемое переключение домена было точно обнаружено, то в этой модели высокий уровень обнаружения был достигнут при очень низком уровне. уровень ложных тревог.Например, при показателе ложных тревог около 0,2 модель смогла достичь коэффициента обнаружения около 0,9 для случая поиска последовательности тегов со схемой поиска языковой модели.Затем наступила эра использования методов машинного обучения в области диалоговых агентов, которые произвели полную революцию в этой области.Максин Эскенази и ее команда изначально хотели создать систему разговорного диалога для менее широких слоев населения, таких как пожилые люди и люди, для которых английский язык не является родным.Они разработали проект Let’s Go (Raux et al, 2003 BIBREF8), который был разработан для предоставления информации об автобусах Питтсбурга.Позже это стало доступно широкой публике (Raux et al, 2005 BIBREF9).Их работа важна с точки зрения методов, которые они использовали.Распознавание речи осуществлялось с использованием статистической модели n-грамм, которая затем передавалась в надежный анализатор на основе расширенной контекстно-свободной грамматики, позволяющей системе пропускать неизвестные слова и выполнять частичный анализ.Они написали грамматику, основываясь на сочетании своей собственной интуиции и небольшого эксперимента «Волшебник страны Оз», который они провели.Грамматические правила, используемые для обозначения автобусных остановок, были созданы автоматически из базы данных расписаний.После этого они обучили статистическую модель языка на искусственном корпусе.Чтобы сделать грамматику синтаксического анализа достаточно надежной для анализа довольно неграмматических, но понятных предложений, она была сохранена как можно более общей.Обнародовав его, они первоначально достигли показателя успешности выполнения задач 43,3% для всего корпуса и 43,6% при исключении сеансов, которые не содержали какой-либо системной речи.После этого они попытались повысить производительность системы (Raux et al, 2006 BIBREF10).Они переобучили свои акустические модели, выполнив оптимизацию Баума-Уэлча на записанных данных (начиная с исходных моделей).К сожалению, это принесло лишь незначительное улучшение, поскольку модели (полунепрерывные HMM) и алгоритмы, которые они использовали, были слишком упрощенными для этой задачи.Они улучшили возможности системы поочередного управления, внимательно анализируя полученные отзывы.Они добавили более конкретные стратегии, направленные на решение таких проблем, как шумная обстановка, слишком громкие или слишком длинные высказывания и т. д.Они обнаружили, что им удалось добиться успеха в 79% для полных диалогов (и это было здорово). В предыдущих статьях (подобных тем, которые мы обсуждали в предыдущем абзаце) не предпринимались попытки использовать методы, основанные на данных, для диалоговые агенты, поскольку в то время такие данные не были доступны в большом объеме.Но затем произошло резкое увеличение коллекции корпусов разговорных диалогов, что позволило использовать методы, основанные на данных, для построения и использования моделей ориентированных на задачи диалогов и, возможно, получить хорошие результаты.В статье Шриниваса и др., 2008 BIBREF11, авторы предложили использовать методы управления данными для построения структур задач для отдельных диалогов и использовать структуры задач диалога для классификации действий диалога, классификации задач/подзадач, прогнозирования задач/подзадач и прогнозирования действий диалога. .Для каждого высказывания они рассчитали такие характеристики, как n-граммы слов и их POS-теги, диалоговый акт и метку задачи/подзадачи.Затем они поместили эти функции в двоичный классификатор MaxEnt.При этом их модель смогла достичь уровня ошибок 25,1% для классификации диалоговых действий, что было лучше, чем у самых эффективных моделей того времени.Хотя по современным меркам результаты не так уж и велики, но предложенный ими подход (использование данных для построения моделей машинного обучения) лежит в основе методик, которые сейчас используются в этой области.Проблема с моделями, основанными на правилах, заключалась в том, что они часто зависели от домена и их нелегко было перенести в новый домен.Они также зависели от правил, созданных вручную, что было дорого и требовало опыта в предметной области.Два фактора, которые в совокупности обрекают масштабируемость на гибель.Все изменилось в 2015 году, когда Виньялс и др. предложили подход BIBREF2, вдохновленный недавним прогрессом в машинном переводе BIBREF1.Виньялс и др. использовали последовательность для построения архитектуры обучения диалоговых агентов.Их модель была первой моделью, которую можно было обучать сквозным образом и которая могла генерировать новое выходное высказывание на основе только входного предложения и никаких других функций, созданных вручную.Они достигли этого, представив задачу моделирования разговора как задачу прогнозирования следующей последовательности на основе предыдущей последовательности с использованием рекуррентных сетей.Этот простой подход действительно изменил ландшафт агентов диалога.Большая часть современного состояния сегодня построена на их успехе.Короче говоря, входное высказывание подается в сеть кодировщика, которая в данном случае представляет собой рекуррентную нейронную сеть (RNN), но, как мы увидим, с тех пор BIBREF12 заменила RNN в качестве стандарта для этой задачи.Кодер суммирует входное высказывание в векторное представление фиксированной длины, которое вводится в декодер, который сам по себе снова является RNN.В статье этот фиксированный вектор рассматривается как вектор мысли, который содержит наиболее важную информацию входного высказывания.Сетевые декодеры воспринимают это как входные данные, а выходные данные — слово за словом, пока не сгенерируется токен завершения речи INLINEFORM0.Этот подход позволяет использовать входные и выходные данные переменной длины.Сеть совместно обучена на двухочередном разговоре.На рисунке FigREF3 показана модель нейронного диалога от последовательности к последовательности.Хотя большая часть современных работ в этой области построена на этом подходе, у этой идеи есть существенный недостаток.Эта модель теоретически никогда не может решить проблему моделирования диалогов из-за различных упрощений, наиболее важным из которых является то, что оптимизируемая целевая функция не отражает реальную цель, достигаемую посредством человеческого общения, которое обычно является более долгосрочным и основано на обмене информацией. информацию, а не прогнозирование следующего шага.Важно понимать, что оптимизация агента для генерации текста на основе того, что он видит в наборе данных двухэтапного диалога, на котором он обучен, не означает, что агент сможет обобщать разговор на человеческом уровне в разных контекстах.Тем не менее, в отсутствие лучшего способа уловить человеческое общение, этот подход заложил основу большинства современных достижений в этой области.Еще одна проблема, которая беспокоит эту статью и данную область в целом, — это оценка.Поскольку для данного входного высказывания может быть несколько правильных выходных высказываний, количественного способа оценить, насколько хорошо работает модель, не существует.В этой статье, чтобы показать эффективность своей модели, авторы публикуют фрагменты разговоров в разных наборах данных.Мы обсудим эту общую проблему оценки позже.Юлиан и др. опираясь на этот подход, основанный на последовательностях, в своей статье, представленной в AAAI 2016 BIBREF13.Их работа вдохновлена иерархической рекуррентной архитектурой кодировщика-декодера (HRED), предложенной Сордони и др. БИБРЕФ14 .Их предпосылка состоит в том, что диалог можно рассматривать как последовательность высказываний, которые, в свою очередь, являются последовательностями токенов.Воспользовавшись этой встроенной иерархией, они моделируют свою систему следующим образом.Кодер RNN отображает каждое высказывание в вектор высказывания.Вектор высказывания — это скрытое состояние, полученное после обработки последнего токена высказывания.Контекст более высокого уровня RNN отслеживает прошлые высказывания, итеративно обрабатывая каждый вектор высказываний.После обработки высказывания INLINEFORM0 скрытое состояние контекста RNN представляет собой сводку диалога до хода INLINEFORM1 включительно, который используется для прогнозирования следующего высказывания INLINEFORM2.Прогнозирование следующего высказывания выполняется с помощью декодера RNN, который принимает скрытое состояние контекста RNN и создает распределение вероятностей по токенам в следующем высказывании.Как видно на рисунке FigREF4.Преимущества использования иерархического представления двояки.Во-первых, контекст RNN позволяет модели представлять форму точек соприкосновения между говорящими, например для представления тем и концепций, общих для говорящих, с использованием распределенного векторного представления.Во-вторых, потому что количество вычислительных шагов между высказываниями уменьшается.Это делает целевую функцию более стабильной относительнопараметры модели и помогает распространять обучающий сигнал для методов оптимизации первого порядка.Такие модели, как последовательность к последовательности и иерархический подход, оказались хорошими базовыми моделями.За последние пару лет были предприняты серьезные усилия по созданию на основе этих базовых показателей более надежных диалоговых агентов. BIBREF15 BIBREF16. Из-за большого пространства параметров оценка нейронных моделей диалога требует значительных объемов диалоговых данных.В этом помогают крупные онлайн-корпорации.Однако некоторые корпуса диалогов, особенно извлеченные из субтитров, не включают какой-либо явной сегментации поворотов или идентификации говорящего.Таким образом, нейронная модель разговора может непреднамеренно запомнить ответы, которые остаются в пределах того же хода диалога, вместо того, чтобы начинать новый ход.Лисон и др. BIBREF17 преодолевают эти ограничения, вводя в нейронную архитектуру модель взвешивания.Модель взвешивания, которая сама оценивается на основе данных диалога, связывает каждый обучающий пример с числовым весом, который отражает его внутреннее качество для моделирования диалога.Во время обучения эти веса выборки включаются в эмпирические потери, которые необходимо минимизировать.Цель этой модели — связать каждую пару примеров «контекст, ответ» с числовым весом, который отражает внутреннее «качество» каждого примера.Затем веса экземпляров включаются в эмпирические потери, чтобы минимизировать их при изучении параметров модели нейронного диалога.Сами веса вычисляются с помощью нейронной модели, полученной на основе данных диалога.Такие подходы, как BIBREF17, полезны, но данных для обучения этих нейронных диалоговых агентов остается недостаточно, особенно в академических кругах. Подробнее о нехватке данных мы поговорим в следующем разделе.Хотя модели, основанные на последовательностях, достигли большого успеха, еще одним шагом в этой области стало обучение языковой модели на протяжении всего диалога как одной единственной последовательности BIBREF18.В этих работах утверждается, что языковая модель лучше подходит для моделирования диалога, поскольку она изучает, как разговор развивается по мере поступления информации.Мэй и др. BIBREF19 улучшает согласованность таких нейронных языковых моделей диалога, разрабатывая механизм генеративного динамического внимания, который позволяет каждому сгенерированному слову выбирать, с какими связанными словами оно хочет согласовываться в увеличивающейся истории разговора (включая предыдущие слова в генерируемом ответе).Они вводят в языковую модель RNN механизм динамического внимания, в котором объем внимания увеличивается по мере выполнения операции повторения от начала до конца разговора.Модель динамического внимания способствует связности генерируемых диалоговых ответов (продолжений), благоприятствуя генерации слов, которые имеют синтаксические или семантические ассоциации с важными словами в истории разговора.Хотя эти нейронные модели действительно мощные, настолько, что они используются в большинстве имеющихся в продаже умных помощников и диалоговых агентов.Однако этим агентам не хватает чувства контекста и здравого смысла, которыми обладают их собеседники-люди.Это особенно очевидно при взаимодействии с агентом коммерческого диалога, когда агенту чаще всего приходится прибегать к шаблонным ответам или прибегать к отображению результатов поиска в Интернете в ответ на введенное высказывание.Одной из главных целей исследовательского сообщества в течение последнего года или около того было преодоление этой фундаментальной проблемы с агентами диалога.Было предложено множество различных подходов: от использования графов знаний BIBREF20 для расширения знаний агента до использования последних достижений в области онлайн-обучения BIBREF21.В этом разделе мы обсудим некоторые из этих подходов.Первый подход, который мы обсуждаем, — это сеть динамических графов знаний (DynoNet), предложенная He et al.al BIBREF20, в котором состояние диалога моделируется как граф знаний с вложением для каждого узла.Для моделирования как структурированного, так и открытого контекста они моделируют двух агентов, каждый из которых имеет частный список элементов с атрибутами, которые должны взаимодействовать для идентификации уникального общего элемента.Они структурируют сущности в виде графа знаний; по мере продолжения диалога добавляются новые узлы и на графе распространяется новый контекст.Основанный на внимании механизм встраивания узлов стимулирует генерацию новых высказываний.Модель лучше всего объясняется на примере, использованном в статье, который выглядит следующим образом: Граф знаний представляет сущности и отношения в частной базе данных агента, например, компания элемента 1 — Google.По мере развития разговора высказывания встраиваются и включаются в вложения узлов упомянутых сущностей.Например, на рисунке FigREF6 фраза «кто-нибудь ездил в Колумбию» обновляет встраивание слова «Колумбия».Затем каждый узел рекурсивно передает свое внедрение соседним узлам, так что связанные объекты (например, находящиеся в одной строке или столбце) также получают информацию из самого последнего высказывания.В этом примере Джессика и Джош получают новый контекст, когда упоминается Колумбия.Наконец, генератор высказываний, LSTM, создает следующее высказывание, обращая внимание на встраивания узлов.Однако Ли и др. в BIBREF21 используют другой подход для расширения знаний диалоговых агентов.Они предлагают использовать подход, основанный на непрерывном обучении.Они представляют независимую от задачи модель разговора и адаптивный онлайн-алгоритм для непрерывного обучения, которые вместе позволяют им последовательно обучать модель разговора на нескольких задачах, не забывая при этом предыдущие задачи.В другом подходе Газвининежад и др. BIBREF22 предлагают подход, основанный на знаниях, который наполняет выходное высказывание фактической информацией, соответствующей контексту разговора.Их архитектура показана на рисунке FigREF7.Они используют внешнюю коллекцию мировых фактов, которая представляет собой большую коллекцию необработанных текстовых записей (например, обзоры Foursquare, Wikipedia или Amazon), проиндексированных именованными объектами в качестве ключей.Затем, учитывая историю разговоров или исходную последовательность S, они определяют «фокус» в S, который представляет собой текстовый диапазон (один или несколько объектов), на основе которого они формируют запрос для ссылки на факты.Затем запрос используется для получения всех контекстно значимых фактов.Наконец, история разговоров и соответствующие факты передаются в нейронную архитектуру, которая имеет отдельные кодеры для истории разговоров и фактов.Еще одним интересным аспектом такой модели является то, что можно добавлять новые факты и обновлять старые факты, просто обновляя словарь мировых фактов без переобучения модели с нуля, что делает модель более адаптивной и надежной.Вместо того, чтобы просто иметь набор фактов для дополнения разговора, более богатым способом могло бы быть использование графов знаний или баз знаний здравого смысла, которые состоят из троек [сущность-отношение-сущность].Янг и др. исследуют эту идею в BIBREF23.Для данного входного высказывания они находят соответствующие утверждения в базе знаний здравого смысла, используя простое сопоставление n-грамм.Затем они выполняют фрагментирование соответствующих утверждений и передают отдельный токен кодировщику tri-LSTM.Выходные данные этого кодера взвешиваются вместе с входным высказыванием, и генерируется выходное высказывание.Они утверждают, что такие агенты разговора, основанные на здравом смысле, превосходят наивных агентов разговора.Еще один интересный способ добавить знания агентам диалога — получить внешние знания для данного диалога с помощью поисковой системы.В статье Лонга и др., 2017 BIBREF24, авторы построили модель для генерации естественных и информативных ответов для диалога, ориентированного на обслуживание клиентов, с использованием внешних знаний.Они получают внешние знания с помощью поисковой системы.Затем разрабатывается структура последовательного обмена знаниями с расширенными знаниями для условного моделирования многоходовых диалогов на основе внешних знаний.С этой целью их модель расширяет простую модель «последовательность-последовательность», дополняя входные данные вектором знаний, чтобы учесть знания в процедуре генерации ответа в декодере модели «последовательность-последовательность».И кодер, и декодер состоят из LSTM. Их модель имеет средний человеческий рейтинг 3,3919 из 5 по сравнению с базовым показателем, который составляет 3,3638 из 5.Следовательно, их модель генерирует более информативные ответы.Однако они обнаружили, что внешние знания играют негативную роль в процедуре генерации ответов, когда в информации больше шума.Исследование того, как получить достоверные знания об истории конкретного диалога, может стать будущим поколением их модели.После детального изучения нейронных методов в текущем десятилетии исследователи также начали изучать, как использовать методы обучения с подкреплением в диалоге и личных агентах.Одна из первых основных статей, в которой рассматривалась возможность использования для этого обучения с подкреплением, была опубликована в 2005 году Инглишом и др. BIBREF25.Они использовали метод Монте-Карло, соответствующий политике, и используемая ими целевая функция представляла собой линейную комбинацию качества решения (S) и длины диалога (L), принимая форму: o(S,I) = INLINEFORM0 - INLINEFORM1 .AtВ конце каждого диалога взаимодействию присваивалась оценка на основе функции оценки, и эта оценка использовалась для обновления политики диалога обоих агентов (то есть собеседников).История действий состояний для каждого агента повторялась отдельно, а оценка недавнего диалога усреднялась с ожидаемой доходностью от существующей политики.Они решили не включать какой-либо дисконтирующий фактор в оценку диалога при прохождении истории диалога.Решение о равном весе каждой пары состояние-действие в истории диалога было принято потому, что вклад действия в оценку диалога не зависит от его близости к концу задачи.Чтобы решить проблему перехода к эффективной политике, они разделили процесс обучения агентов на несколько периодов.Средний балл целевой функции для случая изученной политики составил 44,90.Одной из основных причин низкой точности (что также является ограничением данной статьи) было то, что существовал ряд аспектов диалога, которые они не моделировали, такие как непонимание, недопонимание и даже анализ предложений в спецификации действий. и генерирование предложений из спецификации действия.Но статья проложила путь к методам обучения с подкреплением в область диалога и личных агентов.Давайте посмотрим на KB-InfoBot (автор Dhingra et al, 2017 BIBREF26): многоходовой диалоговый агент, который помогает пользователям осуществлять поиск в базах знаний (KB) без составления сложных запросов.В этой статье они заменяют символические запросы (которые нарушают дифференцируемость системы и предотвращают сквозное обучение агентов нейронного диалога) на индуцированное «мягкое» апостериорное распределение по базе знаний, которое указывает, какие объекты интересуют пользователя. .Интеграция процесса мягкого поиска с обучающимся с подкреплением приводит к более высокому уровню успеха задач и вознаграждению как в симуляциях, так и в сравнении с реальными пользователями.При этом авторы использовали RNN, чтобы позволить сети поддерживать внутреннее состояние истории диалога.В частности, они использовали Gated Recurrent Unit, за которым следовал полносвязный слой и нелинейность softmax для моделирования политики π над действиями.Во время обучения агент выбирает свои действия из этой политики, чтобы стимулировать исследование.Параметры нейронных компонентов обучались с помощью алгоритма REINFORCE.Для сквозного обучения они обновили как политику диалога, так и трекеры убеждений, используя сигнал подкрепления.При тестировании диалог считается успешным, если целевой пользователь входит в пятерку лучших результатов, возвращаемых агентом, и соответствующим образом рассчитывается вознаграждение, которое помогает агенту предпринять следующее действие.Их система показывает показатель успеха 0,66 для небольших баз знаний и высокий показатель успеха 0,83 для средних и больших баз знаний.Когда пользователь взаимодействует с агентом, собранные данные могут использоваться для обучения сквозного агента, который, как мы видим, обладает сильными возможностями обучения.Постепенно, по мере накопления опыта, система может перейти от Reinforcement Learning-Soft к персонализированному сквозному агенту.Эффективная реализация этого требует, чтобы такие персонализированные сквозные агенты быстро обучались, что следует изучить в будущем.Однако система имеет несколько ограничений.Точности недостаточно для использования в практических приложениях.Агент страдает от проблемы холодного запуска.В случае сквозного обучения они обнаружили, что для базы знаний среднего размера агент почти всегда терпит неудачу, если начинает со случайной инициализации.Методы глубокого обучения с подкреплением (RL) имеют значительный потенциал для оптимизации политики диалога.Однако они страдают от плохой успеваемости на ранних этапах обучения, как мы видели в статье в предыдущем разделе.Это особенно проблематично для онлайн-обучения с реальными пользователями.В статье Су и др., 2017 BIBREF27, они предложили эффективное по выборке обучение с подкреплением актер-критик с контролируемыми данными для управления диалогом.Для справки: алгоритмы «актор-критик» — это алгоритмы, в которых актор хранит политику, согласно которой действие предпринимается агентом, а критик, который критикует действия, выбранные актором (то есть вознаграждения, полученные после Действия отправляются критику, с помощью которых он вычисляет функции ценности). Чтобы ускорить процесс обучения, они представили два алгоритма нейронных сетей с выборочной эффективностью: актер-критик области доверия с повторением опыта (TRACER) и эпизодический естественный актер-критик с опытом. повтор (eNACER).Обе модели используют обучение вне политики с воспроизведением опыта для повышения эффективности выборки.Для TRACER доверительная область помогает контролировать размер шага обучения и избегать катастрофических изменений модели.Для eNACER естественный градиент определяет направление самого крутого подъема в политическом пространстве, чтобы ускорить конвергенцию.Чтобы смягчить проблему холодного запуска, для предварительного обучения моделей перед онлайн-обучением с подкреплением использовался корпус демонстрационных данных.Объединив эти два подхода, они продемонстрировали практический подход к изучению политик глубокого диалога на основе RL, а также продемонстрировали их эффективность в области поиска информации, ориентированной на выполнение задач.На рисунке FigREF11 мы можем видеть, что уровень успеха достигает около 95% для случая политики, обученной с использованием корпусных данных и использования обучения с подкреплением, что впечатляет.Кроме того, они очень быстро тренируются.Например, для обучения примерно 500-1000 диалогов показатель успеха eNACER составляет около 95%, а показатель успеха TRACER составляет около 92%.Однако авторы отметили, что производительность довольно быстро падает из-за шума, поскольку оценки неопределенности плохо обрабатываются архитектурами нейронных сетей.Это также может стать темой для будущих исследований.В последнее время исследуются генеративно-состязательные сети и способы их использования в диалоговых агентах.Хотя генеративно-состязательные сети сами по себе являются темой для изучения.Тем не менее, в упомянутой ниже статье используется обучение с подкреплением вместе с генеративно-состязательной сетью, поэтому мы рассмотрим его здесь, в рамках методов обучения с подкреплением.Они могут использоваться приложениями для создания диалогов, похожих на человеческие.В статье Ли и др., 2017 BIBREF28, авторы предложили использовать состязательное обучение для генерации диалогов в открытой области, чтобы система была обучена создавать последовательности, неотличимые от диалоговых высказываний, созданных человеком.Задача рассматривается как задача обучения с подкреплением, в которой совместно обучаются две системы: генеративная модель для создания последовательностей ответов и дискриминатор (аналогичный оценщику-человеку в тесте Тьюринга), который различает диалоги, генерируемые человеком, и диалоги, созданные машиной. сгенерированные.Генеративная модель определяет политику, которая генерирует ответ с учетом истории диалога, а дискриминативная модель представляет собой двоичный классификатор, который принимает последовательность диалоговых высказываний в качестве входных и выходных данных, независимо от того, генерируется ли вход людьми или машинами.Результаты дискриминатора затем используются в качестве вознаграждения для генеративной модели, подталкивающей систему к созданию диалогов, которые в основном напоминают человеческие диалоги.Ключевая идея системы заключается в том, чтобы побудить генератор генерировать высказывания, неотличимые от диалогов, созданных человеком.Для достижения такой цели используются методы градиента политики, в которых оценка текущих высказываний, сгенерированных человеком, присвоенная дискриминатором, используется в качестве вознаграждения для генератора, который обучен максимизировать ожидаемое вознаграждение от сгенерированных высказываний с использованием Алгоритм REINFORCE.Их модель получила оценку машинной точности по сравнению со случайной точностью 0,952 из 1.Однако, применив ту же парадигму обучения к машинному переводу в предварительных экспериментах, авторы не обнаружили явного повышения производительности.Они подумали, что это может быть связано с тем, что стратегия состязательного обучения более выгодна для задач, в которых существует большое несоответствие между распределениями сгенерированных последовательностей и эталонными целевыми последовательностями (то есть состязательный подход может быть более полезен для задач, в которых энтропия целей высока).В будущем эту взаимосвязь можно будет изучить дальше.Отсутствие целостной личности у диалоговых агентов, которую предлагает большинство этих моделей, было идентифицировано как одна из основных причин того, что эти агенты не смогли пройти тест Тьюринга BIBREF0 BIBREF2 .Помимо таких академических мотивов, создание диалоговых агентов, более похожих на своих собеседников-людей, которые обладают как личностью, так и способны анализировать эмоции, имеет большое практическое и коммерческое применение.Следовательно, за последние несколько лет для достижения этой цели были опробованы различные подходы.al BIBREF29 решает проблему согласованности и того, как наделить системы, управляемые данными, связной «персоной», необходимой для моделирования человеческого поведения.Они считают, что личность состоит из элементов идентичности (фоновых фактов или профиля пользователя), языкового поведения и стиля взаимодействия.Они также объясняют, что личность является адаптивной, поскольку агенту может потребоваться представить разные аспекты разным собеседникам в зависимости от взаимодействия.В конечном итоге эти персонажи включаются в модель как вложения.Добавление персонажа не только улучшает взаимодействие между людьми, но также улучшает оценку BLeU и снижает недоумение по сравнению с базовой последовательностью для моделей последовательности.Модель представляет каждого отдельного говорящего как вектор или вложение, которое кодирует специфичную для говорящего информацию (например, диалект, регистр, возраст, пол, личную информацию), которая влияет на содержание и стиль ее ответов.Самое главное, что эти характеристики не нужно явно аннотировать, что было бы очень утомительно и ограничивало бы применение модели.Вместо этого модели удается группировать пользователей по некоторым из этих характеристик (например, возрасту, стране проживания) на основе только ответов.Модель сначала кодирует сообщение INLINEFORM0 в векторное представление INLINEFORM1, используя исходный LSTM.Затем для каждого шага на целевой стороне скрытые единицы получаются путем объединения представления, созданного целевым LSTM на предыдущем временном шаге, словесных представлений на текущем временном шаге и внедрения динамика INLINEFORM2 .Таким образом, информация о говорящем кодируется и вводится в скрытый слой на каждом временном этапе и, таким образом, помогает прогнозировать персонализированные ответы на протяжении всего процесса генерации.Описанный здесь процесс наглядно показан на рисунке РИС. 13 ниже.Основываясь на подобных работах, модель «Машина эмоционального чата», предложенная Чжоу и др. BIBREF30, представляет собой модель, которая генерирует ответы, которые не только грамматически последовательны, но и эмоционально последовательны.Для достижения этой цели их подход моделирует высокоуровневую абстракцию выражений эмоций путем внедрения категорий эмоций.Они также фиксируют изменение неявных внутренних эмоциональных состояний и используют явные выражения эмоций с помощью словаря внешних эмоций.Хотя они не оценивали свою модель по каким-то стандартным метрикам, они показали, что их модель может генерировать ответы, подходящие не только по содержанию, но и по эмоциям.В будущем вместо указания класса эмоций модель должна выбрать наиболее подходящую категорию эмоций для ответа.Однако это может быть непросто, поскольку такая задача зависит от темы, контекста или настроения пользователя.Цель — улавливать эмоции и иметь последовательную личность для собеседника — очень важна.Эта область все еще находится в зачаточном состоянии, но достижения в этой области будут иметь далеко идущие последствия для диалоговых моделей в целом.Люди склонны доверять агентам, которые эмоционально последовательны, и в долгосрочной перспективе именно доверие решит судьбу широкомасштабного внедрения диалоговых агентов.Оценка диалоговых агентов является открытой исследовательской проблемой в этой области.С включением эмоционального компонента в современных агентов общения оценка таких моделей стала еще более сложной.Существующие методы оценки, такие как недоумение и оценка BLEU, недостаточно хороши и очень слабо коррелируют с человеческими суждениями.В статье Лю и др., 2016 BIBREF31, авторы обсуждают, как не оценивать диалоговую систему.Они предоставляют количественные и качественные результаты, подчеркивающие конкретные недостатки существующих показателей, и дают рекомендации по будущей разработке более эффективных показателей автоматической оценки для диалоговых систем.По их мнению, метрики (например, Kiros et al, 2015 BIBREF32), основанные на распределенных представлениях предложений, имеют наибольшие перспективы на будущее.Это связано с тем, что такие показатели совпадения слов, как BLEU, просто требуют слишком много достоверных ответов, чтобы найти значимое соответствие разумному ответу из-за большого разнообразия диалоговых ответов.Точно так же метрики, основанные на встраивании, состоят из базовых средних векторов, полученных с помощью семантики распределения, и поэтому они также недостаточно сложны для моделирования композиционности на уровне предложения в диалоге.Также можно учитывать метрики, учитывающие контекст.Такие показатели могут иметь форму модели оценки, основанной на данных.Эта модель может быть либо дискриминационной моделью, которая пытается провести различие между моделью и человеческими ответами, либо моделью, которая использует данные, собранные в ходе опроса людей, чтобы предоставить человеческие оценки предлагаемым ответам.В этом обзорном документе мы исследовали захватывающую и быстро меняющуюся область диалоговых агентов.Мы говорили о первых методах, основанных на правилах, которые зависели от функций, разработанных вручную.Эти методы заложили основу для нынешних моделей.Однако создание этих моделей было дорогостоящим, а их функции зависели от предметной области, для которой был создан диалоговый агент.Было сложно модифицировать эти модели для новой области.По мере увеличения вычислительной мощности и разработки нейронных сетей, способных улавливать зависимости на большом расстоянии (RNN, GRU, LSTM), область деятельности перешла к нейронным моделям для создания этих агентов.Модель последовательности в последовательность, созданная в 2015 году, была способна обрабатывать высказывания переменной длины, а применение последовательности в последовательности для агентов диалога произвело настоящую революцию в этой области.После этого прогресса за последние пару лет эта область буквально взорвалась благодаря многочисленным приложениям.Результаты оказались достаточно впечатляющими, чтобы найти применение в коммерческих целях, и эти агенты стали поистине повсеместными.Мы попытаемся представить широкий взгляд на эти достижения, уделив особое внимание основным проблемам, с которыми сталкиваются диалоговые агенты, и тому, как эти новые подходы пытаются их смягчить. | Диалоговые агенты стали повсеместными: от целенаправленных систем помощи при бронировании до моделей болтовни, которые можно найти в современных виртуальных помощниках. В этом обзорном документе мы исследуем эту увлекательную область. Мы рассмотрим некоторые новаторские работы, которые определили эту область, и постепенно перейдем к современным моделям. Мы рассмотрим статистические, нейронные подходы, подходы, основанные на генеративно-состязательных сетях и обучении с подкреплением, а также то, как они развивались. Попутно мы обсуждаем различные проблемы, с которыми сталкивается эта область: отсутствие контекста в высказываниях, отсутствие хороших количественных показателей для сравнения моделей, отсутствие доверия к агентам, поскольку у них нет последовательной личности и т. д. Мы структурируем эту статью таким образом который отвечает на эти актуальные вопросы и обсуждает конкурирующие подходы к их решению. | 6,145 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Адаптивное полуконтролируемое обучение для междоменной классификации настроений. На практике часто бывает сложно и затратно оперативно аннотировать достаточное количество обучающих данных для различных областей приложений.У нас может быть достаточно размеченных данных в существующем домене (называемом исходным доменом), но очень мало или совсем нет размеченных данных в новом домене (называемом целевым доменом).Эта проблема побудила к исследованию междоменной классификации настроений, при которой знания из исходного домена передаются в целевой домен, чтобы облегчить необходимые усилия по маркировке.Одна из ключевых проблем адаптации домена заключается в том, что данные в исходном и целевом доменах берутся из разных дистрибутивов.Таким образом, эффективность адаптации будет снижаться с увеличением разницы в распределении.В частности, при анализе настроений отзывы о разных продуктах имеют разную лексику.Например, обзоры ресторанов будут содержать такие слова, как «нежный», «вкусный» или «недоваренный», а обзоры фильмов — «захватывающие», «ужасающие» или «веселые».Пересечение между этими двумя наборами слов-мнений может быть небольшим, что затрудняет адаптацию предметной области.Для решения проблемы смещения домена было предложено несколько методов.Цель состоит в том, чтобы соединить исходный и целевой домены путем изучения представлений объектов, инвариантных к предметной области, чтобы классификатор, обученный в исходном домене, можно было адаптировать к другому целевому домену.При междоменной классификации настроений во многих работах BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4 используется ключевая интуиция, согласно которой функции, специфичные для предметной области, могут быть выровнены с помощью инвариантных для предметной области функций (основных функций).Например, слова «веселой» и «вкусный» можно совместить, поскольку оба они имеют отношение к «хорошему».Несмотря на многообещающие результаты, эти работы имеют два основных ограничения.Во-первых, они сильно зависят от эвристического выбора основных функций, которые могут быть чувствительны к различным приложениям.Таким образом, изученные новые представления не могут эффективно уменьшить разницу в предметной области.Более того, в этих работах для обучения представлению используются только немаркированные целевые данные, в то время как классификатор настроений обучался исключительно в исходном домене.Было проведено не так много исследований по использованию немаркированных целевых данных для уточнения классификатора, хотя они могут содержать полезную информацию.Как эффективно использовать немаркированные целевые данные по-прежнему остается важной проблемой адаптации предметной области.В этой работе мы утверждаем, что информация из немаркированных целевых данных полезна для адаптации предметной области, и мы предлагаем новую адаптивную к предметной области среду полуконтролируемого обучения (DAS), чтобы лучше ее использовать.Наша основная интуиция заключается в том, чтобы рассматривать проблему как задачу полуконтролируемого обучения, рассматривая целевые экземпляры как немаркированные данные, предполагая, что расстояние до области можно эффективно уменьшить посредством обучения инвариантному к области представлению.В частности, предлагаемый подход совместно выполняет адаптацию функций и полуконтролируемое обучение в условиях многозадачного обучения.Для адаптации функций он явно минимизирует расстояние между закодированными представлениями двух доменов.На этой основе две полуконтролируемые регуляризации – минимизация энтропии и самоансамбльная загрузка – совместно используются для использования немаркированных целевых данных для уточнения классификатора.Мы тщательно оцениваем наш метод в различных экспериментальных условиях, принимая во внимание распределение меток и размер корпуса.Результаты показывают, что наша модель способна добиться значительных улучшений по сравнению с сильными базовыми показателями.С помощью серии анализа мы также демонстрируем, что предлагаемый метод значительно выигрывает от включения немаркированных целевых данных посредством полуконтролируемого обучения, что соответствует нашей мотивации.Наши наборы данных и исходный код можно получить по адресу https://github.com/ruidan/DAS. Адаптация к домену: большинство методов адаптации функций для анализа настроений основаны на ключевой интуиции, которая даже несмотря на то, что некоторые мнения полностью различны для каждого домена. , их можно выровнять, если они имеют высокую корреляцию с некоторыми предметно-инвариантными словами-мнениями (основными словами), такими как «отлично» или «ужасно».Блитцер и др.(BIBREF0) предложил метод, основанный на обучении структурному соответствию (SCL), который использует прогнозирование опорных признаков для создания проецируемого пространства признаков, которое хорошо работает как для исходного, так и для целевого доменов.Ключевые слова выбираются таким образом, чтобы охватить общие, не зависящие от предметной области слова-мнения.Последующие исследования направлены на лучшее согласование доменно-специфичных слов BIBREF1, BIBREF5, BIBREF3, чтобы можно было уменьшить несоответствие домена.Совсем недавно Ю и Цзян (BIBREF4) позаимствовали идею прогнозирования опорных признаков у SCL и расширили ее до решения на основе нейронных сетей со вспомогательными задачами.В их эксперименте наблюдалось существенное улучшение по сравнению с SCL благодаря использованию встраивания слов с действительными значениями.Обучение представлению без учителя с помощью глубоких нейронных сетей (DNN), таких как автоэнкодеры с шумоподавлением, также изучалось для адаптации функций BIBREF6, BIBREF7, BIBREF8.Было показано, что DNN могут изучать переносимые представления, которые распутывают основные факторы вариаций, лежащие в основе выборок данных.Хотя вышеупомянутые методы направлены на уменьшение несоответствия областей, они не минимизируют явным образом расстояние между распределениями, а некоторые из них в значительной степени полагаются на выбор опорных признаков.В нашем методе мы формально строим для этой цели цель.Подобные идеи были исследованы во многих задачах компьютерного зрения, где представления базовых областей поощряются к сходству с помощью явных целей BIBREF9, BIBREF10, BIBREF11, BIBREF12, BIBREF13, таких как максимальное среднее несоответствие (MMD) BIBREF14.В задачах НЛП Ли и др.(BIBREF15) и Chen et al.(BIBREF16) оба предложили использовать структуру состязательного обучения для уменьшения различий в предметных областях.В их модели подсеть добавляется в качестве дискриминатора домена, в то время как глубокие функции изучаются, чтобы сбить дискриминатор с толку.Компонент адаптации функций в нашей модели аналогичен MMD и обучению противника.Подробное сравнение с ними мы покажем в наших экспериментах.Обучение с полуконтролем. Мы пытаемся рассматривать адаптацию предметной области как задачу обучения с полуконтролем, рассматривая целевые экземпляры как немаркированные данные.Были предприняты некоторые усилия по переносу обучения на основе немаркированных данных BIBREF17, BIBREF18, BIBREF19.В нашей модели мы уменьшаем расхождение в предметной области за счет адаптации функций, а затем применяем методы полуконтролируемого обучения для обучения на немаркированных данных.В первую очередь руководствуясь BIBREF20 и BIBREF21, мы использовали минимизацию энтропии и самоансамблированную загрузку в качестве регуляризации для включения немаркированных данных.Результаты наших экспериментов показывают, что оба метода эффективны при совместном обучении с целью адаптации функций, что подтверждает нашу мотивацию.Мы проводим большинство наших экспериментов в условиях адаптации домена без присмотра, когда у нас нет помеченных данных из целевого домена.Рассмотрим два набора INLINEFORM0 и INLINEFORM1.INLINEFORM2 взят из исходного домена с примерами, помеченными INLINEFORM3, где INLINEFORM4 — это мгновенное векторное представление метки настроения, а INLINEFORM5 обозначает количество классов.INLINEFORM6 принадлежит целевому домену с немаркированными примерами INLINEFORM7.INLINEFORM8 обозначает общее количество учебных документов, включая как маркированные, так и немаркированные.Мы стремимся изучить классификатор настроений из INLINEFORM13 и INLINEFORM14, чтобы он хорошо работал в целевом домене.Мы также представляем некоторые результаты в условиях, когда мы предполагаем, что доступно небольшое количество помеченных целевых примеров (см. Рисунок РИС. 27).В предлагаемой модели мы обозначаем INLINEFORM0, параметризованный INLINEFORM1, как нейронный кодировщик функций, который отображает документы из обоих доменов в общее пространство объектов, и INLINEFORM2, параметризованный INLINEFORM3, как полностью связанный слой с активацией softmax, служащей классификатором настроений.Мы стремимся изучить представления объектов, которые являются инвариантными к предметной области и в то же время различимыми в обеих областях, поэтому мы одновременно учитываем три фактора нашей цели: (1) минимизировать ошибку классификации в примерах помеченных источников; (2) минимизировать несоответствие доменов; и (3) использовать немаркированные данные посредством полуконтролируемого обучения.Предположим, у нас уже есть закодированные функции документов INLINEFORM0 (см. раздел SECREF10), поэтому целевой функцией для цели (1) является перекрестная потеря энтропии в примерах помеченного источника DISPLAYFORM0, где INLINEFORM0 обозначает прогнозируемое распределение меток.В следующих подразделах мы подробно объясним, как выполнять адаптацию функций и адаптивное к предметной области полуконтролируемое обучение для целей (2) и (3) соответственно.В отличие от предыдущих работ BIBREF0 , BIBREF4 , наш метод не пытается согласовать слова, специфичные для предметной области, с помощью ключевых слов.В наших предварительных экспериментах мы обнаружили, что встраивания слов, предварительно обученные на большом корпусе, способны адекватно уловить эту информацию.Как мы позже покажем в наших экспериментах, даже без адаптации наивный нейросетевой классификатор с предварительно обученными векторными представлениями слов уже может достигать достаточно хороших результатов.Мы пытаемся явно минимизировать расстояние между исходным и целевым представлениями объектов ( INLINEFORM0 и INLINEFORM1 ).Можно применить несколько методов из литературы, например, максимальное среднее несоответствие (MMD) BIBREF14 или противоборствующее обучение BIBREF15, BIBREF16.Основная идея MMD состоит в том, чтобы оценить расстояние между двумя распределениями как расстояние между выборочными средними прогнозируемых вложений в гильбертовом пространстве.MMD неявно вычисляется с помощью характеристического ядра, которое используется для обеспечения инъективности выборочного среднего, что приводит к тому, что MMD равен нулю тогда и только тогда, когда распределения идентичны.В нашей реализации мы пропускаем процедуру отображения, вызванную характеристическим ядром, для упрощения вычислений и обучения.Мы просто оцениваем расстояние распределения как расстояние между выборочными средними в текущем пространстве вложения.Хотя это приближение не может сохранить все статистические особенности основных распределений, мы обнаружили, что оно работает сравнимо с MMD в нашей задаче.Следующие уравнения формально описывают потерю адаптации функции INLINEFORM2: DISPLAYFORM0 Нормализация INLINEFORM0 применяется к средним представлениям INLINEFORM1 и INLINEFORM2, изменяя масштаб векторов таким образом, чтобы сумма всех записей была равна 1.Мы принимаем симметричную версию KL-дивергенции BIBREF12.как функция расстояния.Даны два вектора распределения INLINEFORM3, INLINEFORM4.Мыпопытаться использовать информацию в целевых данных с помощью целей обучения с полуконтролем, которые обучаются совместно с INLINEFORM0 и INLINEFORM1.Обычно, чтобы включить целевые данные, мы можем минимизировать потерю перекрестной энтропии между истинными распределениями меток INLINEFORM2 и прогнозируемыми распределениями меток INLINEFORM3 по целевым образцам.Проблема здесь в том, что INLINEFORM4 неизвестен, и поэтому мы пытаемся оценить его с помощью полуконтролируемого обучения.Для этой цели мы используем минимизацию энтропии и начальную загрузку.Позже мы покажем в наших экспериментах, что оба метода эффективны, и их совместное применение в целом дает наилучшие результаты.Минимизация энтропии. В этом методе INLINEFORM0 оценивается как прогнозируемое распределение меток INLINEFORM1 , которое является функцией INLINEFORM2 и INLINEFORM3 .Таким образом, потери можно записать как DISPLAYFORM0. Предположим, что несоответствие предметной области можно эффективно уменьшить за счет адаптации признаков, минимизируя штраф за энтропию, на обучение классификатора влияют немаркированные целевые данные и, как правило, максимизируются различия между целевыми примерами и решением. границы, повышая достоверность прогноза в целевой области.Самоансамблированная загрузка. Другой способ оценки INLINEFORM0 соответствует начальной загрузке.Идея состоит в том, чтобы оценить неизвестные метки как прогнозы модели, полученные в предыдущем раунде обучения.Начальная загрузка изучалась для адаптации предметной области в предыдущих работах BIBREF18, BIBREF19.Однако в их методах несоответствие предметной области не было явно минимизировано за счет адаптации функций.Применение начальной загрузки или других методов полуконтролируемого обучения в этом случае может ухудшить результаты, поскольку классификатор может плохо работать с целевыми данными. функция нарастания веса INLINEFORM7 INLINEFORM8 INLINEFORM9 каждая мини-партия INLINEFORM10 , INLINEFORM11 , INLINEFORM12 в INLINEFORM0 , INLINEFORM1 , INLINEFORM2 потери вычисленийINLINEFORM3 на INLINEFORM4 вычислить потери INLINEFORM5 на INLINEFORM6 вычислить потери INLINEFORM7 на INLINEFORM8 вычислить потери INLINEFORM9 на INLINEFORM10 INLINEFORM11 обновить параметры сети INLINEFORM0 , для INLINEFORM1 INLINEFORM2 INLINEFORM3 Вдохновившись методом ансамбля, предложенным в BIBREF21 , мы оцениваем INLINEFORM0 путем формирования ансамблевых предсказаний меток во время обучения, используя результаты в разные эпохи обучения.Убыток формулируется следующим образом:DISPLAYFORM0, где INLINEFORM0 обозначает оценочные метки, вычисленные на основе прогнозов ансамбля из разных эпох.Убыток отражается на всех документах.Он служит для начальной загрузки немаркированных целевых данных, а также служит в качестве регуляризации, которая способствует согласованности прогнозов сети в разные эпохи обучения.INLINEFORM1 обучается совместно с INLINEFORM2, INLINEFORM3 и INLINEFORM4.Алгоритм SECREF6 иллюстрирует общий процесс обучения предлагаемой структуры адаптивного полуконтролируемого обучения (DAS).В алгоритме SECREF6 INLINEFORM0 , INLINEFORM1 и INLINEFORM2 являются весами для балансировки эффектов INLINEFORM3 , INLINEFORM4 и INLINEFORM5 соответственно.INLINEFORM6 и INLINEFORM7 — постоянные гиперпараметры.Мы установили INLINEFORM8 как кривую Гаусса, чтобы увеличить вес от 0 до INLINEFORM9.Это делается для того, чтобы в начале обучения нарастание компонента потерь при начальной загрузке было достаточно медленным.После каждой эпохи обучения мы вычисляем INLINEFORM10, который обозначает прогнозы, сделанные сетью в текущую эпоху, а затем ансамблевый прогноз INLINEFORM11 обновляется как средневзвешенное значение выходных данных предыдущих эпох и текущей эпохи, при этом недавние эпохи имеют больший вес.Для создания оценочных меток INLINEFORM12 INLINEFORM13 преобразуется в вектор с одним горячим значением, где запись с максимальным значением устанавливается в единицу, а другие записи устанавливаются в нули.Загрузка самоансамбля — это обобщенная версия начальной загрузки, в которой используются только результаты предыдущего раунда обучения BIBREF18 , BIBREF19 .Прогноз ансамбля, вероятно, будет ближе к правильным, неизвестным меткам целевых данных.Мы оставили кодировщик функций INLINEFORM0 неуказанным, поэтому можно рассмотреть несколько вариантов.В нашей реализации мы используем однослойную структуру CNN из предыдущих работ BIBREF22, BIBREF4, поскольку было продемонстрировано, что она хорошо работает для задач классификации настроений.Учитывая документ проверки INLINEFORM1, состоящий из слов INLINEFORM2, мы начинаем с связывания каждого слова с непрерывным встраиванием слов BIBREF23.INLINEFORM3 из матрицы внедрения INLINEFORM4 , где INLINEFORM5 — размер словаря, а INLINEFORM6 — размерность внедрения.INLINEFORM7 обновляется совместно с другими параметрами сети во время обучения.Учитывая окно плотных вложений слов INLINEFORM8, слой свертки сначала объединяет эти векторы, чтобы сформировать вектор INLINEFORM9 длины INLINEFORM10, а затем выходной вектор вычисляется по уравнению ( EQREF11 ):DISPLAYFORM0 INLINEFORM0, INLINEFORM1 — это набор параметров кодировщика INLINEFORM2, который используется во всех окнах последовательности.INLINEFORM3 — это поэлементная нелинейная функция активации.Операция свертки может фиксировать локальные контекстные зависимости входной последовательности, а извлеченные векторы признаков аналогичны INLINEFORM4-граммам.После применения операции свертки ко всей последовательности мы получаем список скрытых векторов INLINEFORM5.Для получения окончательного векторного представления INLINEFORM6 входного документа применяется слой максимального пула по времени.Существующие наборы эталонных данных, такие как тест Amazon BIBREF0, обычно удаляют отзывы с нейтральными метками в обоих доменах.Это проблематично, поскольку информация метки целевого домена недоступна в настройках адаптации неконтролируемого домена.Более того, удаление нейтральных экземпляров может привести к смещению набора данных в пользу алгоритмов, основанных на максимальной марже, таких как наш, поскольку в результирующем наборе данных удалены все неопределенные метки, и остаются только примеры с высокой достоверностью.Поэтому мы сами создаем новые наборы данных.Результаты исходного теста Amazon качественно аналогичны, и для полноты мы представляем их в приложении SECREF6, поскольку в большинстве предыдущих работ сообщалось о результатах по нему.Небольшие наборы данных. Наш новый набор данных был получен на основе крупномасштабных наборов данных Amazon, опубликованных McAuley et al.(БИБРЕФ24).Он содержит четыре домена: Книга (BK), Электроника (E), Красота (BT) и Музыка (M).Каждый домен содержит два набора данных.Набор 1 содержит 6000 экземпляров с точно сбалансированными метками классов, а набор 2 содержит 6000 экземпляров, случайно выбранных из большого набора данных, сохраняя исходное распределение меток, которое, по нашему мнению, лучше отражает распределение меток в реальной жизни.Примеры в этих двух наборах не пересекаются.Подробная статистика сформированных наборов данных приведена в таблице TABREF9.Во всех наших экспериментах с мелкомасштабными наборами данных мы используем набор 1 исходного домена как единственный источник с информацией о метках настроений во время обучения и оцениваем обученную модель на наборе 1 целевого домена.Поскольку мы не можем контролировать распределение меток немаркированных данных во время обучения, мы рассматриваем две разные настройки: Настройка (1): только набор 1 целевого домена используется в качестве немаркированного набора.Это говорит нам о том, как метод работает в условиях, когда целевой домен имеет распределение меток, близкое к сбалансированному.Поскольку мы также оцениваем набор 1 целевого домена, это также считается трансдуктивным параметром.Настройка (2): Набор 2 как из исходного, так и из целевого домена используется как немаркированный набор.Поскольку набор 2 выбран непосредственно из миллионов обзоров, он лучше отражает реальное распределение настроений.Крупномасштабные наборы данных. Далее мы проводим эксперименты на четырех гораздо более крупных наборах данных: IMDB (I), Yelp2014 (Y), «Мобильный телефон» (C) и «Ребенок» (B).IMDB и Yelp2014 ранее использовались в BIBREF25, BIBREF26.Мобильный телефон и Ребенок взяты из крупномасштабного набора данных Amazon BIBREF24, BIBREF27.Подробная статистика представлена в таблице TABREF9.Мы храним все обзоры в исходных наборах данных и рассматриваем трансдуктивную настройку, в которой все целевые примеры используются как для обучения (без информации на этикетках), так и для оценки.Мы выполняем выборку, чтобы сбалансировать классы помеченных исходных данных в каждом мини-пакете INLINEFORM3 во время обучения.В идеале набор для разработки должен быть взят из того же дистрибутива, что и набор для тестирования.Однако в условиях адаптации домена без присмотра у нас нет никаких помеченных целевых данных на этапе обучения, которые можно было бы использовать в качестве набора для разработки.Во всех наших экспериментах для каждой пары доменов мы вместо этого выбираем 1000 примеров из обучающего набора исходного домена в качестве набора разработки.Мы обучаем сеть в течение фиксированного количества эпох, и модель с минимальной ошибкой классификации на этом наборе разработки сохраняется для оценки.Этот подход хорошо работает для большинства проблем, поскольку целевой домен должен вести себя как исходный домен, если разница доменов эффективно уменьшена.Другая проблема заключается в том, как выбрать значения для гиперпараметров.Если мы настроим INLINEFORM0 и INLINEFORM1 непосредственно на наборе разработки из исходного домена, скорее всего, для них обоих будет установлено значение 0, поскольку немаркированные целевые данные бесполезны для повышения точности внутри домена исходного домена.Другие модели нейронных сетей также имеют ту же проблему с настройкой гиперпараметров.Поэтому наша стратегия состоит в том, чтобы использовать набор разработки из целевого домена для оптимизации INLINEFORM2 и INLINEFORM3 для одной проблемы (например, мы делаем это только для E INLINEFORM4 BK) и фиксировать их значения для других проблем.Этот параметр предполагает, что у нас есть как минимум два помеченных домена, так что мы можем оптимизировать гиперпараметры, а затем исправить их для передачи в другие новые немаркированные домены.Мы инициализируем встраивание слов, используя 300-мерные векторы GloVe, предоставленные Пеннингтоном и др. (BIBREF28), которые были обучены на 840 миллиардах токенов из Common Crawl.Для каждой пары доменов словарный запас состоит из 10 000 наиболее часто встречающихся слов.Для слов в словаре, но не присутствующих в предварительно обученных внедрениях, мы инициализируем их случайным образом.Мы установили гиперпараметры кодера CNN в соответствии с предыдущими работами BIBREF22, BIBREF4 без специальной настройки наших наборов данных.Размер окна установлен на 3, а размер скрытого слоя — на 300.Нелинейная функция активации — Relu.Для регуляризации мы также следуем их настройкам и используем отсев с вероятностью, установленной на 0,5 для INLINEFORM0, перед подачей его на выходной слой INLINEFORM1, и ограничиваем INLINEFORM2-норму весового вектора INLINEFORM3, устанавливая его максимальную норму равным 3. масштабных наборов данных и эталонного теста Aamzon, INLINEFORM0 и INLINEFORM1 установлены на 200 и 1 соответственно, настроены на набор разработки задачи E INLINEFORM2 BK с настройкой 1.В крупномасштабных наборах данных INLINEFORM3 и INLINEFORM4 установлены на 500 и 0,2 соответственно, настроены на I INLINEFORM5 Y. Мы используем кривую Гаусса INLINEFORM6 для увеличения веса потерь при начальной загрузке INLINEFORM7 от 0 до INLINEFORM8, где INLINEFORM9 обозначает максимальное количество эпох обучения.Для всех экспериментов тренируем 30 эпох.Мы установили INLINEFORM10 на 3 и INLINEFORM11 на 0,5 для всех экспериментов.Размер пакета установлен на 50 в небольших наборах данных и в тесте Amazon.Мы увеличиваем размер пакета до 250 для крупномасштабных наборов данных, чтобы уменьшить количество итераций.Для всех экспериментов используется оптимизатор RMSProp со скоростью обучения 0,0005.Мы сравниваем со следующими базовыми показателями: (1) Наивный: неадаптивный к домену базовый вариант с представлениями в виде набора слов и классификатором SVM, обученным в исходном домене. (2) mSDABIBREF7 :Это современный метод, основанный на функциях дискретного входа.1000 основных функций набора слов сохраняются в качестве основных функций.Мы установили количество сложенных слоев равным 3, а вероятность повреждения — 0,5. (3) NaiveNN:Это неадаптивная к домену CNN, обученная на исходном домене, которая является вариантом нашей модели, в которой INLINEFORM0 , INLINEFORM1 и INLINEFORM2 устанавливаются в нули.(4)AuxNN BIBREF4: это нейронная модель, использующая вспомогательные задачи, которая достигла самых современных результатов в междоменной классификации настроений.Кодировщик предложений, используемый в этой модели, такой же, как и наш.(5) ADAN BIBREF16 :Этот метод использует состязательное обучение для уменьшения разницы в представлении между доменами.В оригинальной статье в качестве кодера используется простая сеть прямого распространения.Для справедливого сравнения мы заменим его нашим кодировщиком на основе CNN.Мы обучаем 5 итераций дискриминатора на каждую итерацию кодировщика и классификатора настроений, как предложено в их статье. (6) MMD: MMD широко используется для минимизации несоответствия доменов на изображениях.В этих работах BIBREF9, BIBREF13 варианты глубоких CNN используются для кодирования изображений, а MMD нескольких слоев совместно минимизируются.В НЛП добавление большего количества слоев CNN может быть не очень полезным, и поэтому модели из задач, связанных с изображениями, не могут быть напрямую применены к нашей проблеме.Для сравнения с методом на основе MMD мы обучаем модель, которая совместно минимизирует потери классификации INLINEFORM0 в исходном домене и MMD между INLINEFORM1 и INLINEFORM2.Для вычисления MMD мы используем гауссовскую RBF, которая является распространенным выбором для характеристического ядра.Помимо приведенных выше базовых показателей, мы также показываем результаты различных вариантов нашей модели.DAS, как показано в алгоритме SECREF6, обозначает нашу полную модель.DAS-EM обозначает модель только с минимизацией энтропии для полуконтролируемого обучения (установите INLINEFORM0).DAS-SE обозначает модель только с загрузкой самоансамбля для полуконтролируемого обучения (установите INLINEFORM1).FANN (нейронная сеть с адаптацией функций) обозначает модель без полуконтролируемого обучения (установите как INLINEFORM2, так и INLINEFORM3 равные нулю). На рисунке FigREF17 показано сравнение результатов адаптации (точные числовые числа см. в приложении SECREF7).Мы сообщаем о точности классификации на небольшом наборе данных.Для крупномасштабного набора данных вместо этого используется макрос-F1, поскольку распределение меток в тестовом наборе крайне несбалансировано.Основные наблюдения резюмируются следующим образом.(1) И DAS-EM, и DAS-SE в большинстве случаев работают лучше по сравнению с ADAN, MDD и FANN, в которых выполняется только адаптация функций.Это демонстрирует эффективность предлагаемой системы адаптивного полуконтролируемого обучения.В большинстве случаев DAS-EM более эффективен, чем DAS-SE, а полная модель DAS, в которой оба метода используются совместно, в целом имеет наилучшие характеристики.(2) При сравнении двух настроек в мелкомасштабном наборе данных все адаптивные к предметной области методы обычно работают лучше при настройке 1.В варианте 1 целевые примеры сбалансированы по классам, что может обеспечить более разнообразные функции, связанные с мнениями.Однако при рассмотрении неконтролируемой адаптации домена мы не должны предполагать распределение меток немаркированных данных.Таким образом, необходимо проводить эксперименты с использованием наборов данных, которые отражают реальное распределение настроений, как мы это делали в настройке2 и крупномасштабном наборе данных.К сожалению, это игнорируется в большинстве предыдущих работ.(3) Встраивание слов очень полезно, поскольку мы видим, что даже NaiveNN может существенно превосходить mSDA в большинстве задач.Чтобы увидеть эффект только полуконтролируемого обучения, мы также проводим эксперименты, устанавливая INLINEFORM0, чтобы исключить эффект адаптации функций.И минимизация энтропии, и начальная загрузка в этом случае работают очень плохо.Минимизация энтропии дает почти случайные прогнозы с точностью ниже 0,4, а результаты начальной загрузки также намного ниже по сравнению с NaiveNN.Это говорит о том, что компонент адаптации функций имеет важное значение.Без этого усвоенные целевые представления будут менее значимыми и различительными.Применение полуконтролируемого обучения в этом случае может ухудшить результаты.На рисунке FigREF23 мы показываем изменение точности в зависимости от процента немаркированных данных, используемых для обучения трем конкретным задачам при настройке 1.Значение INLINEFORM0 обозначает точность NaiveNN, которая не использует никаких целевых данных.Для DAS мы наблюдаем нелинейную тенденцию роста, при которой точность вначале быстро повышается, а затем постепенно стабилизируется.Для других методов эта тенденция менее очевидна, а добавление большего количества неразмеченных данных иногда даже ухудшает результаты.Этот вывод еще раз предполагает, что предлагаемый подход может лучше использовать информацию из немаркированных данных.Мы также проводим эксперименты в условиях, когда доступно небольшое количество помеченных целевых примеров.На рисунке FigREF27 показано изменение точности в зависимости от количества помеченных целевых примеров, добавленных для обучения.Мы можем наблюдать, что DAS по-прежнему более эффективен в этих условиях, в то время как различия в производительности по сравнению с другими методами постепенно уменьшаются с увеличением количества помеченных целевых примеров.В этом подразделе мы стремимся лучше понять DAS, анализируя фильтры CNN, связанные с настроениями.Для этого: 1) сначала мы выбираем список наиболее связанных фильтров CNN для прогнозирования каждой метки настроения (положительное, отрицательное нейтральное).Эти фильтры можно идентифицировать по изученным весам INLINEFORM0 выходного слоя INLINEFORM1.Более высокий вес указывает на более сильную связь.2) Напомним, что в нашей реализации каждый фильтр CNN имеет размер окна 3 при активации Relu.Таким образом, мы можем представить каждый выбранный фильтр как ранжированный список триграмм с наивысшими значениями активации.Мы анализируем фильтры CNN, изученные NaiveNN, FANN и DAS соответственно, в задаче E INLINEFORM0 BT при настройке 1.Мы ориентируемся на E INLINEFORM1 BT для изучения, потому что электроника и красота — это очень разные области, и каждая из них имеет разнообразный набор выражений чувств, специфичных для конкретной области.Для каждого метода мы определяем 10 наиболее связанных фильтров для каждой метки настроений и извлекаем верхние триграммы каждого выбранного фильтра как в исходном, так и в целевом домене.Поскольку для обучения используются помеченные исходные примеры, мы обнаружили, что фильтры, изученные тремя методами, фиксируют схожие выражения в исходном домене, содержащие как инвариантные, так и специфичные для предметной области триграммы.В целевом домене DAS фиксирует больше выражений, специфичных для цели, по сравнению с двумя другими методами.Из-за ограниченности места в таблице TABREF34 мы представляем лишь небольшую часть фильтров, связанных с позитивным настроением.Полные результаты представлены в Приложении SECREF8.Из таблицыTABREF34, мы можем наблюдать, что фильтры, изученные NaiveNN, почти не способны улавливать выражения настроений, специфичные для конкретной цели, в то время как FANN способен улавливать ограниченное количество слов, специфичных для целевой цели, таких как «чистый» и «запах».Фильтры, изученные DAS, более адаптивны к предметной области и улавливают разнообразные выражения настроений в целевом домене.В этой работе мы предлагаем DAS, новую структуру, которая совместно выполняет адаптацию функций и полуконтролируемое обучение.С помощью многочисленных экспериментов мы продемонстрировали, что DAS может лучше использовать немаркированные данные и добиться существенных улучшений по сравнению с базовыми методами.Мы также показали, что адаптация функций является важным компонентом, без которого полуконтролируемое обучение не может функционировать должным образом.Предлагаемая структура потенциально может быть адаптирована к другим задачам адаптации предметной области, что является целью наших будущих исследований.В большинстве предыдущих работ BIBREF0, BIBREF1, BIBREF6, BIBREF7, BIBREF29 проводились эксперименты на тесте Amazon, выпущенном Blitzer et al.(БИБРЕФ0).Набор данных содержит 4 разных домена: книги (B), DVD-диски (D), электроника (E) и кухня (K).Следуя экспериментальным настройкам, мы рассматриваем задачу бинарной классификации, чтобы предсказать, будет ли отзыв положительным или отрицательным в целевом домене.Каждый домен состоит из 1000 положительных и 1000 отрицательных отзывов соответственно.Мы также разрешаем использовать 4000 неразмеченных отзывов как для исходного, так и для целевого домена, из которых положительные и отрицательные отзывы также сбалансированы, следуя настройкам в предыдущих работах.Мы создаем 12 задач междоменной классификации настроений и разделяем размеченные данные в каждом домене на обучающий набор из 1600 обзоров и тестовый набор из 400 обзоров.Классификатор обучается на обучающем наборе исходного домена и оценивается на тестовом наборе целевого домена.Результаты сравнения приведены в таблице TABREF37.Из-за ограничения объема в статье мы показываем результаты только на рисунках.Все числовые значения, использованные для построения рисунка FigREF17, представлены в таблице TABREF38.Мы можем наблюдать, что DAS-EM, DAS-SE и DAS достигают существенных улучшений по сравнению с базовыми методами при различных настройках.Как упоминалось в разделе SECREF36, мы проводим анализ фильтров CNN на NaiveNN, FANN и DAS.Для каждого метода мы определяем 10 наиболее связанных фильтров для меток положительных, отрицательных и нейтральных настроений соответственно, а затем представляем каждый выбранный фильтр в виде ранжированного списка триграмм с наивысшими значениями активации.Таблица TABREF39, TABREF40,TABREF41 на следующих страницах иллюстрирует триграммы из целевой области (красота), захваченные выбранными фильтрами, изученными на E INLINEFORM0 BT для каждого метода.Мы можем заметить, что по сравнению с NaiveNN и FANN, DAS способен захватывать более разнообразный набор соответствующих выражений настроений в целевом домене для каждой метки настроений.Это наблюдение согласуется с нашей мотивацией.Поскольку NaiveNN, FANN и другие базовые методы обучают классификатор настроений исключительно в исходном домене, обученный кодировщик не может создавать отличительные признаки в целевом домене.DAS решает эту проблему, совершенствуя классификатор в целевой области с помощью полуконтролируемого обучения, и общая цель заставляет кодировщик изучать представления объектов, которые не только инвариантны к предметной области, но и различаются в обеих областях. | Мы рассматриваем задачу междоменной классификации настроений, где классификатор настроений должен быть изучен из исходного домена и обобщен на целевой домен. Наш подход явно минимизирует расстояние между исходным и целевым экземплярами во встроенном пространстве объектов. Сведя к минимуму разницу между исходным и целевым объектом, мы затем используем дополнительную информацию из целевой области, консолидируя идею полуконтролируемого обучения, для чего мы совместно используем две регуляризации — минимизацию энтропии и начальную загрузку самоансамбля — чтобы включить немаркированные целевые данные для уточнения классификатора. Наши экспериментальные результаты показывают, что предлагаемый подход может лучше использовать немаркированные данные из целевой области и добиться существенных улучшений по сравнению с базовыми методами в различных экспериментальных условиях. | 5,090 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Политика генеративного диалога для задачно-ориентированных диалоговых систем. Диалоговая система, ориентированная на задачи, является важным инструментом для создания персональных виртуальных помощников, которые могут помочь пользователям выполнять большинство повседневных задач, взаимодействуя с устройствами на естественном языке.Это привлекает все большее внимание исследователей, и в этой области предложено множество работ BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4, BIBREF5, BIBREF6, BIBREF7. Существующие целенаправленные диалоговые системы обычно состоят из четырех компонентов: (1) естественный понимание языка (NLU), оно пытается определить намерения пользователя; (2) трекер состояния диалога (DST), он отслеживает цели и ограничения пользователя на каждом шагу; (3) разработчик политики диалога (DP), его цель – сгенерировать следующее доступное действие диалога; и (4) генератор естественного языка (NLG), он генерирует ответ на естественном языке на основе диалогового действия.Среди четырех компонентов разработчик политики диалога играет ключевую роль в эффективном завершении диалога, поскольку он решает, какое следующее действие диалога будет выполнено.Насколько нам известно, разработчики политики диалога в большинстве существующих систем диалога, ориентированных на задачи, просто используют классификаторы предопределенных действий для получения политики диалога BIBREF0, BIBREF2, BIBREF4, BIBREF8, BIBREF9.Методы обучения политике диалога на основе классификации могут назначать либо только действие диалога и соответствующие ему параметры BIBREF10, BIBREF2, BIBREF0, либо несколько действий диалога без соответствующих им параметров для действия диалога BIBREF11.Однако все эти существующие методы не могут одновременно получить несколько диалоговых действий и соответствующие им параметры для диалогового действия.Интуитивно более разумно будет сконструировать несколько диалоговых актов и соответствующие им параметры для диалогового действия одновременно.Например, можно показать, что в наборе данных DSTC2 49,4% ходов, а в наборе данных Maluuba 61,5% ходов имеют несколько диалоговых действий и соответствующие им параметры в качестве диалогового действия.Если одновременно можно получить несколько диалоговых действий и соответствующие им параметры, окончательный ответ ориентированных на задачу диалоговых систем станет более точным и эффективным.Например, как показано на рисунке FigREF3, пользователь хочет получить название дешевого французского ресторана.Правильная политика диалога должна генерировать три действия в текущем ходе диалога: предложение(имя=имя_слот),информировать(еда=французский) и информировать(еда=дешево).Таким образом, настоящая мысль пользователя может быть такой: «name_slot — дешевый французский ресторан».В случае потери предложения действия система может сгенерировать ответ типа «Есть несколько французских ресторанов», что будет далеко от цели пользователя.Чтобы решить эту проблему, мы предлагаем модель политики генеративного диалога (ВВП), рассматривая проблему обучения политике диалога как задачу оптимизации последовательности.Предлагаемая модель генерирует серию действий и соответствующие им параметры с помощью изученной политики диалога.В частности, предлагаемая нами модель использует рекуррентную нейронную сеть (RNN) в качестве декодера действий для построения политики диалога вместо традиционных классификаторов.Механизм внимания используется, чтобы помочь декодеру декодировать действия диалога и соответствующие им параметры, а затем генератор естественного языка на основе шаблонов использует результаты средства формирования политики диалога, чтобы выбрать подходящий шаблон предложения в качестве окончательного ответа пользователю.Обширные эксперименты, проведенные на двух эталонных наборах данных, подтверждают эффективность предложенного нами метода.Наш вклад в эту работу тройной.Существующие методы не могут одновременно создавать несколько диалоговых актов и соответствующие им параметры.В этой статье мы предлагаем новую модель политики генеративного диалога для решения этой проблемы.Обширные эксперименты показывают, что предлагаемая модель значительно превосходит современные базовые показатели по двум критериям.Мы публично публикуем исходный код.Обычно существующие системы диалога, ориентированные на задачи, используют конвейер из четырех отдельных модулей: понимание естественного языка, отслеживание диалоговых убеждений, политика диалога и генератор естественного языка.Среди этих четырех модулей лицо, определяющее политику диалога, играет ключевую роль в системах диалога, ориентированных на задачи, которые генерируют следующее действие диалога.Насколько нам известно, почти все существующие подходы получают политику диалога, используя классификаторы всех предопределенных действий диалога BIBREF12, BIBREF13.Обычно существует два типа методов обучения политике диалога.Конструируется акт диалога и соответствующие ему параметры диалогового действия.Например, BIBREF0 создает простой классификатор для всех предопределенных диалоговых действий.BIBREF2 создает сложный классификатор для некоторых предопределенных диалоговых действий, кроме того, BIBREF2 добавляет два действия для каждого параметра: одно для информирования о его значении, а другое для его запроса.Другой получает политику диалога, используя классификацию по нескольким меткам для рассмотрения нескольких диалоговых действий без их параметров.BIBREF11 выполняет многоклассовую классификацию по нескольким меткам для изучения политики диалога, а затем можно принять решение о нескольких действиях на основе порогового значения.На основе этих классификаторов обучение с подкреплением можно использовать для дальнейшего обновления политики диалога задачно-ориентированных диалоговых систем BIBREF3, BIBREF14, BIBREF9. В реальной сцене правильное диалоговое действие обычно состоит из нескольких диалоговых действий и соответствующих им параметров.Однако существующим политикам в области диалога, основанным на классификациях, очень сложно достичь этой цели.Таким образом, в этой статье мы предлагаем новый создатель политики генеративного диалога для решения этой проблемы, рассматривая проблему обучения политике диалога как задачу оптимизации последовательности.Модель Seq2Seq была впервые представлена BIBREF15 для статистического машинного перевода.Он использует две рекуррентные нейронные сети (RNN) для решения проблемы сопоставления последовательностей.Один, называемый кодировщиком, кодирует высказывание пользователя в плотный вектор, представляющий его семантику, другой, называемый декодером, декодирует этот вектор в целевое предложение.Теперь платформа Seq2Seq уже используется в ориентированных на задачи диалоговых системах, таких как BIBREF4 и BIBREF1, и демонстрирует высокую производительность.В модели Seq2Seq, учитывая высказывание пользователя $Q=(x_1, x_2, ..., x_n)$, кодер сжимает его в вектор контекста $C$ и затем использует декодер для генерации ответа $R=(y_1 , y_2, ..., y_m)$ пословно путем максимизации вероятности генерации $R$ при условии $Q$. Целевую функцию Seq2Seq можно записать так: В частности, кодировщик RNN создает вектор контекста $C$, выполняя приведенные ниже вычисления: $h_t$ — это скрытое состояние кодера RNN на временном шаге $t$ и $f$. — это нелинейное преобразование, которое может представлять собой блок долговременной памяти LSTM BIBREF16 или вентилируемый рекуррентный блок GRU BIBREF15.В этой статье мы реализуем $f$ с помощью GRU. Декодер RNN генерирует каждое слово в ответ, обусловленное вектором контекста $C$.Распределение вероятностей слов-кандидатов на каждом временном шаге $t$ рассчитывается как: $s_t$ — это скрытое состояние декодера RNN на временном шаге $t$, а $y_{t-1}$ — это сгенерированное слово в ответе. в момент времени $t-1$, рассчитанный с помощью операций softmax.Было доказано, что механизмы внимания BIBREF17 эффективно улучшают качество генерации структуры Seq2Seq.В Seq2Seq с вниманием каждому $y_i$ соответствует вектор контекста $C_i$, который вычисляется динамически.Это средневзвешенное значение всех скрытых состояний кодера RNN.Формально $C_i$ определяется как $C_i=\sum _{j=1}^{n} \alpha _{ij}h_j$, где $\alpha _{ij}$ определяется выражением: где $s_{i -1}$ — это последнее скрытое состояние декодера, $\eta $ часто реализуется как многослойный перцептрон (MLP) с tanh в качестве функции активации.На рисунке FigREF13 показана общая системная архитектура предлагаемой модели ВВП.Наша модель содержит пять основных компонентов: (1) кодировщик высказываний; (2) диалоговый трекер убеждений; (3) разработчик политики диалога; (4) база знаний; (5) генератор естественного языка на основе шаблонов.Далее мы подробно опишем каждый компонент предлагаемой нами модели ВВП.Учитывая высказывание пользователя $U_t$ на этапе $t$ и контекст диалога $C_{t-1}$, который содержит результат средства отслеживания диалоговых убеждений на этапе $t-1$, ориентированная на задачу диалоговая система должна сгенерировать намерения пользователя $C_t$ с помощью средства отслеживания убеждений в диалоге, а затем использует эту информацию для получения результата запроса к базе знаний $k_t\in \mathbb {Р}^к$. Затем модели необходимо сгенерировать следующее диалоговое действие $A_t$ на основе $k_t$, $U_t$ и $C_t$. Генератор естественного языка предоставляет ответ на основе шаблона $R_t$ в качестве окончательного ответа, используя $A_t$. $U_t$ и $C_t$ — это последовательности, $k_t$ — это горячий вектор, представляющий количество результатов запроса.В качестве базовых показателей в этой статье $A_t$ — это результат классификации следующего действия диалога, но в предлагаемой нами модели это последовательность, содержащая несколько действий и соответствующие им параметры.Двунаправленный GRU используется для кодирования высказывания пользователя $U_t$, ответа последнего хода $R_{t-1}$, сделанного системой, и контекста диалога $C_{t-1}$ в непрерывное представление.Вектор генерируется путем объединения последних прямых и обратных состояний GRU.$U_t = (w_1, w_2, ..., w_{T_m})$ — это высказывание пользователя на ходу $t$. $C_{t-1}=(c_1, c_2, ..., c_{T_n})$ — контекст диалога, созданный трекером убеждений диалога на этапе $t-1$.$R_{t-1}$ — это ответ нашей ориентированной на задачу диалоговой системы на последнем этапе.Затем слова $[C_{t-1}, R_{t-1}, U_t]$ сначала отображаются в пространство внедрения и далее служат входными данными каждого шага для двунаправленного GRU.Пусть $n$ обозначает количество слов в последовательности $[C_{t-1}, R_{t-1}, U_t]$.$\overrightarrow{h_{t^{\prime }}^u}$ и $\overleftarrow{h_{t^{\prime }}^u}$ представляют выходные данные состояния GRU в прямом и обратном направлении на временном шаге $t^ {\простой }$.Выходные данные кодировщика временного шага $i$ обозначаем как $\overline{h_i^u}$.где $e([C_{t-1}, R_{t-1}, U_t])$ — вложение входной последовательности , $d_h$ — скрытый размер ГРУ.$H_u$ содержит скрытое состояние кодировщика каждого временного шага, которое будет использоваться механизмом внимания в создателе политики диалога.Трекер состояния диалога сохраняет состояние разговора и собирает цели пользователя во время диалога.Недавние работы успешно представляют этот компонент как дискриминационные классификаторы.BIBREF5 подтвердил, что генерация — лучший способ смоделировать трекер состояния диалога.В частности, мы используем GRU в качестве генератора для декодирования $C_t$ текущего хода.Чтобы точно зафиксировать информацию о намерениях пользователя, базовый механизм внимания рассчитывается, когда декодер декодирует $C_t$ на каждом этапе, что аналогично уравнению.(DISPLAY_FORM12).где $m$ — длина $C_t$, $e(y_i)$ — встраивание токена, $d_h$ — скрытый размер GRU и скрытое состояние на временном шаге $i$ RNN в трекере состояний диалога обозначается как $h_i^d$. Декодированный токен на шаге $i$ обозначается как $y_i^d$. База знаний — это база данных, в которой хранится информация о связанной задаче.Например, при бронировании ресторана в базе знаний хранится информация обо всех ресторанах, такая как местоположение и цена.После отслеживания диалоговых убеждений $C_t$ будет использоваться в качестве ограничений для поиска результатов в базе знаний.Тогда горячий вектор $k_t$ будет создан, когда система получит количество результатов.Результат поиска $k_t$ имеет большое влияние на политику диалога.Например, если результат имеет несколько совпадений, система должна запросить у пользователя дополнительные ограничения.На практике пусть $k_t$ будет одноразовым вектором из 20 измерений, представляющим количество результатов запроса.Тогда $k_t$ будет использоваться как сигнал для диалога с разработчиком политики.В ориентированных на задачи диалоговых системах контролируемая классификация является простым решением для моделирования политики диалога.Однако мы видим, что классификация не может содержать достаточно информации для моделирования политики диалога.Генеративный подход — это еще один способ смоделировать разработчика политики диалога для ориентированных на задачи диалоговых систем, который генерирует следующие действия диалога и соответствующие им параметры на основе контекста диалога слово за словом.Таким образом, генеративный подход преобразует проблему обучения политике диалога в задачу оптимизации последовательности.Разработчик политики диалога генерирует следующее действие диалога $A_t$ на основе $k_t$ и $[H_u, H_d]$.Предлагаемая нами модель использует GRU в качестве декодера действий для декодирования действий и их параметров для ответа.В частности, на этапе $i$ для декодирования $y_i^p$ $A_t$ декодер GRU использует встраивание $y_{i-1}^p$ для генерации скрытого вектора $h_i^p$. Рассчитывается базовый механизм внимания, где $e$ — встраивание токена, $c_u$ — вектор контекста входного высказывания, а $c_d$ — вектор контекста трекера состояния диалога.$h_i^p$ — это скрытое состояние ГРУ в диалоге с разработчиком политики на временном шаге $i$.где$y_i^p$ — это токен, декодированный на временном шаге $i$.А окончательные результаты диалога политик обозначает как $A_t$, а $k$ — его длину.В предлагаемой нами модели разработчик политики диалога может рассматриваться как декодер модели seq2seq, обусловленной $[C_{t-1},R_{t-1},U_t]$ и $k_t$. После получения действия диалога $A_t$ обученным разработчиком политики диалога, ориентированная на задачи диалоговая система должна генерировать соответствующий ответ $R_t$ для пользователей.Мы создаем генератор естественного языка, используя шаблонные предложения.Для каждого набора данных мы извлекаем все ответы системы, затем вручную модифицируем ответы, чтобы построить шаблоны предложений для ориентированных на задачи диалоговых систем.В предлагаемой нами модели последовательность действий и параметры $A_t$ будут использоваться для поиска подходящего шаблона.Однако базовые показатели на основе классификации используют категории действий и соответствующие им параметры для поиска соответствующего шаблона.В обучении с учителем, поскольку предлагаемая нами модель построена по принципу seq2seq, стандартная перекрестная энтропия принимается в качестве нашей целевой функции для обучения средства отслеживания убеждений в диалоге и лица, определяющего политику диалога.После контролируемого обучения политику диалога можно дополнительно обновить с помощью обучения с подкреплением.В контексте обучения с подкреплением декодер диалога, определяющего политику, можно рассматривать как сеть политик, обозначаемую как $\pi _{\theta }(y_j)$ для декодирования $y_j$, $\theta $ — параметры декодер.Соответственно, скрытое состояние, созданное GRU, является соответствующим состоянием, а выбор текущего токена $y_j$ — действием.Функция вознаграждения также очень важна для обучения с подкреплением при декодировании каждого токена.Чтобы побудить нашего политика генерировать правильные действия и соответствующие им параметры, мы устанавливаем функцию вознаграждения следующим образом: как только действия диалога и их параметры декодируются правильно, награда равна 2; в противном случае награда равна -5; правильно расшифрована только метка диалогового акта, но неправильные параметры, награда равна 1; $\lambda$ — параметр затухания.Более подробная информация представлена в разделе SECREF41.В предложенной нами модели вознаграждение можно получить только по окончании декодирования $A_t$. Чтобы получить вознаграждение на каждом этапе декодирования, мы выбираем некоторые результаты $A_t$ после выбора $y_j$, а вознаграждение $y_j$ устанавливается как среднее из всех вознаграждений выбранных результатов.Чтобы гарантировать стабильность производительности модели на этапе тонкой настройки обучения с подкреплением, мы замораживаем параметры высказываний пользователя и средства отслеживания убеждений в диалоге, только параметры политика диалога будут оптимизированы с помощью обучения с подкреплением.Алгоритм градиента политики REINFORCE BIBREF18 используется для предварительно обученного диалога политика: где $m$ — длина декодированного действия.Целевую функцию $J$ можно оптимизировать методом градиентного спуска.Мы оцениваем эффективность предлагаемой модели по трем аспектам: (1) точность системы отслеживания состояния диалога, она направлена на то, чтобы показать влияние системы отслеживания состояния диалога на разработчика политики диалога; (2) точность политики диалога, она направлена на объяснение эффективности различных методов построения политики диалога; (3) качество окончательного ответа: он призван объяснить влияние политики диалога на окончательный ответ диалога.Метрики оценки перечислены следующим образом: BPRA: Точность убеждения на ответ (BPRA) проверяет способность генерировать правильные намерения пользователя во время диалога.Эта метрика используется для оценки точности средства отслеживания диалоговых убеждений BIBREF1.APRA: Точность действий на ответ (APRA) оценивает точность действий диалога за ход, генерируемых разработчиком политики диалога.В качестве исходных показателей APRA оценивает точность классификации лица, определяющего политику диалога.Но наша модель на самом деле генерирует каждый отдельный токен действий, и мы считаем прогноз правильным только в том случае, если каждый токен выходных данных модели соответствует соответствующему токену в основной истине.СИНИЙ БИБРЕФ19:Метрика оценивает качество окончательного ответа, сгенерированного генератором естественного языка.Метрика обычно используется для измерения производительности ориентированной на задачи диалоговой системы.Мы также выбираем следующие метрики для оценки эффективности обучения модели:$\mathbf {Time_{full}}$: время обучения всей модели, что важно для отраслевых настроек.$\mathbf {Time_{DP}} $: Время для обучения разработчиков политики диалога использованию системы диалога, ориентированной на выполнение задач.Мы используем набор данных DSTC2 BIBREF20 и набор данных Maluuba BIBREF21 для оценки предлагаемой нами модели.Оба они являются эталонными наборами данных для построения ориентированных на задачи диалоговых систем.В частности, DSTC2 представляет собой набор человеко-машинных данных в единой области поиска ресторанов.Maluuba — это очень сложный набор данных «человек-человек» в области бронирования путешествий, который содержит больше слотов и значений, чем DSTC2.Подробная информация о слотах в каждом наборе данных показана в таблице TABREF34. Для сравнения мы выбрали два современных базовых сценария и их варианты. E2ECMBIBREF11: В программе «Разработчик политики диалога» используется классическая классификация шаблонов скелетных предложений.В нашей реализации мы создаем несколько двоичных классификаций для каждого действия для поиска шаблона предложения в соответствии с работой, предложенной BIBREF11.CDM BIBREF10:Этот подход разрабатывает группу классификаций (две многоклассовые классификации и несколько бинарных классификаций) для моделирования политики диалога.E2ECM+RL:Он точно настраивает параметры классификации политики диалога с помощью REINFORCE BIBREF18.CDM+RL: Он точно настраивает классификацию действия и соответствующие параметры с помощью REINFORCE BIBREF18. Чтобы проверить производительность политика диалога, кодировщика высказываний и диалога. трекер убеждений в нашей предлагаемой модели и базовые показатели одинаковы, отличается только создатель политики диалога.Для всех моделей скрытый размер средства отслеживания диалогов и кодировщика высказываний составляет 350, а размер встраивания $d_{emb}$ установлен на 300.Для предложенной нами модели скрытый размер декодера в диалоге политика составляет 150.Размер словаря $|V|$ составляет 540 для DSTC2 и 4712 для Maluuba.А размер $k_t$ установлен на 20.Оптимизатор Адама BIBREF22 используется для обучения наших моделей и базовых показателей со скоростью обучения 0,001 для контролируемого обучения и 0,0001 для обучения с подкреплением.При обучении с подкреплением параметр затухания $\lambda$ устанавливается равным 0,8.Спад веса установлен на 0,001.И ранняя остановка выполняется на развивающем наборе.Экспериментальные результаты предлагаемой модели и исходные условия будут проанализированы со следующих аспектов.Результаты BPRA: Как показано в таблице TABREF35, большинство моделей имеют схожие характеристики BPRA на этих двух наборах данных, что может гарантировать последовательное воздействие на разработчиков политики диалога.Все модели очень хорошо работают в BPRA в наборе данных DSTC2.В наборе данных Малууба BPRA уменьшается из-за сложных доменов.Мы можем заметить, что BPRA CDM немного хуже, чем другие модели в наборе данных Maluuba, причина в том, что создатель политики диалога CDM содержит множество классификаций и имеет большие потери, чем другие модели, из-за сложных областей, что влияет на обучение диалога. трекер убеждений.Результаты APRA: По сравнению с базовыми показателями ВВП демонстрирует наилучшие показатели в APRA по двум наборам данных.Можно отметить, что мы не сравниваем базовый уровень E2ECM в APRA.E2ECM использует только простой классификатор для распознавания меток действий и игнорирует информацию о параметрах.В нашем эксперименте APRA E2ECM немного лучше нашего метода.Учитывая отсутствие параметров актов, это несправедливо по отношению к нашему методу ВВП.Кроме того, базовый план МЧР учитывает параметры закона.Но ВВП намного лучше, чем CDM, в контролируемом обучении и обучении с подкреплением.Результаты BLEU: ВВП значительно превосходит базовые показатели BLEU.Как упоминалось выше, E2ECM на самом деле немного лучше, чем ВВП в APRA.Но на самом деле мы можем обнаружить, что качество языка ответа, генерируемого GDP, все еще лучше, чем E2ECM, что доказывает, что отсутствие достаточной информации о параметрах затрудняет поиск подходящего шаблона предложения в NLG.Можно обнаружить, что BLEU всех моделей очень плохой в наборе данных Maluuba.Причина в том, что Maluuba представляет собой набор данных диалога, ориентированный на выполнение задач между людьми, высказывания очень гибкие, генератору естественного языка для всех методов сложно генерировать точные высказывания на основе контекста.А DSTC2 — это набор данных диалога человека и машины.Реакция очень регулярная, поэтому эффективность NLG будет лучше, чем у Maluuba.Но, судя по результатам, ВВП по-прежнему лучше, чем базовые показатели набора данных Малуубы, что также подтверждает, что предлагаемый нами метод более точен при моделировании политики диалога в сложных областях, чем методы, основанные на классификации.Время и размер модели:Чтобы получить более точную и полную политику диалога для ориентированных на задачи диалоговых систем, предлагаемая модель имеет больше параметров для лица, определяющего политику диалога, чем базовые уровни.Как показано на рисунке FigREF44, E2ECM имеет минимальные параметры политики диалога из-за простой классификации.Для обучения требуется минимальное время, но производительность E2ECM плохая.Количество параметров в модели CDM немного больше, чем в E2ECM.Однако, поскольку оба они являются методами классификации, все они теряют некоторую важную информацию о политике диалога.Таким образом, из результатов экспериментов мы видим, что качество политики диалога CDM такое же плохое, как и E2ECM.Число параметров политического диалога в модели ВВП намного больше, чем базовые уровни.Хотя предлагаемой модели требуется больше времени для оптимизации с помощью обучения с учителем и обучения с подкреплением, ее производительность намного выше, чем у всех базовых показателей.Таблица TABREF43 иллюстрирует пример предлагаемой нами модели и базовых показателей на наборе данных DSTC2.В этом примере цель пользователя — найти дешевый ресторан в восточной части города.На текущем этапе пользователь хочет получить адрес ресторана.E2ECM выбирает информацию, и предложение действует точно, но отсутствие параметров информации приводит к отклонению конечного результата от цели пользователя.CDM успешно формирует параметры предложения, но отсутствие информации также приводит к плохому результату.Напротив, предлагаемая модель ВВП может генерировать все действия и соответствующие им параметры как диалоговое действие.Интересно, что окончательный результат ВВП точно такой же, как и основная истина, которая подтверждает, что предлагаемая модель лучше, чем современные базовые показатели.В этой статье мы предлагаем новую модель под названием ВВП.Предлагаемая нами модель рассматривает моделирование политики диалога как генеративную задачу, а не дискриминативную задачу, которая может содержать больше информации для моделирования политики диалога.Мы оцениваем ВВП на основе двух эталонных наборов данных диалога, ориентированных на выполнение задач.Обширные эксперименты показывают, что ВВП превосходит существующие методы, основанные на классификации, как по точности действий, так и по BLEU. | Растет спрос на ориентированные на задачи диалоговые системы, которые могут помочь пользователям в различных действиях, таких как бронирование билетов и столик в ресторане. Для эффективного завершения диалога политика диалога играет ключевую роль в системах диалога, ориентированных на выполнение задач. Насколько нам известно, существующие системы диалога, ориентированные на задачи, получают политику диалога посредством классификации, которая может назначать либо акт диалога и соответствующие ему параметры, либо несколько актов диалога без соответствующих им параметров для диалогового действия. Фактически, хорошая политика диалога должна одновременно создавать множество диалоговых актов и соответствующих им параметров. Однако существующим методам, основанным на классификации, трудно достичь этой цели. Таким образом, для решения вышеуказанной проблемы мы предлагаем новый метод обучения политике порождающего диалога. В частности, предлагаемый метод использует механизм внимания для поиска соответствующих сегментов данного контекста диалога и входного высказывания, а затем создает политику диалога способом seq2seq для ориентированных на задачи диалоговых систем. Обширные эксперименты на двух эталонных наборах данных показывают, что предлагаемая модель значительно превосходит современные базовые модели. Кроме того, мы публично опубликовали наши коды. | 4,070 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Лексическое смещение в прогнозировании уровня эссе. Автоматическое прогнозирование уровня английского языка людей, для которых он не является родным, по их письменному тексту — интересная задача анализа текста.Системы, которые хорошо справляются с поставленной задачей, могут быть полезными компонентами для онлайн-платформ обучения второму языку, а также для организаций, которые обучают студентов для этой цели.В этой статье я представляю систему balikasg, которая достигла самых современных показателей в соревновании по науке о данных CAp 2018 среди 14 систем.Чтобы добиться наилучшего результата в задании, я решил использовать различные функции, которые описывают читабельность и синтаксическую сложность эссе, а также его содержание.На этапе прогнозирования я обнаружил, что деревья с градиентным усилением, эффективность которых доказана в нескольких задачах науки о данных, являются наиболее эффективными для различных классификаторов.Остальная часть статьи организована следующим образом: в разделе 2 я формулирую проблему уровня языка как задачу порядковой классификации и описываю доступные данные.В разделе 3 представлены используемые методы извлечения признаков и разработки.В разделе 4 описаны алгоритмы машинного обучения для прогнозирования, а также достигнутые результаты.Наконец, раздел 5 завершается обсуждением и направлениями будущих исследований.Чтобы подойти к задаче прогнозирования на уровне языка как к задаче контролируемой классификации, я формулирую ее как задачу порядковой классификации.В частности, учитывая письменное эссе INLINEFORM0 от кандидата, цель состоит в том, чтобы связать это эссе с уровнем владения английским языком INLINEFORM1 в соответствии с системой Общеевропейских компетенций языков (CEFR).В CEFR существует шесть языковых уровней INLINEFORM2, например INLINEFORM3.В этих обозначениях INLINEFORM4 — это начальный уровень, а INLINEFORM5 — самый продвинутый уровень.Обратите внимание, что уровни INLINEFORM6 упорядочены, что определяет задачу упорядоченной классификации.В этом смысле необходимо проявлять осторожность как на этапе выбора модели, так и на этапе оценки.В последнем случае предсказание класса, далекого от истинного, должно повлечь за собой более высокий штраф.Другими словами, учитывая эссе INLINEFORM7, прогнозирование INLINEFORM8 хуже, чем прогнозирование INLINEFORM9, и эта разница должна быть отражена метриками оценки.Чтобы уловить этот явный порядок INLINEFORM0, организаторы предложили меру стоимости, которая использует матрицу путаницы прогноза и предшествующих знаний для оценки производительности системы.В частности, меры используют запись как: DISPLAYFORM0, где INLINEFORM0 — это матрица стоимости, которая использует предварительные знания для расчета ошибок ошибочной классификации, а INLINEFORM1 — это количество наблюдений класса INLINEFORM2, классифицированных по категории INLINEFORM3.Матрица затрат INLINEFORM4 приведена в таблице TABREF3.Обратите внимание, что, как и ожидалось, при удалении от диагонали (правильная классификация) затраты на ошибочную классификацию выше.Самая большая ошибка (44) возникает, когда эссе INLINEFORM5 классифицируется как INLINEFORM6.Напротив, ошибка классификации ниже (6), когда происходит обратное и эссе INLINEFORM7 классифицируется как INLINEFORM8.Поскольку INLINEFORM9 не симметричен и стоимость нижней диагонали выше, штрафы за неправильную классификацию хуже, когда эссе верхних языковых уровней (например, INLINEFORM10 ) классифицируются как эссе более низких уровней.В этом разделе я представляю извлеченные функции, разделенные на шесть групп, и подробно описываю каждую из них отдельно.Поскольку распределение классов в обучающих данных не сбалансировано, я использовал стратифицированную перекрестную проверку в целях проверки и для выбора гиперпараметров.В качестве алгоритма классификации1 я использовал деревья с градиентным усилением, обученные с помощью односторонней выборки на основе градиента, как это реализовано в наборе инструментов Light Gradient Boosting Machine, выпущенном Microsoft.Глубина деревьев была установлена равной 3, скорость обучения — 0,06, а количество деревьев — 4000.Кроме того, чтобы бороться с дисбалансом классов в метках обучения, я присвоил каждому классу веса классов, чтобы ошибки в частых классах влекли за собой меньше штрафов, чем ошибки в нечастых.В этой работе я представил этапы извлечения признаков, проектирования признаков и оценки модели, которым я следовал при разработке balikasg для CAp 2018, который занял первое место среди 14 других систем.Я оценил эффективность различных групп функций и обнаружил, что показатели читабельности и сложности, а также тематические модели являются эффективными предикторами.Далее я оценил эффективность различных алгоритмов классификации и обнаружил, что деревья с градиентным усилением превосходят остальные модели в этой задаче.Хотя с точки зрения точности система показала превосходные результаты, достигнув 98,2% в тестовых данных, возникает вопрос, есть ли в этом процессе какие-либо отклонения.Например, ценными функциями были изученные с помощью LDA распределения тем.Однако необходимо глубоко изучить, связано ли это с выразительностью и возможностями моделирования LDA или с артефактом используемого набора данных.В последнем случае, учитывая, что кандидатов просят написать эссе по предмету BIBREF0, который зависит от их уровня, гипотеза, которую необходимо изучить, заключается в том, был ли LDA просто умным способом смоделировать эту утечку информации в данных данных или нет. .Я считаю, что дальнейший анализ и проверка могут ответить на этот вопрос, если темы эссе будут опубликованы, чтобы можно было провести разделение проверки на основе этих тем.Я хотел бы поблагодарить организаторов конкурса и NVidia за спонсирование приза конкурса.Мнения, выраженные в данной статье, принадлежат исключительно автору и не обязательно работодателю автора. | Автоматическое прогнозирование уровня английского языка для неносителей языка по его письменным эссе — интересная задача машинного обучения. В этой работе я представляю систему «balikasg», которая достигла самых современных показателей в соревновании по науке о данных CAp 2018 среди 14 систем. Я подробно описываю этапы извлечения признаков, проектирования признаков и выбора модели и оцениваю, как эти решения влияют на производительность системы. Статья завершается замечаниями для будущей работы. | 881 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Сравнение человеческих и машинных ошибок при транскрипции разговорной речи. За последние пять лет в системах автоматического распознавания речи (ASR) были достигнуты значительные успехи благодаря использованию глубоких, сверточных и рекуррентных архитектур нейронных сетей, что стало возможным благодаря сочетанию достижений моделирования, доступных обучающих данных и увеличения вычислительных ресурсов.Учитывая эти достижения, наша исследовательская группа недавно предприняла попытку достичь точности транскрипции на человеческом уровне, используя современные методы ASR для одного из жанров речи, который исторически служил сложной контрольной задачей: разговорной телефонной речи ( КТС).Около десяти лет назад распознавание CTS служило задачей оценки для спонсируемой правительством работы по распознаванию речи, еще до того, как стали использоваться подходы глубокого обучения, и все еще в основном в рамках модели GMM-HMM BIBREF0, BIBREF1, BIBREF2, BIBREF3, BIBREF4. , BIBREF5 .Это оказалось сложной проблемой из-за разнообразия разговорного произношения, стилей речи и региональных акцентов.Сейде и др. BIBREF6 продемонстрировал, что глубокие сети в качестве акустических моделей могут добиться значительных улучшений по сравнению с моделями GMM-HMM на данных CTS, а совсем недавно исследователи из IBM достигли результатов в этой задаче, которые представляют собой еще одно значительное продвижение BIBREF7, BIBREF8 по сравнению с теми, что было десять лет назад.Цель достижения «человеческого паритета» в автоматической транскрипции CTS поднимает вопрос о том, что следует считать человеческой точностью в этой задаче.Мы реализовали этот вопрос, отправив выбранные тестовые данные в тот же конвейер транскрипции, основанный на поставщике, который используется в Microsoft для производственных данных (для обучения модели и целей внутренней оценки), а затем сравнив результаты с выходными данными системы ASR в соответствии с протоколом оценки NIST. .Использование этой методологии и внедрение современных сверточных и рекуррентных сетевых архитектур как для акустического моделирования BIBREF9, BIBREF10, BIBREF7, BIBREF11, BIBREF12, BIBREF13, BIBREF14, так и для языкового моделирования BIBREF15, BIBREF16, BIBREF17, BIBREF18 с широким использованием модели. В сочетании мы получили частоту машинных ошибок, которая была немного ниже, чем в процессе человеческой транскрипции (5,8% против 5,9% по данным Switchboard и 11,0% против 11,3% по данным CallHome English) BIBREF19.С тех пор Саон и др. сообщили о еще лучших результатах, а также об отдельном эксперименте по транскрипции, который поставил уровень человеческих ошибок в тех же тестовых данных на более низкую точку, чем измерено нами (5,1% для Switchboard, 6,8% для CallHome) BIBREF20.InВ этой статье мы рассматриваем вопрос о том, существуют ли серьезные качественные различия между результатами человеческой транскрипции разговорной речи и результатами, полученными системами ASR, на основе детального анализа данных и результатов системы в нашем эксперименте по проверке четности людей BIBREF19.Вопрос становится важным, если ASR заменит людей в качестве первого шага в полностью автоматических системах понимания речи - если машинные ошибки транскрипции качественно отличаются от человеческих, тогда нам придется беспокоиться о возможных последствиях для последующей обработки и методов смягчения, чтобы по-прежнему достигать общего «естественного» пользовательского опыта (например, при переводе разговорной речи в реальном времени, например, в Skype).Приложение). Мы начнем с обсуждения того, почему частота человеческих ошибок при выполнении этой задачи сама по себе должна считаться движущейся целью.Далее мы задаемся вопросом, является ли речь, трудная для ASR, трудной для расшифровки людьми (и наоборот), и оказывает ли заметное влияние говорящего на тренировочные данные, обнаруженные в части тестовых данных, на результат, как было предложено в BIBREF20.Затем мы рассмотрим наиболее частые типы словесных ошибок, проявляемые двумя системами транскрипции (человеческой и машинной), и, наконец, сообщим об очень предварительном, но все же информативном эксперименте, чтобы увидеть, могут ли люди отличить источник транскрипции (опять же, человек против машины). , основываясь на допущенных ими ошибках.Оценка человеческой ошибки транскрипции разговорной речи была несколько неясной.Широко цитируемая цифра — 4% коэффициент ошибок в словах (WER), основанный на BIBREF21.Однако ссылка в нем представляет собой лишь «личное сообщение» без дополнительных данных.Консорциум лингвистических данных подсчитал, что разногласия между транскрибаторами для данных оценки CTS NIST 2003 составили от 4,1% до 4,5% при очень тщательной множественной транскрипции BIBREF22.Для «быстрой транскрипции» несогласие возросло до 9,6%.Данные CTS в исследовании NIST взяты из корпусов Switchboard (SWB) и Fisher и, следовательно, сопоставимы с частью наших данных SWB, т. е. получены из телефонных разговоров между незнакомцами, обсуждающими темы, представляющие общий интерес.Тем не менее, точный набор данных отличается, что может объяснить некоторые расхождения с уровнем ошибок, измеренным на наборе NIST 2000, используемом нами (5,9%) и IBM (5,1%), хотя цифры удивительно близки.Как кратко описано во введении, мы измеряли производительность человека, используя существующий конвейер, в котором данные Microsoft еженедельно расшифровываются.Этот конвейер использует крупного коммерческого поставщика для выполнения двухпроходной транскрипции.На первом этапе транскрибатор работает над расшифровкой данных.На втором проходе второй прослушиватель отслеживает данные для исправления ошибок.В каждой партии обрабатываются десятки часов тестовых данных без каких-либо специальных инструкций для расшифровщиков.Сегменты сигналов, примерно соответствующие высказываниям, составляющие тестовый набор, обрабатываются отдельно.Это облегчает задачу, поскольку говорящие более четко разделены, но и усложняет задачу, поскольку две стороны разговора не чередуются и контекст может отсутствовать.Мы выполнили нормализацию текста человеческих транскриптов, чтобы устранить систематические расхождения со ссылками на оценки NIST.(Поскольку это было сделано методом проб и ошибок, это фактически было «обманом» в интересах людей, записывающих текст.)Затем мы применили инструменты оценки NIST и получили процент ошибок в словах 5,9% в части SWB и 11,3% в части CallHome (CH) набора тестов NIST 2000.Последний корпус, в отличие от Switchboard, состоит из разговоров между друзьями и семьей без исходной темы, что объясняет гораздо более высокий общий уровень ошибок.Очевидно, что наш метод не был разработан для достижения максимально возможной точности транскрипции у человека; вместо этого, как указано в BIBREF19, нашей целью было установить эталон, соответствующий отраслевому стандарту (т. е. в больших объемах) профессионального производства стенограмм.Авторы BIBREF20 попытались измерить человеческие ошибки на том же наборе данных, но с использованием более сложного процесса.Основные различия заключались в следующем: (1) Поставщик транскрипции знал об эксперименте и активно участвовал в нем.(2) Специалисты по расшифровке были выбраны на основе прошлых результатов и ознакомлены с правилами, используемыми LDC при составлении справочных расшифровок.(3) Использовались три независимых параллельных транскрибатора, а также четвертый для контроля качества (КК) 2-го прохода выходных данных 1-го прохода.В общей сложности расшифровщики выполнили примерно от 12 до 18 проходов прослушивания.(4) Окончательный результат был получен путем выбора транскрибатора (с контролем качества), который получил самый низкий WER по тестовым данным.Как отмечалось ранее, итоговые WER составили 5,1% и 6,8% соответственно.Значительно более низкая оценка для CH могла быть результатом того, что расшифровщики имели доступ ко всей беседе (согласно личному общению с авторами).Это было бы особенно полезно при расшифровке незнакомой лексики и стилей речи (позволяя расшифровщику более эффективно «адаптироваться» к данным). Очевидно, что эксперимент IBM предпринял гораздо более тщательную попытку исследовать границы человеческой точности и, возможно, на самом деле имел приблизиться к соглашению между транскрипторами, ранее измеренному LDC на другом наборе данных.Однако важно понимать, что дальнейшие улучшения в человеческой жизни, несомненно, достижимы.Например, число транскрибаторов можно было бы еще больше увеличить или им можно было бы разрешить совещаться друг с другом для разрешения разногласий.Это поднимает вопрос о том, где провести границу человеческих усилий.Наконец, важно осознавать, что разговорной речи присуща высокая степень двусмысленности.Например, разговорное произношение сильно варьируется и часто сокращается BIBREF23.Еще одним источником двусмысленности является отсутствие контекста и знаний, которыми делятся говорящие (особенно в случае с CH).При наличии внутренней двусмысленности соглашение между транскрибирующими лицами может быть улучшено за счет согласованных правил устранения неоднозначности, хотя это не обязательно будет отражать истинное согласие, основанное на понимании речи.Детали нашей системы распознавания разговорной речи описаны в другом месте BIBREF19, поэтому здесь мы приведем лишь краткое изложение.Система использует независимое декодирование с помощью различных акустических моделей, включая модели сверточной нейронной сети (CNN) и двунаправленной долговременной памяти (BLSTM), которые различаются архитектурой модели, количеством сенонов, объемом обучающих данных и другими метапараметрами.Декодирование использует сокращенную 4-граммовую языковую модель N-граммы (LM) для создания решеток, которые затем расширяются до списков 500 лучших с использованием более крупной N-граммы LM.Списки N-лучших оцениваются с помощью нескольких LSTM-LM, работающих в прямом и обратном направлениях.Оценки модели объединяются лог-линейно на уровне высказывания и преобразуются в апостериорные вероятности, представленные в виде сетей путаницы слов.Различные подсистемы, составляющие окончательную систему, выбираются в результате жадного поиска, а их веса оптимизируются с помощью алгоритма максимизации ожидания на основе данных разработки.Данные акустического обучения включают все общедоступные данные CTS (около 2000 часов), в то время как LM дополнительно обучаются на вещательных новостях и веб-данных из Университета Вашингтона.Отдельные подсистемы (основанные на различных акустических моделях) достигают уровня ошибок в словах от 6,4% до 7,7% в оценочном наборе Switchboard и от 12,2% до 17,0% в части CallHome.В совокупности система достигает 5,8% и 11,0% WER соответственно.Заметим попутно, что WER машинной и человеческой транскрипции существенно не различаются по тестам Уилкоксона и совпадающих парных слов в сегменте предложения, применяемым NIST, а также не различаются по тесту Знаков, сравнивающему количество ошибок на уровне высказывания.Первый вопрос высокого уровня, касающийся связи между ошибками в словах, совершаемыми машинами и людьми-переписчиками, заключается в том, предсказывает ли сложность в одном из ошибок в другом.На рисунке FigREF1 показаны диаграммы разброса коэффициентов ошибок на уровне говорящего (машина или человек), разделенные по корпусам.Каждое подмножество корпуса имеет 40 сторон разговора.Очевидно, что ошибки на этом уровне коррелируют: INLINEFORM0 для SWB и INLINEFORM1 для CH.Это говорит о том, что свойства речи, либо в зависимости от содержания, говорящего или канала (каждый говорящий встречается ровно в одном тестовом разговоре), вызывают ошибки как при машинной, так и при человеческой транскрипции.Мы наблюдаем, что в данных CH есть два динамика с резко выдающимися показателями машинных ошибок (37,5% и 64,7% WER, сплошные красные точки на рисунке FigREF1).Они соответствуют второстепенным говорящим на соответствующих сторонах разговора, каждый из которых владеет лишь частью речи доминирующего говорящего.Обратите внимание, что система ASR обрабатывает каждый разговор, предполагая, что с каждой стороны присутствует только один говорящий.Если мы удалим эти выбросы, корреляция ошибок машины и человека в CH увеличится до INLINEFORM0 .Если исключить второстепенных говорящих, мы также можем наблюдать, что машинные показатели ошибок группируются более плотно, чем человеческие в обоих корпусах (SWB: машина INLINEFORM1 против человека INLINEFORM2; CH: машина INLINEFORM3 против человека INLINEFORM4).InBIBREF20Было высказано предположение, что одна из причин гораздо более высокого уровня ошибок на CH по сравнению с SWB заключалась в том, что 36 из 40 тестовых говорящих SWB встречаются в той части корпуса SWB, которая используется в обучении (из-за того, что, как мы полагаем, является надзор при выборе набора тестов NIST 2000).Чтобы оценить эту гипотезу, мы выделили четырех говорящих в части SWB, которых нет в обучающей выборке; они показаны сплошными черными кругами на рисунке РИС. 1.На первый взгляд кажется, что усредненный по динамику WER для «увиденных» говорящих (машинный WER 5,9%) действительно намного ниже, чем для говорящих, не обнаруженных в обучении (7,5%).Однако мы можем смело списать это на невезение и небольшой размер выборки.Средний показатель WER машины, равный 7,5% для «невидимых» говорящих, находится в пределах одного стандартного отклонения от распределения WER «видимых» говорящих ( INLINEFORM0 ), и, что более показательно, почти такая же относительная разница в WER между «видимыми» и «невидимыми» динамиками. ” динамиков наблюдается для человеческой транскрипции (6,0% против 7,7%).Очевидно, что люди-транскрибаторы не имели возможности тренироваться на «видимых» говорящих, поэтому разница должна быть связана с внутренней сложностью говорящих, которая влияет на обе системы транскрипции.Таблицы TABREF3 – TABREF5 показывают десять основных типов замен, делеций и вставок как для ASR, так и для транскриптов человека.Проверка показывает, что одни и те же короткие служебные слова, дискурсивные маркеры и заполненные паузы встречаются в первой десятке ошибок для обеих систем.Однако есть одно примечательное исключение.Самая распространенная ошибка подстановки в системе ASR связана с неправильным распознаванием заполненных пауз («%hesitation», метка класса слов, охватывающих «э-э» и «эм» в различных вариантах написания) как подтверждений по обратному каналу («%bcack», что означает «угу», «ммм» и др.).Такая же ошибка замены встречается гораздо реже в человеческих транскриптах.Возможное объяснение этой асимметрии кроется в дискурсивных функциях заполненных пауз и обратных каналов.Заполненные паузы служат для того, чтобы потребовать или сохранить слово, сигнализируя о том, что говорящий хочет либо начать, либо продолжить речь.С другой стороны, обратные каналы подтверждают, что говорящий слушает и что другой говорящий должен продолжать.Поскольку два класса слов, таким образом, выполняют совершенно противоположные функции в управлении ходом, само собой разумеется, что люди хорошо осознают их различия и используют все доступные фонетические, просодические и контекстуальные сигналы, чтобы их различать.Наша система ASR, напротив, использует только свои стандартные акустико-фонетические и языковые модели.В частности, ожидается, что моделирование контекста диалога устранит этот недостаток.Установив, что человеческая и машинная транскрипция весьма схожи в нескольких аспектах, включая задействованные типы словесных токенов, мы задались вопросом, могут ли шаблоны ошибок более высокого уровня различать эти две системы.Например, можно было бы ожидать, что человеческое неправильное распознавание основано на сильной «человеческой» модели языка и понимания, тогда как машинные ошибки могут с большей вероятностью порождать синтаксическую и семантическую бессмыслицу.Чтобы ответить на этот вопрос, мы разработали специализированную версию классического теста Тьюринга в том смысле, что судью-человека просят взаимодействовать с системой с целью оценить, подкреплена ли она человеческим или искусственным «интеллектом».В нашем случае задача заключалась в одновременной проверке одного случайно выбранного высказывания из тестового набора с параллельным отображением эталонного транскрипта, человеческого транскрипта и вывода ASR (после нормализации текста, которая является частью протокол подсчета очков).Представлены только высказывания, имеющие хотя бы одну ошибку транскрипции и несоответствие двух версий.Расхождения между версиями транскриптов выделяются, а тип ошибки (замена, вставка, удаление) также кодируется визуально, как показано на рисунке FigREF7.провел этот неформальный эксперимент в течение четырех дней на площадке конференции IEEE ICASSP 2017 года в Новом Орлеане.Игроки не были официально набраны и не охарактеризованы, а состояли из участников конференции, которые по большей части имели некоторый опыт работы в области обработки речи.Субъектов знакомили с тестом, объясняя предысторию исследования, и им разрешалось сыграть столько испытаний, сколько они хотели.Из 353 испытаний испытуемые правильно определили человеческий транскрипт 188 раз, что соответствует общему показателю успеха 53%.Среди успехов были случайные уловки, такие как человеческие орфографические ошибки или асимметрия в заполненной паузе/замене обратного канала (на что мы указывали испытуемым).Согласно биномиальному тесту, этот показатель успеха существенно не отличается от 50%-го шанса ( INLINEFORM0 , односторонний).Хотя этот результат, очевидно, является весьма предварительным, он стал хорошей демонстрацией того, что отличить машину от человеческой ошибки непросто даже для технически искушенных наблюдателей.Мы обсудили методологические проблемы и сообщили о первых результатах сравнения автоматической транскрипции разговорной речи с деятельностью человека, используя данные, полученные в результате наших недавних усилий по достижению человеческого паритета в распознавании CTS.Хотя точная характеристика человеческого эталона остается движущейся целью, которая является предметом дискуссий, наши результаты пока показали, что ошибки машинной транскрипции отслеживают ошибки, сделанные людьми, в нескольких важных аспектах.На уровне говорящего (а также корпуса) две частоты ошибок сильно коррелируют, что позволяет предположить, что общие факторы, лежащие в основе речевых данных, определяют сложность транскрипции как для людей, так и для систем ASR.(Детальная характеристика этих факторов имеет прецедент в исследованиях ASR и должна быть пересмотрена, принимая во внимание деятельность человека.)Частичное перекрытие обучающих и тестовых динамиков Switchboard, похоже, не оказывает существенного влияния на частоту ошибок.Мы также обнаружили, что наиболее частые модели ошибок включают одни и те же короткие функциональные слова и дискурсивные частицы как для людей, так и для машин.Единственным заметным исключением является то, что ASR имеет тенденцию путать заполненные паузы и обратные каналы — функциональное различие, в котором люди должны очень хорошо разбираться с прагматической точки зрения.Неформальный тест, подобный тесту Тьюринга, также продемонстрировал, что шаблоны ошибок в двух типах транскрипции не являются явно различимыми.В целом мы приходим к выводу, что последние достижения в технологии ASR не только позволили достичь замечательного уровня точности, но и дают результаты, которые качественно удивительно похожи на результаты профессионального человеческого расшифровщика.Мы благодарим наших соавторов и сотрудников проекта «Человеческий паритет»: К. Хуана, Ф. Зейде, М. Зельцера, В. Сюн, Д. Ю и Г. Цвейга.Спасибо К. Ридхаммеру за обмен метаданными о совпадении обучающихся и тестовых докладчиков. | Недавняя работа по автоматическому распознаванию разговорной телефонной речи (CTS) достигла уровня точности, сравнимого с человеческими расшифровщиками, хотя ведутся некоторые споры о том, как точно количественно оценить эффективность человека при выполнении этой задачи, используя оценочный набор CTS NIST 2000. Это поднимает вопрос, какие систематические различия, если таковые имеются, можно обнаружить, отличая человеческие ошибки транскрипции от машинных. В этой статье мы подходим к этому вопросу, сравнивая результаты нашей наиболее точной системы распознавания CTS с результатами стандартного конвейера поставщиков транскрипции речи. Мы обнаружили, что наиболее частые типы ошибок замены, удаления и вставки обоих выходных данных демонстрируют высокую степень перекрытия. Единственное заметное исключение состоит в том, что автоматическое распознавание имеет тенденцию путать заполненные паузы («угу») и подтверждения по обратному каналу («угу»). Люди склонны не совершать этой ошибки, предположительно из-за отличительных и противоположных прагматических функций, приписываемых этим словам. Кроме того, мы количественно оцениваем корреляцию между человеческими и машинными ошибками на уровне говорящего и исследуем эффект перекрытия говорящих между обучающими и тестовыми данными. Наконец, мы сообщаем о неформальном «тесте Тьюринга», в котором людей просят различать автоматические и человеческие случаи ошибок транскрипции. | 3,090 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | IIIDYT на SemEval-2018 Задача 3: Обнаружение иронии в англоязычных твитах. Анализ настроений и распознавание эмоций, как две тесно связанные области аффективных вычислений, играют ключевую роль в развитии искусственного интеллекта BIBREF0.Однако сложность и неоднозначность естественного языка представляет собой широкий спектр проблем для вычислительных систем.В последние годы обнаружение иронии и сарказма получило большую популярность в сообществе машинного обучения и НЛП BIBREF1, главным образом из-за высокой частоты саркастических и иронических выражений в социальных сетях.Их лингвистическое сочетание склонно менять полярность в контексте анализа настроений, что делает машинное обнаружение иронии критически важным для анализа настроений BIBREF2 , BIBREF3 .Ирония — глубоко прагматичное и многостороннее языковое явление.Поскольку его основа обычно лежит за пределами явных лингвистических шаблонов при реконструкции контекстных зависимостей и скрытого значения, такого как общие знания или общие знания BIBREF1, автоматическое обнаружение его остается сложной задачей при обработке естественного языка.В этой статье мы представляем нашу систему для общей задачи обнаружения иронии в английских твитах, которая является частью SemEval BIBREF4 2018 года.Мы отмечаем, что вычислительные подходы к автоматическому обнаружению иронии часто используют дорогостоящие специализированные системы, которые полагаются на богатый набор лингвистических и контекстуальных сигналов BIBREF5, BIBREF6.Появление глубокого обучения в применении к НЛП привело к появлению моделей, которые добились успеха во многом потому, что они изучают и используют свои собственные непрерывные числовые представления BIBREF7 слов BIBREF8 , предлагая нам мечту о том, чтобы забыть функции, созданные вручную.В связи с этим в этой статье мы предлагаем подход к обучению представлению для обнаружения иронии, который опирается на двунаправленный LSTM и предварительно обученные встраивания слов.Для общей задачи предоставляется сбалансированный набор данных из 2396 ироничных и 2396 неиронических твитов.Корпус иронии был создан путем сбора твитов с собственными аннотациями и хэштегами #irony, #sarcasm и #not.Затем твиты были очищены, вручную проверены и помечены с использованием детальной схемы аннотаций BIBREF3.Корпус включает в себя различные типы иронии: Вербальную иронию часто называют высказыванием, передающим смысл, противоположный буквальному выражению BIBREF9 , BIBREF10 , например: Я люблю раздражать людей.Ситуационная ирония появляется в условиях, которые отличаются от ожидаемого BIBREF11, например. старик, который выиграл в лотерею и умер на следующий день.Последний не обязательно демонстрирует контраст полярностей или другие типичные лингвистические особенности, что особенно затрудняет правильную классификацию.Для предварительной обработки мы использовали Natural Language Toolkit BIBREF12.В качестве первого шага мы удалили следующие слова и слова с хэштегами: нет, сарказм, сарказм, ирония, ирония, саркастический и саркастический, чтобы убедиться в чистоте корпуса без триггеров, связанных с темой.Чтобы упростить процесс токенизации с помощью NLTK TweetTokenizer, мы заменили два пробела одним пробелом и удалили имена пользователей и URL-адреса, поскольку они обычно не предоставляют никакой полезной информации для обнаружения иронии.Мы не выделяем токены и не записываем их строчными буквами, поскольку некоторые шаблоны в этой области могут служить индикатором иронических твитов, например слово или последовательность слов, в которых все буквы пишутся с заглавной буквы BIBREF13. Целью подзадачи А было создать систему бинарной классификации, которая предсказывает, является ли твит ироничным или нет.В следующих разделах мы сначала опишем набор данных, предоставленный для задачи, и наш конвейер предварительной обработки.Позже мы изложим предложенную архитектуру модели, наши эксперименты и результаты.Подходы к обучению представлению обычно требуют больших объемов данных для получения правильных результатов.Более того, предыдущие исследования показали, что инициализация представлений с использованием случайных значений обычно приводит к падению производительности.По этим причинам мы полагаемся на предварительно обученные встраивания слов как на средство обеспечения модели адекватных настроек.Мы экспериментируем с GloVe BIBREF14 для небольших размеров, а именно 25, 50 и 100.Это основано на предыдущей работе, показывающей, что модели обучения представлению, основанные на сверточных нейронных сетях, работают лучше по сравнению с традиционными методами машинного обучения со значительно меньшим размером вектора признаков, в то же время предотвращая переобучение и ускоряя вычисления (например, встраивания BIBREF2.GloVe). обучаются на наборе данных из 2 миллиардов твитов с общим словарным запасом 1,2 миллиона токенов.Однако мы заметили значительное совпадение со словарем, извлеченным из общего набора данных задач.Чтобы справиться с терминами за пределами словарного запаса, частота которых превышает заданный порог, мы создаем новый вектор, который инициализируется на основе пространства, описываемого редкими словами в GloVe.Конкретно, мы равномерно выбираем вектор из сферы с центром в центроиде на 10% менее частых слов в словаре GloVe, радиус которого равен среднему расстоянию между центроидом и всеми словами в низкочастотном наборе.В другом случае мы используем специальный токен UNK.Чтобы максимизировать знания, которые можно извлечь из предварительно обученных вложений, особенно для терминов, не входящих в словарный запас, мы добавляем несколько двоичных функций на уровне токена и предложения, полученных из простых лингвистических шаблонов, которые объединяются с соответствующими векторами.Если токен полностью написан строчными буквами.Если токен полностью указан в верхнем регистре.Если только первая буква заглавная.Если токен содержит цифры.Если какой-либо токен полностью написан строчными буквами.Если какой-либо токен полностью указан в верхнем регистре.Если какой-либо токен появляется более одного раза.Рекуррентные нейронные сети — это мощные модели последовательного обучения, которые достигли отличных результатов для множества сложных задач НЛП BIBREF15.В частности, мы используем последнее скрытое состояние двунаправленной архитектуры LSTM BIBREF16 для получения представлений наших твитов.Этот параметр в настоящее время считается самым современным BIBREF17 для задач с другими наборами данных.Чтобы избежать чрезмерной подгонки, мы используем Dropout BIBREF18, а для обучения мы устанавливаем двоичную кросс-энтропию как функцию потерь.Для оценки мы используем наши собственные оболочки официальных сценариев оценки, предоставленных для общих задач, которые основаны на точности, точности, полноте и рейтинге F1.Наша модель реализована в PyTorch BIBREF19, что позволило нам легко справиться с переменной длиной твита из-за динамического характера платформы.Мы экспериментировали с различными значениями размера скрытого состояния LSTM, а также вероятности выпадения, получив наилучшие результаты для вероятности выпадения INLINEFORM0 и 150 единиц для скрытого вектора.Мы обучали наши модели, используя 80% предоставленных данных, а оставшиеся 20% использовались для разработки моделей.Мы использовали Adam BIBREF20 со скоростью обучения INLINEFORM1 и ранней остановкой, когда производительность на наборе разработки не улучшалась.Использование вложений размера 100 на практике дало лучшие результаты.Наша последняя лучшая модель — это ансамбль из четырех моделей с одинаковой архитектурой, но с разной случайной инициализацией.Чтобы сравнить наши результаты, мы используем предоставленную базовую линию, которая представляет собой SVM с линейным ядром, оптимизированную без параметров, которая использует векторы пакетов слов TF-IDF в качестве входных данных.Для предварительной обработки в данном случае мы не сохраняем регистр и удаляем английские стоп-слова.Чтобы понять, как наши стратегии по восстановлению большего количества информации из предварительно обученных вложений слов повлияли на результаты, мы провели исследования абляции, чтобы сравнить, как функции на уровне токенов и предложений повлияли на производительность.В таблице TABREF16 суммировано влияние этих функций с точки зрения оценки F1 на набор проверки.Мы видим, что функции на уровне предложений оказали положительное, но небольшое влияние, в то время как функции на уровне токенов, похоже, фактически снизили производительность.Мы считаем, что, поскольку задача выполняется на уровне предложения, вероятно, функции, которые фиксируют лингвистические явления на том же уровне, предоставляют полезную информацию для модели, в то время как вклад других функций более тонкой детализации кажется слишком специфичным, чтобы модель могла его использовать. .В таблице TABREF17 суммированы наши лучшие результаты по одной модели на проверочном наборе (20% предоставленных данных) по сравнению с базовым уровнем, а также официальные результаты нашего ансамбля моделей на тестовых данных.Из 43 команд наша система заняла 421-е место с официальным показателем Формулы-1 0,2905 на тестовом наборе.Хотя наша модель превосходит базовый уровень в наборе проверки с точки зрения показателя F1, мы наблюдаем значительное снижение всех показателей по сравнению с тестовым набором, показывая, что архитектура, похоже, не способна хорошо обобщать.Мы считаем, что эти результаты подчеркивают необходимость специальной архитектуры для решения задачи, а также актуальность дополнительной информации.Работа BIBREF21 предлагает интересный вклад в этих двух аспектах, достигая хороших результатов для ряда задач, включая обнаружение сарказма, использование дополнительного уровня внимания поверх BiLSTM, такого как наш, а также предварительное обучение своей модели на наборе данных на основе смайликов. 1246 миллионов твитов.Более того, мы считаем, что из-за сложности задачи и размера обучающих данных в контексте глубокого обучения лучшие результаты можно было бы получить с помощью дополнительных ресурсов для предварительного обучения.Конкретно, мы рассматриваем трансферное обучение как один из вариантов добавления знаний из более крупного связанного набора данных, который может значительно улучшить результаты BIBREF22.Маркировка и проверка данных вручную — это трудоемкий процесс.Даже если он зашумлен, сбор значительно большего набора данных с собственными аннотациями, например, в BIBREF23, потенциально может повысить производительность модели.В этой статье мы представили нашу систему для общей задачи SemEval-2018 по обнаружению иронии в английских твитах (подзадача A), которая использует BiLSTM и предварительно обученные встраивания слов для обучения представлению без использования функций, спроектированных человеком.Наши результаты показали, что, хотя возможности модели по обобщению ограничены, существуют четкие направления для дальнейшего совершенствования.В частности, доступ к большему количеству обучающих данных и внедрение таких методов, как трансферное обучение, кажутся многообещающими направлениями для будущих исследований в области обнаружения сарказма на основе обучения представлениям. | В этой статье мы представляем нашу систему для задачи обнаружения иронии в английских твитах, являющуюся частью SemEval 2018. Мы предлагаем подход к обучению представлению, основанный на многоуровневом двунаправленном LSTM, без использования внешних функций, предоставляющих дополнительную семантическую информацию. Хотя наша модель способна превзойти базовый уровень в проверочном наборе, наши результаты показывают ограниченную силу обобщения по тестовому набору. Учитывая ограниченный размер набора данных, мы считаем, что использование большего количества схем предварительного обучения значительно улучшит полученные результаты. | 1,620 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Мультимодальное глубокое обучение для краткосрочного прогнозирования волатильности акций. Обработка естественного языка (NLP) все больше привлекает внимание финансового сообщества.Эту тенденцию можно объяснить, по крайней мере, тремя основными факторами.Первый фактор относится к бизнес-перспективе.Это экономика получения конкурентного преимущества с использованием альтернативных источников данных и выходом за рамки исторических цен на акции, таким образом, торговля осуществляется путем автоматического анализа рыночных новостей.Второй фактор — это значительные достижения в технологиях сбора, хранения и запроса огромных объемов пользовательских данных практически в режиме реального времени.Третий фактор относится к прогрессу, достигнутому сообществом НЛП в понимании неструктурированного текста.За последние десятилетия количество исследований, использующих НЛП для финансового прогнозирования, возросло в геометрической прогрессии.По данным BIBREF0, до 2008 года в год публиковалось менее пяти исследовательских статей, в которых упоминались ключевые слова как «фондовый рынок», так и «анализ текста» или «анализ настроений».В 2012 году это число увеличилось до чуть более десяти статей в год.Последние доступные цифры за 2016 год указывают на то, что это число увеличилось до шестидесяти статей в год.Способность механически собирать настроения из текстов с помощью НЛП пролила свет на противоречивые теории финансовой экономики.Исторически сложилось так, что существовало два разных взгляда на то, приводят ли разногласия между участниками рынка к увеличению числа сделок.«Теорема о неторговле» BIBREF1 гласит, что, если предположить, что все участники рынка имеют общие знания о рыночном событии, уровень разногласий среди участников не увеличивает количество сделок, а лишь приводит к пересмотру рыночных котировок.Напротив, теоретическая основа, предложенная в BIBREF2, утверждает, что разногласия между участниками рынка увеличивают объем торгов.Используя текстовые данные с досок объявлений Yahoo и RagingBull.com для измерения разброса мнений (положительных или отрицательных) среди трейдеров, в BIBREF3 было показано, что разногласия между сообщениями пользователей помогают прогнозировать последующий объем торгов и волатильность.Аналогичная связь между разногласиями и увеличением объема торгов была обнаружена в BIBREF4 с использованием сообщений в Твиттере.Кроме того, текстовый анализ дополняет теории среднесрочного/долгосрочного импульса/разворота на фондовых рынках BIBREF5.Единая модель Хонга и Стейна BIBREF6 об импульсе/развороте акций предполагает, что инвесторы недостаточно реагируют на новости, вызывая медленное дрейф цен, и слишком остро реагируют на ценовые шоки, не сопровождающиеся новостями, тем самым вызывая развороты.Это теоретическое предикатное поведение между ценой и новостями систематически оценивалось и поддерживалось в BIBREF7, BIBREF8 с использованием заголовков финансовых СМИ и в BIBREF9 с использованием Индекса потребительского доверия®, опубликованного The Conference Board BIBREF10.Аналогичным образом, BIBREF11 использует лексикон настроений Гарварда IV-4 для подсчета встречаемости слов с положительным и отрицательным подтекстом в Wall Street Journal, показывая, что отрицательные настроения являются хорошим предиктором доходности цен и объемов торгов.Точные модели для прогнозирования как доходности цен, так и волатильности одинаково важны в финансовой сфере.Волатильность измеряет, насколько сильно актив будет колебаться в данный период времени, и связана со вторым моментом распределения доходности цены.В общих чертах, прогнозирование доходности цен важно для открытия спекулятивных позиций.С другой стороны, волатильность измеряет риск этих позиций.Финансовым учреждениям ежедневно необходимо оценивать краткосрочный риск своих портфелей.Измерение риска имеет важное значение во многих аспектах.Это необходимо для раскрытия нормативной информации о капитале, требуемой органами банковского надзора.Более того, полезно динамически корректировать размер позиции в соответствии с рыночными условиями, поддерживая таким образом риск на разумном уровне.Хотя прогнозирование краткосрочной волатильности с точки зрения применения на финансовых рынках имеет решающее значение, большая часть текущих исследований НЛП по прогнозированию волатильности сосредоточена на прогнозировании волатильности на очень долгосрочные горизонты (см. BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16). ).В основном эти работы построены на расширении представления «мешком слов», основным недостатком которого является невозможность улавливать порядок слов.Однако финансовое прогнозирование требует способности улавливать семантику, зависящую от порядка слов.Например, заголовки «Qualcomm подает в суд на Apple за нарушение контракта» и «Apple подает в суд на Qualcomm за нарушение контракта» вызывают разные реакции для каждой акции и для агрегированного рыночного индекса, однако они имеют один и тот же набор слов.Кроме того, в этих работах для обучения модели финансового прогнозирования используются функции предварительно обученной модели анализа настроений.Ключевым ограничением этого процесса является то, что для него требуется помеченный набор данных о настроениях.Кроме того, распространение ошибок не является сквозным.В этой работе мы заполняем пробелы в исследованиях по прогнозированию волатильности следующим образом: Предыдущая работа в BIBREF12 включает разделы «Формы 10-K» для прогнозирования волатильности через двенадцать месяцев после публикации отчета.Они обучают модель регрессии опорного вектора поверх разреженного представления (мешка слов) со стандартным взвешиванием терминов (например, Частота терминов).Эта работа была расширена в BIBREF13, BIBREF14, BIBREF15, BIBREF16 за счет использования списков слов Лафрана-Макдональда BIBREF20, которые содержат три списка, в которых слова сгруппированы по их настроениям (положительным, отрицательным и нейтральным).Во всех этих работах текстовое представление создается с использованием следующих шагов: 1) Для каждой группы настроений список расширяется путем извлечения 20 наиболее похожих слов для каждого слова с использованием встраивания слов Word2Vec BIBREF21.2) Наконец, каждый документ объемом 10 тыс. представлен расширенными списками слов.Вес каждого слова в этом разреженном представлении определяется с помощью методов поиска информации (IR), таких как частота терминов (tf) и частота терминов с инвертированной частотой документов (tfidf).В частности, BIBREF16 показывает, что результаты можно улучшить, используя улучшенные методы IR и проецируя каждый разреженный объект в плотное пространство с помощью анализа главных компонентов (PCA). Описанные выше работы (BIBREF13, BIBREF14, BIBREF15, BIBREF16) нацелены на долгосрочные прогнозы волатильности (BIBREF16). один год или ежеквартально BIBREF16).В частности, BIBREF16 и BIBREF15 используют функции рыночных данных (цен) наряду с текстовым представлением отчетов 10-K.Эти существующие работы, в которых используется мультимодальное обучение BIBREF22, основаны на подходе позднего слияния.Например, группирование ансамблей для учета прогнозов цены и текста BIBREF16.Напротив, наша сквозная обученная модель может изучить совместное распределение цены и текста.В центре внимания BIBREF23 было предсказание направления цены, а не волатильности.Они извлекли слова, выражающие чувства, из постов в Твиттере, чтобы построить временной ряд коллективного профиля состояний настроения (POMS).Их результаты показывают, что коллективное настроение точно предсказывает направление фондового индекса Даун Джонса (точность 86,7%).В BIBREF24 созданные вручную текстовые представления, включая количество терминов, теги существительных фраз и извлеченные именованные объекты, используются для прогнозирования направления фондового рынка с использованием машины опорных векторов (SVM).Расширение скрытого распределения Дирихле (LDA) предлагается в BIBREF25 для изучения совместного скрытого пространства тем и настроений.Наши модели глубокого обучения очень похожи на работы, посвященные направленному прогнозированию цен BIBREF26, BIBREF27.В BIBREF26 заголовки новостей обрабатываются с использованием Stanford OpenIE для создания троек, которые передаются в нейронную тензорную сеть для создания окончательного представления заголовка.В BIBREF27 внедрение на уровне символов предварительно обучается без присмотра.Встраивание символов используется в качестве входных данных для модели последовательности для изучения представления заголовка.В частности, обе работы усредняют все заголовки за определенный день, а не пытаются взвесить наиболее релевантные из них.В этой работе мы предлагаем механизм нейронного внимания для определения актуальности новостей и предоставления экспериментальных доказательств того, что он является ключевым компонентом сквозного процесса обучения.Наше внимание расширяет предыдущие методы глубокого обучения из BIBREF26, BIBREF27. Несмотря наТот факт, что сквозные модели глубокого обучения достигли высочайшего уровня производительности, большое количество параметров делает их склонными к переобучению.Кроме того, комплексные модели обучаются с нуля, что требует больших наборов данных и вычислительных ресурсов.Трансферное обучение (TL) облегчает эту проблему, адаптируя представления, полученные из другого и потенциально слабо связанного исходного домена, к новому целевому домену.Например, в задачах компьютерного зрения сверточные функции, полученные из набора данных ImageNet BIBREF28 (исходный домен), были успешно перенесены в несколько целевых задач домена с гораздо меньшими наборами данных, таких как классификация объектов и распознавание сцен BIBREF29.В данной работе мы рассматриваем ТЛ в наших экспериментах по двум основным причинам.Во-первых, он решает вопрос, подходит ли предлагаемый нами набор данных для сквозного обучения, поскольку производительность переданных представлений можно сравнить со сквозным обучением.Во-вторых, еще предстоит выяснить, какой набор данных лучше подходит для задачи прогнозирования.В последнее время сообщество НЛП сосредоточилось на универсальных представлениях предложений BIBREF17, BIBREF19, которые представляют собой плотные представления, несущие в себе смысл полного предложения.BIBREF17 обнаружил, что перенос представления предложений, обученного на наборе данных BIBREF30 Стэнфордского метода вывода естественного языка (SNLI), позволяет получить самые современные представления предложений для множества задач НЛП (например, анализа настроений, типов вопросов и полярности мнений).Следуя BIBREF17, в этой работе мы исследуем пригодность наборов данных SNLI и Reuters RCV1 BIBREF31 для переноса обучения в задачу прогнозирования волатильности.Насколько нам известно, иерархический механизм внимания на уровне заголовка, предложенный в нашей работе, до сих пор не применялся для прогнозирования волатильности; Также не исследовалась возможность переноса кодировщиков предложений из исходных наборов данных в целевую задачу прогнозирования (трансферное обучение). Наш корпус охватывает широкий спектр новостей, включая новости о датах доходов, и дополняет содержание отчетов 10-K.В качестве иллюстрации заголовки «Walmart предупреждает, что сильный доллар США будет стоить продаж в 15 миллиардов долларов» и «Procter & Gamble Co повышает прогноз органического роста продаж в финансовом году после падения продаж» описывают финансовые условия и результаты деятельности компании с точки зрения руководства: это также типичное содержание раздела 7 отчетов 10-К.В этом разделе мы описываем шаги, необходимые для составления нашего набора данных финансовых новостей на уровне акций, который охватывает широкий спектр секторов бизнеса.Первым шагом в составлении нашего корпуса был выбор входящих в его состав акций.Нашей целью было рассмотреть акции в широком спектре секторов, стремясь создать диверсифицированный корпус финансовых сфер.Мы обнаружили, что биржевые фонды (ETF) предоставляют механический способ агрегировать наиболее релевантные акции в данной отрасли/секторе.ETF — это фонд, владеющий активами, например акции или валюты, но, в отличие от взаимных фондов, торгуются на фондовых биржах.Эти ETF чрезвычайно ликвидны и отслеживают различные инвестиционные темы.Мы решили использовать в своей работе акции участников SPDR Setcor Funds, поскольку компания является крупнейшим поставщиком отраслевых фондов в США.Мы включили в наш анализ 5 (пять) крупнейших отраслевых ETF по объему финансовых торгов (по состоянию на январь 2018 г.).Среди наиболее торгуемых секторов мы также отфильтровали похожие друг на друга сектора.Например, секторы потребительских товаров и товаров по усмотрению потребителей являются частью родительской категории «Потребители».Для каждого из 5 крупнейших секторов мы выбрали 10 крупнейших холдингов, которые считаются наиболее релевантными акциями.tbl:stockuniverse подробно описывает секторы нашего набора данных и соответствующие акции.Мы предполагаем, что отдельной биржевой новостью является та, в заголовке которой явно упоминается название акции или любая из ее поверхностных форм.Например, чтобы собрать все новости по биржевому коду PG и названию компании Procter & Gamble, мы ищем все заголовки с любым из этих слов: Procter&Gamble OR Procter and Gamble OR P&G.В этом примере первое слово — это просто название компании, а остальные слова — это внешние формы компании.Мы автоматически получили формы поверхности для каждого материала, начав с начальных форм поверхностей, извлеченных из Базы знаний DBpedia (KB).Затем мы применили следующую процедуру: Свяжите каждое название компании с уникальным идентификатором объекта базы знаний.Получите все значения свойства wikiPageRedirects.Свойство содержит имена разных страниц, которые указывают на одно и то же название организации/компании.На этом этапе задается исходное начальное значение поверхностных форм.Вручную отфильтруйте некоторые зашумленные значения свойств.Например, со страницы сущности Procter & Glamble мы смогли автоматически извлечь dbr:Procter_and_gamble и dbr:P_&_G, но нам пришлось вручную исключить зашумленные ассоциации dbr:Female_pads и dbr:California_Natural.Результатом вышеописанных шагов является словарь поверхностных форм $wd_{sc}$ . Наш корпус построен на уровне стандартного кода путем сбора заголовков из архива Reuters.В этом архиве заголовки группируются по датам, начиная с 1 января 2007 года.Каждый заголовок представляет собой HTML-ссылку (тег <a href>) на полный текст новости, где текст привязки представляет собой содержание заголовка, за которым следует время выпуска.Например, страница от 16 декабря 2016 года имеет заголовок «Procter & Gamble назначает Нельсона Пельца на должность директора в 17:26 UTC».Для каждой из 50 акций (5 секторов по 10 акций на сектор), выбранных с использованием критериев, описанных в sub:corpussecstock, мы извлекли все заголовки из архива Reuters за период с 01.01.2007 по 30.12.2017.Этот процесс состоит из следующих шагов: Для данного кода акции ( $sc$ ) извлеките все формы поверхности $wd_{sc}$ .Длякаждый день сохраняйте только содержимое заголовков, соответствующее любому слову в $wd_{sc}$ .Для каждого сохраненного заголовка мы также сохраняем время и часовой пояс.Преобразуйте дату и время новостей в восточное летнее время (EDT). Классифицируйте время выпуска новостей.Мы рассматриваем следующий набор категорий: {до рынка, во время рынка, после рынка, праздники, выходные}.Во время рынка содержит новости с 9:30 до 16:00.до рынка до 9:30 утра и после рынка после 16:00. Категории времени предотвращают любые несоответствия между текстом и данными о цене акций.Более того, это предотвращает утечку данных и, как следствие, нереалистичную прогнозируемую производительность модели.В целом, новости, опубликованные после 16:00 по восточному времени, могут радикально изменить рыночные ожидания и доходность, рассчитанную с использованием цен, близких к ценам закрытия, как в модели GARCH(1,1) (см. eq:closingreturn).После BIBREF3, чтобы справиться с несовпадением новостей, новости, выпущенные после 16:00 (после рынка), группируются с премаркетом (до рынка) в следующий торговый день. tbl:stocktimecat показывает распределение новостей по секторам для каждой временной категории. .Мы видим высокую концентрацию новостей, вышедших до открытия рынка (в среднем 55%).Напротив, при использовании корпуса, составленного на основе досок объявлений, было обнаружено большое количество новостей в часы работы рынка (BIBREF3).Такое поведение указывает на активность дневных трейдеров.В наш корпус входят заголовки агентств финансовых новостей, контент, больше ориентированный на корпоративные события (например, судебные процессы, слияния и поглощения, исследования и разработки) и экономические новости (пример нашего набора данных см. в таблице tbl:stockheadlinesexmaples).Эти заголовки в основном основаны на фактах.С другой стороны, пользовательский контент, такой как Twitter и доски объявлений (как в BIBREF3, BIBREF4), имеет тенденцию быть более субъективным.Макроэкономические показатели США, такие как розничные продажи, заявки на пособие по безработице и ВВП, в основном публикуются около 8:30 утра (за час до открытия рынка).Эти цифры являются ключевыми факторами рыночной активности и поэтому широко освещаются в средствах массовой информации.Конкретные разделы этих экономических отчетов влияют на несколько акций и секторов.Еще одним фактором, способствующим высокой активности новостей вне обычных торговых часов, являются отчеты о прибылях компаний.Они редко публикуются в часы торговли.Наконец, перед открытием рынка информационные агентства предоставляют краткую информацию о событиях на международных рынках, например. ключевые факты во время азиатских и австралийских торговых часов.Все эти факторы способствуют высокой концентрации предрыночных новостей.Мы начнем этот раздел с обзора модели GARCH(1,1), которая является надежным эталоном, используемым для оценки нашей нейронной модели.Затем мы просматриваем наборы исходных данных, предложенные в литературе, которые были обучены независимо и перенесены в нашу модель прогнозирования волатильности.Наконец, мы рассмотрим общую архитектуру моделирования последовательностей и механизмов внимания.Финансовые учреждения используют концепцию «Стоимость под риском» для измерения ожидаемой волатильности своих портфелей.Широко распространенной эконометрической моделью прогнозирования волатильности является обобщенная авторегрессионная условная гетероскедастичность (GARCH) BIBREF32, BIBREF33.Предыдущие исследования показывают, что модель GARCH(1,1) трудно превзойти.Например, BIBREF34 сравнил GARCH(1,1) с 330 различными эконометрическими моделями волатильности, показав, что они не значительно лучше, чем GARCH(1,1).Пусть $p_t$ будет ценой акции в конце торгового периода с доходностью закрытия $r_t$, определяемой $$r_t.= \frac{p_t}{p_{t-1}} - 1 $$ (уравнение 29)Процесс GARCH явно моделирует изменяющуюся во времени волатильность доходности активов.В спецификации GARCH(1,1) серия возвратов $r_t$ соответствует следующему процессу: $$r_t &= \mu + \epsilon _t \\
\epsilon _t &= \sigma _t z_t\\
\sigma ^2_t &= a_0 + a_1 \epsilon _{t-1}^2 + b_1 \sigma _{t-1}^2$$ (уравнение 30), где $\mu $ — константа (обратный дрейф) и $z_t$ — последовательность i.i.d. случайные величины со средним нулем и единичной дисперсией.Стоит отметить, что хотя условная средняя доходность, описанная в eq:garchcondmean, имеет постоянное значение, условная волатильность $\sigma _t$ зависит от времени и моделируется уравнением:att.Прогноз ожидаемой волатильности на один шаг вперед может быть вычислен непосредственно из eq:garchcondvariance и определяется как $$E_T[\sigma _{T+1}^2] = a_0 + a_1 E_T[\epsilon ^2] + b_1 E_T[ \ сигма _{T}^2] $$ (уравнение 32)В общем, $t^{\prime }$ -шаги вперед ожидаемой волатильности $E_T[\sigma _{T+t^{\prime }}^2]$ можно легко выразить через ожидаемую волатильность предыдущего шага.Легко доказать по индукции, что прогноз для любого горизонта может быть представлен в виде прогноза на один шаг вперед и имеет вид $$E_T[\sigma _{T+t^{\prime }}^2] - \sigma _u^2 = (a_1 + b_1)^{(t^{\prime } -1)} \left(E_T[\sigma _{T+1}^2] - \sigma _u^2\right)$ $ (уравнение 33) где $\sigma _u$ — безусловная волатильность: $$\sigma _u = \sqrt{a_0 / (1 - a_1 - b_1)} $$ (уравнение 34) Из приведенного выше уравнения мы видим что для длинных горизонтов, т.е. $t^\prime \rightarrow \infty $ , прогноз волатильности в eq:forecastrecursive сходится к безусловной волатильности в eq:unvar.Все работы, рассмотренные в разделе:введение ( BIBREF12 , BIBREF13 , BIBREF14 , BIBREF15 , BIBREF16 ), рассматривают GARCH(1,1) как эталон.Однако, учитывая длительный горизонт их прогнозов (например, квартальный или годовой), модели оцениваются с использованием безусловной волатильности $\sigma _u$ в eq:unvar.В этой работе мы фокусируемся на краткосрочном прогнозировании волатильности и используем GARCH(1,1) прогноз условной волатильности на один день вперед в eq:forecastone period для оценки наших моделей.Пусть $\sigma _{t+1}$ обозначает фактическую «истинную» дневную волатильность в данный момент времени $t$ .Производительность на наборе с $N$ ежедневными выборками можно оценить с помощью стандартной среднеквадратической ошибки ($MSE$) и средней абсолютной ошибки ($MAE$) $$MSE &= \frac{1}{N} \sum _ {t=1}^{N} \left( E_t[\sigma _{t+1}] - \sigma _{t+1}\right)^2 \\
MAE &= \frac{1}{N} \sum _{t=1}^{N}\left|E_t[\sigma _{t+1}] - \sigma _{t+1} \right|$ $ (уравнение 36) Кроме того, после BIBREF35 модели также оцениваются с использованием коэффициента детерминации $R^2$ регрессии $$\sigma _{t+1} = a + b E_t[\sigma _{t +1}]+ e_t$$ (уравнение 37), где $$R^2 = 1 - \frac{\sum _{t=1}^{N}e^{2}_{t}}{\sum _{t= 1}^{N}\left(E_t[\sigma _{t+1}] - \frac{1}{N} \sum _{t=1}^{N}E_t[\sigma _{t+1 }]\right)^{2}}$$ (уравнение 38) Одной из проблем при оценке моделей GARCH является тот факт, что фактическая волатильность $\sigma _{t+1}$ непосредственно не наблюдается.Судя по всему, квадрат дневной доходности $r_{t+1}^{2}$ в eq:closingreturn может служить хорошим показателем фактической волатильности.Однако квадраты результатов дают очень зашумленные измерения.Это прямое следствие члена $z^t$, который связывает квадрат доходности со скрытым фактором волатильности в eq:garchwhitenoise.Использование внутридневных цен для оценки фактической дневной волатильности было впервые предложено в BIBREF35.Они утверждают, что оценки волатильности, использующие внутридневные цены, являются правильным способом оценки модели GARCH(1,1), а не квадрата дневной доходности.Например, при рассмотрении немецкой марки модель GARCH(1,1) $R^2$ улучшается с $0,047$ (квадратная доходность) до $0,33$ (внутридневная доходность) BIBREF35Из предыдущего раздела ясно, что любая оценка модели волатильности с использованием зашумленных квадратов доходности в качестве показателя волатильности ex-post приведет к очень низкой производительности.Таким образом, высокочастотные внутридневные данные имеют основополагающее значение для оценки краткосрочной волатильности.Однако внутридневные данные трудно получить и они стоят дорого.К счастью, существуют статистически эффективные средства оценки дневной волатильности, которые зависят только от цен открытия, максимума, минимума и закрытия.Эти ценовые «диапазоны» широко доступны.В этом разделе мы обсудим эти оценки.Пусть $O_t$, $H_t$, $L_t$, $C_t$ — цены открытия, максимума, минимума и закрытия актива в данный день $t$.Предполагая, что дневная цена следует геометрическому броуновскому движению с нулевым дрейфом и постоянной дневной волатильностью $\sigma $ , Паркинсон (1980) вывел первую оценку дневной волатильности $$\widehat{\sigma _{PK,t}^2} = \ frac{\ln \left(\frac{H_t}{L_t}\right)^2}{4\ln (2)} $$ (уравнение 41), которое представляет дневную волатильность с точки зрения ценового диапазона.Следовательно, он содержит информацию о ценовом пути.Учитывая это свойство, ожидается, что $\sigma _{PK}$ будет менее шумной, чем волатильность, рассчитанная с использованием квадратов доходности.Оценка волатильности Паркинсона была расширена Гарманом-Классом (1980), которая включает дополнительную информацию о ценах открытия ( $O_t$ ) и закрытия ( $C_t$ ) и определяется как $$\widehat{\sigma _{GK,t} ^{2}} = \frac{1}{2} \ln \left(\frac{H_t}{L_t}\right)^2 - (2\ln (2) - 1) \ln \left(\frac {C_t}{O_t}\right)^2 $$ (уравнение 42)Относительный шум различных оценок $\hat{\sigma }$ может быть измерен с точки зрения их относительной эффективности по отношению к ежедневной волатильности $\sigma $ и определяется как $$e\left(\widehat{\sigma ^{2} }, \sigma ^2\right)\equiv \frac{Var[\sigma ^2]}{Var[\widehat{\sigma ^{2}}]}$$ (уравнение 43), где $Var[\cdot ]$ — оператор дисперсии.Из eq:garchwhitenoise непосредственно следует, что квадратичный возврат имеет эффективность 1 и, следовательно, очень шумный.BIBREF36 сообщает, что оценка волатильности Паркинсона ($\widehat{\sigma _{PK,t}^2}$) имеет относительную эффективность 4,9, а относительная эффективность Garman-Klass ($\widehat{\sigma _{GK,t}^2}$) 7,4. .Кроме того, все описанные оценки являются несмещенными.В литературе было предложено множество альтернативных оценок ежедневной волатильности.Однако эксперименты в BIBREF36 оценивают оценщик волатильности Гармана-Класса как лучший оценщик волатильности, основанный только на ценах открытия, максимума, минимума и закрытия.В этой работе мы обучаем наши модели прогнозированию с помощью современного оценщика Гармана-Класса.Более того, мы оцениваем наши модели и GARCH(1,1), используя метрики, описанные в разделе sub:evalution, но с соответствующими показателями волатильности, то есть оценщиками Паркинсона и Гармана-Класса.Векторные представления слов, также известные как вложения слов BIBREF21, BIBREF37, которые представляют слово как плотный вектор, стали стандартными строительными блоками почти всех задач НЛП.Эти встраивания обучаются на большом немаркированном корпусе и способны улавливать контекст и сходство между словами.Были предприняты некоторые попытки изучить векторные представления полного предложения, а не только одного слова, используя неконтролируемые подходы, аналогичные по своей природе встраиванию слов.Недавно BIBREF17 продемонстрировал современную производительность, когда кодировщик предложений проходит сквозное обучение на контролируемой исходной задаче и переводится на другие целевые задачи.Вдохновленные этой работой, мы исследуем производительность кодировщиков предложений, обученных задачам категоризации текста и вывода естественного языка (NLI), и используем эти кодеры в нашей основной задаче краткосрочного прогнозирования волатильности.Общий кодер предложений $S_e$ получает слова предложения в качестве входных данных и возвращает вектор, представляющий предложение.Это можно выразить как отображение $$S_e \colon \mathbb {R}^{T^{S} \times d_w} \rightarrow \mathbb {R}^{d_S}$$ (уравнение 45) с переменным размером последовательность слов в вектор предложения $S$ фиксированного размера $d_S$ , где $T^{S}$ — количество слов в предложении, а $d_w$ — размерность встраивания предварительно обученного слова.В следующих разделах мы описываем наборы данных и архитектуры для обучения кодировщиков предложений вспомогательным задачам трансферного обучения.Корпус Reuters Volume I (RCV1) представляет собой корпус, содержащий 806 791 новостную статью на английском языке, собранную с 20 августа 1996 г. по 19 августа 1997 г. BIBREF31.Тема каждой новости была аннотирована человеком с использованием иерархической структуры.На вершине иерархии находятся более общие категории: CCAT (Корпоративный бизнес), ECAT (Экономика), GCAT (Правительство) и MCAT (Рынки).Новостная статья может быть отнесена к более чем одной категории, что означает, что задача категоризации текста является многозначной.Каждая новость хранится в отдельном XML-файле.lst:rcv1xmlexample показывает типичную структуру статьи.<?xml version="1.0"coding="iso-8859-1" ?><newsitem itemid="6159" id="root" date="1996-08-21" " xml:lang="en"><headline>Колумбия повышает внутреннюю цену на кофе.</headline><dateline>БОГОТА 1996-08-21</dateline><copyright>(c) Reuters Limited, 1996</copyright><metadata ><codes class="bip:topics:1.0"> <code code="C13"> <editdetail attribution="Reuters BIP Coding Group" action="confirmed" date="1996-08-21"/> </code > <code code="C31"> <editdetail attribution="Reuters"Группа кодирования BIP" action="confirmed" date="1996-08-21"/> </code> <code code="CCAT"> <editdetail attribution="Группа кодирования Reuters BIP" action="confirmed" date=" 1996-08-21"/> </code> <code code="M14"> <editdetail attribution="Reuters BIP Coding Group" action="confirmed" date="1996-08-21"/> </code> <code code="M141"> <editdetail attribution="Reuters"Группа кодирования BIP" action="confirmed" date="1996-08-21"/> </code> <code code="MCAT"> <editdetail attribution="Группа кодирования Reuters BIP" action="confirmed" date=" 1996-08-21"/> </code></codes></metadata></newsitem>Набор данных RCV1 не выпускается со стандартным набором данных, проверкой и разделением тестов.В этой работе мы выделили 15% образцов в качестве тестового набора для целей оценки.Остальные выборки были дополнительно разделены, оставив 70% и 15% для обучения и проверки соответственно.Что касается распределения категорий, мы обнаружили, что из исходных 126 категорий 23 категории никогда не были присвоены каким-либо новостям; поэтому были проигнорированы.Из оставшихся 103 классов мы обнаружили высокий дисбаланс среди меток с большим количеством недостаточно представленных категорий, имеющих менее 12 образцов.Очень небольшое количество выборок для этих классов меньшинств затрудняет различение очень мелких категорий.Стремясь облегчить эту проблему, мы сгруппировали в один класс все категории ниже второго уровня иерархии.Например, для корневого узла CCAT (Корпорация) мы сгруппировали C151 (СЧЕТА/ДОХОД), C1511 (ГОДОВЫЕ РЕЗУЛЬТАТЫ) и C152 (КОММЕНТАРИИ/ПРОГНОЗЫ) в прямой дочерний узел C15 (РЕЗУЛЬТАТИВНОСТЬ).Благодаря этой процедуре исходные 103 категории были сокращены до 55.Одним из преимуществ этой процедуры было то, что менее представленные классы в конечном итоге имели около тысячи образцов по сравнению с всего 12 образцами в исходном наборе данных. fig:rcv1arch показывает архитектуру для задачи сквозной категоризации текста.В нижней части архитектуры $S_e$ получает встраивания слов и выводит вектор предложений $S$.Вектор $S$ проходит через полносвязный слой (FC) с сигмовидной функцией активации, которая выводит вектор $\hat{y} \in \mathbb {R}^{55}$ с каждым элементом $\hat{y}_j \в[0,1]$ .Описанная выше архитектура обучается в предположении, что каждая категория независима, но не является взаимоисключающей, поскольку выборке может быть присвоено более одной категории (многозначная классификация).Потери на выборку — это средние потери журнала по всем меткам: $$\mathcal {L}(\hat{y}, y) = - \sum _{i=1}^{55}\left( y_i \log ( \hat{y}_i) +(1-y_{i}) \log (1-\hat{y}_{i}) \right)$$ (уравнение 48) где индекс $i$ пробегает элементы предсказанного и истинного векторов.Учитывая высокий дисбаланс категорий, во время обучения мы отслеживаем метрику $F_1$ проверочного набора и выбираем модель с наибольшим значением.Набор данных Stanford Natural Language Inference (SNLI) BIBREF30 состоит из 570 000 пар предложений.Каждая пара имеет предпосылку и гипотезу, помеченные вручную одним из трех ярлыков: следствие, противоречие или нейтральность.SNLI имеет множество желаемых свойств.Метки одинаково сбалансированы, в отличие от набора данных RCV1.Кроме того, языковой вывод — это сложная задача, требующая более глубокого понимания значения предложения, что делает этот набор данных пригодным для обучения контролируемых кодировщиков предложений, которые хорошо обобщаются для других задач BIBREF17.tbl:snliexmaples показывает примеры пар предложений набора данных SNLI и соответствующие им метки.Чтобы изучить кодировщики предложений, которые можно однозначно перенести на другие задачи, мы рассматриваем архитектуру нейронной сети для кодировщика предложений с общими параметрами между парами предпосылок и гипотез, как в BIBREF17.fig:snliarch, описывает архитектуру нейронной сети.После того, как каждая предпосылка и гипотеза закодированы в $S_p$ и $S_h$ соответственно, у нас есть слой слияния.Этот слой не имеет обучаемых весов и просто объединяет встраивание каждого предложения.Вслед за BIBREF17 мы добавляем еще два метода сопоставления: абсолютную разницу $\vert S_p — S_h \vert$ и поэлементный $S_p \odot S_h$.Наконец, чтобы изучить парное представление, $S_ph$ подается на уровень FC с функцией активации выпрямленной линейной единицы (ReLU), которая выражается как $f(x) = \log (1 + e^x)$ .Последний слой softmax выводит вероятность каждого класса.Наконец, веса классификатора NLI оптимизируются, чтобы минимизировать потери категориального журнала на выборку $$\mathcal {L}(\hat{y}, y) = - \sum _{j=1}^{3}y_i \ log (\hat{y}_i)$$ (уравнение 52) Во время обучения мы следим за точностью набора проверки и выбираем модель с наибольшим значением метрики.Мы начнем этот раздел с обзора архитектуры рекуррентной нейронной сети (RNN) и ее применения для кодирования последовательности слов.RNN способны обрабатывать последовательности переменной длины, что является прямым следствием ее рекуррентной ячейки, которая имеет одни и те же параметры во всех элементах последовательности.В этой работе мы используем ячейку долговременной краткосрочной памяти (LSTM) BIBREF38 с воротами забывания $f_t$ BIBREF39 .Ячейка LSTM наделена состоянием памяти, которое может запоминать представления, зависящие от порядка слов в предложении.Это делает LSTM более подходящим для поиска отношений, которые невозможно отобразить с помощью стандартных представлений «мешка слов».Пусть $x_1, x_2, \cdots , x_T$ — серия наблюдений длины $T$ , где $x_t \in \mathbb {R}^{d_w}$ .В общих чертах, ячейка LSTM получает предыдущее скрытое состояние $h_{t-1}$, которое объединяется с текущим наблюдением $x_t$ и состоянием памяти $C_t$ для вывода нового скрытого состояния $h_t$ .Это состояние внутренней памяти $C_{t}$ обновляется в зависимости от предыдущего состояния и трех модулирующих элементов: ввода, забывания и вывода.Формально для каждого шага $t$ процесс обновления выглядит следующим образом (см. рис.:lstmcell для схематического представления высокого уровня): Сначала мы вычисляем входной $i_t$ , забываем $T$0 и выводим элементы $T$1: $$i_t &= \sigma _s\left(W_i x_t+ U_i h_{t-1} + b_i\right) \\
f_t &= \sigma _s\left(W_f x_t+ U_f h_{t-1} + b_f\right) \\
o_t &= \sigma _s\left(W_o x_t+ U_o h_{t-1} + b_o\right)$$ (уравнение 54) где $\sigma _s$ — активация сигмовидной кишки.Во-вторых, генерируется состояние памяти-кандидата $\widetilde{C}_t$: $$\widetilde{C}_t = \tanh \left(W_c x_t+ U_c h_{t-1} + b_c\right)$$ (уравнение 55)Теперь мы можем установить окончательное состояние памяти $C_t$.Его значение модулируется на основе входных и забывающих элементов eq:inputforgetgates и определяется по формуле: $$C_t = i_t\odot \widetilde{C}_t + f_t\odot C_{t-1}$$ (уравнение 56) Наконец, на основе состояния памяти и выходного элемента eq:inputforgetgates, мы имеем скрытое выходное состояние $$h_t = o_t\odot \tanh \left(C_t\right)$$ (уравнение 57)Что касается обучаемых весов, пусть $n$ — количество единиц ячейки LSTM.Отсюда следует, что матрицы аффинных преобразований $W$ и $U$ имеют размерность ${n \times d_w}$ и ${n \times n}$ соответственно.Его члены смещения $b$ являются векторами размера $n$ .Следовательно, общее количество параметров равно $4 (n d_w + n^2 + n)$ и не зависит от порядкового номера временных шагов $T$. Мы видим, что сети LSTM способны улавливать временные зависимости в последовательностях произвольная длина.Одним из простых приложений является моделирование кодировщика предложений, обсуждаемого в разделе sec:transferlearning, который выводит представление вектора предложения, используя его слова в качестве входных данных.Учитывая последовательность слов $\left\lbrace w_t\right\rbrace _{t=1}^{T}$, мы стремимся выучить слова скрытое состояние $\left\lbrace h_t\right\rbrace _{t=1} ^{T}$ таким образом, чтобы каждое слово отражало влияние его прошлых и будущих слов.Двунаправленный LSTM (BiLSTM), предложенный в BIBREF40, представляет собой LSTM, который «читает» предложение или любую последовательность в целом от начала до конца (вперед) и наоборот (назад).Новое состояние $h_t$ — это объединение $$h_t =[\overrightarrow{h_t}, \overleftarrow{h_t}]$$ (уравнение 59) где $$\overrightarrow{h_t} &= \text{LSTM}\left(w_1, \cdots , w_T\right) \\
\overleftarrow{h_t} &= \text{LSTM}\left(w_T, \cdots , w_1\right) \\$$ (уравнение 60) Поскольку предложения имеют разную длину, нам необходимо преобразовать объединенные скрытые состояния $T$ BiLSTM в представление предложения фиксированной длины.Одна простая операция — применить любую форму объединения.Механизм внимания — это альтернативный подход, в котором предложение представляется как средневзвешенное значение скрытых состояний, где веса изучаются сквозным образом.В следующих разделах мы опишем кодировщики предложений, используя слои пула и внимания.Уровень максимального объединения направлен на извлечение наиболее заметных особенностей слова во всем предложении.Формально он выводит векторное представление предложения $S_{MP} \in \mathbb {R}^{2n}$ такое, что $$S_{MP} = \max _{t=1}^{T} h_t$$ ( Уравнение 62), где $h_t$ определен в eq:htconcat, а оператор $\max $ применяется к временным шагам Dimension.fig:bilstmmaxpool иллюстрирует кодировщик предложений BiLSTM max-pooling (MP).Эффективность слоя максимального пула оценивалась во многих исследованиях НЛП.BIBREF41 использовал слой максимального пула поверх представлений слов и утверждает, что он работает лучше, чем пул среднего значения.Результаты экспериментов в BIBREF17 показывают, что среди трех типов объединения (максимальное, среднее и последнее) максимальное объединение обеспечивает наиболее универсальное представление предложений с точки зрения переноса производительности на другие задачи.Основываясь на этих исследованиях, в этой работе мы выбираем максимальный пул BiLSTM в качестве слоя пула.Механизмы внимания были введены в литературу по глубокому обучению, чтобы преодолеть некоторые упрощения, налагаемые операторами объединения.Когда мы, люди, читаем предложение, мы можем определить его наиболее важные части в данном контексте и игнорировать информацию, которая является избыточной или вводящей в заблуждение.Модель внимания призвана имитировать это поведение.Уровни внимания были предложены для различных задач НЛП.Например, NLI с перекрестным вниманием между предпосылкой и гипотезой, вопросы и ответы и машинный перевод (MT).В частности, в задаче машинного перевода каждое слово в целевом предложении учится сопровождать соответствующие слова исходного предложения, чтобы сгенерировать перевод предложения.Кодировщик предложений с вниманием (или самовниманием) BIBREF42, BIBREF43, BIBREF44 присваивает разные веса собственным словам предложения; следовательно, преобразование скрытых состояний в одно векторное представление предложения.Учитывая набор скрытых векторов слов $\lbrace h_1, \cdots , h_T\rbrace $ где $h_t \in \mathbb {R}^n$ , механизм внимания определяется уравнениями: $$\tilde{h}_t & = \sigma \left(W h_t+ б \вправо) \\
\alpha _{t} &= \frac{\exp ({v^{\intercal } \cdot \tilde{h}_t} )}{\sum _{t} \exp ({v \cdot \tilde{h }_t})} \\
S_{A_w} &= \sum _{t} \alpha _{t} h_t$$ (уравнение 66) где $W \in \mathbb {R}^{d_a \times n}$ , $b \in \ mathbb {R}^{d_a \times 1}$ и $v \in \mathbb {R}^{d_a \times 1}$ являются обучаемыми параметрами.Мы видим, что представление предложения $S_{A_w}$ представляет собой средневзвешенное значение скрытых состояний.рис:bilstminneratt дает схематическое представление о внимании BiLSTM, где мы можем учитывать внимание, описанное в eq:att, как двухслойную модель с плотным слоем (единицы $d_a$), за которым следует другой плотный слой, который предсказывает $\alpha _t$ (одна единица ).В этом разделе мы впервые представляем нашу проблему в рамках глубокого мультимодального обучения.Затем мы представляем нашу нейронную архитектуру, которая способна решать проблемы актуальности и новизны новостей.Наконец, мы рассмотрим методы, применяемые для изучения общих черт между акциями (глобальные функции). Наша задача состоит в том, чтобы предсказать ежедневную волатильность акций.Как обсуждалось в разделе subsub:rangevolestimators, оценщик класса Гамана $\widehat{\sigma _{GK,t}}$ в eq:volgk является очень эффективным показателем краткосрочной волатильности, поэтому он принят в качестве нашей целевой переменной.Наша цель — изучить сопоставление между волатильностью следующего дня $\sigma _{t+1}$ и историческими мультимодальными данными, доступными до дня $t$ .С этой целью мы используем подход скользящего окна с размером окна $T$.То есть для каждой акции $sc$ выборка в день $t$ выражается как последовательность исторических цен $P^{sc}_t$ и заголовков корпуса $N^{sc}_t$ .Ценовая последовательность представляет собой вектор дневных цен (DP) и выражается как $$P^{sc}_t = \left[DP^{sc}_{t-T}, DP^{sc}_{t-T+1} , \cdots , DP^{sc}_t \right]$$ (уравнение 69) где $DP^{sc}_{t^{\prime }}$ — вектор ценовых характеристик.Чтобы избежать разработки функций для конкретной задачи, функции дневной цены выражаются в виде простых возвратов: $$DP^{sc}_t = \left[ \frac{O^{sc}_{t}}{C^{ sc}_{t-1}} – 1, \frac{H^{sc}_{t}}{C^{sc}_{t-1}} – 1, \frac{L^{sc}_ {t}}{C^{sc}_{t-1}} - 1, \frac{C^{sc}_{t}}{C^{sc}_{t-1}} - 1 \right ]$$ (уравнение 70)Последовательность заголовков исторического корпуса $N^{sc}_t$ выражается как $$N^{sc}_t = \left[n^{sc}_{t-T}, n^{sc}_{t-T+ 1}, \cdots , n^{sc}_{t} \right]$$ (уравнение 71) где $n^{sc}_{t^{\prime }}$ — набор, содержащий все заголовки, влияющие на рынок в данный день $t^{\prime }$ .Чтобы согласовать цены и режимы новостей, мы рассмотрим метод явного выравнивания, обсуждаемый в подразделе:stockheadlines.То есть $n^{sc}_{t^{\prime }}$ содержит все заголовки акций до открытия рынка ( $\texttt {before market}_{t}$ ), в часы торговли ( $\texttt {во время рынка}_{t}$ ) и послепродажного обслуживания предыдущего дня ( $\texttt {after Market}_{t-1}$ ).AsНа этапе предварительной обработки текста мы маркируем заголовки и преобразуем каждое слово в целое число, которое относится к соответствующему предварительно обученному внедрению слова.Этот процесс описывается следующим образом:Во-первых, для всех акций нашего корпуса мы маркируем каждый заголовок и извлекаем словарный набор корпуса $V$ .Затем мы строим матрицу вложения $E_w \in \mathbb {R}^{\vert V \vert \times d_w}$ , где каждая строка представляет собой вектор вложения слов $d_w$ измерений.Слова, не имеющие соответствующей вставки, т.е. слова вне словаря, пропускаются.Наконец, входной образец текстового режима представляет собой тензор целых чисел с $T \times l_n.Размерность \times l_s$, где $l_n$ — максимальное количество новостей, появляющихся в данный день, а $l_s$ — максимальная длина корпуса предложения.Что касается ценового режима, у нас есть тензор плавающих чисел $T \times 4$.Учитывая цену и историю новостей для каждой акции $sc$, мы могли бы напрямую изучить одну модель для каждой акции.Однако этот подход страдает двумя основными недостатками.Во-первых, ожидается, что рыночная активность одной конкретной акции повлияет на другие акции, что является широко распространенной закономерностью, называемой «побочным эффектом».Во-вторых, поскольку наши данные о ценах собираются ежедневно, мы будем обучать модель акций, опираясь на небольшое количество образцов.Одним из возможных решений для моделирования общности акций могло бы стать обогащение функций.Например, при моделировании данной акции $X$ мы обогащаем ее функции новостей и цен путем объединения функций акций $Y$ и $Z$.Хотя расширение функций позволяет моделировать влияние других акций, оно все равно будет учитывать только одну выборку в день.В этой работе мы предлагаем метод, который изучает глобальную модель.Глобальная модель реализуется с использованием следующих методов: Пакетные выборки из нескольких акций: поскольку наши модели обучаются с использованием стохастического градиентного спуска, мы предлагаем на каждой итерации мини-пакета брать выборку из пакетного набора, содержащего любые акции из нашей вселенной акций.Как следствие, сопоставление волатильности и мультимодальных данных теперь позволяет выявить общие объясняющие факторы среди акций.Более того, применение этого подхода увеличивает общее количество обучающих выборок, которое теперь представляет собой сумму количества образцов на акцию.Встраивание акций. Используя приведенные выше примеры из нескольких акций, мы решаем проблему моделирования общности акций.Однако разумно предположить, что динамика акций отчасти обусловлена идиосинкразическими факторами.Тем не менее, мы могли бы агрегировать акции по секторам или полагаться на какую-либо меру сходства между акциями.Чтобы включить информацию, специфичную для каждой акции, мы предлагаем оснастить нашу модель режимом «встраивания акций», который изучается совместно с режимами цен и новостей.То есть мы оставляем нейронной сети задачу различения конкретной динамики каждой акции.В частности, это встраивание акций моделируется с использованием дискретной кодировки в качестве входных данных, т. е. $\mathcal {I}^{sc}_t$ представляет собой вектор с размером, равным количеству акций во вселенной акций, и имеет элемент 1 для i- th координата и 0 в остальных местах, что указывает на запас каждого образца.Формально мы можем выразить подход «одна модель на акцию» как отображение $$\begin{split}
\sigma ^{sc}_{t+1} = f^{sc} ( DN^{sc}_{t-T}, DN^{sc}_{t-T+1}, \cdots , DN^{sc }_t ; \\
DP^{sc}_{t-T}, DP^{sc}_{t-T+1}, \cdots , DP^{sc}_t )
\end{split}$$ (уравнение 75), где $DN^{sc}_{t^{\prime }}$ — фиксированный вектор, представляющий все новости, выпущенные в определенный день для акций $sc$ и $ DP^{sc}_{t^{\prime }}$ определяется в eq:pricemodevec.Глобальная модель пытается изучить одно отображение $f$, которое на каждой итерации мини-пакета случайным образом объединяет выборки по всей совокупности акций, а не одно отображение $f^{sc}$ для каждой акции.Глобальная модель выражается как $$\begin{split}
\sigma ^{sc}_{t+1} = f ( DN^{sc}_{t-T}, DN^{sc}_{t-T+1}, \cdots , DN^{sc}_t ; \ \
DP^{sc}_{t-T}, DP^{sc}_{t-T+1}, \cdots , DP^{sc}_t ; \\
\mathcal {I}^{sc}_t)
\end{split}$$ (уравнение 77)В следующем разделе мы опишем нашу иерархическую нейронную модель и то, как новости, цены и встраивание акций объединяются в совместное представление.В общих чертах наша иерархическая нейронная архитектура описывается следующим образом.Во-первых, каждый заголовок, выпущенный в определенный день $t$, кодируется в вектор фиксированного размера $S_t$ с помощью кодировщика предложений.Затем мы применяем наш ежедневный механизм внимания к новой релевантности (NRA), который посещает каждую новость на основе ее содержания и преобразует новости переменного размера, выпущенные в определенный день, в один вектор, обозначаемый Daily News ($DN$).Отметим, что это представление учитывает общий эффект всех новостей, выпущенных в определенный день.Этот процесс проиллюстрирован на рис:DNencoder.Теперь мы можем рассмотреть временной эффект рыночных новостей и ценовых особенностей последних $T$ дней.fig:nntimeseriesarch иллюстрирует архитектуру нейронной сети от временной последовательности до окончательного прогноза волатильности.Для каждого кода акции $sc$ временная кодировка новостей обозначается рыночными новостями $MN^{sc}_t$, а цена — рыночной ценой $MP^{sc}_t$ и является функцией прошлого $T$. Представления ежедневных новостей ${\lbrace DN^{sc}_{t-T}, \cdots , DN^{sc}_t \rbrace }$ (текстовый режим) и ежедневных цен имеют функцию $S_t$0 (режим цен), где каждая ежедневная цена Функция $S_t$1 задается eq:pricemodevec, а представление $S_t$2 рассчитывается с использованием ежедневного внимания к новым релевантностям.После того, как временные эффекты $S_t$3 прошлых дней рыночной активности уже были закодированы в рыночных новостях $S_t$4 и рыночной цене $S_t$5 , мы объединяем по функциям $S_t$6 , $S_t$7 и встраивание акций $S_t$8 .Вложение акций $S_t$9 представляет код акции выборки в данный день $t$ .Наконец, у нас есть уровень Fully Connected (FC), который изучает совместное представление всех режимов.Это совместное представление фиксированного размера подается в слой FC с линейной активацией, который предсказывает волатильность на следующий день $\hat{\sigma }_{t+1}$ . Ниже мы подробно рассмотрим для каждого режима отдельно слои нашего иерархическая модель.– Текстовый режимПоиск встраивания словСтандартный слой встраивания без обучаемых параметров.Он получает на вход вектор индексов слов и возвращает матрицу вложений слов.Кодировщик новостей. Этот слой кодирует все новости за определенный день и выводит набор вложений новостей $\lbrace S^{1}_t, \cdots, S^{l_n}_t \rbrace $.Каждое закодированное предложение имеет размерность $d_S$, которая является гиперпараметром нашей модели.Этот уровень представляет собой ключевой компонент нашей нейронной архитектуры, и поэтому мы оцениваем наши модели с учетом сквозных обученных кодировщиков предложений, используя архитектуры внимания BiLSTM (subsec:bilstminneratt) и максимального пула BiLSTM (subsec:bilstmmaxpool), а также перенесены из RCV1 и SNLI в качестве фиксированных функций.Внимание к актуальности ежедневных новостейНаш предлагаемый механизм внимания к актуальности новостей для всех новостей, выпущенных в определенный день.Введен механизм внимания для борьбы с информационной перегрузкой.Он был разработан для того, чтобы «отфильтровать» избыточные или вводящие в заблуждение новости и сосредоточиться на важных, основываясь исключительно на новостном содержании.Формально слой выводит Daily News (DN), встраивающий $DN^{sc}_t = \sum _{i=1}^{l_n} \beta _i S^{sc^{i}}_t$ , который представляет собой линейную комбинацию всех закодированных новостей в данный день $t$ .Это внимание на уровне новостей использует те же уравнения, что и в eq:att, но с обучаемыми весами $\lbrace W_{R}, b_{R}, v_{R}\rbrace $ , т. е. веса отделены от кодировщика предложений.fig:DNencoder, иллюстрирует наше актуальное внимание.Обратите внимание, что этот слой был намеренно разработан так, чтобы быть инвариантным к перестановкам заголовков, как в случае с формулой линейной комбинации, приведенной выше.Причина в том, что наши данные о ценах собираются ежедневно, и, как следствие, мы не можем распознать реакцию рынка на каждую внутридневную новость.Слой последовательности временного контекста новостей с встраиванием ежедневных новостей $DN^{sc}_t$ в качестве временных шагов.Целью этого слоя является изучение временного контекста новостей, то есть связи между новостями в день $t$ и прошлыми днями $T$.Он получает на вход хронологически упорядоченную последовательность $T$ прошлых вложений Daily News ${\lbrace DN^{sc}_{t-T}, \cdots , DN^{sc}_t \rbrace }$ и выводит кодировку режима новостей Market. Новости $MN^{sc}_t \in d_{MN}$ .Последовательность с временными шагами $T$ кодируется с использованием внимания BiLSTM.Этот слой был разработан для фиксации временного порядка выпуска новостей и текущей новизны новостей.т.е. новости, которые повторялись в прошлом, могут быть «забыты» на основе модулирующих вентилей сети LSTM.– Уровень Price ModePrice EncoderSequence аналогичен News Temporal Context, но для режима цены.Входными данными является упорядоченная последовательность Daily Prices ${\lbrace DP^{sc}_{t-T}, \cdots , DP^{sc}_t \rbrace }$ размера $T$ , где каждый элемент представляет собой ценовой признак, определенный в уравнении. :pricemodevec.В частности, архитектура состоит из двух сложенных друг на друга LSTM.Первый из них выводит для каждого временного шага ценового признака скрытый вектор, учитывающий временной контекст.Затем эти скрытые векторы снова передаются во второй независимый LSTM.Слой выводит ценовой режим, кодирующий рыночную цену $MP^{sc}_t \in d_{MP}$ .Эта кодировка является последним скрытым вектором второго рынка LSTM.– Встраивание стока. Stock Encoder. Плотное представление Stock.Уровень получает дискретную кодировку $\mathcal {I}^{sc}_t$, указывающую, что образец стандартного кода проходит через уровень FC, и выводит стандартное встраивание $E_{sc}$ .–Совместное представительствоСлияние. Объединение режимов новостей, цен и акций.Нет обучаемых параметров.Слой Joint Representation EncoderFC размером $d_{JR}$. Во время обучения мы передаем в нашу нейронную модель данные о ценах, новостях и индикаторах акций.Данные о режимах индикатора цен и акций поступают за все дни.Однако на уровне отдельных акций могут быть дни, когда компания не освещается в средствах массовой информации.Эта функция усложняет наше мультимодальное обучение, поскольку нейронные сети не способны обрабатывать отсутствующие режимы без специального вмешательства.Простым решением было бы учитывать только дни с выходом новостей, не принимая во внимание остальные образцы.Однако у этого подхода есть два основных недостатка.Во-первых, «отсутствующие новости» не происходят случайно и не связаны с ошибками измерений, как, например, в случае мультимодальных задач с использованием данных механических датчиков.И наоборот, как подчеркивается в BIBREF7, BIBREF8, одно и то же поведение цен приводит к различным реакциям рынка, независимо от того, сопровождаются ли они новостями или нет.Другими словами, именно для задач финансового прогнозирования отсутствие или наличие новостей очень информативно.В мультимодальной литературе были предложены некоторые методы для эффективного лечения недостающих модальностей или «отсутствия информативности», что является характеристикой, называемой в литературе обучением с отсутствующими модальностями BIBREF22.В этой работе мы напрямую моделируем отсутствие новостей как особенность временной последовательности нашей текстовой модели, используя метод, первоначально предложенный в BIBREF45, BIBREF46 для клинических данных с отсутствующими измерениями и примененный в контексте финансового прогнозирования в BIBREF47.В частности, мы реализуем метод нулей и вменения (ZI) BIBREF46, чтобы совместно изучать режим цен и взаимосвязь новостей во все дни рыночной активности.Реализация ZI описывается следующим образом: перед обработкой последовательности ежедневных новостей текстовым временным слоем (описанным в itm:newstclayer) мы вводим вектор 0 для всех временных шагов с отсутствующими новостями и в противном случае оставляем кодировку новостей неизменной.Этот шаг называется нулевым вменением.Кроме того, мы объединяем по признакам вектор индикатора со значением 1 для всех векторов с нулевым вменением и 0 для дней с новостями.Как описано в BIBREF47, метод ZI наделяет модель временной последовательности способностью изучать различные представления в зависимости от истории новостей и ее относительного временного положения.Более того, это позволяет нашей модели прогнозировать волатильность для всех дней нашего временного ряда и в то же время учитывать отсутствие информативности текущих и прошлых новостей.Кроме того, изученное позиционное кодирование новостей работает иначе, чем типичное «маскирование», при котором дни без новостей не проходят через ячейку LSTM.Маскировка временных шагов приведет к потере информации о наличии или отсутствии новостей, сопутствующих ценам.Мы стремимся оценить нашу иерархическую нейронную модель в свете трех основных аспектов.Во-первых, мы оцениваем важность различных кодировщиков предложений для наших сквозных моделей и их сравнение с переносом кодировщика предложений из наших двух вспомогательных задач TL.Во-вторых, мы удаляем предлагаемый нами компонент внимания к релевантности новостей (NRA), чтобы оценить его важность.Наконец, мы рассматриваем модель, которая учитывает только ценовой режим (унимодальный), т. е. игнорирует любую архитектуру, связанную с текстовым режимом.Прежде чем мы определим базовые показатели для оценки трех аспектов, описанных выше, мы рассмотрим в следующем разделе оценки обученных задач TL.В этом разделе сообщается о выполнении вспомогательных задач TL, рассмотренных в данной работе.Наша конечная цель — показать, что наши оценки соответствуют предыдущим работам. Все архитектуры, представленные в sec:transferlearning, обучаются максимум в течение 50 эпох с использованием мини-пакетного SGD с оптимизатором Adam BIBREF48.Более того, в конце каждой эпохи мы оцениваем оценки проверки, которые представляют собой точность (набор данных Stanfor SNLI) и F1 (набор данных RCV1), и сохраняем веса с лучшими значениями.Стремясь ускорить обучение, мы реализуем раннюю остановку с терпением, установленным на 8 эпох.То есть, если результаты проверки не улучшаются в течение более 10 эпох, мы прекращаем обучение.Наконец, мы используем предварительно обученные векторные представления слов Glove BIBREF37 в качестве фиксированных функций. tbl:tlevaluation сравнивает результаты наших тестов с современными результатами (SOTA), представленными в предыдущих работах.Мы видим, что наши результаты по задаче SNLI очень близки к современным.Что касается набора данных RCV1, наши результаты учитывают только содержание заголовка для обучения, тогда как рецензируемые работы учитывают как заголовок новости, так и тело сообщения.Причина обучения с использованием только заголовков заключается в том, что обе задачи изучаются с единственной целью — передать кодировщики предложений нашей основной задаче прогнозирования волатильности, текстовый ввод которой ограничен заголовками.Во время обучения нашей иерархической нейронной модели, описанной в sub:HAN, мы уделяли особое внимание предотвращению переобучения.С этой целью мы полностью разделяем 2016 и 2017 годы как тестовый набор и сообщаем о наших результатах по этому «невидимому» набору.Остальные данные далее разделены на обучение (с 2007 по 2013 год) и проверку (с 2014 по 2015 год).Сходимость модели во время обучения отслеживается в наборе проверки.Мы отслеживаем оценку валидации нашей модели в конце каждой эпохи и сохраняем веса сети, если оценки валидации улучшаются между двумя последовательными эпохами.Кроме того, мы используем мини-пакетный SGD с оптимизатором Адама и раннюю остановку с терпением, установленным на восемь эпох.Настройка гиперпараметра выполняется с использованием поиска по сетке.Все обучение выполняется с использованием предложенного подхода глобальной модели, описанного в разделе sub:globalmodel, который изучает модель, учитывающую особенности всех 40 акций нашего корпуса.Используя этот подход, наш обучающий набор содержит в общей сложности 97 903 выборки.Более того, во время мини-пакетной выборки SGD тензоры цен и истории новостей за последние $T$ дней, а также индикатор каждой выборки акций выбираются случайным образом из набора всех 40 акций.Чтобы оценить вклад каждого компонента нашей нейронной модели, описанной в sub:HAN, и эффект использования текстовых данных для прогнозирования волатильности, мы сообщаем о наших результатах, используя следующие базовые показатели: - Новости (только унимодальная цена): этот базовый уровень полностью удаляет (то есть удаляет) любую архитектуру, связанную с режимом новостей, учитывая только кодирование цен и компоненты встраивания акций.Используя эту абляцию, мы стремимся оценить влияние новостей на проблему прогнозирования волатильности.+ Новости (сквозные кодировщики предложений) – NRA:Этот базовый уровень отменяет предложенный нами новый компонент релевантного внимания (NRA) и вместо этого использует тот же метод ежедневного усреднения в BIBREF26, BIBREF27, где все представления заголовков фиксированного размера в данный день усредняются без учета релевантности каждого Новости.Мы оцениваем этот базовый уровень как для кодировщиков предложений BiLSTM «внимание» (Att), так и для BiLSTM «max-pooling» (MP).Здесь наша цель — оценить истинный вклад нашего компонента NRA в случае, если принимаются во внимание кодировщики предложений SOTA.+ Новости (сквозной кодировщик предложений WL Att) +NRA:Кодировщик предложений внимания на уровне слов (WL Att) реализует механизм внимания непосредственно поверх вложений слов и, как таковой, не учитывает порядок слов в предложении.Этот базовый показатель дополняет предыдущий, т. е. оценивает влияние кодировщика предложений с учетом нашей полной спецификации.+ Новости (TL Sentence Encoders)+NRA: использует кодировщики предложений наших двух вспомогательных задач TL в качестве фиксированных функций.Этот базовый уровень направлен на решение следующих вопросов, а именно: какой набор данных и модели больше подходят для переноса на нашу конкретную задачу прогнозирования волатильности; Как работают сквозные модели, обученные на основе встраивания слов, по сравнению с кодировщиками предложений, переданными из других задач. В таблице tbl:comparativeallsectors суммируются результаты тестов для удалений, обсуждавшихся выше.Наша лучшая модель — + News (BiLSTM Att) + NRA, которая проходит сквозное обучение и использует всю нашу архитектуру.Вторая лучшая модель, т. е. + News (BiLSTM MP) + NRA, занимает несколько более низкое место и отличается от лучшей модели только с точки зрения кодировщика предложений.Первый кодировщик предложений использует уровень внимания (subsec:bilstminneratt), а последний — уровень максимального пула (subsec:bilstmmaxpool), где оба слоя размещаются поверх скрытых состояний LSTM каждого слова.Важно отметить, что наши эксперименты показывают, что использование новостей и цены (мультимодальное) для прогнозирования волатильности улучшает показатели на 11% (MSE) и 9% (MAE) по сравнению с моделью – Новости (только унимодальная цена), которая рассматривает только ценовые характеристики как объясняющие переменные.При сравнении производительности сквозных моделей и вспомогательных задач TL можно наблюдать следующее: Сквозные модели, обученные с помощью двух кодировщиков предложений SOTA, работают лучше, чем перенос кодировщика предложений из обеих вспомогательных задач.Однако наши эксперименты показывают, что то же самое не относится к моделям, обученным сквозным образом с использованием более простого кодировщика предложений WL-Att, который игнорирует порядок слов в предложении.Другими словами, учитывая соответствующую задачу TL, предпочтительнее передать кодировщик предложений SOTA, обученный на большем наборе данных, чем сквозное обучение менее надежного кодировщика предложений.Более того, изначально мы думали, что, поскольку RCV1 является корпусом финансовой сферы, он продемонстрирует более высокую производительность по сравнению с набором данных SNLI.Тем не менее, SNLI передает лучше, чем RCV1.Мы предполагаем, что задача категоризации текста (набор данных RCV1) не способна фиксировать сложные структуры предложений на том же уровне, который необходим для выполнения вывода на естественном языке.В частности, что касается проблемы прогнозирования волатильности, наши результаты TL подтверждают те же выводы, что и в BIBREF17, где было показано, что набор данных SNLI обеспечивает наилучшее кодирование предложений для широкого спектра чистых задач НЛП, включая, среди прочего, категоризацию текста и анализ настроений.Примечательно, что экспериментальные результаты в tbl:comparativeallsectors ясно демонстрируют, что предлагаемое нами внимание к релевантности новостей (NRA) превосходит метод усреднения новостей, предложенный в предыдущих исследованиях BIBREF26, BIBREF27.Даже при оценке нашего компонента NRA в сочетании с более элементарным кодировщиком предложений WL Att он превосходит результаты сложного кодировщика предложений, использующего подход усреднения новостей.Другими словами, наши результаты убедительно указывают на преимущество отделения шумных новостей от влияющих на них новостей и на эффективность обучения следить за наиболее значимыми новостями.Проанализировав нашу лучшую модель, мы теперь обратимся к ее сравнительной производительности по отношению к широко известной модели GARCH(1,1), описанной в разделе: GARCH. Мы оцениваем производительность нашей модели по сравнению с GARCH(1,1), используя стандартные метрики потерь ( MSE и MAE) и точность, основанная на регрессии, указанная в eq:regregionloss и измеренная с точки зрения коэффициента детерминации $R^2$ .Кроме того, мы оцениваем нашу модель с помощью двух разных показателей волатильности: Гармана-Класса ($\widehat{\sigma _{GK}}$) (eq:volgk) и Паркинсона ($\widehat{\sigma _{PK}}$ ) (экв: volpk).Мы отмечаем, что, как рассмотрено в разделе sub:evalution, эти два показателя волатильности являются статически эффективными и правильными оценками волатильности на следующий день. Tbl:garchallsectors сообщает о сравнительных результатах нашей лучшей модели «Цена + Новости» (+ News BiLSTM (MP) + NRA ), наша модель только по цене (унимодальная) и GARCH(1,1).Результаты ясно демонстрируют превосходство нашей модели, поскольку она более точна, чем GRACH, для обоих показателей волатильности.Отметим, что к оценке модели GARCH(1,1) на основе стандартных показателей ошибок MSE и MAE следует относиться с долей скептицизма.BIBREF35 предоставляет базовую теорию и аргументы в пользу того, что $R^2$ является предпочтительной метрикой для оценки предсказательной силы модели волатильности.В любом случае, превосходство нашей модели по отношению к GARCH(1,1) пронизывает все три показателя: $R^2$ , $MSE$ и $MAE$ . Ожидается, что в секторах компаний будут разные уровни риска, в ощущение, что каждый сектор движим различными типами новостей и экономическими циклами.Более того, проводя анализ на уровне сектора, мы изначально были заинтересованы в том, чтобы понять, является ли превосходство нашей модели по отношению к GARCH(1,1) результатом смещения обучения в данный сектор или, как оказалось, В этом случае превосходная эффективность нашей модели распространяется на диверсифицированный портфель секторов.Чтобы оценить эффективность каждого сектора, мы сначала разделяем акции составляющих каждого сектора в таблице tbl:stockuniverse.Затем мы рассчитываем те же показатели, которые обсуждались в предыдущем разделе, для каждого сектора индивидуально. В таблице tbl:garcheachsector представлены результаты наших экспериментов с разбивкой по секторам.Мы наблюдаем, что точность модели GRACH, измеряемая с помощью показателя $R^2$, имеет высокую степень изменчивости между секторами.Например, точность варьируется от 0,15 до 0,44 для сектора здравоохранения и энергетики соответственно.Эта высокая степень изменчивости согласуется с предыдущими результатами, представленными в BIBREF16, но в контексте долгосрочных (ежеквартальных) прогнозов волатильности.Хотя точность GARCH(1,1) без каких-либо исключений зависит от сектора, наша модель, использующая цену и новости в качестве входных данных, явно превосходит GRACH по секторам.Этот факт позволяет нам сделать следующие выводы: Превосходство нашей модели устойчиво во всех секторах, т. е. характеристики результатов, представленные в таблице tbl:garchallsectors, пронизывают все сектора, а не состоят из смеси лучших и неэффективных секторов.Этот факт является убедительным доказательством того, что наша модель более точна, чем GARCH(1,1). Предлагаемый подход глобальной модели, обсуждаемый в разделе sub:globalmodel, способен хорошо обобщать, т. е. изученные закономерности не предвзяты к данному сектору или акции.Одним из ограничений нашей работы является использование прокси для оценки волатильности.Хотя эти прокси удобны, если доступны только дневные данные о ценах открытия, максимума, минимума и закрытия, но имея высокочастотные данные о ценах, мы можем оценить дневную волатильность, используя сумму квадратов внутридневных доходностей, чтобы измерить истинную дневную скрытую волатильность.Например, при оценке производительности обменного курса иены к доллару GARCH(1,1) на один день вперед BIBREF35 сообщает значения $R^2$ 0,237 и 0,392 с использованием часовой и пятиминутной выборки внутридневной доходности соответственно.Однако мы считаем, что использование внутридневных данных еще больше улучшит производительность нашей модели.Поскольку наши экспериментальные результаты демонстрируют ключевой аспект внимания к архитектуре модели, связанный с актуальностью новостей, мы видим, что внутридневные данные, возможно, улучшат процесс обучения.Наличие внутридневных данных позволило бы нам сопоставить каждый отдельный выпуск новостей с мгновенной реакцией рыночной цены.Используя ежедневные данные, мы теряем часть этой информации, измеряя только совокупное влияние всех новостей на прогноз на один день вперед.Мы изучаем совместное влияние биржевых новостей и цен на задачу прогнозирования ежедневной волатильности.Насколько нам известно, эта работа является одним из первых исследований, направленных на прогнозирование краткосрочной (дневной), а не долгосрочной (ежеквартальной или годовой) волатильности, принимая новости и цену в качестве объясняющих переменных и используя полный набор данных заголовков новостей. на уровне отдельных запасов.Наша иерархическая сквозная модель использует самые современные подходы к кодированию текстовой информации и решению двух основных проблем корреляции новостей с реакцией рынка: актуальность новостей и новизна.То есть решить проблему того, как посещать самые важные новости, основываясь исключительно на их содержании (внимание к актуальности новостей) и учитывать временную информацию прошлых новостей (временной контекст).Кроме того, мы предлагаем метод мини-партии + встраивание акций с несколькими акциями, подходящий для моделирования общности акций.Результаты эксперимента показывают, что наш мультимодальный подход превосходит модель волатильности GARCH(1,1), которая является наиболее распространенной эконометрической моделью для ежедневных прогнозов волатильности.Превосходство является отраслевым и демонстрирует эффективность объединения цен и новостей для краткосрочного прогнозирования волатильности.Тот факт, что мы превосходим GARCH(1,1) для всех проанализированных секторов, подтверждает надежность предложенной нами архитектуры и свидетельствует о том, что наш подход к глобальной модели хорошо обобщает.Мы удалили (то есть удалили) различные компоненты нашей нейронной архитектуры, чтобы оценить ее наиболее важные части.С этой целью мы заменили предложенный нами уровень внимания к релевантности новостей, цель которого — следить за наиболее важными новостями в определенный день, на более простую архитектуру, предложенную в литературе, которая усредняет ежедневные новости.Мы обнаружили, что наш слой внимания улучшает результаты.Кроме того, мы удалили всю архитектуру, связанную с режимом новостей, и обнаружили, что новости повышают точность прогнозов.Наконец, мы оценили различные кодировщики предложений, в том числе перенесенные из других задач НЛП, и пришли к выводу, что они достигают более высокой производительности по сравнению с простым кодировщиком предложений на уровне слов, обученным сквозным образом.Однако они не превосходят современные кодировщики предложений, прошедшие сквозное обучение.Чтобы внести свой вклад в литературу по универсальным кодировщикам предложений, мы оценили производительность перевода кодировщиков предложений из двух разных задач в задачу прогнозирования волатильности.Мы показали, что модели, обученные на задаче вывода естественного языка (NLI), больше подходят для прогнозирования проблем, чем набор данных финансовой сферы (Reuters RCV1).Анализируя различные архитектуры, мы показали, что BiLSTM с максимальным пулом для набора данных SNLI обеспечивает лучший кодер предложений.В будущем мы планируем использовать внутридневные цены, чтобы лучше оценить предсказательную силу предлагаемых нами моделей.Кроме того, мы хотели бы расширить наш анализ на другие сектора фондового рынка. | Прогнозирование волатильности фондового рынка является задачей, актуальной для оценки рыночного риска. Мы исследуем взаимодействие между новостями и ценами для прогнозирования волатильности на один день вперед, используя современные подходы глубокого обучения. Предложенные модели обучаются либо сквозно, либо с использованием кодировщиков предложений, перенесенных из других задач. Мы оцениваем широкий спектр секторов фондового рынка, а именно потребительские товары, энергетику, коммунальные услуги, здравоохранение и финансы. Наши экспериментальные результаты показывают, что добавление новостей улучшает прогнозирование волатильности по сравнению с основными моделями, которые полагаются только на данные о ценах. В частности, наша модель превосходит широко известную модель GARCH(1,1) для всех секторов с точки зрения коэффициента детерминации $R^2$, $MSE$ и $MAE$, достигая наилучшей производительности при обучении как по новостям, так и по данные о ценах. | 12,640 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Wav2Text на основе внимания с обучением передаче функций. Обычные системы распознавания непрерывной речи (LVCSR) с большим словарным запасом обычно выполняют многоуровневые задачи распознавания образов, которые отображают форму акустического речевого сигнала в иерархию речевых единиц, таких как подслова (фонемы), слова и строки слов (предложения).Такие системы в основном состоят из нескольких подкомпонентов (экстрактор функций, акустическая модель, словарь произношения, языковая модель), которые обучаются и настраиваются отдельно BIBREF0 .Сначала речевой сигнал преобразуется в набор признаков наблюдения на основе тщательно созданного вручную экстрактора признаков, такого как частотно-кепстральные коэффициенты Mel (MFCC) или спектрограмма Mel-шкалы.Затем акустическая модель классифицирует признаки наблюдения по субъединицам или классам фонем.Наконец, алгоритм поиска находит наиболее вероятную последовательность слов на основе данных акустической модели, лексикона и языковой модели.Но широко известно, что потеря информации на более ранней стадии может распространиться и на более поздние стадии.Алгоритмы глубокого обучения позволили добиться множества современных результатов в различных задачах, которые возобновили использование нейронных сетей для ASR.Одним из важных факторов популярности глубокого обучения является возможность упростить многие сложные модели, созданные вручную, позволяя DNN найти способ отображения входных и выходных пространств.Недавно появился интерес к возможности изучения акустических моделей на основе DNN непосредственно из необработанной формы речевого сигнала без каких-либо предопределенных выравниваний и моделей, созданных вручную.Таким образом, экстрактор признаков и акустическая модель могут быть интегрированы в единую архитектуру.Палаз и др. BIBREF1, BIBREF2 предложили сверточную нейронную сеть (CNN) для непосредственного обучения акустической модели на основе необработанного речевого сигнала.Сайнат и др. BIBREF3 использовал сверточные слои над необработанной речью и обучал их совместно с акустической моделью глубокой нейронной сети с кратковременной памятью (CLDNN).Результаты показали, что необработанные сигналы CLDNN соответствуют производительности логарифмических CLDNN в задаче голосового поиска.Гахремани и др. BIBREF4 недавно предложил нейронную сеть с задержкой по времени CNN (CNN-TDNN) с архитектурой «сеть в сети» (NIN), а также показал, что их модель превзошла TDNN на основе MFCC в задаче BIBREF5 Wall Street Journal (WSJ).Но, несмотря на достигнутый значительный прогресс, успешные модели в основном были продемонстрированы только в рамках гибридных структур распознавания речи DNN-HMM.С другой стороны, в некоторых существующих работах были построены сквозные модели нейронных сетей для ASR и заменены акустическая модель, модель словаря и языковая модель единой интегрированной моделью, что упростило конвейер.Грейвс и др. BIBREF6 и BIBREF7 успешно создали сквозной ASR на основе структуры коннекционистской временной классификации (CTC).Амодей и др. BIBREF8 также создал сквозной ASR на основе CTC, который напрямую создавал строки символов вместо последовательностей фонем.Но архитектура на основе CTC по-прежнему прогнозирует целевые выходные данные для каждого кадра без каких-либо неявных знаний о языковой модели.Другой подход использует последовательный кодер-декодер на основе внимания, который явно использует историю предыдущих выходных данных.Хоровский и др. BIBREF9 и Chan et al. BIBREF10 успешно продемонстрировал платформы ASR на основе кодера-декодера.К сожалению, в большинстве этих работ в качестве входных данных по-прежнему использовались стандартные спектральные характеристики (т.е. спектрограмма в масштабе Мела, MFCC).Единственная попытка сквозного распознавания речи для необработанного сигнала была недавно предложена BIBREF11.Их система использовала глубокую CNN и была обучена с использованием критерия автоматической сегментации (ASG) в качестве альтернативы CTC.Однако, как и в случае с CTC, модель не использовала явно историю предыдущих результатов, предполагая, что они условно независимы друг от друга.Кроме того, о его производительности сообщалось только с использованием очень большого набора данных (около 1000 часов аудиофайлов). Насколько нам известно, лишь немногие исследования изучали единую сквозную архитектуру ASR, обученную на необработанных речевых сигналах для прямого вывода текста. транскрипция, и ни одна из этих моделей не была построена на основе архитектуры кодера-декодера.В этой статье мы делаем шаг вперед для создания сквозного ASR, используя модель кодера-декодера, основанную на внимании, для обработки необработанного речевого сигнала, назвав ее «Wav2Text на основе внимания».Мы исследуем эффективность предлагаемых нами моделей на стандартных наборах данных ASR.На практике оптимизировать структуру кодера-декодера сложнее, чем стандартную архитектуру нейронной сети BIBREF10.Поэтому мы предлагаем метод обучения с переносом функций, который поможет в процессе обучения нашей сквозной модели ASR, основанной на внимании.Модель кодера-декодера представляет собой нейронную сеть, которая напрямую моделирует условную вероятность INLINEFORM0, где INLINEFORM1 — это исходная последовательность длиной INLINEFORM2, а INLINEFORM3 — целевая последовательность длиной INLINEFORM4.Он состоит из модулей кодера, декодера и внимания.Задача кодировщика обрабатывает входную последовательность INLINEFORM5 и выводит репрезентативную информацию INLINEFORM6 для декодера.Модуль внимания представляет собой схему расширения, которая помогает декодеру находить соответствующую информацию на стороне кодера на основе текущих скрытых состояний декодера BIBREF12, BIBREF13.Обычно модуль внимания создает контекстную информацию INLINEFORM7 во время INLINEFORM8 на основе скрытых состояний кодера и декодера: DISPLAYFORM0 Существует несколько вариантов функции оценки: DISPLAYFORM0, где INLINEFORM0, INLINEFORM1 — количество скрытых блоков для кодера, а INLINEFORM2 — количество скрытые блоки для декодера.Наконец, задача декодера, которая прогнозирует вероятность целевой последовательности в момент времени INLINEFORM3 на основе предыдущих выходных данных и контекстной информации INLINEFORM4, может быть сформулирована как: DISPLAYFORM0. Наиболее распространенными входными данными INLINEFORM0 для задач распознавания речи является последовательность векторов признаков, таких как log Mel- спектральная спектрограмма и/или MFCC.Следовательно, INLINEFORM1, где D — количество функций, а S — общая длина высказывания в кадрах.Выходные данные INLINEFORM2 могут представлять собой последовательность фонем или графем (символов).В этой работе мы используем необработанную форму сигнала в качестве входного представления вместо спектральных признаков и последовательность графем (символов) в качестве выходного представления.В отличие от большинства архитектур кодировщика-декодера, которые основаны исключительно на структуре рекуррентных нейронных сетей (RNN), мы создаем кодер с несколькими сверточными слоями BIBREF14, за которыми следуют слои NIN BIBREF15 в качестве нижней части кодера, и интегрируем их с глубокими двунаправленными длинными кратковременная память (Bi-LSTM) BIBREF16 в старшей части.Мы используем сверточные слои, потому что они подходят для извлечения локальной информации из необработанной речи.Мы используем механизм шага для уменьшения размерности входных кадров BIBREF17, в то время как уровень NIN представляет более сложные структуры поверх сверточных слоев.На стороне декодера мы используем стандартный глубокий однонаправленный LSTM с глобальным вниманием BIBREF13, который рассчитывается с помощью многослойного перцептрона (MLP), как описано в уравнении. EQREF2 .Для более подробной информации мы проиллюстрируем нашу архитектуру на рисунке FigREF4..Глубокое обучение хорошо известно своей способностью учиться непосредственно на низкоуровневом представлении функций, таком как необработанная речь BIBREF1, BIBREF3.Однако в большинстве случаев такие модели уже обусловлены фиксированным размером входных данных и одним целевым выходным сигналом (т. е. прогнозированием одного класса фонем для каждого входного кадра).В модели кодера-декодера, основанной на внимании, процесс обучения не так прост, как в стандартной модели нейронной сети BIBREF10, поскольку модель, основанная на внимании, должна одновременно оптимизировать три различных модуля: (1) модуль кодера для создания репрезентативной информации. из исходной последовательности; (2) модуль внимания для расчета правильного выравнивания; и (3) модуль декодера для создания правильной транскрипции.Если один из этих модулей испытывает трудности с выполнением собственных задач, то модель не сможет дать хорошие результаты.Чтобы облегчить нагрузку на обучение всей архитектуры кодера-декодера непосредственно для прогнозирования транскрипции текста с учетом необработанной формы речевого сигнала, мы используем метод переноса обучения на части кодера.В частности, мы обучаем только нижние уровни кодера, состоящие из сверточного уровня и уровня NIN, для прогнозирования спектральных характеристик с учетом соответствующей необработанной формы сигнала.В этой работе мы используем две широко используемые спектральные характеристики: MFCC и логарифмическую спектрограмму в масштабе Mel в качестве цели трансферного обучения.На рисунке FigREF5 показана наша архитектура обучения передаче функций.Сначала, учитывая сегментированную необработанную речевую форму INLINEFORM0, мы извлекаем соответствующие INLINEFORM1-мерные спектральные особенности INLINEFORM2.Затем мы обрабатываем необработанную речь INLINEFORM3 с несколькими свертками, за которыми следуют слои NIN в части кодера.На последнем уровне NIN мы устанавливаем фиксированное количество каналов как каналы INLINEFORM4 и применяем объединение средних значений во времени.Наконец, мы получаем прогнозы для соответствующих спектральных признаков INLINEFORM5 и оптимизируем все параметры, минимизируя среднеквадратичную ошибку между предсказанными спектральными признаками INLINEFORM6 и целевыми спектральными признаками INLINEFORM7:DISPLAYFORM0 В этой статье мы также исследуем многоцелевую передачу признаков, используя структуру, аналогичную показанной на рисунке FigREF5, но с двумя параллельными слоями NIN, за которыми в конце следует опрос среднего значения.Один из выходных слоев используется для прогнозирования логарифмической спектрограммы в масштабе Mel, а другой — для прогнозирования характеристик MFCC.Мы модифицируем функцию единственных целевых потерь из уравнения. EQREF6 на следующее: DISPLAYFORM0, где INLINEFORM0 — это прогнозируемая спектрограмма в масштабе Mel и значения MFCC, а INLINEFORM1 — это реальная спектрограмма в масштабе Mel и функции MFCC для кадра INLINEFORM2.После оптимизации всех параметров сверточного слоя и слоя NIN мы передаем обученные слои и параметры и интегрируем их с кодером Bi-LSTM.Наконец, мы совместно оптимизируем всю структуру.В этом исследовании мы исследуем производительность предложенных нами моделей на WSJ BIBREF5.Мы использовали те же определения набора для обучения, разработки и тестирования, что и в рецепте Kaldi s5 BIBREF18.Необработанные речевые сигналы были сегментированы на несколько кадров с размером окна 25 мс и шагом 10 мс.Мы нормализовали необработанный речевой сигнал в диапазоне от -1 до 1.Для спектральных функций, таких как MFCC и логарифмическая Mel-спектрограмма, мы нормализовали функции для каждого измерения до нулевого среднего и единичной дисперсии.Для WSJ мы разделили эксперимент на два, используя только данные WSJ-SI84 и WSJ-SI284.Мы использовали dev_93 для нашего набора проверки и eval_92 для нашего тестового набора.Мы использовали последовательность символов в качестве цели декодера и следовали этапу предварительной обработки, предложенному BIBREF19.Текст всех высказываний был отображен в набор из 32 символов: 26 (a-z) алфавита, апостроф, точка, тире, пробел, шум и «эос».В нашей архитектуре Wav2Text, основанной на внимании, используются четыре сверточных слоя, за которыми следуют два уровня NIN в нижней части модуля кодера.Для всех сверточных слоев мы использовали функцию активации Leaky rectifier Unit (LReLU) BIBREF20 с утечкой INLINEFORM0.Внутри первых слоев NIN мы разместили три последовательных фильтра с функцией активации LReLU.Для вторых слоев NIN мы соединили два последовательных фильтра с функцией активации tanh и идентификации.На этапе обучения передаче функций мы использовали Momentum SGD со скоростью обучения 0,01 и импульсом 0,9.В таблице TABREF11 приведены подробные сведения о настройках сверточного слоя и слоя NIN.На верхние слои кодера после переданных сверточного и NIN-слоев мы поместили три двунаправленных LSTM (Bi-LSTM) с 256 скрытыми единицами (всего 512 единиц для обоих направлений).Чтобы сократить время вычислений, мы использовали иерархическую подвыборку BIBREF21, BIBREF22, BIBREF10.Мы применили субдискретизацию ко всем слоям Bi-LSTM и уменьшили длину в 8 раз. На стороне декодера предыдущие входные фонемы/символы были преобразованы в реальные векторы с помощью 128-мерной матрицы внедрения.Мы использовали один однонаправленный LSTM с 512 скрытыми единицами, а затем слой softmax для вывода вероятности символа.Для этапа сквозного обучения мы заморозили значения параметров из переданных слоев от эпохи 0 до эпохи 10, а после эпохи 10 совместно оптимизировали все параметры вместе до конца обучения (всего 40 эпох).Мы использовали оптимизатор Adam BIBREF23 со скоростью обучения 0,0005. На этапе декодирования мы использовали стратегию поиска луча с размером луча INLINEFORM0.и мы скорректировали оценку, разделив ее на длину транскрипции, чтобы декодер не отдавал предпочтение более коротким транскрипциям.Для декодирования мы не использовали никакую языковую модель или лексический словарь.Все наши модели были реализованы на платформе PyTorch. Для сравнения мы также оценили стандартный декодер, основанный на внимании, с вводом спектрограммы в масштабе Mel в качестве базовой линии.Здесь мы использовали настройки, аналогичные предлагаемой модели, за исключением того, что мы заменили сверточные слои и слои NIN слоем прямой связи (512 скрытых единиц). Пример наших результатов трансферного обучения показан на рисунке FigREF8, а в таблице TABREF14 показана производительность распознавания речи. в CER для наборов данных WSJ-SI84 и WSJ-SI284.Мы сравнили наш метод с несколькими опубликованными моделями, такими как CTC, Attention Encoder-Decoder и Joint CTC-Attention model, которые используют CTC для обучения части кодера.Кроме того, мы также обучаем наш собственный базовый кодер-декодер внимания с помощью спектрограммы в масштабе Mel.Разница между нашим кодировщиком-декодером внимания («Att Enc-Dec (наш)», «Att Enc-Dec Wav2Text») и кодировщиком-декодером внимания из BIBREF24 («Att Enc-Dec Content», «Att Enc-Dec Location» ) мы использовали текущие скрытые состояния для генерации вектора внимания вместо предыдущих скрытых состояний.Еще одним дополнением является то, что мы использовали метод «обратной связи по входу» BIBREF13, объединяя предыдущий вектор контекста с текущим вводом вместе с вектором внедрения символов.Используя эти модификации, мы можем улучшить базовую производительность.Предлагаемые нами модели Wav2Text без какого-либо трансферного обучения не смогли сойтись.Напротив, при трансферном обучении они значительно превзошли производительность CTC и кодера-декодера по функциям спектрограммы в масштабе Mel.Это говорит о том, что благодаря использованию трансферного обучения для инициализации нижней части параметров кодера наша модель также работала лучше, чем ее исходные функции.Трансферное обучение — это способность алгоритма обучения передавать знания для решения различных задач.Первоначальная идея состоит в том, чтобы повторно использовать ранее полученные знания для улучшения обучения новым вещам.Стандартная процедура: сначала обучаем модель на базовом наборе данных и задаче, затем изученные функции и/или параметры повторно используются для обучения второго целевого набора данных и задачи.Бенджио и др. BIBREF25 предоставил подробные обзоры многозадачности и трансферного обучения в моделях глубокого обучения.Джейсон и др. BIBREF26 показал, что модель с переданным параметром постоянно превосходила модель, инициализированную случайным образом.В исследованиях по распознаванию речи трансферное обучение изучается уже много лет, включая успешные случаи адаптации говорящего и межъязыковое акустическое моделирование BIBREF27.Одной из популярных схем использования DNN для трансферного обучения в рамках ASR является тандемный подход BIBREF28.Эта идея сначала обучает DNN с узким скрытым узким слоем для выполнения классификации фонем на уровне кадра, а затем повторно использует активации из узкого скрытого узкого слоя в качестве отличительных признаков в обычных моделях GMM-HMM или гибридных моделях DNN-HMM BIBREF29.Другое исследование представило сверточную сеть узких мест в качестве альтернативной архитектуры тандемных узких мест BIBREF30.Однако, хотя такая среда обучения с передачей функций обеспечивает множество преимуществ в ASR, ее использование в сквозной структуре ASR, основанной на внимании, не изучалось.В этом исследовании выполняется обучение переносу функций на кодирующей части сквозной архитектуры ASR, основанной на внимании.Мы обучаем сверточный кодер прогнозировать спектральные характеристики с учетом соответствующей необработанной формы речевого сигнала.После этого мы передаем обученные слои и параметры, интегрируем их с кодером-декодером LSTM и, в конечном итоге, оптимизируем всю структуру, чтобы предсказать правильную транскрипцию выходного текста с учетом необработанной формы речевого сигнала.В этой статье описана первая попытка создать сквозной кодер-декодер распознавания речи на основе внимания, который напрямую предсказывает транскрипцию текста на основе необработанного речевого ввода.Мы также предложили обучение передаче признаков для облегчения процесса обучения модели кодера-декодера и представили новую архитектуру, которая объединила сверточные уровни, уровни NIN и Bi-LSTM в единую часть кодера для распознавания необработанной речи.Наши результаты показывают, что трансферное обучение является очень полезным методом построения сквозной системы на основе таких низкоуровневых функций, как необработанные речевые сигналы.Благодаря переданным параметрам наши предложенные модели Wav2Text, основанные на внимании, сходились и согласовывали производительность с моделью кодера-декодера, основанной на внимании, обученной на стандартных спектральных функциях.Наилучшая производительность была достигнута моделями Wav2Text с переносом обучения по многоцелевой схеме.Часть этой работы была поддержана грантами JSPS KAKENHI под номерами JP17H06101 и JP 17K00237. | Обычное автоматическое распознавание речи (ASR) обычно выполняет задачи многоуровневого распознавания образов, которые отображают форму акустического речевого сигнала в иерархию речевых единиц. Но широко известно, что потеря информации на более ранней стадии может распространиться и на более поздние стадии. После возрождения глубокого обучения возник интерес к возможности разработки чисто сквозной системы ASR от необработанного сигнала до транскрипции без каких-либо заранее определенных согласований и моделей, созданных вручную. Однако успешные попытки создания сквозной архитектуры по-прежнему использовали спектральные функции, в то время как успешные попытки использования необработанных сигналов по-прежнему основывались на гибридной глубокой нейронной сети — структуре скрытой марковской модели (DNN-HMM). В этой статье мы создаем первую сквозную модель кодера-декодера, основанную на внимании, для прямой обработки необработанного речевого сигнала в текстовую транскрипцию. Мы назвали эту модель «Wav2Text на основе внимания». Чтобы облегчить процесс обучения сквозной модели, мы предлагаем использовать обучение с переносом функций. Экспериментальные результаты также показывают, что предлагаемая модель Wav2Text на основе внимания непосредственно с необработанной формой волны может достичь лучшего результата по сравнению с моделью кодера-декодера внимания, обученной на стандартных функциях внешнего набора фильтров. | 2,736 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Улучшенное встраивание сети с учетом семантики с детальным выравниванием слов. Сети распространены повсеместно, яркими примерами являются социальные сети (например, Facebook, Twitter) или сети цитирования исследовательских работ (например, arXiv).При анализе данных из этих реальных сетей традиционные методы часто представляют вершины (узлы) как «горячие» представления (содержащие информацию о связности каждой вершины по отношению ко всем другим вершинам), обычно страдающие от проблем, связанных с присущей им разреженностью больших -масштабные сети.Это приводит к созданию моделей, которые не могут полностью отразить связи между вершинами сети BIBREF0, BIBREF1.В качестве альтернативы рассматривалось встраивание сети (т. е. обучение представлению сети), представляющее каждую вершину сети низкоразмерным вектором, который сохраняет информацию о ее сходстве относительно других вершин.В последние годы этот подход привлек значительное внимание. Традиционные подходы к встраиванию сети фокусируются в первую очередь на обучении представлений вершин, которые сохраняют локальную структуру, а также внутренние структурные свойства сети. .Например, Isomap BIBREF9, LINE BIBREF3 и Grarep BIBREF10 были предложены для сохранения близости первого, второго и высшего порядка между узлами соответственно.DeepWalk BIBREF0, который изучает представления вершин из последовательностей случайного блуждания, аналогичным образом учитывает только структурную информацию сети.Однако в реальных сетях вершины обычно содержат богатую текстовую информацию (например, профили пользователей в Facebook, рефераты статей в arXiv, пользовательский контент в Twitter и т. д.), которую можно эффективно использовать для изучения более информативных вложений.Чтобы воспользоваться этой возможностью, BIBREF11 предложил ассоциированный с текстом DeepWalk для включения текстовой информации в векторные представления вершин (вложения).BIBREF12использовал глубокие рекуррентные нейронные сети для интеграции информации из текста, связанного с вершинами, в сетевые представления.Кроме того, BIBREF13 предложил более эффективно моделировать семантические отношения между вершинами, используя механизм взаимного внимания.Хотя эти методы продемонстрировали прирост производительности по сравнению с сетевыми вложениями, состоящими только из структуры, связь между текстовыми последовательностями для пары вершин учитывается исключительно путем сравнения их вложений предложений.Однако, как показано на рисунке 1, для оценки сходства между двумя исследовательскими работами более эффективной стратегией было бы сравнение и выравнивание (посредством локального взвешивания) отдельных важных слов (ключевых слов) внутри пары тезисов, в то время как информация из других слов (например, , стоп-слова), которые, как правило, менее релевантны, могут быть эффективно проигнорированы (понижены значения).Этот механизм выравнивания сложно реализовать в моделях, где текстовые последовательности сначала встраиваются в общее пространство, а затем сравниваются парами BIBREF14, BIBREF15, BIBREF16, BIBREF17, BIBREF18. Мыпредлагаю изучить семантическое сетевое внедрение (NE), которое включает в себя функции выравнивания на уровне слов, абстрагированные от текстовых последовательностей, связанных с парами вершин.Учитывая пару предложений, наша модель сначала выравнивает каждое слово в одном предложении с ключевыми словами из другого предложения (адаптивно повышая вес с помощью механизма внимания), создавая набор векторов мелкозернистого соответствия.Эти функции затем накапливаются с помощью простой, но эффективной функции агрегирования, получая окончательное представление предложения.В результате функции пословного выравнивания (как показано на рисунке 1) явно и эффективно фиксируются нашей моделью.Кроме того, изученные сетевые внедрения в нашей структуре адаптируются к конкретным (локальным) рассматриваемым вершинам и, таким образом, являются контекстно-зависимыми и особенно подходят для последующих задач, таких как прогнозирование ссылок.Более того, поскольку представленная здесь процедура пословного сопоставления хорошо распараллеливается и не требует каких-либо сложных сетей кодирования, таких как длинная краткосрочная память (LSTM) или сверточные нейронные сети (CNN), наша структура требует значительно меньше времени для обучение, что привлекательно для крупномасштабных сетевых приложений.Мы оцениваем наш подход на трех реальных наборах данных, охватывающих различные приложения на основе сетевого внедрения: прогнозирование связей, классификация вершин и визуализация.Мы показываем, что предлагаемый механизм пословного выравнивания эффективно включает текстовую информацию во встраивание сети и постоянно демонстрирует превосходную производительность по сравнению с несколькими конкурирующими базовыми моделями.Анализ извлеченных пар слов еще раз подтверждает эффективность предлагаемой структуры.Сеть (граф) определяется как $G = \lbrace V,E\rbrace $ , где $V$ и $E$ обозначают множество $N$ вершин (узлов) и ребер соответственно, в которых элементы $E$ являются двухэлементными подмножествами $V$ .Здесь мы рассматриваем только неориентированные сети, однако наш подход (представленный ниже) можно легко распространить на направленный случай.Мы также определяем $W$, симметричную матрицу $\mathbb {R}^{N \times N}$, элементы которой, $w_{ij}$, обозначают веса, связанные с ребрами в $V$, и $V$0, набор текстовых последовательностей, присвоенных каждой вершине.Ребра и веса содержат структурную информацию сети, а текст можно использовать для характеристики семантических свойств каждой вершины.Учитывая сеть $V$1 , с помощью встраивания сети мы стремимся закодировать каждую вершину в низкоразмерный вектор $V$2 (с размерностью намного меньше, чем $V$3 ), сохраняя при этом структурные и семантические особенности $V$4 . Чтобы объединить оба структурную и семантическую информацию в сетевые вложения, мы указываем два типа (скрытых) вложений: ( $i$ )$_s$ — структурное вложение; и ( $ii$ ) $_t$ , текстовое вложение.В частности, каждая вершина в $G$ закодирована в низкомерное вложение $= [_s; _t]$ .Чтобы изучить эти вложения, мы указываем цель, которая использует информацию как из $W$, так и из $T$ , обозначаемую как $$= \sum _{e \in E} _{\textrm {struct}}(e) + _ {\textrm {text}}(e) + _{\textrm {joint}}(e) \,,$$ (уравнение 4) где $_{\textrm {struct}}$ , $_{\textrm { text}}$ и $_{\textrm {joint}}$ обозначают потери при обучении структуры, текста и совместной структуры-текста соответственно.Для пары вершин $\lbrace v_i,v_j\rbrace $, взвешенной по $w_{ij}$, $_{\textrm {struct}}(v_i, v_j)$ в (4) определяется как BIBREF3 $$_{\ textrm {struct}}(v_i, v_j) = w_{ij} \log p(^i_s|^j_{s}) \,,$$ (уравнение 5) где $p(^i_s|^j_{s} )$ обозначает условную вероятность между структурными вложениями вершин $\lbrace v_i,v_j\rbrace $ .Чтобы использовать текстовую информацию в $T$ , также определены аналогичные специфичные для текста и совместные цели обучения по структуре текста. $$_{\textrm {text}}(v_i, v_j) & = w_{ij} \alpha _1 \log p(^i_t|^j_{t})\,, \\
_{\textrm {joint}}(v_i, v_j) & = w_{ij} \alpha _2 \log p(^i_t|^j_{s}) \\
& + w_{ij}\alpha _3 \log p(^i_s|^j_{t}) \,,$$ (уравнение 6), где $p(^i_t|^j_t)$ и $p(^i_t| ^j_s)$ (или $p(^i_s|^j_t)$ ) обозначают условную вероятность для пары текстовых вложений и текстовых вложений при заданном встраивании структуры (или наоборот) соответственно для вершин $\lbrace v_i,v_j\ rbrace $ .Кроме того, $\alpha _1$ , $\alpha _2$ и $\alpha _3$ являются гиперпараметрами, которые уравновешивают влияние различных компонентов тренировочных потерь.Обратите внимание, что структурные внедрения $_s$ рассматриваются непосредственно как параметры, тогда как текстовые внедрения $_t$ изучаются на основе текстовых последовательностей, связанных с вершинами.Для всех условий условной вероятности мы следуем BIBREF3 и рассматриваем близость второго порядка между парами вершин.Таким образом, для вершин $\lbrace v_i,v_j\rbrace $ вероятность генерации $_i$ при условии $_j$ может быть записана как $$p(^i|^j) = \frac{\exp \left({ ^j}^T ^i\right)}{\textstyle {\sum }_{k=1}^{N}\exp \left({^j}^T ^k\right)} \,.$$ (уравнение 7)Обратите внимание, что (7) можно применять как к структурным, так и к текстовым внедрениям в (5) и (6).по BIBREF13, мы далее предполагаем, что вершины в сети играют разные роли в зависимости от вершины, с которой они взаимодействуют.Таким образом, для данной вершины встраивание текста $_t$ является адаптивным (специфичным) для вершины, для которой оно обусловлено.Этот тип контекстно-зависимого внедрения текста продемонстрировал превосходную производительность по сравнению с контекстно-свободными внедрениями BIBREF13.В следующих двух разделах мы описываем нашу стратегию кодирования текстовой последовательности, связанной с ребром, в ее адаптивное текстовое встраивание посредством пословного и пословного выравнивания.Сначала мы представляем нашу базовую модель, которая переоценивает важность отдельных слов в текстовой последовательности в контексте рассматриваемого края.Рассмотрим текстовые последовательности, связанные с двумя вершинами, соединенными ребром, обозначенные $t_a$ и $t_b$ и содержащиеся в $T$ .Текстовые последовательности $t_a$ и $t_b$ имеют длину $M_a$ и $M_b$ соответственно и представляются $_a\in \mathbb {R}^{d\times M_a}$ и $_b\in \mathbb. {R}^{d\times M_b}$ соответственно, где $d$ — размерность вложения слова.Кроме того, $t_b$0 обозначает встраивание $t_b$1-го слова в последовательность $t_b$2. Наша цель — закодировать текстовые последовательности $t_a$ и $t_b$ в векторные представления $_ с учетом аналогов.а$ и $_b$ .Таким образом, делая вывод об адаптивном текстовом встраивании предложения $t_a$, мы предлагаем переоценить важность каждого слова в $t_a$, чтобы явно учесть его соответствие с предложением $t_b$.Вес $\alpha _i$, соответствующий $i$-му слову в $t_a$, генерируется как: $$\alpha _i = \frac{\exp (\tanh (_1 _b + _2 ^{(i)}_a))}{\sum _{j = 1}^{M_a} \exp (\tanh (_1 _b + _2 ^{ (к)}_а))}\,,$$ (уравнение 9), где $_1$ и $_2$ — параметры модели, а $_b = \sum _{i = 1}^{M_b} x^b_i$ — вектор контекста последовательности $t_b$, полученный простым усреднением по всем вложениям слов в последовательности, аналогично fastText BIBREF19.Кроме того, пословное встраивание для последовательности $t_a$ получается путем взятия средневзвешенного значения по всем встраиваниям слов $$h_a = \textstyle {\sum }_{i = 1}^{M_a} \alpha _i ^{ (i)}_a \,.$$ (уравнение 10) Интуитивно $\alpha _i$ можно понимать как оценку релевантности между $i$-м словом в $t_a$ и последовательностью $t_b$ .В частности, ключевым словам в $t_a$ в контексте $t_b$ следует назначать больший вес, в то время как менее важные слова будут соответственно иметь меньший вес.Аналогично, $h_b$ кодируется как взвешенное встраивание с использованием ( 9 ) и ( 10 ). С помощью выравнивания, описанного в предыдущем разделе, моделируются функции пословного соответствия $\alpha _i$; однако информация о пословном выравнивании (мелкозернистая), которая является ключевой для характеристики отношений между двумя вершинами (как обсуждалось выше), явно не фиксируется.Настолько мотивированные, мы далее предлагаем архитектуру для явного абстрагирования информации о пословном выравнивании от $t_a$ и $t_b$ , чтобы изучить взаимосвязь между двумя вершинами.Это вдохновлено недавним успехом реляционных сетей (RN) для реляционного рассуждения BIBREF20.Как показано на рисунке 2, по двум входным матрицам встраивания $_a$ и $_b$ мы сначала вычисляем матрицу сродства $\in \mathbb {R}^{M_b\times M_a}$, элементы которой представляют собой оценки сродства, соответствующие ко всем парам слов между последовательностями $t_a$ и $t_b$ $$= ^T_b_a \,.$$ (уравнение 13)Впоследствии мы вычисляем контекстно-зависимую матрицу для последовательности $t_b$ как $$_b = \textrm {softmax}() \,, \qquad \widetilde{}_b = _b_b \,,$$ (уравнение 14), где Функция $\textrm {softmax}(\cdot )$ применяется к $$ по столбцам, и, таким образом, $_b$ содержит веса внимания (оценки важности) по последовательности $t_b$ (столбцы), которые учитывают каждое слово в последовательности $t_a$ (строки).Таким образом, матрица $\widetilde{}_b \in \mathbb {R}^{d\times M_a}$ в ( 14 ) представляет собой взвешенное по вниманию вложение для $_b$ .В частности, $i$-й столбец $\widetilde{}_b$, обозначенный как $\widetilde{}^{(i)}_b$, можно понимать как средневзвешенное значение по всем словам в $$0, где более высокие веса внимания указывают на лучшее выравнивание (совпадение) с $$1-м словом в $$2. Чтобы абстрагировать пословное выравнивание, мы сравниваем $^{(i)}_a$ с $\widetilde{}^{( i)}_b$ , для $i=1,2,...,M_a$ , чтобы получить соответствующий вектор соответствия $$^{(i)}_a=f_{\textrm {align}}\left(^{ (i)}_a,\widetilde{}^{(i)}_b\right) \,,$$ (уравнение 15) где $f_{\textrm {align}}(\cdot )$ представляет функцию выравнивания.Вдохновленные наблюдением в BIBREF16 о том, что простые функции сравнения/выравнивания, основанные на поэлементных операциях, демонстрируют отличную производительность при сопоставлении текстовых последовательностей, здесь мы используем комбинацию поэлементного вычитания и умножения как $
f_{\textrm {align}}(^{(i)}_a,\widetilde{}^{(i)}_a) =[^{(i)}_a - \widetilde{}^{(i)}_a; ^{(i)}_a \odot \widetilde{}^{(i)}_a] \,,
$ где $\odot $ обозначает поэлементное произведение Адамара, тогда эти две операции объединяются для получения соответствующего вектора $^{(i)}_a$ .Обратите внимание, что эти операторы можно использовать по отдельности или в сочетании, как мы это рассмотрим в наших экспериментах.Впоследствии совпадающие векторы из ( 15 ) агрегируются для получения окончательного текстового встраивания $_t^a$ для последовательности $t_a$ как $$_t^a=f_{\textrm {aggregate}}\left(^{(1)} _a,^{(2)}_a,...,^{(M_a)}_a\right) \,,$$ (уравнение 16) где $f_{\textrm {aggregate}}$ обозначает функцию агрегирования, которую мы указываем как операцию группировки max-pooling.Примечательно, что в противном случае можно использовать и другие коммутативные операторы, такие как суммирование или объединение средних значений.Хотя эти функции агрегирования просты и инвариантны к порядку слов во входных предложениях, они показали свою высокую эффективность в реляционных рассуждениях BIBREF15, BIBREF20.Для дальнейшего изучения этого вопроса в разделе «Исследование абляции» мы проводим исследование абляции, сравнивая различные варианты функций выравнивания и агрегации.Представление $_b$ можно получить аналогичным образом с помощью (13), (14), (15) и (16), но заменив (13) на $= ^T_a_b$ (его транспонирование).Обратите внимание, что это пословное выравнивание требует больше вычислительных усилий, чем пословное выравнивание; однако первый требует существенно меньше параметров для изучения, при условии, что нам больше не нужно оценивать параметры в (9).В крупномасштабных сетях вычисление и оптимизация условных вероятностей в (4) с использованием (7) является вычислительно непомерно сложной, поскольку требует суммирования по всем вершинам $V$ в $G$.Чтобы устранить это ограничение, мы используем стратегию отрицательной выборки, представленную BIBREF21, то есть мы выполняем вычисления путем выборки подмножества отрицательных ребер.В результате условие в (7) можно переписать как: $ \begin{aligned}
p(^i|^j) & = \log \sigma \left({^j}^T ^i\right) \\
& + \sum _{i=1}^{K} \mathbb {E}_{^i\sim P(v)}\left[\log \sigma (-{^j}^T ^i)\right ] \,,
\end{выровнено}
$ где $\sigma (x) = 1/(1+\exp (-x))$ — сигмоидальная функция.Следуя BIBREF21, мы устанавливаем распределение шума $P(v)\propto d_v^{3/4}$ , где $d_v$ — исходящая степень вершины $v\in V$ .Количество отрицательных образцов $K$ рассматривается как гиперпараметр.Мы используем Adam BIBREF22 для обновления параметров модели, минимизируя при этом цель в (4). Методы встраивания сети можно разделить на две категории: (i) методы, которые полагаются исключительно на структуру, например, информацию о вершинах; и (ii) методы, которые используют как структуру сети, так и информацию, связанную с ее вершинами.Для моделей первого типа было предложено использовать DeepWalk BIBREF0 для изучения представлений узлов путем генерации контекстов узлов посредством усеченных случайных блужданий; это похоже на концепцию Skip-Gram BIBREF21, первоначально представленную для изучения встраивания слов.LINE BIBREF3 предложил принципиальную цель - явно получить информацию о близости первого и второго порядка из вершин сети.Кроме того, BIBREF4 представил процедуру смещенного случайного блуждания для генерации окрестности вершины, которая выводит представления узлов путем максимизации вероятности сохранения информации о локальном контексте вершин.Однако эти алгоритмы обычно игнорируют богатую гетерогенную информацию, связанную с вершинами.Здесь мы сосредоточимся на включении текстовой информации в сетевые внедрения.Чтобы изучить встраивание сетей с учетом семантики, компания Text-Associated DeepWalk (TADW) BIBREF11 предложила интегрировать текстовые функции в сетевые представления с помощью матричной факторизации, используя эквивалентность между DeepWalk и матричной факторизацией.CENE (встраивание сети с расширенным контентом) BIBREF12 использовал двунаправленные рекуррентные нейронные сети для абстрагирования семантической информации, связанной с вершинами, что еще раз продемонстрировало преимущества использования текстовой информации.Чтобы уловить взаимодействие между предложениями пар вершин, BIBREF13 также предложил контекстно-зависимое сетевое внедрение (CANE), которое использует механизм взаимного внимания для адаптивного учета текстовой информации из соседних вершин.Несмотря на улучшение по сравнению с моделями, основанными только на структуре, эти семантические методы не могут захватывать информацию о выравнивании на уровне слов, которая важна для определения взаимосвязи между парами узлов, как обсуждалось ранее.В этой работе мы представляем структуру сетевого встраивания на основе Word-Alignment (WANE), которая выравнивает и объединяет функции пословного сопоставления явным образом для получения более информативных сетевых представлений.Мы экспериментируем с тремя вариантами нашей модели WANE: (i) WANE: где встраивания слов в каждой текстовой последовательности являются просто средними для получения представлений предложений, аналогично BIBREF19 , BIBREF25 .(ii) WANE-wc: где текстовые вложения выводятся с пословным выравниванием.(iii) WANE-ww: где механизм пословного выравнивания используется для фиксации признаков пословного совпадения между доступными парами последовательностей.В таблице 1 представлены результаты прогнозирования связей для всех моделей в наборе данных Cora, где для обучения используются разные соотношения ребер.Можно заметить, что когда доступно лишь небольшое количество ребер, например, $15\%$ , производительность структурных методов намного хуже, чем у семантических моделей, которые учитывают текстовую информацию. Разрыв в производительности имеет тенденцию быть меньше, когда для обучения используется большая часть ребер.Это подчеркивает важность включения связанных текстовых последовательностей в сетевые внедрения, особенно в случае представления относительно разреженной сети.Что еще более важно, предлагаемая модель WANE-ww постоянно превосходит другие модели NE с учетом семантики со значительным отрывом, указывая на то, что наша модель лучше абстрагирует функции пословного выравнивания из доступных текстовых последовательностей, что дает более информативные сетевые представления.Кроме того, WANE-ww также превосходит WANE или WANE-wc в широком диапазоне пропорций тренировки кромок.Это говорит о том, что: (i) адаптивное присвоение разных весов каждому слову в текстовой последовательности (в соответствии с его парной последовательностью), как правило, является лучшей стратегией, чем одинаковое обращение с каждым словом (как в WANE).(ii) Рассмотрение только функций контекстно-словного выравнивания (как в WANE-wc) не так эффективно, как абстрагирование информации о пословном сопоставлении из текстовых последовательностей.Мы наблюдаем ту же тенденцию и превосходство наших моделей WANE-ww над двумя другими наборами данных, наборами данных HepTh и Zhihu, как показано в таблицах 2 и 3 соответственно.Далее мы оцениваем эффективность предлагаемой структуры при решении задач классификации вершин с помощью набора данных Cora.Подобно BIBREF13, мы генерируем глобальное вложение для каждой вершины, взяв среднее значение для ее контекстно-зависимых вложений со всеми другими связанными вершинами.Как показано на рисунке 3 (c), методы NE с учетом семантики (включая наивную комбинацию, TADW, CENE, CANE) демонстрируют более высокую точность тестирования, чем семантически-агностические модели, демонстрируя преимущества включения текстовой информации.Более того, WANE-ww неизменно превосходит другие конкурирующие модели с учетом семантики в широком диапазоне помеченных пропорций, что позволяет предположить, что явный захват функций пословного выравнивания полезен не только для задач на основе пар вершин, таких как прогнозирование ссылок, но также приводит к улучшению глобальных вложений, которые необходимы для задач классификации вершин.Эти наблюдения также демонстрируют, что WANE-ww является эффективной и надежной структурой для извлечения информативных сетевых представлений.Далее мы рассматриваем случай, когда коэффициент обучения меньше $10\%$, и оцениваем встраивание обученной сети с помощью полуконтролируемого классификатора.Следуя BIBREF11, для справедливости мы используем классификатор Transductive SVM (TSVM) с линейным ядром BIBREF26.Как показано в Таблице 4, предложенная модель WANE-ww в большинстве случаев демонстрирует превосходные характеристики.Это может быть связано с тем, что WANE-ww извлекает информацию из вершин и текстовых последовательностей совместно, поэтому полученные вложения вершин менее зашумлены и работают более последовательно при относительно небольших коэффициентах обучения BIBREF11. Это мотивировано наблюдением в BIBREF16 о том, что преимущества различные функции для сопоставления двух векторов различаются от задачи к задаче, мы дополнительно исследуем выбор функций выравнивания и агрегирования в нашей модели WANE-ww.Чтобы сопоставить пары слов между двумя последовательностями, мы экспериментировали с тремя типами операций: вычитание, умножение и Sub & Multi (объединение обоих подходов).Как показано на рисунках 3 (a) и 3 (b), поэлементное вычитание, как правило, является наиболее эффективной операцией с точки зрения производительности как для наборов данных Cora, так и для Zhihu, и работает сравнимо с Sub & Multi в наборе данных HepTh.Этот вывод согласуется с результатами BIBREF16, где они обнаружили, что простые функции сравнения, основанные на поэлементных операциях, очень хорошо работают при сопоставлении текстовых последовательностей.Что касается функций агрегации, мы сравниваем (однослойные) операции CNN, среднего и максимального объединения для накопления совпадающих векторов.Как показано на рисунке 3 (b), максимальное объединение дает лучшие эмпирические результаты для всех трех наборов данных.Это можно объяснить тем фактом, что операция максимального объединения лучше подходит для выбора важных функций пословного выравнивания среди всех доступных совпадающих векторов, чтобы определить взаимосвязь между вершинами.Чтобы визуализировать изученные представления сети, мы дополнительно используем $t$ -SNE для отображения низкоразмерных векторов вершин в двумерное пространство вложения.Мы используем набор данных Cora, поскольку с каждой вершиной связаны метки, а также WANE-ww для получения сетевых вложений.Как показано на рисунке 4, где каждая точка указывает на одну бумагу (вершину), а цвет каждой точки указывает на категорию, к которой она принадлежит, вложения одной и той же метки действительно очень близки на двумерном графике, в то время как вложения с разными метками находятся относительно дальше друг от друга.Обратите внимание, что модель не обучена с использованием какой-либо информации о метках, что указывает на то, что WANE-ww извлек значимые шаблоны из доступного текста и информации о вершинах.Предложенный механизм пословного выравнивания можно использовать для выделения наиболее информативных слов (и соответствующих признаков соответствия).относительно отношений между вершинами.Мы визуализируем норму вектора соответствия, полученную в (15) на рисунке 5 для набора данных Cora.Можно заметить, что совпадающим ключевым словам, например, «MCMC», «конвергенция», между текстовыми последовательностями действительно присваиваются более высокие значения в совпадающих векторах.Эти слова будут выбраны преимущественно в ходе последней операции агрегирования максимального пула.Это указывает на то, что WANE-ww способен абстрагировать важные функции пословного выравнивания из парных текстовых последовательностей.Мы представили новую структуру для включения семантической информации из текстовых последовательностей, связанных с вершинами, в сетевые внедрения.Представлена структура выравнивания-агрегирования, которая сначала выравнивает пару предложений, фиксируя особенности пословного сопоставления, а затем адаптивно агрегируя эту информацию о выравнивании на уровне слов с помощью эффективной функции максимального объединения.Абстрагированные семантические особенности далее кодируются вместе со структурной информацией в общее пространство для получения окончательного внедрения в сеть.Убедительные экспериментальные результаты по нескольким задачам продемонстрировали преимущества нашего подхода.В будущей работе мы стремимся использовать большое количество неразмеченных текстовых данных для абстрагирования более информативных представлений предложений BIBREF27, BIBREF28, BIBREF29, BIBREF30.Еще одно интересное направление — изучение встраивания двоичных и компактных сетей, которое могло бы быть более эффективным с точки зрения вычислений и памяти по сравнению с его непрерывным аналогом BIBREF31. | В последние годы значительное внимание привлекли сетевые встраивания, которые изучают низкоразмерные представления для каждой вершины в крупномасштабной сети. Для широкого спектра приложений вершины в сети обычно сопровождаются обширной текстовой информацией, такой как профили пользователей, рефераты статей и т. д. Мы предлагаем включать семантические функции в сетевые внедрения путем сопоставления важных слов между текстовыми последовательностями для всех пар вершин. Мы представляем систему пословного выравнивания, которая измеряет совместимость вложений между парами слов, а затем адаптивно накапливает эти характеристики выравнивания с помощью простой, но эффективной функции агрегирования. В экспериментах мы оцениваем предложенную структуру по трем реальным критериям для последующих задач, включая прогнозирование ссылок и классификацию вершин по нескольким меткам. Результаты показывают, что наша модель значительно превосходит современные методы внедрения сетей. | 4,737 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Улучшение результатов поиска информации для персидских документов с использованием FarsNet. В информационном поиске (IR) искомый запрос всегда был неотъемлемой частью.Когда пользователь вводит запрос в информационно-поисковую систему, используемые им ключевые слова могут отличаться от тех, которые используются в документах, или они могут выражать его в другой форме.Учитывая эту ситуацию, информационно-поисковые системы должны быть интеллектуальными и предоставлять пользователю запрашиваемую информацию.По данным Спинка (2001), каждый пользователь сети использует в своем запросе 2,4 слова; при этом вероятность того, что входной запрос будет близок к запросам документов, крайне мала [22].Новейшие алгоритмы реализуют методы индексации запросов и охватывают только историю поиска пользователя.Это просто создает проблему несоответствия ключевых слов; запросы, введенные пользователем, не совпадают с запросами в документах, эта проблема называется лексической проблемой.Лексическая проблема возникает из-за синонимии.Синонимия – это состояние, при котором два или более слов имеют одинаковое значение.Таким образом, расширение запроса путем обогащения каждого слова его синонимами улучшит результаты IR.Данная статья организована следующим образом.В разделе II мы обсуждаем некоторые предыдущие исследования, проведенные в области ИР.В разделе III описан предлагаемый метод.Раздел IV представляет оценку и результаты предлагаемого метода; и, наконец, в разделе V мы завершаем замечания и обсуждаем некоторые возможные будущие работы.Одним из первых исследователей, применивших этот метод индексации, был Марон (1960)[11].В вышеупомянутой статье описан тщательный и новый метод получения информации из книг в библиотеке.Эта статья также является одним из пионеров релевантности и использования вероятностного индексирования.Обратная связь по релевантности — это процесс вовлечения пользователя в полученные документы.Это было упомянуто в Роккьо (1971).[15], Иде (1971)[8] и Солтон (1971)[19].В отзыве о релевантности запрашивается мнение пользователя о найденных документах, затем с помощью отзывов пользователя определяется релевантность и нерелевантность документов.В более поздних исследованиях обратная связь по релевантности использовалась в сочетании с другими методами.Например, Рахими (2014).[14] использовали обратную связь по релевантности и латентно-семантический анализ (LSA) для повышения удовлетворенности пользователей.Другие исследования, касающиеся использования обратной связи по релевантности, приведены Salton (1997).[18], Руи (1997)[16] и Руи (1998).[17]. В следующих подходах использование тезаурусов было увеличено.Зазо использовал тезаурусы для «переформулирования» входного запроса пользователя [23].Затем появился WordNet.WordNet был одним из ресурсов, меняющих парадигму.Впервые он был создан в Лаборатории когнитивных наук Принстонского университета в 1995 году [12].Это лексическая база данных английского языка, которая включает существительные, прилагательные, глаголы и наречия.Структура WordNet представляет собой семантическую сеть, в которой существует несколько отношений, таких как: синонимия, гиперонимия, гипонимия, меронимия, холонимия и т. д.WordNet содержит более 155 000 записей.Использование WordNet для расширения запросов было впервые представлено в Gong (2005)[5].Они реализовали расширение запросов через WordNet, чтобы улучшить поиск по одному токену в изображениях и повысить точность.Другое исследование, проведенное Палом (2014), показало, что результаты расширения запросов с использованием стандартных коллекций TREC улучшают результаты в целом [13].Чжан (2009) сообщил об улучшении точности на 7 процентов по сравнению с запросами без расширения [24].Использование WordNet для расширения запросов улучшило улучшение на 23–31 процент по сравнению с TREC 9, 10 и 12 [10]. Лю (2004) использовал базу данных под названием ConceptNet, которая содержала 1,6 миллиона общезначимых знаний [9].ConceptNet используется для составления тем, создания аналогий и других контекстно-ориентированных выводов.Позже Сюй (2006) использовал WordNet и ConceptNet для расширения запросов, и результаты были лучше, чем без использования метода расширения запроса.[6].FarsNet [20] [21] — это первая сеть WordNet на персидском языке, разработанная лабораторией НЛП Университета Шахида Бехешти и имеющая ту же структуру, что и исходная сеть WordNet.Первая версия FarsNet содержала более 10 000 синсетов, а версии 2.0 и 2.5 содержали 20 000 синсетов.В настоящее время версия 3 FarsNet находится в стадии выпуска и содержит более 40 000 синсетов [7]. Каждое слово в FarsNet имеет идентификатор слова (WID).Каждый WID затем связан с другими WID, например. слова и их синонимы связаны друг с другом в группах, называемых синсетами.Как упоминалось ранее, часто вводимые пользователем данные не совпадают с теми, которые используются в документах, и поэтому система поиска информации не может выполнить запрос пользователя.Было сказано, что; В настоящей статье FarsNet и его отношения синонимии используются для расширения запросов.В качестве набора данных мы используем оригинальные синсеты FarsNet 2.5.Однако данные сначала очищаются и нормализуются.Нормализация относится к процессу, в котором /ی/ заменяется кодовой точкой Unicode 06CC, а /ک/ заменяется кодовой точкой Unicode 06A9. Входными данными алгоритма является строка входных запросов.Затем входная строка маркируется.Токенизация — это процесс разделения каждого токена слова пробелами.На следующем этапе каждый токен ищется в FarsNet и если он найден, то WID токена будет искаться в базе синонимов; другими словами, синсеты FarsNet.Наконец, каждое слово объединяется со своими синонимами и ищется в коллекции.В приведенном ниже фрагменте показан псевдокод метода расширения запроса.Пример ввода и вывода: Ввод:[Жертвы засухи]Выход: [засуха Пострадавшие безводные, высушенные] L)Expanded_Query <- input@ queryFOR wid IN L:Syns <- найти синоним wid в SynsetCONCAT(Expanded_Query, Syns)Поиск Expanded_Query в коллекцииENDНа этапе оценки мы использовали Hamshahri Corpus[2] — одна из крупнейших коллекций документов на персидском языке, подходящая для задач поиска информации.Этот корпус был впервые создан Исследовательской группой баз данных Тегеранского университета.Название «Хамшахри» происходит от персидской газеты «Хамшахри», одной из крупнейших газет на персидском языке.Корпус «Хамшахри» содержит 166 000 документов газеты «Хамшахри» в 65 категориях.В среднем каждый документ содержит 380 слов, а в целом корпус содержит 400 000 различных слов.Этот корпус построен с использованием стандартов TREC и содержит список стандартных оцененных запросов.Эти запросы оцениваются как релевантные или нерелевантные запросам, основанным на реальных суждениях.Список решений содержит 65 стандартных запросов, а также решения и некоторые описания запросов.Примеры запросов включают: [женский баскетбол] [обучение выращиванию цветов в саду] [новости о пожарах в джунглях] [статус экспорта ковров из Ирана] [воздушный велосипед] В настоящей статье эксперименты по поиску информации основаны на стандартных запросах корпуса Хамшахри.Для оценки предложенного алгоритма в реальной ситуации поиска информации мы использовали базу данных Elasticsearch [1].Elasticsearch — это база данных noSQL, основой которой является документ, поэтому он называется базой данных на основе документов.Elasticsearch использует Lucene в качестве своего движка.Процесс оценки начался с нормализации всех документов в корпусе Хамшахри.Затем некоторые статьи, которые были неполными или содержали ошибки, были удалены, чтобы их можно было проиндексировать в Elasticsearch.В итоге в Elasticsearch было проиндексировано 165 000 документов.В приведенном ниже фрагменте кода показан пример структуры индекса в базе данных Elasticsearch._index: «Hamshahri» [Индекс Elasticsearch по умолчанию]_type: «articles»[По умолчанию — все наши типы являются документами Хамшахри] _id: «AV9Np3YfvUqJXrCluoHe» [случайно сгенерированный идентификатор] DID: «1S1» [Идентификатор документа в корпусе Хамшахри] Дата: «75\\04\\02» [Дата документа в иранском календаре, \\ isfor escape символов]Cat: "adabh" [Категория документа, например. adab-honar]Тело: «&» [Тело документа]Мы организовали две серии экспериментов для оценки алгоритма: без расширения запроса (базовый вариант) и с расширением запроса (предлагается).Сначала для каждого запроса в стандартном списке запросов корпуса Хамшахри мы выполнили поиск в базе данных Elasticsearch и получили результаты.На следующем этапе мы расширили каждый запрос с помощью предложенного метода и выполнили поиск по каждому расширенному запросу в Elasticsearch.Чтобы оценить точность полученных документов в каждом эксперименте, мы использовали инструмент «TREC_Eval» [3].TREC_Eval — это стандартный инструмент для оценки задач IR, его название представляет собой короткую форму инструмента оценки Text REtrival Conference (TREC).Средняя средняя точность (MAP), сообщенная TREC_Eval, составила 27,99% без расширения запроса и 37,10% с расширением запроса, что показывает улучшение более чем на 9 процентов.В таблице 1 и на рисунке 1 показана точность первых n полученных документов (P@n) для разных чисел n в двух сериях экспериментов.Во всех состояниях P@n точность алгоритма расширения запросов была выше базового уровня.На рисунке 1 показан график зависимости точности от полноты для двух серий экспериментов.Этот график показывает, что наш метод улучшит общее качество системы информационного поиска.В этой статье мы предложили метод расширения запросов в IR-системах с использованием FarsNet.Результаты этого подхода показали улучшение средней средней точности (MAP) при поиске документов примерно на 9%.В будущих исследованиях мы будем использовать FarsNet 3.0, а также изменим и пересмотрим некоторые синсеты в FarsNet, чтобы повысить точность поиска информации. | В этой статье мы предлагаем новый метод расширения запроса, который использует FarsNet (персидский WordNet) для поиска похожих токенов, связанных с запросом, и расширения семантического значения запроса. Для этой цели мы используем отношения синонимии в FarsNet и извлекаем связанные синонимы для запроса слов. Этот алгоритм используется для совершенствования систем поиска информации и улучшения результатов поиска. Общая оценка этой системы по сравнению с базовым методом (без использования расширения запроса) показывает улучшение средней средней точности (MAP) примерно на 9 процентов. | 1,597 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Адаптация домена для нейронных сетей путем увеличения параметров. Адаптация предметной области — это парадигма машинного обучения, целью которой является повышение эффективности обобщения нового (целевого) домена за счет использования набора данных из исходного (исходного) домена.Предположим, что в качестве набора данных исходного домена у нас есть корпус титров, состоящий из изображений повседневной жизни, и каждое изображение имеет подписи.Предположим также, что мы хотели бы создать подписи для экзотической кухни, которые редко встречаются в корпусе.Обычно создание нового корпуса для целевого домена, то есть получение и подписание этих изображений, обходится очень дорого.Вопрос исследования здесь заключается в том, как мы можем использовать набор данных исходного домена для повышения производительности в целевом домене.Как описано Daumé daume:07, в основном существует два варианта адаптации домена: полностью контролируемый и полуконтролируемый.Наше внимание сосредоточено на контролируемой настройке, в которой помечены как исходный, так и целевой наборы данных домена.Мы хотели бы использовать информацию метки исходного домена, чтобы повысить производительность целевого домена.В последнее время рекуррентные нейронные сети (RNN) успешно применяются для решения различных задач в области обработки естественного языка (NLP), включая моделирование языка BIBREF0, генерацию подписей BIBREF1 и анализ BIBREF2. Для нейронных сетей существует два стандартных метода контролируемой области. адаптация BIBREF3 .Первый метод — это точная настройка: сначала мы обучаем модель с помощью исходного набора данных, а затем настраиваем ее с помощью набора данных целевого домена BIBREF4, BIBREF5.Поскольку целевая функция обучения нейронной сети невыпуклая, производительность обученной модели может зависеть от инициализации параметров.Это контрастирует с выпуклыми методами, такими как машины опорных векторов (SVM).Мы ожидаем, что первое обучение даст хорошую инициализацию параметров, и, следовательно, последнее обучение даст хорошее обобщение, даже если набор данных целевой области невелик.Недостатком этого подхода является отсутствие цели оптимизации.Другой метод — спроектировать нейронную сеть так, чтобы она имела два выхода.Первый выход обучается с использованием исходного набора данных, а другой выход обучается с помощью целевого набора данных, где входная часть распределяется между доменами.Мы называем этот метод двойными выходами.Этот тип сетевой архитектуры успешно применяется для многозадачного обучения в НЛП, например, для разметки частей речи и распознавания именованных объектов BIBREF6, BIBREF7.В сообществе НЛП уже была проделана большая работа по адаптации предметной области.Одним из современных методов адаптации контролируемого домена является расширение функций BIBREF8.Основная идея этого метода заключается в дополнении исходных функций/параметров для моделирования специфичного для источника, целевого и общего поведения данных.Однако применить его к моделям нейронных сетей, в которых функция стоимости имеет форму логарифмических вероятностей, непросто.В этой статье мы предлагаем новый метод адаптации домена для нейронных сетей.Мы переформулируем метод daume:07 и выведем целевую функцию, используя выпуклость функции потерь.С точки зрения высокого уровня, этот метод разделяет идею расширения функций.Мы используем избыточные параметры для исходного, целевого и общего доменов, где общие параметры настраиваются для моделирования общих характеристик наборов данных, а параметры источника/цели настраиваются для конкретных аспектов домена.Во второй части этой статьи мы применяем наш метод адаптации предметной области к модели нейронных субтитров и показываем улучшение производительности по сравнению с другими стандартными методами на нескольких наборах данных и показателях.В наборах данных источник и цель имеют разное распределение слов, поэтому важна адаптация выходных параметров.Мы увеличиваем выходные параметры для облегчения адаптации.Хотя в экспериментах мы используем модели субтитров, наш метод можно применить к любым нейронным сетям, обученным с потерей перекрестной энтропии.Есть несколько недавних исследований, применяющих методы адаптации предметной области к глубоким нейронным сетям.Однако лишь немногие исследования были сосредоточены на совершенствовании методов точной настройки и двойных выходов в контролируемых условиях. sun2015return предложил метод адаптации неконтролируемой области и применил его к функциям глубоких нейронных сетей.Их идея состоит в том, чтобы минимизировать сдвиг домена путем выравнивания статистики второго порядка исходного и целевого распределений.В наших условиях не обязательно существует соответствие между исходным и целевым распределениями входных данных, и поэтому мы не можем ожидать, что их метод будет работать хорошо.wen2016multi предложили процедуру генерации естественного языка для нескольких областей разговорных диалоговых систем.Они улучшают метод точной настройки путем предварительного обучения на синтезированных данных.Однако протокол синтеза применим только к системе разговорного диалога.В этой статье мы сосредоточимся на методах адаптации предметной области, которые можно применять без уловок, специфичных для наборов данных. yang2016multitask провели серию экспериментов для изучения переносимости нейронных сетей для НЛП.Они сравнивают производительность двух методов передачи, называемых INIT и MULT, которые в наших терминах соответствуют методам точной настройки и двойного вывода.Они пришли к выводу, что MULT немного лучше или сравним с INIT; это согласуется с нашими экспериментами, показанными в разделе «Эксперименты».Хотя они получают небольшое улучшение при передаче выходных параметров, мы достигаем значительного улучшения, увеличивая параметры в выходных слоях.Мы начнем с основных обозначений и формализации для адаптации предметной области.Пусть $\mathcal {X}$ — набор входных данных, а $\mathcal {Y}$ — выходные данные.У нас есть набор данных исходного домена $D^s$, который выбран из некоторого распределения $\mathcal {D}^s$.Кроме того, у нас есть набор данных целевого домена $D^t$, который выбран из другого дистрибутива $\mathcal {D}^t$.Поскольку мы рассматриваем контролируемые настройки, каждый элемент наборов данных имеет форму входной выходной пары $(x,y)$ .Целью адаптации предметной области является изучение функции $f : \mathcal {X} \rightarrow \mathcal {Y}$, которая моделирует отношение ввода-вывода $D^t$.Мы неявно предполагаем, что существует связь между исходным и целевым распределениями и, таким образом, можем использовать информацию из набора данных исходного домена.В случае создания подписи к изображению входные данные $x$ — это изображение (или вектор признаков изображения), а $\mathcal {Y}$0 — подпись (последовательность слов). В задачах создания языка последовательность слов генерируется из входных данных $x$ .Современной моделью генерации языка является LSTM (Long Short Term Memory), инициализируемая вектором контекста, вычисленным на входе BIBREF1.LSTM — это особая форма рекуррентной нейронной сети, которая имеет три вентиля и ячейку памяти.Для каждого временного шага $t$ векторы $c_t$ и $h_t$ вычисляются из $u_t, c_{t-1}$ и $h_{t-1}$ по следующим уравнениям: $
&i = \sigma (W_{ix} u_t+ W_{ih} h_{t-1}) \\
&f = \sigma (W_{fx} u_t+ W_{fh} h_{t-1}) \\
&o = \sigma (W_{ox} u_t+ W_{oh} h_{t-1}) \\
&g = \tanh (W_{gx} u_t+ W_{gh} h_{t-1}) \\
&c_t= f \odot c_{t-1}+ я \odot g \\
&ч_т= о \odot \tanh (c_t),
$ где $\sigma$ — сигмовидная функция, а $\odot$ — поэлементное произведение.Обратите внимание, что все векторы в уравнениях имеют одинаковую размерность $n$, называемую размером ячейки.Вероятность выходного слова на $t$ -м шаге, $y_t$ , вычисляется по формуле $$p(y_t|y_1,\ldots ,y_{t-1},x)= {\rm Softmax}(W h_t), $$ (уравнение 1) где $W$ — матрица с размером словаря, умноженным на $n$ .Мы называем эту матрицу параметром выходного слоя.Входные данные $u_t$ задаются встраиванием слов $y_{t-1}$ . Чтобы создать подпись, мы сначала вычисляем векторы признаков изображения и помещаем их в начало LSTM как $$u_{0 } = W_{0} {\rm CNN}(x),$$ (уравнение 2), где $W_0$ — матрица настраиваемых параметров, а ${\rm CNN}$ — средство извлечения признаков, обычно задаваемое сверточной нейронной сетью. .Выходные слова $y_t$ выбираются по порядку, и каждый заголовок заканчивается специальным символом <EOS>.Этот процесс показан на рисунке 1. Примечание.что функция стоимости сгенерированной подписи равна $
\log p(y|x) = \sum _{t} \log p(y_t|y_1,\ldots,y_{t-1}, x),
$ где условные распределения заданы уравнением (1).Параметры модели оптимизированы для минимизации затрат на набор обучающих данных.Также отметим, что существуют расширения моделей с вниманием BIBREF9, BIBREF10, но формы функций стоимости одинаковы.В этом разделе мы рассмотрим стандартные методы адаптации предметной области, которые применимы к генерации нейронного языка.Производительность этих методов сравнивается в следующем разделе.Тривиальный метод адаптации предметной области — просто игнорировать исходный набор данных и обучать модель, используя только целевой набор данных.Этот метод далее обозначается TgtOnly.Это базовый уровень, и любой значимый метод должен его превосходить.Еще один тривиальный метод — SrcOnly, где для обучения используется только исходный набор данных.Обычно исходный набор данных больше целевого, и этот метод иногда работает лучше, чем TgtOnly.Другой метод — «Все», в котором исходный и целевой наборы данных объединяются и используются для обучения.Хотя этот метод использует все данные, критерии обучения обеспечивают хорошую работу модели в обоих доменах, и поэтому производительность в целевом домене не обязательно высока.Подход, широко используемый в сообществе нейронных сетей, — FineTune.Сначала мы обучаем модель с исходным набором данных.а затем он используется в качестве исходных параметров для обучения модели с целевым набором данных.Процесс обучения останавливается относительно экспериментального набора, чтобы избежать переобучения.Мы могли бы расширить этот метод, введя термин регуляризации (например, регуляризация $l_2$), чтобы не отклоняться от предварительно обученного параметра.Однако в последних экспериментах мы не следуем этому направлению, поскольку не обнаружили никакого прироста производительности.Обратите внимание, что трудно контролировать масштабы регуляризации для каждой части нейронной сети, поскольку существует множество параметров, имеющих разные роли.Другой распространенный подход к адаптации нейронных доменов — Dual.В этом методе выходные данные сети «дуализированы».Другими словами, мы используем разные параметры $W$ в уравнении.( 1 ) для исходного и целевого доменов.Для исходного набора данных модель обучается с использованием первого выходного сигнала и второго для целевого набора данных.Остальные параметры являются общими для всех доменов.Этот тип сетевого проектирования часто используется для многозадачного обучения.Прежде чем перейти к нашему новому методу, мы опишем метод расширения функций BIBREF8 с нашей точки зрения.давайте начнем с метода увеличения функций.Здесь мы рассматриваем предметную адаптацию задачи бинарной классификации.Предположим, что мы обучаем модели SVM для исходного и целевого доменов отдельно.Целевые функции имеют вид $
\frac{1}{n_s} \sum _{(x,y) \in \mathcal {D}_s}
\max (0, 1 - y(w_s^T \Phi (x)))+ \lambda \Vert w_s\Верт ^2 \\
\frac{1}{n_t} \sum _{(x,y) \in \mathcal {D}_t}
\max (0, 1 - y(w_t^T \Phi (x)))+ \lambda \Vert w_t \Vert ^2 ,
$ где $\Phi (x)$ — вектор признаков, а $w_s, w_t$ — параметры SVM.В методе расширения возможностей параметры разлагаются до $w_s = \theta _g+\theta _s$ и $w_t = \theta _g+\theta _t$ .Цель оптимизации отличается от суммы вышеуказанных функций: $
& \frac{1}{n_s}
\sum _{(x,y) \in \mathcal {D}_s} \max (0, 1 - y(w_s^T \Phi (x)))\\
&+\lambda (\Vert \theta _g \Vert ^2 +\Vert\theta _s \Vert ^2 ) \\
&+ \frac{1}{n_t} \sum _{(x,y) \in \mathcal {D}_t} \max (0, 1 - y(w_t^T \Phi (x)))\\
&+ \lambda (\Vert \theta _g \Vert ^2 + \Vert\theta _t \Vert ^2 ),
$ где члены квадратичной регуляризации $\Vert \theta _g+\theta _s \Vert ^2$ и $\Vert \theta _g+\theta _t \Vert ^2$ заменены на $\Vert \theta _g\Верт ^2 +\Vert \theta _s \Vert ^2$ и $\Vert \theta _g\Верт ^2 +\Верт\theta _t \Vert^2$ , соответственно.Поскольку параметры $\theta _g$ являются общими, мы не можем оптимизировать задачи по отдельности.Это изменение целевой функции можно понимать как добавление дополнительных членов регуляризации.$
2(\Vert \theta _g \Vert^2 + \Верт\theta _t \Vert ^2 )- \Vert\theta _g+^2, \\
2(\Vert \theta _g \Vert ^2 + \Vert\theta _s \Vert ^2 ) - \Vert\theta _g+\theta _s \Vert ^2.$ Мы легко можем видеть, что они равны $\Vert \theta _g - \theta _t \Vert ^2$ и $\Vert \theta _g - \theta _s \Vert ^2$ соответственно, и, таким образом, эта дополнительная регуляризация обеспечивает $ \theta _g$ и $\theta _t$ (а также $\theta _g$ и $\theta _s$ ) не должны быть далеко.Именно так метод расширения функций распределяет информацию о предметной области между параметрами $w_s$ и $w_t$. Хотяприведенная выше формализация предназначена для SVM, который имеет квадратичную стоимость параметров, мы можем применить эту идею к случаю логарифмической вероятности.В случае генерации языка RNN функция потерь каждого вывода представляет собой перекрестную энтропию, примененную к выходу softmax $$-\log & p_s(y|y_1, \ldots, y_{t-1}, x) \nonumber \ \
&= -w_{s,y}^T h + \log Z(w_s;h), $$ (уравнение 8), где $Z$ — статистическая сумма, а $h$ — скрытое состояние LSTM, вычисленное по формуле $y_0, \ldots, y_{t-1}$ и $x$.Снова мы разлагаем выходной параметр слова как $w_s = \theta _g+\тета _s$ .Поскольку $\log Z$ выпукла относительно $w_s$, мы легко можем показать, что уравнение.( 8 ) ограничено сверху $
-&\theta _{g,y}^T h + \frac{1}{2} \log Z(2\theta _g;x) \\
&-\theta _{s,y}^T h+\frac{1}{2} \log Z(2\theta _s;x).$ Равенство справедливо тогда и только тогда, когда $\theta _g =Таким образом, оптимизация этой верхней границы эффективно обеспечивает близость параметров, а также снижает затраты.Точно такую же историю можно применить и к целевому параметру $w_t = \theta _g+\theta _t$ .Мы объединяем функции исходной и целевой стоимости и оптимизируем сумму приведенных выше верхних границ.Тогда полученная целевая функция равна $
\frac{1}{n_s} \sum _{(x,y) \in \mathcal {D}_s}
[
-\theta _{g,y}^T h& + \frac{1}{2} \log Z(2\theta _g;x) \\
&-\theta _{s,y}^T h + \frac{1}{2} \log Z(2\theta _s;x)
]
\\
+ \frac{1}{n_t} \sum _{(x,y) \in \mathcal {D}_t}
[
-\theta _{g,y}^T h &+ \frac{1}{2} \log Z(2\theta _g;x) \\
& -\theta _{t,y}^T h + \frac{1}{2} \log Z(2\theta _t;x)
].$ Если мы работаем с суммой исходной и целевой версий уравнения.(8), метод фактически такой же, как Dual, поскольку параметры $\theta _g$ полностью избыточны.Разница между этой целью и предложенной верхней границей действует как член регуляризации, что приводит к хорошей производительности обобщения.Хотя наша формулировка имеет уникальную цель, существует три типа терминов перекрестной энтропии, определяемых $\theta _g$ , $\theta _s$ и $\theta _t$ .Обозначим их $\ell (\theta _g), \ell (\theta _s)$ и $\ell (\theta _t)$ соответственно.Для исходных данных оптимизируется сумма общих и исходных условий потерь, а для целевого набора данных оптимизируется сумма общих и целевых условий потерь.Предложенный алгоритм обобщен в Алгоритме «Предлагаемый метод».Обратите внимание, что $\theta _h$ — это параметры LSTM, за исключением выходной части.За одну эпоху обучения мы используем все данные один раз.Мы можем комбинировать любые методы обновления параметров для обучения нейронной сети, такие как Adam BIBREF11.boxruled.[t] Предлагаемый метод True Выберите мини-пакет данных из исходного или целевого источника набора данных. Оптимизируйте $\ell (\theta _g) + \ell (\theta _s)$ относительно $\theta _g, \theta _s, \theta _h$ для мини-пакета Оптимизируйте $\ell (\theta _g) + \ell (\theta _t)$ относительно $\theta _g, \theta _t, \theta _h$ для увеличения ошибки разработки мини-пакета. Break Вычислите $w_t = \theta _g+\тета _t$ и $w_s = \theta _g+Используйте эти параметры в качестве выходных параметров для каждого домена.Мы провели эксперименты по адаптации предметной области на следующих трех наборах данных.Первый эксперимент фокусируется на ситуации, когда адаптация предметной области полезна.Второй эксперимент показывает преимущество адаптации предметной области в обоих направлениях: от источника к цели и от цели к источнику.Третий эксперимент показывает улучшение еще одного показателя.Хотя наш метод применим к любой нейронной сети с перекрестной потерей энтропии, во всех экспериментах используются модели генерации подписей, поскольку это одно из самых успешных приложений нейронных сетей в НЛП. Этот эксперимент подчеркивает типичный сценарий, в котором адаптация предметной области полезна.Предположим, что у нас есть большой набор данных изображений с подписями, взятых из повседневной жизни, но мы хотели бы создавать высококачественные подписи для более специализированных изображений предметной области, таких как небольшие виды спорта и экзотическая еда.Однако изображения с подписями для этих доменов весьма ограничены из-за стоимости аннотаций.Мы используем методы адаптации домена для улучшения заголовков целевого домена.Чтобы смоделировать этот сценарий, мы разделили набор данных Microsoft COCO на наборы данных о пищевых и непродовольственных товарах.Набор данных MS COCO содержит около 80 тысяч изображений для обучения и 40 тысяч изображений для проверки; каждое изображение имеет 5 подписей BIBREF12.Набор данных содержит изображения различных категорий, включая животных, сцены в помещении, спорт и продукты питания.Мы выбрали данные о «категориях продуктов питания», оценивая подписи в зависимости от того, насколько они связаны с категорией продуктов питания.Оценка рассчитывается на основе сходства слов в сети BIBREF13.Наборы данных обучения и проверки разделены по баллам с одинаковым порогом.Следовательно, набор данных о пищевых продуктах содержит 3806 изображений для обучения и 1775 изображений для проверки.Набор данных непродовольственных товаров содержит 78 976 изображений для обучения и 38 749 изображений для проверки.Выбранные изображения из области продуктов питания обычно представляют собой продукты питания или людей, которые едят некоторые продукты, крупным планом.В Таблице 1 показаны некоторые подписи из наборов данных по продовольственным и непродовольственным товарам.В таблице 2 показаны двадцать наиболее часто встречающихся слов в двух наборах данных, за исключением стоп-слов.Мы видим, что часто встречающиеся слова во многом различаются, но все же есть некоторые общие слова в обоих наборах данных.Для моделирования управления изображением мы используем LSTM, как описано в предыдущем разделе.Характеристики изображения вычисляются обученным GoogLeNet, и все LSTM имеют один слой с 300 скрытыми единицами BIBREF14.Мы используем стандартный метод оптимизации Adam BIBREF11 с гиперпараметрами $\alpha =0,001$, $\beta _1=0,9$ и $\beta _2=0,999$.Останавливаем обучение из-за потери на развивающем наборе.После обучения мы генерируем подписи методом поиска по лучу, где размер луча равен 5.Эти настройки одинаковы в последних экспериментах.Мы сравниваем предлагаемый метод с другими базовыми методами.Для всех методов мы используем Адама с одинаковыми гиперпараметрами.В FineTune мы не замораживали никакие параметры во время целевого обучения.В режиме Dual все выборки в исходном и целевом наборах данных имеют одинаковый вес.Эффективность методов адаптации предметной области мы оценивали по качеству генерируемых титров.Для оценки мы использовали баллы BLEU, METOR и CIDEr.Результаты суммированы в таблице 3 .Мы видим, что предложенный метод улучшается по большинству показателей.Базовые методы SrcOnly и TgtOnly хуже других методов, поскольку используют ограниченные данные для обучения.Обратите внимание, что баллы CIDEr коррелируют с оценками человека лучше, чем баллы BLEU и METOR BIBREF15. Сгенерированные подписи к образцам изображений показаны в таблице 4.В первом примере All не может идентифицировать шоколадный торт, поскольку в исходном наборе данных есть птицы, которые чем-то похожи на шоколадный торт.Мы утверждаем, что Propose изучает птиц по исходным параметрам, а шоколадные торты — по целевым параметрам и, таким образом, преуспевает в создании соответствующих подписей.В этом эксперименте мы исследуем преимущества адаптации с обеих сторон.Flickr30K — это еще один набор данных субтитров, состоящий из 30 тысяч изображений, каждое изображение имеет пять подписей BIBREF16.Хотя форматы наборов данных практически одинаковы, модель, обученная набором данных MS COCO, не работает хорошо для набора данных Flickr 30K и наоборот.Распределение слов в подписях существенно различается.Если мы проигнорируем слова с количеством счетчиков менее 30, у MS COCO будет 3655 слов, а у Flicker30K — 2732 слова; и только 1486 слов являются общими.Кроме того, средняя длина подписей различна.Средняя длина титров в Flickr30K составляет 12,3, а в MS COCO — 10,5. Первым результатом является адаптация домена от MS COCO к Flickr30K, обобщенная в Таблице 5.Опять же, мы видим, что предлагаемый метод достигает наилучшего результата среди других методов.Разница между All и FineTune больше, чем в предыдущей настройке, поскольку два набора данных имеют разные подписи даже для похожих изображений.Оценки FineTune и Dual практически на одном уровне.Вторым результатом является адаптация домена от Flickr30K к MS COCO, показанная в Таблице 6.Это может быть нетипичная ситуация, поскольку количество образцов в целевом домене больше, чем в исходном домене.Модель SrcOnly обучается только с помощью Flickr30K и тестируется на наборе данных MS COCO.Мы видим, что FineTune дает мало преимуществ по сравнению с TgtOnly, а это означает, что разница исходных параметров в этом случае мало влияет.Кроме того, Dual дает мало преимуществ по сравнению с TgtOnly, а это означает, что совместное использование параметров, за исключением выходного слоя, в этом случае не важно.Обратите внимание, что оценка CIDEr для Propose немного улучшена.На рис. 2 показано сравнение FineTune и Propose с изменением количества образцов Flickr на 1600, 6400 и 30 КБ. Мы заметили, что FineTune работает относительно хорошо, когда набор данных целевой области небольшой.В этом эксперименте мы используем модель субтитров в качестве меры сходства изображений и предложений.Тест TOEIC часть 1 состоит из вопросов с четырьмя вариантами ответов для изучающих английский язык.Правильный выбор – это предложение, которое лучше всего описывает показанное изображение.Вопросы непростые, потому что при неправильном выборе есть запутанные ключевые слова.Пример вопроса показан в Таблице 7.Мы загрузили 610 вопросов с http://www.english-test.net/toeic/ Listening/. Наш подход заключается в том, чтобы выбрать наиболее вероятный вариант с учетом изображения, подписав модели.Мы обучаем модели субтитров с помощью изображений и правильных ответов из обучающего набора.Поскольку набор данных TOEIC невелик, адаптация предметной области может дать большую выгоду.Мы сравнили методы адаптации предметной области по проценту правильных ответов.Исходный набор данных — это 40 тысяч выборок из MS COCO, а целевой набор данных — набор данных TOEIC.Мы разделили набор данных TOEIC на 400 образцов для обучения и 210 образцов для тестирования.Процент правильных ответов для каждого метода суммирован в Таблице 8.Поскольку вопросы имеют четыре варианта ответа, все методы должны работать лучше, чем 25%.TgtOnly близок к базовому уровню, поскольку модель обучается всего на 400 выборках.Как и в предыдущих экспериментах, FineTune и Dual лучше, чем All, а Propose лучше, чем другие методы.Мы предложили новый метод контролируемой адаптации нейронных сетей.Применительно к наборам данных субтитров мы показали, что этот метод превосходит другие стандартные методы адаптации, применимые к нейронным сетям.Предлагаемый метод разлагает только параметры выходного слова, тогда как другие параметры, такие как встраивание слов, полностью распределяются между доменами.Увеличение параметров в другой части сети могло бы стать интересным направлением будущей работы. | Мы предлагаем простой метод адаптации домена для нейронных сетей в контролируемой среде. Адаптация контролируемой области — это способ повышения производительности обобщения в целевой области за счет использования набора данных исходной области при условии, что оба набора данных помечены. Недавно было показано, что рекуррентные нейронные сети успешно справляются с различными задачами НЛП, такими как генерация титров; однако существующие методы адаптации предметной области ограничены (1) настройкой параметров модели с помощью целевого набора данных после обучения с использованием исходного набора данных или (2) проектированием сети так, чтобы она имела двойной выход: один для исходной области, а другой для целевой домен. Переформулируя идею метода адаптации предметной области, предложенную Дауме (2007), мы предлагаем простой метод адаптации предметной области, который можно применить к нейронным сетям, обученным с перекрестной энтропийной потерей. В наборах данных субтитров мы показываем улучшение производительности по сравнению с другими методами адаптации предметной области. | 4,570 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Уменьшение гендерной предвзятости в языковых моделях на уровне слов с помощью функции потерь, уравнивающей пол. Показано, что модели обработки естественного языка (NLP) фиксируют нежелательные предубеждения и стереотипы, обнаруженные в данных обучения, которые вызывают обеспокоенность по поводу социально-экономической, этнической и гендерной дискриминации, когда эти модели используются для публичного использования BIBREF0, BIBREF1. Существует множество исследований, выявляющих алгоритмическую предвзятость. в приложениях НЛП.BIBREF2 выявил этническую предвзятость в предложениях автозаполнения Google, тогда как BIBREF3 обнаружил гендерную предвзятость в системах доставки рекламы.Кроме того, BIBREF1 продемонстрировал, что системы разрешения кореференций демонстрируют гендерную предвзятость.Языковое моделирование является ключевой задачей в НЛП с важными последующими приложениями, такими как генерация текста BIBREF4.Недавние исследования BIBREF0 и BIBREF5 показали, что эта задача уязвима из-за гендерных предубеждений в обучающем корпусе.Две предыдущие работы были сосредоточены на уменьшении предвзятости в языковом моделировании посредством предварительной обработки данных BIBREF0 и устранения смещения встраивания слов BIBREF5.В этом исследовании мы изучаем эффективность снижения предвзятости во время обучения, вводя новую функцию потерь, которая побуждает языковую модель уравнивать вероятности предсказания гендерных пар слов, таких как он и она.Хотя мы признаем, что гендер небинарен, для целей данного исследования мы сосредоточимся на женских и мужских словах.Наш основной вклад резюмируется следующим образом: i) насколько нам известно, это исследование является первым, в котором исследуется уменьшение предвзятости при генерации текста путем прямой модификации функции потерь; ii) наша новая функция потерь эффективно уменьшает гендерную предвзятость в языковых моделях во время обучения, уравнивая вероятности мужских и женских слов в выходных данных; iii) мы показываем, что сквозное устранение смещения языковой модели может привести к устранению смещения встраивания слов; iv) мы даем интерпретацию наших результатов и проводим сравнение с другими существующими методами устранения систематической ошибки.Мы показываем, что наш метод в сочетании с существующим методом контрфактического увеличения данных дает наилучший результат и превосходит все существующие методы.В последнее время изучение предвзятости в приложениях НЛП привлекает все большее внимание исследователей.Наиболее важные работы в этой области можно разделить на две категории: устранение смещения путем встраивания слов и устранение смещения данных путем предварительной обработки.В качестве обучающих данных мы используем новостные статьи Daily Mail, опубликованные BIBREF9.Этот набор данных состоит из 219 506 статей, охватывающих широкий круг тем, включая бизнес, спорт, путешествия и т. д., и считается предвзятым и сенсационным BIBREF5.Для удобства управления мы случайным образом отбираем 5% текста.Всего в подвыборке около 8,25 миллиона токенов.Мы используем предварительно обученное 300-мерное встраивание слов GloVe от BIBREF10.Мы применяем случайный поиск для настройки гиперпараметров языковой модели LSTM.Лучшие гиперпараметры следующие: 2 скрытых слоя по 300 единиц каждый, длина последовательности 35, скорость обучения 20 с графиком затухания отжига от 0,25 до 0,95, коэффициент отсева 0,25 и градиентный клип 0,25.Мы обучаем наши модели в течение 150 эпох, используем размер пакета 48 и устанавливаем раннюю остановку с терпением 5. Языковые модели обычно обучаются с использованием перекрестной энтропийной потери.Перекрестная энтропия на временном шаге INLINEFORM0 — это INLINEFORM1, где INLINEFORM0 — это словарь, INLINEFORM1 — это один горячий вектор основной истины, а INLINEFORM2 указывает выходную softmax-вероятность модели.Мы вводим термин потерь INLINEFORM0, целью которого является выравнивание прогнозируемых вероятностей гендерных пар, таких как женщина и мужчина.INLINEFORM1 INLINEFORM0 и INLINEFORM1 — это набор соответствующих гендерных пар, INLINEFORM2 — это размер набора гендерных пар, а INLINEFORM3 указывает выходную softmax-вероятность.Мы используем гендерные пары, предоставленные BIBREF7.Рассматривая только гендерные пары, мы гарантируем, что нейтрализуется только гендерная информация и не изменяется распределение семантических понятий.Например, он попытается уравнять вероятности конгрессмена с конгрессменом и актера с актрисой, но это не повлияет на распределение конгрессмена, конгрессменки и актера, актрисы.Общие потери можно записать как INLINEFORM4, где INLINEFORM0 — гиперпараметр, а INLINEFORM1 — размер корпуса.Мы наблюдаем, что среди аналогичных минимумов функции потерь INLINEFORM2 побуждает модель сходиться к минимуму, который демонстрирует наименьшую гендерную предвзятость.Языковые модели оцениваются с использованием недоумения, которое является стандартной мерой производительности для невидимых данных.Для оценки предвзятости мы используем массив показателей, чтобы обеспечить целостную диагностику поведения модели в условиях лечения, снижающего предвзятость.Эти показатели подробно обсуждаются ниже.Во всех показателях оценки, требующих гендерных пар, мы используем гендерные пары, предоставленные BIBREF7.В этом списке 223 пары, все остальные слова считаются гендерно-нейтральными.Смещение совпадения рассчитывается на основе текстов, сгенерированных моделью, путем сравнения встречаемости всех гендерно-нейтральных слов со словами женского и мужского пола.Слово считается предвзятым по отношению к определенному роду, если оно чаще встречается со словами этого рода.Это определение было впервые использовано BIBREF7, а затем адаптировано BIBREF5.Используя определение гендерной предвзятости, аналогичное тому, которое используется BIBREF5, мы определяем гендерную предвзятость как INLINEFORM0, где INLINEFORM0 — это набор гендерно-нейтральных слов, а INLINEFORM1 — это вхождения слова INLINEFORM2 со словами пола INLINEFORM3 в одном и том же окне.Эта оценка предназначена для выявления неравномерного повторения нейтральных слов со словами мужского и женского пола.Совпадения вычисляются с использованием скользящего окна размером 10, одинаково простирающегося в обоих направлениях.Кроме того, мы учитываем только слова, которые встречаются более 20 раз со словами с гендерной принадлежностью, чтобы исключить случайные эффекты.Мы также оцениваем нормализованную версию INLINEFORM0, которую мы обозначаем условной ошибкой совместного появления, INLINEFORM1.Это определяется как INLINEFORM2, где INLINEFORM0 INLINEFORM0 меньше подвержен несоответствию в общем распределении мужских и женских слов в тексте.Несоответствие между проявлениями двух полов означает, что в тексте чаще упоминается один, а не другой, поэтому это также можно рассматривать как форму предвзятости.Мы сообщаем о соотношении встречаемости мужских и женских слов в тексте, сгенерированном моделью, INLINEFORM1 , как INLINEFORM2. Другой способ количественной оценки предвзятости в моделях НЛП основан на идее причинно-следственного тестирования.Модель подвергается воздействию парных выборок, которые различаются только по одному атрибуту (например, полу), и несоответствие в результатах интерпретируется как предвзятость, связанная с этим атрибутом.BIBREF1 и BIBREF0 применили этот метод для измерения систематической ошибки в разрешении кореференции, а BIBREF0 также использовал его для оценки гендерной предвзятости при языковом моделировании.Следуя подходу, аналогичному BIBREF0, мы ограничиваем эту оценку предвзятости набором гендерно-нейтральных профессий.Мы создаем список предложений на основе набора шаблонов.Для оценки причинной профессиональной предвзятости используются два набора шаблонов (таблица TABREF7).Первый набор шаблонов предназначен для измерения того, как вероятность использования слов зависит от гендерной информации в исходном слове.Ниже приведен пример первого набора шаблонов: INLINEFORM0 Здесь вертикальная черта отделяет исходную последовательность, которая передается в языковые модели, от целевого занятия, для которого мы наблюдаем выходную softmax-вероятность.Мы измеряем причинную профессиональную предвзятость, обусловленную полом, как INLINEFORM0, где INLINEFORM0 — набор гендерно-нейтральных профессий, а INLINEFORM1 — размер набора гендерных пар.Например, INLINEFORM2 — это мягкая максимальная вероятность слова INLINEFORM3, где исходная последовательность — He is a. Второй набор шаблонов, подобных приведенному ниже, направлен на то, чтобы отразить, как вероятности слов с гендерной принадлежностью зависят от слов занятия в исходном слове.INLINEFORM4 Причинно-следственная предвзятость, обусловленная родом занятий, представлена как INLINEFORM0, где INLINEFORM0 — набор гендерно-нейтральных профессий, а INLINEFORM1 — размер набора гендерных пар.Например, INLINEFORM2 — это мягкая максимальная вероятность человека, где начальная последовательность — «Доктор — a». Мы считаем, что и INLINEFORM0, и INLINEFORM1 способствуют гендерной предвзятости в текстах, сгенерированных моделью.Мы также отмечаем, что INLINEFORM2 легче подвержен влиянию общего несоответствия вероятностей мужских и женских слов.Наш подход к устранению смещений не учитывает явно смещение на уровне внедрения.Поэтому мы используем гендерно-нейтральные профессии для измерения смещения встраивания, чтобы наблюдать, уменьшает ли смещение выходного слоя смещение во встраивании.Мы определяем смещение внедрения INLINEFORM0 как разницу между евклидовым расстоянием слова занятия до мужских слов и расстоянием слова занятия до женских аналогов.Это определение эквивалентно смещению по прогнозу, описанному BIBREF6.Мы определяем INLINEFORM1 как INLINEFORM2, где INLINEFORM0 — набор гендерно-нейтральных профессий, INLINEFORM1 — размер набора гендерных пар, а INLINEFORM2 — словарь слов в вектор.Мы применяем CDA, где меняем все гендерные слова, используя двунаправленный словарь гендерных пар, описанный BIBREF0.В результате создается набор данных, в два раза превышающий размер исходных данных, с точно таким же контекстным распределением для обоих полов, и мы используем его для обучения языковых моделей.Мы также реализуем метод регуляризации смещения BIBREF5, который снижает смещение встраивания слов во время обучения языковой модели, сводя к минимуму проекцию нейтральных слов на гендерную ось.Мы используем настройку гиперпараметров, чтобы найти лучший коэффициент регуляризации и сообщать о результатах модели, обученной с помощью этого коэффициента.Позже мы будем называть эту стратегию REG. Первоначально мы измеряем смещение совпадения в обучающих данных.После обучения базовой модели мы реализуем нашу функцию потерь и настраиваем гиперпараметр INLINEFORM0.Мы также тестируем существующие подходы к устранению смещений, CDA и REG, но, поскольку BIBREF5 сообщил, что результаты существенно колеблются в зависимости от разных коэффициентов регуляризации REG, мы выполняем настройку гиперпараметров и сообщаем о лучших результатах в таблице TABREF12.Кроме того, мы реализуем комбинацию нашей функции потерь и CDA и настраиваемся на INLINEFORM1.Наконец, для всех обученных моделей выполняется оценка смещения.Причинно-следственная ошибка по профессиям измеряется непосредственно на основе моделей с использованием шаблонных наборов данных, обсуждавшихся выше, а систематическая ошибка по совпадению измеряется на основе сгенерированных моделью текстов, которые состоят из 10 000 документов по 500 слов каждый.Результаты экспериментов приведены в таблице TABREF12.Интересно отметить, что базовая модель усиливает смещение в наборе обучающих данных, измеренное INLINEFORM0 и INLINEFORM1.Благодаря измерениям с использованием описанных показателей систематической ошибки наш метод эффективно снижает систематическую ошибку при моделировании языка без значительного увеличения недоумения.При значении INLINEFORM2, равном 1, INLINEFORM3 уменьшается на 58,95 %, INLINEFORM4 на 45,74 %, INLINEFORM5 на 100 %, INLINEFORM6 на 98,52 % и INLINEFORM7 на 98,98 %.По сравнению с результатами CDA и REG, он достигает наилучших результатов по обоим предвзятым оценкам занятости, INLINEFORM8 и INLINEFORM9, а также INLINEFORM10.Мы заметили, что результат всех методов INLINEFORM11 составляет около 1, что указывает на то, что в сгенерированных текстах почти одинаковое количество слов женского и мужского пола.В наших экспериментах мы отмечаем, что с увеличением INLINEFORM12 смещение неуклонно уменьшается, а недоумение имеет тенденцию немного увеличиваться.Это указывает на то, что существует компромисс между предвзятостью и недоумением.REG не очень эффективен в смягчении систематической ошибки по сравнению с другими методами и не может достичь наилучшего результата ни по одному из показателей систематической ошибки, которые мы использовали.Но REG приводит к лучшему недоумению и даже лучше, чем базовая модель в этом отношении.Это указывает на то, что REG имеет небольшой эффект регуляризации.Кроме того, интересно отметить, что наша функция потерь превосходит REG в INLINEFORM0, хотя REG явно стремится уменьшить гендерную предвзятость во вложениях.Хотя наш метод явно не пытается устранить геометрическое искажение встраивания слов, результаты показывают, что он приводит к наиболее смещенному встраиванию по сравнению с другими методами.Кроме того, BIBREF8 подчеркивает, что геометрическая гендерная предвзятость в встраивании слов не полностью понята, а существующие стратегии устранения встраивания слов недостаточны.Наш подход обеспечивает привлекательное комплексное решение для устранения смещения модели, не полагаясь на какую-либо меру предвзятости при внедрении слов.Мы считаем, что эту концепцию можно обобщить и на другие приложения НЛП.Наш метод превосходит CDA в INLINEFORM0, INLINEFORM1 и INLINEFORM2.В то время как CDA достигает немного лучших результатов для смещений совместного возникновения, INLINEFORM3 и INLINEFORM4 , и приводит к лучшему недоумению.С небольшими различиями наши результаты сопоставимы с результатами CDA, и обе модели, по-видимому, имеют одинаковый эффект смягчения предвзятости.Однако наш метод не требует этапа увеличения данных и позволяет обучать несмещенную модель непосредственно на основе смещенных наборов данных.По этой причине ему также требуется меньше времени для обучения, чем CDA, поскольку его обучающие данные имеют меньший размер без дополнения данных.Более того, CDA не может эффективно смягчить профессиональную предвзятость по сравнению с нашим подходом.Хотя данные обучения для CDA не содержат гендерной предвзятости, модель все же демонстрирует некоторую гендерную предвзятость при измерении с помощью наших показателей причинной профессиональной предвзятости.Это подкрепляет концепцию о том, что некоторые ограничения на уровне модели необходимы для устранения смещения модели, а одному только уменьшению смещения набора данных нельзя доверять.Наконец, отметим, что комбинация CDA и нашей функции потерь превосходит все методы по всем показателям систематических ошибок без ущерба для недоумения.Следовательно, можно утверждать, что каскад этих подходов можно использовать для оптимального устранения искажений языковых моделей.В этом исследовании мы предлагаем новый подход к смягчению гендерных предубеждений в моделях нейронного языка и эмпирически показываем его эффективность в уменьшении предвзятости, измеряемую с помощью различных показателей оценки.Наше исследование также подчеркивает тот факт, что снижение смещения модели с помощью штрафов за смещение в функции потерь является эффективным методом.Мы подчеркиваем, что устранение смещения на основе функции потерь является мощным и может быть распространено на другие последующие приложения НЛП.Исследование также подтверждает идею о том, что геометрическое устранение смещения встраивания слов не является полным решением для устранения смещения последующих приложений, но поощряет сквозные подходы к устранению смещения.Все методы устранения предвзятости, экспериментированные в этой статье, так или иначе основаны на заранее определенном наборе гендерных пар.CDA использовала гендерные пары для переворачивания, REG использует их для определения гендерного пространства, а наша методика использует их для вычисления потерь.Эту зависимость от заранее определенного набора гендерных пар можно считать ограничением этих методов.Это также приводит к еще одной проблеме.Есть слова, связанные с полом, у которых нет пар, например, «беременная».Эти слова не обрабатываются должным образом методами, основанными на гендерных парах.Будущая работа включает в себя разработку контекстно-зависимой версии нашей функции потерь, которая сможет различать беспристрастные и предвзятые упоминания гендерных слов и наказывать только предвзятую версию.Еще одним интересным направлением является изучение применения этого метода для смягчения расовых предубеждений, что создает еще больше проблем.We are grateful to Sam Bowman for helpful advice, Shikha Bordia, Cuiying Yang, Gang Qian, Xiyu Miao, Qianyi Fan, Tian Liu, and Stanislav Sobolevsky for discussions, and reviewers for detailed feedback. | Гендерная предвзятость существует в наборах данных на естественном языке, которые модели нейронного языка имеют тенденцию изучать, что приводит к предвзятому генерированию текста. В этом исследовании мы предлагаем подход к устранению смещений, основанный на модификации функции потерь. Мы вводим новый термин в функцию потерь, которая пытается уравнять вероятности мужских и женских слов в выходных данных. Используя набор показателей оценки предвзятости, мы предоставляем эмпирические доказательства того, что наш подход успешно смягчает гендерную предвзятость в языковых моделях, не увеличивая при этом недоумения. По сравнению с существующими стратегиями устранения смещения, увеличения данных и устранения смещения слов, наш метод работает лучше в нескольких аспектах, особенно в уменьшении гендерной предвзятости в словах о занятиях. Наконец, мы представляем комбинацию увеличения данных и нашего подхода и показываем, что он превосходит существующие стратегии по всем показателям оценки систематической ошибки. | 2,477 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Анализ настроений данных Twitter для прогнозирования движений фондового рынка. Более ранние исследования по прогнозированию фондового рынка основывались на исторических ценах на акции.Более поздние исследования развенчали подход к прогнозированию движений фондового рынка с использованием исторических цен.Цены на фондовом рынке в значительной степени колеблются.Гипотеза эффективного рынка (EMH) утверждает, что движения финансового рынка зависят от новостей, текущих событий и выпусков продуктов, и все эти факторы будут иметь существенное влияние на стоимость акций компании BIBREF0 .Из-за ложной непредсказуемости новостей и текущих событий цены на фондовом рынке следуют шаблону случайного блуждания и не могут быть предсказаны с точностью более 50%.С появлением социальных сетей информации об общественных настроениях стало много.Социальные сети превращаются в идеальную платформу для обмена общественными эмоциями по любой теме и оказывают значительное влияние на общее общественное мнение.Twitter, социальная сеть, в последнее время привлекла большое внимание исследователей.Twitter — это приложение для микроблогов, которое позволяет пользователям следить за мыслями других пользователей и комментировать их или делиться своим мнением в режиме реального времени BIBREF2.Более миллиона пользователей ежедневно публикуют более 140 миллионов твитов.Эта ситуация делает Twitter похожим на корпус ценных данных для исследователей BIBREF3. Каждый твит имеет длину 140 символов и кратко отражает общественное мнение по определенной теме.Информация, полученная из твитов, очень полезна для прогнозирования BIBREF4.В этой статье мы вносим свой вклад в область анализа настроений данных Твиттера.Классификация тональности — это задача оценить мнение в части текста как положительное, отрицательное или нейтральное.Существует множество исследований, в которых Твиттер рассматривается как основной источник анализа общественного мнения.Асур и Хуберман BIBREF5 спрогнозировали кассовые сборы фильма до его выхода на основе общественного мнения, связанного с фильмами, выраженного в Твиттере.Тенденции гриппа в Google широко изучаются вместе с Twitter для раннего прогнозирования вспышек заболеваний.Эйджи и др. BIBREF6 изучил данные Твиттера о вспышках гриппа.Руис и др.BIBREF7 использовал ограниченные по времени графики для изучения проблемы корреляции активности микроблогов в Твиттере с изменениями цен на акции и объемами торгов.Бордино и др. BIBREF8 показали, что объемы торгов акциями, торгуемыми на NASDAQ-100, коррелируют с объемами их запросов (т. е. количеством запросов пользователей, отправленных поисковым системам в Интернете).Гилберт и Карахалиос BIBREF9 обнаружили, что рост выражений тревоги, беспокойства и страха в блогах предсказывает понижательное давление на индекс S&P 500.Боллен BIBREF10 показал, что общественное настроение, анализируемое с помощью твиттер-каналов, хорошо коррелирует с промышленным индексом Доу-Джонса (DJIA).Все эти исследования продемонстрировали Твиттер как ценный источник и мощный инструмент для проведения исследований и составления прогнозов.Остальная часть статьи организована следующим образом.В разделе 2 описаны соответствующие работы, а в разделе 3 обсуждается часть данных, демонстрирующая сбор данных и часть предварительной обработки.В разделе 4 мы обсуждаем часть анализа настроений в нашей работе, а затем раздел 5, в котором исследуется корреляция извлеченных настроений с акциями.В разделе 6 мы представляем результаты, точность и точность нашего анализатора настроений, а затем точность корреляционного анализатора.В разделе 7 мы представляем наши выводы, а в разделе 8 рассматривается наш план будущей работы.Самая известная публикация в этой области принадлежит Боллену BIBREF10.Они исследовали, коррелируют ли состояния коллективного настроения публики (счастливое, спокойное, тревожное), полученные из твиттер-каналов, со значением промышленного индекса Доу-Джонса.Для своего прогноза они использовали нечеткую нейронную сеть.Их результаты показывают, что состояние общественного настроения в Твиттере тесно коррелирует с промышленным индексом Доу-Джонса.Чен и Лазер BIBREF11 разработали инвестиционные стратегии, наблюдая и классифицируя ленты Twitter.Бинг и др. BIBREF12 изучил твиты и пришел к выводу о предсказуемости цен на акции в зависимости от типа отрасли, такой как финансы, информационные технологии и т. д.Чжан BIBREF13 обнаружил в твитах высокую отрицательную корреляцию между состояниями настроения, такими как надежда, страх и беспокойство, со средним индексом Доу-Джонса.Недавно Брайан и др. БИБРЕФ14исследовали корреляцию настроений общественности с ростом и снижением акций, используя коэффициент корреляции Пирсона для акций.В этой статье мы применили новый подход к прогнозированию роста и падения цен на акции на основе настроений, извлеченных из Твиттера, чтобы найти корреляцию.Основным вкладом нашей работы является разработка анализатора настроений, который работает лучше, чем тот, что был в работе Брайана, и новый подход к поиску корреляции.Анализатор настроений используется для классификации настроений в извлеченных твитах.Набор аннотированных человеком данных в нашей работе также является исчерпывающим.Мы показали, что существует сильная корреляция между настроениями в Твиттере и ценами на акции на следующий день в разделе результатов.Мы сделали это, проанализировав твиты и цены открытия и закрытия акций Microsoft за год.Из API Twitter BIBREF15 извлечено в общей сложности 2 50 000 твитов Microsoft за период с 31 августа 2015 г. по 25 августа 2016 г.Twitter4J — это Java-приложение, которое помогает нам извлекать твиты из Твиттера.Твиты были собраны с использованием Twitter API и отфильтрованы с использованием таких ключевых слов, как $ MSFT, # Microsoft, #Windows и т. д.Не только мнение общественности об акциях компании, но и мнения о продуктах и услугах, предлагаемых компанией, будут иметь значительное влияние и заслуживают изучения.Основываясь на этом принципе, ключевые слова, используемые для фильтрации, разрабатываются с особой тщательностью, а твиты извлекаются таким образом, чтобы они отражали точные эмоции общественности по поводу Microsoft за определенный период времени.Также были включены новости в Твиттере о Microsoft и твиты о выпусках продуктов.Цены открытия и закрытия акций Microsoft за период с 31 августа 2015 г. по 25 августа 2016 г. получены на Yahoo!Финансы BIBREF16. Собранные данные о ценах на акции не являются полными по понятным причинам из-за выходных и праздничных дней, когда фондовый рынок не работает.Недостающие данные аппроксимируются с использованием простой методики Goel BIBREF17.Данные о запасах обычно следуют вогнутой функции.Итак, если стоимость акций в день равна x, а следующая присутствующая стоимость равна y, с некоторыми пропущенными промежутками.Первое недостающее значение приблизительно равно (y+x)/2, и тот же метод используется для заполнения всех пробелов.Твиты состоят из множества сокращений, смайлов и ненужных данных, таких как изображения и URL-адреса.Таким образом, твиты предварительно обрабатываются, чтобы передать правильные эмоции публики.Для предварительной обработки твитов мы использовали три этапа фильтрации: токенизацию, удаление стоп-слов и сопоставление регулярных выражений для удаления специальных символов.Твиты разбиваются на отдельные слова в зависимости от места, а ненужные символы, такие как смайлики, удаляются.Формируем список отдельных слов для каждого твита.Слова, которые не выражают никаких эмоций, называются стоп-словами.После разделения твита такие слова, как a, is, the, with и т. д., удаляются из списка слов.Сопоставление регулярных выражений в Python выполняется для сопоставления URL-адресов и заменяется термином URL-адрес.Часто твиты состоят из хэштегов (#) и @, обращенных к другим пользователям.Их также заменяют соответствующим образом.Например, #Microsoft заменяется на Microsoft, а @Billgates заменяется на USER.Длинное слово, выражающее сильные эмоции, например «куууууу!»заменено на крутое!После этих этапов твиты готовы к классификации по тону.Задача анализа настроений во многом зависит от конкретной области.Существует множество исследований по анализу настроений в обзорах фильмов и новостных статьях, и многие анализаторы настроений доступны в виде открытого исходного кода.Основная проблема этих анализаторов в том, что они обучаются на другом корпусе.Например, корпус фильмов и корпус стоков не эквивалентны.Итак, мы разработали собственный анализатор настроений.Твиты классифицируются как положительные, отрицательные и нейтральные в зависимости от текущего настроения BIBREF18.3216 твитов из общего числа проверяются людьми и помечаются как 1 для положительных эмоций, 0 для нейтральных и 2 для отрицательных эмоций.Для классификации твитов, аннотированных людьми, обучается модель машинного обучения, функции которой извлекаются из твитов, аннотированных людьми.Текстовые представления выполняются двумя методами:Представление n-грамм и Word2vecN-грамм известно своей спецификой соответствия корпусу изучаемого текста.В этих методах анализируется полный корпус связанного текста, который в настоящей работе является твитами, и каждая появляющаяся последовательность слов длины n извлекается из твитов для формирования словаря слов и фраз.Например, текст «Microsoft запускает новый продукт» состоит из следующих трехграммовых слов: «Microsoft запускает», «выпускает», «запускает новый» и «новый продукт».В нашем случае N-граммы для всех твитов образуют корпус.В этом представлении твит разбивается на N-граммы, а характеристики модели представляют собой строку из 1 и 0, где 1 представляет наличие этого N-грамма твита в корпусе, а 0 указывает на отсутствие.Представление Word2vec — гораздо лучший, продвинутый и новейший метод, который работает путем сопоставления слов с 300-мерными векторными представлениями.После того, как каждое слово языка сопоставлено с уникальным вектором, векторы слов можно суммировать, получая результирующий вектор для любого заданного набора слов BIBREF19 .В этой форме представления связь между словами точно сохраняется.Разница векторов слов между Римом и Италией очень близка к разнице между векторами Франции и Парижа.Эта устойчивая связь между понятиями слов делает модель word2vec очень привлекательной для текстового анализа.В этом представлении результирующий вектор, который представляет собой сумму 300 размерных векторов всех слов в твите, выступает в качестве признаков модели.Характеристики, извлеченные с помощью вышеуказанных методов для твитов, аннотированных людьми, передаются в классификатор и обучаются с использованием алгоритма случайного леса.Оба текстовых представления показали себя хорошо, и результаты сопоставимы.Из этих двух моделей выбрана модель, обученная с использованием представления word2vec, из-за ее устойчивости смысла и многообещающей производительности на больших наборах данных.Результаты классификации настроений обсуждаются в следующих разделах.Разработанный классификатор используется для прогнозирования эмоций нечеловеческих аннотированных твитов.В таблице 1 показан образец твитов, аннотированных анализатором настроений.Данные о ценах на акции Microsoft помечены так, чтобы их можно было обучать с помощью простой программы.Если цена акций предыдущего дня превышает цену акций текущего дня, текущий день отмечается числовым значением 0, в противном случае — числовым значением 1.Теперь этот корреляционный анализ оказывается проблемой классификации.Общее количество положительных, отрицательных и нейтральных эмоций в твитах за трехдневный период рассчитывается последовательно, которые используются в качестве признаков для модели классификатора, а выходными данными является помеченное значение акций на следующий день 0 или 1. Размер окна экспериментируется и дает наилучшие результаты. достигаются, когда значения настроений предшествуют цене акций на 3 дня.В классификатор подаются в общей сложности 355 экземпляров, каждый с 3 атрибутами, с разделением на 80% набора данных поезда и оставшегося набора данных для тестирования.Точность классификатора обсуждается в разделе результатов.В этом разделе представлен обзор показателей точности обученных классификаторов.Все расчеты выполняются с помощью инструмента Weka, который работает на виртуальной машине Java BIBREF20.В приведенных выше разделах обсуждался метод, используемый для обучения классификатора, используемого для анализа настроений твитов.Классификатор с такими функциями, как представления Word2vec твитов, аннотированных людьми, обученный по алгоритму Random Forest с процентом разделения 90 для обучения модели и оставшимся для тестирования модели, показал точность 70,2%.При использовании N-граммных представлений модель классификатора с тем же алгоритмом и с тем же набором данных показала точность 70,5%.Хотя результаты очень близки, модель, обученная с использованием представлений word2vec, выбрана для классификации нечеловеческих аннотированных твитов из-за ее многообещающей точности для больших наборов данных и устойчивости значения слов.Многочисленные исследования были проведены на людях, и они пришли к выводу, что уровень согласия между людьми, то есть степень согласия между людьми по тону текста, составляет от 70% до 79% BIBREF21.Они также пришли к выводу, что анализаторы настроений с точностью выше 70% в большинстве случаев очень точны.При наличии этой информации результаты, полученные нами в результате классификации настроений, можно рассматривать как очень хорошие цифры при прогнозировании настроений в коротких текстах и твитах длиной менее 140 символов.В таблице 2 показаны результаты классификации настроений, включая точность, точность, F-меру и отзыв, при обучении с использованием различных алгоритмов машинного обучения.Кривые ROC строятся для детального анализа.В предыдущих разделах представлен классификатор, который обучается с использованием совокупных значений настроений за 3-дневный период в качестве функций и увеличения/уменьшения цены акций, представленного 1/0, в качестве выходных данных.Общие данные разделены на две части: 80 процентов — для обучения модели, а остальные — для тестирования.Результаты классификатора показывают значение точности 69,01% при обучении с использованием алгоритма логистической регрессии, а уровень точности варьировался в зависимости от обучающего набора.Когда модель с LibSVM обучена на 90 процентах данных, она дала результат 71,82%.Эти результаты дают инвесторам значительное преимущество и демонстрируют хорошую корреляцию между движениями фондового рынка и настроениями общественности, выраженными в Твиттере.Эта тенденция показывает, что с увеличением набора данных модели работают хорошо.Мы хотели бы включить больше данных в нашу будущую работу.В этой статье мы показали, что существует сильная корреляция между ростом/падением цен на акции компании и общественным мнением или эмоциями по поводу этой компании, выраженными в Твиттере через твиты.Основным вкладом нашей работы является разработка анализатора настроений, который может судить о типе настроений, присутствующих в твите.Твиты делятся на три категории: позитивные, негативные и нейтральные.Вначале мы утверждали, что положительные эмоции или мнение публики в Твиттере о компании отразятся на цене ее акций.Наши предположения хорошо подтверждаются достигнутыми результатами и, похоже, имеют многообещающее будущее в исследованиях.В этой работе мы рассматривали только данные Твиттера для анализа настроений людей, которые могут быть предвзятыми, поскольку не все люди, которые торгуют акциями, делятся своим мнением в Твиттере.Stocktwits BIBREF22 — это платформа финансовой коммуникации, предназначенная исключительно для обмена идеями и знаниями инвесторов, предпринимателей и трейдеров.Настоящее исследование может быть расширено за счет включения данных Stocktwits.В дополнение к этому, данные из новостей также могут быть включены для исчерпывающего сбора общественного мнения.При обучении анализатора настроений используется 3216 твитов, что сравнительно меньше для обучения анализатора настроений.В будущем мы надеемся, что люди смогут аннотировать более 10 000 твитов и обучать классификаторы.С увеличением размера наборов обучающих данных модели имеют тенденцию работать лучше.Авторы хотели бы поблагодарить студентов ИИТ Бхубанешвара, которые внесли свой вклад в аннотирование твитов. | Прогнозирование движений фондового рынка является широко известной и интересной проблемой. Современные социальные сети прекрасно отражают общественные настроения и мнение о текущих событиях. В частности, большое внимание исследователей, изучающих общественные настроения, привлек Твиттер. Прогнозирование фондового рынка на основе общественных настроений, выраженных в Твиттере, стало интригующей областью исследований. Предыдущие исследования пришли к выводу, что совокупное общественное настроение, полученное из Твиттера, вполне может коррелировать с промышленным индексом Доу-Джонса (DJIA). Целью этой работы является наблюдение за тем, насколько хорошо изменения цен на акции компании, их взлеты и падения коррелируют с общественным мнением, выражаемым в твитах об этой компании. Понимание мнения автора из фрагмента текста является целью анализа настроений. В настоящей статье для анализа общественных настроений в твитах использовались два разных текстовых представления: Word2vec и N-gram. В этой статье мы применили анализ настроений и контролируемые принципы машинного обучения к твитам, извлеченным из Твиттера, и проанализировали корреляцию между движениями компании на фондовом рынке и настроениями в твитах. Проще говоря, положительные новости и твиты о компании в социальных сетях определенно побудят людей инвестировать в акции этой компании, и в результате цена акций этой компании увеличится. В конце статьи показано, что существует сильная корреляция между ростом и падением цен на акции и общественными настроениями в твитах. | 2,446 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Аннотирование студенческих выступлений в текстовых обсуждениях в классе. Текущие исследования, теории и политика в отношении обучения K-12 в Соединенных Штатах подчеркивают роль дисциплинарных дискуссий, ориентированных на учащихся (т. е. дискуссий, связанных с конкретной академической дисциплиной или школьным предметом, таким как физика или искусство английского языка) в качестве обучения и возможности обучения BIBREF0, BIBREF1.Такие обсуждения, ориентированные на учащихся, часто называемые «диалогическими» или «основанными на опросе», широко рассматриваются как наиболее эффективный метод обучения для дисциплинарного понимания, решения проблем и повышения грамотности BIBREF2 , BIBREF3 , BIBREF4 .В классах английского языка (ELA) дискуссии о литературе, ориентированные на учащихся, оказывают положительное влияние на развитие навыков мышления, письма и чтения учащихся BIBREF5 , BIBREF6 .Однако большинство исследований были сосредоточены на роли учителей и их выступлениях (BIBREF7, BIBREF2, BIBREF8), а не на аспектах разговоров учащихся, которые способствуют качеству обсуждения.Кроме того, в исследованиях дискуссий, ориентированных на учащихся, редко используются одни и те же схемы кодирования, что затрудняет обобщение результатов исследований BIBREF2, BIBREF9.Это ограничение отчасти связано с трудоемкой работой, необходимой для анализа дискурсивных данных с помощью качественных методов, таких как этнография и дискурс-анализ.Таким образом, качественные тематические исследования породили убедительные теории об особенностях студенческой речи, которые приводят к высококачественным дискуссиям, но лишь немногие выводы можно обобщить и использовать для влияния на улучшение преподавания в классах ELA.В качестве первого шага к разработке автоматизированной системы для обнаружения особенностей разговорной речи учащихся, которые приводят к высококачественным обсуждениям, мы предлагаем новую схему аннотирования разговоров учащихся во время «текстовых» дискуссий ELA, то есть дискуссий, сосредоточенных на тексте. или произведение литературы (например, книга, пьеса или речь).Схема аннотаций была разработана для отражения трех аспектов беседы в классе, которые теоретически рассматриваются в литературе как важные для качества обсуждения и возможностей обучения: аргументация (процесс систематического рассуждения в поддержку идеи), специфичность (качество принадлежности или уникального отношения). к конкретной теме) и область знаний (область знаний, представленная в содержании доклада).Мы демонстрируем надежность и обоснованность нашей схемы посредством аннотационного исследования пяти стенограмм обсуждений в классе.Одной из особенностей дискурса, используемой для оценки качества дискуссий, являются ходы аргументации учащихся: их утверждения по поводу текста, обмен ими текстовыми свидетельствами для утверждений, а также их обоснование или обоснование в поддержку утверждений BIBREF10 , BIBREF11 .Многие исследователи считают, что рассуждения учащихся имеют первостепенное значение, особенно если эти рассуждения тщательно продуманы и содержат большое количество выводов BIBREF12.В области обработки естественного языка (НЛП) большинство образовательно-ориентированных исследований аргументации было сосредоточено на корпусах убедительных эссе учащихся BIBREF13, BIBREF14, BIBREF15, BIBREF16, BIBREF17, BIBREF18.Вместо этого мы фокусируемся на стенограммах многосторонних устных дискуссий в классах.Второе ключевое отличие состоит во включении в нашу схему ярлыка ордера, поскольку важно понимать, как студенты явно используют рассуждения, чтобы связать доказательства с утверждениями.Исследования в области образования показывают, что на качество обсуждения также влияет специфика студенческой речи BIBREF19, BIBREF20.Чисхолм и Годли обнаружили, что по мере увеличения специфичности качество заявлений и рассуждений студентов также увеличивается.Предыдущие исследования НЛП изучали специфичность в контексте профессионально написанных газетных статей BIBREF21, BIBREF22, BIBREF23, BIBREF24.Хотя инструкции по аннотациям, используемые в этих исследованиях, хорошо подходят для корпусов общего назначения, специфика текстовых обсуждений также должна отражать особые отношения между обсуждениями и текстами.Более того, поскольку понятие предложения четко не определено в речи, мы аннотируем аргументативные единицы дискурса, а не предложения (см. раздел SECREF3).Область знаний студенческого разговора также может иметь значение, то есть, фокусируется ли разговор на дисциплинарных знаниях или жизненном опыте.Некоторые исследования показывают, что возможности дисциплинарного обучения максимальны, когда студенты опираются на доказательства и рассуждения, которые общеприняты в дисциплине BIBREF25, хотя некоторые исследования показывают, что доказательства или рассуждения, основанные на жизненном опыте, повышают качество обсуждения BIBREF26.Предыдущая соответствующая работа в области НЛП анализировала тип доказательств для аргументированных твитов BIBREF27.Хотя категории типов доказательств различны, их определение типа доказательств соответствует нашему определению области знаний.Однако наше исследование отличается от этого исследования в своей области применения (т. е. социальные сети против образования) и в анализе области знаний для всех аргументативных компонентов, а не только тех, которые содержат утверждения.В нашей схеме аннотаций в качестве единицы анализа используются перемещения аргументов.Мы определяем ход аргумента как высказывание или часть высказывания, содержащую аргументативную дискурсивную единицу (ADU) BIBREF28.Подобно Пельдшусу и Стеде Пельдшусу:15, в этой статье мы используем расшифровки, уже сегментированные на ходы аргументов, и сосредотачиваемся на шагах, следующих за сегментацией, то есть на маркировке аргументации, специфичности и области знаний.В таблице TABREF2 показан фрагмент записанного обсуждения в классе вместе с метками, присвоенными человеком-аннотатором после сегментации.Схема аргументации основана на BIBREF29 и состоит из упрощенного набора меток, полученного из модели Toulmin:58: INLINEFORM0 Утверждение: спорное утверждение, которое представляет конкретную интерпретацию текста или темы.INLINEFORM1 Доказательства: факты, документация, текстовая ссылка или показания, используемые для поддержки или обоснования претензии.INLINEFORM2 Ордер: причины, объясняющие, как конкретный экземпляр доказательства поддерживает конкретное утверждение.Наша схема предусматривает, что ордера должны следовать после иска и доказательств, поскольку ордера по определению не могут существовать без них.Первые три хода в таблице TABREF2 демонстрируют естественное выражение аргумента: студент сначала утверждает, что жена Вилли всего лишь пытается его защитить, затем приводит ссылку в качестве доказательства, упоминая что-то, что она сказала своим детям в конце книги. и, наконец, объясняет, как отсутствие заботы о своих детях связывает доказательства с первоначальным утверждением.Вторая группа демонстрирует такое же развитие аргументации, с доказательствами, представленными в виде прямой цитаты.Специальные аннотации основаны на BIBREF19 и имеют целью уловить связанные с текстом характеристики, выраженные в разговорах учащихся.Метки специфичности напрямую связаны с четырьмя отдельными элементами хода аргумента: (1) он специфичен для одного (или нескольких) персонажа или сцены; (2) он делает существенные уточнения или уточнения; (3) он использует лексику, специфичную для содержания (например, цитаты из текста); (4) это обеспечивает цепочку причин.Наша схема аннотаций для специфичности включает три метки в линейном масштабе: INLINEFORM0 Низкий: оператор, который не содержит ни одного из этих элементов.INLINEFORM1 Medium: оператор, реализующий один из этих элементов.INLINEFORM2 Высокий: утверждение, которое явно реализует как минимум два элемента специфичности.Несмотря на то, что мы не используем явно метки для четырех элементов специфичности, мы обнаружили, что явное разбиение специфичности на несколько компонентов помогло повысить надежность при обучении аннотаторов.Первые три перемещения аргументов в таблице TABREF2 содержат первый элемент, поскольку они относятся к выбранным символам в книге.Однако не предоставляется никакой специфичной для содержания лексики, четкой цепочки рассуждений или существенных уточнений; поэтому все три хода помечены как средняя специфичность.Однако четвертый ход реализует первый и четвертый элементы специфичности и обозначается как высокая специфичность.Пятый ход также отмечен высокой специфичностью, поскольку он специфичен для одного персонажа/сцены и представляет собой прямую цитату из текста.Последний шаг отмечен как низкий уровень специфичности, поскольку он отражает чрезмерное обобщение в отношении всех людей.Возможные метки области знаний: INLINEFORM0 Дисциплинарный: утверждение основано на знаниях, полученных из текста (обсуждаемого или других), таких как цитата или описание персонажа/события.INLINEFORM1 Эмпирический: утверждение основано на человеческом опыте, например, на том, что испытал говорящий или думает, что испытали другие люди.В таблице TABREF2 первые шесть ходов аргументов помечены как дисциплинарные, поскольку ходы отражают знания из обсуждаемого в данный момент текста.Однако последний шаг основан на опыте ученика или предполагаемых знаниях о реальном мире.Мы провели исследование надежности предложенной схемы с использованием двух пар экспертов-аннотаторов, P1 и P2.Аннотаторов обучали кодированию одной расшифровки за раз и обсуждению разногласий.Для проверки надежности после обучения использовались пять текстовых обсуждений: пара P1 аннотировала обсуждения «Самый синий глаз», «Смерть коммивояжера» и «Макбет», а пара P2 аннотировала два отдельных обсуждения «Разве я не женщина».Было аннотировано 250 аргументированных ходов (обсужденных более чем 40 студентами и состоящих из более чем 8200 слов).Надежность между экспертами оценивалась с использованием каппы Коэна: невзвешенной для аргументации и области знаний, но квадратично взвешенной для специфичности с учетом ее упорядоченных меток.Таблица TABREF6 показывает, что каппа для аргументации варьируется от INLINEFORM0, что обычно указывает на существенное согласие BIBREF30.Значения каппа для специфичности и области знаний находятся в диапазоне INLINEFORM1, что обычно указывает на почти идеальное соответствие BIBREF30.Эти результаты показывают, что предложенная нами схема аннотаций может использоваться для создания надежных аннотаций обсуждений в классе с учетом аргументации, специфики и области знаний.В таблице TABREF7 показаны матрицы путаницы для пары аннотаторов P1 (мы наблюдали аналогичные тенденции для P2).В разделе аргументации таблицы видно, что наибольшее количество разногласий возникает между метками претензии и ордера.Одна из причин может быть связана с ограничением, которое мы налагаем на варранты: они требуют наличия иска и доказательств.Если студент попытается предоставить обоснование претензии, которая произошла намного раньше в ходе обсуждения, аннотаторы могут интерпретировать ордер как новую претензию.В разделе «Специфичность» показано относительно небольшое количество разногласий в маркировке «низкий-высокий» по сравнению с «низким-средним» и «средне-высоким».Это также отражается в квадратично-взвешенной каппе, поскольку разногласия между низким и высоким значениями влекут за собой больший штраф (невзвешенная каппа — это INLINEFORM0 ).Основные причины разногласий по поводу меток специфичности проистекают из двух из четырех элементов специфичности, обсуждаемых в разделе 3.2: связан ли ход аргумента с одним персонажем или сценой и обеспечивает ли он цепочку причин.По первому из этих двух элементов мы наблюдали разногласия в аргументированных ходах, содержащих местоимения с двусмысленной референцией.Особого внимания заслуживает местоимение it.Если мы рассмотрим ход аргумента: «Я имею в виду, что даже если вы знаете, что испытываете ненависть к стандарту или чему-то еще, вы все равно не убиваете его», местоимение оно явно относится к чему-то внутри хода (т. е. к стандарту), который студент сами упомянули.Напротив, для ходов аргументации, таких как «Это действительно произошло», может быть неясно, к какому предыдущему ходу относится местоимение, что создает путаницу в отношении того, выполнен ли этот элемент специфичности.Что касается элемента специфичности (4), мы обнаружили, что легче определить наличие цепочки причин, когда в аргументационном ходе присутствуют дискурсивные связки (например, потому что, следовательно).Отсутствие явных дискурсивных связок в аргументе может привести к тому, что аннотаторы не согласятся с наличием/отсутствием цепочки причин, что, вероятно, приведет к другой маркировке специфичности.Кроме того, аннотаторы обнаружили, что более короткие разговоры труднее комментировать для обеспечения конкретики.Наконец, как мы видим из третьего раздела таблицы, в области знаний меньше всего разногласий только с одним.Мы также BIBREF32 исследовали обоснованность нашей схемы кодирования, сравнивая наши аннотации разговоров студентов с оценками экспертов по английскому образованию (квадратично-взвешенная каппа 0,544) качества обсуждения.Используя пошаговую регрессию, мы обнаружили, что лучшая модель качества обсуждения (R-квадрат INLINEFORM0) включает в себя все три аспекта нашего кодирования: аргументацию, специфичность и область знаний.Наша схема аннотаций предоставляет образовательному сообществу возможность проводить дальнейшие исследования взаимосвязи между особенностями студенческой речи, обучением студентов и качеством обсуждения.Хотя Чизхолм и Годли Чизхолм:11 и мы обнаружили связь между нашими конструкциями кодирования и качеством обсуждения, это были небольшие исследования, основанные на ручных аннотациях.Как только будут разработаны автоматизированные классификаторы, такие отношения между общением и обучением можно будет изучить в широком масштабе.Кроме того, автоматическая маркировка с помощью стандартной схемы кодирования может способствовать обобщению результатов исследований и потенциально привести к созданию автоматизированных инструментов для учителей и учащихся.Предлагаемая схема аннотации также представляет возможности и проблемы НЛП.Существующие системы классификации специфичности и аргументации в основном предназначены для анализа письменного текста, а не устных дискуссий.Это (по крайней мере частично) связано с отсутствием общедоступных корпусов и схем аннотирования аргументации и конкретики в устных дискуссиях.Разработка схемы аннотаций, специально предназначенной для этой проблемы, является первым шагом на пути к сбору и аннотированию корпусов, которые могут быть использованы сообществом НЛП для продвижения области в этой конкретной области.Более того, в текстовых дискуссиях методы НЛП должны тесно связывать обсуждение с контекстной информацией (т. е. обсуждаемым текстом).Например, ход аргумента из одного из обсуждений, упомянутых в Разделе 4, гласил: «Она говорит типа «свободная», мне не обязательно быть, мне больше не обязательно быть женой этого продавца, понимаете?Мне больше не придется играть эту роль».Использование термина «продавец» показывает наличие элемента специфики (3) (см. раздел 3.2), поскольку обсуждаемый текст действительно является «Смерть продавца».Если бы студенты обсуждали другой текст, упоминание термина «продавец» не указывало бы на один из элементов специфичности, что снижало бы оценку специфичности.Таким образом, использование существующих систем вряд ли приведет к хорошей производительности.Фактически, ранее мы показали BIBREF31, что, хотя использование готовой системы для прогнозирования специфичности в газетных статьях приводило к низкой производительности при применении к дискуссиям в классе, использование характеристик наших данных могло бы значительно улучшить производительность.Мы аналогичным образом оценили производительность двух существующих систем интеллектуального анализа аргументов BIBREF18, BIBREF33 на транскриптах, описанных в разделе SECREF4.Мы заметили, что, поскольку обе системы были обучены классифицировать только претензии и предпосылки, они никогда не могли правильно предсказать ордера в наших стенограммах.Кроме того, обе системы классифицировали подавляющее большинство ходов как предпосылки, что в некоторых случаях приводило к отрицательной каппе.Использование нашей схемы для создания массива данных обсуждений в классе, вручную аннотированных для аргументации, специфики и области знаний, будет способствовать разработке более надежных систем прогнозирования НЛП.В данной работе мы предложили новую схему аннотаций для трех теоретически мотивированных особенностей студенческой речи в дискуссии в классе: аргументация, конкретность и область знаний.Мы продемонстрировали использование схемы, представив аннотированный отрывок из обсуждения в классе.Мы продемонстрировали, что схему можно аннотировать с высокой надежностью и сообщить о ее достоверности.Наконец, мы обсудили некоторые возможные применения и проблемы, связанные с предлагаемой схемой аннотаций как для образовательного сообщества, так и для сообщества НЛП.Мы планируем расширить нашу схему аннотаций, чтобы пометить информацию об отношениях сотрудничества между различными ходами аргументов, и выпустить корпус, аннотированный расширенной схемой.Мы хотим поблагодарить Хаорана Чжана, Тазина Африна и Аннику Сваллен за их вклад, а также всех анонимных рецензентов за полезные предложения.Эта работа была поддержана Центром исследований и разработок обучения Питтсбургского университета. | Обсуждения в классе по английскому языку положительно влияют на навыки чтения, письма и рассуждения учащихся. Хотя предыдущая работа в основном была сосредоточена на разговорах учителей и взаимодействии учеников с учителями, мы сосредотачиваемся на трех теоретически мотивированных аспектах высококачественных разговоров студентов: аргументации, специфичности и области знаний. Мы представляем схему аннотаций, а затем показываем, что эту схему можно использовать для создания надежных аннотаций и что аннотации позволяют прогнозировать качество обсуждения. Мы также подчеркиваем возможности, предоставляемые нашей схемой для обучения и исследований в области обработки естественного языка. | 2,561 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Автоматизация прогнозирования политической предвзятости. Современные средства массовой информации генерируют большое количество контента с постоянно растущей скоростью.Для того чтобы иметь объективный взгляд на то, о чем сообщают средства массовой информации, необходимо понимать политическую предвзятость текстов.Во многих случаях очевидно, какие политические пристрастия имеет автор.В других случаях требуется некоторый опыт, чтобы судить о политической предвзятости текста.Однако при работе с большими объемами текста просто не хватает специалистов для изучения всех возможных источников и публикаций.В этом контексте вспомогательные технологии могут помочь получить более объективную выборку информации.В идеале по каждой теме следует подобрать выборку репортажей всего политического спектра, чтобы сформировать объективное мнение.Но упорядочение медиаконтента с учетом политического спектра в масштабе требует автоматического прогнозирования политических предубеждений.Целью данного исследования является предоставление эмпирических данных, свидетельствующих о том, что использование открытых источников данных немецких текстов позволяет автоматически прогнозировать политические предубеждения с точностью, превышающей случайность.Эти экспериментальные результаты подтверждают и расширяют предыдущие выводы BIBREF0, BIBREF1; Новый вклад этой работы — подтверждение концепции, которая применяет эту технологию для сортировки рекомендаций новостных статей в соответствии с их политической предвзятостью.Когда эксперты-люди определяют политическую предвзятость текстов, они берут на себя ответственность за то, что они говорят о тексте, и могут объяснить свои решения.Это ключевое отличие от многих подходов к статистическому обучению.Вопрос об ответственности не только проблематичен, но и может быть сложно интерпретировать некоторые решения.Для проверки и объяснения предсказаний моделей предлагаются три стратегии, позволяющие лучше интерпретировать модели.Во-первых, неверные классификации моделей связаны с изменениями в партийной политике.Вторые одномерные меры корреляции между особенностями текста и партийной принадлежностью позволяют связать прогнозы с той информацией, которую политологи используют для интерпретации текстов.Третий анализ настроений используется для того, чтобы выяснить, обладает ли этот аспект языка дискриминационной силой.Далее в разделе sec:related приводится краткий обзор некоторых сопутствующих работ, после чего в разделе sec:data дается обзор методов сбора и предварительной обработки данных, в разделе sec:model представлены модель, процедуры обучения и оценки; в разделе sec:results обсуждаются результаты, а раздел sec:conclusion завершается некоторыми интерпретациями результатов и будущими направлениями исследований.На протяжении последних лет автоматический контент-анализ политических текстов проводился на различных источниках текстовых данных (блогах с парламентскими данными, твитах, новостных статьях, партийных манифестах) с использованием различных методов, включая анализ настроений, стилистический анализ, стандартный пакет документов. классификаторы текстовых объектов -word (BOW) и более совершенные инструменты обработки естественного языка.Хотя полный обзор выходит за рамки данной работы, в следующих параграфах перечислены сходства и различия между этим исследованием и предыдущей работой.Для более полного обзора мы отсылаем читателя к BIBREF2, BIBREF3. Подход, аналогичный представленному здесь, был использован в BIBREF0.Авторы извлекли векторы признаков BOW и применили линейные классификаторы для прогнозирования принадлежности к политическим партиям выступлений в Конгрессе США.Они использовали данные двух палат Конгресса США, Палаты представителей и Сената, чтобы оценить эффективность обобщения классификатора, обученного на данных из одной палаты и протестированного на данных из другой.Они обнаружили, что точность модели при обучении в одной области и тестировании в другой значительно снизилась.На обобщение также повлияла разница во времени между политическими речами, используемыми для обучения, и речами, используемыми для тестирования.Другая работа была сосредоточена на разработке специальных методов прогнозирования политической предвзятости.Двумя популярными методами являются WordFish BIBREF4 и WordScores BIBREF5 или их улучшенные версии, см., например. БИБРЕФ6 .Эти подходы оказались очень ценными для апостериорного анализа исторических данных, но, похоже, они не так часто используются для анализа новых данных в условиях прогнозной аналитики.Кроме того, прямое сравнение результатов, полученных с помощью этих так называемых методов масштабирования, с результатами настоящего исследования или исследований, таких как BIBREF0, затруднено из-за различных подходов к моделированию и оценке: При валидации анализа на основе WordFish/WordScore часто сравниваются оценки параметров различные модели, а не предсказания этих моделей на основе имеющихся данных относительно одного и того же типа меток, используемых для обучения моделей.Наконец, Херст и др. провели большое количество экспериментов на данных канадского парламента и Европейского парламента; эти эксперименты можно напрямую сравнить с настоящим исследованием как с точки зрения методологии, так и с точки зрения их результатов BIBREF1.Авторы показывают, что линейный классификатор, обученный на парламентских выступлениях, использует для классификации выступлений языковые элементы защиты и нападения, а не идеологическую лексику.Авторы также утверждают, что эмоциональное содержание играет важную роль в автоматическом анализе политических текстов.Более того, их результаты показывают четкую зависимость между длиной политического текста и точностью, с которой его можно правильно классифицировать.В совокупности существует большой объем литературы в этой расширяющейся области, в которой ученые количественных эмпирических дисциплин, а также эксперты в области политических наук сотрудничают по сложной теме автоматизированного анализа политических текстов.За некоторыми исключениями, большая часть предыдущих работ была сосредоточена на бинарной классификации или определении одномерной политической позиции (в основном левых и правых).Однако во многих приложениях требуется принимать во внимание более тонкие различия в политической политике.Эта работа сосредоточена на более детальном прогнозировании политических взглядов: во-первых, случай немецкого парламента более разнообразен, чем две парламентские системы, что позволяет проводить различие между большим количеством политик; во-вторых, рассматриваемые политические взгляды более детальны, чем в предыдущих исследованиях.Хотя в предыдущих исследованиях такие метки использовались только для разделения обучающих данных BIBREF4 (что невозможно во время тестирования в реальных приложениях, где эти метки неизвестны), эксперименты, представленные в этом исследовании, напрямую предсказывают эти метки.Еще одним важным вкладом этой работы является то, что многие существующие исследования в первую очередь касаются апостериорного анализа исторических данных.Эта работа направлена на прогнозирование политической предвзятости в отношении данных, находящихся за пределами домена, с упором на практическое применение модели к новым данным, для чего предоставляется прототип веб-приложения.Эксперименты по внедоменной генерализации дополняют работу BIBREF0 , BIBREF1 результатами данных немецкого парламента и новыми анализами настроений.Все эксперименты проводились на общедоступных наборах данных немецких политических текстов и стандартных библиотеках для обработки текста.В следующих разделах описываются подробности сбора данных и извлечения признаков.Аннотированные политические текстовые данные были получены из двух источников: а) дискуссий и выступлений, состоявшихся в немецком парламенте (Бундестаге) и б) всех текстов манифестов партий, баллотирующихся на выборах в немецкий парламент в текущем 18-м и последнем, 17-м законодательстве. период.Парламентские тексты сопровождаются ярлыком соответствующей партии, который мы воспринимаем здесь как показатель политической предвзятости.Тексты парламентских протоколов доступны на сайте немецкого бундестага; API с открытым исходным кодом использовался для запроса данных в чистом и структурированном формате.Всего было извлечено 22784 речей за 17-й законодательный период и 11317 речей за 18-й период, запрошенных до марта 2016 года. Для партийных манифестов использовался другой общедоступный API, предоставленный Wissenschaftszentrum Berlin (WZB).API выпущен в рамках Манифестпроекта BIBREF7.Данные, опубликованные в этом проекте, включают полные манифесты каждой партии, баллотировавшейся на выборах, дополненные аннотациями политических экспертов.Каждое предложение (в некоторых случаях также части предложений) сопровождается одним из 56 политических ярлыков.Примерами таких ярлыков являются протекционизм за/против, децентрализм, централизм, благосостояние за/против благосостояния; Полный список и подробные пояснения о том, как инструктировались аннотаторы, см. в BIBREF8.Набор ярлыков был разработан политологами WZB и выпущен для всеобщего пользования.Были получены все манифесты партий, баллотировавшихся на выборах в этот и последний законодательный период.В общей сложности это привело к 29 451 политическим заявлениям, которые имели два типа ярлыков: во-первых, партийная принадлежность каждого политического заявления; этот ярлык использовался для оценки классификаторов партийной оценки, обученных на выступлениях в парламенте.Для этой цели сбор данных был ограничен только теми партиями, которые были избраны в парламент.Рядом с партийной принадлежностью были выделены ярлыки политических взглядов.Для анализа, основанного на политических взглядах, были рассмотрены все партии, в том числе те, которые не прошли в парламент.Объем каждого аннотированного заявления в партийных манифестах был довольно коротким.Самый длинный оператор имел длину 522 символа, процентили 25%/50%/75% составляли 63/95/135 символов.При измерении в словах самая длинная точка данных составляла 65 слов, а процентили 25%/50%/75% составляли 8/12/17 слов соответственно.Это можно рассматривать как очень ценное свойство набора данных, поскольку оно позволяет детализировать партийные манифесты.Однако для классификатора (как и для человека) такие короткие предложения могут оказаться весьма трудными для классификации.Чтобы получить менее «зашумленные» данные от каждой партии (только для задачи партийной принадлежности) все заявления были объединены в политические темы с использованием кодовых меток манифеста.Каждая метка политической точки зрения представляет собой трехзначный код, первая цифра представляет политическую сферу.Всего было восемь политических областей (тем): «Внешние отношения», «Свобода и демократия», «Политическая система», «Экономика», «Благосостояние и качество жизни», «Структура общества», «Социальные группы» и неопределенная тема, полный список см. также в BIBREF8.Эти 8 тем использовались для объединения всех утверждений в каждом манифесте в темы.Большинство партийных манифестов охватывали все восемь из них, некоторые партийные манифесты Бундестага 17-го созыва охватывали только семь.Сначала каждый набор данных был сегментирован на семантические единицы; в случае парламентских дискуссий это были выступления, в случае семантических единиц данных партийного манифеста были предложения или части предложений, связанные с одним из 56 ярлыков политических взглядов.Выступления в парламенте часто прерывались; при этом каждая непрерывная часть речи считалась смысловой единицей.Строки каждой семантической единицы были токенизированы и преобразованы в векторы пакетов слов, как это реализовано в scikit-learn BIBREF9.Общая идея векторов пакетов слов заключается в простом подсчете вхождений слов (или последовательностей слов, также называемых n-граммами) для каждой точки данных.Точкой данных обычно является документ, здесь это смысловые единицы парламентских речей и предложений манифеста соответственно.Текст каждой семантической единицы преобразуется в вектор INLINEFORM0, где INLINEFORM1 — размер словаря; INLINEFORM2-я запись INLINEFORM3 содержит (нормализованное) количество INLINEFORM4-го слова (или последовательности слов) в нашем словаре.Было опробовано несколько вариантов векторизации выступлений, в том числе нормализация частоты терминов, обратная частоте документов, шаблоны n-грамм до размера INLINEFORM5 и несколько обрезков для отбрасывания слишком частых и слишком редких слов.Все эти гиперпараметры были подвергнуты оптимизации гиперпараметров, как описано в разделе «Перекрестная проверка».Векторы признаков «мешок слов» использовались для обучения модели полиномиальной логистической регрессии.Пусть INLINEFORM0 — истинная метка, где INLINEFORM1 — общее количество меток, а INLINEFORM2 — объединение весовых векторов INLINEFORM3, связанных с стороной INLINEFORM4, тогда DISPLAYFORM0. Мы оценили INLINEFORM0 с помощью квазиньютонового градиентного спуска.Функция оптимизации была получена путем добавления штрафного члена к отрицательному логарифмическому правдоподобию цели полиномиальной логистической регрессии, и оптимизация, таким образом, нашла INLINEFORM1, который минимизировал DISPLAYFORM0, где INLINEFORM0 обозначает норму Фробениуса, а INLINEFORM1 представляет собой параметр регуляризации, контролирующий сложность модели. .Параметр регуляризации был оптимизирован на логарифмической сетке из INLINEFORM2.Производительность модели была оптимизирована с использованием точности классификации, но мы также сообщаем обо всех других стандартных показателях: точности ( INLINEFORM3 ), отзыве ( INLINEFORM4 ) и f1-оценке ( INLINEFORM5 ). Трирассматривались различные классификационные задачи: Партийная принадлежность - это проблема пяти классов для 17-го законодательного периода и проблема четырех классов для 18-го законодательного периода.Классификация политических взглядов основана на метках проекта манифеста, см. sec:data и BIBREF8 .По каждой из первых двух задач (предсказание партийной принадлежности и членства в правительстве) классификаторы обучались на выступлениях в парламенте.Для третьей задачи классификаторы обучались только на данных манифеста, для которых были доступны метки политических взглядов.Конвейер модели содержал ряд гиперпараметров, оптимизированных с помощью перекрестной проверки.Сначала мы разделили данные обучения на набор обучающих данных, который использовался для оптимизации гиперпараметров, и набор отложенных тестовых данных для оценки того, насколько хорошо модель работает с данными внутри предметной области; везде, где это было возможно, эффективность обобщения моделей также оценивалась на данных, находящихся за пределами предметной области.Гиперпараметры были оптимизированы с использованием поиска по сетке и трехкратной перекрестной проверки только внутри обучающего набора: разделение перекрестной проверки было сделано для получения данных обучения/тестирования для поиска по сетке, и для каждого набора гиперпараметров весь конвейер был обучен и оценен – никакие данные из данных внутридоменной оценки или данные внедоменной оценки не использовались для оптимизации гиперпараметров.Для наилучшей настройки всех гиперпараметров конвейер был повторно обучен на всех обучающих данных и оценен на наборах оценочных данных.Для прогнозирования партийной принадлежности и прогнозирования членства в правительстве обучающий и тестовый наборы составляли 90% и 10% соответственно всех данных за данный законодательный период.Внеданными оценочными данными послужили тексты партийных манифестов.Для настройки прогнозирования политических взглядов не было данных оценки вне области, поэтому все помеченные предложения-манифесты в оба законодательных периода были разделены на набор обучения и оценки, состоящий из 90% (обучение) и 10% (оценка). список ключевых слов использовался для извлечения настроений BIBREF10.Вектор настроений INLINEFORM0 был построен на основе значений полярности настроений в словаре настроений.Индекс настроений, используемый для приписывания тексту положительных или отрицательных настроений, рассчитывался как косинусное сходство между векторами BOW INLINEFORM1 и INLINEFORM2 DISPLAYFORM0. Хотя интерпретируемость линейных моделей часто пропагандируется как одно из их основных преимуществ, наивные попытки сделать это без моделирования ковариаций шума могут привести к неправильным выводам, см., напр. БИБРЕФ11, БИБРЕФ12; интерпретация коэффициентов линейных моделей (независимо от используемого регуляризатора) неявно предполагает некоррелированные признаки; это предположение нарушается текстовыми данными, использованными в настоящем исследовании.Таким образом, прямая интерпретация коэффициентов модели INLINEFORM0 проблематична.Чтобы лучше интерпретировать прогнозы и оценить, какие признаки являются дискриминативными, были рассчитаны коэффициенты корреляции между каждым словом и меткой партийной принадлежности.Слова, соответствующие наибольшим положительным и отрицательным корреляциям, показаны в файле sec:wordpartycorrelations.В следующих разделах представлен обзор результатов всех задач прогнозирования политической предвзятости.Выделены некоторые интерпретации результатов, а в конце раздела представлено веб-приложение моделей.Результаты прогнозирования принадлежности к политическим партиям на основе данных парламента и оценок приведены в таблице tab:results17 для 17-го Бундестага и в tab:results18 для 18-го Бундестага соответственно.Показаны результаты оценки как внутридоменных данных (тексты выступлений в парламенте), так и внедоменных данных; Предсказания, выходящие за пределы предметной области партийного манифеста, были сделаны на уровне предложений.При прогнозировании партийной принадлежности на основе текстовых данных из того же домена, который использовался для обучения модели, получаются средние значения точности и полноты выше 0,6.Эти результаты сопоставимы с результатами BIBREF1, которые сообщают о точности классификации 0,61 для пятиклассовой задачи прогнозирования партийной принадлежности в Европейском парламенте; точность для Бундестага 17-го созыва составляет 0,63, результаты Бундестага 18-го созыва сравнивать сложно, поскольку число партий составляет четыре, а период принятия закона еще не завершен.Для данных за пределами домена модели дают значительно меньшую точность и значения полноты между 0,3 и 0,4.Это снижение точности прогнозирования за пределами области соответствует предыдущим выводам BIBREF0.Основным фактором, который сделал прогнозирование в задаче прогнозирования вне домена особенно трудным, является короткая длина классифицируемых строк, см. также sec:data.Чтобы выяснить, была ли такая низкая производительность прогнозирования вне домена вызвана разницей в предметной области (речь парламента и данные манифеста) или короткой длиной точек данных, данные манифеста были агрегированы на основе темы.Метки политических тем в коде манифеста использовались для объединения текстов каждой партии в одну из восьми тем, см. sec:data.Результаты на уровне темы показаны в таблицах tab:resultstopic и tab:confusiontopic и демонстрируют, что, когда классифицируемые тексты достаточно длинные, а статистика количества слов достаточно плотная, производительность классификации на данных из предметной области может быть достигнута в случае некоторых сторон. надежные значения точности и полноты, близкие к 1,0.Это увеличение соответствует предыдущим выводам о влиянии длины текста на точность прогнозирования политической предвзятости BIBREF1.Чтобы исследовать ошибки, допущенные моделями, для прогнозов на основе данных оценки вне домена были извлечены матрицы путаницы для прогнозов на уровне предложения (см. вкладку: путаница), а также прогнозов на уровне темы (см. вкладку: путаница).Один пример иллюстрирует, что ошибки, допускаемые моделью, могут быть связаны с изменениями в партийной политике.Партия зеленых продвигала политику возобновляемых источников энергии и против ядерной энергии в своих манифестах перед обоими законодательными периодами.Тем не менее, заявления партии зеленых чаще прогнозируются как исходящие от правительственных партий, чем от партии, которая первоначально продвигала эти зеленые идеи, что отражает тенденцию того, что в эти законодательные периоды правящие партии перенимали политику партии зеленых.Этот эффект еще более выражен в прогнозах на уровне тем: модель, обученная на данных Бундестага 18-го созыва, предсказывает, что все темы манифеста партии зеленых принадлежат одной из партий правящей коалиции, ХДС/ХСС или СДПГ. Метки партийной принадлежности, а также метки членства в правительстве использовались для обучения моделей, которые предсказывают, принадлежит ли текст партии, принадлежащей к правящей коалиции Бундестага.В tab:resultsbinary17 и tab:resultsbinary18 показаны результаты 17-го и 18-го Бундестага соответственно.В то время как значения точности оценки внутри домена и полноты достигают значений, близких к 0,9, оценка вне домена снова падает до значений между 0,6 и 0,7.Это соответствует результатам бинарной классификации политических предубеждений в канадском парламенте BIBREF0.Авторы сообщают о точности классификации от 0,8 до 0,87, точность в Бундестаге 17-го созыва составила 0,85.Хотя прогнозы на уровне тем не выполнялись в этой двоичной настройке, результаты партийной принадлежности в tab:resultstopic предполагают, что аналогичное увеличение точности прогнозов за пределами домена может быть достигнуто при агрегировании текстов в более длинные сегменты.Партии меняют свою политику и позиции в политическом спектре.Более надежными категориями политической предвзятости являются независимые от партии ярлыки политических взглядов, см. sec:data.Отдельный набор экспериментов был проведен для обучения и проверки эффективности прогнозирования моделей классификаторов текста, описанных в разделе sec:model.Поскольку в этом параметре не было набора оценок вне домена, сообщается только об ошибке оценки данных внутри домена.Однако обратите внимание, что и в этом эксперименте данные оценки никогда не были видны ни одной модели во время обучения.В вкладке tab:resultsavgpoliticview результаты для лучших и худших классов с точки зрения предсказуемости перечислены вместе со средними показателями производительности по всем классам.Значения точности и полноты, близкие в среднем к 0,5, можно считать довольно высокими, учитывая большое количество меток.10 самых высоких и самых низких корреляций между отдельными словами и меткой партийной принадлежности показаны для каждой партии на рисунке fig:partywordcorrelations.Корреляции рассчитаны по данным текущего, 18-го, законодательного периода.Некоторые неспецифические стоп-слова исключены.В следующих параграфах приводятся некоторые примеры слов, которые каждая соответствующая сторона предпочитает использовать или избегает.Несмотря на то, что интерпретация этих результатов проблематична, поскольку они игнорируют контекст, в котором были упомянуты эти слова, можно обнаружить некоторые интересные закономерности, связанные с реальной политикой, которую продвигают партии.Левая партия в основном критикует меры, которые негативно влияют на социальное благосостояние, такие как программа Hartz IV.Основными субъектами, которых левая партия обвиняет в решениях консервативных правительств, являются крупные компании (konzerne).Редко партия обращается к вопросам безопасности (sicherheit). Партия зеленых подвергла резкой критике секретные переговоры по соглашению TiSA и настаивает на официальных запросах, которые выдвинули по этому поводу представители партии зеленых (fragen, anfragen).Они также часто задают вопросы, связанные с армейскими проектами (Rüstungsprojekte, Wehrbericht) или военным развитием в Восточной Европе (Ялта). Социал-демократы часто используют слова, связанные с правами рабочего класса, о чем свидетельствует интенсивное использование Международной организации труда. (МОТ) или права работников (Arbeitnehmerrechte).Они редко говорят о конкуренции (Wettbewerb) или изменении климата (klimapolitik). Консервативная христианская партия часто использует слова, связанные с проэкономической позицией, такие как конкурентоспособность или (экономическое) развитие (Wettbewerbsfähigkeit, Entwicklung), а также слова, связанные с безопасностью (Sicherheit ).Последнее может быть связано с продолжающимися дебатами о том, следует ли разрешить правительствам собирать данные и тем самым ограничивать фундаментальные гражданские права, чтобы лучше защитить население.В отличие от партий оппозиции, консерваторы редко упоминают слово война (криг) или родственные ему слова.Чтобы исследовать характеристики, определяющие производительность классификаторов, функции «мешка слов» были проанализированы с точки зрения их настроения.Средние настроения каждой политической партии показаны на рис: partysentiments.Высокие значения указывают на более выраженное использование позитивных слов, тогда как отрицательные значения указывают на более выраженное использование слов, связанных с негативным эмоциональным содержанием.Результаты показывают интересную взаимосвязь между политической властью и настроениями.Политическая власть оценивалась двумя способами: а) по количеству мест, которые имеет партия, и б) по членству в правительстве.Корреляция любого из этих двух показателей политической власти со средним настроением партии показывает сильную положительную корреляцию между речевыми настроениями и политической властью.Эта закономерность очевидна из данных fig:partysentiments и tab:sentiments: В нынешнем Бундестаге членство в правительстве коррелирует с положительными настроениями с коэффициентом корреляции 0,98, а количество мест коррелирует с 0,89.Примечаниечто есть одна партия, социал-демократы (СДПГ), которая имеет много мест и перешла из оппозиции в правительство с 18-м Бундестагом: с ее участием в правительстве средние настроения этой партии изменили знак с отрицательного на положительный, предполагая, что положительный Настроения являются сильным индикатором членства в правительстве.Чтобы продемонстрировать пример использования вышеуказанных моделей, было реализовано веб-приложение, которое регулярно загружает все статьи с некоторых крупных веб-сайтов немецких газет и применяет к ним простое тематическое моделирование.Для каждой темы новостной статьи наносятся заголовки статей вместе с прогнозами политической точки зрения статьи и двумя метками, детерминированными, полученными из выходных данных класса 56, левого и правого индекса и политической области текста, см. BIBREF8 .Внутри каждой темы можно получить упорядоченный (слева направо) обзор статей по этой теме.Пример одной темы, появившейся 31 марта, показан на рис:fipi.Предварительная демонстрация доступна на BIBREF13, а код доступен на github BIBREF14..Это исследование представляет простой подход к автоматическому прогнозированию политических предубеждений.Результаты этих экспериментов показывают, что в некоторых случаях автоматическое предсказание политических предубеждений возможно с точностью, превышающей случайность.Стоит отметить, что даже если точность не идеальна, она выше случайности и сопоставима с результатами сопоставимых исследований BIBREF0, BIBREF1.Хотя эти результаты не позволяют использовать их в производственных системах для классификации, вполне возможно использовать такую систему в качестве вспомогательной технологии для людей-аннотаторов в условиях активного обучения.Одним из основных ограничивающих факторов автоматизированной системы прогнозирования политических предубеждений является доступность обучающих данных.Большинству общедоступных наборов обучающих данных присуща предвзятость, поскольку они взяты из другой области.В этом исследовании была предпринята попытка количественно оценить влияние этого эффекта.В тех случаях, когда были доступны данные оценки из двух доменов, наблюдалось явное снижение точности прогнозирования между набором оценок внутри домена и набором оценок вне домена.Об этом эффекте сообщалось ранее для аналогичных данных, см., например, БИБРЕФ0 .Кроме того, вывод о том, что более короткие тексты труднее классифицировать, чем более длинные, согласуется с предыдущими исследованиями BIBREF1.При рассмотрении текстов достаточной длины (например, путем агрегирования всех текстов по заданной политической теме) эффективность классификации улучшалась, и в некоторых случаях надежные прогнозы можно было получить даже за пределами области обучающего текста.Некоторые аспекты этого анализа могут быть интересны исследователям социальных наук; три из них выделены здесь.Во-первых, неправильная классификация модели может быть связана с изменениями в политике партии.Такой анализ может быть полезен для количественного изучения изменений в политике.Второй анализ корреляций между словом и партией показывает, что некоторые дискриминационные слова могут быть связаны с политическими взглядами партии; это позволяет проверять модели экспертами.В-третьих, при сопоставлении настроения речи с показателями политической власти наблюдается сильная положительная корреляция между политической властью и позитивными настроениями.Хотя такое понимание само по себе может показаться не очень удивительным, эта измеримая связь между властью и настроениями, тем не менее, может быть полезной: анализ настроений является довольно независимым от предметной области показателем, его можно легко автоматизировать и масштабировать до огромных объемов текстовых данных.Сочетание характеристик настроений с другими показателями политической предвзятости потенциально может помочь смягчить некоторые проблемы адаптации предметной области, возникающие при применении моделей, обученных на данных парламента, к данным из других предметных областей.Все наборы данных, использованные в этом исследовании, были общедоступны, весь код для экспериментов и ссылку на действующее веб-приложение можно найти в Интернете BIBREF14. Я хотел бы поблагодарить Фридриха Линденберга за исключение https://github.com/bundestag/. plpr-scraper из его проекта в Бундестаге.Некоторые конфигурации серверной части веб-приложения были взяты из более раннего сотрудничества с Дэниелом Киршем.Пола Леманн и Михаэль Геблер предоставили полезные отзывы о более ранней версии рукописи.Пола Леман также помогла получить доступ к данным Манифестопроекта и документацию по ним. | Каждый день средства массовой информации генерируют большие объемы текста. Непредвзятый взгляд на сообщения СМИ требует понимания политической предвзятости содержания СМИ. В этом контексте могут оказаться полезными вспомогательные технологии оценки политической предвзятости текстов. В этом исследовании предлагается простой статистический подход к обучению для прогнозирования политической предвзятости на основе текста. Стандартные текстовые характеристики, извлеченные из речей и манифестов политических партий, используются для прогнозирования политической предвзятости с точки зрения принадлежности к политической партии и политических взглядов. Результаты показывают, что политическую предвзятость можно предсказать с точностью выше случайной. Ошибки модели можно интерпретировать с учетом изменения политики политических акторов. Чтобы сделать результаты более интерпретируемыми, представлены два подхода: а) дискриминационные особенности текста связаны с политической ориентацией партии и б) особенности настроений текстов коррелируют с мерой политической власти. Политическая власть, по-видимому, сильно коррелирует с позитивным настроением текста. Чтобы выделить некоторые потенциальные варианты использования, веб-приложение показывает, как модель можно использовать для текстов, для которых политическая предвзятость не очевидна, например, для новостных статей. | 4,297 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Мультимодальное распознавание именованных объектов для коротких сообщений в социальных сетях. Социальные сети с большим количеством публикаций, созданных пользователями, предоставляют богатую платформу для понимания событий, мнений и предпочтений групп и отдельных лиц.Эти идеи в основном скрыты в неструктурированных формах сообщений в социальных сетях, например, в тексте в свободной форме или изображениях без тегов.Распознавание именованных объектов (NER), задача распознавания именованных объектов из текста произвольной формы, таким образом, является критически важным шагом для создания структурной информации, позволяющей использовать ее в персонализированной помощи, рекомендациях, рекламе и т. д. Хотя многие предыдущие подходы BIBREF0 , BIBREF1 , BIBREF2 , BIBREF3 на NER продемонстрировали успех в распознавании именованных объектов с помощью правильно сформированного текста посредством разрешения контекста слов (например, LSTM с встраиванием слов) в сочетании с функциями уровня символов (например, CharLSTM/CNN), для распознавания именованных объектов остается несколько дополнительных проблем. из чрезвычайно короткого и грубого текста, найденного в сообщениях в социальных сетях.Например, короткие сообщения в социальных сетях часто не обеспечивают достаточного текстового контекста для определения многозначных сущностей (например, «монополия – это самое лучшее», где слово «монополия» может относиться к настольной игре (названная сущность) или экономическому термину).Кроме того, зашумленный текст включает в себя огромное количество неизвестных токенов из-за противоречивых лексических обозначений и частых упоминаний различных новых трендовых сущностей (например, «xoxo Marshmelloooo», где «Marshmelloooo» — это неправильное написание известной сущности «Marshmello», музыкальный продюсер), что делает уязвимыми модели нейронных сетей на основе встраивания слов.Чтобы решить описанные выше проблемы с публикациями в социальных сетях, мы опираемся на современную нейронную архитектуру NER с помощью следующих двух новых подходов (рис. РИС. 1).Во-первых, мы предлагаем использовать вспомогательные модальности для дополнительного разрешения контекста сущностей.Например, многие популярные платформы социальных сетей теперь предоставляют способы создания сообщений в нескольких вариантах — в частности, в виде изображения и текста (например, подписи в Snapchat, сообщения в Twitter с URL-адресами изображений), из которых мы можем получить дополнительный контекст для понимания сообщений.Хотя слово «монополия» в предыдущем примере неоднозначно в своей текстовой форме, сопровождающее его изображение настольной игры может помочь устранить неоднозначность среди многозначных объектов, тем самым правильно распознавая его как именованный объект.Во-вторых, мы также предлагаем общий модуль внимания модальности, который выбирает на каждом этапе декодирования наиболее информативную модальность среди доступных (в нашем случае встраивания слов, встраивания символов или визуальных особенностей) для извлечения контекста.Например, модуль внимания модальности позволяет декодеру ослаблять сигналы уровня слова для неизвестных токенов слов («Marshmellooooo» с конечными буквами «о») и усиливать функции уровня символов intsead (первая буква с заглавной буквы, лексическое сходство с другим известным токеном объекта с именем ` Marshmello и т. д.), тем самым подавляя шумовую информацию (встраивание токена UNK) на этапах декодирования.Обратите внимание, что большая часть предыдущей литературы по NER или другим задачам НЛП сочетает информацию на уровне слов и символов с наивной конкатенацией, которая уязвима для шумных сообщений в социальных сетях.Когда доступно вспомогательное изображение, модуль внимания модальности решает усилить этот визуальный контекст при устранении неоднозначности многозначных объектов или ослабить визуальные контексты, когда они не имеют отношения к целевым именованным объектам, селфи и т. д.Обратите внимание, что предлагаемый модуль внимания модальности отличается от того, как внимание используется в другой литературе по последовательностям (например, внимание к определенному токену во входной последовательности).В разделе SECREF2 представлен подробный обзор литературы.Наш вклад тройной: мы предлагаем (1) гибридную мультимодальную сеть NER LSTM-CNN, которая принимает в качестве входных данных как изображение, так и текст для распознавания именованного объекта при вводе текста.Насколько нам известно, наш подход является первой работой, включающей визуальный контекст для задач распознавания именованных объектов.(2) Мы предлагаем общий модуль внимания модальности, который выборочно выбирает модальности для извлечения первичного контекста, максимизируя получение информации и подавляя нерелевантные контексты из каждой модальности (мы рассматриваем слова, символы и изображения как отдельные модальности).(3) Мы показываем, что предлагаемые подходы превосходят современные модели NER (как с использованием дополнительных визуальных контекстов, так и без них) на нашем новом наборе данных MNER SnapCaptions, большой коллекции неформальных и чрезвычайно коротких сообщений в социальных сетях в сочетании с уникальные изображения.Недавно были предложены нейронные модели для NER, обеспечивающие современную производительность при выполнении стандартных задач NER.Например, некоторые из сквозных систем NER BIBREF4, BIBREF2, BIBREF3, BIBREF0, BIBREF1 используют рекуррентную нейронную сеть, обычно с CRF BIBREF5, BIBREF6 для маркировки последовательностей, сопровождаемую экстракторами признаков для слов и символов (CNN, LSTM). и т. д.), и достичь самых современных показателей практически без использования информации из географических справочников.Обратите внимание, что большинство из этих работ объединяют текстовые контексты посредством конкатенации вложений слов и вложений символов.В последнее время несколько работ посвящены задаче NER конкретно на зашумленных коротких текстовых сегментах, таких как твиты и т. д. BIBREF7, BIBREF8.Они сообщают о повышении производительности за счет использования внешних источников информации, таких как лексическая информация (теги POS и т. д.).и/или из нескольких этапов предварительной обработки (замена токенов и т. д.).Наша модель основана на этих современных нейронных моделях для задач NER и улучшает ее двумя важными способами: (1) включение визуальных контекстов для предоставления вспомогательной информации для коротких сообщений в СМИ и (2) добавление модуль внимания модальности, который лучше включает встраивание слов и встраивание символов, особенно когда в данной матрице встраивания слов много недостающих токенов.Обратите внимание, что мы не рассматриваем использование информации из справочников или другой вспомогательной информации (тегов POS и т. д.)BIBREF9, поскольку он не является предметом нашего исследования.Модули внимания широко применяются в нескольких задачах глубокого обучения BIBREF10, BIBREF11, BIBREF12, BIBREF13.Например, они используют модуль внимания для обработки подмножества в рамках одного ввода (часть/область изображения, конкретный токен во входной последовательности токенов и т. д.).на каждом этапе декодирования в структуре кодировщика-декодера для задач субтитров к изображениям и т. д. BIBREF14 исследует различные механизмы внимания в задачах НЛП, но не включает визуальные компоненты и не исследует влияние таких моделей на зашумленные данные социальных сетей.BIBREF15 предлагает использовать внимание к подмножеству выборок дискретных источников в условиях трансферного обучения.Наше модальное внимание отличается от предыдущих подходов тем, что мы ослабляем или усиливаем каждый вход модальности в целом среди множества доступных модальностей и что мы используем механизм внимания, по существу, для отображения разнородных модальностей в едином совместном пространстве внедрения.Наш подход также позволяет повторно использовать одну и ту же модель для прогнозирования меток, даже если некоторые модальности отсутствуют во входных данных, поскольку другие модальности все равно сохранят ту же семантику в пространстве вложений.Мультимодальное обучение изучается в различных областях и приложениях с целью построения совместной модели, извлекающей контекстную информацию из нескольких модальностей (представлений) параллельных наборов данных.Наиболее актуальной задачей для нашей мультимодальной системы NER является задача мультимодального машинного перевода BIBREF16, BIBREF17, целью которой является создание лучшей системы машинного перевода, принимая в качестве входных данных предложение на исходном языке, а также соответствующее изображение.Исследуются несколько стандартных архитектур преобразования последовательности в последовательность (декодер LSTM целевого языка, который сначала принимает в качестве входных данных изображение).Другая предыдущая литература включает исследование канонического корреляционного анализа (CCA) BIBREF18.изучить корреляцию функций между несколькими модальностями, что широко используется во многих приложениях.Другие приложения включают субтитры к изображениям BIBREF10, аудиовизуальное распознавание BIBREF19, визуальные системы ответов на вопросы BIBREF20 и т. д. Насколько нам известно, наш подход является первой работой, включающей визуальные контексты для задач распознавания именованных объектов.Рисунок FigREF2 иллюстрирует предлагаемую мультимодальную модель NER (MNER).Сначала мы получаем встраивания слов, встраивания символов и визуальные особенности (раздел SECREF3).Затем модель Bi-LSTM-CRF принимает в качестве входных данных последовательность токенов, каждый из которых включает в себя словесный токен, последовательность символов и изображение в их соответствующем представлении (раздел SECREF4).На каждом этапе декодирования представления каждой модальности объединяются с помощью модуля внимания модальности для создания метки объекта для каждого токена (SECREF5).Мы сформулируем каждый компонент модели в следующих подразделах.Обозначения: пусть INLINEFORM0 представляет собой последовательность входных токенов длиной INLINEFORM1 с соответствующей последовательностью меток INLINEFORM2, указывающей именованные объекты (например, в стандартных форматах BIO).Каждый входной токен состоит из трех модальностей: INLINEFORM3 для встраивания слов, встраивания символов и представления визуального встраивания соответственно.Подобно современным подходам NER BIBREF0, BIBREF1, BIBREF8, BIBREF4, BIBREF2, BIBREF3, мы используем как встраивание слов, так и встраивание символов.Встраивание слов получается из модели обучения без учителя, которая изучает статистику совместного появления слов из большого внешнего корпуса, что дает встраивание слов в качестве семантики распределения BIBREF21.В частности, мы используем предварительно обученные внедрения из GloVE BIBREF22.Characterвложения получаются из Bi-LSTM, который принимает в качестве входных данных последовательность символов каждого токена, аналогично BIBREF0 .Альтернативный подход к получению вложений символов — использование сверточной нейронной сети, как в BIBREF1, но мы обнаружили, что представление символов Bi-LSTM дает эмпирически лучшие результаты в наших экспериментах.Визуальные внедрения: чтобы извлечь функции из изображения, мы берем окончательное представление скрытого слоя модифицированной версии модели сверточной сети под названием Inception (GoogLeNet) BIBREF23, BIBREF24, обученной на наборе данных ImageNet BIBREF25 для классификации нескольких объектов на сцене.Наша реализация модели Inception имеет 22 глубоких уровня, обучение которых стало возможным благодаря принципам «сеть в сети» и нескольким методам уменьшения размерности для улучшения использования вычислительных ресурсов.Представление последнего уровня кодирует различительную информацию, описывающую, какие объекты показаны на изображении, что обеспечивает вспомогательный контекст для понимания текстовых токенов и объектов в сопроводительных подписях.Включение этой визуальной информации в традиционную систему NER является открытой задачей, и можно рассмотреть несколько подходов.Например, можно предоставить визуальные контексты только в качестве начального ввода для декодера, как в некоторых системах субтитров к изображениям кодировщик-декодер BIBREF26.Однако эмпирически мы наблюдаем, что декодер NER, который принимает в качестве входных данных визуальные представления на каждом этапе декодирования (раздел SECREF4), в сочетании с модулем внимания модальности (раздел SECREF5) дает лучшие результаты.Наконец, мы добавляем слой преобразования для каждого объекта INLINEFORM0 перед его передачей в объект NER LSTM.Модель MNER построена на гибридной модели Bi-LSTM и CRF.Мы используем следующую реализацию для сущности Bi-LSTM.это = (Wxiht-1 +Wcict-1)ct = (1-it)ct-1+ it tanh(Wxcxt + Whcht-1)ot = (Wxoxt + Whoht-1+Wcoct)ht = LSTM(xt)= ottanh(ct), где INLINEFORM0 — это средневзвешенное значение трех модальностей INLINEFORM1 через модуль внимания модальности, который будет определен в разделе SECREF5.Члены смещения для ворот здесь опущены для простоты обозначений.Затем мы получаем двунаправленные представления токена объекта INLINEFORM0 путем объединения его левого и правого представлений контекста.Чтобы обеспечить структурную корреляцию между метками при декодировании последовательности, INLINEFORM1 затем передается в условное случайное поле (CRF), чтобы создать метку для каждого токена, максимизируя следующую цель.y*= y p(y|h; WCRF)p(y|h; WCRF)= t t (yt-1,yt;h) y' t t (y't-1,y't;h)где INLINEFORM0 — потенциальная функция, INLINEFORM1 — набор параметров, определяющих потенциальные функции и весовые векторы для метки пары ( INLINEFORM2 ).Термины смещения опущены для краткости формулировки.Модель можно обучить с помощью логарифмической максимизации правдоподобия для обучающего набора INLINEFORM0: L(WCRF)= i p(y|h; W) Модуль внимания модальности изучает единое пространство представления для нескольких доступных модальностей (слов, символов, изображений и т. д.) и создает единое векторное представление с агрегированными знаниями среди нескольких модальностей на основе их взвешенных значений. важность.Мы мотивируем этот модуль следующими наблюдениями.В большинстве предыдущих публикаций контексты на уровне слов и символов объединяются путем простого объединения вложений слов и символов на каждом этапе декодирования, например INLINEFORM0 в уравнении. СЕКРЕТ4 .Однако это наивное объединение двух модальностей (слова и символов) приводит к неточному декодированию, особенно для неизвестных вложений токена слова (все нулевой вектор INLINEFORM1 или случайный вектор INLINEFORM2 назначается любому неизвестному токену INLINEFORM3 , то есть INLINEFORM4 или INLINEFORM5 ).Хотя этот подход к конкатенации не приводит к значительным ошибкам для хорошо отформатированного текста, мы наблюдаем, что он приводит к снижению производительности наших наборов данных публикаций в социальных сетях, которые содержат значительное количество отсутствующих токенов.Точно так же наивное объединение текстовой и визуальной информации ( INLINEFORM0 ) дает неоптимальные результаты, поскольку каждая модальность рассматривается одинаково информативно, тогда как в наших наборах данных некоторые изображения могут содержать нерелевантные контексты для текстовых модальностей.Следовательно, в идеале необходим механизм, в котором модель может эффективно включать и выключать модальности, адаптирующиеся к каждой выборке.С этой целью мы предлагаем общий модуль внимания модальности, который адаптивно ослабляет или подчеркивает каждую модальность в целом на каждом этапе декодирования INLINEFORM0 и создает вектор контекста с мягким сопровождением INLINEFORM1 в качестве входного токена для объекта LSTM.[at(w),at(c),at(v)] = (Wm[xt(w); xt(c); xt(v)]+ bm )t(м)= (at(m))m'{w,c,v}(at(m'))m {w,c,v}xt = m{w,c,v} t(m)xt(m), где INLINEFORM0 — вектор внимания на каждом этапе декодирования INLINEFORM1, а INLINEFORM2 — конечный вектор контекста в INLINEFORM3, который максимизирует информацию выигрыш для INLINEFORM4 .Обратите внимание, что оптимизация целевой функции (уравнение SECREF4) с вниманием к модальности (уравнение SECREF5) требует, чтобы каждая модальность имела одно и то же измерение (INLINEFORM5), и что преобразование с помощью INLINEFORM6 по существу требует отображения каждой модальности в одну и ту же унифицированную форму. подпространство, где средневзвешенное значение которого кодирует отличительные признаки для распознавания названных объектов.Когда визуальный контекст не предоставляется с каждым токеном (как в традиционной задаче NER), мы можем определить внимание модальности для встраивания слов и символов только аналогичным образом: [at(w),at(c)]= (Wm[xt(w); xt(c)]= (at(m))m'{w,c}(at(m'))m {w,c}xt = m{w,c} t(m)xt(m)Обратите внимание, что хотя мы применяем этот модуль внимания модальности к архитектуре Bi-LSTM+CRF (раздел SECREF4) из-за его эмпирического превосходства, модуль сам по себе является гибким и, следовательно, может работать с другими архитектурами NER или с другими мультимодальными приложениями.Набор данных SnapCaptions состоит из 10 тысяч пар изображений, созданных пользователем (привязка), и текстовых подписей, где именованные объекты в подписях вручную помечаются опытными аннотаторами (типы объектов: PER, LOC, ORG, MISC).Эти подписи собираются исключительно из снимков, отправленных в публичные и краудсорсинговые истории (также известные как Snapchat Live Stories или Наши истории).Примерами таких публичных краудсорсинговых историй являются «Нью-Йоркская история» или «История Дня благодарения», которые включают в себя снимки, агрегированные для различных публичных мероприятий, мест и т. д.Все снимки были опубликованы в период с 2016 по 2017 год и не содержат необработанных изображений или другой связанной информации (доступны только текстовые подписи и запутанные визуальные дескрипторы, извлеченные из предварительно обученной сети InceptionNet).Мы разделили набор данных на обучающие (70%), проверочные (15%) и тестовые наборы (15%).Данные подписей имеют среднюю длину 30,7 символов (5,81 слова) с размером словаря 15 733, где 6 612 считаются неизвестными токенами из вложений Stanford GloVE BIBREF22.Именованные объекты, аннотированные в наборе данных SnapCaptions, включают множество новых и появляющихся объектов, и они встречаются в различных поверхностных формах (различные псевдонимы, опечатки и т. д.).Насколько нам известно, SnapCaptions — единственный набор данных, который содержит естественные пары изображений и подписей с именованными объектами, аннотированными экспертами.Задача: учитывая подпись и парное изображение (если оно используется), цель состоит в том, чтобы пометить каждый токен в подписи в схеме BIO (B: начало, I: внутри, O: снаружи) BIBREF27 .Мы сообщаем о производительности следующих современных моделей NER в качестве базовых, а также о нескольких конфигурациях предлагаемого нами подхода для изучения вклада каждого компонента (W: слово, C: символ, V: визуальный). LSTM/CRF (только W): в качестве входных данных принимаются только встраивания токенов слов (Stanford GloVE).В остальном архитектура осталась прежней.Bi-LSTM/CRF + Bi-CharLSTM (только C): в качестве входных данных принимает только последовательность символов каждого токена слова.(Нет встраивания слов) Bi-LSTM/CRF + Bi-CharLSTM (W+C) BIBREF0 : принимает в качестве входных данных как встраивание слов, так и встраивание символов, извлеченное из Bi-CharLSTM.Entity LSTM принимает объединенные векторы вложений слов и символов в качестве входных токенов.Bi-LSTM/CRF + CharCNN (W+C) BIBREF1: вместо этого используются встраивания символов, извлеченные из CNN.Bi-LSTM/CRF + CharCNN (W+C) + Многозадачность BIBREF8: обучает модель выполнять как распознавание (на несколько типов объектов), так и задачи сегментации (двоичные). (предлагается)Bi-LSTM/CRF + Bi-CharLSTM с вниманием к модальности (W+C): использует внимание к модальности для объединения вложений слов и символов. (предлагается)Bi-LSTM/CRF + Bi-CharLSTM + Inception (W+C+V): в качестве входных данных также принимаются визуальные контексты, извлеченные из InceptionNet, объединенные с векторами слов и символов. (предлагается)Bi-LSTM/CRF + Bi-CharLSTM + Начало с вниманием к модальности (W+C+V): использует внимание к модальности для объединения слов, символов и визуальных внедрений в качестве входных данных для объекта LSTM. В таблице TABREF6 показана производительность NER на Snap. Набор данных подписей.Мы сообщаем о результатах распознавания как типов объектов (PER, LOC, ORG, MISC), так и результатов сегментации именованных объектов (именованных объектов или нет).Параметры: мы настраиваем параметры каждой модели со следующим пространством поиска (жирным шрифтом указан выбор для нашей окончательной модели): размер встраивания символов: {25, 50, 100, 150, 200, 300}, размер встраивания слов: {25, 50, 100, 150, 200, 300}, скрытые состояния LSTM: {25, 50, 100, 150, 200, 300} и измерение INLINEFORM0: {25, 50, 100, 150, 200, 300}.Мы оптимизируем параметры с помощью Adagrad BIBREF28 с размером пакета 10, скоростью обучения 0,02, эпсилон INLINEFORM1 и затуханием 0,0. Основные результаты: когда доступен визуальный контекст (W+C+V), мы видим, что производительность модели значительно улучшается по сравнению с текстовой. модели (W+C), показывающие, что визуальные контексты дополняют текстовую информацию в задачах распознавания именованных объектов.Кроме того, можно видеть, что модуль внимания к модальности еще больше улучшает производительность распознавания типа объекта для (W+C+V).Этот результат указывает на то, что внимание модальности способно сосредоточиться на наиболее эффективной модальности (визуальной, словесной или символьной), адаптирующейся к каждому образцу, чтобы максимизировать получение информации.Обратите внимание, что наша текстовая модель (W+C) с модальным модулем внимания также значительно превосходит современные базовые модели BIBREF8, BIBREF1, BIBREF0, которые используют те же текстовые модальности (W+C), демонстрируя эффективность модуль модального внимания для текстовых моделей.Анализ ошибок:В таблице TABREF17 показаны примеры случаев, когда включение визуальных контекстов влияет на прогнозирование именованных объектов.Например, токен «карри» в подписи «Карри» является многозначным и может относиться либо к типу еды, либо к известному баскетболисту «Стивен Карри», а окружающий текстовый контекст не дает достаточно информации, чтобы устранить неоднозначность.С другой стороны, визуальные контексты (визуальные теги: «парад», «городская зона» и т. д.) обеспечивают сходство с семантикой распределения токена из других обучающих примеров (фрагменты из «Истории парада чемпионата НБА») и, таким образом, модель успешно предсказывает токен как именованный объект.Аналогичным образом, хотя текстовая модель ошибочно предсказывает «Apple» в подписи «Бабушка, которая зажгла Apple Crisp» как организацию (Apple Inc.), визуальный контекст (описывающий объекты, связанные с едой) помогает устранить неоднозначность этого токена, делая модель правильно предсказывает его как безымянный объект (фрукт).Тенденции (музыканты или ди-джеи, такие как «CID», «Duke Dumont», «Marshmello» и т. д.) также распознаются правильно благодаря усиленному контексту визуальной информации (описывающей сцены концерта), несмотря на отсутствие окружающего текстового контекста.Несколько случаев, когда визуальные контексты ухудшали производительность, в основном включают визуальные теги, не связанные с токеном или окружающим его текстовым контекстом.Визуализация внимания модальности: на рисунке FigREF19 визуализируется модуль внимания модальности на каждом этапе декодирования (каждый столбец), где усиленная модальность представлена более темным цветом, а ослабленная модальность представлена более светлым цветом.Для модели с использованием изображений (W+C+V; верхний ряд на рисунке FigREF19) мы подтверждаем, что внимание модальности успешно ослабляет нерелевантные сигналы (селфи и т. д.) и усиливает соответствующие контексты, основанные на модальности, при прогнозировании данного токена.В примере «диснеевское слово Essential = кофе» с визуальными тегами «селфи», «телефон», «человек» модальность внимания успешно ослабляет отвлекающие визуальные сигналы и фокусируется на текстовых модальностях, что позволяет делать правильные прогнозы.Именованные сущности в примерах «Прекрасная ночь на вершине Космической иглы» и «Всплеск горы» сложно предсказать, поскольку они состоят из нарицательных существительных (космос, игла, всплеск, гора), и поэтому им часто требуется дополнительный контекст, чтобы правильно предсказывать.В обучающих данных визуальные контексты служат более сильными индикаторами для этих названных объектов (космическая игла, брызговая гора), а модуль модального внимания успешно обрабатывает более сильные сигналы.Для модели только текста (W+C) мы наблюдаем, что прирост производительности в основном достигается за счет того, что модуль внимания к модальности лучше обрабатывает токены, невидимые во время обучения, или неизвестные токены из предварительно обученной матрицы встраивания слов.Например, хотя в WarriOoOrs и Kooler Matic отсутствуют токены в матрице встраивания слов, он успешно усиливает контексты на основе символов (первые буквы с заглавной буквы, сходство с известными сущностями «Голден Стэйт Уорриорз») и подавляет контексты на основе слов (встраивание слов для неизвестных слов). жетоны `WaRriOoOrs'), что приводит к правильным предсказаниям.Этот результат важен, поскольку он показывает, что производительность модели с почти идентичной архитектурой все еще может улучшиться без необходимости бесконечно масштабировать матрицу встраивания слов.Рисунок ФИГРЕФ19(б) показаны случаи, когда внимание к модальности приводило к неверным предсказаниям.Например, модель неправильно предсказывает отсутствующие токены HUUUGE и Shampooer как именованные объекты, усиливая вводящие в заблуждение контексты на основе символов (первые буквы с заглавной буквы) или визуальные контексты (сцены концертов, связанные контексты которых часто включают именованные объекты в набор обучающих данных). Чувствительность к Размер словарного запаса вложений слов:Чтобы оценить эффективность модуля модального внимания на текстовых моделях при обработке недостающих токенов, мы сообщаем о производительности с различными размерами словаря встраивания слов в таблице TABREF20.Искусственно увеличивая количество пропущенных токенов путем случайного удаления слов из матрицы встраивания слов (исходный размер словаря: 400 КБ), мы наблюдаем, что, хотя общая производительность ухудшается, модуль внимания модальности способен подавить ухудшение производительности.Также обратите внимание, что разрыв в производительности обычно увеличивается по мере уменьшения размера словаря матрицы встраивания слов.Этот результат важен тем, что внимание к модальности может улучшить модель, более устойчивую к отсутствующим токенам, без необходимости обучения бесконечно большой матрицы встраивания слов для произвольно зашумленных наборов текстовых данных социальных сетей.Мы предложили новую мультимодальную задачу NER (MNER: изображение + текст) для коротких постов в социальных сетях.Мы впервые продемонстрировали эффективную систему MNER, в которой визуальная информация сочетается с текстовой информацией, что превосходит традиционные базовые показатели NER на основе текста.Нашу работу можно применить к множеству публикаций в социальных сетях или других статей на разных платформах, которые часто включают в себя как текст, так и сопроводительные изображения.Кроме того, мы предложили модальный модуль внимания — новый нейронный механизм, который обучается оптимальной интеграции различных режимов коррелированной информации.По сути, модальное внимание учится ослаблять нерелевантную или неинформативную модальную информацию, одновременно усиливая основную модальность для извлечения лучших общих представлений.Мы показали, что модель, основанная на модальности внимания, превосходит другие современные базовые модели, когда текст был единственной доступной модальностью, за счет лучшего объединения информации на уровне слов и символов. | Мы представляем новую задачу под названием Multimodal Named Entity Recognition (MNER) для зашумленных пользовательских данных, таких как твиты или подписи Snapchat, которые содержат короткий текст с сопровождающими изображениями. Эти сообщения в социальных сетях часто содержат противоречивые или неполные синтаксические и лексические обозначения с очень ограниченным окружающим текстовым контекстом, что создает серьезные проблемы для NER. С этой целью мы создаем новый набор данных для MNER под названием SnapCaptions (пары изображений и подписей Snapchat, представленные в публичных и краудсорсинговых историях с полностью аннотированными именованными объектами). Затем мы опираемся на современные модели NER на основе слов/символов Bi-LSTM с 1) глубокой сетью изображений, которая включает в себя соответствующий визуальный контекст для дополнения текстовой информации, и 2) общий модуль модальности внимания, который учится ослаблять ненужные модальности, усиливая при этом наиболее информативные для извлечения контекстов, адаптируясь к каждому образцу и токену. Предложенная модель MNER с модальным вниманием значительно превосходит современные модели NER, состоящие только из текста, за счет успешного использования предоставляемого визуального контекста, открывая потенциальные приложения MNER на множестве платформ социальных сетей. | 4,424 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Цифровая стилометрия: связывание профилей в социальных сетях. Стилометрия определяется как «статистический анализ вариаций литературного стиля между одним писателем или жанром и другим».Это многовековая практика, восходящая к раннему Возрождению.Чаще всего его используют для приписывания авторства спорным или анонимным документам.Методы стилометрии также успешно применяются в других, нелингвистических областях, таких как живопись и музыка.Основные принципы стилометрии были собраны и изложены философом Винцентием Лютославским в 1890 году в его работе «Принципы стилометрии» BIBREF0. Сегодня миллионы пользователей имеют учетные записи и профили во многих социальных сетях и сетевых сайтах.Пользователи нередко имеют несколько учетных записей в разных социальных сетях и на сайтах.При таком большом количестве сайтов для общения, электронной почты и обмена фотографиями в сети пользователь часто накапливает множество профилей учетных записей.В академическом и деловом мире все больше внимания уделяется агрегированию информации о пользователях на разных сайтах, что позволяет создавать более полные профили пользователей.В настоящее время существует несколько предприятий, которые занимаются этой задачей: BIBREF1, BIBREF2, BIBREF3.Эти компании используют совокупные профили для рекламы, проверки анкетных данных или задач, связанных с обслуживанием клиентов.Более того, сопоставление профилей в социальных сетях может способствовать растущей области обнаружения слухов в социальных сетях BIBREF4 , BIBREF5 , BIBREF6 , BIBREF7 , поскольку многие вредоносные слухи распространяются на разных платформах социальных сетей одними и теми же людьми, используя разные учетные записи и имена пользователей.Руководствуясь традиционной стилометрией и растущим интересом к сопоставлению учетных записей пользователей в интернет-сервисах, мы создали модели цифровой стилометрии, которые объединяют традиционные методы стилометрии с методами социальной информатики на основе больших данных, обычно используемыми при анализе социальных сетей.Наши модели используют лингвистические и временные модели активности пользователей в разных учетных записях, чтобы сопоставить учетные записи, принадлежащие одному и тому же человеку.Мы оценили наши модели на учетных записях стоимостью 11 224 доллара США, принадлежащих отдельным пользователям стоимостью 5 612 долларов США в двух крупнейших социальных сетях: Twitter и Facebook.Единственная информация, которая использовалась в наших моделях, — это время и лингвистическое содержание сообщений пользователей.Мы намеренно не использовали какую-либо другую информацию, особенно потенциально личную информацию, которая была явно предоставлена пользователем, например псевдоним, день рождения или местоположение.Это соответствует традиционным методам стилометрии, поскольку люди могут неверно указать, пропустить или солгать об этой информации.Кроме того, мы хотели показать, что существуют неявные подсказки о личности пользователей в содержании (языке) и контексте (времени) взаимодействия пользователей с социальными сетями, которые можно использовать для связывания их учетных записей в различных сервисах.Помимо очевидной технической цели, цель этой статьи — пролить свет на относительную легкость, с которой, казалось бы, безобидная информация может использоваться для отслеживания пользователей в социальных сетях, даже при регистрации в разных сервисах с использованием совершенно разных данных учетной записи и профиля ( например, имя и день рождения).Этот документ является не только техническим вкладом, но и предупреждением для пользователей, которые все чаще делятся значительной частью своей личной жизни с этими сервисами.Остальная часть этой статьи структурирована следующим образом.В следующих разделах мы рассмотрим соответствующую работу по связыванию профилей, а затем опишем наши усилия по сбору данных и аннотированию.После этого мы обсудим лингвистические, темпоральные и комбинированные темпорально-лингвистические модели, разработанные для связывания профилей пользователей.Наконец, мы обсуждаем и суммируем наши выводы и вклады, а также обсуждаем возможные направления будущей работы.Есть несколько недавних работ, в которых предпринимаются попытки сопоставить профили различных интернет-сервисов.Некоторые из этих работ используют частные данные пользователей, а некоторые, как наша, используют общедоступные данные.Примером работы, в которой используются частные данные, является Balduzzi et al. BIBREF8 .Они используют данные из системы Friend Finder (которая включает в себя некоторые личные данные), предоставленные различными социальными сетями, для связи пользователей между сервисами.Хотя можно добиться относительно высокого уровня успеха, используя частные данные для связи учетных записей пользователей, мы заинтересованы в использовании для этой задачи только общедоступных данных.Фактически, как упоминалось ранее, мы даже не рассматриваем общедоступную информацию, которая могла бы явно идентифицировать пользователя, такую как имена, дни рождения и местоположение.Было предложено несколько методов сопоставления профилей пользователей с использованием общедоступных данных BIBREF9, BIBREF10, BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16.Эти работы отличаются от наших в двух основных аспектах.Во-первых, в некоторых из этих работ основные данные собираются, предполагая, что все профили с одинаковым псевдонимом принадлежат одним и тем же пользователям BIBREF15, BIBREF16.Это не верное предположение.Фактически, было высказано предположение, что около $20\%$ аккаунтов с одинаковым псевдонимом в Twitter и Facebook не соответствуют BIBREF17 .Во-вторых, почти во всех этих работах используются функции, извлеченные из профилей пользователей BIBREF9, BIBREF10, BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15.С другой стороны, наша работа не учитывает информацию профиля и использует только модели активности пользователей (лингвистические и временные) для сопоставления их учетных записей в разных социальных сетях.Использование информации профиля для сопоставления учетных записей противоречит лучшим практикам стилометрии, поскольку оно предполагает и полагается на честность, последовательность и готовность пользователей явно делиться идентифицирующей информацией о себе (например, местоположение). Для целей настоящего документа мы сосредоточился на сопоставлении учетных записей двух крупнейших социальных сетей: Twitter и Facebook.Чтобы продолжить наше исследование, нам нужно было значительное (несколько тысяч) количество англоговорящих пользователей с учетными записями в Twitter и Facebook.Нам также нужно было знать точное соответствие учетных записей Twitter и Facebook, чтобы получить основную информацию.С этой целью мы просканировали общедоступные англоязычные учетные записи Google Plus с помощью API Google Plus и извлекли ссылки на другие профили пользователей в социальных сетях.(Обратите внимание, что одна из причин, по которой мы использовали Twitter и Facebook, заключается в том, что это два наиболее распространенных сайта, на которые ссылаются в Google Plus).Мы использовали сторонний сайт социальной сети (например, Google Plus), который не использовался в нашем анализе, для сбора достоверной информации, чтобы ограничить предвзятость отбора при сборе данных.Мы исключили всех пользователей, которые не ссылались на учетные записи Twitter и Facebook, а также тех, чьи учетные записи на любом из этих сайтов не были общедоступными.Затем мы использовали API Twitter и Facebook для сбора сообщений, оставленных пользователями на этих сайтах.Мы собрали только языковой контент, а также дату и время публикации сообщений.По техническим причинам и по соображениям конфиденциальности мы не собирали никакой информации из профилей пользователей, такой как местоположение, псевдоним или день рождения.Наш анализ был сосредоточен на активности пользователей за целый год, с 1 февраля 2014 г. по 1 февраля 2015 г.Поскольку мы не можем достоверно моделировать модели поведения пользователей с недостаточными данными, пользователи, опубликовавшие менее 20 сообщений за этот период времени на обоих сайтах, были исключены.В целом мы собрали набор данных из пользователей стоимостью 5 612 долларов США, каждый из которых имеет учетную запись Facebook и Twitter, общая сумма учетных записей составляет 11 224 доллара США.На рисунке 1 показано распределение количества публикаций на пользователя в Twitter и Facebook для нашего собранного набора данных.На рисунке данные о количестве постов разделены на 500 ячеек.Для данных Twitter каждая ячейка соответствует 80 твитам, а для данных Facebook — 10 сообщениям.В таблице 1 показаны некоторые статистические данные о собранных данных, включая среднее количество сообщений на пользователя для каждого из сайтов.Для нашей задачи мы разработали несколько лингвистических, темпоральных и комбинированных темпорально-лингвистических моделей.Эти модели принимают в качестве входных данных пользователя $u$ с одного из сайтов (например, Twitter или Facebook) и список пользователей $N$ из другого сервиса, где один из пользователей $N$, $u\prime $ , то же самое, что $u$ .Затем модели обеспечивают ранжирование совпадений кандидатов между $u$ и каждым из пользователей $N$.Для оценки наших моделей мы использовали два критерия: базовый ранкер случайного выбора будет иметь точность $1/N$ и средний ранг $N/2$ (поскольку $u\prime $ может появиться где угодно в списке $N $ items).Ценным источником информации для сопоставления учетных записей пользователей, который используется в традиционных задачах стилометрии, является то, как люди используют язык.Выбор слов говорящим или пишущим зависит от многих факторов, включая правила грамматики, содержание сообщения и стилистические соображения.Существует множество способов сравнить языковые модели двух людей.Однако сначала нам нужен метод моделирования языка данного пользователя.Ниже мы объясним, как это делается.Большинство статистических языковых моделей не пытаются явно смоделировать весь процесс генерации языка, а скорее ищут компактную модель, которая адекватно объясняет наблюдаемые лингвистические данные.Вероятностные модели языка присваивают вероятности последовательностям слов $w_1$ . . .$w_\ell $ , и поэтому вероятность корпуса может использоваться для подбора параметров модели, а также для характеристики производительности модели.Моделирование языка N-грамм BIBREF18, BIBREF19, BIBREF20 — это эффективный метод, который рассматривает слова как образцы, взятые из распределения, обусловленного другими словами, обычно непосредственно предшествующими $n-1$ словами, чтобы уловить сильные локальные зависимости слов.Вероятность последовательности слов $\ell $, компактно записанной как $w_1^\ell $, равна $\Pr (w_1^\ell )$ и может быть факторизована точно как $\Pr (w_1^\ell ) = \Pr (w_1) \prod _{i=2}^\ell \Pr (w_i|w_1^{i-1})$ Однако оценка параметров в этой полной модели затруднительна, поскольку количество возможных словосочетаний растет экспоненциально с увеличением последовательности длина.Модели N-грамм решают эту проблему с помощью аппроксимации $\tilde{\Pr }(w_i|w_{i-n+1}^{i-1})\approx \Pr (w_i|w_1^{i-1})$, используя только предыдущие $n-1$ слов для контекста.Модель биграммы ( $n=2$ ) использует предыдущее слово для контекста, тогда как модель униграммы ( $n=1$ ) не использует никакого контекста.Для этой работы мы использовали модели униграмм на Python, используя некоторые компоненты из NLTK BIBREF21.Распределения вероятностей рассчитывались с использованием сглаживания Виттена-Белла BIBREF19.Вместо присвоения слову $w_i$ оценки вероятности максимального правдоподобия $p_i = \frac{c_i}{N}$ , где $c_i$ — это количество наблюдений слова $w_i$, а $N$ — общее количество наблюдаемых токенов. , сглаживание Виттена-Белла снижает вероятность наблюдаемых слов до $p_i^* = \frac{c_i}{N+T}$, где $T$ — общее количество наблюдаемых типов слов.Остальные слова $Z$ в словаре, которые не наблюдаются (т. е. где $c_i = 0$), определяются как $p_i^* = \frac{T}{Z(N+T)}$. Мы экспериментировали с двумя методами для измерение сходства между моделями языка n-грамм.В частности, мы пробовали подходы, основанные на KL-дивергенции и недоумении BIBREF22.Мы также опробовали два метода, которые не полагаются на n-граммные модели, косинусное подобие векторов TF-IDF BIBREF23, а также наш собственный новый метод, называемый моделью путаницы.Эффективность каждого метода показана в Таблице 2.Обратите внимание, что все методы значительно превосходят случайный базовый уровень как по точности, так и по среднему рангу.Ниже мы объясним каждую из этих метрик.Первой метрикой, используемой для измерения расстояния между языком двух учетных записей пользователей, является расхождение Кульбака-Лейблера (KL) BIBREF22 между униграммным распределением вероятностей корпуса, соответствующего двум учетным записям.KL-дивергенция обеспечивает асимметричную меру несходства между двумя функциями распределения вероятностей $p$ и $q$ и определяется выражением: $KL(p||q)= \int p(x)ln\frac{p(x)}{q(x)}$ Мы можем изменить уравнение, чтобы доказать симметричное расстояние между распределениями: $KL_{2}(p||q) = KL( p||q)+KL(q||p)$Для этого метода метрикой сходства является недоумение BIBREF22 модели языка униграмм, созданной на основе одного аккаунта $p$ и оцененной на другом аккаунте $q$ .Недоумение определяется как: $PP(p,q) = 2^{H(p,q)}$, где $H(p,q)$ — это перекрестная энтропия BIBREF22 между распределениями двух счетов $p$ и $. q $ .Больше подобных моделей приводит к меньшему недоумению.Как и в случае с KL-дивергенцией, мы можем сделать недоумение симметричным: $PP_{2}(p,q) = PP(p,q)+PP(q,p)$ Этот метод превзошел метод KL-дивергенции с точки зрения среднего ранга но не точность (см. Таблицу 2). Возможно.относительно низкая точность показателей недоумения и КЛ-дивергенции не должна вызывать большого удивления.Эти меры наиболее чувствительны к изменениям в частоте наиболее распространенных слов.Например, в самой простой реализации показатель KL-дивергенции будет очень чувствителен к частоте слова «the».Хотя эту проблему можно смягчить за счет удаления стоп-слов и применения тематического моделирования к текстам, мы считаем, что эта проблема более тонкая.Различные социальные сети (такие как Twitter и Facebook) используются людьми для разных целей, поэтому записи в Twitter и Facebook, сделанные одним и тем же человеком, скорее всего, будут тематически разными.Поэтому вполне вероятно, что прямое сравнение языковых моделей будет неэффективно для этой задачи.Одним из возможных решений этой проблемы является рассмотрение языковых моделей пользователей не изолированно, а в сравнении с языковыми моделями всех остальных.Другими словами, определите особенности конкретной языковой модели, характерные для соответствующего пользователя, а затем используйте эти особенности для оценки сходства между различными учетными записями.Это задача, с которой может справиться термин Частота-обратная частота документа, или TF-IDF, в сочетании с косинусным сходством.TF-IDF — это метод преобразования текста в числа, чтобы его можно было осмысленно представить вектором BIBREF23.TF-IDF является продуктом двух статистических данных: TF или частоты терминов и IDF или обратной частоты документов.Частота термина измеряет количество раз, когда термин (слово) встречается в документе.Поскольку каждый документ будет иметь разный размер, нам необходимо нормализовать документ в зависимости от его размера.Мы делаем это, разделив частоту терминов на общее количество терминов.TF считает все термины одинаково важными, однако некоторые термины, которые встречаются слишком часто, не должны иметь большого эффекта (например, термин «the»).И наоборот, термины, которые встречаются в документе реже, могут быть более релевантными.Поэтому, чтобы снизить влияние терминов, которые встречаются слишком часто, и взвесить влияние менее часто встречающихся терминов, используется обратный коэффициент частоты документов, который уменьшает вес терминов, которые очень часто встречаются в наборе документов, и увеличивает вес терминов, которые встречаются редко.Вообще говоря, обратная частота документов — это мера того, сколько информации предоставляет слово, то есть является ли этот термин распространенным или редким во всех документах.Используя TF-IDF, мы получаем вектор из корпуса каждой учетной записи.Мы измеряем сходство между двумя учетными записями, используя косинусное сходство: $Similarity(d1,d2) = \frac{d1 \cdot d2}{||d1||\times ||d2||}$ Здесь $d1 \cdot d2$ является скалярным произведением двух документов, а $||d1||\times ||d2||$ является произведением величин двух документов.Используя TD-IDF и косинусное сходство, мы добились значительно лучших результатов, чем последние два метода, с точностью $0,21$ и средним рангом 999. TF-IDF можно рассматривать как эвристическую меру того, насколько разные слова различны. характеристика пользователя.Мы придумали новую, теоретически обоснованную меру «характеристики» слов.Мы рассмотрели следующую настройку: весь корпус учетных записей Twitter и Facebook стоимостью 11 224 доллара США рассматривался как одна длинная строка; для каждого токена в строке мы знаем пользователя, который его создал.Представьте, что мы удалили эту информацию и теперь гадаем, кто был пользователем.Это даст нам распределение вероятностей по всем пользователям. Теперь представьте, что мы делаем ряд следующих выборок: случайно выбираем слово из строки, берем истинного пользователя, $TU$ для этого слова, и предполагаемого пользователя, $GU. $ из соответствующего распределения вероятностей.Интуитивно понятно, что чем чаще конкретная пара $TU=U_{1}, GU=U_{2}$ встречается вместе, тем сильнее сходство между $U_{1}$ и $U_{2}$ ; Затем мы используем взаимная информация для измерения силы ассоциации.В данном случае это будет взаимная информация BIBREF22 между случайными величинами $TU=U_{1}$ и $GU=U_{2}$ .Эта взаимная информация оказывается пропорциональной вероятностям $U_{1}$ и $U_{2}$ в наборе данных, что нежелательно для меры сходства.Чтобы исправить это, мы делим ее на вероятности $U_{1}$ и $U_{2}$; мы называем эту модель моделью путаницы, поскольку она оценивает вероятность того, что $U_{1}$ будет сбит с толку для $U_{2}$ на основе одного слова.Выражением для значения сходства согласно модели является $S\times log(S)$ , где $S$ равно: $S=\sum _{w} p(w)p(U_{1}|w)p (U_{2}|w)$ Обратите внимание, что если $U_{1}=U_{2}$ , слова, вносящие наибольший вклад в сумму, будут упорядочены по их «степени характеристичности».Значения $p(w)$ и $p(u|w)$ должны быть оценены из корпуса.Для этого мы предположили, что корпус был создан с использованием следующей вспомогательной модели: для каждого токена пользователь выбирается из набора пользователей по полиномиальному распределению; слово выбирается из полиномиального распределения слов для этого пользователя, чтобы создать жетон.Мы использовали распределения Дирихле BIBREF24 в качестве априорных значений по отношению к полиномам.Этот метод превосходит все другие методы с точностью 0,27 доллара США и средним рейтингом 859. Еще одним ценным источником информации при сопоставлении учетных записей пользователей являются модели активности пользователей.Мерой активности является время и интенсивность использования пользователями социальной сети или медиа-сайта.Все общедоступные социальные сети, включая общедоступные данные Twitter и Facebook, предоставляют эту информацию.Предыдущие исследования показали, что временная информация (и другая контекстная информация, например пространственная информация) коррелирует с языковой деятельностью людей.извлекли из нашего корпуса следующие дискретные временные характеристики: месяц (12 ячеек), день месяца (31 ячейка), день недели (7 ячеек) и час (24 ячейки).Мы выбрали эти функции для сбора точных и грубых временных закономерностей активности пользователей.Например, поездка на работу — это повторяющаяся модель, привязанная к времени суток, тогда как оплата счетов более тесно привязана к дню месяца, а отпуск более тесно привязан к месяцу.Мы рассматривали каждую из этих групп как слово, чтобы мы могли использовать те же методы, что и в предыдущем разделе, для измерения сходства между временными шаблонами активности пар учетных записей (это также очень поможет для создания комбинированной модели, как описано в разделе следующий раздел).Другими словами, для 12 ячеек в месяце было установлено значение $w_1$. . .$w_{12}$ , 31 контейнер в день месяца до $w_{13}$ . . .$w_{43}$ , 7 корзин в день недели до $w_{44}$ . . .$w_{50}$ , а 24 интервала времени были установлены в $w_{51}$ . . .$w_{74}$ .Таким образом, у нас получился корпус из 74 слов.Например, сообщение в пятницу, 5 августа, в 2 часа ночи будет переведено в $\lbrace w_8,w_{17},w_{48},w_{53}\rbrace $ , что соответствует пятнице, 5 августа, 2 часа ночи. соответственно.Поскольку мы используем только модели униграмм, порядок слов не имеет значения.Как и в случае с языковыми моделями, описанными в последнем разделе, все распределения вероятностей были рассчитаны с использованием сглаживания Виттена-Белла.Для создания временных моделей мы использовали те же четыре метода, что и в предыдущем разделе.В таблице 3 показаны характеристики каждой из этих моделей.Хотя производительность темпоральных моделей была не такой высокой, как лингвистических, все они значительно превосходили базовые показатели.Также обратите внимание, что здесь, как и в случае с лингвистическими моделями, модель путаницы значительно превзошла другие модели.Наконец, мы создали комбинированную темпорально-лингвистическую модель.Поскольку и лингвистическая, и темпоральная модели были построены с использованием одной и той же структуры, объединить две модели было довольно просто.Комбинированная модель была создана путем слияния лингвистических и временных корпусов и словарей.(Напомним, что мы рассматривали временные характеристики как слова).Затем мы экспериментировали с теми же четырьмя методами, что и в последних двух разделах, для создания наших комбинированных моделей.В таблице 4 показаны характеристики каждой из этих моделей.В целом комбинированные модели превзошли соответствующие лингвистические и временные модели, хотя разница с лингвистическими моделями была не такой большой.Эти результаты показывают, что на каком-то уровне временные и лингвистические «стили» пользователей предоставляют непересекающиеся подсказки о личности указанных пользователей.Также обратите внимание, что, как и в случае с лингвистической и временной моделями, наша комбинированная модель путаницы превзошла другие комбинированные модели.Другой способ оценить эффективность различных комбинированных моделей — использовать график ранговой статистики.Это показано на рисунке 2.На рисунке показано распределение рангов пользователей стоимостью $5612$ для разных комбинированных моделей.Ось X — процентиль ранга (разделённая на ячейки по $5\%$), ось Y — процент пользователей, попадающих в каждую корзину.Например, для модели путаницы $69\%$ (3880) из $5612$ пользователей были правильно связаны между Twitter и Facebook, если посмотреть на верхние $5\%$ (281) прогнозов модели.На рисунке ясно видно, что модель путаницы превосходит другие модели, а TF-IDF находится на втором месте.На рисунке также видно, что график ранга для случайного базового уровня представляет собой горизонтальную линию, где каждый интервал процентилей ранга содержит $5\%$ пользователей ( $5\%$, поскольку процентили ранга были разделены на интервалы по $5\% $ ).Сопоставление профилей в социальных сетях — непростая задача для людей.Это задача, сравнимая с обнаружением плагиата, которую неподготовленный человек (а иногда даже обученный) не может легко выполнить.(Отсюда и необходимость развития области стилометрии в эпоху раннего Возрождения.)Как бы то ни было, мы хотели сравнить нашу модель с людьми, чтобы убедиться, что она действительно превосходит их.Мы разработали эксперимент, чтобы сравнить работу судей-людей с нашей лучшей моделью — моделью временно-лингвистической путаницы.Задача должна была быть достаточно простой, чтобы судьи-люди могли с легкостью справиться с ней.Например, было бы нелепо просить судей разделить счета на сумму 11 224 доллара на совпадающие пары по 5 612 долларов.Таким образом, мы случайным образом выбрали 100 аккаунтов разных пользователей из нашей коллекции аккаунтов стоимостью 11 224 доллара.Для каждой из 100 учетных записей был создан уникальный список из 10 аккаунтов-кандидатов.Каждый список содержал правильную совпадающую учетную запись, смешанную с девятью другими, случайно выбранными учетными записями.Затем судьям по одному были представлены 100 аккаунтов и предложено выбрать правильный совпадающий аккаунт из списка из 10 аккаунтов-кандидатов.Для простоты мы не просили судей делать какой-либо рейтинг, кроме выбора одного аккаунта, который, по их мнению, соответствует исходному аккаунту.Затем мы измерили точность судей на основе того, сколько из 100 аккаунтов они правильно сопоставили.Наша модель выполнила ту же задачу с тем же набором данных.Случайная базовая модель имела бы один шанс из десяти получить правильный ответ, что дает ей точность $0,10$.в общей сложности у нас было 3 англоговорящих человека-судьи из Amazon Mechanical Turk (который представляет собой инструмент для краудсорсинга задач по аннотированию людьми).Для каждого задания судьям была показана ссылка на один из 100 аккаунтов и 10 соответствующих ему ссылок на аккаунты кандидатов.Судьям было разрешено изучить каждую из учетных записей столько, сколько они хотели, чтобы принять решение (поскольку все эти учетные записи были общедоступными, не было никаких проблем с конфиденциальностью). В Таблице 5 показаны результаты работы каждого из трех судей-людей, нашей модели и случайная базовая линия.Поскольку задача намного проще, чем объединение учетных записей стоимостью 11 224 доллара США, наша комбинированная модель путаницы имела гораздо большую точность, чем сообщалось в последнем разделе.С точностью $0,86$ наша модель значительно превзошла даже самого лучшего эксперта-человека — $0,69$.В целом наша модель превзошла среднюю производительность человека на $0,26$ (от $0,86$ до $0,60$ соответственно), что составляет относительное улучшение на $43\%$ (и $26\%$ абсолютное).Движимые растущим интересом к сопоставлению учетных записей пользователей в различных социальных сетях и сетевых сайтах, в этой статье мы представили модели цифровой стилометрии, которая представляет собой метод сопоставления пользователей с помощью методов, основанных на стилометрии.Для сопоставления мы использовали временные и языковые модели пользователей.Мы экспериментировали с лингвистическими, темпоральными и комбинированными темпорально-лингвистическими моделями, используя стандартные и новые методы.Методы, основанные на нашей новой модели путаницы, во всех случаях превосходили более стандартные.Мы показали, что как временная, так и лингвистическая информация полезна для подбора пользователей: лучшая временная модель работает с точностью $0,10$, а лучшая лингвистическая модель — с точностью $0,27$.Несмотря на то, что лингвистические модели значительно превзошли темпоральные модели, в совокупности темпорально-лингвистические модели превзошли обе с точностью $0,31$.Улучшение производительности комбинированных моделей предполагает, что, хотя временная информация уступает лингвистической информации, с точки зрения ее вклада в цифровую стилометрию, она, тем не менее, предоставляет непересекающуюся информацию с лингвистическими данными.Наши модели были оценены на пользователях стоимостью 5612 долларов США с общим счетом в 11 224 доллара США в Twitter и Facebook вместе взятых.В отличие от других работ в этой области, в наших моделях сопоставления мы не использовали никакой профильной информации.Это соответствует традиционным методам стилометрии (поскольку люди могут солгать или исказить эту информацию).Кроме того, мы хотели показать, что существуют неявные подсказки о личности пользователей в содержании (языке) и контексте (времени) взаимодействия пользователей с социальными сетями, которые можно использовать для связывания их учетных записей в различных сервисах.Помимо технического вклада (например, нашей модели путаницы), мы надеемся, что эта статья сможет пролить свет на относительную легкость, с которой, казалось бы, безобидная информация может использоваться для отслеживания пользователей в социальных сетях, даже при регистрации в различных сервисах. используя совершенно другую информацию об учетной записи и профиле.В будущем мы надеемся распространить эту работу на другие сайты социальных сетей и включить в наши модели более сложные методы, такие как тематическое моделирование и анализ мнений. | Постоянно растет число пользователей, имеющих учетные записи в различных социальных сетях и сетевых сайтах. Следовательно, растет интерес к сопоставлению учетных записей и профилей пользователей в различных социальных сетях с целью создания совокупных профилей пользователей. В этой статье мы представляем модели цифровой стилометрии, которая представляет собой метод подбора пользователей с помощью методов, основанных на стилометрии. Мы экспериментировали с лингвистическими, временными и комбинированными темпорально-лингвистическими моделями для сопоставления учетных записей пользователей, используя стандартные и новые методы. Используя общедоступные данные, наша лучшая модель, комбинированная темпорально-лингвистическая модель, смогла правильно сопоставить учетные записи 31% из 5612 различных пользователей в Twitter и Facebook. | 4,797 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Использование обратимых декодеров для обучения представлению предложений без учителя. Изучение представлений предложений на основе немаркированных данных становится все более распространенным как в исследовательских сообществах, занимающихся машинным обучением, так и в области обработки естественного языка, поскольку оно эффективно и дешево позволяет извлекать знания, которые можно успешно перенести на последующие задачи.Методы, основанные на гипотезе распределения BIBREF0 и сходстве распределения BIBREF1, можно грубо разделить на два типа: Цель прогнозирования слов: цель подталкивает систему к более точному прогнозированию слов в данном предложении.Поскольку целью является предсказание слов, их также называют генеративными моделями.В одном из двух классов моделей этого типа модель кодера-декодера изучается с использованием корпуса смежных предложений BIBREF2, BIBREF3, BIBREF4, чтобы прогнозировать слова в следующем предложении с учетом слов в текущем.После обучения декодер обычно отбрасывают, поскольку он нужен только во время обучения и не предназначен для создания представлений предложений.В другом классе моделей этого типа на немаркированных корпусах изучается большая языковая модель BIBREF5, BIBREF6, BIBREF7, которая может быть авторегрессионной моделью или замаскированной языковой моделью, которая предоставляет чрезвычайно мощные языковые кодировщики, но требует огромных вычислительных ресурсов и обучения. время.Цель, основанная на сходстве: Цель здесь опирается на предопределенную функцию сходства, чтобы заставить модель создавать больше похожих представлений для соседних предложений, чем те, которые не являются BIBREF8 , BIBREF9 , BIBREF10 , BIBREF11 .Таким образом, индуктивные смещения, вносимые двумя ключевыми компонентами, функцией дифференциального сходства и контекстным окном, в задаче решающим образом определяют качество изученных представлений и то, какая информация предложений может быть в них закодирована.Чтобы избежать настройки индуктивных смещений в задаче, основанной на сходстве, мы следуем цели предсказания слов с помощью кодера и декодера, и мы особенно заинтересованы в использовании функций обратимого декодирования, которые затем можно использовать в качестве дополнительных кодировщиков во время тестирования.Вклад нашей работы резюмируется следующим образом: Изучение векторных представлений слов с матрицей встраивания слов в качестве кодера и матрицей встраивания контекстных слов в качестве декодера BIBREF12, BIBREF13, BIBREF14, BIBREF15 можно рассматривать как пример нашей работы на уровне слова. подход, поскольку модели учатся предсказывать окружающие слова в контексте данного текущего слова, а встраивания контекстных слов также могут использоваться для дополнения встраивания слов BIBREF14 , BIBREF16 .Таким образом, у нас есть мотивация изучить возможность использования декодеров предложений после обучения, а не игнорировать их, как это делает большинство моделей кодировщика-декодера предложений.Наш подход состоит в том, чтобы инвертировать функцию декодирования, чтобы использовать ее в качестве еще одного кодера для поддержки исходного кодера.Чтобы сделать вычисление обратной функции корректным и понятным, необходима тщательная разработка декодера.Простым примером обратимого декодера является линейная проекция с ортонормированной квадратной матрицей, транспонирование которой является ее обратной.Также можно рассмотреть семейство биективных преобразований с нелинейными функциями BIBREF17, BIBREF18, BIBREF19, поскольку оно позволяет декодеру изучать сложное распределение данных.В нашей статье мы используем два типа вероятных функций декодирования, включая линейную проекцию и биективные функции с нейронными сетями BIBREF17, и при правильном проектировании инверсия каждой из функций декодирования может быть получена без дорогостоящих обратных вычислений после обучения.Таким образом, функция декодера может использоваться вместе с кодером для построения представлений предложений.Мы показываем, что ансамбль кодера и обратного декодера превосходит каждый из них.Наша модель имеет структуру, аналогичную структуре пропуска мысли BIBREF2, и, учитывая гипотезу соседства BIBREF20, учится декодировать следующее предложение с учетом текущего вместо того, чтобы предсказывать как предыдущее, так и следующее предложение одновременно.Учитывая открытие BIBREF4, что ни авторегрессия, ни декодер RNN не необходимы для изучения представлений предложений, которые превосходны в последующих задачах, поскольку авторегрессионные декодеры медленно обучаются, а качество сгенерированных последовательностей не сильно коррелирует с качеством представлений предложений. , наша модель учится предсказывать слова в следующем предложении только неавторегрессионным способом.Предположим, что $i$-е предложение $S_i=\lbrace w_1,w_2,...,w_{N_i}\rbrace $ содержит $N_i$ слов, а $S_{i+1}$ содержит $N_{i+ 1}$ слов.Цель обучения — максимизировать усредненное логарифмическое правдоподобие для всех пар предложений: $$\ell _{S_{i+i}|S_i}(\phi ,\theta )=\frac{1}{N_{i+1 }}\sum _{w_j\in S_{i+1}}\log P(w_j|S_i)\nonumber $$ (уравнение 5), где $\theta $ и $\phi $ содержат параметры в кодировщике $f_\text{en}(S_i;\theta )$ и декодере $f_\text{de}( _i;\phi )$ соответственно.Прямое вычисление нашей модели для заданной пары предложений $\lbrace S_i, S_{i+1}\rbrace $ , в которой слова в $S_i$ являются входными данными для системы обучения, а слова в $S_{i+ 1}$ являются целями, определяется как: $$_i &= f_\text{en}(S_i;\theta )\нонумер \\
_i &= f_\text{de}(_i;\phi )\nonumber $$ (уравнение 6), где $_i$ — векторное представление $S_i$, а $_i$ — векторный выход декодера, который будет сравниваться с векторными представлениями слов в следующем предложении $S_{ я+1}$ .Поскольку вычисление вероятности создания каждого слова включает в себя требовательную к вычислениям функцию softmax, для замены softmax применяется метод отрицательной выборки BIBREF12, а $\log P(w_j|s_i)$ вычисляется как: $$\log \sigma (_i ^\top _{w_j})+ \sum _{k=1}^{K}\mathbb {E}_{w_k\sim P_e(w)}\log\sigma (-_i^\top _{w_k})\nonumber $$ (уравнение 7), где $_{w_k}\in ^{d_}$ — предварительно обученное векторное представление для $w_k$, эмпирическое распределение $P_e(w)$ — это униграммное распределение слов в обучении корпус возведен в степень 0,75, как предложено в предыдущей работе BIBREF21, а $K$ — количество отрицательных выборок.В этом случае мы заставляем выходные данные декодера $_i$ иметь ту же размерность, что и предварительно обученные векторы слов $_{w_j}$.Функция потерь суммируется по всем смежным парам предложений в обучающем корпусе.Для простоты мы опускаем подписку на индексацию предложений в следующих разделах.Кодер $f_\text{en}(S;\theta )$ представляет собой двунаправленный вентильный рекуррентный блок BIBREF22 с $d$ -размерами в каждом направлении.Он обрабатывает векторы слов во входном предложении $\lbrace _{w_1},_{w_2},...,_{w_{N}}\rbrace $ последовательно в соответствии с временным порядком слов и генерирует последовательность скрытые состояния.Во время обучения, чтобы уменьшить вычислительную нагрузку, представлением предложения служит только последнее скрытое состояние $\in ^{d_}$ , где $d_=2d$ .Asцель состоит в том, чтобы повторно использовать функцию декодирования $f_{\text{de}}()$ в качестве еще одного вероятного кодировщика для построения представлений предложений после обучения, а не игнорировать ее. Одним из возможных решений является поиск функции, обратной функции декодера во время тестирования. , который обозначается как $f^{-1}_{\text{de}}()$ .Чтобы уменьшить сложность и время работы как во время обучения, так и во время тестирования, функция декодирования $f_{\text{de}}()$ должна быть легко обратимой.Здесь рассматриваются и исследуются два типа функций декодирования.В этом случае функция декодирования представляет собой линейную проекцию, которая имеет вид $= f_{\text{de}}()=+ $ , где $\in ^{d_\times d_}$ — обучаемая весовая матрица, а $\ в ^{d_\times 1}$ — это смещение.Поскольку $f_\text{de}$ — линейная проекция, простейшая ситуация — когда $$ — ортогональная матрица и ее обратная матрица равна ее транспонированию.Часто, поскольку размерность вектора $$ не обязательно должна совпадать с размерностью векторов слов $$, $$ не является квадратной матрицей.Чтобы обеспечить обратимость $$ , во время обучения применяется построчная ортонормированная регуляризация $$, что приводит к $^\top =$ , где $$0 - единичная матрица, поэтому обратная функция - это просто $$1 , что легко вычисляется.Формула регуляризации: $$2, где $$3 — норма Фробениуса.В частности, правило обновления BIBREF23 для регуляризации: $$:=(1+\beta )-\beta(^\top )\nonnumber $$ (уравнение 12)Использование декодера во время обучения и тестирования определяется следующим образом: $$\text{Training:} \hspace{2.84544pt} & = f_{\text{de}}()=+\нонумер \\
\text{Тестирование:} \hspace{2.84544pt} & = f_\text{de}^{-1}()=^\top (- ) \nonumber $$ (уравнение 13)Следовательно, декодер также используется после обучения в качестве линейного кодера в дополнение к кодировщику RNN.В общем случае в качестве декодера используется биективная функция, поскольку биективные функции естественным образом обратимы.Однако найти обратную биективную функцию может быть сложно, и ее вычисление также может потребовать больших вычислительных ресурсов.Семейство биективных преобразований было разработано в NICE BIBREF17, а простейшая непрерывная биективная функция $f:^D\rightarrow ^D$ и ее обратная $f^{-1}$ определяется как: $$h: \hspace{14.22636 pt} _1 &= _1, & _2 &= _2+m(_1)\нонумер \\
h^{-1}: \hspace{14.22636pt} _1 &= _1, & _2 &= _2-m(_1)\nonumber $$ (уравнение 15), где $_1$ — $d$-мерное разбиение входных данных $\in ^D$, а $m:^d\rightarrow ^{D-d}$ — произвольная непрерывная функция, которая может представлять собой обучаемую многослойную нейронную сеть прямого распространения с нелинейными функциями активации.Он называется «аддитивным связующим слоем» BIBREF17 и имеет единичный определитель Якобиана.Чтобы позволить системе обучения исследовать более мощные преобразования, мы следуем конструкции «уровня аффинной связи» BIBREF24:$$h: \hspace{5.69046pt} _1 &= _1, & _2 &= _2 \odot \text{exp}(s(_1))+ t(_1)\нонумер \\
h^{-1}: \hspace{5.69046pt} _1 &= _1, & _2 &= (_2-t(_1))\odot \text{exp}(-s(_1))\nonumber $$ (уравнение 16), где $s:^d\rightarrow ^{D-d}$ и $t:^d\rightarrow ^{D-d}$ — нейронные сети с линейными выходными единицами.Требование непрерывного биективного преобразования состоит в том, что размерность входа $$ и выхода $$ должна точно совпадать.В нашем случае выход $\in ^{d_}$ функции декодирования $f_{\text{de}}$ имеет меньшую размерность, чем вход $\in ^{d_}$.Наше решение состоит в том, чтобы добавить ортонормированную регуляризованную линейную проекцию перед биективной функцией, чтобы преобразовать векторное представление предложения в желаемое измерение.Использование декодера, состоящего из биективной функции и регуляризованной линейной проекции, во время обучения и тестирования определяется как: $$\text{Training:} \hspace{2.84544pt} & = f_{\text{de}}( ) = ч(+)\нонумер \\
\text{Тестирование:} \hspace{2.84544pt} & = f_\text{de}^{-1}() = ^\top (h^{-1}() - )\nonumber $$ (уравнение 17)Поскольку декодер легко обратим, он также используется для создания векторных представлений.Шаг постобработки BIBREF25, который удаляет верхний главный компонент, применяется к представлениям из $f_\text{en}$ и $f^{-1}_\text{de}$ индивидуально.В следующих разделах $_\text{en}$ обозначает постобработанное представление из $f_\text{en}$ , а $_\text{de}$ из $f^{-1}_\text{ де}$ .Поскольку $f_\text{en}$ и $f^{-1}_\text{de}$ естественным образом обрабатывают предложения по-разному, разумно ожидать, что ансамбль $_\text{en}$ и $ _\text{de}$ превзойдет каждый из них.Эксперименты проводятся в PyTorch BIBREF26 с оценкой с использованием пакета SentEval BIBREF27 с модификациями, включающими этап постобработки.Векторы слов $_{w_j}$ инициализируются с помощью FastText BIBREF15 и фиксируются во время обучения.Два немаркированных корпуса, в том числе BookCorpus BIBREF28 и UMBC News Corpus BIBREF29, используются для обучения моделей с помощью обратимых декодеров.Эти корпуса обозначены как B и U в таблицах 3 и 5.Корпус новостей UMBC примерно в два раза больше BookCorpus, подробности показаны в таблице 1..К неконтролируемым задачам относятся пять задач SemEval по семантическому текстовому сходству (STS) в 2012–2016 гг. BIBREF30, BIBREF31, BIBREF32, BIBREF33, BIBREF34 и задача SemEval2014 Semantic Relationshipness (SICK-R) BIBREF35.Косинусное сходство между векторными представлениями двух предложений определяет текстовое сходство двух предложений, а производительность отображается в виде показателя корреляции Пирсона между метками, аннотированными человеком, и предсказаниями модели для каждого набора данных.Он включает в себя семантическую связанность (SICK) BIBREF35, SemEval (STS-B) BIBREF36, обнаружение парафраза (MRPC) BIBREF37, классификацию типов вопросов (TREC) BIBREF38, оценку отзывов о фильмах (MR) BIBREF39, Стэнфордский древовидный банк настроений (SST) BIBREF40, клиент обзоры продуктов (CR) BIBREF41 , классификация субъективности/объективности (SUBJ) BIBREF42 , полярность мнений (MPQA) BIBREF43 .Inэти задачи: MR, CR, SST, SUBJ, MPQA и MRPC — задачи двоичной классификации, TREC — задача многоклассовой классификации.SICK и MRPC требуют одного и того же метода проектирования признаков BIBREF44, чтобы составить вектор из векторных представлений двух предложений и указать разницу между ними.Гиперпараметры настраиваются на основе усредненных оценок STS14 модели, обученной на BookCorpus, поэтому в таблицах они отмечаются значком $^\star $, чтобы указать на потенциальное переобучение.Настройка гиперпараметра для нашей модели суммируется следующим образом: размер пакета $N=512$ , размерность векторов предложений $d_=2048$ , размерность векторов слов $d_{_{w_j}}=300$ , число отрицательных выборок $K=5$ , а начальная скорость обучения составляет $5\times 10^{-4}$, которая остается фиксированной во время обучения.Оптимизатор Адама BIBREF45 с ограничением градиента BIBREF46 применяется для стабильного обучения.Каждая модель в нашем эксперименте обучается только в течение одной эпохи в данном обучающем корпусе.$\beta $ в обратимом ограничении линейной проекции устанавливается равным $0,01$, и после обучения все 300 собственных значений близки к 1.Для биективного преобразования, чтобы гарантировать, что на каждую выходную единицу влияют все входные единицы, мы объединяем четыре слоя аффинной связи в биективном преобразовании BIBREF17.Нелинейные отображения $s$ и $t$ представляют собой нейронные сети с одним скрытым слоем с выпрямленной линейной функцией активации.Для создания векторных представлений входных предложений применяются различные функции объединения.Для задач оценки без учителя, как рекомендовано в предыдущих исследованиях BIBREF14 , BIBREF50 , BIBREF51 , глобальная функция объединения средних применяется к обоим выходным данным кодера RNN $f_\text{en}$ для создания векторного представления $_\text{ en}$ и обратный декодер $f_\text{de}^{-1}$ для получения $_\text{de}$ .ForВ задачах контролируемой оценки три функции объединения, включая глобальное объединение максимального, минимального и среднего значений, применяются поверх кодера, а выходные данные трех функций объединения объединяются, чтобы служить векторным представлением для данного предложения.Та же стратегия объединения представлений применяется к обратному декодеру.Причина применения различных стратегий объединения представлений для двух категорий задач заключается в следующем: (1) косинусное сходство двух векторных представлений напрямую рассчитывается в задачах неконтролируемой оценки для определения текстового сходства двух предложений и страдает от «проклятия размерности». BIBREF52 , что приводит к более равномерному распределению представлений для векторных представлений более высоких размерностей, уменьшая разницу между оценками сходства. (2) учитывая теорему Ковера BIBREF53 и свойство «благосклонности размерности», более вероятно, что точки данных будут линейно разделимы, когда они представлены в многомерном пространстве, а в задачах контролируемой оценки предпочтительны векторные представления высокой размерности, поскольку линейный классификатор научится оценивать, насколько вероятно, что созданные представления предложений являются линейно разделимыми; (3) в нашем случае оба кодера и обратный декодер способны создавать векторное представление за шаг по времени в данном предложении, хотя во время обучения только последнее рассматривается как представление предложения для быстрой скорости обучения, разумнее использовать все представления на всех временных шагах с различными функциями объединения для вычисления векторных представлений для создания высококачественных представлений предложений, которые превосходят последующие задачи.Стоит обсудить мотивацию разработки модели и наблюдения в наших экспериментах.Как упоминалось в одном из выводов BIBREF54, для демонстрации эффективности обратимого ограничения при сравнении нашей модели с ограничением и его собственными вариантами используются те же встраивания слов из FastText BIBREF15 и имеют одинаковую размерность представлений предложений во время обучение и использовать один и тот же классификатор поверх созданных представлений с одинаковыми настройками гиперпараметров.В целом, учитывая производительность инверсии каждого декодера, представленной в таблицах 3 и 5, разумно утверждать, что инверсия декодера обеспечивает высококачественное представление предложений так же, как и кодер.Однако между двумя декодерами нет существенной разницы с точки зрения производительности последующих задач.В этом разделе представлены наблюдения и мысли, основанные на анализе нашей модели с обратимым ограничением.Мотивация применения обратимого ограничения на декодер во время обучения состоит в том, чтобы сделать его пригодным для использования и потенциально полезным во время тестирования с точки зрения повышения производительности одиночного кодера RNN в моделях кодировщик-декодер (вместо игнорирования части декодера после обучения).Поэтому важно проверить необходимость обратимого ограничения на декодеры.Модель с теми же настройками гиперпараметров, но без обратимого ограничения обучается как базовая модель, а усредненные макрорезультаты, суммирующие задачи одного и того же типа, представлены в таблице 2. Как отмечалось в предыдущей работе BIBREF55, существует значительное несоответствие между группа неконтролируемых задач и группа контролируемых, модель может преуспеть в одной группе задач, но потерпеть неудачу в другой.Как показано в нашей таблице, обратный декодер имеет тенденцию работать лучше, чем кодировщик, при выполнении неконтролируемых задач, а ситуация меняется на обратную, когда дело доходит до контролируемых задач.В нашей модели обратимое ограничение помогает кодировщику RNN $f_\text{en}$ лучше выполнять задачи неконтролируемой оценки и помогает обратному декодеру $f_\text{de}^{-1}$ обеспечивать лучшие результаты при выполнении задач по классификации отдельных предложений.Интересное наблюдение заключается в том, что, применяя обратимое ограничение, модель учится жертвовать производительностью $f_\text{de}^{-1}$ и улучшать производительность $f_\text{en}$ для неконтролируемых задач. уменьшить разрыв между двумя функциями кодирования, что приводит к более выровненным векторным представлениям между $f_\text{en}$ и $f_\text{de}^{-1}$ . Хотяпоощрение обратимого ограничения приводит к немного более низкой производительности $f_\text{de}^{-1}$ при выполнении неконтролируемых задач. Обычно это приводит к лучшему представлению предложений, когда ансамбль кодировщика $f_\text{en}$ и рассматривается обратный декодеру $f_\text{de}^{-1}$.В частности, для неконтролируемых задач ансамбль представляет собой среднее значение двух векторных представлений, созданных из двух функций кодирования во время тестирования, а для контролируемых задач конкатенация двух представлений рассматривается как представление данного предложения.Метод ансамбля рекомендуется в предыдущих работах BIBREF14, BIBREF16, BIBREF51, BIBREF56, BIBREF4, BIBREF54. Как показано в таблице 2, в задачах оценки без учителя (STS12-16 и SICK14) ансамбль двух функций кодирования усредняется, что дает преимущества выравнивание представлений из $f_\text{en}$ и $f_\text{de}^{-1}$ путем применения обратимого ограничения.В то время как в системе обучения без обратимого ограничения ансамбль двух функций кодирования обеспечивает худшую производительность, чем $f_\text{de}^{-1}$ . На задачах контролируемого оценивания, поскольку метод ансамбля представляет собой конкатенацию, а линейная модель применяется поверх объединенных представлений, пока две функции кодирования обрабатывают предложения по-разному, линейный классификатор способен выбирать соответствующие измерения признаков из обеих функций кодирования, чтобы делать хорошие прогнозы, поэтому нет существенной разницы между нашей моделью с и без обратимое ограничение.Недавнее исследование BIBREF54 показало, что улучшение задач контролируемой оценки, обеспечиваемое обучением на маркированных или немаркированных корпусах, довольно незначительно по сравнению со случайными инициализированными проекциями поверх предварительно обученных векторов слов.Еще одно интересное направление исследований, в котором используются вероятностные модели случайного блуждания в единичной сфере. BIBREF57, BIBREF25, BIBREF58 выявило несколько простых, но эффективных методов постобработки, которые работают с предварительно обученными векторами слов и способны повысить производительность усредненных векторов слов в качестве предложения. представительство по неконтролируемым задачам.Хотя эти статьи раскрывают интересные аспекты последующих задач и ставят под сомнение необходимость оптимизации цели обучения, наши результаты показывают, что обучение на немаркированных корпусах помогает.В задачах оценки без учителя, чтобы показать, что обучение из немаркированного корпуса помогает, производительность наших изученных представлений следует напрямую сравнивать с предварительно обученными векторами слов FastText в нашей системе той же размерности с той же постобработкой BIBREF25.Векторы слов разбросаны в 300-мерном пространстве, и в нашей модели есть декодер, который научился проецировать представление предложения $\in ^{d_}$ в $=f_\text{de}(;\phi )\in ^{300}$ .Результаты наших изученных представлений и усредненных векторов слов с той же постобработкой представлены в Таблице 4. Как показано в Таблице 4, производительность нашей обученной системы лучше, чем FastText при той же размерности.Стоит отметить, что в нашей системе окончательное представление представляет собой среднее значение постобработанных векторов слов и изученных представлений $$ , а обратимое ограничение гарантирует, что ансамбль обоих дает лучшую производительность.В противном случае, как обсуждалось в предыдущем разделе, ансамбль постобработанных векторов слов и некоторых случайных кодировщиков не обязательно приведет к более сильным результатам.В Таблице 3 также представлены доказательства эффективности обучения при выполнении задач по оценке без присмотра.Мы согласны с тем, что в задачах контролируемой оценки векторные представления более высокой размерности дают лучшие результаты в последующих задачах.По сравнению со случайными прогнозами с выходными измерениями $4096\x6$, обучение на немаркированных корпусах использует сходство распределения BIBREF1 на уровне предложений в изученных представлениях и потенциально помогает уловить смысл предложения.В нашей системе необработанные представления находятся в 2400-мерном пространстве, и использование различных функций объединения расширяет его до размеров $2048\times 6$, что вдвое меньше размера случайной проекции и по-прежнему обеспечивает лучшую производительность.И наши модели, и случайные прогнозы без обучения представлены в Таблице 5. Данные обоих наборов последующих задач подтверждают наш аргумент о том, что обучение на немаркированных корпусах помогает представлениям уловить смысл предложений.Однако современные способы включения гипотезы распределения используют ее только как слабый и шумный контроль, который может ограничить качество представлений изученных предложений.Представлены два типа декодеров, включая ортонормированную регуляризованную линейную проекцию и биективное преобразование, обратные значения которых можно легко получить, чтобы использовать декодер в качестве еще одного кодера на этапе тестирования.Эксперименты и сравнения проводятся на двух больших немаркированных корпусах, а производительность на последующих задачах показывает высокое удобство использования и способность к обобщению декодеров при тестировании.Анализ показывает, что обратимое ограничение, налагаемое на декодер, побуждает каждого из них учиться у другого во время обучения и обеспечивает улучшенные функции кодирования после обучения.Ансамбль кодера и обратного декодера дает еще лучшую производительность, когда обратимое ограничение применяется на стороне декодера.Более того, сравнивая с предыдущими работами, мы утверждаем, что обучение на неразмеченных корпусах действительно помогает улучшить представление предложений, хотя текущий способ использования корпусов может быть не оптимальным.Мы рассматриваем это как объединение генеративных и дискриминативных целей для обучения представлению предложений без присмотра, поскольку оно обучается с использованием генеративной цели, которую при инвертировании можно рассматривать как создание дискриминационной цели.Предлагаемый нами метод в нашей реализации не обеспечивает очень хорошую производительность при выполнении последующих задач, но мы рассматриваем наш метод как возможность объединить все возможные компоненты в модели, даже обычно отбрасываемый декодер, для создания представлений предложений.Будущая работа потенциально может расширить нашу работу до сквозной обратимой модели, способной создавать высококачественные представления посредством всенаправленных вычислений.Большое спасибо Эндрю Ингу за полезные разъяснения по нескольким концепциям. | Модели кодировщика-декодера для обучения представлению предложений без учителя имеют тенденцию отбрасывать декодер после обучения на большом немаркированном корпусе, поскольку для преобразования входного предложения в векторное представление необходим только кодер. Однако параметры, полученные в декодере, также содержат полезную информацию о языке. Чтобы использовать декодер после обучения, мы представляем два типа функций декодирования, обратные для которых можно легко получить без дорогостоящих обратных вычислений. Следовательно, обратная функция декодирования служит еще одним кодировщиком, создающим представления предложений. Мы показываем, что при тщательном проектировании функций декодирования модель изучает хорошие представления предложений, а ансамбль представлений, созданных кодером и обратным декодером, демонстрирует еще лучшую способность к обобщению и надежную переносимость. | 4,469 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | DENS: набор данных для многоклассового анализа эмоций. В повседневной жизни люди испытывают множество сложных эмоций.Эти эмоции сильно отражаются в нашем языке, как в устной, так и в письменной форме.Многие недавние достижения в области обработки эмоций на естественном языке были сосредоточены на обзорах продуктов BIBREF0 и твитах BIBREF1, BIBREF2.Эти наборы данных часто ограничены по длине (например, количеством слов в твитах), цели (например, обзоры продуктов) или эмоциональному спектру (например, бинарная классификация). Диалоги и повествования персонажей в повествовании обычно несут сильные эмоции.Запоминающаяся история – это часто история, в которой эмоциональное путешествие персонажей находит отклик у читателя.Действительно, эмоции — один из наиболее важных аспектов повествования.Чтобы правильно охарактеризовать повествовательные эмоции, мы должны выйти за рамки бинарных ограничений (например, хорошие или плохие, счастливые или грустные). В этой статье мы представляем набор данных для эмоций повествовательных последовательностей (DENS) для анализа эмоций, состоящий из отрывков из длинных -составлять художественные повествования как из классической литературы, так и из современных рассказов на английском языке.Выборки данных состоят из отдельных отрывков, охватывающих несколько предложений и различных тем.Каждый образец аннотируется с использованием одного из 9 классов и индикатора согласия аннотатора.Используя категориальную модель базовых эмоций BIBREF3, BIBREF4, BIBREF5 изучали создание лексиконов из твитов для использования в анализе эмоций.Недавно BIBREF1, BIBREF6 и BIBREF2 предложили общие задачи для многоклассового анализа эмоций на основе твитов.Сообщается о меньшем количестве работ по пониманию эмоций в повествованиях.Emotional Arc BIBREF7 — одно из недавних достижений в этом направлении.В работе использовались лексиконы и методы обучения без учителя, основанные на неразмеченных отрывках из названий Project Gutenberg.Для помеченных наборов данных о повествованиях BIBREF8 предоставил аннотированный корпус детских рассказов на уровне предложений, а BIBREF9 предоставил аннотации на уровне фраз для выбранных названий Project Gutenberg.Насколько нам известно, набор данных в этой работе является первым, который предоставляет многоклассовые метки эмоций для отрывков, выбранных как из «Проекта Гутенберг», так и из современных повествований.Набор данных доступен по запросу для некоммерческих, исключительно исследовательских целей.В этом разделе мы описываем процесс сбора и аннотирования набора данных.Набор данных аннотирован на основе модифицированного колеса эмоций Плутчика.Оригинальное колесо Плутчика состоит из 8 основных эмоций: Радость, Печаль, Гнев, Страх, Ожидание, Удивление, Доверие, Отвращение.Кроме того, путем совмещения двух базовых эмоций можно сформировать более сложные эмоции.Например, Любовь определяется как сочетание Радости и Доверия (рис.1). Интенсивность эмоции также фиксируется в колесе Плутчика.Например, основная эмоция гнева может варьироваться от раздражения (легкое) до ярости (интенсивное). Мы провели первоначальный опрос на основе 100 историй, значительная часть которых взята из романтического жанра.Мы попросили читателей определить основную эмоцию, проявленную в каждой истории, из восьми исходных основных эмоций.Мы обнаружили, что читателям сложно идентифицировать Доверие как эмоцию, связанную с романтическими историями.Поэтому мы изменили нашу схему аннотаций, удалив «Доверие» и добавив «Любовь».Мы также добавили категорию «Нейтральный», чтобы обозначить отрывки, не несущие никакого эмоционального содержания.Окончательные категории аннотаций для набора данных: радость, печаль, гнев, страх, предвкушение, удивление, любовь, отвращение, нейтральность.Для этого набора данных мы выбрали как классические, так и современные повествования на английском языке.Современные повествования были выбраны на основе популярности на Wattpad.Мы разобрали выбранные повествования на отрывки, где отрывок считается подходящим для аннотации, если он содержит от 40 до 200 токенов.В длинных повествованиях многие неразговорные отрывки предназначены для перехода или вступления к сцене и могут не нести никаких эмоций.Мы разделили подходящие отрывки на две части, и одна часть была сокращена с использованием избранных эмоционально насыщенных, но неоднозначных лексиконов, таких как крик, удар, поцелуй и т. д. Затем мы смешали эту сокращенную часть с необрезанной частью для аннотаций, чтобы уменьшить количество нейтральных проходов.См. Приложение SECREF25 для ознакомления с используемыми словарями.MTurk был настроен с использованием стандартного шаблона настроений и поручал аннотаторам толпы «выбрать лучшую/основную эмоцию, воплощенную в отрывке».Мы также предоставили инструкции для уточнения интенсивности эмоций, такие как: «Ярость/Раздражение — это форма гнева», «Спокойствие/Экстаз — это форма радости» и «Любовь включает в себя романтику/Семью/Дружбу», а также примерные отрывки.Мы требовали, чтобы все аннотаторы имели квалификацию «мастера» MTurk.Каждый отрывок был помечен тремя уникальными аннотаторами.Только те отрывки, по которым было достигнуто согласие большинства комментаторов, считались действительными.Это эквивалентно показателю $\kappa $ Фляйсса, превышающему $0,4$. Для отрывков, в которых нет согласия большинства между аннотаторами, мы объединили их ярлыки с помощью собственных аннотаторов данных, которые являются экспертами в повествовательном контенте.Отрывок считается действительным, если метка внутреннего аннотатора совпадает с любой из меток аннотаторов MTurk.Остальные отрывки отбрасываются.Мы указываем долю согласия аннотатора для каждой метки в наборе данных.Хотя отрывки могут терять некоторый эмоциональный контекст при чтении независимо от всего повествования, мы считаем, что согласие аннотаторов нашего набора данных подтверждает утверждение о том, что небольшие отрывки все же могут передавать связные эмоции.В процессе аннотирования несколько комментаторов предложили нам включить дополнительные эмоции, такие как растерянность, боль и ревность, которые являются общими для повествований.Поскольку они не были частью оригинального колеса Плутчика, мы решили их не включать.Интересным будущим направлением является изучение взаимосвязи между эмоциями, такими как «боль и печаль» или «растерянность и удивление», и улучшение модели эмоций для повествований.Набор данных содержит в общей сложности 9710 отрывков, в среднем 6,24 предложения на отрывок, 16,16 слов в предложении и средней длины 86 слов.Размер словаря составляет 28 КБ (в нижнем регистре).Он содержит более 1600 уникальных наименований в разных категориях, включая 88 наименований (1520 отрывков) из Project Gutenberg.Все современные повествования были написаны после 2000 года, с заметным количеством тем, связанных с взрослением, сильной женской ролью и ЛГБТК +.Жанровое распределение указано в таблице.TABREF8.В окончательном наборе данных 21,0% данных имеют консенсус между всеми аннотаторами, 73,5% имеют согласие большинства и 5,48% имеют метки, присвоенные после консультации с собственными аннотаторами.Распределение точек данных по меткам с верхними словарями (строчными, нормализованными) показано в таблице TABREF9.Обратите внимание, что категория «Отвращение» очень мала и ее следует отбросить.Более того, мы подозреваем, что данные, помеченные как «Сюрприз», могут быть более зашумленными, чем другие категории, и их также следует отбросить.В таблице TABREF10 показано несколько примеров размеченных данных из классических заголовков.Дополнительные примеры можно найти в таблице TABREF26 в приложении SECREF27. Мы провели контрольные эксперименты с набором данных, используя несколько различных алгоритмов.Во всех экспериментах мы отбрасывали данные, помеченные как «Удивление» и «Отвращение».Мы предварительно обработали данные с помощью конвейера SpaCy.Мы замаскировали именованные объекты с помощью заполнителей, специфичных для типов объектов, чтобы уменьшить вероятность использования в эталонных моделях именованных объектов в качестве основы для классификации.Результаты сравнительного тестирования показаны в таблице TABREF17.Набор данных примерно сбалансирован после исключения классов Surprise и Disgust.Мы сообщаем средние баллы микро-F1 с 5-кратной перекрестной проверкой для каждого метода.Ниже мы даем краткий обзор каждого эталонного эксперимента.Среди всех тестов двунаправленное представление кодировщиков от трансформаторов (BERT) BIBREF11 показало лучшую производительность с результатом 0,604 micro-F1.В целом мы заметили, что методы, основанные на глубоком обучении, работают лучше, чем методы, основанные на лексике.Это говорит о том, что метод, учитывающий контекст и темы, может хорошо работать с набором данных.Мы рассчитали тесты на основе набора слов, используя следующие методы: Классификация с помощью TF-IDF + Linear SVM (TF-IDF + SVM) Классификация с помощью лексиконов Depeche++ Emotion BIBREF12+ Линейная SVM (Depeche + SVM)Классификация с лексиконами NRC Emotion BIBREF13, BIBREF14+ Линейный SVM (NRC + SVM) Комбинация лексиконов TF-IDF и NRC Emotion (TF-NRC + SVM) Мы также использовали простые модели классификации с изученными вложениями.Мы обучили модель Doc2Vec BIBREF15 с использованием набора данных и использовали векторы встроенных документов в качестве функций для линейного классификатора SVM.Для этого теста мы рассматривали иерархическую RNN, следующую за BIBREF16.Мы использовали два BiLSTM BIBREF17 по 256 единиц каждый для моделирования предложений и документов.Токены предложения обрабатывались независимо от других токенов предложения.Для каждого направления в BiLSTM на уровне токена последние выходные данные были объединены и переданы в BiLSTM на уровне предложения в качестве входных данных.Выходы BiLSTM были подключены к двум плотным слоям по 256 блоков ReLU и слою Softmax.Мы инициализировали токены с общедоступными встраиваниями, обученными с помощью GloVe BIBREF18.Границы предложений были предоставлены SpaCy.Дропаут применялся к плотным скрытым слоям во время обучения.Одной из проблем, связанных с решениями на основе RNN для классификации текста, является поиск наилучшего способа объединения представлений уровня слов в представления более высокого уровня.Самообслуживание BIBREF19, BIBREF20, BIBREF21 адаптировано для классификации текста, что обеспечивает улучшенную интерпретируемость и производительность.В качестве основы для этого теста мы использовали BIBREF20.В тесте использовалась многоуровневая двунаправленная RNN (60 единиц) с ячейками GRU и плотным слоем.Оба слоя самообслуживания имели размер 60 единиц, а в качестве функции стоимости использовалась перекрестная энтропия.Обратите внимание, что мы опустили термин ортогонального регуляризатора, поскольку этот набор данных относительно невелик по сравнению с традиционными наборами данных, используемыми для обучения такой модели.Мы не заметили какого-либо значительного увеличения производительности при использовании термина регуляризатора в наших экспериментах.Глубокие контекстуализированные представления слов (ELMo) BIBREF22 недавно показали успех в ряде задач НЛП.Неконтролируемый характер языковой модели позволяет ей использовать большой объем доступных неразмеченных данных для изучения лучшего представления слов.Для этого теста мы использовали предварительно обученную модель ELMo (v2), доступную на Tensorhub.Мы ввели вложения слов ELMo в качестве входных данных в однослойную двунаправленную RNN (16 единиц) с ячейками GRU (с отсевом) и плотным слоем.В качестве функции стоимости использовалась перекрестная энтропия.Представления двунаправленного кодировщика от преобразователей (BERT) BIBREF11 достиг современных результатов в нескольких задачах НЛП, включая классификацию предложений.Мы использовали процедуру тонкой настройки, описанную в исходной работе, чтобы адаптировать предварительно обученный BERT$_\textrm {{\scriptsize LARGE}}$ без регистра к задаче классификации проходов с несколькими классами.Этот метод показал лучший результат среди наших тестов со средним баллом микро-F1 60,4%. Мы представляем DENS, набор данных для многоклассового анализа эмоций на основе длинных повествований на английском языке.Мы предоставляем ряд результатов тестов, основанных на различных моделях, от моделей набора слов до методов, основанных на предварительно обученных языковых моделях (ELMo и BERT). Результаты наших тестов показывают, что этот набор данных представляет собой новую задачу в анализе эмоций.Результаты также показывают, что модели, основанные на внимании, могут значительно улучшить производительность при выполнении задач классификации, таких как анализ эмоций.Интересные будущие направления этой работы включают: 1. включение знаний здравого смысла в анализ эмоций для захвата семантического контекста и 2.использование обучения в несколько этапов для запуска и улучшения проявления недостаточно представленных эмоций.Наконец, поскольку повествовательные отрывки часто включают взаимодействие между несколькими эмоциями, одним из направлений будущих наборов данных может быть сосредоточение внимания на многоэмоциональных сложностях человеческого языка и их контекстуальных взаимодействиях.В таблице TABREF26 показаны примеры отрывков из классических названий с соответствующими метками. | Мы представляем новый набор данных для многоклассового анализа эмоций на основе длинных повествований на английском языке. Набор данных для эмоций повествовательных последовательностей (DENS) был собран как из классической литературы, доступной в Project Gutenberg, так и из современных онлайн-повествований, доступных на Wattpad, с аннотациями с помощью Amazon Mechanical Turk. Для набора данных предоставляется ряд статистических данных и базовых показателей. Из протестированных методов мы обнаружили, что точная настройка предварительно обученной модели BERT дает наилучшие результаты со средним показателем микро-F1 60,4%. Наши результаты показывают, что набор данных предоставляет новую возможность в анализе эмоций, который требует выхода за рамки существующих методов на уровне предложений. | 1,989 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Улучшение детальной типизации сущностей с помощью связывания сущностей. Учитывая фрагмент текста и диапазон упоминания объекта в этом тексте, детальная типизация объекта (FET) — это задача назначения детальных меток типа упоминанию BIBREF0.Назначенные метки должны быть контекстно-зависимыми BIBREF1.Например, в предложении «Трамп угрожает вывести США из Всемирной торговой организации» упоминание «Трамп» должно быть помечено как /человек и /человек/политик, хотя у Дональда Трампа были и другие профессии, такие как бизнесмен, телеведущий, и т. д.Эта задача сложна, поскольку обычно используется относительно большой набор тегов, и для правильной маркировки некоторых упоминаний может потребоваться понимание контекста.Более того, поскольку ручное аннотирование очень трудоемко, существующие подходы должны полагаться на дистанционное наблюдение для обучения моделей BIBREF0, BIBREF2. Таким образом, использование дополнительной информации для помощи в процессе классификации становится очень важным.В этой статье мы улучшаем FET с помощью связывания сущностей (EL).EL полезен для модели при принятии решений о типизации, поскольку, если упоминание правильно связано с целевой сущностью, мы можем напрямую получить информацию о типе этой сущности в базе знаний (КБ).Например, в предложении «Было много хороших дискуссий по различным вопросам, стоящим перед Federal Way», упоминание «Federal Way» может быть ошибочно помечено как компания некоторыми моделями FET.Такой ошибки можно избежать, если связать его с городом Federal Way, штат Вашингтон.В случаях, требующих понимания контекста, также полезно использовать результаты связывания сущностей.В вышеупомянутом примере, где упоминается «Трамп», получение всех типов Дональда Трампа в базе знаний (например, политик, бизнесмен, телеведущий и т. д.) по-прежнему информативно для вывода правильного типа (т. е. политика), который соответствует контексту, поскольку сужает возможные ярлыки.Однако информации, полученной через ЭЛ, не следует полностью доверять, поскольку она не всегда точна.Даже если упоминание правильно связано с объектом, информация о типе этого объекта в базе знаний может быть неполной или устаревшей.Таким образом, в этой статье мы предлагаем глубокую нейронную мелкозернистую модель типизации объектов, которая гибко прогнозирует метки на основе контекста, строки упоминания и информации о типе из базы знаний, полученной с помощью EL. Использование EL также создает новую проблему для обучения. процесс.В настоящее время широко используемый подход к созданию обучающих выборок FET заключается в использовании якорных ссылок в Википедии BIBREF0, BIBREF3.Каждая якорная ссылка рассматривается как упоминание и слабо помечается всеми типами связанного с ней объекта (страницы Википедии, на которую указывает якорная ссылка) в КБ.Наш подход, при правильном связывании упоминания, также использует все типы упомянутого объекта в КБ в качестве дополнительной информации.Это может привести к тому, что обученная модель не будет соответствовать слабо размеченным данным.Мы разрабатываем вариант потери шарнира и вводим шум во время обучения, чтобы решить эту проблему.Мы проводим эксперименты на двух часто используемых наборах данных FET.Результаты экспериментов показывают, что введение информации, полученной посредством связывания сущностей, и наличие глубокой нейронной модели помогают улучшить производительность полевого транзистора.Наша модель обеспечивает абсолютное повышение строгой точности более чем на 5% по сравнению с современными моделями для обоих наборов данных.Наш вклад суммируется следующим образом: Мы предлагаем глубокую нейронную мелкозернистую модель типизации сущностей, которая использует информацию о типах из базы знаний, полученную посредством связывания сущностей.Мы решаем проблему, заключающуюся в том, что наша модель может переопределять слабо размеченные данные, используя вариант потери шарнира и внося шум во время обучения.Мы демонстрируем эффективность нашего подхода с помощью экспериментальных результатов на часто используемых наборах данных FET.Наш код доступен по адресу https://github.com/HKUST-KnowComp/IFETEL. Первые попытки классификации именованных сущностей по детальным типам можно найти в BIBREF4, который фокусируется только на именах людей.Позже создаются наборы данных с более крупными наборами типов BIBREF5, BIBREF0, BIBREF6.Эти наборы данных более предпочтительны в недавних исследованиях BIBREF3, BIBREF7. Большинство существующих подходов, предлагаемых для FET, основаны на обучении.Функции, используемые этими подходами, могут быть созданы вручную (BIBREF0, BIBREF1) или извлечены из моделей нейронных сетей BIBREF8, BIBREF9, BIBREF10.Поскольку системы FET обычно используют для обучения дистанционное наблюдение, метки обучающих выборок могут быть зашумленными, ошибочными или слишком конкретными.Несколько исследований BIBREF11, BIBREF12, BIBREF9 решают эти проблемы путем разделения чистых упоминаний и шумных упоминаний, моделирования коррекции типов BIBREF3, использования потерь с учетом иерархии BIBREF9 и т. д. BIBREF13 и BIBREF14 — два исследования, которые больше всего связаны с этой статьей.BIBREF13 предлагает неконтролируемую систему на полевых транзисторах, в которой EL является важным компонентом.Но они используют EL для облегчения кластеризации и выбора имени типа, что сильно отличается от того, как мы используем его для повышения производительности контролируемой модели FET.BIBREF14находит связанные объекты на основе контекста вместо прямого применения EL.Типы этих объектов затем используются для определения типа упоминания.Пусть $T$ — предопределенный набор тегов, включающий все типы, которые мы хотим назначить упоминаниям.Учитывая упоминание $m$ и его контекст, задача состоит в том, чтобы спрогнозировать набор типов $\mathbf {\tau }\subset T$, подходящих для этого упоминания.Таким образом, это задача классификации нескольких классов и меток BIBREF0.Далее мы подробно представим наш подход к решению этой проблемы, включая нейронную модель, обучение модели и используемый нами алгоритм связывания сущностей.Каждый входной образец в нашу систему FET содержит одно упоминание и предложение, которому оно принадлежит.Обозначим $w_1,w_2,...,w_n$ как слова в текущем предложении, $w_{p_1},w_{p_2},...,w_{p_l}$ как слова в строке упоминания, где $n$ — количество слов в предложении, $p_1,...,p_l$ — номера слов в строке упоминания, $l$ — количество слов в строке упоминания.Мы также используем набор предварительно обученных вложений слов.Наш подход на полевом транзисторе проиллюстрирован на рисунке FigREF4.Сначала он создает три представления: представление контекста, представление строки упоминания и представление типа базы знаний.Обратите внимание, что представление типа базы знаний получается из базы знаний посредством связывания сущностей и не зависит от контекста упоминания.Чтобы получить представление контекста, мы сначала используем специальный токен $w_m$ для представления упоминания (токен «[Mention]» на рисунке FigREF4).Тогда последовательность слов предложения станет $w_1,...,w_{p_l-1},w_m,w_{p_l+1},...,w_n$.Соответствующие им представления слов передаются в два уровня BiLSTM.Пусть $\mathbf {h}_m^1$ и $\mathbf {h}_m^2$ — выходные данные первого и второго слоев BiLSTM для $w_m$ соответственно.Мы используем $\mathbf {f}_c=\mathbf {h}_m^1+\mathbf {h}_m^2$ в качестве вектора представления контекста.Пусть $\mathbf {x}_1,...,\mathbf {x}_l$ — вложения слов строки упоминания $w_{p_1},...,w_{p_l}$.Затем строковое представление упоминания $\mathbf {f}_s=(\sum _{i=1}^l \mathbf {x}_i)/l$. Чтобы получить представление типа KB, мы запускаем алгоритм EL для текущего упомянуть.Если алгоритм EL возвращает сущность, мы извлекаем типы этой сущности из базы знаний.Мы используем Freebase в качестве базы знаний.Поскольку типы в Freebase отличаются от $T$, целевого набора типов, они сопоставляются с типами в $T$ по правилам, аналогичным тем, которые используются в BIBREF14.После этого мы выполняем одно горячее кодирование этих типов, чтобы получить представление типа КБ $\mathbf {f}_e$. Если алгоритм EL возвращает NIL (т. е. упоминание не может быть связано с сущностью), мы просто горячо кодируем пустой набор типов.Помимо трех представлений, мы также получаем оценку, возвращаемую нашим алгоритмом связывания сущностей, что указывает на его уверенность в результате связывания.Обозначим его как одномерный вектор $\mathbf{g}$. Тогда мы получаем $\mathbf {f}=\mathbf {f}_c\oplus \mathbf {f}_s\oplus \mathbf {f}_e\oplus \mathbf {g}$, где $\oplus $ означает конкатенацию.Затем $\mathbf {f}$ передается в MLP, который содержит три плотных слоя, чтобы получить $\mathbf {u}_m$, окончательное представление для текущей выборки упоминания $m$. Пусть $t_1,t_2,...,t_k$ — все типы из $T$, где $k=|T|$. Мы вложим их в то же пространство, что и $\mathbf {u}_m$, присвоив каждому из них плотный вектор BIBREF15.Эти векторы обозначаются как $\mathbf {t}_1,...,\mathbf {t}_k$. Тогда оценка упоминания $m$, имеющего тип $t_i\in T$, вычисляется как скалярное произведение $\mathbf {u}_m$ и $\mathbf {t}_i$: Мы прогнозируем $t_i$ как тип $m$, если $s(m,t_i)>0$. Следуя существующим исследованиям, мы также генерируем обучающие данные, используя якорные ссылки в Википедии.Каждая якорная ссылка может быть использована в качестве упоминания.Эти упоминания помечаются путем сопоставления типов Freebase целевых записей с набором тегов $T$ BIBREF0. Поскольку представления типов KB, которые мы используем в нашей модели FET, также получаются путем сопоставления типов Freebase, они будут идеально соответствовать автоматически сгенерированным меткам для упоминания, которые правильно связаны (т. е. когда объект, возвращаемый алгоритмом EL, и целевая запись привязной ссылки совпадают).Например, на рисунке FigREF4 предположим, что пример предложения представляет собой обучающую выборку, полученную из Википедии, где «Дональд Трамп» — это якорная ссылка, указывающая на страницу Википедии Дональда Трампа.После сопоставления типов Дональда Трампа из Freebase с целевым набором тегов этот образец будет слабо аннотирован как /person/politician, /person/tv_personality и /person/business, что точно совпадает с информацией о типе («Типы From KB» на рисунке FigREF4), полученный через EL.Таким образом, во время обучения, когда система EL связывает упоминание с правильным объектом, модели нужно только вывести типы в представлении типа KB.Это может привести к тому, что обученная модель не будет соответствовать слабо размеченным обучающим данным.Для большинства типов сущностей, таких как местоположения и организации, это нормально, поскольку они обычно имеют одни и те же типы в разных контекстах.Но это проблематично для упоминаний людей, поскольку их типы могут зависеть от контекста.Чтобы решить эту проблему, во время обучения, если упоминание связано с сущностью-человеком с помощью нашего алгоритма связывания сущностей, мы добавляем случайную детальную метку типа человека, которая не принадлежит этой сущности, при создании представления типа KB.Например, если упоминание связано с человеком типов /person/actor и /person/author, случайная метка /person/политик можно добавить.Это заставит модель по-прежнему выводить метки типов из контекста, даже если упоминание правильно связано, поскольку представление типа базы знаний больше не полностью соответствует слабым меткам.Чтобы сделать его более гибким, мы также предлагаем использовать вариант потери шарнира, используемый BIBREF16 для обучения нашей модели: где $\tau _m$ — правильный набор типов для упоминания $m$, $\bar{\tau }_m $ — неверный набор типов.$\lambda (t)\in [1,+\infty )$ — это предопределенный параметр, налагающий больший штраф, если тип $t$ ошибочно предсказан как положительный.Поскольку проблема переназначения слабо аннотированных меток более серьезна для упоминаний человека, мы устанавливаем $\lambda (t)=\lambda _P$, если $t$ — детальный тип человека, и $\lambda (t)=1 $ для всех остальных типов.Во время обучения мы также случайным образом устанавливаем результаты EL половины обучающих выборок равными нулю.Чтобы модель могла хорошо работать при упоминаниях, которые нельзя связать с базой знаний во время тестирования.В этой статье мы используем простой алгоритм EL, который напрямую связывает упоминание с объектом с наибольшим показателем общности.Распространенность BIBREF17, BIBREF18 рассчитывается на основе якорных ссылок в Википедии.Он оценивает вероятность объекта, учитывая только строку упоминания.В нашем подходе FET показатель общности также используется в качестве уверенности в результате связывания (т. е. $\mathbf {g}$, используемый в части прогнозирования подраздела SECREF5).В том же документе мы также используем ту же эвристику, которая использовалась в BIBREF19, чтобы найти корференции общих упоминаний людей (например, «Мэтт») с более конкретными упоминаниями (например, «Мэтт Дэймон»). Мы также попробовали другие, более продвинутые методы EL. в наших экспериментах.Однако они не улучшают конечную производительность нашей модели.Экспериментальные результаты использования системы EL, предложенной в BIBREF19, представлены в разделе SECREF4. Мы используем два набора данных: FigER (GOLD) BIBREF0 и BBN BIBREF5.Размеры их наборов тегов составляют 113 и 47 соответственно.Figer (GOLD) позволяет упоминаниям иметь несколько путей типа, но BBN этого не делает.Другой часто используемый набор данных, OntoNotes BIBREF1, не используется, поскольку он содержит множество упоминаний местоимений и общих именных фраз, таких как «оно», «он», «сберегательное учреждение», которые не подходят для прямого применения ссылок на сущности.Следуя BIBREF0, мы генерируем слабо размеченные наборы данных для обучения с помощью якорных ссылок Википедии.Поскольку наборы тегов, используемые в Figer (GOLD) и BBN, различаются, мы создаем обучающий набор для каждого из них.Для каждого набора данных случайным образом отбираются слабомаркированные образцы стоимостью 2000 долларов США, чтобы сформировать набор разработки.Мы также вручную аннотировали упоминания 50 человек, собранные из новостных статей, для настройки параметра $\lambda _.P$. Мы используем 300-мерные предварительно обученные векторы слов GloVe, предоставленные BIBREF20.Размеры скрытых слоев двух слоев BiLSTM установлены на 250.Для трехслойного MLP размер двух скрытых слоев установлен на 500.Размер вложений типов — 500.$\lambda _P$ имеет значение 2.0.Мы также применяем пакетную нормализацию и исключение к входным данным каждого плотного слоя в нашем трехслойном MLP во время обучения.Мы используем строгую точность, Macro F1 и Micro F1 для оценки производительности детального набора текста BIBREF0. Мы сравниваем со следующими существующими подходами: AFET BIBREF3, AAA BIBREF16, NFETC BIBREF9 и CLSC BIBREF21. Мы используем Ours (Full) для представления наших полную модель, а также сравнить с пятью вариантами нашего собственного подхода: Наш (DirectTrain) обучается без добавления случайных типов людей при получении представления типа КБ, а $\lambda _P$ имеет значение 1; Наш (NoEL) не использует связывание сущностей, т. е. представление типа KB и показатель достоверности связывания сущностей удаляются, а модель обучается в стиле DirectTrain; Наш (NonDeep) использует один слой BiLSTM и заменяет MLP плотным слоем; Ours (NonDeep NoEL) — это NoEL-версия Ours (NonDeep); Наш (LocAttEL) использует подход связывания сущностей, предложенный в BIBREF19, вместо нашего собственного подхода, основанного на общности.Ours (Full), Ours (DirectTrain) и Ours (NonDeep) используют наш собственный подход к связыванию сущностей, основанный на общности.Результаты экспериментов приведены в таблице TABREF16.Как мы видим, наш подход работает намного лучше, чем существующие подходы, для обоих наборов данных.Преимущество использования связывания сущностей в нашем подходе можно проверить, сравнив Ours (Full) и Ours (NoEL).Производительность обоих наборов данных снижается, если удаляется часть, связывающая сущности.Особенно на ФИГЕРЕ (ЗОЛОТО) строгая точность падает с 75,5 до 69,8.Использование связывания сущностей меньше улучшает BBN.Мы думаем, что это происходит по трем причинам: 1) BBN имеет гораздо меньший набор тегов, чем FigER (GOLD); 2) BBN не позволяет аннотировать упоминание с помощью нескольких путей типа (например, не допускается пометка упоминания как /building, так и /location), таким образом, задача упрощается; 3) Углубляя модель, производительность BBN уже значительно улучшается, что затрудняет дальнейшее улучшение.Улучшение нашего полного подхода по сравнению с нашим (DirectTrain) на Figer (GOLD) указывает на то, что методы, которые мы используем, чтобы избежать переобучения слабо размеченных данных, также эффективны.Наш (LocAttEL), в котором используется более совершенная система EL, не обеспечивает более высокую производительность, чем Наш (Full), в котором используется наш собственный подход EL.После ручной проверки результатов двух подходов EL и прогнозов нашей модели на Figer (GOLD) мы думаем, что это происходит главным образом потому, что: 1) Наша модель также использует контекст при составлении прогнозов.Иногда, если он «думает», что информация о типе, предоставленная EL, неверна, он может не использовать ее.2)Эффективность различных подходов EL также зависит от набора данных и типов объектов, используемых для оценки.Мы обнаружили, что на Figer (GOLD) подход BIBREF19 лучше различает места и спортивные команды, но он также может допускать некоторые ошибки, которых нет в нашем простом методе EL.Например, он может неправильно связать месяц «март» с объектом, описание которого в Википедии лучше соответствует контексту.3) Для некоторых упоминаний, хотя система EL связывает их с неправильной сущностью, тип этой сущности совпадает с правильным объектом.Мы предлагаем глубокую нейронную модель для улучшения детальной типизации сущностей с помощью связывания сущностей.Проблема переоснащения слабо размеченных обучающих данных решается путем использования варианта потери шарнира и введения шума во время обучения.Мы проводим эксперименты на двух часто используемых наборах данных.Результаты эксперимента демонстрируют эффективность нашего подхода.Эта статья была поддержана Программой ранней карьеры (ECS, № 26206717) Совета по исследовательским грантам в Гонконге и WeChat-HKUST WHAT Lab по технологиям искусственного интеллекта. | Детальная типизация объекта является сложной проблемой, поскольку она обычно включает в себя относительно большой набор тегов и может потребовать понимания контекста упоминания объекта. В этой статье мы используем связывание сущностей, чтобы облегчить процесс детальной классификации типов сущностей. Мы предлагаем глубокую нейронную модель, которая делает прогнозы на основе как контекста, так и информации, полученной в результате связывания сущностей. Экспериментальные результаты на двух часто используемых наборах данных демонстрируют эффективность нашего подхода. На обоих наборах данных достигается абсолютное улучшение строгой точности более чем на 5% по сравнению с современными моделями. | 3,164 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Языковое моделирование диалогового контекста с помощью рекуррентных нейронных сетей. Языковая модель играет важную роль во многих системах обработки естественного языка, например, в системах автоматического распознавания речи BIBREF0, BIBREF1 и системах машинного перевода BIBREF2, BIBREF3.Модели на основе рекуррентной нейронной сети (RNN) BIBREF4, BIBREF5 недавно показали успех в языковом моделировании, превосходя традиционные модели на основе n-грамм.Длинная кратковременная память BIBREF6, BIBREF7 — это широко используемый вариант RNN для языкового моделирования благодаря его превосходной производительности при захвате долгосрочных зависимостей.Традиционная языковая модель на основе RNN использует скрытое состояние для представления сводки предыдущих слов в предложении без учета сигналов контекста.Миколов и др. предложил контекстно-зависимую языковую модель RNN BIBREF8, соединив контекстуальный вектор со скрытым состоянием RNN.Этот контекстный вектор создается путем применения скрытого распределения Дирихле BIBREF9 к предыдущему тексту.Позже было предложено несколько других контекстных языковых моделей с использованием методов набора слов BIBREF10 и RNN BIBREF11 для изучения более широкого представления контекста, выходящего за рамки целевого предложения.Предложенные ранее контекстные языковые модели рассматривают предыдущие предложения как последовательность входных данных и подходят для моделирования контекста на уровне документа.Однако при моделировании диалога важную роль играют диалоговые взаимодействия между говорящими.Моделирование высказываний в диалоге как последовательности входных данных может плохо отражать паузы, очередность и явления заземления BIBREF12 в диалоге.В этой работе мы предлагаем контекстные модели языка RNN, которые специально отслеживают взаимодействие между говорящими.Мы ожидаем, что такие модели будут генерировать лучшее представление контекста диалога.Оставшаяся часть статьи организована следующим образом.В разделе 2 мы знакомим вас с основами контекстного языкового моделирования.В разделе 3 мы описываем предлагаемые модели языка контекста диалога.В разделе 4 обсуждаются процедуры и результаты оценки.Раздел 5 завершает работу.Языковая модель присваивает вероятность последовательности слов $\mathbf {w}=(w_1, w_2, ..., w_{T})$ в соответствии с распределением вероятностей.Используя цепное правило, вероятность последовательности слов $\mathbf {w}$ можно факторизовать как: $$P(\mathbf {w})= P(w_1, w_2, ..., w_{T})= \prod _{t=1}^{T}P(w_{t}|w_{< t})\\$$ (уравнение 2) На временном шаге $t$ вход системы — это вложение слова с индексом $t$, а выход системы — распределение вероятностей слова с индексом $t+1$.Скрытое состояние RNN $h_t$ кодирует информацию последовательности слов до текущего шага: $$&h_t = \operatorname{RNN}(h_{t-1}, w_t) \\
&P(w_{t+1}|w_{< t+1}) = \operatorname{softmax}(W_{o}h_{t} + b_{o})$$ (уравнение 3) где $W_{o }$ и $b_{o}$ — веса и смещения выходного слоя.Был предложен ряд методов для введения контекстной информации в языковую модель.Миколов и Цвейг BIBREF8 предложили RNNLM с тематическими условиями, введя контекстный вектор с действительным знаком в скрытое состояние RNN.Контекстный вектор был создан путем выполнения LDA BIBREF9 для предыдущего текста.Ван и Чо BIBREF10 изучали внедрение дискурсивной информации на уровне корпуса в языковое моделирование.Был исследован ряд методов представления контекста, в том числе «мешок слов», последовательность «мешок слов» и последовательность «мешок слов с вниманием».Лин и др. BIBREF13 предложил использовать иерархическую RNN для моделирования документов.По сравнению с использованием набора слов и последовательности пакетов слов для представления контекста документа, использование иерархической RNN может лучше моделировать порядок слов в предшествующем тексте за счет увеличения вычислительной сложности.Эти контекстные языковые модели ориентированы на контекстную информацию на уровне документа.Тран и др. БИБРЕФ14далее предложил контекстную языковую модель, которая учитывает информацию на уровне между документами.Они утверждали, что за счет использования структурной информации из набора документов с древовидной структурой производительность языкового моделирования была значительно улучшена.Предложенные ранее модели контекстного языка фокусируются на применении контекста путем кодирования предшествующего текста без учета взаимодействия в диалогах.Эти модели могут не подходить для моделирования языка диалога, поскольку они не предназначены для фиксации диалоговых взаимодействий, таких как разъяснения и подтверждения.Создавая специальный дизайн для изучения диалоговых взаимодействий, мы ожидаем, что модели будут генерировать лучшее представление контекста диалога и, таким образом, уменьшать запутанность целевого диалога или высказывания.В этом разделе мы сначала объясним контекстно-зависимую языковую модель RNN, которая работает на уровне произнесения или поворота.После этого мы опишем две предложенные контекстные модели языка, которые используют контекст уровня диалога.Пусть $\mathbf {D} = (\mathbf {U}_1, \mathbf {U}_2, ..., \mathbf {U}_K)$ — диалог, имеющий $K$ ходов и в котором участвуют два говорящих.Каждый ход может иметь одно или несколько высказываний.$k$-й ход $\mathbf {U}_k = (w_1, w_2, ..., w_{T_k})$ представляется как последовательность $T_k$ слов.Учитывая информацию предыдущего текста в диалоге, вероятность целевого поворота $\mathbf {U}_k$ может быть рассчитана как: $$P(\mathbf {U}_k|\mathbf {U}_{<k} )= \prod _{t=1}^{T_k}P(w^{\mathbf {U}_{k}}_{t}|w^{\mathbf {U}_{k}}_{< t }, \mathbf {U}_{<k})\\$$ (уравнение 6), где $\mathbf {U}_{<k}$ обозначает все предыдущие ходы до $\mathbf {U}_k$ и $w^{\mathbf {U}_{k} }_{< t}$ обозначает все предыдущие слова перед $t$-м словом по очереди $\mathbf {U}_k$ . В контекстно-зависимой языковой модели RNN вектор контекста $c$ вместе связан со скрытым состоянием RNN. с внедрением входного слова на каждом временном шаге (рис. 1).Это похоже на контекстно-зависимую языковую модель RNN, предложенную в BIBREF8, за исключением того, что вектор контекста не связан напрямую с выходным слоем RNN.При вводе дополнительного вектора контекста $c$ состояние RNN $h_t$ обновляется как: $$h_t = \operatorname{RNN}(h_{t-1}, [w_t, c])$$ (уравнение 8).В языковых моделях на основе нейронных сетей контекст диалога может быть представлен как плотный непрерывный вектор.Этот вектор контекста может быть создан несколькими способами.Один из простых подходов — использовать набор вложений слов.Однако представление контекста внедрения слов не учитывает порядок слов.Альтернативный подход — использовать RNN для чтения предыдущего текста.Последнее скрытое состояние кодера RNN можно рассматривать как представление текста и использовать в качестве вектора контекста для следующего поворота.Чтобы создать представление контекста на уровне документа, можно каскадно объединить все предложения в документе, удалив границы предложений.Последнее скрытое состояние RNN предыдущего высказывания служит начальным состоянием RNN следующего высказывания.Как и в BIBREF11, мы называем эту модель DRNNLM.Альтернативно, в модели CCDCLM, предложенной в BIBREF11, последнее скрытое состояние RNN предыдущего высказывания передается в скрытое состояние RNN целевого высказывания на каждом временном шаге.Предложенные ранее модели контекстного языка, такие как DRNNLM и CCDCLM, рассматривают историю диалогов как последовательность входных данных без моделирования диалоговых взаимодействий.Диалог одного говорящего может быть не только прямым ответом на вопрос другого говорящего, но также, вероятно, быть продолжением его собственного предыдущего высказывания.Таким образом, при моделировании поворота $k$ в диалоге мы предлагаем соединить последнее состояние RNN поворота $k-2$ непосредственно с начальным состоянием RNN поворота $k$ , вместо того, чтобы позволить ему распространяться через RNN для поворота. $k-1$ .Последнее состояние RNN поворота $k-1$ служит вектором контекста для поворота $k$ , который подается для поворота скрытого состояния RNN $k$ на каждом временном шаге вместе с вводом слова.Архитектура модели показана на рисунке 2.Вектор контекста $c$ и начальное скрытое состояние RNN для $k$-го поворота $h^{\mathbf {U}_k}_{0}$ определяются как: $$c = h^{\mathbf {U }_{к-1}}_{Т_{к-1}}, \; h^{\mathbf {U}_k}_{0} = h^{\mathbf {U}_{k-2}}_{T_{k-2}}$$ (уравнение 11), где $h^ {\mathbf {U}_{k-1}}_{T_{k-1}}$ представляет последнее скрытое состояние RNN хода $k-1$ .Эта модель также позволяет контекстному сигналу предыдущих ходов распространяться по сети за меньшее количество шагов, что помогает уменьшить потери информации при распространении.Мы называем эту модель языковой моделью контекста интерактивного диалога (IDCLM). Распространение контекста диалога можно рассматривать как серию обновлений состояния контекста скрытого диалога по мере растущего диалога.IDCLM моделирует изменения этого состояния контекста скрытого диалога неявно в состоянии RNN уровня поворота.Такие обновления состояния контекста диалога также можно смоделировать в отдельной RNN.Как показано в архитектуре на рисунке 3, мы используем внешнюю RNN для явного моделирования изменений контекста.Входные данные внешнего состояния RNN — это векторное представление предыдущих поворотов диалога.Выходные данные RNN внешнего состояния служат контекстом диалога для следующего хода: $$s_{k-1} = \operatorname{RNN}_{ES}(s_{k-2}, h^{\mathbf {U}_{ k-1}}_{T_{k-1}})$$ (уравнение 14) где $s_{k-1}$ — выход внешнего состояния RNN после обработки хода $k-1$ .Вектор контекста $c$ и начальное скрытое состояние RNN для $k$-го поворота $h^{\mathbf {U}_k}_{0}$ затем определяются как: $$c = s_{k-1} , \; h^{\mathbf {U}_k}_{0} = h^{\mathbf {U}_{k-2}}_{T_{k-2}}$$ (уравнение 15)Мы называем эту модель языковой моделью контекста интерактивного диалога внешнего состояния (ESIDCLM). По сравнению с IDCLM, ESIDCLM освобождает от бремени RNN уровня поворота, используя внешний RNN для моделирования изменений состояния контекста диалога.Одним из недостатков ESIDCLM является то, что во время обучения модели необходимо изучить дополнительные параметры модели RNN, что может сделать модель более склонной к переобучению, когда размер обучающих данных ограничен.Мы используем корпус актов диалога коммутатора (SwDA) при оценке наших контекстных языковых моделей.Корпус SwDA расширяет корпус телефонной речи Switchboard-1 тегами диалоговых действий на уровне поворотов и высказываний.Высказывания также помечаются тегами части речи (POS).Мы разделили данные в папках от sw00 до sw09 в качестве обучающего набора, в папке sw10 как в тестовом наборе и в папках от sw11 до sw13 в качестве проверочного набора.Наборы для обучения, проверки и тестирования содержат 98,7 тыс. ходов (190,0 тыс. высказываний), 5,7 тыс. ходов (11,3 тыс. высказываний) и 11,9 тыс. ходов (22,2 тыс. высказываний) соответственно.Максимальная длина поворота установлена на 160.Словарный запас определяется 10 тысячами наиболее часто встречающихся слов.Мы сравниваем IDCLM и ESIDCLM с несколькими базовыми методами, включая модель на основе n-грамм, однооборотный RNNLM и различные контекстно-зависимые RNNLM.5-граммовая языковая модель с модифицированным сглаживанием Кнезера-Нея BIBREF15.Single-Turn-RNNLM Обычный RNNLM, который работает на уровне одного оборота без контекстной информации.BoW-Context-RNNLM Контекстный RNNLM с BoW-представлением предыдущего текста в качестве контекста.DRNNLM Контекстный RNNLM с вектором контекста уровня поворота, связанным с начальным состоянием RNN целевого поворота.CCDCLM Контекстный RNNLM с вектором контекста уровня поворота, связанным со скрытым состоянием RNN целевого поворота на каждом временном шаге.Мы реализуем эту модель, следуя дизайну BIBREF11.Чтобы исследовать потенциальный прирост производительности, которого можно достичь за счет введения контекста, мы также сравниваем предложенные методы с RNNLM, которые используют настоящие теги диалоговых действий в качестве контекста.Хотя помеченный человеком диалоговый акт может быть не лучшим вариантом для моделирования состояния контекста диалога, он обеспечивает разумную оценку наилучшего выигрыша, которого можно достичь путем введения лингвистического контекста.Последовательность диалоговых действий моделируется отдельной RNN, аналогичной RNN внешнего состояния, используемой в ESIDCLM.Мы называем эту модель языковой моделью контекста действия диалога (DACLM).DACLM RNNLM с истинным вектором контекста действия диалога, связанным с состоянием RNN целевого поворота на каждом временном шаге.В этой работе мы используем ячейку LSTM BIBREF6 в качестве базовой единицы RNN из-за ее более сильных возможностей по обнаружению долгосрочных зависимостей в последовательности слов по сравнению с простой RNN.Мы используем предварительно обученные векторы слов BIBREF16, которые обучены на наборе данных Google News для инициализации встраивания слов.Эти встраивания слов настраиваются во время обучения модели.Мы проводим мини-пакетное обучение с использованием метода оптимизации Адама, следуя предлагаемой настройке параметров в BIBREF17.Максимальная норма установлена на 5 для отсечения градиента.Для регуляризации мы применяем отсев ( $p=0.8$ ) к неповторяющимся соединениям BIBREF18 LSTM.Кроме того, мы применяем регуляризацию $L_2$ ( $\lambda = 10^{-4}$ ) к весам и смещениям выходного слоя RNN.Результаты эксперимента по затруднению моделирования языка для моделей, использующих разный размер диалога, представлены в таблице 1.Значение $K$ указывает количество поворотов в диалоге.Недоумение рассчитывается на последнем ходу, а предыдущие ходы используются в качестве контекста модели.Как видно из результатов, все модели на основе RNN значительно превосходят модель n-грамм.BoW-Context-RNNLM и DRNNLM последовательно превосходят Single-Turn-RNNLM.Наша реализация контекстно-зависимого CCDCLM работает хуже, чем Single-Turn-RNNLM.Это может быть связано с тем, что предсказание целевого слова поворота слишком сильно зависит от вектора контекста предыдущего поворота, который напрямую соединяется со скрытым состоянием RNN текущего поворота на каждом временном шаге.Производительность модели на обучающем наборе может не получить должного обобщения во время вывода, учитывая ограниченный размер обучающего набора.Предлагаемые IDCLM и ESIDCLM последовательно превосходят одиночный RNNLM при разных размерах контекстных ходов.ESIDCLM показывает лучшую производительность языкового моделирования при размере диалога 3 и 5, немного превосходя IDCLM.IDCLM превосходит все базовые модели при использовании размера поворота диалога 5 и вызывает немного большее недоумение, чем DRNNLM при использовании размера поворота диалога 3. Чтобы проанализировать наилучший потенциальный выигрыш, который может быть достигнут путем введения лингвистического контекста, мы сравниваем предложенные контекстные модели с DACLM, модель, которая использует реальную историю действий диалога для моделирования контекста диалога.Как показано в таблице 1, разрыв между предложенными нами моделями и DACLM невелик.Это дает положительный намек на то, что предлагаемые контекстные модели могут неявно фиксировать изменения состояния контекста диалога.Для детального анализа производительности модели мы дополнительно вычисляем недоумение тестового набора для каждого тега POS и каждого тега диалога.Мы выбрали наиболее часто встречающиеся теги POS и теги диалоговых действий в корпусе SwDA и сообщили об относительных изменениях недоумения на основе тегов ( $\%$ ) предлагаемых моделей по сравнению с однооборотным RNNLM.Отрицательное число указывает на прирост производительности.В таблице 2 показаны сложности модели для каждого POS-тега.Все три контекстно-зависимые модели обеспечивают стабильный прирост производительности по сравнению с Single-Turn-RNNLM для местоимений, предлогов и наречий, причем местоимения имеют наибольшее улучшение недоумения.Однако предлагаемые контекстные модели менее эффективны при улавливании существительных.Это говорит о том, что предлагаемые контекстные языковые модели RNN используют контекст для достижения превосходного прогнозирования для определенных, но не для всех типов POS.Если мы хотим лучше улавливать слова определенного типа, необходимы дальнейшие исследования конструкции модели.Что касается результатов на основе тегов диалоговых действий, приведенных в Таблице 3, три контекстные модели демонстрируют стабильный прирост производительности при высказываниях типа «Утверждение без мнения».Изменения недоумения для других тегов диалоговых действий различаются для разных моделей.В этой работе мы предлагаем две модели языка контекста диалога, которые имеют специальный дизайн для моделирования диалоговых взаимодействий.Результаты нашей оценки корпуса диалогов коммутаторов показывают, что предлагаемая модель превосходит традиционную языковую модель RNN на 3,3%.Предложенные модели также демонстрируют преимущества по сравнению с несколькими конкурирующими моделями контекстного языка.Сложность предлагаемых языковых моделей контекста диалога с небольшим отрывом выше, чем у модели, использующей в качестве контекста настоящие теги диалоговых действий.Это указывает на то, что предлагаемая модель может неявно фиксировать состояние контекста диалога для моделирования языка. | В этой работе мы предлагаем контекстуальные языковые модели, которые включают дискурсивную информацию на уровне диалога в языковое моделирование. Предыдущие работы по контекстуальной модели языка рассматривают предыдущие высказывания как последовательность входных данных, не учитывая диалоговые взаимодействия. Мы разрабатываем контекстные модели языка на основе рекуррентных нейронных сетей (RNN), которые специально отслеживают взаимодействие между говорящими в диалоге. Результаты эксперимента с корпусом диалоговых окон коммутатора показывают, что предлагаемая модель превосходит традиционную одноповоротную языковую модель RNN на 3,3% по степени недоумения. Предложенные модели также демонстрируют преимущества по сравнению с другими конкурирующими моделями контекстного языка. | 2,900 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Дискриминативное акустическое встраивание слов: подходы на основе рекуррентных нейронных сетей. Многие задачи обработки речи, такие как автоматическое распознавание речи или обнаружение произнесенных терминов, зависят от связывания сегментов речевых сигналов со словесными метками.В большинстве систем, разработанных для таких задач, слова разбиваются на подслова, такие как телефоны, и для отдельных единиц строятся модели.Альтернатива, которая рассматривалась некоторыми исследователями, состоит в том, чтобы рассматривать каждый целый сегмент слова как единую единицу, не относя его части к подсловным единицам.Одной из причин использования подходов, основанных на целых словах, является то, что они позволяют избежать необходимости использования моделей подслов.Это полезно, поскольку, несмотря на десятилетия работы над моделированием подслов BIBREF0 , BIBREF1 , оно по-прежнему создает серьезные проблемы.Например, системам обработки речи по-прежнему мешают различия в разговорном произношении BIBREF2.Вторая мотивация заключается в том, что рассмотрение целых слов одновременно позволяет нам учитывать более гибкий набор функций и рассуждений в течение более длительных периодов времени.Подходы, основанные на целых словах, обычно включают на каком-то уровне сопоставление шаблонов.Например, при распознавании речи на основе шаблонов BIBREF3, BIBREF4 оценки слов вычисляются на основе расстояний с динамическим искажением времени (DTW) между наблюдаемым сегментом и обучающими сегментами гипотетического слова.При поиске по запросу предполагаемые совпадения обычно находятся путем измерения расстояния DTW между запросом и сегментами базы данных поиска BIBREF5, BIBREF6, BIBREF7, BIBREF8.Другими словами, подходы, основанные на целых словах, часто сводятся к принятию решения о том, являются ли два сегмента примерами одного и того же слова или нет.Альтернативой DTW, которая начала изучаться, является использование акустических вложений слов (AWE) или векторных представлений сегментов произнесенных слов.AWE — это представления, которые можно изучить на основе данных, в идеале такие, чтобы вложения двух сегментов, соответствующих одному и тому же слову, были близки, а вложения сегментов, соответствующих разным словам, находились далеко друг от друга.Когда сегменты слов представлены посредством вложений фиксированной размерности, вычисление расстояний становится таким же простым, как измерение косинусного или евклидова расстояния между двумя векторами.Была проведена некоторая, пока ограниченная, работа над акустическим внедрением слов, сосредоточенная на ряде моделей внедрения, подходов к обучению и задач BIBREF9, BIBREF10, BIBREF11, BIBREF12, BIBREF13, BIBREF14, BIBREF15, BIBREF16.В этой статье мы исследуем новые модели внедрения, основанные на рекуррентных нейронных сетях (RNN), применяемые к задаче распознавания слов, связанной с поиском по запросу.RNN являются естественным модельным классом для акустических вложений слов, поскольку они могут обрабатывать последовательности произвольной длины.Мы сравниваем несколько типов вложений на основе RNN и анализируем их свойства.По сравнению с предыдущими встраиваниями, протестированными для той же задачи, наши лучшие модели достигают значительного улучшения средней точности.Далее мы кратко опишем наиболее близкие предыдущие работы.Маас и др. BIBREF9 и Bengio и Heigold BIBREF10 использовали акустическое встраивание слов на основе сверточных нейронных сетей (CNN) для генерации оценок сегментов слов при автоматическом распознавании речи.Маас и др. обучили CNN прогнозировать (с непрерывными значениями) вложения меток слов и использовали полученные вложения для определения функций признаков в системе восстановления оценок сегментных условных случайных полей BIBREF17.Бенджио и Хейгольд также разработали вложения на основе CNN для восстановления решетки, но с контрастной потерей при отделении вложений данного слова от вложений других слов.Левин и др. BIBREF11 разработал неконтролируемые встраивания, основанные на представлении каждого слова в виде вектора расстояний DTW до набора сегментов опорных слов.Это представление впоследствии использовалось в нескольких приложениях: сегментный подход для поиска по запросу BIBREF12, лексическая кластеризация BIBREF18 и неконтролируемое распознавание речи BIBREF19.Войня и др. BIBREF15 разработал представление, также основанное на шаблонах, в данном случае на шаблонах телефонов, инвариантных к конкретным преобразованиям, и показало их надежность при классификации цифр.Кампер и др. БИБРЕФ13сравнили несколько типов акустических вложений слов для задачи распознавания слов, связанной с поиском по запросу, и обнаружили, что вложения на основе сверточных нейронных сетей (CNN), обученных с контрастными потерями, превзошли подход опорных векторов Левина и др. BIBREF11, а также несколько других вложений CNN и DNN и DTW, использующих несколько типов функций.В настоящее время сравнивается ряд подходов к этой же задаче и данным BIBREF11, BIBREF20, BIBREF21, BIBREF22.Для прямого сравнения с этой предыдущей работой в этой статье мы используем ту же задачу и некоторые из тех же потерь обучения, что и Кампер и др., Но разрабатываем новые модели внедрения на основе RNN.Единственная известная нам работа с использованием RNN для встраивания акустических слов — это работа Chen et al. BIBREF16 и Chung et al. БИБРЕФ14 .Чен и др. изучил RNN с длинной краткосрочной памятью (LSTM) для классификации слов и использовал полученные векторы скрытых состояний в качестве встраивания слов в задачу запроса по примеру.Однако обстановка была довольно специфической, с небольшим количеством вопросов и обучением, зависящим от говорящего.Чунг и др. BIBREF14 работал без присмотра и обучал однослойные автокодировщики RNN созданию вложений для задачи распознавания слов.В этой статье мы сосредоточимся на контролируемой настройке и сравним различные структуры на основе RNN, обученные с разными потерями.Встраивание акустического слова — это функция, которая принимает на вход речевой сегмент, соответствующий слову INLINEFORM0 , где каждый INLINEFORM1 представляет собой вектор акустических характеристик уровня кадра, и выводит вектор фиксированного размера, представляющий сегмент INLINEFORM2 .Базовая структура модели внедрения, которую мы используем, показана на рис.FIGREF1.Модель состоит из глубокой RNN с некоторым количеством INLINEFORM3 сложенных слоев, конечный вектор скрытого состояния которого передается в качестве входных данных в набор INLINEFORM4 полностью связанных слоев; вывод последнего полностью связного слоя представляет собой встраивание INLINEFORM5. Скрытое состояние RNN в каждом временном интервале можно рассматривать как представление входных данных, наблюдаемых до сих пор, а его значение в последнем временном интервале INLINEFORM0 само по себе может служить последним словом. встраивание.Полносвязные слои добавляются для того, чтобы учесть тот факт, что некоторые дополнительные преобразования могут улучшить представление.Например, скрытое состояние может быть больше, чем желаемый размер встраивания слов, чтобы иметь возможность «запомнить» всю необходимую промежуточную информацию.Некоторая часть этой информации может не понадобиться при окончательном внедрении.Кроме того, информация, хранящаяся в скрытом состоянии, не обязательно может быть дискриминационной; некоторые дополнительные линейные или нелинейные преобразования могут помочь изучить дискриминационное вложение.В этом классе моделей внедрения мы фокусируемся на сетях с длинной краткосрочной памятью (LSTM) BIBREF23 и сетях GRU (BIBREF24).Оба типа RNN включают в себя механизм выборочного сохранения или удаления информации в каждом временном интервале при обновлении скрытого состояния, чтобы лучше использовать долгосрочный контекст.Оба этих варианта RNN успешно использовались в распознавании речи BIBREF25, BIBREF26, BIBREF27, BIBREF28.LSTM RNN в каждом временном интервале как скрытое состояние INLINEFORM0, так и связанный с ним вектор INLINEFORM1 «памяти ячейки» обновляются и передаются в следующий временной интервал.Другими словами, каждый передний край на рисунке FigREF1 можно рассматривать как несущий как память ячейки, так и скрытые векторы состояния.Обновления модулируются значениями нескольких векторов стробирования, которые контролируют степень обновления памяти ячейки и скрытого состояния в свете новой информации в текущем кадре.Для однослойной сети LSTM обновления следующие: INLINEFORM0, где INLINEFORM0 и INLINEFORM1 — векторы одинаковой размерности, INLINEFORM2 и INLINEFORM3 — изученные весовые матрицы соответствующих размеров, INLINEFORM4 и INLINEFORM5 — изученные векторы смещения, INLINEFORM6 представляет собой покомпонентную логистическую активацию, а INLINEFORM7 относится к продукту Адамара (покомпонентному).Аналогично, в сети GRU на каждом временном этапе ячейка GRU определяет, какие компоненты старой информации сохраняются, перезаписываются или изменяются в свете следующего шага входной последовательности.Выходными данными ячейки ГРУ является только скрытый вектор состояния.Ячейка GRU использует шлюз сброса INLINEFORM0 и шлюз обновления INLINEFORM1, как описано ниже для одноуровневой сети: INLINEFORM2, где INLINEFORM0 и INLINEFORM1 имеют одинаковую размерность, INLINEFORM2 и INLINEFORM3 — изученные весовые матрицы соответствующего размера, а INLINEFORM4 , INLINEFORM5 и INLINEFORM6 — это изученные векторы смещения.Все приведенные выше уравнения относятся к однослойным сетям.В глубокой сети с несколькими сложенными слоями на каждом уровне используются одни и те же уравнения обновления, при этом векторы состояния, ячейки и вентиля заменяются векторами, специфичными для слоя, INLINEFORM0 и так далее для слоя INLINEFORM1.Для всех слоев, кроме первого, вход INLINEFORM2 заменяется скрытым вектором состояния из предыдущего слоя INLINEFORM3. Для полностью связанных слоев мы используем активацию выпрямленной линейной единицы (ReLU) BIBREF29, за исключением последнего слоя, который зависит от формы. контроля и потерь, используемых в обучении.Мы обучаем модели внедрения на основе RNN, используя набор предварительно сегментированных произнесенных слов.Мы используем два основных подхода к обучению, основанные на предыдущей работе, но с некоторыми различиями в деталях.Как и в BIBREF13, BIBREF10, наш первый подход заключается в использовании словесных меток обучающих сегментов и обучении сетей классификации слов.В этом случае последний уровень INLINEFORM0 — это уровень log-softmax.Здесь мы ограничены подмножеством обучающего набора, который имеет достаточное количество сегментов на слово для обучения хорошего классификатора, а выходная размерность равна количеству слов (но см. BIBREF13 для изучения изменения размерности в таких модель внедрения на основе классификатора путем введения слоя «узких мест»).Эта модель обучается сквозно и оптимизирована с учетом потери перекрестной энтропии.Хотя помеченные данные обязательно ограничены, есть надежда, что изученные модели будут полезны даже при применении к устным примерам слов, которые ранее не встречались в обучающих данных.Для слов, не встречавшихся при обучении, вложения должны соответствовать некоторой мере сходства слова с обучающими словами, измеряемой через апостериорные вероятности ранее увиденных слов.В приведенных ниже экспериментах мы проверяем это предположение, анализируя эффективность слов, которые появляются в обучающих данных, по сравнению с теми, которые этого не делают.Второй подход к обучению, основанный на более ранней работе Kamper et al. BIBREF13 предназначен для обучения «сиамских» сетей BIBREF30.При таком подходе полный надзор не требуется; скорее, мы используем слабый контроль в виде пар сегментов, помеченных как одинаковые или разные.Базовая модель остается такой же, как и раньше — RNN, за которой следует набор полностью связанных слоев, — но последний слой больше не является softmax, а представляет собой слой линейной активации произвольного размера.Чтобы изучить параметры, мы одновременно пропускаем три сегмента слов через три копии нашей модели (т. е. три сети с общими весами).Один входной сегмент — это «якорь», INLINEFORM0, второй — другой сегмент с той же меткой слова, INLINEFORM1, а третий — сегмент, соответствующий другой метке слова, INLINEFORM2.Затем сеть обучается с использованием потерь «cos-hinge»: DISPLAYFORM0, где INLINEFORM0 — косинусное расстояние между INLINEFORM1.В отличие от обучения перекрестной энтропии, здесь мы напрямую стремимся оптимизировать относительное (косинусное) расстояние между одинаковыми и разными парами слов.Для таких задач, как поиск по запросу, эта потеря обучения лучше соответствует нашей конечной цели и может использовать больше данных, поскольку не требуется ни полностью размеченных данных, ни какого-либо минимального количества примеров каждого слова.Наша конечная цель — повысить производительность при выполнении последующих задач, требующих точного распознавания слов.В этой статье мы используем промежуточную задачу, которая более непосредственно проверяет, имеют ли пары одинаковых и разных слов ожидаемую связь.и это позволяет нам сравнивать результаты с различными предыдущими работами.В частности, мы используем задачу распознавания слов Carlin et al. BIBREF20 , который аналогичен задаче запроса по примеру, в которой известны сегментации слов.Оценка состоит из определения для каждой пары сегментов оценки того, являются ли они примерами одних и тех же или разных слов, и измерения производительности с помощью средней точности (AP).Мы делаем это, измеряя косинусное сходство между их акустическими представлениями слов и объявляя их одинаковыми, если расстояние ниже порогового значения.Изменяя порог, мы получаем кривую точности отзыва, на основе которой вычисляем AP. Данные, используемые для этой задачи, взяты из корпуса разговорного английского языка Switchboard BIBREF31.Сегменты слов имеют длину от 50 до 200 кадров.Акустические характеристики в каждом кадре (входные данные для моделей встраивания слов INLINEFORM0 ) представляют собой 39-мерные MFCC+ INLINEFORM1 + INLINEFORM2 .Мы используем те же разделы обучения, разработки и тестирования, что и в предыдущей работе BIBREF13, BIBREF11, и те же акустические характеристики, что и в BIBREF13, для максимально прямого сравнения.Набор поездов содержит примерно 10 тыс. сегментов примеров, а каждый из dev и test содержит примерно 11 тыс. сегментов (что соответствует примерно 60 млн пар для расчета AP разработки/тестирования).Как и в BIBREF13, при обучении вложений на основе классификации мы используем подмножество обучающего набора, содержащее все типы слов с минимум 3 вхождениями, уменьшая размер обучающего набора примерно до 9 тыс. сегментов.При обучении сиамских сетей обучающие данные состоят из всех пар одних и тех же слов в полном обучающем наборе (приблизительно 100 тыс. пар).Для каждой такой обучающей пары мы случайным образом выбираем третий пример, принадлежащий другому типу слов, как это требуется для потери INLINEFORM0.В наших внедрениях на основе классификаторов используются сети LSTM или GRU с 2–4 сложенными слоями и 1–3 полностью связанными слоями.Окончательная размерность встраивания равна количеству уникальных словесных меток в обучающем наборе, которое равно 1061.Размерность рекуррентного скрытого состояния фиксирована на уровне 512, а выпадение BIBREF32 между составными рекуррентными слоями используется с вероятностью INLINEFORM0 .Размерность полностью связанного скрытого слоя фиксирована и равна 1024.Нелинейности и отсев выпрямленных линейных единиц (ReLU) в INLINEFORM1 используются между полностью связанными слоями.Однако между окончательным рекуррентным выходом скрытого состояния и первым полностью связным слоем не применяется никакая нелинейность или выпадение.Эти настройки были определены посредством экспериментов на наборе разработки.Сеть классификатора обучается с перекрестной потерей энтропии и оптимизируется с использованием стохастического градиентного спуска (SGD) с импульсом Нестерова BIBREF33.Скорость обучения инициализируется значением 0,1 и уменьшается в 10 раз в соответствии со следующей эвристикой: Если 99% средних потерь пакетов в текущую эпоху превышают скользящее среднее значение потерь пакетов за последние 3 эпохи, это считается плато; если есть 3 последовательные эпохи плато, то скорость обучения снижается.Обучение прекращается, когда снижение скорости обучения больше не улучшает AP набора разработчиков.Затем выбирается модель эпохи, соответствующей лучшей точке доступа из набора разработчиков.Несколько других оптимизаторов — Adagrad BIBREF34, Adadelta BIBREF35 и Adam BIBREF36 — исследовались в первоначальных экспериментах на наборе разработчиков, но все сообщаемые результаты были получены с использованием SGD с импульсом Нестерова.Для экспериментов с сиамскими сетями мы инициализируем (теплый старт) сети с настроенной классификационной сетью, удаляя окончательный слой log-softmax и заменяя его линейным слоем размера, равного желаемой размерности встраивания.Мы исследовали вложения с размерностями от 8 до 2048.Мы используем запас 0,4 для потерь на шарнире.При обучении сиамских сетей каждый обучающий мини-пакет состоит из триплетов INLINEFORM0.Тройки INLINEFORM1 имеют форму INLINEFORM2, где INLINEFORM3 и INLINEFORM4 являются примерами одного и того же класса (пара из набора пар из 100 тыс. одинаковых слов), а INLINEFORM5 представляет собой случайно выбранный пример из другого класса.Затем для каждого из этих триплетов INLINEFORM6 INLINEFORM7 в мини-пакет добавляется дополнительный триплет INLINEFORM8, чтобы все сегменты могли служить привязками.Это небольшое отклонение от более ранней работы BIBREF13, которая, как мы обнаружили, повышает стабильность обучения и производительность на тестовом наборе.В предварительных экспериментах мы сравнили два метода выбора отрицательных примеров INLINEFORM0 во время обучения: подход с равномерной выборкой и неравномерный.В случае равномерной выборки мы выбираем INLINEFORM1 равномерно случайным образом из полного набора обучающих примеров с метками, отличными от INLINEFORM2.Этот метод выборки требует только контроля пары слов.В случае неравномерной выборки выборка INLINEFORM3 выполняется в два этапа.Сначала мы создаем распределение INLINEFORM4 по меткам слов INLINEFORM5 и выбираем из него другую метку.Во-вторых, мы равномерно выбираем пример из подмножества с выбранной меткой.Цель этого метода — ускорить обучение, выбирая пары, которые нарушают ограничение маржи.Чтобы построить полиномиальный PMF INLINEFORM6, мы поддерживаем матрицу INLINEFORM7 INLINEFORM8, где INLINEFORM9 — количество уникальных меток слов в обучении.Каждая метка слова соответствует целому числу INLINEFORM10 INLINEFORM11[1, INLINEFORM12] и, следовательно, строка в INLINEFORM13.Значения в строке INLINEFORM14 считаются показателями сходства, и мы можем получить желаемый PMF для каждой строки путем нормализации по ее сумме.В начале каждой эпохи мы инициализируем INLINEFORM0 нулями по диагонали и единицами в других местах (что сводится к равномерной выборке).Для каждой обучающей пары INLINEFORM1 мы обновляем INLINEFORM2 как для INLINEFORM3, так и для INLINEFORM4:INLINEFORM0 PMFINLINEFORM0 обновляются после прямого прохода всего мини-пакета.Константа INLINEFORM1 обеспечивает потенциально более сильное ограничение, чем используемое при потере INLINEFORM2, чтобы обеспечить разнообразие выборки.Во всех экспериментах мы устанавливали INLINEFORM3.Это эвристический подход, и было бы интересно рассмотреть различные альтернативы.Предварительные эксперименты показали, что метод неравномерной выборки превосходит метод равномерной выборки, и ниже мы сообщаем о результатах с неравномерной выборкой.Мы оптимизируем модель сиамской сети, используя SGD с импульсом Нестерова для 15 эпох.Скорость обучения инициализируется значением 0,001 и снижается каждые 3 эпохи, пока в наборе разработчиков не будет обнаружено никаких улучшений.Финальная модель взята из эпохи с самым высоким уровнем развития AP.Все модели были реализованы в Torch BIBREF37 и использовали библиотеку rnn BIBREF38.Основываясь на результатах набора разработки, наши окончательные модели внедрения представляют собой сети LSTM с 3 сложенными слоями и 3 полностью связанными слоями с выходной размерностью 1024 в случае сиамских сетей.Окончательные результаты набора тестов приведены в таблице TABREF7.Мы включаем сравнение с лучшими предыдущими результатами по этой задаче из BIBREF13, а также с результатом использования стандартного DTW на входных MFCC (воспроизведенном из BIBREF13) и лучшим предыдущим результатом с использованием DTW, полученным с помощью функций кадра, изученных с помощью коррелированных автокодировщиков BIBREF21. .И классификатор, и сиамская модель внедрения LSTM превосходят все известные нам предыдущие результаты по этой задаче.Затем мы анализируем влияние выбора конструкции модели, а также сами изученные встраивания.В таблице TABREF10 показано влияние на производительность набора разработки количества сложенных слоев INLINEFORM0 , количества полностью связанных слоев INLINEFORM1 и LSTM по сравнению с ячейками GRU для вложений на основе классификатора.Наилучшая производительность в этом эксперименте достигается сетью LSTM с INLINEFORM2.Тем не менее, производительность по-прежнему улучшается с добавлением дополнительных слоев, что позволяет предположить, что мы сможем еще больше повысить производительность, добавив еще больше слоев любого типа.Однако мы исправили модель INLINEFORM3, чтобы можно было проводить больше экспериментов и анализа в разумные сроки.Таблица TABREF10 демонстрирует интересную тенденцию.Когда используется только один полностью связный уровень, сети GRU превосходят LSTM при достаточном количестве сложенных уровней.С другой стороны, как только мы добавим больше полносвязных слоев, LSTM превзойдут GRU.В первых нескольких строках таблицы TABREF10 мы используем 2, 3 и 4-слойные стеки LSTM и GRU, сохраняя при этом фиксированное количество полносвязных слоев в INLINEFORM0.Полезность наложения дополнительных слоев очевидна; однако даже с четырьмя сложенными слоями RNN по-прежнему уступают по производительности внедрениям BIBREF13 на основе CNN, пока мы не начнем добавлять полностью связанные слои.Изучив различные составные RNN, мы зафиксировали стек из трех слоев и изменили количество полностью связанных слоев.Ценность каждого дополнительного полностью связанного слоя явно выше, чем ценность добавления составных слоев.Все сети, обученные с 2 или 3 полносвязными слоями, получают более 0,4 AP в наборе разработки, в то время как составные RNN с 1 полносвязным слоем имеют около 0,3 AP или меньше.Это может поднять вопрос о том, может ли какая-то простая полностью связная модель быть всем, что необходимо; однако предыдущая работа показала, что этот подход не является конкурентоспособным BIBREF13, и для суммирования сегментов произвольной длины в представление с фиксированной размерностью необходимы сверточные или рекуррентные слои.Для сиамских сетей мы варьировали размерность выходного встраивания, как показано на рис.РИСУНОК 11.Этот анализ показывает, что встраивания, изученные сиамской сетью RNN, достаточно устойчивы к уменьшенной размерности, превосходя модель классификатора для всех размерностей 32 или выше и превосходя ранее сообщенную производительность набора разработчиков с встраиваниями на основе CNN BIBREF13 для всех размерностей INLINEFORM0 .Мыможно было бы ожидать, что изученные вложения будут более точными для слов, которые наблюдаются при обучении, чем для тех, которые не наблюдаются. Рис.FigREF11 измеряет этот эффект, показывая производительность как функцию количества вхождений слов разработчика в обучающий набор.Действительно, оба типа моделей гораздо более успешны для слов в словаре, и их эффективность тем выше, чем выше частота обучения слов.Однако производительность сиамской сети увеличивается быстрее, чем для классификатора, по мере увеличения частоты обучения.Это может быть связано с тем, что если тип слова встречается как минимум INLINEFORM0 раз в обучающем наборе классификатора, то он встречается как минимум INLINEFORM1 раз в сиамских парных обучающих данных.Чтобы получить лучшее качественное понимание различий между классифицирующими и сиамскими вложениями, а также изученного пространства встраивания в более общем плане, мы построили двумерную визуализацию некоторых из наших изученных вложений с помощью t-SNE BIBREF40 на рис. FigREF12. .Как для классификатора, так и для сиамских вложений существует заметная разница в качестве кластеров, образованных встраиваниями слов, которые ранее были замечены по сравнению с ранее невидимыми при обучении.Однако встраивания сиамской сети, по-видимому, имеют лучшие относительные расстояния между кластерами слов со схожим и разным произношением.Например, слово «программы» кажется равноудаленным от «проблемы» и «проблемы» в пространстве встраивания на основе классификатора, но в сиамском пространстве встраивания «проблемы» располагаются между проблемой и программами.Точно так же кластер демократии смещается в сторону фактического и особенно в сторону лучшего уважения различий в произношении.Для подтверждения таких закономерностей в целом необходимо дополнительное изучение изученных вложений с использованием большего количества данных и типов слов.Улучшения в встраивании невидимых слов из пространства встраивания классификатора в пространство встраивания сиамского языка (например, для демократии, утра и баскетбола) являются вероятным результатом оптимизации модели для относительных расстояний между словами.Наш главный вывод заключается в том, что акустическое встраивание слов на основе RNN превосходит предыдущие подходы, что было измерено с помощью задачи распознавания слов, связанной с поиском по запросу.Наши лучшие результаты получены с глубокими LSTM RNN с комбинацией нескольких сложенных слоев и нескольких полностью связанных слоев, оптимизированных с контрастными сиамскими потерями.Преимущество сиамских сетей заключается в том, что для любого набора обучающих данных они эффективно обучаются на гораздо большем наборе, в том смысле, что они измеряют потери и градиент для каждой возможной пары точек данных.Наши эксперименты показывают, что модели все еще можно улучшить с помощью дополнительных слоев.Кроме того, мы обнаружили, что для целей акустического внедрения слов полностью связанные слои очень важны и оказывают более значительный эффект на каждый слой, чем сложенные слои, особенно при обучении с помощью функции перекрестной энтропийной потери.Эти эксперименты представляют собой первоначальное исследование последовательных нейронных моделей для встраивания акустических слов.Есть ряд направлений дальнейшей работы.Например, хотя наш анализ показывает, что сиамские сети лучше, чем модели на основе классификаторов, при внедрении ранее невидимых слов, наши лучшие внедрения по-прежнему намного хуже для невидимых слов.Улучшения в этом направлении могут быть достигнуты за счет увеличения обучающих наборов или могут потребовать новых моделей, которые лучше моделируют общую структуру между словами.Другие направления будущей работы включают дополнительные формы надзора и обучения, а также применение к последующим задачам. | Акустические представления слов — векторные представления фиксированных размеров сегментов произнесенных слов переменной длины — начали рассматриваться для таких задач, как распознавание речи и поиск по запросу. Такие вложения можно изучать дискриминативно, так что они похожи для сегментов речи, соответствующих одному и тому же слову, и различны для сегментов, соответствующих разным словам. Недавняя работа показала, что акустическое встраивание слов может превосходить динамическое искажение времени при поиске по запросу и связанных с ним задачах распознавания слов. Однако область внедрения моделей и подходов к обучению все еще относительно неисследована. В этой статье мы представляем новые дискриминационные модели встраивания, основанные на рекуррентных нейронных сетях (RNN). Мы рассматриваем потери при обучении, которые были успешными в предыдущей работе, в частности потерю перекрестной энтропии для классификации слов и потерю контраста, которая явно направлена на разделение пар одного и того же слова и пар разных слов в условиях обучения «сиамской сети». Мы обнаружили, что встраивание как на основе классификатора, так и сиамских RNN улучшается по сравнению с ранее опубликованными результатами в задаче распознавания слов, при этом сиамские RNN превосходят модели классификации. Кроме того, мы представляем анализ изученных вложений и влияния таких переменных, как размерность и структура сети. | 4,037 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Контролируемое и неконтролируемое трансферное обучение для ответов на вопросы. Одна из наиболее важных характеристик интеллектуальной системы — способность понимать истории так же, как это делают люди.История представляет собой последовательность предложений и может быть в форме обычного текста BIBREF3 , BIBREF4 , BIBREF5 , BIBREF6 или устного контента BIBREF0 , где последний обычно требует, чтобы устный контент сначала был транскрибирован в текст с помощью автоматического распознавания речи (ASR). , и модель впоследствии обработает выходные данные ASR.Чтобы оценить степень понимания истории моделью, ее просят ответить на вопросы об этой истории.Такая задача называется ответом на вопрос (QA) и является давней, но сложной проблемой обработки естественного языка (NLP). За последние несколько лет было введено несколько сценариев и наборов данных QA.Эти сценарии отличаются друг от друга по-разному, включая длину истории, формат ответа и размер обучающего набора.В этой работе мы фокусируемся на контекстно-зависимом обеспечении качества с несколькими вариантами ответов, где ответ на каждый вопрос можно получить, обратившись к сопровождающей его истории, и каждый вопрос сопровождается набором вариантов ответа только с одним правильным ответом.Варианты ответов представлены в форме открытых предложений на естественном языке.Чтобы правильно ответить на вопрос, модель должна понять и рассуждать о взаимосвязях между предложениями в рассказе.Трансферное обучение BIBREF7 — это жизненно важный метод машинного обучения, целью которого является использование знаний, полученных в результате выполнения одной задачи, и применение их к другой, но связанной задаче, чтобы либо уменьшить необходимый размер данных для точной настройки, либо повысить производительность.Трансферное обучение, также известное как адаптация предметной области, добилось успеха во многих областях, таких как компьютерное зрение BIBREF8, ASR BIBREF9, BIBREF10 и НЛП BIBREF11, BIBREF12.В компьютерном зрении глубокие нейронные сети, обученные на крупномасштабном наборе данных классификации изображений, таком как ImageNet BIBREF13, оказались отличными экстракторами функций для широкого спектра визуальных задач, таких как создание подписей к изображениям BIBREF14, BIBREF15, BIBREF16 и визуальные ответы на вопросы BIBREF17, BIBREF18. , BIBREF19, BIBREF20 и другие.В НЛП трансферное обучение также успешно применяется для таких задач, как маркировка последовательностей BIBREF21, синтаксический анализ BIBREF22 и распознавание именованных объектов BIBREF23, среди других.Процедура трансферного обучения в данной работе проста и включает два этапа.Первым шагом является предварительное обучение модели на одном наборе данных MCQA, называемом исходной задачей, который обычно содержит большое количество обучающих данных.Второй шаг — точная настройка той же модели на другом наборе данных MCQA, который называется целевой задачей, которая нас действительно волнует, но обычно содержит гораздо меньше обучающих данных.Эффективность трансферного обучения оценивается по эффективности модели при выполнении целевой задачи.При контролируемом трансферном обучении как исходный, так и целевой наборы данных дают правильный ответ на каждый вопрос во время предварительного обучения и точной настройки, а модель контроля качества руководствуется правильным ответом для контролируемой оптимизации своей целевой функции на обоих этапах.Мы также рассматриваем трансферное обучение без учителя, когда правильный ответ на каждый вопрос в целевом наборе данных недоступен.Другими словами, весь процесс контролируется во время предварительного обучения, но не контролируется во время тонкой настройки.Метод самомаркировки, вдохновленный BIBREF26, BIBREF24, BIBREF25, используется во время точной настройки целевого набора данных.Мы представляем предлагаемый алгоритм трансферного обучения без учителя в алгоритме «Заключение и будущая работа».[!htbp]Передача обучения без контроля качества[1] Исходный набор данных с правильным ответом на каждый вопрос; Целевой набор данных без ответа; Количество эпох обучения.Оптимальная модель контроля качества $M^{*}$ Предварительно обучите модель контроля качества $M$ в исходном наборе данных.Для каждого вопроса в целевом наборе данных используйте $M$, чтобы предсказать ответ.Для каждого вопроса назначьте предсказанный ответ на вопрос как правильный.Выполните точную настройку $M$ в целевом наборе данных, как обычно.Достигните количества эпох обучения.Хотя трансферное обучение успешно применяется в различных приложениях, его применимость к обеспечению качества еще недостаточно изучена.В этой статье мы рассмотрим тест TOEFL на понимание на слух BIBREF0 и MCTest BIBREF1 с переносом обучения из MovieQA BIBREF2 с использованием двух существующих моделей контроля качества.Обе модели предварительно обучаются на MovieQA, а затем настраиваются на каждом целевом наборе данных, так что их производительность на двух целевых наборах данных значительно улучшается.В частности, одна из моделей соответствует последнему слову техники на всех целевых наборах данных; для теста на понимание на слух TOEFL он превосходит предыдущую лучшую модель на 7%. Трансферное обучение без каких-либо помеченных данных из целевой области называется трансферным обучением без учителя.Воодушевленные успехом трансферного обучения без учителя для адаптации говорящего BIBREF24, BIBREF25 и обобщения устных документов BIBREF26, мы дополнительно исследуем, возможно ли трансферное обучение без учителя для обеспечения качества. Несмотря на то, что трансферное обучение для обеспечения качества в целом не очень хорошо изучено, недавно было исследовано.Насколько нам известно, BIBREF27 — первая работа, в которой была предпринята попытка применить трансферное обучение для машинного понимания.Авторы продемонстрировали лишь ограниченный перенос между двумя задачами по обеспечению качества, но перенесенная система все равно была значительно лучше, чем случайный базовый уровень.BIBREF28 решил более конкретную задачу биомедицинского контроля качества с помощью переноса обучения из крупномасштабного набора данных.Наиболее похожая на нашу работа — BIBREF29, где авторы использовали простую технику трансферного обучения и добились значительно большей производительности.Однако ни одна из этих работ не изучает трансферное обучение без учителя, что особенно важно, когда целевой набор данных невелик.BIBREF30 предложил двухэтапную сеть синтеза, которая может генерировать синтетические вопросы и ответы для дополнения недостаточных обучающих данных без аннотаций.В этой работе мы стремимся рассмотреть случай, когда доступны вопросы из целевого домена.Среди нескольких существующих настроек обеспечения качества в этой работе мы фокусируемся на обеспечении качества с множественным выбором (MCQA).Мы особенно заинтересованы в том, чтобы понять, может ли модель контроля качества работать лучше в одном наборе данных MCQA, используя знания, перенесенные из другого набора данных MCQA.В разделе «Эксперименты с ответами на вопросы» мы сначала формализуем задачу MCQA.Затем мы опишем процедуры переноса обучения из одного набора данных в другой в разделе «Выводы и будущая работа».В этой статье мы рассматриваем два типа настроек трансферного обучения: один — с учителем, а другой — без учителя.В MCQA входными данными для модели являются история, вопрос и несколько вариантов ответа.История, обозначаемая $\mathbf {S}$, представляет собой список предложений, каждое из которых представляет собой последовательность слов из словарного набора $V$.Вопрос и каждый из вариантов ответа, обозначаемые $\mathbf {Q}$ и $\mathbf {C}$, представляют собой отдельные предложения, также состоящие из слов из $V$.Модель контроля качества направлена на выбор одного правильного ответа из нескольких вариантов ответа на основе информации, представленной в $\mathbf {S}$ и $\mathbf {Q}$. Мыиспользовал MovieQA BIBREF2 в качестве исходного набора данных MCQA, а тест на понимание на слух TOEFL BIBREF0 и MCTest BIBREF1 в качестве двух отдельных целевых наборов данных.Примеры трех наборов данных показаны в Таблице 1.Для проведения экспериментов мы используем сквозную сеть памяти (MemN2N) BIBREF34 и CNN на основе запросов (QACNN) BIBREF35, оба с открытым исходным кодом.Ниже мы кратко представляем две модели в разделах «Сквозные сети памяти» и «Внимание на основе запросов CNN» соответственно.Подробную информацию о моделях можно найти в оригинальных документах.Сквозная сеть памяти (MemN2N) сначала преобразует $\mathbf {Q}$ в векторное представление со слоем внедрения $B$ .В то же время все предложения в $\mathbf {S}$ также преобразуются в два разных представления предложений с двумя дополнительными слоями встраивания $A$ и $C$.Представление первого предложения используется вместе с представлением вопроса для создания механизма, подобного вниманию, который выводит сходство между каждым предложением в $\mathbf {S}$ и $\mathbf {Q}$ .Сходство затем используется для взвешивания представления второго предложения.Затем мы получаем сумму представления вопроса и представлений взвешенного предложения над $\mathbf {S}$ как $\mathbf {Q}^\prime $ .В исходной версии MemN2N $\mathbf {Q}^\prime $ декодируется для оценки вероятности быть ответом для каждого слова в фиксированном наборе.Затем в качестве ответа выбирается слово с наибольшей вероятностью.Однако в QA с множественным выбором $B$0 представлен в форме открытых предложений на естественном языке, а не в виде одного слова.Следовательно, мы модифицируем MemN2N, добавляя слой внедрения $B$1 для кодирования $B$2 как векторного представления $B$3 путем усреднения вложений слов в $B$4.Затем мы вычисляем сходство между каждым представлением выбора $B$5 и $B$6.В качестве ответа затем выбирается вариант $B$7 с наибольшей вероятностью.CNN на основе запросов (QACNN) сначала использует уровень внедрения $E$ для преобразования $\mathbf {S}, \mathbf {Q}$ и $\mathbf {C}$ в встраивание слов.Затем слой сравнения генерирует карту сходства вопросов-историй $\mathbf {SQ}$ и карту сходства выбора историй $\mathbf {SC}$ .Две карты сходства затем передаются в двухэтапную архитектуру CNN, где к каждому из двух этапов применяется механизм внимания, основанный на вопросах, на основе $\mathbf {SQ}$.CNN первого этапа генерирует карту внимания на уровне слов для каждого предложения в $\mathbf {S}$ , которая затем передается в CNN второго этапа для создания карты внимания на уровне предложения и получения функций выбора-ответа для каждого из выбор.Наконец, классификатор, состоящий из двух полностью связанных слоев, собирает информацию по каждому признаку выбора ответа и выводит наиболее вероятный ответ.Обучаемыми параметрами являются слой внедрения $E$, который преобразует $\mathbf {S}, \mathbf {Q},$ и $\mathbf {C}$ в вложения слов, двухэтапную CNN $\mathbf {S}, \mathbf {Q}$0 и $\mathbf {S}, \mathbf {Q}$1, которые объединяют информацию от слова до уровня предложения и от предложения до уровня истории, а также два полностью связанных слоя $\mathbf {S}, \mathbf {Q}$2 и $\mathbf {S}, \mathbf {Q}$3, которые делают окончательный прогноз.Мы упоминаем здесь обучаемые параметры, потому что в разделе «Эксперименты с ответами на вопросы» мы будем проводить эксперименты для анализа переносимости QACNN путем точной настройки некоторых параметров, сохраняя при этом другие фиксированными.Поскольку QACNN — это недавно предложенная модель контроля качества, имеющая относительно сложную структуру, мы проиллюстрируем ее архитектуру на рисунке 1, которого достаточно для понимания остальной части статьи.Для получения более подробной информации обратитесь к оригинальной статье BIBREF35.Для предварительного обучения MemN2N и QACNN на MovieQA мы следовали той же процедуре, что и в BIBREF2 и BIBREF35 соответственно.Каждая модель была обучена на обучающем наборе задачи MovieQA и настроена на наборе разработчиков, а наиболее эффективные модели из набора разработчиков позже были точно настроены на целевом наборе данных.Во время тонкой настройки модель также обучалась на обучающем наборе целевых наборов данных и настраивалась на наборе разработчиков, а производительность на тестовом наборе целевых наборов данных сообщалась как окончательный результат.Мы используем точность в качестве показателя производительности.В таблице 2 представлены результаты нашего трансферного обучения по TOEFL-manual, TOEFL-ASR, MC160 и MC500, а также производительность предыдущих лучших моделей и нескольких абляций, в которых не использовалось предварительное обучение или тонкая настройка.Из таблицы 2 мы имеем следующие наблюдения.В строках (a) и (g) показаны соответствующие результаты, когда QACNN и MemN2N обучаются непосредственно на целевых наборах данных без предварительного обучения на MovieQA.В строках (b) и (h) показаны результаты, когда модели обучаются только на данных MovieQA.В строках (c) и (i) показаны результаты, когда модели обучены как на MovieQA, так и на каждом из четырех целевых наборов данных и протестированы на соответствующем целевом наборе данных.Мы видим, что результаты, достигнутые в (a), (b), (c), (g), (h) и (i), хуже, чем их точно настроенные аналоги (d), (e), (f). , и (к).Благодаря трансферному обучению и QACNN, и MemN2N работают лучше на всех целевых наборах данных.Например, QACNN достигает точности только 57,5 % на MC160 без предварительного обучения в MovieQA, но точность увеличивается на 18,9 % при предварительном обучении (строки (d) и (a)).Кроме того, благодаря трансферному обучению, QACNN превосходит предыдущие лучшие модели по TOEFL-manual на 7%, TOEFL-ASR BIBREF33 на 6,5%, MC160 BIBREF36 на 1,1% и MC500 BIBREF32 на 1,3% и становится самой современной -art для всех целевых наборов данных.Для QACNN параметрами обучения являются $E, W_{CNN}^{(1)}, W_{CNN}^{(2)}, W_{FC}^{(1)}$ и $W_{FC. }^{(2)}$ (Раздел «Внимание на основе запросов CNN»).Чтобы лучше понять, как трансферное обучение влияет на производительность QACNN, мы также сообщаем о результатах сохранения фиксированных некоторых параметров и лишь тонкой настройки других параметров.Мы выбираем тонкую настройку либо только последнего полносвязного слоя $W_{FC}^{(2)}$, сохраняя при этом другие параметры фиксированными (строка (d) в Таблице 2), либо двух последних полносвязных слоев $W_ {FC}^{(1)}$ и $W_{FC}^{(2)}$ (строка (e)), а также весь QACNN (строка (f)).Для руководства по TOEFL, TOEFL-ASR и MC500 QACNN работает лучше всего, когда были точно настроены только два последних полностью связанных уровня; для MC160 он работает лучше всего, когда была точно настроена только последняя полносвязная часть.Обратите внимание, что для обучения QACNN мы следовали той же процедуре, что и в BIBREF35, при этом для инициализации слоя внедрения использовались предварительно обученные векторы слов GloVe BIBREF37, которые не обновлялись во время обучения.Таким образом, уровень внедрения не зависит от обучающего набора, а эффективные словари одинаковы.Интересно отметить, что точная настройка всей QACNN не обязательно приводит к наилучшему результату.Для MC500 точность QACNN падает на 4,6% по сравнению с простой настройкой двух последних полносвязных слоев (строки (f) и (e)).Мы предполагаем, что это связано с объемом обучающих данных целевых наборов данных — когда обучающий набор целевого набора данных слишком мал, точная настройка всех параметров сложной модели, такой как QACNN, может привести к переобучению.Это открытие согласуется с другими областями, где трансферное обучение хорошо изучено, такими как распознавание объектов BIBREF38.Ожидается, что MemN2N при обучении непосредственно на целевом наборе данных без предварительного обучения на MovieQA превзойдет MemN2N, предварительно обученный на MovieQA, без точной настройки целевого набора данных (строки (g) против (h)), поскольку модель оценивается на целевом наборе данных.Однако для QACNN это, на удивление, не так: QACNN, предварительно обученный на MovieQA без точной настройки целевого набора данных, превосходит QACNN, обученный непосредственно на целевом наборе данных без предварительного обучения на MovieQA (строки (b) и (a) ).Мы связываем это с ограниченным размером целевого набора данных и сложной структурой QACNN. Мы провели эксперименты по изучению взаимосвязи между объемом обучающих данных из целевого набора данных для точной настройки модели и производительностью.Сначала мы предварительно обучаем модели в MovieQA, затем варьируем размер обучающих данных целевого набора данных, используемый для их точной настройки.Обратите внимание, что для QACNN мы настраиваем только два последних полносвязных слоя, а не всю модель, поскольку это обычно дает наилучшую производительность в соответствии с Таблицей 2.Результаты показаны в Таблице 3.Как и ожидалось, чем больше обучающих данных используется для точной настройки, тем выше производительность модели.Мы также наблюдаем, что степень улучшения при использовании от 0% до 25% целевых данных обучения постоянно выше, чем при использовании от 25% до 50%, от 50% до 75% и от 75% до 100%.Если использовать в качестве примера QACNN, настроенную по руководству TOEFL, точность QACNN улучшается на 2,7% при изменении размера обучения от 0% до 25%, но улучшается только на 0,9%, 0,5% и 0,7% при изменении размер обучения от 25% до 50%, от 50% до 75% и от 75% до 100% соответственно.Мы также варьируем размер MovieQA для предварительного обучения, чтобы понять, насколько большим должен быть исходный набор данных, чтобы сделать возможным трансферное обучение.Результаты показаны в Таблице 4 .Мы считаем, что даже небольшое количество исходных данных может помочь.Например, если использовать только 25 % MovieQA для предварительного обучения, точность на MC160 увеличится на 6,3 %.Это связано с тем, что 25% обучающего набора MovieQA (2462 примера) по-прежнему намного больше, чем обучающий набор MC160 (280 примеров).По мере увеличения размера исходного набора данных производительность QACNN продолжает улучшаться.Мы заинтересованы в том, чтобы понять, какие типы вопросов принесут наибольшую пользу от трансферного обучения.Согласно официальному руководству по тесту TOEFL, вопросы TOEFL можно разделить на 3 типа.Вопросы типа 1 предназначены для базового понимания истории.Вопросы типа 2 выходят за рамки базового понимания, но проверяют понимание функций высказываний или отношения, которое выражает говорящий.Вопросы типа 3 также требуют умения устанавливать связи между различными частями истории, делать выводы, делать выводы или формировать обобщения.Мы использовали разделение, предоставленное BIBREF33, которое содержит 70/18/34 вопросов типа 1/2/3.Мы сравниваем производительность QACNN и MemN2N по разным типам вопросов в руководстве TOEFL с предварительной тренировкой на MovieQA и без нее и показываем результаты на рисунке 2.На рисунке 2 мы можем видеть, что как для QACNN, так и для MemN2N их производительность по всем трем типам вопросов улучшается после предварительного обучения, показывая, что эффективность трансферного обучения не ограничивается конкретными типами вопросов.До сих пор мы изучали свойство контролируемого трансферного обучения для контроля качества, что означает, что во время предварительного обучения и тонкой настройки как исходный, так и целевой наборы данных предоставляют правильный ответ на каждый вопрос.Сейчас мы проводим эксперименты по трансферному обучению без присмотра, описанные в разделе «Заключение и будущая работа» (Алгоритм «Заключение и будущая работа»), где ответы на вопросы в целевом наборе данных недоступны.Мы использовали QACNN в качестве модели контроля качества и все параметры $(E, W_{CNN}^{(1)}, W_{CNN}^{(2)}, W_{FC}^{(1)},$ и $W_{FC}^{(2)})$ были обновлены во время тонкой настройки в этом эксперименте.Поскольку диапазон точности тестирования TOEFL-серии (TOEFL-manual и TOEFL-ASR) отличается от диапазона точности тестирования MCTest (MC160 и MC500), их результаты отображаются отдельно на рисунке UID29 и рисунке UID30 соответственно.На рисунках UID29 и Рисунок UID30 мы можем видеть, что без достоверных данных в целевом наборе данных для контролируемой точной настройки перенос обучения из исходного набора данных все равно может повысить производительность за счет простого итеративного механизма самомаркировки.Для TOEFL-manual и TOEFL-ASR QACNN достигает высочайшей точности тестирования на 7-й и 8-й эпохах, превосходя своего аналога без тонкой настройки примерно на 4% и 5% соответственно.Для MC160 и MC500 QACNN достигает пика в эпоху 3 и 6, превосходя свой аналог без тонкой настройки примерно на 2% и 6% соответственно.Результаты также показывают, что эффективность трансферного обучения без учителя по-прежнему хуже, чем контролируемое трансферное обучение, что неудивительно, но эффективность трансферного обучения без учителя, когда не предоставляются основные истинные метки, подтверждается.Чтобы лучше понять процесс неконтролируемого трансферного обучения QACNN, мы визуализируем изменения карты внимания на уровне слов во время обучения в эпоху 1, 4, 7 и 10 на рисунке 4.В качестве примера мы используем тот же вопрос из руководства по TOEFL, который показан в Таблице 1.На рисунке 4 мы можем видеть, что по мере увеличения эпох обучения QACNN больше фокусируется на контексте истории, связанном с вопросом и правильным выбором ответа.Например, правильный ответ связан с «классным проектом».В Эпохе 1 и 4 модель не фокусируется на фразе «представление класса», но модель обращает внимание на фразу в Эпохе 7 и 10.Это демонстрирует, что даже без достоверных данных итерационный процесс в алгоритме «Выводы и будущая работа» по-прежнему способен привести к тому, что модель контроля качества постепенно сосредоточится на важной части истории для ответа на вопрос.В этой статье мы демонстрируем, что простая техника трансферного обучения может быть очень полезна для решения задачи ответа на вопрос с несколькими вариантами ответов.Мы используем QACNN и MemN2N в качестве моделей контроля качества, при этом MovieQA является исходной задачей, а тест на понимание на слух TOEFL и MCTest — целевыми задачами.Благодаря предварительному обучению на MovieQA производительность обеих моделей на целевых наборах данных значительно улучшается.Модели также требуют гораздо меньше обучающих данных из целевого набора данных для достижения производительности, аналогичной моделям без предварительного обучения.Мы также проводим эксперименты по изучению влияния трансферного обучения на разные типы вопросов и показываем, что эффективность трансферного обучения не ограничивается конкретными типами вопросов.Наконец, мы показываем, что с помощью простой итеративной техники самомаркировки трансферное обучение по-прежнему полезно, даже когда правильные ответы для примеров целевого набора данных QA недоступны, посредством количественных результатов и визуального анализа.Одной из областей будущих исследований будет обобщение результатов переноса обучения, представленных в этой статье, на другие модели и наборы данных обеспечения качества.Кроме того, поскольку исходным форматом данных теста на понимание на слух TOEFL является аудио, а не текст, стоит попытаться инициализировать уровень внедрения QACNN с помощью семантических или акустических внедрений слов, полученных непосредственно из речи BIBREF39, BIBREF40, BIBREF41 вместо тех, которые узнал из текста BIBREF42, BIBREF37. | Хотя трансферное обучение оказалось успешным для таких задач, как распознавание объектов и речи, его применимость к ответам на вопросы (QA) еще недостаточно изучена. В этой статье мы проводим обширные эксперименты для исследования возможности переноса знаний, полученных из исходного набора данных QA, в целевой набор данных с использованием двух моделей QA. Результаты обеих моделей в тесте на понимание на слух TOEFL (Tseng et al., 2016) и MCTest (Richardson et al., 2013) значительно улучшаются благодаря простой методике переноса обучения от MovieQA (Tapaswi et al., 2016). В частности, одна из моделей соответствует последнему слову техники на всех целевых наборах данных; в тесте на понимание на слух TOEFL он превосходит предыдущую лучшую модель на 7%. Наконец, мы показываем, что трансферное обучение полезно даже в сценариях без присмотра, когда правильные ответы для примеров целевого набора данных QA недоступны. | 3,931 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Об эффективности расширения набора функций с помощью кластеров вложений слов. Многие исследовательские попытки предложили новые функции, которые улучшают производительность алгоритмов обучения при решении конкретных задач.Такие функции часто мотивируются знанием предметной области или ручным трудом.Несмотря на то, что такие решения полезны и зачастую современны, адаптация таких решений к системам НЛП для разных задач может быть сложной и трудоемкой BIBREF0 .Поэтому ценными являются простые, но общие и мощные методы, которые хорошо работают в нескольких наборах данных. BIBREF1. Подход, который в последнее время стал чрезвычайно популярным в задачах НЛП, заключается в обучении встраиванию слов без присмотра.Эти вложения представляют собой плотные векторы, которые проецируют слова или короткие фрагменты текста, как фразы, в векторное пространство, где размеры должны отражать свойства текста.Такие внедрения затем можно использовать либо как функции с готовыми алгоритмами, такими как машины опорных векторов, либо для инициализации систем глубокого обучения BIBREF2.Однако, как показано в BIBREF3, линейные архитектуры лучше работают в многомерных дискретных пространствах по сравнению с непрерывными.Последнее, вероятно, является основной причиной высокой производительности модели векторного пространства BIBREF4 в таких задачах, как классификация текста с помощью линейных моделей, таких как SVM.Целью данной работы является использование линейных алгоритмов с использованием преимуществ выразительности встраивания текста.В этой статье мы исследуем гибридный подход, который использует встраивание текста в качестве прокси для создания функций.Руководствуясь аргументом о том, что встраивания текста способны кодировать семантику текста, мы исследуем, как кластеризация встраивания текста может повлиять на выполнение различных задач НЛП.Хотя такой подход использовался в различных исследованиях при разработке признаков, выбор векторов слов и количества кластеров остается процедурой проб и ошибок.В этой работе мы представляем эмпирическую оценку различных задач, чтобы проверить, полезны ли такие функции и когда это возможно.Кластеры слов использовались в качестве функций в различных задачах, таких как маркировка части речи и NER.Овопути и др.Owoputi13 использует кластеры Брауна BIBREF5 в POS-теггере, показывая, что этот тип функций несет в себе богатые лексические знания, поскольку они могут заменять лексические ресурсы, такие как географические справочники.Кириченко и др. КириченкоZM14 обсуждает их использование для классификации настроений, а Hee et al. HeeLH16 включает их в задачу обнаружения иронии в Твиттере.Риттер и др.Ritter2011 также вводит кластеры слов в теггер NER.Хотя эти работы показывают, что кластеры слов полезны, невозможно дать четких указаний о том, как и когда их использовать.В этой работе мы эмпирически демонстрируем, что, используя различные типы встраивания в трех задачах НЛП с данными Твиттера, нам удается достичь лучшей или близкой к современной производительности в трех задачах НЛП: (i) Распознавание именованных объектов (NER). сегментация, (ii) классификация NER, (iii) детальный анализ настроений и (iv) детальная количественная оценка настроений.По каждой из трех задач мы достигаем более высокой производительности, чем без использования функций, что говорит об эффективности функций членства в кластере.Важно отметить, что наша оценка по сравнению с предыдущей работой BIBREF6, в которой основное внимание уделяется старым и хорошо изученным наборам данных, использует недавние и сложные наборы данных, составленные из твитов.Полученные результаты по всем заданиям позволяют выявить важные аспекты использования кластеров слов и, следовательно, дать рекомендации.Хотя полученные нами оценки являются самыми современными, наш анализ показывает, что производительность в таких задачах далека от совершенства и, следовательно, указывает на то, что еще есть много возможностей для улучшения и будущей работы.Вложения слов связывают слова с плотными низкоразмерными векторами.Недавно было предложено несколько моделей для получения таких вложений.Среди прочих была показана эффективна модель скипграммы (скипграммы) с отрицательной выборкой BIBREF7, модель непрерывного мешка слов (cbow) BIBREF7 и Glove (перчатка) BIBREF8.Обучение этих моделей не требует аннотированных данных и может выполняться с использованием больших объемов текста.Такую модель можно рассматривать как функцию INLINEFORM0, которая проецирует слово INLINEFORM1 в трехмерное пространство INLINEFORM2: INLINEFORM3 , где INLINEFORM4 предопределен.Здесь мы сосредоточимся на приложениях, использующих данные из Twitter, которые создают некоторые трудности из-за своей краткости, использования креативной лексики, сокращений и сленга.Для всех задач нашего экспериментального исследования мы используем 36 миллионов англоязычных твитов, собранных в период с августа по сентябрь 2017 года.Был применен этап предварительной обработки для замены URL-адресов заполнителем и добавления знаков препинания.Итоговый размер словаря составил около 1,6 миллиона слов.В дополнение к собранному нами внутридоменному корпусу мы используем векторы GloVe, обученные на статьях Википедии, чтобы исследовать влияние внедоменных векторов слов.Мы кластеризуем вложения с помощью INLINEFORM0 -Means.Кластеры k-средних инициализируются с использованием «k-means++», как предложено в BIBREF9, при этом алгоритм выполняется в течение 300 итераций.Мы пробуем разные значения для INLINEFORM1.Для каждого INLINEFORM2 мы повторяем эксперимент по кластеризации с различной начальной инициализацией 10 раз и выбираем результат кластеризации, который минимизирует инерцию кластера.Мы оцениваем предлагаемый подход к расширению пространства признаков по четырем задачам: (i) сегментация NER, (ii) классификация NER, (iii) детальная классификация настроений и (iv) детальная количественная оценка настроений.В следующих разделах представлены настройки оценки, которые мы использовали.Для каждой из задач мы используем назначенные обучающие наборы для обучения алгоритмов обучения и сообщаем оценки показателей оценки, использованных в соответствующих частях теста.NER касается классификации текстовых сегментов по заранее определенному набору категорий, таких как люди, организации и места.Мы используем данные последнего конкурса в NER для Twitter, который был выпущен в рамках 2-го семинара по шумному пользовательскому тексту BIBREF10.В частности, организаторы предоставили аннотированные твиты с 10 именами типов объектов (человек, фильм, спортивная команда, продукт и т. д.).и задача состояла из двух подзадач: 1) обнаружение границ сущности и 2) классификация сущности к одному из 10 типов.Мерой оценки для обеих подзадач является мера F INLINEFORM0.Ниже приведен пример твита, который содержит два именованных объекта.Обратите внимание, что именованные сущности могут охватывать несколько слов в тексте: INLINEFORM0 сегодня... Музыка 90-х... старая школа с INLINEFORM1 Наша модель решения задачи — это подход обучения поиску.В частности, мы следим за BIBREF11, который занял 2-е место среди 10 участников вышеупомянутого конкурса BIBREF10.Модель использует созданные вручную функции, такие как n-граммы, теги части речи, использование заглавных букв и членство в географических справочниках.Используемый алгоритм принадлежит к семейству обучения поиску задач структурированного прогнозирования BIBREF12.Эти методы разлагают проблему в пространстве поиска с состояниями, действиями и политиками, а затем изучают гипотезу, управляющую политикой в пространстве состояний-действий.Кодировка BIO используется для присвоения токену соответствующих меток, где B-тип используется для первого токена объекта, I-тип для внутренних токенов в случае многочленных сущностей и O для токенов, не являющихся сущностями.В таблицах TABREF6 и TABREF7 представлены результаты для различного количества кластеров в трех векторных моделях, используемых для создания кластеров.Для всех экспериментов мы сохраняем одинаковую параметризацию алгоритма обучения и представляем производительность каждого запуска на официальном наборе тестов.Что касается задачи сегментации, мы замечаем, что добавление кластеров слов в качестве функций повышает производительность лучшей модели до 1,1 балла F, одновременно повышая производительность в большинстве случаев.Только в одном случае, для перчаточных векторов INLINEFORM0, наблюдается падение по всему количеству используемых кластеров.Что касается количества кластеров, то лучшие результаты обычно получаются между 250 и 1000 классами для всех векторных моделей слов.Эти измерения кажутся достаточными для подзадачи трех классов, с которой мы имеем дело.Различные модели векторов слов работают одинаково, и поэтому нельзя отдать предпочтение определенному типу векторов слов.Интересно, что кластеры, изученные на векторах GloVe Википедии, предлагают конкурентоспособную производительность по сравнению с векторами слов внутри предметной области, используемыми в других случаях, показывая, что для построения таких представлений можно полагаться на данные вне предметной области.Что касается задачи классификации (таблица TABREF7)мы обычно наблюдаем падение производительности тегера при работе с 10 классами.По сути, это соответствует проблеме нескольких классов с 21 классом: один для типа, не являющегося сущностью, и два класса для каждого типа сущности.В этой ситуации мы замечаем, что лучшие результаты в большинстве случаев получаются для большего числа классов (1000 или 2000), возможно, из-за лучшей дискриминационной способности в более высоких измерениях.Также обратите внимание, что в некоторых случаях добавление функций кластера слов не обязательно улучшает производительность.Напротив, это может ухудшить его качество, как это видно в случае перчаточных кластеров слов INLINEFORM0.Как и в случае с сегментацией, мы не наблюдаем модель вектора слов, которая явно превосходила бы остальные.Наконец, мы отмечаем такую же конкурентоспособность кластеров слов из Википедии, особенно кластеров перчаток INLINEFORM1, которые получили лучший показатель F1.Задача детальной классификации настроений состоит в прогнозировании тональности входного текста по пятибалльной шкале (настроения INLINEFORM0 {ОченьНегативные, Негативные, Нейтральные, Позитивные, ОченьПозитивные}).Мы используем постановку задачи 4 SemEval2016 «Анализ настроений в Твиттере» и набор данных, выпущенный организаторами для подзадачи 4 BIBREF13.Витого, обучение (отв.тест)данные состоят из 9070 (соответственно.20 632) твитов.Мера оценки, выбранная в BIBREF13 для задачи в усредненной по макросам средней абсолютной ошибке (MAE INLINEFORM0).Это мера погрешности, поэтому чем меньше значение, тем лучше.Цель меры — принять во внимание порядок классов при наказании за решение классификатора.Например, ошибочная классификация очень негативного примера как очень позитивного является большей ошибкой, чем классификация его как негативного или нейтрального.Наложение штрафа на классификатор в зависимости от того, насколько далеки прогнозы от истинного класса, фиксируется MAE INLINEFORM1 BIBREF14 .Кроме того, преимуществом использования макроверсии вместо стандартной версии показателя является устойчивость к дисбалансу классов в данных.Алгоритм обучения. Чтобы продемонстрировать эффективность функций членства в кластере, мы полагаемся на систему BIBREF15, которая заняла 1-е место среди 11 участников, и использует логистическую регрессию в качестве алгоритма обучения.Мы следуем тем же шагам извлечения признаков, которые состоят из извлечения функций n-грамм и n-грамм символов, подсчета частей речи, а также оценок настроений с использованием стандартных лексиконов настроений, таких как BIBREF16 Бинга Лю и лексиконы MPQA BIBREF17.За полным описанием мы отсылаем заинтересованного читателя к BIBREF15.Чтобы оценить производительность предлагаемого метода расширения функций, мы представляем в таблице TABREF10 усредненные по макросам оценки средней абсолютной ошибки для различных настроек на официальном тестовом наборе BIBREF13.Во-первых, обратите внимание, что лучший результат в тестовых данных достигается с использованием функций членства в кластере, где встраивания слов обучаются с использованием модели скипграммы.Достигнутая оценка улучшает современное состояние набора данных, которое, насколько нам известно, было получено BIBREF15.Также обратите внимание, что оценка тестовых данных улучшается для каждого типа используемых вложений, а это означает, что увеличение пространства признаков с помощью функций членства в кластере помогает решить задачу классификации настроений.Также обратите внимание, что использование кластеров, созданных внедоменными внедрениями, обученными на Википедии и выпущенными как часть BIBREF8, работает на удивление хорошо.Можно было ожидать, что их добавление повредит производительности.Однако их ценность, вероятно, обусловлена огромным количеством данных, используемых для их обучения, а также относительно простым типом слов (например, «удивительно», «ужасно»), которые являются отличительными для этой задачи.Наконец, обратите внимание, что в каждой из настроек наилучшие результаты достигаются, когда количество кластеров находится в пределах INLINEFORM0, как в задачах NER.Сравнивая производительность различных вложений, нельзя утверждать, что какое-то конкретное вложение работает лучше.Однако очевидно, что увеличение пространства признаков признаками, полученными с использованием предложенного метода, предпочтительно данными внутри предметной области, повышает производительность классификации и снижает MAE INLINEFORM1.Из результатов таблицы TABREF10 видно, что добавление признаков членства в кластере улучшает эффективность классификации настроений.Чтобы лучше понять, почему эти кластеры помогают, мы вручную проверили выборку слов, связанных с кластерами.Чтобы повысить приемлемость этих результатов, мы сначала удалили хэштеги и отфильтровали результаты, используя английскую лексику.В таблице TABREF11 мы представляем образцы слов из двух наиболее характерных кластеров с точки зрения задачи классификации настроений.Обратите внимание, как слова с положительным и отрицательным значением расположены в соответствующих группах.Количественная оценка — это проблема оценки распространенности класса в наборе данных.В то время как классификация касается присвоения категории одному экземпляру, например, маркировки твита с указанием настроения, которое он передает, цель количественной оценки состоит в том, чтобы с учетом набора примеров оценить относительную частоту одного класса.Таким образом, количественная оценка настроений пытается ответить на такие вопросы, как «Учитывая набор твитов о новом iPhone, какова доля очень позитивных?».В остальном мы показываем влияние признаков, полученных из кластеров вложений слов, в задаче мелкозернистой классификации, которая также была частью задачи SemEval-2016 «Анализ настроений в Twitter» BIBREF13.ОбучениеАлгоритм. Для выполнения задачи количественного определения мы полагаемся на подход классификации и подсчета, который показал свою эффективность в связанной задаче бинарного количественного определения BIBREF15.Идея состоит в том, что при наличии набора примеров по конкретному предмету сначала классифицируются случаи, а затем суммируются результаты.С этой целью мы используем те же шаги и данные представления признаков, что и для мелкозернистой классификации (раздел 3.2).Обратите внимание, что данные задачи связаны с субъектами (подробно описаны в BIBREF13), и, следовательно, количественная оценка выполняется для твитов субъекта.Для каждой из пяти категорий результатом подхода является 5-мерный вектор с предполагаемой распространенностью категорий.Мерой оценки проблемы является расстояние землеройного транспорта (EMD) BIBREF18.EMD — это мера ошибки, поэтому чем меньше значение, тем лучше.Он предполагает упорядоченные категории, которые в нашей задаче определены естественным образом.Далее, если предположить, что расстояние между последовательными категориями (например, «Положительный» и «Очень положительный») равно 1, показатель рассчитывается по формуле: INLINEFORM0, где INLINEFORM0 — количество категорий (в нашем случае пять), а INLINEFORM1 и INLINEFORM2 — истинная и прогнозируемая распространенность соответственно BIBREF19. Полученные результатыВ таблице TABREF13 представлены результаты дополнения набора функций предлагаемыми функциями.Мы используем логистическую регрессию в качестве базового классификатора для подхода классификации и подсчета.Обратите внимание на положительное влияние особенностей на выполнение задачи.Добавление функций, полученных в результате кластеризации вложений, последовательно повышает производительность.Интересно, что наилучшая производительность ( INLINEFORM0 ) достигается при использовании векторов вне домена, как в задаче классификации NER.Также обратите внимание, как этот подход улучшает производительность по сравнению с современной производительностью в задаче ( INLINEFORM1 ) BIBREF13 , проводимой методом BIBREF20 .Однако улучшение по сравнению с методом BIBREF20 не обязательно означает, что классификация и подсчет работают лучше в этой задаче.Это означает, что используемый нами набор функций богаче, что, в свою очередь, подчеркивает ценность надежных механизмов извлечения функций, которые являются предметом этой статьи.Мы эмпирически показали эффективность включения функций членства в кластере в конвейер извлечения признаков для задач распознавания именованных объектов, классификации настроений и количественной оценки.Наши результаты убедительно свидетельствуют о том, что включение функций членства в кластере повышает производительность задач.Тот факт, что повышение производительности одинаково в четырех исследованных нами задачах, еще раз подчеркивает их полезность как для практиков, так и для исследователей.Хотя наше исследование не выявило явного победителя в отношении типа векторов слов (skipgram, cbow или GloVe), наши результаты показывают, что сначала следует попробовать вложения скип-грамм низкой размерности ( INLINEFORM0 ) и большого количества кластеров ( например, INLINEFORM1), поскольку результаты, полученные с использованием этих настроек, неизменно конкурентоспособны.Наши результаты также показывают, что использование данных извне, таких как статьи в Википедии в данном случае, для построения вложений слов является хорошей практикой, поскольку результаты, полученные нами с этими векторами, также являются конкурентоспособными.Положительные стороны внедоменных вложений и их комбинации с внутридоменными еще предстоит изучить. | Эмпирически доказано, что кластеры слов существенно повышают производительность при выполнении различных задач. Несмотря на их важность, их включение в стандартный конвейер разработки признаков больше опирается на процедуру проб и ошибок, при которой оцениваются несколько гиперпараметров, таких как количество используемых кластеров. Чтобы лучше понять роль таких функций, мы систематически оцениваем их влияние на четыре задачи: сегментацию и классификацию названных объектов, а также классификацию и количественную оценку настроений по пятибалльной шкале. Наши результаты убедительно свидетельствуют о том, что функции членства в кластере улучшают производительность. | 2,738 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Предсказание действительной специфичности, независимое от предметной области. Специфика предложения измеряет его «качество принадлежности или уникального отношения к конкретному субъекту» BIBREF0 .Его часто прагматично определяют как уровень детализации предложения BIBREF1, BIBREF2.При общении конкретность корректируется в соответствии с намерениями автора или говорящего BIBREF3.В приведенных ниже примерах второе предложение явно более конкретное, чем первое: Пример 1: Этот бренд очень популярен, и многие люди регулярно используют его продукцию.Пример 2: Тушь для ресниц является наиболее часто используемым косметическим средством, и женщины тратят на нее в среднем 4000 долларов за свою жизнь.Исследования продемонстрировали важную роль специфичности предложения в понимании прочитанного BIBREF4 и в установлении точки соприкосновения в диалоге BIBREF5.Также было показано, что это ключевое свойство в анализах и приложениях, таких как обобщение BIBREF6, интеллектуальный анализ аргументации BIBREF7, анализ политического дискурса BIBREF8, оценка студенческих дискуссий BIBREF9, BIBREF0, обнаружение обмана BIBREF10 и генерация диалога BIBREF11. Несмотря наих полезность, предикторы специфичности предшествующего предложения BIBREF1 , BIBREF2 , BIBREF0 обучаются на предложениях из определенных доменов (новости или обсуждения в классе) и, как было обнаружено, не оправдывают ожиданий при применении к другим доменам BIBREF10 , BIBREF0 .Их также обучают обозначать предложение как общее или конкретное BIBREF1 , BIBREF2 или с низкой/средней/высокой специфичностью BIBREF0 , хотя на практике специфичность анализируется как непрерывное значение BIBREF6 , BIBREF12 , BIBREF7 , BIBREF8 , BIBREF9 , BIBREF10 , как это должно быть BIBREF13. ВВ этой работе мы представляем неконтролируемую систему адаптации предметной области для прогнозирования специфичности предложений, специально разработанную для вывода действительных оценок.Он эффективно обобщает анализ специфичности предложений на области, где нет помеченных данных, и выводит значения, близкие к реальному распределению специфичности предложений.Наша основная структура — это неконтролируемая система адаптации домена, основанная на самоансемблировании BIBREF14, BIBREF15, которая одновременно уменьшает ошибки прогнозирования источника и генерирует представления объектов, устойчивые к шуму и в разных областях.Прошлые применения этой техники были сосредоточены на проблемах компьютерного зрения; Чтобы сделать ее эффективной для задач обработки текста, мы модифицируем сеть, чтобы лучше использовать помеченные данные в исходном домене, и исследуем несколько методов увеличения данных для текста.Далее мы предлагаем метод апостериорной регуляризации BIBREF16, который обычно применяется к сценарию, в котором легко получить грубые категории меток, но необходимы детальные прогнозы.В частности, наш термин регуляризации стремится приблизить распределение апостериорных вероятностей классификатора к распределению заранее заданного целевого распределения, которое в нашем случае является распределением специфичности, полученным из исходной области.Результаты экспериментов показывают, что наша система генерирует более точные реальные прогнозы специфичности предложений, которые хорошо коррелируют с человеческими суждениями, в трех доменах, которые сильно отличаются от исходного домена (новости): Twitter, обзоры Yelp и обзоры фильмов.По сравнению с современной системой, обученной на новостных данных BIBREF2, наша лучшая настройка обеспечивает снижение средней абсолютной ошибки на 50–68 % и увеличивает корреляции Тау Кендалла и Спирмена на 0,07–0,10 и 0,12–0,13 соответственно.Наконец, мы проводим оценку на основе задач, которая демонстрирует полезность прогнозирования специфичности предложений при создании диалогов в открытой области.Предыдущая работа показала, что качество ответов систем генерации диалогов может быть значительно улучшено, если короткие примеры будут удалены из обучения BIBREF17, что потенциально не позволит системе чрезмерно отдавать предпочтение общим ответам BIBREF18, BIBREF19.Мы показываем, что прогнозируемая специфичность работает более эффективно, чем длина, и позволяет системе генерировать более разнообразные и информативные ответы лучшего качества.В целом, вклад статьи таков: при неконтролируемой адаптации предметной области у человека есть доступ к специфичности помеченных предложений в одном исходном домене и к немаркированным предложениям во всех целевых доменах.Цель состоит в том, чтобы предсказать специфику данных целевого домена.Наш исходный домен — news, единственный домен с общедоступными размеченными данными для обучения BIBREF1.Мы краудсорсируем специфичность предложений для оценки для трех целевых доменов: Twitter, обзоры Yelp и обзоры фильмов.Данные описаны в разделе SECREF4. Существующие метки специфичности предложений в новостях являются двоичными, т. е. предложение может быть либо общим, либо конкретным.Однако на практике широкое распространение получили реальные оценки специфичности предложения BIBREF6, BIBREF12, BIBREF7, BIBREF8, BIBREF9, BIBREF10.В большинстве этих работ напрямую используются апостериорные распределения классификатора, хотя позже мы покажем, что такие распределения не соответствуют истинному распределению специфичности предложения (см. рисунок FigREF29, Speciteller против реального).Мы стремимся получить точные реальные оценки специфичности, несмотря на двоичные данные обучения.В частности, тестовые предложения имеют метки с действительными значениями от 0 до 1.Мы оцениваем нашу систему, используя среднюю абсолютную ошибку, тау Кендалла и корреляцию Спирмена.Нашим основным методом является самоансемблирование BIBREF14, BIBREF15 единой базовой модели классификации, которая использует увеличение данных с термином регуляризации распределения для создания точных действительных предсказаний на основе двоичных обучающих меток.На рисунке FigREF5 изображена базовая модель прогнозирования специфичности предложения.Общая структура аналогична структуре BIBREF0.Каждое слово в предложении кодируется в вектор внедрения, и предложение передается через двунаправленную сеть долговременной памяти (LSTM) BIBREF20 для создания представления предложения.Это представление объединяется с рядом созданных вручную функций, а затем передается через многослойный перцептрон для генерации прогнозов специфичности INLINEFORM0 .Обучение рассматривает их как вероятности положительного класса, но в разделе SECREF13 мы покажем, как их можно адаптировать для создания действительных предсказаний.Наши функции, созданные вручную, взяты из BIBREF2, включая: количество токенов в предложении; количество цифр, заглавных букв и знаков препинания в предложении, нормированное по длине предложения; среднее количество символов в каждом слове; доля стоп-слов; количество слов, которые могут служить явными связками речи; доля слов, имеющих полярность настроений или сильно субъективных; средняя узнаваемость и образность слов; а также минимальная, максимальная и средняя обратная частота документов (idf) для слов в предложении.В ходе предварительных экспериментов мы обнаружили, что сочетание созданных вручную функций с BiLSTM работает лучше, чем использование каждой из них по отдельности.Наша неконтролируемая структура адаптации домена основана на самоансемблировании BIBREF15; сначала мы излагаем основные идеи, а затем обсуждаем изменения, чтобы сделать структуру подходящей для текстовых данных.Движущей силой самоансемблирования являются две идеи.Во-первых, добавление шума к каждой точке данных INLINEFORM0 может помочь упорядочить модель, поощряя прогноз модели оставаться неизменным независимо от шума, создавая многообразие вокруг точки данных, где прогнозы инвариантны BIBREF22.Этого можно достичь за счет минимизации потери согласованности INLINEFORM1 между прогнозами.Во-вторых, показано, что временное ансамблирование — совокупность одной и той же модели, обученной на разных временных шагах — полезно для прогнозирования, особенно в полуконтролируемых случаях BIBREF23; в частности, мы усредняем параметры модели для каждого временного шага BIBREF14. Этидве идеи реализуются с использованием сети учеников и сети учителей.Параметры сети учителей представляют собой экспоненциальное среднее от параметров сети учеников, что делает учителя временным ансамблем ученика.Ко входу каждой сети применяется различное увеличение шума, поэтому между прогнозами ученика и учителя применяется потеря согласованности INLINEFORM0.Студент учится на помеченных исходных данных и минимизирует контролируемые потери перекрестной энтропии INLINEFORM1.Адаптация предметной области достигается за счет минимизации потери согласованности между двумя сетями, что можно сделать с помощью немаркированных целевых данных.Общая функция потерь представляет собой взвешенную сумму INLINEFORM2 и INLINEFORM3.На рисунке FigREF6 показан этот процесс.Конкретно, сети учеников и учителей имеют идентичную структуру, соответствующую базовой модели (раздел SECREF7), но имеют выраженное увеличение шума.Студенческая сеть учится предсказывать специфичность предложений на основе помеченных данных исходного домена.Входные предложения дополняются шумом INLINEFORM0.Сеть учителей прогнозирует специфику каждого предложения с помощью различного увеличения шума INLINEFORM1.Параметры сети учителей INLINEFORM2 обновляются на каждом временном шаге и представляют собой экспоненциальное скользящее среднее соответствующих параметров в сети учеников.Параметром преподавателя INLINEFORM3 на каждом временном шаге INLINEFORM4 является DISPLAYFORM0, где INLINEFORM0 — степень снижения веса, константа от 0 до 1.INLINEFORM1 обозначает параметры студенческой сети.Потеря согласованности определяется как квадрат разницы между прогнозами сетей учащихся и учителей BIBREF14:DISPLAYFORM0, где INLINEFORM0 обозначает базовую сеть, а x обозначает входное предложение.Сеть учителей не участвует в минимизации контролируемых потерь INLINEFORM1.Важное отличие нашей работы от BIBREF15 заключается в том, что в их работе потере согласованности INLINEFORM0 способствуют только немаркированные целевые данные.Вместо этого мы используем как исходные, так и целевые предложения, приближая предсказания двух сетей друг к другу не только в целевом домене, но и в исходном домене.В отличие от многих задач по зрению, где прогнозы интуитивно остаются неизменными при различных типах увеличения изображения (например, преобразовании и масштабировании), текст более чувствителен к шуму.Самоансемблирование основано на сильном дополнении сетей как учеников, так и учителей, и наши эксперименты показали, что включение исходных данных в термин потери согласованности смягчает дополнительные систематические ошибки, вызванные увеличением шума.Во время обучения параметры сети учителя фиксируются во время градиентного спуска, и градиент распространяется только через сеть учеников.После каждого обновления сети учеников мы пересчитываем веса сети учителей, используя экспоненциальное скользящее среднее.Во время тестирования мы используем сеть учителей для прогнозирования.Важным фактором, способствующим эффективности самоансемблирования, является применение шума к входным данным, чтобы сделать их более устойчивыми к сдвигам домена.Для задач компьютерного зрения можно использовать методы расширения, включая аффинное преобразование, масштабирование, переворот и обрезку BIBREF15.Однако эти операции нельзя было использовать с текстом.Мы разработали несколько способов увеличения шума для предложений, в том числе: добавление гауссовского шума как к встраиваниям слов, так и к поверхностным функциям; случайное удаление слов в предложении; замена вложений слов случайным вектором или нулевым вектором, например применение исключения.Чтобы создать достаточное количество вариантов данных, к половине слов в предложении применяется расширение INLINEFORM0.Прогнозирование специфичности предложения — это задача, в которой существующие обучающие данные имеют двоичные метки, а желательны выходные данные с действительными значениями.В предыдущих работах напрямую использовались апостериорные вероятности классификатора.Однако апостериорное распределение и истинное распределение специфичности сильно различаются (см. рисунок FigREF29, сравнение Speciteller и реального).Мы предлагаем термин регуляризации, чтобы устранить разрыв между ними.В частности, мы рассматриваем апостериорное распределение вероятностей как скрытое распределение, что позволяет нам применять вариант апостериорной регуляризации BIBREF16, ранее использовавшийся для применения заранее заданных ограничений к скрытым переменным в структурированном прогнозировании.Здесь мы применяем штраф за расстояние между скрытым распределением и заранее заданным эталонным распределением (которое в нашей работе происходит из исходного домена).BIBREF13 обнаружил, что в новостях распределение специфичности предложений имеет колоколообразную форму, аналогичную распределению по Гауссу.Наш анализ специфичности предложений для трех целевых доменов дает одинаковые выводы (рис. FigREF18).Мы исследовали две формулировки регуляризации, предполагая и не предполагая, что эти два распределения являются гауссовскими.Оба добились успеха и достигли аналогичных результатов.Пусть INLINEFORM0 и INLINEFORM1 — среднее и стандартное отклонение прогнозов (апостериорных вероятностей) в пакете.Первая формулировка предполагает, что прогнозы и эталонные распределения являются гауссовскими.Он использует расхождение KL между прогнозируемым распределением INLINEFORM2 и эталонным гауссовым распределением INLINEFORM3.Потери на регуляризацию распределения можно записать как: DISPLAYFORM0 Вторая формулировка не предполагает гауссово распределение, а сравнивает только среднее и стандартное отклонение двух распределений, используя весовой термин INLINEFORM0 :DISPLAYFORM0 Объединив термин регуляризации INLINEFORM0 в единую цель, общая потеря составит: DISPLAYFORM0, где INLINEFORM0 — это перекрестная энтропийная потеря для прогнозов исходного домена, INLINEFORM1 — потеря согласованности.INLINEFORM2 и INLINEFORM3 — это весовые гиперпараметры.На практике этот термин регуляризации служит второй цели.После добавления потери согласованности INLINEFORM0 мы заметили, что прогнозы в основном близки друг к другу со значениями от 0,4 до 0,6, а их распределение напоминает гауссово с очень небольшой дисперсией (см. рисунок FigREF29, линия SE+A).Это может быть связано с потерей согласованности, объединяющей все прогнозы, поскольку, когда все прогнозы идентичны, член потерь будет равен нулю.Эту регуляризацию можно использовать, чтобы противостоять этому эффекту и избежать сгущения прогнозируемых значений.Наконец, эта регуляризация отличается от терминов потери дисбаланса классов, таких как тот, который используется в BIBREF15, который, как мы обнаружили на раннем этапе, скорее ухудшает производительность, чем помогает.Исходным доменом для специфичности предложений являются новости, для которых мы используем три общедоступных помеченных набора данных: (1) обучающие предложения из BIBREF1 и BIBREF2, которые состоят из 1,4 тыс. общих и 1,4 тыс. конкретных предложений из Wall Street Journal.(2) 900 новостных предложений, собранных с помощью краудсорсинга для бинарных общих/специальных меток BIBREF24; 55% из них являются специфическими.(3) 543 новостных предложения от BIBREF13.Эти предложения оцениваются по шкале INLINEFORM0 , поэтому для согласованности с остальными обучающими метками мы выбираем предложения со средним рейтингом INLINEFORM1 в качестве общих примеров, а предложения со средним рейтингом INLINEFORM2 — в качестве конкретных.Всего у нас есть 4,3 тыс. предложений с двоичными метками в исходном домене.Мы оцениваем три целевых домена: Twitter, Yelp и обзоры фильмов.Поскольку для этих доменов не существует аннотированных данных, мы используем краудсорсинг специфичности предложений, выбранных из каждого домена, с помощью Amazon Mechanical Turk.Мы следуем инструкциям контекстно-независимых аннотаций из BIBREF13.Первоначально 9 исследователей оценили специфичность 1000 предложений в каждой области по шкале от 1 (очень общий) до 5 (очень конкретный), которую мы изменили на 0, 0,25, 0,5, 0,75 и 1.Соглашение между аннотаторами (IAA) рассчитывается с использованием средних значений альфа BIBREF25 Кронбаха для каждого работника.Для контроля качества мы исключаем работников с IAA ниже 0,3 и включаем оставшиеся предложения, в которых есть не менее 5 оценщиков.Наши окончательные значения IAA находятся в диапазоне 0,68–0,70, что соответствует значению 0,72, полученному экспертами-аннотаторами в BIBREF13.Окончательное значение специфичности суммируется и представляет собой среднее значение перемасштабированных оценок.Мы также используем большие наборы неразмеченных данных в каждом домене: Twitter: 984 твита с аннотациями, 50 000 без пометок, выборка из BIBREF26. Yelp: 845 аннотированных предложений, 95 000 неразмеченных, выборка из Yelp Dataset Challenge 2015 BIBREF27..Фильм: 920 аннотированных предложений, 12 КБ без пометок, взято из BIBREF28. Рисунок FigREF18.показывает распределение рейтингов для аннотированных данных.Для сравнения мы также построили подобранное распределение Гаусса.Очевидно, что большинство предложений имеют средние значения специфичности, что соответствует новостным предложениям BIBREF13.Интересно, что среднее значение и дисперсия для трех распределений аналогичны друг другу и данным BIBREF13, как показано в таблице TABREF23.Поэтому мы используем исходное распределение (news, BIBREF13) в качестве эталонного распределения для апостериорной регуляризации распределения и устанавливаем INLINEFORM0 равными 0,417 и 0,227 соответственно.Теперь мы оценим нашу систему прогнозирования специфичности предложений для трех целевых областей.Мы сообщаем результаты экспериментов по ряду настроек для оценки производительности различных компонентов.Базовая линия длины. Эта простая базовая линия прогнозирует специфичность пропорционально количеству слов в предложении.Более короткие предложения прогнозируются как более общие, а более длинные предложения — как более конкретные.Базовый уровень Speciteller Speciteller BIBREF2 — это полуконтролируемая система, обученная на новостных данных с двоичными метками.Апостериорные вероятности классификатора используются непосредственно как значения специфичности.Базовый уровень самосинхронизации (SE)Наша система с сетью учителей, но только с использованием экспоненциального скользящего среднего (без потери согласованности или регуляризации распределения). Только распределение (SE+D). Наша система с регуляризацией распределения INLINEFORM0 с использованием среднего и стандартного отклонения (уравнение EQREF15), но без потеря согласованности INLINEFORM1 .Только адаптация (SE+A) Наша система с потерей согласованности INLINEFORM0 , но без регуляризации распределения INLINEFORM1 .SE+AD(KL) Наша система с INLINEFORM0 и INLINEFORM1 с использованием дивергенции KL (уравнение EQREF14).SE+AD(среднее-стандартное) Наша система с INLINEFORM0 и INLINEFORM1 с использованием среднего и стандартного отклонения (уравнение EQREF15).SE+AD(без увеличения)Мы также показываем важность увеличения шума, сравнивая ту же настройку, что и SE + AD (среднее стандартное значение), без увеличения данных.Гиперпараметры настраиваются на проверочном наборе из 200 твитов, который не пересекается с тестовым набором.Затем мы используем этот набор параметров для всех областей тестирования.Кодер LSTM генерирует 100-мерные представления.Для многослойного перцептрона мы используем 3 полносвязных 100-мерных слоя.Мы используем активацию ReLU с пакетной нормализацией.Для гауссовского шума при дополнении данных мы используем стандартное отклонение 0,1 для встраивания слов и 0,2 для мелких функций.Вероятности удаления слова и замены вектора слов равны 0,15.Экспоненциальное затухание скользящего среднего INLINEFORM0 составляет 0,999.Коэффициент отсева составляет 0,5 для всех слоев.Размер партии — 32.INLINEFORM1 , INLINEFORM2 для потерь KL и 100 для потерь среднего значения и стандартного отклонения.ИНЛАЙНФОРМА3 .Мы фиксируем количество обучения равным 30 эпохам для SE+A и SE+AD, 10 эпохам для SE и 15 эпохам для SE+D.Мы используем оптимизатор Адама со скоростью обучения 0,0001, INLINEFORM4, INLINEFORM5.Как обсуждалось в разделе SECREF4, параметры регуляризации апостериорного распределения INLINEFORM6 устанавливаются такими же, как из BIBREF13. Мыиспользуйте 3 метрики для оценки реальных прогнозов: (1) корреляция Спирмена между мечеными и прогнозируемыми значениями специфичности: чем выше, тем лучше; (2) парная тау-корреляция Кендалла: чем выше, тем лучше; (3) средняя абсолютная ошибка (MAE): INLINEFORM0, чем меньше, тем лучше.В таблице TABREF25 показаны полные результаты для базовых показателей и каждой конфигурации нашей платформы.Для анализа мы также нарисовали на рисунке FigREF29 истинные распределения специфичности в тестовом наборе Twitter, прогнозируемые распределения для Speciteller, базового уровня самоансемблирования (SE), SE с адаптацией (SE+A), а также с регуляризацией распределения (SE+AD). .Speciteller, который обучен на новостных предложениях, не может хорошо обобщать другие домены, поскольку он работает хуже, чем просто использование длины предложения для двух из трех доменов (Yelp и Movie).На рисунке FigREF29 мы видим, что масса прогнозов Speciteller находится вблизи значений экстремумов 0 и 1, а остальные прогнозы равномерно попадают между ними.Эти результаты подтверждают необходимость обобщающей системы.По всем областям и всем показателям наиболее эффективной системой является наша полная система с адаптацией предметной области и регуляризацией распределения (SE+AD со средним стандартом или KL), что показывает, что система хорошо обобщает различные области.Используя парный тест Уилкоксона, он значительно (INLINEFORM0) превосходит Speciteller по показателю MAE; он также достиг более высоких корреляций Тау Спирмена и Кендалла, чем Длина и Спителлер.Что касается компонентов, базовый уровень самоансемблирования (SE) обеспечивает значительно более низкий MAE, чем Speciteller, и более высокие корреляции, чем любой базовый уровень.Рисунок ФИГРЕФ29показывает, что в отличие от Speciteller, базовая линия SE не имеет большую часть своей прогнозируемой массы вблизи 0 и 1, что демонстрирует эффективность временного ансамбля.Использование как потери согласованности INLINEFORM0, так и регуляризации распределения INLINEFORM1 позволяет достичь наилучших результатов во всех трех областях; однако добавление только INLINEFORM2 (SE+A) или INLINEFORM3 (SE+D) улучшает некоторые показатели или домены, но не все.Это показывает, что оба термина имеют решающее значение для обеспечения устойчивости системы во всех областях.Улучшения от регуляризации распределения визуализированы на рисунке FigREF29.При SE+A большинство прогнозируемых меток находятся в диапазоне от 0,4 до 0,6.Применение регуляризации распределения (SE+AD) делает их намного ближе к реальному распределению специфичности.Что касается двух формулировок регуляризации (KL и среднее значение), обе они эффективны для получения более точных реальных оценок.Их характеристики сопоставимы, поэтому использование только значений среднего и стандартного отклонения без явного моделирования эталонного распределения Гаусса работает одинаково хорошо.Наконец, без увеличения данных (столбец без увеличения) корреляции явно ниже, чем в нашей полной модели, что подчеркивает важность увеличения данных в нашей структуре.Мы также оцениваем нашу структуру в открытом диалоге.Этот эксперимент также доказывает полезность эффективной системы специфичности предложений при создании диалога.При использовании моделей генерации диалогов seq2seq BIBREF17 наблюдал значительное улучшение качества за счет удаления обучающих примеров с короткими ответами во время предварительной обработки; это потенциально связано с тем, что модели этого типа способствуют генерированию неинформативных, общих ответов BIBREF18, BIBREF19.Мы показываем, что фильтрация обучающих данных по прогнозируемой специфичности приводит к ответам более высокого качества и информативности, чем фильтрация по длине.Мы реализовали бота, отвечающего на вопросы seq2seq, используя OpenNMT BIBREF29.Бот обучен на OpenSubtitles BIBREF30 после предыдущей работы BIBREF17.Мы ограничиваем примеры парами вопрос-ответ, выбирая последовательные предложения, в которых первое предложение заканчивается вопросительным знаком, второе предложение без вопросительного знака и следует за первым предложением менее чем на 20 секунд, в результате чего получается подкорпус размером 14M.Модель использует два скрытых слоя размером 2048, оптимизированных с помощью Adam со скоростью обучения 0,001.Размер пакета — 64.При декодировании мы используем размер луча 5; мы блокируем повторяющиеся n-граммы и ограничиваем минимальную длину прогноза величиной 5.Эти параметры настраиваются на наборе разработки.Мы сравниваем два способа фильтрации обучающих данных во время предварительной обработки: Удалить короткие: следуя BIBREF17, удалите обучающие примеры с длиной ответов короче порога 5.Около половины данных будет удалено.Удалить общие: удалить прогнозируемые общие ответы из обучающих примеров с помощью нашей системы.Во время обучения мы используем ответы в обучающем наборе OpenSubtitles в качестве немаркированных данных целевого домена.Мы удаляем наименее конкретные ответы, чтобы полученное количество примеров было таким же, как и в «Удалить короткие».Для справедливого сравнения во время тестирования мы корректируем штраф за длину, описанный в BIBREF31, для обеих моделей, поэтому средняя длина ответа для обеих моделей одинакова.Мы используем автоматические измерения и человеческую оценку, как в BIBREF32 и BIBREF17. ТаблицаTABREF31 показывает разнообразие и запутанность ответов.Разнообразие рассчитывается как соотношение типов и токенов униграмм и биграмм.Тестовый набор для этих двух показателей представляет собой случайную выборку из 10 тысяч экземпляров OpenSubtitles, которая не пересекается с обучающим набором.Очевидно, что фильтрация обучающих данных по специфичности приводит к более разнообразным ответам с меньшим недоумением, чем фильтрация по длине.Мы также осуществляем краудсорсинг человеческой оценки качества; кроме того, мы оцениваем системы на информативность ответов.Обратите внимание, что в наших инструкциях информативность означает полезность информации и является отличной мерой от конкретики.Исходные данные обучения специфичности лингвистически аннотированы и включают только изменение уровня детализации BIBREF1.Отдельные эксперименты проводятся во избежание прайминга.Мы используем тестовый набор из 388 экземпляров, включая вопросы, случайно выбранные из OpenSubtitles, которые не пересекаются с обучающим набором, и 188 примеров вопросов из предыдущих документов по созданию диалогов, включая BIBREF33.Мы используем Amazon MechenicalTurk для краудсорсинга.7 рабочих выбрали один из двух ответов на один и тот же вопрос.В таблице TABREF32 показана оценка человеком, сравнивающая Remove Short и Remove General.Удаление прогнозируемых общих ответов эффективнее, чем удаление коротких предложений, как с точки зрения информативности, так и с точки зрения качества, а также на обоих тестовых наборах.Это показывает, что специфичность предложения является лучшим показателем предварительной обработки обучающих данных, чем длина предложения.Прогнозирование специфичности предложения как задача предложено BIBREF1, который перепрофилировал аннотации дискурсивных отношений из статей WSJ BIBREF34 для обучения специфичности предложений.BIBREF2 включил больше новостных предложений в виде немаркированных данных.BIBREF0 разработал систему прогнозирования специфичности предложений для обсуждений в классе, однако данные не являются общедоступными.Все эти системы представляют собой классификаторы, обученные на категориальных данных (2 или 3 класса). В качестве базовой структуры мы используем Self-Ensembling BIBREF15.Самоансемблирование построено на основе временного ансамбля BIBREF23 и сети среднего учителя BIBREF14, которые изначально предлагались для обучения с полуконтролем.В адаптации визуальной области самоансемблирование показывает превосходящие результаты, чем многие недавно предложенные подходы BIBREF35, BIBREF36, BIBREF37, BIBREF38, BIBREF39, BIBREF40, включая подходы на основе GAN.Насколько нам известно, этот подход не использовался для языковых данных.Мы представляем новую модель прогнозирования специфичности предложений.Мы дополняем метод самоансемблирования BIBREF15 для неконтролируемой адаптации домена к текстовым данным.Мы также упорядочиваем распределение прогнозов, чтобы оно соответствовало эталонному распределению.Используя в качестве исходного домена только предложения из новостных статей, помеченные двоичными числами, наша система могла генерировать действительные прогнозы специфичности для различных целевых доменов, значительно превосходя предыдущую работу по прогнозированию специфичности предложений.Наконец, мы показываем, что прогнозирование специфичности предложений потенциально может быть полезным для улучшения качества и информативности систем генерации диалогов.Это исследование было частично поддержано стипендией Amazon Alexa Graduate Fellowship.Мы благодарим анонимных рецензентов за полезные комментарии. | Специфика предложения количественно определяет уровень детализации предложения, характеризуя организацию информации в дискурсе. Хотя эта информация полезна для многих последующих приложений, системы прогнозирования специфичности прогнозируют очень грубые метки (двоичные или троичные) и обучаются и адаптируются к конкретным областям (например, новостям). Цель этой работы — обобщить прогнозирование специфичности на области, где нет помеченных данных, и вывести более детальные реальные рейтинги специфичности. Мы представляем неконтролируемую систему адаптации предметной области для прогнозирования специфичности предложений, специально разработанную для вывода действительных оценок из двоичных обучающих меток. Чтобы правильно откалибровать значения этих прогнозов, мы регуляризируем апостериорное распределение меток в направлении эталонного распределения. Мы показываем, что наша структура хорошо обобщает три различные области со средним абсолютным снижением ошибок на 50–68% по сравнению с нынешней современной системой, обученной для специфичности новостных предложений. Также мы демонстрируем потенциал нашей работы в повышении качества и информативности систем генерации диалогов. | 4,181 | QasperSumInstruct | ru | ||
Напиши аннотацию по статье | Вложения уравнений. Уравнения — важная часть научных статей, но многие существующие методы машинного обучения с ними нелегко справляются.С ними сложно работать, потому что каждый из них уникален или почти уникален; большинство уравнений встречаются только один раз.Однако автоматическое понимание уравнений значительно улучшило бы методы анализа научной литературы.Полезные представления уравнений могут помочь установить связи между статьями, улучшить поиск научных текстов и помочь создать инструменты для изучения и навигации по научной литературе.В этой статье мы предлагаем встраивание уравнений (EqEmb) — неконтролируемый подход к изучению распределенных представлений уравнений.Идея состоит в том, чтобы рассматривать уравнение как «однозначное слово», которое появляется один раз, но появляется в контексте других слов.Окружающий текст уравнения — и, в частности, распределенные представления этого текста — предоставляет данные, необходимые для разработки полезного представления уравнения.Рисунок FigREF1 иллюстрирует наш подход.Слева — фрагмент статьи BIBREF0.Оранжевым цветом выделено уравнение; в этом примере он представляет собой слой нейронной сети.Заметим, что данное конкретное уравнение (в таком виде и с такими обозначениями) встречается в сборнике статей (из arXiv) только один раз.Однако представления окружающего текста обеспечивают значимый контекст для уравнения.Эти слова позволяют нам изучить его вложение, особенно как «слово», которое появляется в контексте его окружения.Полученное представление по сравнению с представлениями других уравнений и словесными представлениями помогает найти как связанные уравнения, так и связанные слова.Они проиллюстрированы справа.EqEmbs основан на вложениях экспоненциального семейства BIBREF1 для включения уравнений в виде одноэлементных наблюдений и для моделирования элементов уравнения, таких как переменные, символы и операторы.Экспоненциальное встраивание семейств, как и все методы встраивания, определяет контекст каждого слова.В нашем исходном EqEmb контекстом для слов является небольшое окно, например четыре или восемь слов, но контекстом уравнения является окно большего размера, например шестнадцать слов.Совместное использование этих двух типов контекстов позволяет найти значимые представления слов и уравнений.В следующем EqEmb, основанном на первом, мы рассматриваем уравнения как предложения, состоящие из единиц уравнений, т. е. переменных, символов и операторов.Единицы уравнений помогают моделировать уравнения в двух типах контекста — над окружающими единицами и над окружающими словами.Мы изучали EqEmbs на четырех сборниках научных статей из arXiv, охватывающих четыре области информатики: обработка естественного языка (NLP), поиск информации (IR), искусственный интеллект (AI) и машинное обучение (ML).Мы обнаружили, что EqEmbs обеспечивает более эффективное моделирование, чем существующие методы встраивания слов.Далее мы провели исследовательский анализ большого набора уравнений INLINEFORM0 87k.Мы обнаружили, что EqEmbs обеспечивает лучшие модели по сравнению с существующими подходами к внедрению слов.EqEmbs также обеспечивает связное семантическое представление уравнений и может отражать семантическое сходство с другими уравнениями и словами.Встраивание слов было впервые представлено в BIBREF2, BIBREF3, и существовало множество вариантов BIBREF4, BIBREF5, BIBREF6, BIBREF7.Общим для всех них является идея о том, что слова могут быть представлены векторами скрытых признаков.Эти векторы признаков оптимизированы для максимизации условной вероятности набора данных.Недавно BIBREF1 расширил идею встраивания слов на другие типы данных.EqEmb расширяет идею встраивания слов до нового типа точек данных — уравнений.Были предложены различные подходы к представлению математических уравнений.BIBREF8 представил дерево компоновки символов — представление, которое кодирует пространственные отношения переменных и операторов с целью индексации и извлечения математических уравнений.Наша работа также попадает в рамки математической языковой обработки (MLP) BIBREF9, первым шагом которой является преобразование математических решений в ряд числовых характеристик.EqEmb основаны на вложениях слов BIBREF5 или, в частности, вложениях Бернулли (b-embs) BIBREF1 .Встраивание слов моделирует вероятность слова INLINEFORM0 с учетом его контекста INLINEFORM1 как условное распределение INLINEFORM2, где контекст определяется как набор слов INLINEFORM3 в окне размера INLINEFORM4, которое его окружает.При внедрении слов каждое слово присваивается двум типам векторов скрытых признаков: векторам внедрения ( INLINEFORM5 ) и контекста ( INLINEFORM6 ), оба из которых являются размерными INLINEFORM7.B-emb — это модель встраивания экспоненциального семейства, в которой условным распределением является распределение Бернулли:DISPLAYFORM0 Параметр INLINEFORM0 определяется с использованием векторов встраивания слова INLINEFORM1 и контекста слова INLINEFORM2:DISPLAYFORM0, где INLINEFORM0 — логистическая функция.Учитывая набор данных, состоящий из слов и уравнений, цель моделей EqEmb — получить семантическое представление каждого уравнения.Уравнения модели EqEmb в контексте слов.EqEmb основан на идее, что хорошее семантическое представление уравнений можно найти, расширив исходный контекст слова, включив в него любые уравнения, которые появляются в возможно большем окне вокруг него.Мы присваиваем вложения словам ( INLINEFORM0 , INLINEFORM1 ) и уравнениям ( INLINEFORM2 , INLINEFORM3 ).Целевая функция содержит условные обозначения над наблюдаемыми словами и уравнениями:DISPLAYFORM0 Это сумма двух наборов условных распределений: первого по наблюдаемым словам ( INLINEFORM0 ) и второго по наблюдаемым уравнениям ( INLINEFORM1 ).В моделях внедрения слов INLINEFORM2 и INLINEFORM3 называются векторами внедрения и контекста.Здесь мы используем другую терминологию: взаимодействие INLINEFORM4 и вектора признаков INLINEFORM5. При встраивании слов контекст слова INLINEFORM0 определяется для индексации окружающих слов в небольшом окне вокруг него.Здесь контекстом слова INLINEFORM1 будет исходный контекст ( INLINEFORM2 ) и любые уравнения ( INLINEFORM3 ), которые находятся в возможно большем окне вокруг него.Это называется контекстным окном слова-уравнения.Оба кондиционала являются распределениями Бернулли.Первое условное выражение определяется для слов в коллекции.Он имеет следующий параметр:DISPLAYFORM0 Функция контекста слова: DISPLAYFORM0 Эта функция охватывает слова в исходном контексте слова ( INLINEFORM0 ) и любые уравнения ( INLINEFORM1 ), которые появляются в возможно большем окне ( INLINEFORM2 ) вокруг него.Второй член цели соответствует сумме логарифмических условных вероятностей каждого уравнения.Его параметр: DISPLAYFORM0 Подобно внедрению слов, контекст уравнения INLINEFORM0 содержит слова, которые находятся в контекстном окне вокруг уравнения: DISPLAYFORM0 Контекст уравнения может иметь окно большего размера, чем контекст слова.Векторы признаков уравнения ( INLINEFORM0 ) связаны только с первым членом целевой функции.Эта функция содержит слова, в которых уравнение появляется в более широком контексте INLINEFORM1. В левой части рисунка FigREF1 показан пример уравнения из научной статьи.С помощью контекста слова размером INLINEFORM0 мы моделируем слова в статье, игнорируя уравнения.Например, при моделировании слова «встраивание» (выделено зеленым) с размером окна контекста 4 (т. е. INLINEFORM1 ), контекст содержит слова, которые появляются двумя словами до («текущее» и «слово») и после («рекуррентное» и «версия») этого слова.Если окно контекста слова-уравнения размером INLINEFORM2 = 16, термин для слова «встраивание» будет иметь вектор признаков уравнения в качестве одного из своих компонентов.Основываясь на нашем предыдущем методе, мы определяем новую модель, которую мы называем встраиванием единиц уравнений (EqEmb-U).EqEmb-U моделирует уравнения, рассматривая их как предложения, в которых слова представляют собой переменные уравнения, символы и операторы, которые мы называем единицами.Первым шагом в представлении уравнений с использованием единиц измерения является их токенизация.Мы используем подход, описанный в BIBREF8, который представляет уравнения в дерево синтаксической компоновки (SLT), последовательность кортежей SLT, каждый из которых содержит информацию о пространственных отношениях между двумя символами уравнений, найденными в определенном окне символов уравнений.На рисунке FigREF11 показаны примеры SLT-представлений трех уравнений.Каждое уравнение INLINEFORM0 представляет собой последовательность единиц уравнения INLINEFORM1, INLINEFORM2, аналогичную предложению, в котором слова являются единицами уравнения.Каждому блоку уравнений INLINEFORM3 мы присваиваем взаимодействие INLINEFORM4 и указываем векторы INLINEFORM5.Мы предполагаем, что контекстом слова INLINEFORM0 будет исходный контекст ( INLINEFORM1 ) и единицы уравнения ( INLINEFORM2 ) любых уравнений, которые находятся в окне контекста слова-уравнения.Кроме того, для каждого модуля уравнения мы определяем его контекст модуля INLINEFORM3 как набор окружающих модулей уравнения в небольшом окне INLINEFORM4 вокруг него: DISPLAYFORM0 Цель состоит в том, чтобы использовать два условных выражения, по одному для каждого типа контекста:DISPLAYFORM0 Двумя параметрами являются: DISPLAYFORM0 Мы определяем представления на уровне уравнений путем усреднения представлений их составляющих единиц:DISPLAYFORM0 Мы используем стохастический градиентный спуск с Adagrad BIBREF10, чтобы соответствовать векторам внедрения и контекста.Следуя BIBREF1, мы уменьшаем сложность вычислений, разделяя градиент на два члена.Первый термин содержит ненулевые записи ( INLINEFORM0 ); второй термин содержит нулевые записи ( INLINEFORM1 ).Мы вычисляем точный градиент для ненулевых точек; Мы проводим подвыборку для нулевых точек данных.Это похоже на отрицательную выборку BIBREF5, которая также снижает вклад нулевых точек.В отличие от BIBREF1, который использует регуляризацию INLINEFORM2 для защиты от переобучения при подгонке векторов внедрения, мы используем раннюю остановку на основе точности проверки для того же эффекта.Мы изучали производительность EqEmb на статьях с сайта arXiv.Модели EqEmb обеспечивают лучшее соответствие, чем существующие подходы к внедрению, и выводят значимые семантические отношения между уравнениями и словами в коллекции.Мы представляем сравнение предложенных моделей с существующими подходами к встраиванию слов.Это: вложения Бернулли (b-emb) BIBREF1, непрерывный пакет слов (CBOW) BIBREF5, версия вектора абзаца с распределенной памятью (PV-DM) BIBREF11 и модель глобальных векторов (GloVe) BIBREF6.Наши наборы данных представляют собой научные статьи, опубликованные на arXiv.Наборы содержат статьи (в формате LaTeX) из четырех областей информатики: НЛП, IR, AI и ML.Они были созданы путем фильтрации статей arXiv по их основным и дополнительным категориям.Для четырех коллекций мы использовали следующие категории: cs.cl для НЛП; cs.ir для IR; cs.ai для AI и stat.ml, stat.co, stat.me или cs.lg для ML. Таблица TABREF22 показывает количество документов, а также количество уникальных слов, уравнений и единиц уравнений для каждой коллекции.Уравнения представляют собой уравнения отображения, которые были перечислены в версии статей LaTeX.В отличие от встроенных уравнений, которые во многих случаях представляют переменные общего значения (например, INLINEFORM0, INLINEFORM1, INLINEFORM2 и т. д.) и даже числовые значения, уравнения отображения обычно представляют математические понятия с более конкретной семантикой.Для эмпирического исследования мы использовали случайное подмножество из 2k одиночных элементов из общей коллекции, а также все уравнения, которые встречаются более одного раза.Для качественного анализа мы использовали все уравнения.Мы извлекли слова путем токенизации статей с помощью пакета NLTK BIBREF12 и ограничили словарный запас именными фразами и прилагательными.Словарь был выбран путем: удаления распространенных стоп-слов; рассмотрения 25 самых частых слов как стоп-слов и их удаления; включения слов, частота терминов которых больше или равна 10, а длина символов больше или равна 4; включения 50 самых частых сокращений, у которых длина символа равна 3 (исключение из нашего предыдущего правила). При токенизации уравнений мы сначала создаем эффективный словарь единиц уравнений.Мы конвертируем уравнения в формат SLT и собираем общую статистику частот по единицам уравнений.Словарь содержит все единицы уравнений, частота встречаемости которых превышает INLINEFORM0.проанализировали производительность моделей EqEmb, используя определенный набор слов, которые мы генерируем для каждого уравнения в наших коллекциях.Выделенные наборы создаются с использованием следующей процедуры: мы проходим по коллекциям и для каждого обнаруженного уравнения случайным образом выбираем слова из его контекстного набора.Выделенный набор содержит выбранные слова и их контекстное окно, которое также включает уравнение.Для каждого удерживаемого слова мы также генерируем набор отрицательных образцов для данного контекста слова.Мы выполняем ту же процедуру для формирования набора проверки.Для каждого уравнения INLINEFORM0 в коллекции выбираются два выделенных слова INLINEFORM1.Для контекстного окна размером 4 контекст выбранного слова определяется как INLINEFORM2. Во время обучения мы вычисляем прогнозируемую логарифмическую вероятность для проверочного набора слов, используя подобранную модель после каждой итерации по коллекции.Подогнанная модель представляет собой набор векторов взаимодействия и признаков для каждого уравнения и слова.Учитывая подобранную модель, логарифмическая вероятность удерживаемого слова вычисляется по следующей формуле: DISPLAYFORM0, которая представляет собой функцию softmax, вычисляемую по набору отрицательных выборок INLINEFORM0 и удерживаемого слова.В частности, мы прогнали модель по всей коллекции 20 раз.После каждой итерации сбора INLINEFORM1 мы наблюдаем, продолжает ли улучшаться логарифмическая вероятность прогнозирования по сравнению с предыдущей итерацией ( INLINEFORM2 ).Мы останавливаемся на INLINEFORM3-й итерации, когда это уже не так.При моделировании уравнений с помощью EqEmb мы выполняем два прохода по коллекции.На первом проходе мы моделируем только слова, игнорируя уравнения.На втором проходе мы моделируем только уравнения, сохраняя фиксированными векторы взаимодействия и признаков всех слов.В контексте EqEmb мы рассматриваем уравнения как одноэлементные слова, и более широкий вопрос, на который мы пытаемся ответить, заключается в том, можем ли мы узнать что-то о значении одноэлементных слов с учетом фиксированного взаимодействия слов и векторов признаков.В нашем анализе мы оценили производительность моделей EqEmb для разных размеров для контекста слова (W), контекста слова-уравнения (E) и размера вектора внедрения (K).Производительность модели сравнивалась с четырьмя существующими моделями внедрения: b-emb, CBOW, GloVe и PV-DM.Мы использовали реализацию моделей CBOW и PV-DM в gensim BIBREF13.При моделировании уравнений с использованием первых трех моделей встраивания мы рассматриваем уравнения как обычные слова в коллекции.В случае модели PV-DM мы анализируем статью так, чтобы уравнения и окружающий их контекст длиной, эквивалентной окну контекста слова-уравнения, были помечены как отдельный абзац.Мы также присваиваем метки абзацев тексту статьи, расположенному между абзацами уравнений. ТаблицаTABREF23 показывает результаты сравнения производительности различных моделей внедрения.Для каждой модели результаты производительности показаны по 4 скрытым значениям размерности (К=25, 50, 75 и 100).Для каждого измерения мы проводили эксперименты, изменяя размер контекстного окна для слов (Контекст слова = 4, 8 и 16).Помимо моделей EqEmb, EqEmb-U и PV-DM, мы также меняли размер окна слов-уравнений (E=8 и 16).Сравнение моделей выполняется с использованием псевдологарифмической меры правдоподобия BIBREF14.Для данного удерживаемого слова INLINEFORM0 и набора отрицательных выборок INLINEFORM1 псевдологарифмическое правдоподобие определяется как: DISPLAYFORM0 Мы рассматриваем эту задачу как последующую.Для каждого типа модели и конфигурации скрытых измерений мы используем набор проверки, чтобы выбрать лучшую конфигурацию модели (т. е. комбинацию размеров контекстных окон).Мы сообщаем значения для обоих наборов данных.Во всех коллекциях EqEmb превосходит предыдущие модели встраивания, а EqEmb-U еще больше повышает производительность.EqEmb помогает получить словесные описания уравнений.В таблице TABREF25 показан пример уравнения и 5 наиболее похожих слов, полученных с использованием 4 различных подходов встраивания, включая CBOW, PV-DM, GloVe и EqEmb.Для уравнения запроса мы получаем наиболее похожие слова, вычисляя косинусное расстояние между представлением вектора внедрения ( INLINEFORM0 ) уравнения запроса и векторным представлением слов ( INLINEFORM1 ).Внедренное представление слов и уравнений мы также могли выполнять поиск по уравнениям, используя слова в качестве запросов.Для набора слов запроса мы генерируем его встраиваемое представление, взяв среднее значение встраивающего представления каждого слова и вычисляя косинусное расстояние по всем встраиваниям уравнений.В таблице TABREF25 показан пример запроса, состоящего из трех слов, и 5 ближайших к нему уравнений, обнаруженных с помощью EqEmb.Для заданного словесного запроса EqEmb может получить соответствующие уравнения запроса.Помимо слов, модели EqEmb могут фиксировать семантическое сходство между уравнениями в коллекции.Мы провели качественный анализ производительности модели, используя все обнаруженные уравнения из 4-х коллекций.В таблице TABREF24 показано уравнение запроса, использованное в предыдущем анализе, и 5 наиболее похожих уравнений, обнаруженных с помощью EqEmb-U. Для качественного сравнения других моделей внедрения в Приложении A мы предоставляем результаты по тому же запросу с использованием CBOW, PV-DM, GloVe и EqEmb.В Приложении А читатель должен заметить разницу в производительности между EqEmb-U и EqEmb по сравнению с существующими моделями внедрения, которые не могут обнаружить семантически схожие уравнения.tab:irexample1,tab:nlpexample2 показывают два дополнительных примера уравнения и 5 наиболее похожих уравнений и слов, обнаруженных с помощью модели EqEmb.Подобные слова были ранжированы путем вычисления косинусного расстояния между представлением вектора внедрения (INLINEFORM0) уравнения запроса и векторным представлением слов (INLINEFORM1).Подобные уравнения были обнаружены с использованием евклидова расстояния, вычисленного между контекстными векторными представлениями уравнений (INLINEFORM2).Мы приводим дополнительные примеры результатов в Приложении B. Мы представили неконтролируемые подходы к семантическому представлению математических уравнений с использованием окружающих их слов.На четырех различных коллекциях мы показали, что наши методы обеспечивают более эффективное моделирование по сравнению с существующими моделями внедрения.Мы также демонстрируем, что они могут уловить семантическое сходство между уравнениями и словами в коллекции.В будущем мы планируем изучить, как можно использовать EqEmb для представления других объектов, таких как изображения, подписи и встроенные рисунки. | Мы представляем неконтролируемый подход к обнаружению семантических представлений математических уравнений. Уравнения сложно анализировать, поскольку каждое из них уникально или почти уникально. Наш метод, который мы называем встраиванием уравнений, находит хорошие представления уравнений, используя представления окружающих их слов. Мы использовали встраивание уравнений для анализа четырех сборников научных статей из arXiv, охватывающих четыре области информатики (НЛП, ПИ, ИИ и машинное обучение) и $\sim$98,5 тыс. уравнений. В количественном отношении мы обнаружили, что встраивание уравнений обеспечивает лучшие модели по сравнению с существующими подходами встраивания слов. На качественном уровне мы обнаружили, что встраивание уравнений обеспечивает связное семантическое представление уравнений и может отражать семантическое сходство с другими уравнениями и словами. | 2,859 | QasperSumInstruct | ru |