id
stringlengths 1
4
| tokens
sequence | ner_tags
sequence |
---|---|---|
8400 | [
"methods",
".",
"For",
"example",
",",
"consider",
"the",
"ways",
"in",
"which",
"evaluation",
"of",
"machine",
"translation",
"(",
"MT",
")",
"systems",
"is",
"carried",
"out",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
8401 | [
"4.1",
".",
"Document",
"Input",
"(",
"DI",
")",
"The",
"DI",
"process",
"is",
"the",
"interface",
"between",
"ADEPT"
] | [
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
8402 | [
"method",
"does",
"not",
"select",
"any",
"dimension",
".",
"Median",
"Selection",
"(",
"MSel",
")",
".",
"As",
"a",
"further",
"method"
] | [
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
4,
0,
0
] |
8403 | [
"1",
"Introduction",
"Many",
"algorithms",
"in",
"speech",
"and",
"language",
"processing",
"can",
"be",
"viewed",
"as",
"instances",
"of",
"dynamic",
"programming",
"(",
"DP",
")",
"(",
"Bellman",
",",
"1957",
")",
".",
"The",
"basic",
"idea",
"of"
] | [
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8404 | [
"reasoning",
"?",
"In",
"International",
"Conference",
"on",
"Learning",
"Representations",
"(",
"ICLR",
")",
"."
] | [
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0
] |
8405 | [
"2.2",
"DIRT",
"data",
"The",
"DIRT",
"(",
"Discovering",
"Inference",
"Rules",
"from",
"Text",
")",
"method",
"is",
"based",
"on",
"extending",
"Harris",
"Distributional"
] | [
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
4,
0,
0,
0,
0,
0
] |
8406 | [
"2",
"Classification",
"Algorithms",
"2.1",
"Conditional",
"Random",
"Fields",
"Conditional",
"random",
"field",
"(",
"CRF",
")",
"was",
"an",
"extension",
"of",
"both",
"Maximum",
"Entropy",
"Model",
"(",
"MEMs",
")",
"and"
] | [
0,
0,
0,
0,
3,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
3,
4,
4,
0,
1,
0,
4
] |
8407 | [
"7",
"(",
"Ogren",
"and",
"Bethard",
",",
"2009",
")",
"can",
"be",
"used",
"to",
"design",
"and",
"execute",
"pipelines",
"made",
"up",
"of",
"a",
"sequence",
"of",
"AEs",
"(",
"and",
"potentially",
"some",
"more",
"complex",
"flows",
")",
",",
"and",
"UIMA-AS",
"8"
] | [
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
4,
4,
4,
0,
0,
0,
0,
0,
4,
1,
0
] |
8408 | [
"LM",
".",
"This",
"approach",
"has",
"been",
"successfully",
"applied",
"in",
"automatic",
"speech",
"recognition",
"(",
"ASR",
")",
"(",
"Tam",
"and",
"Schultz",
",",
"2006",
")",
"using",
"the",
"Latent",
"Dirichlet",
"Alloca-"
] | [
1,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8409 | [
"in",
"all",
"kind",
"of",
"NLP",
"applications",
".",
"As",
"a",
"particular",
"case",
",",
"Semantic",
"Role",
"Labeling",
"(",
"SRL",
")",
"is",
"currently",
"a",
"welldefined",
"task",
"with",
"a",
"substantial",
"body",
"of",
"work",
"and"
] | [
3,
0,
0,
0,
1,
0,
0,
0,
4,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
8410 | [
"and",
"answer",
"sentences",
"that",
"emphasizes",
"three",
"types",
"of",
"metadata",
":",
"(",
"i",
")",
"Main",
"Verbs",
"(",
"MVerb",
")",
",",
"identified",
"by",
"the",
"link",
"parser",
"(",
"Sleator",
"and",
"Temperley",
"1993",
")",
";"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8411 | [
"controlled",
"vocabulary",
".",
"As",
"an",
"application",
"of",
"the",
"Resource",
"Description",
"Framework",
"(",
"RDF",
")",
",",
"SKOS",
"allows",
"concepts",
"to",
"be",
"composed",
"and",
"published",
"on",
"the"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
8412 | [
"scheme",
"category",
"in",
"the",
"corpus",
":",
"Results",
"(",
"RES",
")",
"is",
"by",
"far",
"the",
"most",
"frequent",
"zone",
"(",
"accounting",
"for",
"40",
"%",
"of",
"the",
"corpus",
")",
",",
"while",
"Background",
"(",
"BKG",
")",
",",
"Objective",
"(",
"OBJ",
")",
",",
"Method",
"(",
"METH",
")",
"and",
"Conclusion",
"(",
"CON",
")",
"cover"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0
] |
8413 | [
"1994",
")",
".",
"Following",
"(",
"Collins",
",",
"2002",
")",
",",
"we",
"used",
"sections",
"0-18",
"of",
"the",
"Wall",
"Street",
"Journal",
"(",
"WSJ",
")",
"corpus",
"for",
"training",
",",
"sections",
"19-21",
"for",
"development",
",",
"and"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8414 | [
"For",
"our",
"experiments",
",",
"we",
"collect",
"debate",
"posts",
"from",
"four",
"popular",
"domains",
",",
"Abortion",
"(",
"ABO",
")",
",",
"Gay",
"Rights",
"(",
"GAY",
")",
",",
"Obama",
"(",
"OBA",
")",
",",
"and",
"Marijuana",
"(",
"MAR",
")",
",",
"from",
"an",
"online",
"debate",
"forum1",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0
] |
8415 | [
"rlt*s*rle",
"TR",
"AN",
"SFORHATIONS",
"*S***",
"SCAN",
"CALLED",
"AT",
"1",
"I",
"ANTEST",
"CALLED",
"FOR",
"4l",
"'",
"I",
"NG",
"l1",
"(",
"AACC",
")",
",",
"SD=",
"5",
".",
"RES=",
"0",
"."
] | [
0,
0,
3,
0,
0,
0,
4,
0,
0,
0,
4,
4,
1,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
8416 | [
"P",
",",
",nnsylvania",
"(",
"UPenn",
")",
"Treebank",
".",
"We",
"plan",
"to",
"include",
"the",
"parsed",
"ICE-GB",
"(",
"Great",
"Britain",
"component",
"of",
"ICE",
")",
"and",
"the",
"BNC",
"(",
"British",
"National",
"Corpus",
")",
"in",
"the",
"project"
] | [
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
1,
0,
3,
4,
4,
0,
4,
0,
0
] |
8417 | [
"lief",
"chunk",
")",
",",
"B-NCB",
"(",
"Beginning",
"of",
"non",
"committed",
"belief",
"chunk",
")",
",",
"I-NCB",
"(",
"Inside",
"of",
"a",
"non",
"committed",
"belief",
"chunk",
")",
",",
"B-NA",
"(",
"Beginning",
"of",
"a",
"not",
"applicable",
"chunk",
")",
",",
"I-NA",
"(",
"Inside",
"a",
"not",
"applicable"
] | [
3,
4,
0,
0,
1,
0,
4,
4,
4,
4,
4,
4,
0,
0,
1,
0,
3,
4,
4,
4,
4,
4,
4,
0,
0,
1,
0,
4,
4,
4,
4,
4,
4,
0,
0,
1,
0,
4,
4,
4,
4
] |
8418 | [
"5",
"Experiments",
"and",
"Results",
"5.1",
"Data",
"We",
"use",
"the",
"British",
"National",
"Corpus",
"(",
"BNC",
")",
",3",
"which",
"contains",
"100M",
"words",
",",
"because",
"it",
"draws",
"its"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0
] |
8419 | [
"An",
"Underspecified",
"Segmented",
"Discourse",
"Representation",
"Theory",
"(",
"USDRT",
")",
"Frank",
"Schilder"
] | [
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0
] |
8420 | [
"gel",
"Balaban",
",",
"?",
"hsan",
"Yal",
"?",
"?",
"nkaya",
"Middle",
"East",
"Technical",
"University",
",",
"Ankara",
",",
"Turkey",
"and",
"?",
"mit",
"Deniz",
"Turan",
"Anadolu",
"University",
",",
"Eski",
"?",
"ehir",
",",
"Turkey",
"Corresponding",
"author",
":",
"dezeyrek",
"@",
"metu.edu.tr",
"Abstract",
"In",
"this",
"paper",
",",
"we",
"report",
"on",
"the",
"annotation",
"procedures",
"we",
"developed",
"for",
"annotating",
"the",
"Turkish",
"Discourse",
"Bank",
"(",
"TDB",
")",
",",
"an",
"effort",
"that",
"extends",
"the",
"Penn",
"Discourse",
"Tree",
"Bank",
"(",
"PDTB",
")",
"annotation",
"style",
"by",
"using",
"it",
"for",
"annotating",
"Turkish",
"discourse",
".",
"After",
"a",
"brief",
"introduction",
"to",
"the",
"TDB",
",",
"we",
"describe",
"the",
"annotation",
"cycle",
"and",
"the",
"annotation",
"scheme",
"we",
"developed",
",",
"defining",
"which",
"parts",
"of",
"the",
"scheme",
"are",
"an",
"extension",
"of",
"the",
"PDTB",
"and",
"which",
"parts",
"are",
"different",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0
] |
8421 | [
"siderable",
"interest",
"in",
"robust",
"knowledge",
"extraction",
",",
"both",
"as",
"an",
"end",
"in",
"itself",
"and",
"as",
"an",
"intermediate",
"step",
"in",
"a",
"variety",
"of",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
"applications",
"."
] | [
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0,
4,
0,
0,
0,
4,
0,
0,
4,
4,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0
] |
8422 | [
"features",
".",
"Stolcke",
"et",
"al",
"(",
"1998",
")",
"then",
"expanded",
"the",
"prosodic",
"tree",
"model",
"with",
"a",
"hidden",
"event",
"language",
"model",
"(",
"LM",
")",
"to",
"identify",
"sentence",
"boundaries",
",",
"filled",
"pauses",
"and",
"IPs",
"in"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8423 | [
"The",
"stated",
"goal",
"for",
"this",
"language",
"model",
"adaptation",
"spoke",
"was",
"``",
"to",
"evaluate",
"an",
"incremental",
"supervised",
"language",
"model",
"(",
"LM",
")",
"adaptation",
"algorithm",
"on",
"a",
"problem",
"of",
"sublanguage"
] | [
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0
] |
8424 | [
"Synthesis",
")",
"is",
"a",
"learning",
"system",
"\\",
"[",
"12,13,14\\",
"]",
"which",
"consists",
"of",
"a",
"learning",
"element",
"(",
"Meta-XMAS",
")",
",",
"a",
"knowledge",
"base",
"(",
"KB",
")",
",",
"and",
"two",
"inference",
"ngines",
"of",
"a",
"morphological",
"nalyzer",
"(",
"MOA",
")",
"and",
"a",
"mor-"
] | [
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
4,
0
] |
8425 | [
"errors",
";",
"English",
"had",
"three",
",",
"and",
"German",
"one",
".",
"While",
"it",
"is",
"worth",
"noting",
"that",
"(",
"II",
")",
"is",
"not",
"without",
"counterexamples",
",",
"it",
"is",
"significant",
"that",
"true"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
0,
1,
0,
4,
4,
0,
0,
0,
0,
4,
0,
0,
0
] |
8426 | [
"We",
"need",
"to",
"``",
"cross",
"''",
"an",
"instrument",
"the_phone",
"to",
"reach",
"another",
"person",
",",
"thus",
"we",
"also",
"refer",
"to",
"the",
"intermediate",
"locus",
"IME",
"(",
"LOC",
")",
"in",
"the",
"domain",
"of",
"communication",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
1,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
8427 | [
"5",
"Tools",
"for",
"the",
"development",
"of",
"the",
"prototype",
"experiment",
"For",
"the",
"practical",
"development",
"of",
"our",
"prototype",
"experiments",
"we",
"are",
"considering",
"to",
"use",
"the",
"upper",
"cate-gories",
"of",
"the",
"NIFSTD",
"ontology",
"and",
"wikis",
"as",
"a",
"collaborative",
"tool",
".",
"The",
"availability",
"and",
"suitability",
"for",
"our",
"research",
"of",
"the",
"former",
"has",
"been",
"considered",
"in",
"Maroto",
"(",
"2013",
")",
".",
"NIFSTD",
"(",
"NIF",
"Standard",
")",
"ontology",
"stands",
"out",
"as",
"the",
"most",
"comprehensive",
"ontology",
"of",
"the",
"neurosci-ences",
"available",
"on",
"the",
"web",
".",
"Its",
"wide",
"coverage",
"and",
"its",
"degree",
"of",
"normalisation",
"and",
"reusability",
"make",
"this",
"ontology",
"particularly",
"suitable",
"for",
"our",
"research",
"purposes",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8428 | [
"results",
"are",
"reported",
"together",
"with",
"the",
"error",
"propagation",
"from",
"argument",
"position",
"classification",
"for",
"Same",
"Sentence",
"(",
"SS",
")",
",",
"Previous",
"Sentence",
"(",
"PS",
")",
"models",
"and",
"joined",
"results",
"(",
"ALL",
")",
"as",
"precision",
"(",
"P",
")",
",",
"recall"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
3,
0,
1,
1,
0,
4,
4,
0,
1,
2,
0,
0,
0,
0,
0,
1,
2,
0,
3,
0,
4,
2,
0,
0
] |
8429 | [
"354",
"Table",
"1",
":",
"Precision",
"and",
"recMI",
"tables",
"for",
"experiments",
"starting",
"with",
"words-only",
"queries",
"(",
"Words",
")",
"through",
"phrase",
"(",
"Del",
"l",
")",
"and",
"word",
"(",
"Del2",
")",
"deletion",
"to",
"proper",
"noun",
"(",
"Caps",
")",
"and",
"noun",
"phrase",
"(",
"NP",
")",
"grouping",
".",
"The",
"queries",
"were",
"evaluated",
"on"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
2,
0,
0,
0,
0,
2,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
8430 | [
"1",
"Introduction",
"Minimum",
"error",
"rate",
"training",
"(",
"MERT",
")",
"?",
"also",
"known",
"as",
"direct",
"loss",
"minimization",
"in",
"machine",
"learning",
"?",
"is",
"a"
] | [
0,
0,
0,
3,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4
] |
8431 | [
"All",
"conditions",
"were",
"assigned",
"a",
"section",
"and",
"are",
"thereby",
"excluded",
".",
"TE",
"=",
"temporal",
"expression",
";",
"TT",
"=",
"trigger",
"term",
";",
"V",
"=",
"scoped",
"by",
"verb",
"."
] | [
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
3,
0
] |
8432 | [
"1",
"Introduction",
"Named",
"Entities",
"(",
"NEs",
")",
"play",
"a",
"critical",
"role",
"in",
"many",
"Natural",
"Language",
"Processing",
"and",
"Information"
] | [
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8433 | [
"recognition",
")",
"which",
"describes",
"a",
"relationship",
"between",
"an",
"input",
"signal",
"sequence",
"and",
"a",
"word",
",",
"the",
"other",
"is",
"a",
"language",
"model",
"(",
"LM",
")",
"which",
"measures",
"the",
"likelihood",
"of",
"a",
"sequence",
"of",
"words",
"as",
"a",
"sen-"
] | [
0,
0,
0,
0,
3,
0,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
0
] |
8434 | [
"jansche.1",
"@",
"osu.edu",
"1",
"Introduction",
"Our",
"approach",
"to",
"multilingual",
"named",
"entity",
"(",
"NE",
")",
"recognition",
"in",
"the",
"context",
"of",
"the",
"CoNLL",
"Shared"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
3,
0
] |
8435 | [
"The",
"word",
"sea",
"is",
"ambiguous",
"and",
"has",
"three",
"senses",
"as",
"given",
"in",
"the",
"Princeton",
"Wordnet",
"(",
"PWN",
")",
":",
"S1",
":",
"(",
"n",
")",
"sea",
"(",
"a",
"division",
"of",
"an",
"ocean",
"or",
"a",
"large",
"body"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
0,
1,
2,
0,
2,
4,
4,
2,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
8436 | [
"Other",
"language",
"technology",
"applications",
",",
"such",
"as",
"Question",
"Answering",
"(",
"QA",
")",
"systems",
"or",
"information",
"retrieval",
"(",
"IR",
")",
"systems",
",",
"also",
"suffer",
"from",
"the",
"poor",
"contextual",
"disambiguation",
"of",
"word",
"senses",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8437 | [
"Contextual",
"relationship",
"attributes",
":",
"1",
".",
"Prefix",
"Counted",
"Rule",
"(",
"PRC",
")",
":",
"The",
"selected",
"sense",
"is",
"the",
"most",
"commonly",
"appended",
"sense",
"by",
"the"
] | [
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8438 | [
"metric",
"TF*S~",
",",
"since",
"we",
"base",
"the",
"importance",
"of",
"a",
"?",
"SF",
"=",
"Segment",
"frequency",
"(",
"How",
"many",
"segments",
"does",
"the",
"term",
"occur",
"in",
")"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8439 | [
"{",
"UK",
",",
"US",
",",
"AU",
"}",
".",
"Figure",
"1",
":",
"Proposed",
"architecture",
"Figure",
"2",
":",
"Baseline",
"GMM",
"based",
"dialect",
"classification",
"5.2",
"Latent",
"Semantic",
"Analysis",
"for",
"Dialect",
"ID",
"One",
"approach",
"used",
"to",
"address",
"topic",
"classification",
"problems",
"has",
"been",
"latent",
"semantic",
"analysis",
"(",
"LSA",
")",
",",
"which",
"was",
"first",
"explored",
"for",
"document",
"indexing",
"in",
"(",
"Deerwester",
"et",
"al",
",",
"1990",
")",
".",
"This",
"addresses",
"the",
"issues",
"of",
"synonymy",
"-",
"many",
"ways",
"to",
"refer",
"to",
"the",
"same",
"idea",
"and",
"polysemy",
"?"
] | [
0,
0,
1,
0,
2,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
2,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8440 | [
"Tu",
"?",
"r",
",",
"Oflazer",
",",
"and",
"Tu",
"?",
"r",
"2002",
";",
"Oflazer",
"2003",
";",
"Oflazer",
"et",
"al",
"2003",
";",
"Eryig",
"?",
"it",
"and",
"Oflazer",
"2006",
")",
"has",
"represented",
"the",
"morphological",
"structure",
"of",
"Turkish",
"words",
"by",
"splitting",
"them",
"into",
"inflectional",
"groups",
"(",
"IGs",
")",
".",
"The",
"root",
"and",
"derivational",
"elements",
"of",
"a",
"word",
"are",
"represented"
] | [
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
8441 | [
"to",
"match",
"portions",
"of",
"a",
"PAS",
".",
"3.2",
"The",
"Shallow",
"Semantic",
"Tree",
"Kernel",
"(",
"SSTK",
")",
"The",
"SSTK",
"is",
"based",
"on",
"two",
"ideas",
":",
"first",
",",
"we",
"change"
] | [
0,
0,
0,
0,
3,
1,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8442 | [
"However",
",",
"this",
"hypothesis",
"is",
"reasonable",
"if",
"the",
"monolingual",
"wordnets",
"are",
"reliable",
"and",
"correctly",
"linked",
"to",
"the",
"interlingual",
"index",
"(",
"ILI",
")",
".",
"Quality"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0
] |
8443 | [
"Main",
"verb",
"of",
"main",
"clause",
"(",
"MV",
")",
"F8",
".",
"Boolean",
"feature",
"for",
"MV",
"(",
"BMV",
")",
"F9",
".",
"Previous",
"sentence",
"feature",
"(",
"PREV",
")",
"Additional",
"feature",
"used",
"only",
"for",
"Arg1F10",
".",
"Arg2",
"Labels"
] | [
3,
4,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
4,
4,
0,
2,
0,
0,
0,
3,
0,
4,
0,
1,
0,
0,
4,
0,
0,
4,
1,
0,
1,
0
] |
8444 | [
"projected",
"expectations",
"from",
"English",
".",
"To",
"this",
"end",
",",
"we",
"adopt",
"the",
"Generalized",
"Expectation",
"(",
"GE",
")",
"Criteria",
"framework",
"introduced",
"by",
"Mann",
"and",
"McCallum"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
8445 | [
"SOl",
",",
"licit",
"(",
"co+",
"t",
"{",
"ach",
"of",
"these",
"phrases",
"conlpriscs",
"a",
"contigtlous",
"sequence",
"o1",
"tags",
"that",
"satisfies",
"a",
"strut+h",
":",
"gral",
",",
"illilar",
",",
"l",
"''",
"or",
"example",
",",
"a",
"II",
"(",
",",
"itlll",
"pluase",
"eltil",
"be",
"simi",
")",
"ly",
"a",
"plonoull",
"t~ig",
"or",
"(",
",",
"in",
"all",
":",
"l",
"itlaly",
"setitlellce",
"(",
":",
",I",
"lie",
"(",
"It1",
"lind",
"ad.iective",
"lags",
",",
"pms",
"ib",
"ly"
] | [
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
1,
0,
0,
4,
4,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8446 | [
"(",
"Person",
"Names",
")",
"by",
"prometheus",
"e.",
"V.16",
",",
"and",
"Getty",
"ULAN",
"(",
"United",
"List",
"of",
"Artist",
"Names",
")",
"17",
"There",
"are",
"two",
"modes",
"of",
"use",
"for",
"name",
"authorities"
] | [
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
4,
4,
4,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0
] |
8447 | [
"procedures",
"''",
"(",
"ReP",
")",
".",
"The",
"RePs",
"work",
"on",
"a",
"memory",
"structure",
"which",
"is",
"adequate",
"for",
"the",
"representation",
"of",
"knowledge",
"about",
"objects",
",",
"the",
"``",
"referential",
"net",
"''",
"(",
"RefN",
")",
"4*",
".",
"A",
"RefN"
] | [
0,
0,
0,
1,
0,
0,
0,
2,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
2
] |
8448 | [
"rates",
"of",
"sentences",
"(",
"46.1",
"%",
")",
"(",
"53.9",
"%",
")",
"(",
"40.4",
"%",
")",
"(",
"59.6",
"%",
")",
"(",
"70.7",
"%",
")",
"(",
"29.3",
"%",
")",
"(",
"54.3",
"%",
")",
"(",
"45.7",
"%",
")",
"(",
"64.3",
"%",
")",
"(",
"35.7",
"%",
")",
"supervised",
"CRF",
"(",
"baseline",
")",
"46.78",
"60.99",
"48.57",
"60.01",
"56.92",
"67.91",
"79.60",
"97.35",
"75.69",
"91.03",
"JESS-CM",
"(",
"CRF/HMM",
")",
"49.02",
"62.60",
"50.79",
"61.24",
"62.47",
"71.30",
"85.87",
"97.47",
"80.84",
"92.85",
"(",
"gain",
"from",
"supervised",
"CRF",
")",
"(",
"+2.24",
")",
"(",
"+1.61",
")",
"(",
"+2.22",
")",
"(",
"+1.23",
")",
"(",
"+5.55",
")",
"(",
"+3.40",
")",
"(",
"+6.27",
")",
"(",
"+0.12",
")",
"(",
"+5.15",
")",
"(",
"+1.82",
")"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8449 | [
"[",
"byline",
":",
"SAN",
"SALVADOR",
",",
"19",
"APR",
"89",
"(",
"ACAN-EFE",
")",
"--",
"]",
"[",
"bracket",
":",
"[",
"TEXT",
"]",
"]",
"[",
"fullname",
":",
"SALVADORAN",
"PRESIDENT-ELECT",
"ALFREDO",
"CRISTIIII",
"]",
"CONDEMNED",
"THE",
"TERRORIST",
"KILLING",
"OF",
"[",
"fullname",
":",
"ATTORIEY",
"GENERAL",
"ROBERTO",
"GARCI",
"A",
"ALVARADO",
"]",
"AND",
"(",
"comp",
":",
"ACCUSED",
"THE",
"FARABUIDO",
"MARTI",
"NATIONAL",
"LIBERATION",
"FROIT",
"[",
"bracket",
":",
"(",
"FMLN",
")",
")",
"OF",
")",
"THE",
"CRIME",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
8450 | [
"BLEU",
"uses",
"2",
"reference",
"translations",
".",
"WER=word",
"error",
"rate",
",",
"PER=position",
"independent",
"WER",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
1,
0
] |
8451 | [
"In",
"(",
"Speriosu",
"et",
"al.",
",",
"2011",
")",
",",
"a",
"label",
"propagation",
"(",
"LProp",
")",
"approach",
"is",
"proposed",
",",
"while",
"Go",
"et",
"al",
".",
"(",
"2009",
")"
] | [
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
4,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2
] |
8452 | [
"eugene",
"@",
"mathcs.emory.edu",
"Abstract",
"Community",
"question",
"answering",
"(",
"CQA",
")",
"websites",
"contain",
"millions",
"of",
"question",
"and",
"answer"
] | [
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
4,
0,
4
] |
8453 | [
"means",
"a",
"type",
"of",
"source",
"?",
"newswire",
"(",
"NW",
")",
",",
"broadcast",
"news",
"(",
"BN",
")",
",",
"broadcast",
"conversation",
"(",
"BC",
")",
",",
"mag-"
] | [
0,
3,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
4,
0,
0,
2,
0,
0,
4,
0,
0,
2,
0,
0
] |
8454 | [
"either",
"lexically",
"encoded",
",",
"or",
"depends",
"on",
"the",
"intrinsic",
"properties",
"of",
"G",
",",
"or",
"coincides",
"with",
"a",
"salient",
"VPT",
"(",
"viewpoint",
")",
".",
"In",
"striking",
"contrast",
"with"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0,
0
] |
8455 | [
"Abstract",
"This",
"paper",
"attempts",
"to",
"use",
"an",
"off-the-shelf",
"anaphora",
"resolution",
"(",
"AR",
")",
"system",
"for",
"Bengali",
"."
] | [
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
8456 | [
"The",
"SemEval",
"?",
"2007",
"task",
"for",
"extracting",
"frame",
"semantic",
"structures",
"relies",
"on",
"the",
"human",
"annotated",
"data",
"available",
"in",
"the",
"FrameNet",
"(",
"FN",
")",
"database",
".",
"The"
] | [
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0
] |
8457 | [
"hauer",
",",
"haver",
",",
"haber",
")",
"and",
"the",
"corpus",
"does",
"not",
"contain",
"any",
"other",
"linguistic",
"information",
",",
"such",
"as",
"lemma",
"and",
"part",
"of",
"speech",
"(",
"PoS",
")",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0
] |
8458 | [
"The",
"ungrammatical",
"distracter",
",",
"e.g.",
",",
"are",
"in",
"Figure",
"1",
",",
"has",
"a",
"different",
"part",
"of",
"speech",
"(",
"POS",
")",
"than",
"the",
"correct",
"answer",
"germs",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
8459 | [
"Words/Phrases",
"as",
"Themselves",
"(",
"WD",
")",
"Symbols/Nonliteral",
"Marks",
"(",
"SY",
")",
"Phonetic/Sound",
"(",
"PH",
")",
"Spelling",
"(",
"SP",
")"
] | [
0,
0,
0,
0,
1,
0,
0,
0,
0,
1,
0,
0,
0,
1,
0,
3,
0,
1,
0
] |
8460 | [
"DS",
"=",
"Discharge",
"Summary",
",",
"Echo",
"=",
"Echocardiogram",
",",
"ED",
"=",
"Emergency",
"Department",
",",
"GI",
"=",
"Operative",
"Gastrointestinal",
",",
"RAD",
"=",
"Radiology",
"and",
"SP",
"=",
"Surgical",
"Pathology",
".",
"(",
"%",
")"
] | [
1,
0,
3,
4,
0,
3,
0,
4,
0,
1,
0,
3,
4,
0,
1,
0,
0,
3,
0,
1,
0,
3,
4,
1,
0,
3,
4,
0,
0,
0,
0
] |
8461 | [
"mdiab",
"@",
"ccls.columbia.edu",
"Abstract",
"We",
"analyze",
"overt",
"displays",
"of",
"power",
"(",
"ODPs",
")",
"in",
"written",
"dialogs",
"."
] | [
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
1,
0,
0,
0,
0,
0
] |
8462 | [
"(",
"PERS",
")",
",",
"organization",
"(",
"ORG",
")",
",",
"geo-political",
"entity",
"(",
"GPE",
")",
",",
"weapon",
"(",
"WEA",
")",
",",
"vehicle",
"(",
"VEH",
")",
",",
"location",
"(",
"LOC",
")",
",",
"and",
"facility",
"(",
"FAC",
")",
".",
"Since",
"the",
"person",
"type"
] | [
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0
] |
8463 | [
"Abstract",
"In",
"this",
"paper",
",",
"we",
"propose",
"a",
"new",
"syntaxbased",
"machine",
"translation",
"(",
"MT",
")",
"approach",
"based",
"on",
"reducing",
"the",
"MT",
"task",
"to",
"a",
"tree-"
] | [
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
2,
0,
0,
4,
0
] |
8464 | [
"The",
"second",
"one",
"is",
"a",
"variant",
"that",
"we",
"named",
"Double",
"Levenshtein",
"?",
"s",
"Edit",
"Distance",
"(",
"DLED",
")",
"(",
"see",
"Table",
"9",
"for",
"detail",
")",
"."
] | [
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
4,
0,
1,
4,
0,
0,
0,
0,
0,
2,
0
] |
8465 | [
"by",
"HG",
"'s",
"(",
"HL",
")",
".",
"In",
"particular",
",",
"we",
"show",
"that",
"HL",
"'s",
"are",
"included",
"in",
"TAL",
"'s",
"andthat",
"TAG",
"'s",
"are",
"equivalent",
"toa",
"modification",
"ofHG",
":",
"s",
"called",
"Modified",
"Head",
"Grammars",
"(",
"MHG",
"'s",
")",
".",
"The",
"inclusion",
"of",
"MHL",
"in",
"HI.",
",",
","
] | [
0,
1,
2,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
2,
2,
0,
0,
0,
1,
2,
0,
1,
2,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
0,
2,
2,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0
] |
8466 | [
"TEMPLATE",
"GENERATO",
"R",
"Template",
"Generation",
"Algorithm",
"The",
"memory-based",
"parser",
"generates",
"one",
"or",
"several",
"concept",
"sequence",
"instances",
"(",
"CSI",
"'s",
")",
"for",
"each",
"sentence",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
2,
0,
0,
0,
0,
0
] |
8467 | [
"(",
"Ramshaw",
"and",
"Marcus",
",",
"1995",
")",
"approached",
"chucking",
"by",
"using",
"Transformation",
"Based",
"Learning",
"(",
"TBL",
")",
"."
] | [
3,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0
] |
8468 | [
"demonstrate",
"such",
"dependencies",
".",
"The",
"Maximum",
"Entropy",
"(",
"MaxEnt",
")",
"model",
"(",
"Berger",
"et",
"al",
",",
"1996",
")",
"estimates",
"the",
"probability",
"of",
"a",
"time-bin"
] | [
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
8469 | [
"dialogues",
"categorized",
"into",
"multiple",
"domains",
",",
"we",
"create",
"a",
"particular",
"type",
"of",
"hidden",
"Markov",
"model",
"(",
"HMM",
")",
"called",
"Class",
"Speaker",
"HMM",
"(",
"CSHMM",
")",
"to",
"model",
"operator/caller",
"utterance",
"sequences",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0
] |
8470 | [
"shared",
"task",
",",
"namely",
"FLORIAN",
"(",
"Florian",
"et",
"al.",
",",
"2003",
")",
"and",
"CHIEU-NG",
"(",
"Chieu",
"and",
"Ng",
",",
"2003",
")",
"."
] | [
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0,
3,
1,
0,
4,
4,
4,
0,
0,
0,
0
] |
8471 | [
"1",
"Introduction",
"Open-domain",
"Question",
"Answering",
"(",
"QA",
")",
"systems",
"are",
"concerned",
"with",
"the",
"problem",
"of",
"trying"
] | [
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
8472 | [
"229",
"Proceedings",
"of",
"the",
"2014",
"Conference",
"on",
"Empirical",
"Methods",
"in",
"Natural",
"Language",
"Processing",
"(",
"EMNLP",
")",
",",
"pages",
"1810",
"?",
"1815",
",",
"October",
"25-29",
",",
"2014",
",",
"Doha",
",",
"Qatar",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8473 | [
"1",
"Introduction",
"Large-scale",
"open-domain",
"question",
"answering",
"from",
"structured",
"Knowledge",
"Base",
"(",
"KB",
")",
"provides",
"a",
"good",
"balance",
"of",
"precision",
"and",
"recall",
"in",
"everyday",
"QA"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
1
] |
8474 | [
"th",
"fo",
"frture",
"representations",
"abstracts",
"(",
"AbT",
")",
",",
"titles",
"(",
"ArT",
")",
",",
"authors",
"(",
"Aut",
")",
",",
"Journals",
"(",
"Jou",
")",
",",
"and",
"Mesh",
"Headings"
] | [
3,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
4,
0,
1,
0,
0,
3,
0,
4,
0,
0,
0,
0,
0
] |
8475 | [
"787",
"After",
"labeling",
"the",
"reference",
"BINet",
",",
"we",
"train",
"a",
"learning",
"to",
"rank",
"(",
"L2R",
")",
"model2",
"using",
"the",
"following",
"features",
"for",
"scoring",
"nodes",
"in",
"the",
"target",
"BINet"
] | [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
8476 | [
"for",
"the",
"annotation",
"process",
".",
"Topic",
"models",
"(",
"TMs",
")",
"are",
"a",
"suite",
"of",
"unsuper992"
] | [
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
8477 | [
"Evidence",
"for",
"a",
"text",
"?",
"s",
"topic",
"and",
"genre",
"comes",
",",
"in",
"part",
",",
"from",
"its",
"lexical",
"and",
"syntactic",
"features",
"?",
"features",
"used",
"in",
"both",
"Automatic",
"Topic",
"Classification",
"and",
"Automatic",
"Genre",
"Classification",
"(",
"AGC",
")",
".",
"Because",
"an",
"ideal",
"AGC",
"system",
"should"
] | [
0,
0,
3,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
2,
0,
0
] |
8478 | [
"0.35",
"0.25",
"0.50",
"0.75",
"1.00",
"Omission",
"Rate",
"(",
"OR",
")",
"Co"
] | [
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0
] |
8479 | [
"The",
"query",
"(",
"Figure",
"4a",
")",
"will",
"match",
"adjectives",
"(",
"ADJA",
")",
"adjacent",
"to",
"a",
"following",
"noun",
"(",
"NN",
")",
"which",
"must",
"not",
"have",
"another",
"dependent",
"that",
"is",
"either",
"a",
"modifying",
"noun",
"or",
"name",
"(",
"NE",
")",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
0,
4,
0,
1,
0,
0
] |
8480 | [
"the",
"middle",
"(",
"Baxendale",
",",
"1958",
")",
".",
"Sentence",
"Position",
"Yield",
"(",
"SPY",
")",
"is",
"obtained",
"separately",
"for",
"both",
"types",
"of",
"documents",
"."
] | [
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
8481 | [
"By",
"contrast",
",",
"our",
"approach",
"operates",
"at",
"the",
"level",
"of",
"inflectional",
"property",
"sets",
"(",
"IPS",
")",
",",
"or",
"more",
"properly",
",",
"at",
"the",
"level",
"of",
"inflectional",
"paradigms",
"."
] | [
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
2,
2,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0
] |