Constituent Parsing. Daniel Zeman

Podobné dokumenty
Syntactic annotation of a second-language learner corpus

USING VIDEO IN PRE-SET AND IN-SET TEACHER TRAINING

Škola: Střední škola obchodní, České Budějovice, Husova 9. Inovace a zkvalitnění výuky prostřednictvím ICT

Gymnázium, Brno, Slovanské nám. 7 WORKBOOK. Mathematics. Teacher: Student:

WORKSHEET 1: LINEAR EQUATION 1

Compression of a Dictionary

Tento materiál byl vytvořen v rámci projektu Operačního programu Vzdělávání pro konkurenceschopnost.

GUIDELINES FOR CONNECTION TO FTP SERVER TO TRANSFER PRINTING DATA

VY_32_INOVACE_06_Předpřítomný čas_03. Škola: Základní škola Slušovice, okres Zlín, příspěvková organizace

Střední průmyslová škola strojnická Olomouc, tř.17. listopadu 49

Dynamic programming. Optimal binary search tree

Střední průmyslová škola strojnická Olomouc, tř.17. listopadu 49

Počítačové zpracování češtiny. Syntaktická analýza. Daniel Zeman

DC circuits with a single source

Universal Dependencies and non-native Czech

Theme 6. Money Grammar: word order; questions

Czech Republic. EDUCAnet. Střední odborná škola Pardubice, s.r.o.

Výukový materiál zpracovaný v rámci operačního programu Vzdělávání pro konkurenceschopnost

Introduction to MS Dynamics NAV

DATA SHEET. BC516 PNP Darlington transistor. technický list DISCRETE SEMICONDUCTORS Apr 23. Product specification Supersedes data of 1997 Apr 16

CZ.1.07/1.5.00/

Vánoční sety Christmas sets

Database systems. Normal forms

Litosil - application

CZ.1.07/1.5.00/

Projekt: ŠKOLA RADOSTI, ŠKOLA KVALITY Registrační číslo projektu: CZ.1.07/1.4.00/ EU PENÍZE ŠKOLÁM

Britské společenství národů. Historie Spojeného království Velké Británie a Severního Irska ročník gymnázia (vyšší stupeň)

Present Perfect x Past Simple Předpřítomný čas x Minulý čas Pracovní list

Střední škola obchodní, České Budějovice, Husova 9, VY_INOVACE_ANJ_741. Škola: Střední škola obchodní, České Budějovice, Husova 9

CZ.1.07/1.5.00/

Zachycení (nejen) koordinací v závislostních stromech

1, Žáci dostanou 5 klíčových slov a snaží se na jejich základě odhadnout, o čem bude následující cvičení.

Název projektu: Multimédia na Ukrajinské

CZ.1.07/1.5.00/

Configuration vs. Conformation. Configuration: Covalent bonds must be broken. Two kinds of isomers to consider

Cambridge International Examinations Cambridge International General Certificate of Secondary Education

Next line show use of paragraf symbol. It should be kept with the following number. Jak může státní zástupce věc odložit zmiňuje 159a.

Cambridge International Examinations Cambridge International General Certificate of Secondary Education

Tabulka 1 Stav členské základny SK Praga Vysočany k roku 2015 Tabulka 2 Výše členských příspěvků v SK Praga Vysočany Tabulka 3 Přehled finanční

CZ.1.07/1.5.00/

Transportation Problem

Střední průmyslová škola strojnická Olomouc, tř.17. listopadu 49

Název projektu: Multimédia na Ukrajinské

VYSOKÁ ŠKOLA HOTELOVÁ V PRAZE 8, SPOL. S R. O.

Fytomineral. Inovace Innovations. Energy News 04/2008

Škola: Střední škola obchodní, České Budějovice, Husova 9. Inovace a zkvalitnění výuky prostřednictvím ICT

EU peníze středním školám digitální učební materiál

Content Language level Page. Mind map Education All levels 2. Go for it. We use this expression to encourage someone to do something they want.

SPECIAL THEORY OF RELATIVITY

POPIS TUN TAP. Vysvetlivky: Modre - překlad Cervene - nejasnosti Zelene -poznamky. (Chci si ujasnit o kterem bloku z toho schematu se mluvi.

Informace o písemných přijímacích zkouškách. Doktorské studijní programy Matematika

CHAIN TRANSMISSIONS AND WHEELS

Digitální učební materiál

CZ.1.07/1.5.00/

Číslo materiálu: VY 32 INOVACE 29/18. Číslo projektu: CZ.1.07/1.4.00/

18.VY_32_INOVACE_AJ_UMB18, Frázová slovesa.notebook. September 09, 2013

Výukový materiál zpracovaný v rámci operačního programu Vzdělávání pro konkurenceschopnost

MIKROPROCESORY PRO VÝKONOVÉ SYSTÉMY. Stručný úvod do programování v jazyce C 2.díl. České vysoké učení technické Fakulta elektrotechnická

PAINTING SCHEMES CATALOGUE 2012

Invitation to ON-ARRIVAL TRAINING COURSE for EVS volunteers

Energy vstupuje na trh veterinárních produktů Energy enters the market of veterinary products


Škola: Střední škola obchodní, České Budějovice, Husova 9. Inovace a zkvalitnění výuky prostřednictvím ICT

Výukový materiál zpracovaný v rámci operačního programu Vzdělávání pro konkurenceschopnost

Škola: Střední škola obchodní, České Budějovice, Husova 9. Inovace a zkvalitnění výuky prostřednictvím ICT

Vliv metody vyšetřování tvaru brusného kotouče na výslednou přesnost obrobku

Anotace Mgr. Filip Soviš (Autor) Angličtina, čeština Speciální vzdělávací potřeby - žádné -

Škola: Střední škola obchodní, České Budějovice, Husova 9. Inovace a zkvalitnění výuky prostřednictvím ICT

Anotace Mgr. Filip Soviš (Autor) Angličtina, čeština Speciální vzdělávací potřeby - žádné -

DUM DIGITÁLNÍ UČEBNÍ MATERIÁL ANGLIČTINA. Mgr. Kateřina Kasanová

LOGBOOK. Blahopřejeme, našli jste to! Nezapomeňte. Prosím vyvarujte se downtrade

CZ.1.07/1.5.00/

CZ.1.07/1.5.00/

CZ.1.07/1.5.00/ Zefektivnění výuky prostřednictvím ICT technologií III/2 - Inovace a zkvalitnění výuky prostřednictvím ICT

kupi.cz Michal Mikuš

Cambridge International Examinations Cambridge International General Certificate of Secondary Education

2N Voice Alarm Station

Billy Elliot 1 Pre-watching activities A2/B1

ANGLICKÁ KONVERZACE PRO STŘEDNĚ POKROČILÉ

Chapter 7: Process Synchronization

Výukový materiál zpracovaný v rámci projektu EU peníze do škol. illness, a text

Střední průmyslová škola strojnická Olomouc, tř.17. listopadu 49

Střední odborná škola stavební a Střední odborné učiliště stavební Rybitví

Just write down your most recent and important education. Remember that sometimes less is more some people may be considered overqualified.

Střední odborná škola a Střední odborné učiliště, Chrudim, Čáslavská 205. Keywords: The wedding banquet, The seating arrangement, Wedding customs

PRODEJNÍ EAUKCE A JEJICH ROSTOUCÍ SEX-APPEAL SELLING EAUCTIONS AND THEIR GROWING APPEAL

II_ _Listening Pracovní list č. 2.doc II_ _Listening Pracovní list č. 3.doc II_ _Listening Řešení 1,2.doc

Jakub Zavodny (University of Oxford, UK)

PITSTOP VY_22_INOVACE_26

Číslo projektu: CZ.1.07/1.5.00/ Název projektu: Inovace a individualizace výuky

CZ.1.07/1.5.00/

Aplikace matematiky. Dana Lauerová A note to the theory of periodic solutions of a parabolic equation

Topic 2. Building Materials and Their Properties Grammar: Passive voice

2. Entity, Architecture, Process

CZ.1.07/1.5.00/

Budějovice Název materiálu: Reported Speech. Datum (období) vytvoření: Srpen Autor materiálu: PhDr. Dalibor Vácha PhD. Zařazení materiálu:

Návrh a implementace algoritmů pro adaptivní řízení průmyslových robotů

SPECIFICATION FOR ALDER LED

Modal Verbs Způsobová slovesa Pracovní list

POSLECH. Cinema or TV tonight (a dialogue between Susan and David about their plans for tonight)

Transkript:

Constituent Parsing Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094

Observation: Phrases Are Related to Context-Free Grammars Phrase structure of a sentence corresponds to the derivation tree under the grammar that generates / recognizes the sentence. Example: S NP VP (a sentence has a subject and a predicate) NP N (a noun is a noun phrase) VP V NP (a verb phrase consists of a verb and its object) Lexicon part of the grammar: N dog cat man car John V see sees saw bring brings brought 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 2

Lexicon In practice the lexical part can (and should) be implemented separately from the grammar. The nonterminals of the lowest level (immediately above the terminals) might be POS tags. Then morphological analysis and tagging (disambiguation of MA) solves the lowest level of the phrase tree. In fact, disambiguation is not necessary. There will be other ambiguities in the tree anyway. The parser can take care of them. The grammar works only with POS tags. This is why we sometimes talk about preterminals (the nonterminals immediately above the leaf nodes). 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 3

An Extended Grammar Example for Czech (7 Cases!) NP N AP N AP A AdvP A AdvP Adv AdvP Adv N pán hrad muž stroj A mladý velký zelený Adv velmi včera zeleně NP nom N nom NP nom AP nom N nom NP nom N nom NP gen NP gen N gen NP gen AP gen N gen NP gen N gen NP gen N nom pán hrad muž N gen pána hradu muže N dat pánovi hradu muži N acc pána hrad muže N voc pane hrade muži N loc pánovi hradu muži N ins pánem hradem 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 4

An Extended Grammar Example for Czech (Verbs) VP VP obligatory VP VP obligatory OptMod VP obligatory V intr VP obligatory V trans NP acc VP obligatory V ditr NP dat NP acc VP obligatory V mod VINF V intr šedivět brzdit V trans koupit ukrást V ditr dát půjčit poslat V mod moci smět muset (tens to hundreds of frames) OptMod AdvP location AdvP time AdvP manner 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 5

Unification Grammar An alternative to nonterminal splitting Instead of seven context-free rules: NP nom AP nom N nom NP gen AP gen N gen NP dat AP dat N dat NP acc AP acc N acc NP voc AP voc N voc NP loc AP loc N loc NP ins AP ins N ins One unification rule: NP AP N := [case = AP^case # N^case] 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 6

Parsing with a Context-Free Grammar Hierarchy of grammars: Noam Chomsky (1957): Syntactic Structures Couple of classical algorithms. CYK (Cocke-Younger-Kasami) complexity O(n 3 ) John Cocke ( inventor ) Tadao Kasami (1965), Bedford, MA, USA (another independent inventor ) Daniel H. Younger (1967) (computational complexity analysis) Constraint of CYK: grammar is in CNF (Chomsky Normal Form), i.e. the right-hand side of every rule consists of either two nonterminals or one terminal. (CFGs can be easily transformed to CNF.) 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 7

Parsing with a Context-Free Grammar Chart parser: CYK requires a data structure to hold information about partially processed possibilities. Turn of 1960s and 1970s: the chart structure proposed for this purpose. Jay Earley (1968), PhD thesis, Pittsburgh, PA, USA A somewhat different version of chart parsing. For details on chart parser, see the earlier lecture about morphology and context-free grammars. 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 8

Syntactic Analysis (Parsing) Automatic methods of finding the syntactic structure for a sentence Symbolic methods: a phrase grammar or another description of the structure of language is required. Then: the chart parser. Statistical methods: a text corpus with syntactic structures is needed (a treebank). Hybrid methods: a simple grammar, ambiguities solved statistically with a corpus. Chunking / shallow parsing 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 9

Probabilistic Context-Free Grammars PCFG (probabilistic context-free grammars) If there are several possible parses we want to weigh them. Competing parses are caused by competing rules with the same left-hand side. The idea: probabilistic distribution for rules with the same left-hand side. Example: grammar hasvp V NP andvp V NP PP. The input sentence allows both these readings, too. But we know (e.g.) that the second way of building a VP is more frequent: p(v NP VP) = 0.3 p(v NP PP VP) = 0.7 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 10

Ambiguous Parse S NP VP VP V NP PP VP V NP NP N NP N PP PP PREP N N man N woman N car V saw S VP NP VP NP NP PP V N N V N PREP N PP PREP N PREP in man saw woman in car 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 11

Probability of Parse Tree Both phrases / parses are grammatical. Different readings. Which one is better in this context? Probabilistic context-free grammar: Relations between parent and child nodes. Probability of derivation, use of a rule. Probability of the whole parse tree (r i are grammar rules used to generate the sentence S whose parse is T): p n ( T ) = p( r i ) i= 1 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 12

Assumptions Application of a rule is independent of application of other rules in the sentence (very strong and improbable assumption). Independence of context of other subtrees. Independence of context of ancestors (higher levels). Independence of location in the sentence (word order) or in the tree. 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 13

Rule Probability Rule r i : A α. Let s denote R A the set of all rules r j whose left-hand side is the nonterminal A. Let s define a probability distribution on R A : r R A p( r) = 1 0 p( r) 1 In other words: p ( r) p( α A) = = A α r ( ) + α N T 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 14

Estimation of Rule Probability A treebank based on a context-free grammar (i.e. not a dependency treebank). c r = A α 1 α 2 Kα k ( ) ( r) p r = c A ( ) Frequency of rule application: how often is there this subtree in the treebank A α 1 α 2 α k 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 15

Practical Phrase-Based Parsing Rule-based parsers, e.g. Fidditch (Donald Hindle, 1983) Collins parser (Michael Collins, 1996 1999) Probabilistic context-free grammars, lexical heads Labeled precision & recall on Penn Treebank / Wall Street Journal data / Section 23 = 85% Reimplemented in Java by Dan Bikel ( Bikel parser ), freely available Charniak parser (Eugene Charniak, NAACL 2000) Maximum entropy inspired parser P ~ R ~ 89.5% Mark Johnson: reranker => over 90% Stanford parser (Chris Manning et al., 2002 2010) Produces dependencies, too. Initial P ~ R ~ 86.4% 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094 16

Dependency Parsing Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094

Dependency Parsing with a Statistical Model Manually annotated corpus (treebank) p(edge([ve], [dveřích])) = p 1 p(edge([v], [dveřích])) = p 2 p(edge([ve], [dveře])) = p 3 p(edge([ve], [dveřím])) = p 4 where perhaps: p 1 > p 2 > p 3 and p 4 0 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 18

Base Idea: Looking for the Most Searching for tree M that represents the given sentence S with the highest possible probability. Formally: Bayes rule: Probable Tree arg max M p( M S) p( M S) = p( S M ) p( S) p(s M) is the probability that the sentence whose description is the tree M is S. p(m) is the probability of the occurrence (existence) of the tree M. p(s) is the probability of the occurrence of the sentence S. From the point of view of searching the most probable tree this is a mere constant that does not influence the result: p( M ) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 19

Base Idea: Looking for the Most Probable Tree p(s) is the probability of the occurrence of the sentence S. From the point of view of searching the most probable tree this is a mere constant that does not influence the result: arg max M p( S M ) p( M ) p( S) = arg max ( p( S M ) p( M )) So the task is to estimate the probabilities p(s M) and p(m). p(s M) can be maximized so that the tree M is constructed directly of the words of the sentence S. M 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 20

Tree Probability Assumption: dependencies do not depend on each other (strong and wrong a better model would be more careful) Product of probabilities of dependencies. p ( M ) = p( h i ) How to find the most probable tree? Similarly to tagging: by Viterbi algorithm! (The middle course between the greedy algorithm and backtracking.) n i= 1 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 21

Graph-Based Parsers: MST McDonald et al., HLT-EMNLP 2005 http://sourceforge.net/projects/mstparser/ MST = maximum spanning tree = cs: nejlépe ohodnocená kostra (orientovaného) grafu Start with a total graph. We assume that there can be a dependency between any two words of the sentence. Gradually remove poorly valued edges. A statistical algorithm will take care of the valuation. It is trained on edge features. Example features: lemma, POS, case of governing / dependent node. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 22

MST Parser Feature engineering (tell the parser what features to track) by modifying the source code (Java). Not easy to incorporate 2 nd order features I.e. edge weight depends e.g. on POS tag of its grandparent. Parser can be run in nonprojective mode. Training on the whole PDT reportedly takes about 30 hours. It is necessary to iterate over all feature combinations and look for the most useful ones. In comparison to that, the parsing proper is quite fast. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 23

Transition-Based Parsers: Malt Nivre et al., Natural Language Engineering, 2007 http://maltparser.org/ Based on transitions from one configuration to another. Configuration: Input buffer (words of the sentence, left-to-right) Stack Output tree (words, dependencies and dependency labels) Transitions: Shift: move word from buffer to stack Larc: left dependency between two topmost words on stack Rarc: right dependency between two topmost words on stack 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 24

Malt Parser Parser driven by oracle that selects the transition operation based on the current configuration. Training: decompose the tree from training data to a sequence of configurations and transitions Sometimes there are more than one possibility Various learning strategies: e.g. create dependencies eagerly, as soon as possible. The oracle learns based on the features of the configuration. E.g. word, lemma, POS, case, number n th word from the top of the stack k th word remaining in the buffer particular node in output tree part created so far 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 25

Malt Parser Again, a machine learning algorithm is responsible for training, here the Support Vector Machines (SVM). Classifier. Input vectors: values of all features of the current configuration. In addition, during training there is the output value, i.e. action identifier (Shift / Larc / Rarc). The trained oracle (SVM) tells the output value during parsing. Training on the whole PDT may take weeks! Complexity O(n 2 ) where n is number of training examples. Over 3 million training examples can be extracted from PDT. Parsing is relatively faster (~ 1 sentence / second) and can be parallelized. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 26

Example of Malt Parsing stack = # buffer = Pavel dal Petrovi dvě hrušky. English = Paul gave to-peter two pears. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 27

Example of Malt Parsing stack = # buffer = Pavel dal Petrovi dvě hrušky. tree = SHIFT stack = # Pavel buffer = dal Petrovi dvě hrušky. tree = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 28

Example of Malt Parsing stack = # Pavel buffer = dal Petrovi dvě hrušky. tree = SHIFT stack = # Pavel dal buffer = Petrovi dvě hrušky. tree = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 29

Example of Malt Parsing stack = # Pavel dal buffer = Petrovi dvě hrušky. tree = LARC stack = # dal buffer = Petrovi dvě hrušky. tree = dal(pavel) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 30

Example of Malt Parsing stack = # dal buffer = Petrovi dvě hrušky. tree = dal(pavel) SHIFT stack = # dal Petrovi buffer = dvě hrušky. tree = dal(pavel) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 31

Example of Malt Parsing stack = # dal Petrovi buffer = dvě hrušky. tree = dal(pavel) RARC stack = # dal buffer = dvě hrušky. tree = dal(pavel,petrovi) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 32

Example of Malt Parsing stack = # dal buffer = dvě hrušky. tree = dal(pavel,petrovi) SHIFT stack = # dal dvě buffer = hrušky. tree = dal(pavel,petrovi) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 33

Example of Malt Parsing stack = # dal dvě buffer = hrušky. tree = dal(pavel,petrovi) SHIFT stack = # dal dvě hrušky buffer =. tree = dal(pavel,petrovi) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 34

Example of Malt Parsing stack = # dal dvě hrušky buffer =. tree = dal(pavel,petrovi) LARC stack = # dal hrušky buffer =. tree = dal(pavel,petrovi),hrušky(dvě) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 35

Example of Malt Parsing stack = # dal hrušky buffer =. tree = dal(pavel,petrovi),hrušky(dvě) RARC stack = # dal buffer =. tree = dal(pavel,petrovi,hrušky(dvě)) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 36

Example of Malt Parsing stack = # dal buffer =. tree = dal(pavel,petrovi,hrušky(dvě)) RARC stack = # buffer =. tree = #(dal(pavel,petrovi,hrušky(dvě))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 37

Example of Malt Parsing stack = # buffer =. tree = #(dal(pavel,petrovi,hrušky(dvě))) SHIFT stack = #. buffer = tree = #(dal(pavel,petrovi,hrušky(dvě))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 38

Example of Malt Parsing stack = #. buffer = tree = #(dal(pavel,petrovi,hrušky(dvě))) RARC stack = # buffer = tree = #(dal(pavel,petrovi,hrušky(dvě)),.) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 39

Nonprojective Mode of Malt It can be proved that the above transition system is correct resulting graph is always a tree (continuous, cycle-free) complete for the set of projective trees every projective tree can be expressed as a sequence of transitions How to add nonprojective dependencies? New transition operation SWAP: Take second topmost word from stack and return it to buffer. That will swap the order of the input words. This action is permitted only for words that have not been swapped before (their order on the stack corresponds to their original order in the sentence). 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 40

Nonprojective Parsing Example stack = # buffer = Soubor se nepodařilo otevřít. English = File itself it-did-not-succeed to-open. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 41

Nonprojective Parsing Example stack = # buffer = Soubor se nepodařilo otevřít. tree = SHIFT stack = # Soubor buffer = se nepodařilo otevřít. tree = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 42

Nonprojective Parsing Example stack = # Soubor buffer = se nepodařilo otevřít. tree = SHIFT stack = # Soubor se buffer = nepodařilo otevřít. tree = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 43

Nonprojective Parsing Example stack = # Soubor se buffer = nepodařilo otevřít. tree = SHIFT stack = # Soubor se nepodařilo buffer = otevřít. tree = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 44

Nonprojective Parsing Example stack = # Soubor se nepodařilo buffer = otevřít. tree = LARC stack = # Soubor nepodařilo buffer = otevřít. tree = nepodařilo(se) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 45

Nonprojective Parsing Example stack = # Soubor nepodařilo buffer = otevřít. tree = nepodařilo(se) SHIFT stack = # Soubor nepodařilo otevřít buffer =. tree = nepodařilo(se) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 46

Nonprojective Parsing Example stack = # Soubor nepodařilo otevřít buffer =. tree = nepodařilo(se) SWAP stack = # Soubor otevřít buffer = nepodařilo. tree = nepodařilo(se) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 47

Nonprojective Parsing Example stack = # Soubor otevřít buffer = nepodařilo. tree = nepodařilo(se) LARC stack = # otevřít buffer = nepodařilo. tree = nepodařilo(se),otevřít(soubor) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 48

Nonprojective Parsing Example stack = # otevřít buffer = nepodařilo. tree = nepodařilo(se),otevřít(soubor) SHIFT stack = # otevřít nepodařilo buffer =. tree = nepodařilo(se),otevřít(soubor) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 49

Nonprojective Parsing Example stack = # otevřít nepodařilo buffer =. tree = nepodařilo(se),otevřít(soubor) LARC stack = # nepodařilo buffer =. tree = nepodařilo(se,otevřít(soubor)) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 50

Nonprojective Parsing Example stack = # nepodařilo buffer =. tree = nepodařilo(se,otevřít(soubor)) RARC stack = # buffer =. tree = #(nepodařilo(se,otevřít(soubor))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 51

Nonprojective Parsing Example stack = # buffer =. tree = #(nepodařilo(se,otevřít(soubor))) SHIFT stack = #. buffer = tree = #(nepodařilo(se,otevřít(soubor))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 52

Nonprojective Parsing Example stack = #. buffer = tree = #(nepodařilo(se,otevřít(soubor))) RARC stack = # buffer = tree = #(nepodařilo(se,otevřít(soubor)),.) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 53

Malt and MST Accuracy Czech (PDT): MST Parser over 85% Malt Parser over 86% Sentence accuracy ( complete match ) 35%, that is high! The two parsers use different strategies and can be combined (either by voting (third parser needed) or one preparing features for the other) Other languages (CoNLL shared tasks) MST was slightly better on most languages. Accuracies not comparable cross-linguistically, figures are very dependent on particular corpora. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 54

Features Are the Key to Success Common feature of MST and Malt: Both can use large number of input text features. Nontrivial machine learning algorithm makes sure that the important features will be given higher weight. Machine learning algorithms are general classifiers. Typically there is a library ready to download. The concrete problem (here tree building) must be converted to a sequence of classification decisions, e.g. vectors (feature values + answer). 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 55

Newer Parsers Parsito / UDPipe (Milan Straka) Stanford (Tim Dozat et al.) Syntaxnet (Google) Mate (Bernd Bohnet) Turboparser (André Martins) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094 56