EMNLP
メモメモ。談話成分多め。上に行くほど読みたい度合いが強い。 Structured Relation Discovery using Generative Models (pdf) “X was born in Y” and “X is from Y”"というのが同じような関係から生成されると考えてトピックモデルで定式化 Unsupervised St…
ICML、ACLのほうもまだ全然読めていないわけですが...。 EMNLP 2011 - List of accepted papers Linear Text Segmentation Using Affinity Propagation, Anna Kazantseva and Stan Szpakowicz Predicting Thread Discourse Structure over Technical Web For…
Joseph Reisinger and Raymond Mooney. 2010, In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing (EMNLP '10). Association for Computational Linguistics, Morristown, NJ, USA, 1173-1182.意味談話勉強会にて…
Taesun Moon, Katrin Erk, Jason Baldridge, Proceedings of EMNLP-2010.言語によらず単語には機能語と内容語のようなものが存在するが、教師なしpos taggingでよく使われるHMMではこのような機能語、内容語の違いを捉えられない。このモデル(CDHMMとHMM+)で…
Xiaoli Li, Bing Liu and See-Kiong Ng, in Proceedings of Conference on Empirical Methods in Natural Language Processing (EMNLP-10). Oct. 9-11, 2010, MIT, Massachusetts, USA.いわゆるcovariate shift的な問題を考えている論文。covariate shiftと…
Xian Qian, Qi Zhang, Yaqian Zhou, Xuanjing Huang, Lide Wu, in Proc. of EMNLP 2010, Massachusetts, USA.Joint Learningでword segmentationとNERを一緒にやる話。既存手法にDynamic Conditional Random Fields(DCRFs)というものがあるが、Figure 1のよ…
告知していたように、研究室でEMNLP読み会を開催しました。おかげ様で読み手の人数が増えたので、二回に分けてやることになりそうです(第二回目は11月に)。ai-aさんとkodai-t、joseph-iが読み手で参加してくれました、ありがとうございます(自分も一個担当)…
"Measuring Distributional Similarity in Context" input matrixからlatent structureを明らかにしたい(latent使うことでcontextを見る?) meaningをhidden variableにして周辺化したものを考える(語によってmeaningの数がえらい違う気が...) =>NMFを使う =>…
写真ばっかり載せていると遊びに行ったと思われそうなので(w)、発表聞いてたやつのメモ。自分が聞いた発表に限るので、もっと面白い発表もあったんだろうとは思いますが、聞いた&ある程度分かったやつについてのメモ。正確性については全く保証しません。par…
デジカメが行方不明だったためiPhone 3Gのしょぼいカメラでお送りします(kodai-tがデジカメ持ってたので、その写真もらったら追加するかも)。 ボストンまでの道程 会場はMIT@ボストンで、関空->サンフランシスコ->ボストンとサンフランシスコを経由。10/8が…
EMNLP 2010 論文通ったわけじゃないのに行ってきます。発表しないのに行くとか何事って感じですが、NAISTの特待生の制度で聴講でも一回どこかの国際会議に参加できるという特典があるので、それで行かせてもらいます。(EMNLPかは分からないけど)来年は自分で…
Thorsten Brants, Ashok C. Popat, Peng Xu, Franz J. Och, Jeffrey Dean, EMNLP-2007内容は結構シンプル。目的意識としては How might one build a language model that allows scaling to very large amounts of training data?(どーやってでかいデータで…