
アリババの人工知能チームが @Stanford 大学の読解力テストで人間に始めて勝ったのが、今年の1月。スコアは、 ・人:82.304 ・AI:82.44 グーグルの《BERT》でトレーニングさせた人工知能のスコアは何と、87.433!10カ月で5ポイントも上げている。人間とマシン、読解力の差は今後更に広がる🤖。 twitter.com/GoogleAI/statu…
2018-11-03 16:51:29
We have released @TensorFlow code+models for BERT, a brand new pre-training technique which is now state-of-the-art on a wide array of natural language tasks. It can also be used on many new tasks with minimal changes and quick training! goo.gl/AHnGzu
2018-11-03 02:36:20
Google AI ブログ Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing ai.googleblog.com/2018/11/open-s… 今、ものすごい話題になっているBERTの話(たくさんの自然言語理解タスクで衝撃的な成果を叩き出した手法)。 質問応答タスクSQuAD v1.1では、人間越えの性能!!! pic.twitter.com/ocQlHC3qMa
2018-11-03 03:38:16


GLUEベンチマークの全言語理解タスクでぶっちぎりのSOTA! 質疑応答タスクのSQuADでもSOTA! 話題の手法BERTってなにっ?(24層16注意ヘッドのTransformer!?) paper: arxiv.org/abs/1810.04805 pic.twitter.com/dAr3Lq9rPi
2018-10-13 10:47:10




結局BERTの何が恐ろしいかって言語モデルを一回学習させとけばおそらく機械翻訳や対話生成とかも汎用的にブーストできる万能薬なのに副作用がないとこなんだよなぁ(だからpretrainモデルが公開されたらNLP全域でくそ流行ると思ってる) twitter.com/_Ryobot/status…
2018-10-14 16:31:30
大きなTransformerを双方向にして、大きなコーパスで事前学習し、転移学習したところ、NLPタスクの精度を不連続にあげたBERT。GNMT・GQNのような力業の側面も少しあるが、NLPが人間並の精度を出す可能性を示した。 twitter.com/DL_Hacks/statu…
2018-10-21 00:09:40
NLPにおけるImageNet Pretrainedモデルに相当するfine-tuningアプローチであるBERTモデルの紹介.NLPで話題のfeature-basedアプローチのELMoなども少し紹介. slideshare.net/DeepLearningJP…
2018-10-20 21:00:01
現時点で最強モデルBERTの本家コードと学習済みモデル。論文に書いていた通り、10月末の公開。さすがです! github.com/google-researc…
2018-11-01 09:17:38
SWAGデータセット(常識推論タスク)において、BERTが早々に人間レベルに到達!? BERT(2018年10月11日!!!) arxiv.org/abs/1810.04805 SWAG(2018年8月16日!!!) arxiv.org/abs/1808.05326 pic.twitter.com/QwpQa697mz
2018-10-12 23:50:13

Soneokaさん「NLP(自然言語処理)が人間並の精度を出す可能性を示した」 新井紀子さん、いまBERTの論文読んでるところかな?でも、OpenAIの論文(言語理解タスクで大幅に改善した研究)については、まったく触れてないよね?もう数か月も経ってるのに。どう思ってるのか、だれか聞いて()
2018-10-29 16:22:43
Google、事前学習済みの自然言語処理モデル、BERTを公開。NLPモデルがより手早く構成可能に。日本語対応は年末を予定。 ai.googleblog.com/2018/11/open-s…
2018-11-03 08:06:24
【OSS】Google、言語表現事前トレーニング手法「BERT」をオープンソース公開---最新の質問応答システムを30分で訓練 Googleは、言語表現事前トレーニング手法 ossnews.jp/oss_info/artic…
2018-11-05 11:40:35
言語系で色々と驚異的に性能があがったBERTのコードと学習済みデータが公開。Fine-tuningは64G積んだTPUで可能とのこと。24-layer, 1024-hidden, 16-heads, 340M parameters… htn.to/A2JZZ2
2018-11-01 10:24:31
[2018] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding github.com/yoheikikuta/pa… 「あとは実験結果。この論文は結構色々な実験をしている。まずはストレートに先行研究との比較ということで GLUE のテスト。なかなか驚きの上がりっぷりである」
2018-10-29 16:33:35
BERTはNLPのtransfer learningの決定版になるんですかね。NLPの応用一気に進むか? twitter.com/yohei_kikuta/s…
2018-11-01 19:36:36
とりあえず BERT で GLUE MRPC タスクを fine-tuning して解いてみた。ちゃんと動いていそうということは分かった。 ***** Eval results ***** eval_accuracy = 0.8627451 eval_loss = 0.4509506 global_step = 343 loss = 0.4509506 真面目に読み込んで自分のタスクに使ってみるか〜。
2018-11-01 18:45:16
東大の松尾豊氏は、日本のAIの第一人者で、ディープラーニングで将来的にAIが自然言語理解ができると断言している。新井紀子氏は、まず根本的に「知性とは何なのか」を誤解しているし、AIの専門家でもないのに、不可思議な論理で政府機関、教育現場を混乱させないで欲しい。
2018-08-09 08:09:38
Improving Language Understanding with Unsupervised Learning blog.openai.com/language-unsup… 2018年6月、言語理解タスクでも大幅な性能向上が見られた。多くのNLPタスクで最高性能を更新した。2018年10月、そこからさらに大幅な改善を実現したBERTが登場した。
2018-11-01 12:09:00
汎用言語表現モデルBERTを日本語で動かす(PyTorch) qiita.com//Kosuke-Szk/it…
2018-11-05 16:30:27
正直、東ロボくんプロジェクトを通して日本からBERTを発明してほしかったな。新井紀子さんが独断と偏見で勝手に言語理解タスクは無理だと決めつけて、方向性がめちゃくちゃになっちゃったと感じる。
2018-11-03 21:08:04
それに、新井紀子さんは東ロボのプロジェクトを通して、「やっぱり言語理解タスクや常識推論タスクは無理だった。数十年先というレベルで無理だ」というような結論を出していたと記憶している。それに対する批判として、いま現在の最先端を取り上げるのは別に何も間違っていないと思う。
2018-11-04 19:15:53
新井紀子氏をみているとクラークの法則を思い出す。 「高名で年配の科学者が可能であると言った場合、その主張はほぼ間違いない。また不可能であると言った場合には、その主張はまず間違っている。」高名で年配の科学者かどうかには議論の余地があるが。
2018-11-04 18:21:36
新井紀子氏は冷静に議論できる人だと思ってたけど、やはり感情的な人なんだな。自分に都合の悪い人間はブロックする。余裕がなくなっているのかな。自分の本が予想以上に売れすぎて、やべーって思ってそう。
2018-11-04 17:30:53
BERTの登場で新井紀子氏へのヘイトが一気に高まってるのは面白い。結果として(?)東ロボのデータは公開されたし、影響はあったのかな。ぜひ一般層に向けて今の状況と心境について書いて欲しい。
2018-11-06 03:17:39
東ロボのプロジェクトリーダーの新井紀子さん、まだ発言なし?肯定でも否定でもいいから、今月中にはBERT について発言してほしい。
2018-11-03 19:49:55
BERT特許取られたらNLP産業キツくない?と思ったけど"All code and models are released under the Apache 2.0 license."だった。ソースコードとpretrained modelsの利用がフリーで手法の利用がフリーじゃないということは流石に無いよね?
2018-11-03 16:54:19