共有
  • 記事へのコメント4

    • 注目コメント
    • 新着コメント
    その他
    mokemokechicken
    mokemokechicken “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding ”

    2018/10/16 リンク

    その他
    stealthinu
    stealthinu Transformerを大規模にして学習データを工夫して学習させることでぶっちぎりの性能に。タスクによってはこれもう人間超えてるのでは?

    2018/10/15 リンク

    その他
    prototechno
    prototechno BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    2018/10/15 リンク

    その他
    Nyoho
    Nyoho SQuAD のスコアが伸びて人間を超えた👏🏼

    2018/10/12 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    View PDF Abstract:We introduce a new language representation model called BERT, which stands for ...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事