共有
  • 記事へのコメント20

    • 注目コメント
    • 新着コメント
    その他
    sotet
    sotet “セクション”

    2023/03/28 リンク

    その他
    yarumato
    yarumato “自らが意志を持つような返答は、言語モデルが学習の中で自然と自我を持ったのでしょうか? 違います。こう答えてほしいと思うデータセットを「人手で」大量に作り、学習させている。fine tuning、報酬モデル”

    2023/03/28 リンク

    その他
    stealthinu
    stealthinu ChatGPTの元となっているInstructGPTでの学習の改善手法について。会話用学習セットと良い回答の点数作って強化学習させる。

    2023/03/28 リンク

    その他
    misshiki
    misshiki “ChatGPTそのものがどのような枠組みの上で成り立っているのかをざっくりと理解できることが本記事のゴール”

    2023/03/28 リンク

    その他
    satosssi
    satosssi HireRooはエンジニアの技術評価のサービスなので、評価をハックできるGPTの出現はかなりの脅威だろうなあ。GPTある世界での技術力の評価手法はどんなのがいいんでしょね(真剣)

    2023/03/28 リンク

    その他
    webnoshiori
    webnoshiori ふむ

    2023/03/28 リンク

    その他
    monochrome_K2
    monochrome_K2 現状の優秀なチャットAIは人が教え方を工夫することでもたらされているという認識で合っているのかなと思う

    2023/03/28 リンク

    その他
    pazl
    pazl Ghost in the Shell

    2023/03/28 リンク

    その他
    T-norf
    T-norf OpenAIはGPT3ベースだったと思うけどトークン従量課金でファインチューニング可能なモデル4種類をクラウド提供してるよ。あまり使った報告なくて、どれぐらいの課金でどれぐらいの精度だせるかは、私も知りたいんだけど

    2023/03/28 リンク

    その他
    qinmu
    qinmu InstructGPT。

    2023/03/28 リンク

    その他
    natu3kan
    natu3kan 学習のさせ方にもコツがいるんだな。そう考えると人力も重要ってことよな。最良の回答になるためのケースの類型をコツコツ教えていくのって。手間をかけるとよくなるのオープンワールドのゲームみある。

    2023/03/28 リンク

    その他
    mayumayu_nimolove
    mayumayu_nimolove 日本人は作るよりも作られたものの分析が得意なのかもな

    2023/03/28 リンク

    その他
    spaciba8443
    spaciba8443 ]

    2023/03/28 リンク

    その他
    qpci32siekqd
    qpci32siekqd OpenAIのドキュメンタリーに書かれている以外に、実際作る場合を考えるとどうやって学習させてるとか、モデルいくつに分割してるのかとか、そんな強化学習上手く制御出来るのかとか、色々気になってくる

    2023/03/28 リンク

    その他
    sisicom
    sisicom 手順というか組み立てというか

    2023/03/28 リンク

    その他
    shunkeen
    shunkeen ヘビーユーザーが頑張ってRMやって、自身の価値観を反映したPPOが作れれば、自分だけのInstructGPT作れそう。なんなら、シナリオライターがひたすら調教すれば、一貫したキャラを保った無限にセリフを出すAIが作れそう。

    2023/03/28 リンク

    その他
    tick2tack
    tick2tack 人間らしい回答をする仕組み。Supervised Fine Tuning: 人の手によるデータでの再学習 Reward Modeling: 複数出力に対する評価順位付け Proximal Policy Optimization: 報酬が最大になるよう自律的な変化

    2023/03/28 リンク

    その他
    ussiik1
    ussiik1 Step1. Supervised Fine Tuning (SFT) Step2. Reward Modeling (RM) Step3. Proximal Policy Optimization (PPO)

    2023/03/28 リンク

    その他
    odakaho
    odakaho “GPTが自動的に自我を学習の中で獲得したわけではなく、”こう答えてほしいな”と思うようなデータセットを人手で大量に作り、それを言語モデルに学習させている”

    2023/03/28 リンク

    その他
    kiririmode
    kiririmode モデルを大きくするよりもfine tuningの方が良質な回答を作る際の寄与が大きい

    2023/03/27 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    ChatGPTの仕組みを理解する - AI時代のスキル面接ならHireRoo

    ブログでは、OpenAI社から発表されたチャットサービスであるChatGPTの仕組みを紹介していきます。どの...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事