共有
  • 記事へのコメント34

    • 注目コメント
    • 新着コメント
    その他
    edo_m18
    edo_m18 なるほど、だから軽量化されるってことなのか。

    2020/08/03 リンク

    その他
    jo7ueb
    jo7ueb 重みの量子化は重要ですなぁ

    2018/04/16 リンク

    その他
    masatoi
    masatoi Incremental Network Quantization気になる

    2017/10/22 リンク

    その他
    todesking
    todesking ニューラルネットの量子化、低精度化って言ってほしい……

    2017/03/10 リンク

    その他
    takmin
    takmin @ambee_whisper さんの研究がないじゃないかと思ったら、一番最後の「力尽きて読めなかった論文」の中にあった。

    2017/03/09 リンク

    その他
    azuki_mihomiho
    azuki_mihomiho あとでみる

    2017/03/09 リンク

    その他
    matsumoto_r
    matsumoto_r 良いまとめ

    2017/03/09 リンク

    その他
    sugyan
    sugyan 未来はまだまだ読めない〜

    2017/03/09 リンク

    その他
    shounenA
    shounenA 研究トレンドが生まれる瞬間を垣間見た気分

    2017/03/09 リンク

    その他
    Rinta
    Rinta 次のトレンドは計算量の削減・最適化か。

    2017/03/09 リンク

    その他
    zgmf-x20a
    zgmf-x20a Binary、3値化と分割数を増やして精度をあげていくと、またアナログに戻るとか?…

    2017/03/09 リンク

    その他
    yooks
    yooks 量子化ってアナログ→デジタルだけではなく、結局は幅のある値を1つで代表することなんだなということだけ学んだ。

    2017/03/09 リンク

    その他
    maruware
    maruware よいまとめ

    2017/03/09 リンク

    その他
    sionsou
    sionsou なるほどわからん…レベルが違いすぎてついていけないぜ。

    2017/03/09 リンク

    その他
    fuji_haruka
    fuji_haruka なるほどおもしろ

    2017/03/08 リンク

    その他
    chess-news
    chess-news  量子化ってどういうことかと思ったけど、扱う情報としての形状を変えるってことか。

    2017/03/08 リンク

    その他
    upinetree
    upinetree 量子化まわりこんなに面白いことになってたんかー

    2017/03/08 リンク

    その他
    itochan
    itochan パーセプトロンへの回帰?(わからん)

    2017/03/08 リンク

    その他
    ymym3412
    ymym3412 二値化 量子化

    2017/03/08 リンク

    その他
    sayurishirose
    sayurishirose 賢そう

    2017/03/08 リンク

    その他
    blueboy
    blueboy まとめ

    2017/03/08 リンク

    その他
    kei_1010
    kei_1010 GPUが不要になるとグラボの値段が上がりそうだな、とか本論と関係ない感想ですまぬ。 日本で有望な企業ってどこだろ?

    2017/03/08 リンク

    その他
    oscdis765
    oscdis765 個々の研究紹介はハードル高いけど、TL;DR→はじめに→まとめ以降と読むとなんとなくわかった気になれる

    2017/03/08 リンク

    その他
    n_231
    n_231 興味深い。「2015年頃は機械学習計算にGPU使っていた」って笑い話になる未来も有り得るかも?

    2017/03/08 リンク

    その他
    kana0355
    kana0355 ”メモリ消費量は単純に約1/32になります。速度面では、内積の計算がXNOR + popcountになるので、64個分の浮動小数点の積和演算を、数個のビット演算系の命令に置き換えることができます。”

    2017/03/08 リンク

    その他
    t_f_m
    t_f_m あとで

    2017/03/08 リンク

    その他
    hageatama-
    hageatama- 研究の進展が早すぎる

    2017/03/08 リンク

    その他
    stealthinu
    stealthinu すごい知見がある。doubleはいらんとしても8どころか1bitでも結構精度出るのね。ノイズ入れると誤差拡散法みたいな感じで扱える感じか。逆に精度上がる場合とかの理由はなんだろう?フレームワークでの自動化ありそう。

    2017/03/08 リンク

    その他
    sho
    sho まとめだけでも目を通しておくべき。少し前からFPGAに手を出す会社が増えていたけど、ここにつながるとは。

    2017/03/08 リンク

    その他
    Nyoho
    Nyoho 面白かった。論文がちゃんと載っていてとてもよいです。float 32-bit, 16-bit をもっと少ないビット数でやる研究について。

    2017/03/08 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    ニューラルネットワークの量子化についての最近の研究の進展と、その重要性 - SmartNews Engineering Blog

    こんにちは、スマートニュースの徳永です。深層学習業界はGANだとか深層強化学習だとかで盛り上がってい...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事