共有
  • 記事へのコメント10

    • 注目コメント
    • 新着コメント
    その他
    nobyuki
    nobyuki コメント"全データがメモリに載るなら Hadoop しなくて十分高速ですよね……"

    2010/07/17 リンク

    その他
    hiromark
    hiromark 酔ってないときにちゃんと読む。

    2010/07/13 リンク

    その他
    r_kurain
    r_kurain perlで頑張るのも面白そうだが

    2010/07/13 リンク

    その他
    qnighy
    qnighy いっときますけどC++だから速いんじゃないですよ。ちゃんと計算量を考えてることとスクリプト言語でないことが重要。

    2010/05/25 リンク

    その他
    cou929
    cou929 "そもそも1G程度のデータの単語頻度を数えるのに858分もかかるんだっけと思い" こういう肌感覚があることが素晴らしい点

    2010/05/25 リンク

    その他
    otonasi_kaoru
    otonasi_kaoru 計算量の見積りは大変重要です。

    2010/05/25 リンク

    その他
    aidiary
    aidiary 単語頻度のカウントの高速化

    2010/05/25 リンク

    その他
    rawwell
    rawwell 単語の頻度をハッシュ表で保存すると理想的な条件の元ではO(N)の計算時間で頻度を求めることが出来、より高速に計算することが可能となることが期待される。 また、単語数をWとしたとき、C++のmapのような二分探索木を使

    2010/05/25 リンク

    その他
    n_shuyo
    n_shuyo 900倍を超えて欲しかったところw=>と言ってみたら超えたw やっぱり時代は C++ を求めていますね!

    2010/05/25 リンク

    その他
    mooz
    mooz まずはアルゴリズムを見直そうねと. 今回はハッシュを.

    2010/05/24 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Hadoopを使わずにWikipediaのテキスト処理を400倍高速化 - tsubosakaの日記

    タイトルは釣りです。id:mamorukさんの書いたHadoop で Wikipedia のテキスト処理を900倍高速化 - 武蔵...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - 暮らし

    いま人気の記事 - 暮らしをもっと読む

    新着記事 - 暮らし

    新着記事 - 暮らしをもっと読む

    同時期にブックマークされた記事