SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

連載記事

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZine BOOKS(コードジン・ブックス)は、CodeZineの連載からカットアップした、開発現場の課題解決に役立つ書籍シリーズです。

書籍に関する記事を見る

'); googletag.cmd.push(function() { googletag.pubads().addEventListener('slotRenderEnded', function(e) { var ad_id = e.slot.getSlotElementId(); if (ad_id == 'div-gpt-ad-1659428980688-0') { var ad = $('#'+ad_id).find('iframe'); if ($(ad).width() == 728) { var ww = $(window).width(); ww = ww*0.90; var style = document.createElement("style"); document.head.appendChild( style ); var sheet = style.sheet; sheet.insertRule( "#div-gpt-ad-1659428980688-0 iframe {-moz-transform: scale("+ww/728+","+ww/728+");-moz-transform-origin: 0 0;-webkit-transform: scale("+ww/728+","+ww/728+");-webkit-transform-origin: 0 0;-o-transform: scale("+ww/728+","+ww/728+");-o-transform-origin: 0 0;-ms-transform: scale("+ww/728+","+ww/728+");-ms-transform-origin: 0 0;}", 0 ); sheet.insertRule( "#div-gpt-ad-1659428980688-0 div{ height:"+(90*ww/728)+"px;width:"+728+"px;}", 0 ); } else { if ($(window).width() < 340) { var ww = $(window).width(); ww = ww*0.875; var style = document.createElement("style"); document.head.appendChild( style ); var sheet = style.sheet; sheet.insertRule( "#div-gpt-ad-1659428980688-0 iframe {-moz-transform: scale("+ww/320+","+ww/320+");-moz-transform-origin: 0 0;-webkit-transform: scale("+ww/320+","+ww/320+");-webkit-transform-origin: 0 0;-o-transform: scale("+ww/320+","+ww/320+");-o-transform-origin: 0 0;-ms-transform: scale("+ww/320+","+ww/320+");-ms-transform-origin: 0 0;}", 0 ); sheet.insertRule( "#div-gpt-ad-1659428980688-0 div{ height:"+(180*ww/320)+"px;width:"+320+"px;}", 0 ); } } } }); }); } else { document.write('
'); document.write('
'); }
PerlによるCSVファイルの高速集計

PerlによるCSVファイルの高速集計 2

2つのファイルの表結合と複雑なCSVフォーマットの取り扱い

  • X ポスト
  • このエントリーをはてなブックマークに追加

ダウンロード サンプルデータ (1.7 MB)

前回の記事でPerlを利用したCSVデータの取り扱いについて説明しました。今回はその続きとして、2つのファイルのJOIN処理と複雑なCSVフォーマットの取り扱いについて、筆者が利用しているノウハウをご紹介します。

  • X ポスト
  • このエントリーをはてなブックマークに追加

はじめに

 前回の記事では、PerlでCSVを扱うための基本的な考え方を説明しました。本記事では引き続き、PerlでCSVファイルを集計するためのノウハウを紹介します。

対象読者

  • Perlのごく初歩的な知識(配列、ハッシュ)を有している方。
  • Perlを利用してCSV形式のデータを集計したい方。

必要な環境

  • テキストエディタ。
  • Perl 5.8.X。ただし、ほとんどのコードはそれ以下のバージョンでも動きます。

 環境を整える方法に関しては、前回の記事を参照して下さい。

2つのCSVを扱う

キーによってJOINする

 顧客にアンケートをとった結果が格納された、次のような「enquate.csv」があるとします。左から順に、

顧客ID,設問1の回答,設問2の回答,設問3の回答

 というような4カラムのデータです。

enquate.csv
00893,1,4,2
89204,4,2,3
75648,2,2,2
 :
 :(以下、30,000件)
 :

 あなたは、このデータの各行の後ろに顧客の氏名と住所を紐づけ、プレゼント発送担当者に渡さなければなりません。どうすれば、このような処理ができるでしょうか? 顧客のデータは「address.csv」という名前で、

顧客ID,氏名,住所

 の3カラムからなっています。

address.csv
02547,佐藤大輔,北海道苫小牧市XXXXYYYY
15983,田中久志,沖縄県那覇市XXXXYYYY
00893,本間雅洋,神奈川県横浜市XXXXYYYY
 :
 :(以下、100,000件)
 :

絶対にやってはいけないコーディング

 ある新人クンがこの仕事を引き受け、次のようなコードを書いて実行しました。

marge_csv.pl(絶対にやってはいけない)
open(OUT, '>result.csv');
open(IN1, 'enquate.csv');

# アンケートデータを1行ずつ処理する
while(my $line1 = <IN1>){
    # 1行を4つに分ける
    chomp($line1);
    my ($id, $ans1, $ans2, $ans3) = split(/,/, $line1, 4);

    # この行にマッチする顧客データを検索する
    my $name    = '';
    my $address = '';
    open(IN2, 'address.csv');
    while(my $line2 = <IN2>){
        chomp($line2);
        my ($tmp_id, $tmp_name, $tmp_address) = split(/,/, $line2, 3);

        if($tmp_id eq $id){
            # 対象となる顧客が見つかった!
            $name    = $tmp_name;
            $address = $tmp_address;
        last;
        }
    }
    close(IN2);

    # 出力する
    print OUT join(',', $id, $ans1, $ans2, $ans3, $name, $address), "\n";
}

close(OUT);
close(IN1);

 結果が出たらメールで送信して、今日はさっさと定時で帰ろうと思っていた新人クン。ところが、いつまで待ってもこの処理は終わる兆しが見えません。処理が終わるまでの待ち時間を利用してコードを1行ずつ何度も見直したのですが、論理的には間違えていないコーディングに見えます。いったいなぜ終わらないのでしょう?

30億回のループ処理

 新人クンのスクリプトがなかなか終了しなかった原因は、ファイルの読み込み処理が2重のループになっていることにあります。外側の「enquate.csv」の件数が3万件で、その1è¡Œ1行について「address.csv」を毎回開いてデータを検索しています。「address.csv」の行数が10万行ですので、単純計算で10万行×3万回=30億行をファイルから読み込む処理であるということになります(ただし、検索が完了したらlastしているので、実際にはもっと少ない行数で済みますが)。

 こんな回数をループ処理していれば、処理が終わらないのは当たり前です。筆者の環境では1時間待っても処理が終わらなかったので、とうとう[Ctrl]+[C]で強制終了してしまいました。

ハッシュを有効に使う

 では、この処理を現実的な時間で終えるためにはどうすればいいのでしょうか? そのためには、「address.csv」から対象行を呼び出す処理を高速化する必要があります。

 前回の記事でも述べた内容ですが、ここで、取り扱うファイルの大きさが問題となってきます。今回扱っている「address.csv」は5MB程度の大きさですので、全てメモリに取り込んでも大きな問題になることはなさそうです。そこで、3万回繰り返していた「address.csv」の読み込み処理を最初に持ってきて、全てメモリに持つように変更してみます。これでファイルの読み込み行数は30億行から10万行に減るはずです。

 検索の高速化にはもう一つ重要なことがあります。それは、メモリ上のデータを高速に検索するための索引、つまり、インデックスを張ることです。インデックスが用意されていなければ、対象となる顧客IDに対応する行を探すのに、毎回全データを走査しなければならなくなりますが、それはあまりに非効率的過ぎます。

 Perlにおいて、このインデックスとして適任なのはハッシュです。キーに対する値を、高速に探し出すことができるからです。今回の例では、顧客IDから対象となる行がユニークに定まりますので、顧客IDをキーとしたハッシュに「address.csv」のデータを保存します。

 コードは以下のようになりました。

marge_csv.pl(適切にコーディングしなおした物)
# 最初に、顧客の住所を全てハッシュ(メモリ上)に取り込む
my %address_datas = ();
open(IN, 'address.csv');
while(<IN>){
    chomp;
    my ($id, $name, $address) = split(/,/, $_, 3);

    # (※1)顧客IDをキーとし、対応する名前と住所の配列を保存する
    $address_datas{$id} = [$name, $address];
}
close(IN);

# アンケートデータに氏名と住所をマージする
open(OUT, '>result.csv');
open(IN, 'enquate.csv');

while(my $line = <IN>){
    chomp($line);
    my ($id, $ans1, $ans2, $ans3) = split(/,/, $line, 4);

    # この行にマッチする顧客データを検索する
    my $ref_data = $address_datas{$id};

    # 配列の0番目に名前、1番目に住所が入っている (※1を参照)
    my $name    = $ref_data->[0];
    my $address = $ref_data->[1];

    # 出力する
    print OUT join(',', $id, $ans1, $ans2, $ans3, $name, $address), "\n";
}

close(OUT);
close(IN);

 このコードを筆者の環境で実行すると、5秒も立たないうちに終了しました。これなら実用上まったく問題がなさそうです。

 この例のように、特定のID項目を含む複数のファイルをそのID項目でJOINする場合には、ID項目をキーとしたハッシュへJOINしたいファイルのデータを読み込んでおくと、効率よく処理することができます。間違えても、最初のコードのように2重ループを作って検索することのないように気をつけましょう。

 (追記:このコードに関しまして、弾さんからトラックバックを頂いております。あわせてご参照ください。)

2つのCSVに共通するID、片側にしかないID

 次は、2つのCSVの包含関係を調べる処理です。「enquate.csv」と同じフォーマットの「enquate2.csv」というファイルがあります。このファイルは2回目にとったアンケートですが、1回目とは違うユーザも同じユーザも混じっています。この2つのファイルを読み込んで、「1回目だけ応募した顧客」「2回目だけ応募した顧客」「どちらも応募した顧客」を調べてみましょう。出力は2カラムで、

顧客ID,1 or 2 or 3
(1: 1回目だけ応募、2: 2回目だけ応募、3: どちらも応募)

 とします。「enquate2.csv」の行数は、「enquate.csv」と同じ30,000行です。

 この処理を実現するために、今回は以下の手順をとります。

  1. 「enquate2.csv」をハッシュに取り込む
  2. 「enquate.csv」を1行ずつ読み込む
  3. ハッシュにデータがなければ、「1回目だけ応募した顧客」
  4. ハッシュにデータがあれば、「どちらも応募した顧客」
  5. ハッシュから、該当データ(1回目に応募した顧客のデータ)を消す
  6. 最後に、消されずに残ったデータが「2回目だけ応募した顧客」

 対称性がなくて多少わかりにくい処理ではありますが、この方法だとメモリに読み込むのは片方のファイルだけで済みますので、大きめのファイルでもなんとかなるのが利点です。コードは、以下のようになります。

diff.pl (1)
# 2回目のアンケート応募者をハッシュに取り込む
my %enq2_data = ();
open(IN, 'enquate2.csv');
while(<IN>){
    chomp;

    # IDだけ必要なので、IDだけ取り出す
    my ($id) = split(/,/, $_, 2);
    # キーを顧客IDとし、目印(フラグ)として1を入れる
    $enq2_data{$id} = 1;
}
close(IN);

 まず最初に、2回目のアンケート結果をハッシュに取り込みます。今回必要なデータはIDだけで設問の回答部分は必要ありませんので、splitの引き数の最後に2を指定し、左辺では$idだけを指定することで最初のカラム、つまり顧客IDだけを取り出しています。

 また、ハッシュのキーは顧客IDとしてますが、ハッシュの値は特に利用しないので、ダミーの値として1を代入することにしました。

 ハッシュにデータが整えば、次は1回目のアンケート結果を読み込んで比較する部分となります。最初の部分と同じように、行をsplitする部分では顧客IDだけを取り出します。その後、ハッシュに含まれる2回目応募者の顧客IDを検索し、キーが存在するようであればどちらにも応募した顧客として「3」を出力します。また、delete関数によってハッシュからこの顧客IDを削除します。これにより、2回目のアンケート応募者から1回目も応募した顧客IDが削除され、最終的には2回目のみ応募した応募者が残るということになります。

 2回目応募者のハッシュ内にキーが存在しなければ、1回目のアンケート結果にしか含まれなかった顧客IDということになりますので、「1」を出力します。

diff.pl (2)
# 1回目のアンケート応募者と2回目の応募者を比較する
open(OUT, '>result.csv');
open(IN,  'enquate.csv');
while(<IN>){
    chomp;

    # IDだけ必要なので、IDだけ取り出す
    my ($id) = split(/,/, $_, 2);
    
    if($enq2_data{$id}){
        # どちらにも応募した顧客
        print OUT "$id,3\n";
        # ハッシュから「1回目応募した顧客」を削除
        delete $enq2_data{$id};
    }else{
        # 1回目だけ応募した顧客
        print OUT "$id,1\n";
    }
}
close(IN);

 ここまでで、「1回目のみ応募した顧客」と「どちらにも応募した顧客」の出力が終わりました。後は、ハッシュに残っている「2回目のみ応募した顧客」を出力させれば、処理は完了となります。

diff.pl (3)
# 最後に、ハッシュに残ったのが2回目のみ応募した顧客
foreach(keys %enq2_data){
    print OUT "$_,2\n";
}

close(OUT);

 今回の例では、1つのファイルに全ての結果を吐きましたが、グループごとに3つのファイルに分けるという出力方法も考えられます。その場合は、OUT1、OUT2、OUT3の用にファイルハンドルを複数用意してopenし、適切なハンドルに向けて結果を出力させるようにするとよいでしょう。

会員登録無料すると、続きをお読みいただけます

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

次のページ
さまざまなCSVファイルに対応する

修正履歴

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
PerlによるCSVファイルの高速集計連載記事一覧
この記事の著者

hiratara(ヒラタラ)

1977年に苫小牧市で生まれる。北海道大学理学部数学科卒。小学生の頃、両親に買い与えられたMZ-2500でプログラミングを始めた。学生時代、CGIの自作に没頭し、それ以降WEB開発の魅力に憑かれる。社会人になっても数学好きは変わらず、専門書を買い集めるのが最近の趣味。id:hirataraにてblogを執筆...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/1020 2007/03/07 21:25
" ); }

おすすめ

アクセスランキング

  1. 1
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略
  2. 2
    JavaScriptのWebフレームワーク、「Astro 5.1」リリース
  3. 3
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  4. 4
    Google、社内AIエージェント「Google Agentspace」発表
  5. 5
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  1. 6
    Linuxディストリビューション「Serpent OS」、アルファ版がリリース
  2. 7
    より使いやすくなったPHP 8.4の新機能──クラス定義や言語仕様とデータベース関連の強化ポイント
  3. 8
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  4. 9
    中小企業の約6割、外部委託エンジニアの獲得に意欲的も、65.1%が「円滑な業務契約に向けた対策」の必要性を実感
  5. 10
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」

アクセスランキング

  1. 1
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略
  2. 2
    JavaScriptのWebフレームワーク、「Astro 5.1」リリース
  3. 3
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  4. 4
    Google、社内AIエージェント「Google Agentspace」発表
  5. 5
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  6. 6
    Linuxディストリビューション「Serpent OS」、アルファ版がリリース
  7. 7
    より使いやすくなったPHP 8.4の新機能──クラス定義や言語仕様とデータベース関連の強化ポイント
  8. 8
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  9. 9
    中小企業の約6割、外部委託エンジニアの獲得に意欲的も、65.1%が「円滑な業務契約に向けた対策」の必要性を実感
  10. 10
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」
  1. 1
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」
  2. 2
    「CUDA」 ~マンガでプログラミング用語解説
  3. 3
    ITエンジニア本大賞2025、投票締切直前! みんなで選んだ歴代の大賞本を振り返って一挙紹介
  4. 4
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  5. 5
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  6. 6
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  7. 7
    2024年12月に開催される注目のITエンジニア向けカンファレンス5選
  8. 8
    日本在住の英語を話すソフトウェア開発者、年収の中央値は950万円に
  9. 9
    Google、社内AIエージェント「Google Agentspace」発表
  10. 10
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

メールバックナンバー

アクセスランキング

  1. 1
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略
  2. 2
    JavaScriptのWebフレームワーク、「Astro 5.1」リリース
  3. 3
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  4. 4
    Google、社内AIエージェント「Google Agentspace」発表
  5. 5
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  1. 6
    Linuxディストリビューション「Serpent OS」、アルファ版がリリース
  2. 7
    より使いやすくなったPHP 8.4の新機能──クラス定義や言語仕様とデータベース関連の強化ポイント
  3. 8
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  4. 9
    中小企業の約6割、外部委託エンジニアの獲得に意欲的も、65.1%が「円滑な業務契約に向けた対策」の必要性を実感
  5. 10
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」

アクセスランキング

  1. 1
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略
  2. 2
    JavaScriptのWebフレームワーク、「Astro 5.1」リリース
  3. 3
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  4. 4
    Google、社内AIエージェント「Google Agentspace」発表
  5. 5
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  6. 6
    Linuxディストリビューション「Serpent OS」、アルファ版がリリース
  7. 7
    より使いやすくなったPHP 8.4の新機能──クラス定義や言語仕様とデータベース関連の強化ポイント
  8. 8
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  9. 9
    中小企業の約6割、外部委託エンジニアの獲得に意欲的も、65.1%が「円滑な業務契約に向けた対策」の必要性を実感
  10. 10
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」
  1. 1
    いいエンジニアになるための2つのポイント ──元Google技術者・石原氏が説く「シリコンバレー流ソフトウェア開発術」
  2. 2
    「CUDA」 ~マンガでプログラミング用語解説
  3. 3
    ITエンジニア本大賞2025、投票締切直前! みんなで選んだ歴代の大賞本を振り返って一挙紹介
  4. 4
    デスクトップアプリを開発しよう! 「Rust」と「Tauri 2.0」の基本情報と環境整備の仕方を解説
  5. 5
    アジャイル開発の推進において、必ずしも"すごい人"は必要ない──現場のエンジニアがDevOps推進で実現する組織改革
  6. 6
    デスクトップアプリ開発に必要な「Rust」の文法を理解しよう
  7. 7
    2024年12月に開催される注目のITエンジニア向けカンファレンス5選
  8. 8
    日本在住の英語を話すソフトウェア開発者、年収の中央値は950万円に
  9. 9
    Google、社内AIエージェント「Google Agentspace」発表
  10. 10
    "けしからん"精神が切り拓く未来──IPA登氏が語る、技術大国・日本が目指す復活戦略