共同編集ツールのEtherpad Lite版の環境を構築してみる。
Etherpad Liteを体験するにはこのリンクから
https://github.com/ether/etherpad-lite/wiki/Sites-that-run-Etherpad-Lite
Etherpad と Etherpad Liteの比較はここ
https://github.com/ether/etherpad-lite
-
このページの記事一覧
- 2012年12月26日水曜日 - etherpad lite on centos6
- 2012年12月24日月曜日 - OpenStack Advent Calendar 2012 JP 12/24 イヴの夜はOpenStackをCommon Lispでキメる!
- 2012年12月23日日曜日 - Advent Calendar 2012 二本
- 2012年12月19日水曜日 - CloudStack Advent Calendar 2012 JP 12/19 「cloud.com のおもひで」
- 2012年12月17日月曜日 - OpenStack Advent Calendar 2012 JP 12/17 Cloud on Cloud
- - OSC.Cloud 2012 で発表してきました。
- 2012年12月15日土曜日 - OpenStack Advent Calendar 2012 JP 12/15 インフラエンジニアがOpenStackを学ぶべきたった一つの理由
- 2012年12月13日木曜日 - OpenStack Advent Calendar 2012 JP 12/13 仮想マシンのアドレスを固定化して使う(nova&quantum)
- 2012年12月2日日曜日 - Skype for Linux 4.1.0.20
- 2012年12月1日土曜日 - OpenStack Advent Calendar 2012 JP 12/1 今年のJOSUG活動の振り返り
- 2012年10月24日水曜日 - gource options メモ
- 2012年10月22日月曜日 - socat メモ
- 2012年10月21日日曜日 - Gource: Project/Repository activity visualization
- - Linux Network Namespace
- 2012年10月18日木曜日 - Quantum + OVS + GRE with Devstack (2)
- 2012年10月17日水曜日 - Quantum + OVS + GRE with Devstack
- 2012年10月1日月曜日 - iptables を使ったポートフォワーディング メモ
- 2012年9月29日土曜日 - Linux | Chrome | Flash | 重い | 遅い
- - apache qpid 分散処理
- - Chef-Server on CentOS6.3 with Capistrano
- 2012年9月25日火曜日 - Quick clone virtual machines with thin-provisioning
- 2012年9月24日月曜日 - iptables を使った簡易NATルータメモ
- - 運用自動化ツール Capistrano の導入と使い方
- 2012年9月16日日曜日 - Install chef-sole on CentOS6.3
- 2012年9月13日木曜日 - 仮想環境上の RHEL5 系へディスクを動的追加
- 2012年9月10日月曜日 - Upgrade Fedora16 to 17 with "preupgrade"
- 2012年9月4日火曜日 - screenrc
- 2012年8月23日木曜日 - skype for linux client 4.0.0.8
- 2012年8月20日月曜日 - apache qpid - exchageの種類と配送制御
- - apache qpid - exchange/queue/bindの監視
- - apache qpid アドレスのオプションキーワード
- 2012年8月19日日曜日 - apache qpid アドレスの指定
- - apache qpid 基本的なメッセージ操作
- - apache qpid 概要と初期設定
- 2012年8月18日土曜日 - fedora17 への mysql server と qpid のインストール
- - fedora17 のランレベル変更
- 2012年8月2日木曜日 - Windows7 64bit Ctrl と Caps Lockを入れ替える
- 2012年8月1日水曜日 - TIPS of GlusterFS installation on RHEL6/CentOS6
- 2012年7月29日日曜日 - HTC J ISW13HTのいいとこ、わるいとこ
- 2012年7月27日金曜日 - ISW13HT 3G/WiMaxの速度
- 2012年7月26日木曜日 - ISW13HTをテザリング専用として使ってみた
- 2012年7月22日日曜日 - CloudStack Ecosystem Day で発表させていただきました
- 2012年7月15日日曜日 - x121e bios update on Fedora16 without optical drives
- 2012年7月14日土曜日 - Skype for Linuxがアップデート(2.x → 4.x)
- 2012年7月9日月曜日 - OpenShift Origin Architecture Overview 意訳[3/3]
- 2012年7月8日日曜日 - 「Gitポケットリファレンス」でOSSコントリビュート
- 2012年6月23日土曜日 - プロのためのLinuxシステム・10年効く技術
- - How to install windows on KVM with virtio drivers
- 2012年6月6日水曜日 - OpenShift Origin Architecture Overview 意訳[2/3]
- 2012年6月5日火曜日 - OpenShift Origin Architecture Overview 意訳[1/3]
- 2012年6月3日日曜日 - x121e 起動時にWiFiが有効にならない
- - Fedora16 Skypeの着信音が鳴らなくなった
- 2012年5月27日日曜日 - OpenShift python + mongodb に関する情報
- - OpenShift Originに関する情報
- 2012年5月16日水曜日 - メモ タグVLAN(vconfig)
- 2012年5月15日火曜日 - OSC2012 Nagoya 日本OpenStackユーザ会で発表してきました
- 2012年5月14日月曜日 - OpenStack/Essex Configuration 06:Horizon
- - OpenStack/Essex Configuration 05:Nova
- 2012年5月9日水曜日 - qcow2の圧縮
- 2012年5月5日土曜日 - RHEL6 iSCSI target(scsi-target-utils)の基本的な設定
- 2012年5月4日金曜日 - ddコマンドの seek, count メモ
- 2012年4月21日土曜日 - X121e/Fedora16 をSSDに換装「CT128M4SSD1」
- 2012年4月16日月曜日 - OpenStack/Essex Configuration 04:Glance
- - OpenStack/Essex Configuration 03:Swift
- - OpenStack/Essex Configuration 02:KeyStone
- - OpenStack/Essex Configuration 01:DB, Queue
- 2012年4月12日木曜日 - OpenStack/Essex RPM Nova/Horizon
- 2012年4月8日日曜日 - rpmbuild メモ ビルドしたファイルの一部をパッケージ化する場合
- - OpenStack/Essex RPM Swift/Keystone/Glance
- - Emacs Mozc の変換候補の表示場所
- 2012年4月2日月曜日 - pip メモ ダウンロードだけでインストールしない
- - OpenStack/KeyStone CentOS6用 RPM
- 2012年4月1日日曜日 - OpenStack/Swift CentOS6用 RPM
- 2012年3月29日木曜日 - iptables 複数の--dport, --sport を指定する
- - GuestOS on KVM on CloudCore
- - CloudCore VPS に CentOS6を導入
- 2012年3月26日月曜日 - RHEL6/SL6/CentOS6系のOpenStack Nova をインストールするときの注意
- 2012年3月24日土曜日 - EmacsからDBを確認(Emacs DBI)
- 2012年3月20日火曜日 - rdesktop オプションメモ
- - OSC2012 Tokyo Spring 日本OpenStackユーザ会 発表まとめ
- 2012年3月17日土曜日 - OSC2012 Tokyo Spring 日本OpenStackユーザ会で発表してきました
- 2012年3月13日火曜日 - Xのキーイベントを拾う xev
- 2012年3月11日日曜日 - Emacs で git blame
- 2012年3月7日水曜日 - RHEL6/CentOS6/SL6 on KVM時のシリアルコンソール設定
- 2012年3月6日火曜日 - 便利コマンド virt-top (仮想マシンの状態を監視)
- 2012年2月25日土曜日 - RHEL5.8 リリース
- 2012年2月18日土曜日 - Scientific Linux 6.2リリース
- 2012年2月15日水曜日 - Fedora ファイルマネージャ(nautilus)から外部サーバへの接続と永続化
- 2012年2月13日月曜日 - Fedora Mozcの設定
- 2012年2月12日日曜日 - KVM on KVM(nested KVM)
- 2012年1月13日金曜日 - Fedora16 + KeyHoleTV
- 2012年1月12日木曜日 - OSSの活用は企業の繁栄を左右する
- 2012年1月5日木曜日 - yum localinstall が便利
- 2012年1月4日水曜日 - RedHat系Linuxのリリース年表
- 2012年1月3日火曜日 - Fedora16 grub2の起動メニューを編集
- 2012年1月2日月曜日 - Fedora16 + Canon DR2510C
- - ThinkPad X121e + Fedora16 のやったことメモ
- 2012年1月1日日曜日 - Fedora16 は iPhoneを接続するとバッテリー残量が表示される
Advent Calendar 2012 二本
Tweet
カレンダーネタを2つ書きました。
一つは、OpenStackで、folsomから利用可能になった、glanceのレプリケーションのお話です。
もうひとつはEucalyptusです。こちらはOpenStack上のインスタンスの仮想マシンで動かそうとしたのですが、苦戦した上に失敗してしまいました(´・ω・`)
一つは、OpenStackで、folsomから利用可能になった、glanceのレプリケーションのお話です。
glance replicator from irix_jp
もうひとつはEucalyptusです。こちらはOpenStack上のインスタンスの仮想マシンで動かそうとしたのですが、苦戦した上に失敗してしまいました(´・ω・`)
CloudStack Advent Calendar 2012 JP 12/19 「cloud.com のおもひで」
Tweet
最近はOpenStackばかりやっていますが、元々この分野に携わるきっかけとなったのは、Citrix社に買収される前の cloud.com からでした。ここで初めてCloudStackに触り、調査する過程でOpenStackの存在を知り、今の活動へとつながってきたと思います。
確か、とある案件でCloudStackを導入したいという要望があり、担当の営業の方からどんなものか教えてほしい、と言われて触ったのが最初だったと記憶しています(その後、転職してしまいましたのでこの案件にかかわっていく事はありませんでしたが)
その時の断片が2010年のエントリーに残っています。
・Cloud.com CloudStack Community Edition 2.1 概要
・Cloud.com CloudStack Community Edition 2.1 基本セットアップ
この記事から張られているマニュアルは既にリンク切れしまっておりますが、なかなか良くできたマニュアルだったと記憶しています。
このマニュアルを頼りにCloudStackのテスト環境を作りましたが、ほぼ一発で環境構築できました。
未だにインストールに苦戦するOpenStackとは大違いです。
この一つの要因として、今も昔もCloudStackの「アーキテクチャがVMware/vCenterに近く理解しやすい」というのがあると思います。
一つのコントローラー。
一つのプライマリストレージを共有し、セカンダリストレージにイメージを配置する。
ネットワークもシンプルでブリッジを使う方法しかなかったと記憶してます(調査不足かもしれませんが)
当時のわかりやすさ、とっつきやすさが今日における CloudStack 優位性へつながっていると思います。
しょーじき、OpenStackはわかりづらいです。ある程度は触っている自分ですらそう感じます。
複数のプロジェクトが存在し、それらの組合せは無数に存在、しかも組合せはソフトだけでなく、プロプライエタリなハードにも及び、そしてそれらを設定していくための大量のコンフィグ項目・・・。
しかしそれゆえ、OpenStackには「自分の用途に最適化したサービスが実現できる」というとても大きなメリットも存在します。
これらの差を考えると、OpenStackもCloudStackも「AWSライクな環境をオンプレミスで実現できる」というコンセプトに差はありませんが、
この2年の発展の方向性はやや異なるベクトルで進んできたんだなと感じます。
急速に発展してきたCloudOS業界ですが、今後どのような成長を遂げていくのか?
2年後の状況が楽しみです。
確か、とある案件でCloudStackを導入したいという要望があり、担当の営業の方からどんなものか教えてほしい、と言われて触ったのが最初だったと記憶しています(その後、転職してしまいましたのでこの案件にかかわっていく事はありませんでしたが)
その時の断片が2010年のエントリーに残っています。
・Cloud.com CloudStack Community Edition 2.1 概要
・Cloud.com CloudStack Community Edition 2.1 基本セットアップ
この記事から張られているマニュアルは既にリンク切れしまっておりますが、なかなか良くできたマニュアルだったと記憶しています。
このマニュアルを頼りにCloudStackのテスト環境を作りましたが、ほぼ一発で環境構築できました。
未だにインストールに苦戦するOpenStackとは大違いです。
この一つの要因として、今も昔もCloudStackの「アーキテクチャがVMware/vCenterに近く理解しやすい」というのがあると思います。
一つのコントローラー。
一つのプライマリストレージを共有し、セカンダリストレージにイメージを配置する。
ネットワークもシンプルでブリッジを使う方法しかなかったと記憶してます(調査不足かもしれませんが)
当時のわかりやすさ、とっつきやすさが今日における CloudStack 優位性へつながっていると思います。
しょーじき、OpenStackはわかりづらいです。ある程度は触っている自分ですらそう感じます。
複数のプロジェクトが存在し、それらの組合せは無数に存在、しかも組合せはソフトだけでなく、プロプライエタリなハードにも及び、そしてそれらを設定していくための大量のコンフィグ項目・・・。
しかしそれゆえ、OpenStackには「自分の用途に最適化したサービスが実現できる」というとても大きなメリットも存在します。
これらの差を考えると、OpenStackもCloudStackも「AWSライクな環境をオンプレミスで実現できる」というコンセプトに差はありませんが、
この2年の発展の方向性はやや異なるベクトルで進んできたんだなと感じます。
急速に発展してきたCloudOS業界ですが、今後どのような成長を遂げていくのか?
2年後の状況が楽しみです。
OpenStack Advent Calendar 2012 JP 12/17 Cloud on Cloud
Tweet
OpenStack Advent Calendar ネタの第3段です。
・・・が、いろいろやらかしてしまい。中途半端なデキになってしまいました・・・。
いずれ時間を見つけて修正したいです(´;ω;`)
・・・が、いろいろやらかしてしまい。中途半端なデキになってしまいました・・・。
いずれ時間を見つけて修正したいです(´;ω;`)
時刻:
0:27
OSC.Cloud 2012 で発表してきました。
Tweet
本日はOSC.Cloudへ日本OpenStackユーザ会としてセミナーx2、ブース出展をさせていただきました。
発表者の皆様、スタッフの皆様、参加者の皆様、お疲れ様でした。
OpenStack関連のセミナーが思った以上に多かったのが印象的です。
本日のセッションで使った資料です。
今回はUST配信配信されてました。映像はこちら、
1枠目
Video streaming by Ustream
2枠目(配信トラブルで最後のみらしいです)
Video streaming by Ustream
発表者の皆様、スタッフの皆様、参加者の皆様、お疲れ様でした。
OpenStack関連のセミナーが思った以上に多かったのが印象的です。
本日のセッションで使った資料です。
今回はUST配信配信されてました。映像はこちら、
1枠目
Video streaming by Ustream
2枠目(配信トラブルで最後のみらしいです)
Video streaming by Ustream
OpenStack Advent Calendar 2012 JP 12/15 インフラエンジニアがOpenStackを学ぶべきたった一つの理由
Tweet
Skype for Linux 4.1.0.20
Tweet
OpenStack Advent Calendar 2012 JP 12/1 今年のJOSUG活動の振り返り
Tweet
さて、OpenStack Advent Calendar 2012 JP の1日目として、ライトなネタから初めてみたいと思います。
2012年1月~2012年12月までの活動一覧(把握してる限り)は以下になります。
https://github.com/irixjp/opst-ac-2012jp/wiki/2012-Activity
(抜けがあれば教えてください)
今年は予定も含めて16回の活動がありました。内訳は
OSC 5回
勉強会 8回
各種セミナー 3回
となります。活動の半数を占める勉強会は、
一般技術者向け(セミナー形式) 5回
コア技術者向け(ハッカソン) 3回
という内訳でした。
2012年は全体的に技術中心の内容で活動してきましたが、2013年からは技術に加えて事例やユースケース等を紹介できたらと考えています。
2013年もJOSUGをよろしくお願い致します。
2012年1月~2012年12月までの活動一覧(把握してる限り)は以下になります。
https://github.com/irixjp/opst-ac-2012jp/wiki/2012-Activity
(抜けがあれば教えてください)
今年は予定も含めて16回の活動がありました。内訳は
OSC 5回
勉強会 8回
各種セミナー 3回
となります。活動の半数を占める勉強会は、
一般技術者向け(セミナー形式) 5回
コア技術者向け(ハッカソン) 3回
という内訳でした。
2012年は全体的に技術中心の内容で活動してきましたが、2013年からは技術に加えて事例やユースケース等を紹介できたらと考えています。
2013年もJOSUGをよろしくお願い致します。
gource options メモ
Tweet
gource
--highlight-dirs \
--realtime \
--log-format custom \
--user-friction 0.5 \
--hide dirnames,usernames \
--disable-progress \
--max-files 0 \
--max-file-lag -1 \
--file-idle-time 0 \
--multi-sampling -1024x768 \
--stop-at-end \
--stop-at-end \
--output-ppm-stream - \
sample.txt | ffmpeg -y \
-b 3000K \
-r 24 \
-f image2pipe \
-vcodec ppm \
-i - \
-vcodec mpeg4 \
gource.mp4
--highlight-dirs \
--realtime \
--log-format custom \
--user-friction 0.5 \
--hide dirnames,usernames \
--disable-progress \
--max-files 0 \
--max-file-lag -1 \
--file-idle-time 0 \
--multi-sampling -1024x768 \
--stop-at-end \
--stop-at-end \
--output-ppm-stream - \
sample.txt | ffmpeg -y \
-b 3000K \
-r 24 \
-f image2pipe \
-vcodec ppm \
-i - \
-vcodec mpeg4 \
gource.mp4
socat メモ
Tweet
たまに使おうとして、すぐにオプションを忘れるのでメモ
■UDPで待受
# socat UDP-LISTEN:10000,fork,reuseaddr STDOUT
■TCPで待受
# socat TCP4-LISTEN:10000,fork,reuseaddr STDOUT
■受信したデータをファイルへ保存
# socat TCP4-LISTEN:10000,fork,reuseaddr OPEN:output.txt,creat=1
■コマンドサーバ(受信したデータを入力としてコマンドを実行し、結果を返す)
echoサーバ
# socat TCP4-LISTEN:10000 SYSTEM:cat
時間を返す
# socat TCP4-LISTEN:10000,fork,reuseaddr SYSTEM:"date +%s"
■UDPで送信
# socat STDIN UDP-SENDTO:192.168.128.xxx:10000
■TCPで送信
# socat STDIN TCP4:192.168.128.xxx:10000
■ブロードキャストへ送信
# socat STDIN UDP-SENDTO:192.168.128.255:10000,broadcast
参考:
・socat - Multipurpose relay
・socatを使ってみる
・socat - ソケットリレーツール (proxy)
受け側
■UDPで待受
# socat UDP-LISTEN:10000,fork,reuseaddr STDOUT
■TCPで待受
# socat TCP4-LISTEN:10000,fork,reuseaddr STDOUT
■受信したデータをファイルへ保存
# socat TCP4-LISTEN:10000,fork,reuseaddr OPEN:output.txt,creat=1
■コマンドサーバ(受信したデータを入力としてコマンドを実行し、結果を返す)
echoサーバ
# socat TCP4-LISTEN:10000 SYSTEM:cat
時間を返す
# socat TCP4-LISTEN:10000,fork,reuseaddr SYSTEM:"date +%s"
送り側
■UDPで送信
# socat STDIN UDP-SENDTO:192.168.128.xxx:10000
■TCPで送信
# socat STDIN TCP4:192.168.128.xxx:10000
■ブロードキャストへ送信
# socat STDIN UDP-SENDTO:192.168.128.255:10000,broadcast
参考:
・socat - Multipurpose relay
・socatを使ってみる
・socat - ソケットリレーツール (proxy)
Gource: Project/Repository activity visualization
Tweet
gitのリポジトリのアクティビティを可視化してくれるツールです。
プロジェクトの活性具合を視覚的に確認することができます。
見た目が派手で見てて気持ちいです。
http://code.google.com/p/gource/
使い方は以下
プロジェクトの活性具合を視覚的に確認することができます。
見た目が派手で見てて気持ちいです。
http://code.google.com/p/gource/
使い方は以下
時刻:
3:28
Linux Network Namespace
Tweet
Linux が持つネットワーク仮想化機能の話。
kernel 2.6.24 以降でサポートされる。実行にはiprouteパッケージの 3(おそらく) 以降が必要。
Fedora16, 17、Ubuntu12.04 は標準で利用可能を確認。
RHEL6系はiprouteのバージョンが低いため利用不可。
利用可否は以下のコマンドで確認可能。
# ip netns
このコマンドがエラーにならなければ、利用条件を満たせている(はず
利用方法は以下
kernel 2.6.24 以降でサポートされる。実行にはiprouteパッケージの 3(おそらく) 以降が必要。
Fedora16, 17、Ubuntu12.04 は標準で利用可能を確認。
RHEL6系はiprouteのバージョンが低いため利用不可。
利用可否は以下のコマンドで確認可能。
# ip netns
このコマンドがエラーにならなければ、利用条件を満たせている(はず
利用方法は以下
Quantum + OVS + GRE with Devstack
Tweet
OpenStack Folsom で正式コンポーネントになった Quantum(+ OVS) を使った環境構築の解説。
環境構築は面倒なので devstack を利用。CinderについてはNovaと一緒なので省略。
quantumのみの解説で、その他のコンポーネントについては devstack の実行後に得られる nova.conf 等を参照。
*10/19 絵が間違ってたので修正しました。
環境構築は面倒なので devstack を利用。CinderについてはNovaと一緒なので省略。
quantumのみの解説で、その他のコンポーネントについては devstack の実行後に得られる nova.conf 等を参照。
*10/19 絵が間違ってたので修正しました。
iptables を使ったポートフォワーディング メモ
Tweet
すぐ忘れるiptablesメモ。
この手順で 内部 → 外部 のNATができる。しかし逆の外部 → 内部 へのアクセスはできない。
例えば以下みたいな構成で、外側から内側の4040で起動しているプロセスにアクセスしたい時。
まずsv1の4040ポートへのアクセスを内部の192.168.128.10:4040へポートフォワーディングさせる
sv1# iptables -t nat -I PREROUTING 1 -p tcp --dport 4040 -j DNAT --to-destination 192.168.128.10:4040
これだけではルーティング(フォワーディング)がブロックされるので、192.168.128.10:4040へのフォワードを許可してやる。
sv1# iptables -I FORWARD 1 -p tcp -d 192.168.128.10 --dport 4040 -j ACCEPT
確立済みのセッションに対するフォワーディングを許可する(戻りパケット用)
sv1# iptables -I FORWARD 2 -m state --state ESTABLISHED,RELATED -j ACCEPT
上手く行ったら設定を保存しておく。
sv1# /etc/init.d/iptables save
この手順で 内部 → 外部 のNATができる。しかし逆の外部 → 内部 へのアクセスはできない。
例えば以下みたいな構成で、外側から内側の4040で起動しているプロセスにアクセスしたい時。
External |10.0.0.254 +---+---+ | sv1 | | | +---+---+ |192.168.128.254 | | Internal --------+---------+-- | |192.168.128.10 +---+---+ | 4040 | | | +-------+
まずsv1の4040ポートへのアクセスを内部の192.168.128.10:4040へポートフォワーディングさせる
sv1# iptables -t nat -I PREROUTING 1 -p tcp --dport 4040 -j DNAT --to-destination 192.168.128.10:4040
これだけではルーティング(フォワーディング)がブロックされるので、192.168.128.10:4040へのフォワードを許可してやる。
sv1# iptables -I FORWARD 1 -p tcp -d 192.168.128.10 --dport 4040 -j ACCEPT
確立済みのセッションに対するフォワーディングを許可する(戻りパケット用)
sv1# iptables -I FORWARD 2 -m state --state ESTABLISHED,RELATED -j ACCEPT
上手く行ったら設定を保存しておく。
sv1# /etc/init.d/iptables save
Linux | Chrome | Flash | 重い | 遅い
Tweet
最近、x121e + Fedora17 の Chrome がすごく重く、特にFlashの再生(youtube, nico)に時間がかかっていた。
どうもキャッシュが溜まっているのが原因のようなので、一回クリーンな状態にしてみた。
事前にアカウントの同期をして、設定を含めた全てをgoogleにバックアップしておく。
# yum remove google-chrome-stable
$ rm -Rf ~/.cache/google-chrome/
$ rm -Rf ~/.config/google-chrome
# yum install google-chrome-stable
これで起動後にアカウントの同期を行えばOK。
めちゃ軽くなった。
どうもキャッシュが溜まっているのが原因のようなので、一回クリーンな状態にしてみた。
事前にアカウントの同期をして、設定を含めた全てをgoogleにバックアップしておく。
# yum remove google-chrome-stable
$ rm -Rf ~/.cache/google-chrome/
$ rm -Rf ~/.config/google-chrome
# yum install google-chrome-stable
これで起動後にアカウントの同期を行えばOK。
めちゃ軽くなった。
時刻:
0:48
apache qpid 分散処理
Tweet
qpid をクラスタ化します。
と言っても手順が面倒だったのでChefのレシピとして書きました。
https://github.com/irixjp/chef-recipe/tree/master/qpid-cluster
CentOS6.3でテストしています。
このレシピを使う場合は、以下のattributeを自分の環境に合わせて変更してください。
bindnetaddrにはクラスターがマルチキャスト通信を行うためのネットワークアドレスを、
clusternameには任意のクラスタ名を設定してください。
このレシピを実行すれば3ノードでも5ノードでもクラスタ環境はすぐに作れます。
設定方法はレシピを見たほうが早いです。大したことはやっていません。
と言っても手順が面倒だったのでChefのレシピとして書きました。
https://github.com/irixjp/chef-recipe/tree/master/qpid-cluster
CentOS6.3でテストしています。
このレシピを使う場合は、以下のattributeを自分の環境に合わせて変更してください。
bindnetaddrにはクラスターがマルチキャスト通信を行うためのネットワークアドレスを、
clusternameには任意のクラスタ名を設定してください。
default[:corosync][:bindnetaddr] = "192.168.128.0" default[:qpid][:clustername] = "MYCLUSTER1"
このレシピを実行すれば3ノードでも5ノードでもクラスタ環境はすぐに作れます。
設定方法はレシピを見たほうが早いです。大したことはやっていません。
時刻:
0:34
Chef-Server on CentOS6.3 with Capistrano
Tweet
CentOS6.3上にChef-Serverを構築します。
ここ を参考にCentOS6.x用にCapistranoのレシピを書きましたのでほぼ手間なく導入可能です。
gitの導入とレシピの取得
# yum install git
# cd /tmp
# git clone https://github.com/irixjp/capistrano-recipe.git
# cd capistrano-recipe
Capistranoの導入
# ./install_capistrano.sh
Chef-Serverの導入
# cd chef-server
# cap localhost setup_chef_server
ホスト名の編集
# vim /etc/chef/server.rb
ホストのリブート(サービスの再起動だけでもOK)
# reboot
or
# /etc/init.d/chef-xxxxx restart
ここ を参考にCentOS6.x用にCapistranoのレシピを書きましたのでほぼ手間なく導入可能です。
gitの導入とレシピの取得
# yum install git
# cd /tmp
# git clone https://github.com/irixjp/capistrano-recipe.git
# cd capistrano-recipe
Capistranoの導入
# ./install_capistrano.sh
Chef-Serverの導入
# cd chef-server
# cap localhost setup_chef_server
ホスト名の編集
# vim /etc/chef/server.rb
chef_server_url "http://127.0.0.1:4000" ↓ chef_server_url "http://ip_or_fqdn:4000"
ホストのリブート(サービスの再起動だけでもOK)
# reboot
or
# /etc/init.d/chef-xxxxx restart
Quick clone virtual machines with thin-provisioning
Tweet
Chefのレシピをテストしていると仮想マシンを作ったり消したりが頻繁に発生します。
これまでは仮想マシンを一度作った後に virt-clone を使ってクローンしていました。しかしこれはそれなりに時間がかかります。
1台あたり1〜2分程度なのですが繰り返し実行したり、複数台準備したりすると待ち時間がうざったく、かつ複数台の場合はIPアドレスを変えたりとまあ面倒くさいことこの上無いです。
また10台単位でクローンを作るとそれなりにディスク容量を消費してしまうのも悩みの種でした。
そこでこの作業をもっと効率良く簡略化できないかと、検索してみると以下のサイトが見つかりました。
libvirtで管理さてるゲストマシンを高速シンプロビジョニングしてくれるツールを作った
まさにこれだ!と思い試して見ましたが、私の環境では上手く動かなかった(後述)なので簡単なスクリプトを作成して使っています。
https://github.com/irixjp/capistrano-recipe/blob/master/virt-clone-thin.sh
解説は以下
これまでは仮想マシンを一度作った後に virt-clone を使ってクローンしていました。しかしこれはそれなりに時間がかかります。
1台あたり1〜2分程度なのですが繰り返し実行したり、複数台準備したりすると待ち時間がうざったく、かつ複数台の場合はIPアドレスを変えたりとまあ面倒くさいことこの上無いです。
また10台単位でクローンを作るとそれなりにディスク容量を消費してしまうのも悩みの種でした。
そこでこの作業をもっと効率良く簡略化できないかと、検索してみると以下のサイトが見つかりました。
libvirtで管理さてるゲストマシンを高速シンプロビジョニングしてくれるツールを作った
まさにこれだ!と思い試して見ましたが、私の環境では上手く動かなかった(後述)なので簡単なスクリプトを作成して使っています。
https://github.com/irixjp/capistrano-recipe/blob/master/virt-clone-thin.sh
解説は以下
iptables を使った簡易NATルータメモ
Tweet
自分用メモ
eth0 10.0.0.1/255.255.255.0(外側)
eth1 192.168.128.254/255.255.255.0(内側)
の場合。
eth0 10.0.0.1/255.255.255.0(外側)
eth1 192.168.128.254/255.255.255.0(内側)
の場合。
仮想環境上の RHEL5 系へディスクを動的追加
Tweet
OpenStack MLで教えてもらったのでメモ。
この手順で仮想マシン上のRHEL5にディスクをホットプラグできる。
** RHEL6系は標準カーネルで対応しているのでこの手順は必要無し。
この手順で仮想マシン上のRHEL5にディスクをホットプラグできる。
** RHEL6系は標準カーネルで対応しているのでこの手順は必要無し。
Upgrade Fedora16 to 17 with "preupgrade"
Tweet
よーやくメインのノートPCをF17へアップグレードしました。
preupgrade を使っての直接アップデートです。
# yum update -y
# yum install preupgrade
# preupgrade
アップグレード後に大きな問題は無し。
気になった点をピックアップ。
・Emacs24にアップグレードされたら
(tool-bar-mode nil)
(menu-bar-mode nil)
(scroll-bar-mode nil)
が全部効かなくなって、nil → 0 にしたら効いた。
・日本語入力がなんか変
Mozcがデフォルトにできないので、毎回マウスポチポチでデフォルトにしてやってる。
IME ON/OFF状態をウインド間で保持するのがデフォルトみたいで、ややうざい。
・tscdの起動に失敗
とりあえず無効。
systemctl status tcsd.service
そのうち調査する。
preupgrade を使っての直接アップデートです。
# yum update -y
# yum install preupgrade
# preupgrade
アップグレード後に大きな問題は無し。
気になった点をピックアップ。
・Emacs24にアップグレードされたら
(tool-bar-mode nil)
(menu-bar-mode nil)
(scroll-bar-mode nil)
が全部効かなくなって、nil → 0 にしたら効いた。
・日本語入力がなんか変
IME ON/OFF状態をウインド間で保持するのがデフォルトみたいで、ややうざい。
・tscdの起動に失敗
tcsd - daemon that manages Trusted Computing resources
tcsd is a user space daemon that should be (according to the TSS spec) the only portal to the TPM device driver. At boot time, tcsd should be started, it should open the TPM device driver and from that point on, all requests to the TPM should go through the TSS stack. The tcsd manages TPM resources and handles requests from TSP's both local and remote.
とりあえず無効。
systemctl status tcsd.service
そのうち調査する。
apache qpid - exchageの種類と配送制御
Tweet
時刻:
2:55
apache qpid - exchange/queue/bindの監視
Tweet
時刻:
0:16
apache qpid アドレスのオプションキーワード
Tweet
fedora17 への mysql server と qpid のインストール
Tweet
MySQL
■インストール
$ sudo yum install mysql-server
■起動
$ sudo systemctl start mysqld.service
$ sudo systemctl enable mysqld.service
QPID
■インストール
$ sudo yum install qpid-cpp-server qpid-tools
■起動
$ sudo chkconfig qpidd on
$ sudo /etc/init.d/qpidd start
時刻:
10:22
fedora17 のランレベル変更
Tweet
今までFedoraを使うときはランレベル5で使ってきたのであまりきにしていなかったんだけど、Python2.7を使ったを使った環境が欲しかったのでKVMにFedora17をインストールした。
この場合、GUIは不要なのでランレベル3で使いたいんだけど、RHEL系とは違いinittabでの定義ではなくて少し調べてしまったのでメモ。
ランレベルの定義はこのファイルによって行われる。
/etc/systemd/system/default.target
この実体は
/etc/systemd/system/default.target -> /lib/systemd/system/runlevel5.target
ランレベルは予め定義されているターゲットファイルへリンク先変えてやれば良い。
$ ls /lib/systemd/system/runlevel?.target
ランレベル3へ変更にするには、/lib/systemd/system/runlevel3.target へリンクすればよいでの、
$ sudo rm /etc/systemd/system/default.target
$ sudo ln -s /lib/systemd/system/runlevel3.target /etc/systemd/system/default.target
後はリブートして終了。
この場合、GUIは不要なのでランレベル3で使いたいんだけど、RHEL系とは違いinittabでの定義ではなくて少し調べてしまったのでメモ。
ランレベルの定義はこのファイルによって行われる。
/etc/systemd/system/default.target
この実体は
/etc/systemd/system/default.target -> /lib/systemd/system/runlevel5.target
ランレベルは予め定義されているターゲットファイルへリンク先変えてやれば良い。
$ ls /lib/systemd/system/runlevel?.target
/lib/systemd/system/runlevel0.target /lib/systemd/system/runlevel1.target /lib/systemd/system/runlevel2.target /lib/systemd/system/runlevel3.target /lib/systemd/system/runlevel4.target /lib/systemd/system/runlevel5.target /lib/systemd/system/runlevel6.target
ランレベル3へ変更にするには、/lib/systemd/system/runlevel3.target へリンクすればよいでの、
$ sudo rm /etc/systemd/system/default.target
$ sudo ln -s /lib/systemd/system/runlevel3.target /etc/systemd/system/default.target
後はリブートして終了。
Windows7 64bit Ctrl と Caps Lockを入れ替える
Tweet
XPまではAltIMEを使っていましたが、Windows7 64bitでは動かな模様。
デスクトップの場合は、HHKを使っていましたが、ノートの場合はそうもいかず困っていた所、Ctrl2cap というのを見つけました。
http://technet.microsoft.com/ja-jp/sysinternals/bb897578%28en-us%29.aspx
なんとMicrosoft純正で、Win7 64bitでも動きます。
ダウンロードしたバイナリをコマンドラインから操作します。
■インストール
# ctrl2cap /install
■アンインストール
# ctrl2cap /uninstall
とこれだけで再起動すればCtrlとCaps Lockが入れ替わります。
インストール後は、DLしたファイルは削除しても大丈夫です。
デスクトップの場合は、HHKを使っていましたが、ノートの場合はそうもいかず困っていた所、Ctrl2cap というのを見つけました。
http://technet.microsoft.com/ja-jp/sysinternals/bb897578%28en-us%29.aspx
なんとMicrosoft純正で、Win7 64bitでも動きます。
ダウンロードしたバイナリをコマンドラインから操作します。
■インストール
# ctrl2cap /install
■アンインストール
# ctrl2cap /uninstall
とこれだけで再起動すればCtrlとCaps Lockが入れ替わります。
インストール後は、DLしたファイルは削除しても大丈夫です。
TIPS of GlusterFS installation on RHEL6/CentOS6
Tweet
久々にハマった・・・
ただ単にfuseのインストールを忘れて作業してただけなんですが(´・ω・`)
# yum install fuse fuse-libs
パッケージは以下から
http://download.gluster.org/pub/gluster/glusterfs/
パッケージバージョンは最新版を確認して読み替えが必要。
■RHEL
yum install -y \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-fuse-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-server-3.3.0-1.el6.x86_64.rpm
■CentOS
# yum install -y \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-fuse-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-server-3.3.0-1.el6.x86_64.rpm
# chkconfig glusterd on
# /etc/init.d/glusterd
後は適当に mkfs.ext4 -I 512 /dev/xxxx したデバイスをuser_xattr付きでマウントしてブリックを作成する。
# gluster peer probe nodeXX
# gluster volume create vol01 compute1:/gluster/brick01 compute2:/gluster/brick01 compute3:/gluster/brick01
# gluster volume start vol01
■ネイティブマウント
# mount -t glusterfs nodename:/vol01 /mnt/xxxx
■NFSマウント
NFSを利用する場合、Glusterサーバ側でrpcbindが必要になります。
server# yum install rpcbind
server# /etc/init.d/rpcbind start
server# /etc/init.d/glusterd restart
client# mount -t nfs -o mountvers=3 nodename:/vol01 /mnt/yyy
* 8/9 NFSで利用する場合の手順を追加
ただ単にfuseのインストールを忘れて作業してただけなんですが(´・ω・`)
# yum install fuse fuse-libs
パッケージは以下から
http://download.gluster.org/pub/gluster/glusterfs/
パッケージバージョンは最新版を確認して読み替えが必要。
■RHEL
yum install -y \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-fuse-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/RHEL/glusterfs-server-3.3.0-1.el6.x86_64.rpm
■CentOS
# yum install -y \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-fuse-3.3.0-1.el6.x86_64.rpm \
http://download.gluster.org/pub/gluster/glusterfs/3.3/3.3.0/CentOS/glusterfs-server-3.3.0-1.el6.x86_64.rpm
# chkconfig glusterd on
# /etc/init.d/glusterd
後は適当に mkfs.ext4 -I 512 /dev/xxxx したデバイスをuser_xattr付きでマウントしてブリックを作成する。
# gluster peer probe nodeXX
# gluster volume create vol01 compute1:/gluster/brick01 compute2:/gluster/brick01 compute3:/gluster/brick01
# gluster volume start vol01
■ネイティブマウント
# mount -t glusterfs nodename:/vol01 /mnt/xxxx
■NFSマウント
NFSを利用する場合、Glusterサーバ側でrpcbindが必要になります。
server# yum install rpcbind
server# /etc/init.d/rpcbind start
server# /etc/init.d/glusterd restart
client# mount -t nfs -o mountvers=3 nodename:/vol01 /mnt/yyy
* 8/9 NFSで利用する場合の手順を追加
HTC J ISW13HTのいいとこ、わるいとこ
Tweet
1週間ほど使った感想です。普段あまりディスる事は無いんですが、盛大にディスってますので、この機種が好きな人は見ないほうがいいかも。
新品 au間SIMフリー HTC J ISW13HT ブラック 携帯電話 白ロム au
新品 au間SIMフリー HTC J ISW13HT ブラック 携帯電話 白ロム au
ISW13HTをテザリング専用として使ってみた
Tweet
HTC J ISW13HTを購入してみた。
使用感は後でまとめるとして、売りであるテザリングがどのくらい使えるか試した。
【auスマートフォン】HTC J ISW13HTau激安機種変更(シンプルコース一括)
使用感は後でまとめるとして、売りであるテザリングがどのくらい使えるか試した。
【auスマートフォン】HTC J ISW13HTau激安機種変更(シンプルコース一括)
CloudStack Ecosystem Day で発表させていただきました
Tweet
Citrix様主催のCloudStack Ecosystem DayにてもOpenStack/Swiftの発表をさせていただきました。
定員100名のところ、席が足りなくなり、予備席が準備されるほど盛況でした。
内容はCloudStackの事例や、その周辺ソフトの紹介など、まさに「エコシステム」のセミナーでした。
ライトニングトークも最新の話題から、野心的な取り組みの紹介もあり、更にその後の懇親会も豪華で大満足です。
今後もCloudStack, OpenStackで連携して、国内のCloudOS業界を盛り上げていければと思います。
お招きいただき誠にありがとうございました。
定員100名のところ、席が足りなくなり、予備席が準備されるほど盛況でした。
内容はCloudStackの事例や、その周辺ソフトの紹介など、まさに「エコシステム」のセミナーでした。
ライトニングトークも最新の話題から、野心的な取り組みの紹介もあり、更にその後の懇親会も豪華で大満足です。
今後もCloudStack, OpenStackで連携して、国内のCloudOS業界を盛り上げていければと思います。
お招きいただき誠にありがとうございました。
x121e bios update on Fedora16 without optical drives
Tweet
x121eのBIOS最新版1.16が出ていたのでアップデートしてみます。
これまでx121eのBIOSアップデートプログラムはWindows用のバイナリで提供されていたため、BIOSアップデートにはいちいちWindowsに戻す、という面倒な手順が必要でした。
しかし最近はWindowsバイナリと共にBootable ISOが提供されるようになりました。
http://support.lenovo.com/ja_JP/
・・・が、x121eにはCD-ROMドライブがない上に、自宅にはUSB-CDROMドライブもない情弱っぷりなので、なんとか内蔵ストレージのまま、かつLinuxのままBIOSアップデートできないかと、調べてみた所、うまく行ったので手順をまとめておきます。
これまでx121eのBIOSアップデートプログラムはWindows用のバイナリで提供されていたため、BIOSアップデートにはいちいちWindowsに戻す、という面倒な手順が必要でした。
しかし最近はWindowsバイナリと共にBootable ISOが提供されるようになりました。
http://support.lenovo.com/ja_JP/
・・・が、x121eにはCD-ROMドライブがない上に、自宅にはUSB-CDROMドライブもない情弱っぷりなので、なんとか内蔵ストレージのまま、かつLinuxのままBIOSアップデートできないかと、調べてみた所、うまく行ったので手順をまとめておきます。
Skype for Linuxがアップデート(2.x → 4.x)
Tweet
ずっと2.x betaだった、Linux用のSkypeクライアントがバージョンアップしました。
ダウンロードはこちらから
http://www.skype.com/intl/ja/get-skype/on-your-computer/linux/
インストール方法は、
ダウンロードはこちらから
http://www.skype.com/intl/ja/get-skype/on-your-computer/linux/
インストール方法は、
OpenShift Origin Architecture Overview 意訳[3/3]
Tweet
自分が調べたついでのメモの後半部分。
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
*ほったらかしで忘れてたので、途中で公開*
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
*ほったらかしで忘れてたので、途中で公開*
プロのためのLinuxシステム・10年効く技術
Tweet
なかなか良い本でした。
初心者にはやや難易度が高いですが、Linuxをそこそこ触っていて、そこから更にレベルアップを目指したい人向けです。
特にカーネルソースを読む、というのは脱中級者をする上で必須ですが、これまで手引きとして整理されたドキュメントが存在しなかったので、これから挑戦しようという人にとって、とても良い書籍だと思います。
RHEL6に関する最新情報もある程度抑えているので、個人的にはお勧めな本です。
【送料無料】プロのためのLinuxシステム・10年効く技術
プロのための Linuxシステム・10年効く技術 (Software Design plus)
初心者にはやや難易度が高いですが、Linuxをそこそこ触っていて、そこから更にレベルアップを目指したい人向けです。
特にカーネルソースを読む、というのは脱中級者をする上で必須ですが、これまで手引きとして整理されたドキュメントが存在しなかったので、これから挑戦しようという人にとって、とても良い書籍だと思います。
RHEL6に関する最新情報もある程度抑えているので、個人的にはお勧めな本です。
【送料無料】プロのためのLinuxシステム・10年効く技術
プロのための Linuxシステム・10年効く技術 (Software Design plus)
時刻:
8:32
How to install windows on KVM with virtio drivers
Tweet
WindowsへvirtIOドライバをインストールしようとすると、たまに以下のエラーが出てなんだろう?と思っていたけど、ようやく謎がとけた。
情報源はここ
http://blog.gslab.net/2011/09/25/kvm-windows7%E3%81%ABvirtio%E3%83%89%E3%83%A9%E3%82%A4%E3%83%90%E3%81%AE%E9%81%A9%E7%94%A8-fedora15/
virtioドライバはここ
http://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/bin/
このエラーは、ドライバインストール時にWindowsのメディアがCD-ROMにセットされていないと発生する模様。
なので、virtio-win-0.1-22.iso の内容を一度ローカルディスクへ全てコピーした後に、Windowsのインストールメディアをマウントしてから、ドライバのインストールを行えばうまく行く。
情報源はここ
http://blog.gslab.net/2011/09/25/kvm-windows7%E3%81%ABvirtio%E3%83%89%E3%83%A9%E3%82%A4%E3%83%90%E3%81%AE%E9%81%A9%E7%94%A8-fedora15/
virtioドライバはここ
http://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/bin/
このエラーは、ドライバインストール時にWindowsのメディアがCD-ROMにセットされていないと発生する模様。
なので、virtio-win-0.1-22.iso の内容を一度ローカルディスクへ全てコピーした後に、Windowsのインストールメディアをマウントしてから、ドライバのインストールを行えばうまく行く。
OpenShift Origin Architecture Overview 意訳[2/3]
Tweet
自分が調べたついでのメモの中盤部分。
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
OpenShift Origin Architecture Overview 意訳[1/3]
Tweet
自分が調べたついでのメモの前半部分。
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
このドキュメントをテキトー意訳。
https://openshift.redhat.com/community/wiki/architecture-overview
x121e 起動時にWiFiが有効にならない
Tweet
x121eを起動してログインすると、WiFiが自動的に有効になってない時がある。ついでにBluetoothは認識されなくなっている。
WiFiは手動でONすればつながるが、BluetoothはONにすらできなくなる。
一回この状態になると、再起動しても必ずこの状態になる。
原因は全くわからないけど、とりあえずBIOSをデフォルト状態に戻すとこの現象は発生しなくなる。
謎だ。
WiFiは手動でONすればつながるが、BluetoothはONにすらできなくなる。
一回この状態になると、再起動しても必ずこの状態になる。
原因は全くわからないけど、とりあえずBIOSをデフォルト状態に戻すとこの現象は発生しなくなる。
謎だ。
時刻:
22:15
OpenShift Originに関する情報
Tweet
OSS化されたOpenShift(Openshift Origin)について興味があったので、いくつかの情報をまとめておきます。
OSC2012 Nagoya 日本OpenStackユーザ会で発表してきました
Tweet
タイトルはOpenStackとエビフライ(嘘)
OpenStackのデモを実施した後に、その裏で仮想マシンのイメージがどう管理されているか簡単に解説した資料になります。
OpenStackのセミナーとブース共に多数の方にご来場いただきありがとうございました。
また関係者の皆様もお疲れ様でした。
OpenStackとは関係ないですが、これまで東京を主体に活動しており、今回が初めての遠征でした。
さすが名古屋は製造業の街というべきか、Androidを使ったデバイス制御等の機械系のブースが東京よりも賑わっていました。
OSSも地方ごとの特色があって面白い発見でした。
OpenStackのデモを実施した後に、その裏で仮想マシンのイメージがどう管理されているか簡単に解説した資料になります。
OpenStackのセミナーとブース共に多数の方にご来場いただきありがとうございました。
また関係者の皆様もお疲れ様でした。
OpenStackとは関係ないですが、これまで東京を主体に活動しており、今回が初めての遠征でした。
さすが名古屋は製造業の街というべきか、Androidを使ったデバイス制御等の機械系のブースが東京よりも賑わっていました。
OSSも地方ごとの特色があって面白い発見でした。
OpenStack/Essex Configuration 06:Horizon
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
時刻:
21:46
OpenStack/Essex Configuration 05:Nova
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
qcow2の圧縮
Tweet
KVMで便利なqcow2フォーマット。
しかし、仮想マシン内でファイルの作成と削除を繰り返すと徐々にサイズが大きくなってしまう。
これを圧縮する方法。
■最初の状態
# ll -h
■qemu-img の convert と圧縮を利用する。
# qemu-img -h
■変換を実施
# qemu-img convert -c -O qcow2 \
> centos62_x64_master-clone.qcow2 centos62_x64_master-clone.qcow2.new
■変換後の状態
# ll -h
起動確認をしたら前のイメージは削除する。
しかし、仮想マシン内でファイルの作成と削除を繰り返すと徐々にサイズが大きくなってしまう。
これを圧縮する方法。
■最初の状態
# ll -h
-rw-r--r--. 1 root root 16G 5月 9 00:48 centos62_x64_master-clone.qcow2
■qemu-img の convert と圧縮を利用する。
# qemu-img -h
qemu-img version 0.15.1, Copyright (c) 2004-2008 Fabrice Bellard usage: qemu-img command [command options] QEMU disk image utility Command syntax: convert [-c] [-p] [-f fmt] [-t cache] [-O output_fmt] [-o options] [-s snapshot_name] filename [filename2 [...]] output_filename Command parameters: 'filename' is a disk image filename 'output_filename' is the destination disk image filename 'output_fmt' is the destination format 'options' is a comma separated list of format specific options in a name=value format. Use -o ? for an overview of the options supported by the used format '-c' indicates that target image must be compressed (qcow format only) Supported formats: rbd tftp ftps ftp https http host_cdrom host_floppy host_device file blkverify sheepdog blkdebug nbd parallels qed qcow2 vvfat vpc bochs dmg cloop vmdk vdi qcow cow raw
■変換を実施
# qemu-img convert -c -O qcow2 \
> centos62_x64_master-clone.qcow2 centos62_x64_master-clone.qcow2.new
■変換後の状態
# ll -h
-rw-r--r--. 1 root root 16G 5月 9 00:48 centos62_x64_master-clone.qcow2 -rw-r--r--. 1 root root 1.3G 5月 9 01:06 centos62_x64_master-clone.qcow2.new1/10以上の圧縮効果。
起動確認をしたら前のイメージは削除する。
RHEL6 iSCSI target(scsi-target-utils)の基本的な設定
Tweet
tgtadm を使ってiSCSIターゲット構成のメモ。
■iSCSIイニシエータを構成する場合はこちらを参照
・仮想環境を使って簡単にRHEL6のiscsiマルチパスを検証する
・RedHat Enterprise Linux iSCSIコマンドまとめ(iscsiadm)
・RedHat における iSCSI 設定とマルチパス
■Solarisでのターゲット構成はこちらを参照
・Solaris11 + COMSTAR で iSCSIホストの構築
■iSCSIイニシエータを構成する場合はこちらを参照
・仮想環境を使って簡単にRHEL6のiscsiマルチパスを検証する
・RedHat Enterprise Linux iSCSIコマンドまとめ(iscsiadm)
・RedHat における iSCSI 設定とマルチパス
■Solarisでのターゲット構成はこちらを参照
・Solaris11 + COMSTAR で iSCSIホストの構築
X121e/Fedora16 をSSDに換装「CT128M4SSD1」
Tweet
ThinPad X121eの内蔵ディスクをSSDへ換装。
前後のベンチマーク結果。
# yum install dbench
$ dbench 8 --timelimit 60
物理交換した時の流れは以下。
前後のベンチマーク結果。
# yum install dbench
$ dbench 8 --timelimit 60
Before Throughput 25.9628 MB/sec
Operation Count AvgLat MaxLat ---------------------------------------- NTCreateX 49828 0.041 128.998 Close 36650 0.003 3.863 Rename 2115 0.091 5.419 Unlink 9999 0.130 139.110 Qpathinfo 44985 0.014 8.839 Qfileinfo 7863 0.002 0.059 Qfsinfo 8250 0.006 4.144 Sfileinfo 4122 0.196 202.409 Find 17409 0.044 5.301 WriteX 24607 0.404 1416.807 ReadX 77953 0.009 4.474 LockX 160 0.006 0.023 UnlockX 160 0.011 1.075 Flush 3534 131.012 3301.656 Throughput 25.9628 MB/sec 8 clients 8 procs max_latency=3301.664 ms
After Throughput 133.639 MB/sec
Operation Count AvgLat MaxLat ---------------------------------------- NTCreateX 257756 0.040 14.650 Close 189285 0.005 10.031 Rename 10922 0.133 294.111 Unlink 52087 0.089 20.012 Qpathinfo 233746 0.017 14.083 Qfileinfo 40751 0.002 0.764 Qfsinfo 42844 0.006 6.097 Sfileinfo 21004 0.102 10.199 Find 90318 0.046 13.483 WriteX 127333 0.069 286.054 ReadX 404360 0.011 294.078 LockX 840 0.006 0.054 UnlockX 840 0.004 0.037 Flush 18078 23.925 771.931 Throughput 133.639 MB/sec 8 clients 8 procs max_latency=771.939 ms約5倍早くなったので満足。
物理交換した時の流れは以下。
OpenStack/Essex Configuration 04:Glance
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
時刻:
0:27
OpenStack/Essex Configuration 03:Swift
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
時刻:
0:27
OpenStack/Essex Configuration 02:KeyStone
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
時刻:
0:27
OpenStack/Essex Configuration 01:DB, Queue
Tweet
CentOS6.2上でOpenStack Essexを動かす。
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
* 2012/5/13 QPIDの設定を修正
全コンポーネントを連携させることが目標。
- OpenStack/Essex Configuration 01:DB, Queue
- OpenStack/Essex Configuration 02:KeyStone
- OpenStack/Essex Configuration 03:Swift
- OpenStack/Essex Configuration 04:Glance
- OpenStack/Essex Configuration 05:Nova
- OpenStack/Essex Configuration 06:Horizon
OpenStack/Essex RPMs
- OpenStack/Essex RPM Nova/Horizon
- OpenStack/Essex RPM Swift/Keystone/Glance
* 2012/5/13 QPIDの設定を修正
OpenStack/Essex RPM Nova/Horizon
Tweet
rpmbuild メモ ビルドしたファイルの一部をパッケージ化する場合
Tweet
ビルドした一部のファイルだけを抽出してRPMを作成しようとすると、
---------------------------------------------
RPM ビルドエラー:インストール済み(ただし未伸張)ファイルが見つかりました:
---------------------------------------------
こういうエラーが出てRPMが作成できないので、--define="__check_files %{nil}" を指定してビルドする。
# rpmbuild --define="__check_files %{nil}" -ba any.spec
---------------------------------------------
RPM ビルドエラー:インストール済み(ただし未伸張)ファイルが見つかりました:
---------------------------------------------
こういうエラーが出てRPMが作成できないので、--define="__check_files %{nil}" を指定してビルドする。
# rpmbuild --define="__check_files %{nil}" -ba any.spec
時刻:
23:39
OpenStack/Essex RPM Swift/Keystone/Glance
Tweet
先日リリースされたOpenStack Essexの一部モジュールのパッケージを作成しました。
公開しているサイトはこちら
http://kvps-27-34-160-192.secure.ne.jp/pub/index.html
yum repositryには以下のURIを設定してください。
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack-essex/
今回作成したパッケージは以下です。
CentOS6.2 x64上でkeystone-glance-swiftの連携まではできることを確認しています。不備があれば教えてください。
そのうち、nova関連とhorizonも作ります。
*saioはSwiftがすぐに動かせるようになるのでちょっと試すには便利だと思います。
公開しているサイトはこちら
http://kvps-27-34-160-192.secure.ne.jp/pub/index.html
yum repositryには以下のURIを設定してください。
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack-essex/
今回作成したパッケージは以下です。
| swift | 1.4.8 | swift本体 | | swift-client | 1.4.8 | swift本体からクライアント部分のみ抽出 | | swauth | 1.0.4 | swift専用の認証システム | | saio | 1.0.0 | swift ALL in ONEをパッケージ化 | | keystone | 2012.1(essex) | keystone本体 | | python-keystoneclient | 2012.1(essex) | keystoneクライアント | | glance | 2012.1(essex) | glance本体 |* 上記パッケージに依存するライブラリも上記リポジトリには含まれています。
CentOS6.2 x64上でkeystone-glance-swiftの連携まではできることを確認しています。不備があれば教えてください。
そのうち、nova関連とhorizonも作ります。
*saioはSwiftがすぐに動かせるようになるのでちょっと試すには便利だと思います。
時刻:
17:24
Emacs Mozc の変換候補の表示場所
Tweet
メインのFedora16を yum update したら mozc.el がアップデートされ、Emacs内ので変換候補の表示がインラインで表示されるようになった。
はじめは便利だと思っていたけど、編集している文書が大きくなると変換がもっさりしてくるのと、リモートから -nw で使っている時の使い勝手があまりよくない。
この設定を元の状態(ミニバッファに変換候補を表示)に戻す方法。
はじめは便利だと思っていたけど、編集している文書が大きくなると変換がもっさりしてくるのと、リモートから -nw で使っている時の使い勝手があまりよくない。
この設定を元の状態(ミニバッファに変換候補を表示)に戻す方法。
;; 変換候補をミニバッファへ表示 (setq mozc-candidate-style 'echo-area) ;; 変換候補をインライン表示 ;(setq mozc-candidate-style 'overlay)
pip メモ ダウンロードだけでインストールしない
Tweet
メモ:--no-install を指定する。
# pip install name --no-install
# pip install -r filename --no-install
# pip install name --no-install
# pip install -r filename --no-install
時刻:
1:48
OpenStack/KeyStone CentOS6用 RPM
Tweet
2012/4/8 Essex版を作成したのでこちらの記事を参照してください。
http://aikotobaha.blogspot.jp/2012/04/openstackessex-rpm-swiftkeystoneglance.html
--------------------------------------------
CentOS6.x, x64_x86用
■リポジトリの設定
# rpm -ihv http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/OpenStack-repo.noarch.rpm
リポジトリのツリーはここ
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/
■インストール(今はessex-rc1版です。)
# yum install openstack-keystone-essex-rc1
# yum install openstack-python-keystoneclient-essex-rc1
* 未テスト
■TODO
* コンフィグ変えるだけで動くか確認する必要有り。
* 署名をまた忘れた。
http://aikotobaha.blogspot.jp/2012/04/openstackessex-rpm-swiftkeystoneglance.html
--------------------------------------------
CentOS6.x, x64_x86用
■リポジトリの設定
# rpm -ihv http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/OpenStack-repo.noarch.rpm
リポジトリのツリーはここ
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/
■インストール(今はessex-rc1版です。)
# yum install openstack-keystone-essex-rc1
# yum install openstack-python-keystoneclient-essex-rc1
* 未テスト
■TODO
* コンフィグ変えるだけで動くか確認する必要有り。
* 署名をまた忘れた。
OpenStack/Swift CentOS6用 RPM
Tweet
2012/4/8 Essex版を作成したのでこちらの記事を参照してください。
http://aikotobaha.blogspot.jp/2012/04/openstackessex-rpm-swiftkeystoneglance.html
--------------------------------------------
CentOS6.x, x64_x86用
■リポジトリの設定
# rpm -ihv http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/OpenStack-repo.noarch.rpm
リポジトリのツリーはここ
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/
■インストール
# yum install openstack-swift
* このRPMを使って何が起きても補償しません。
* githubから取得したソースから作成しています。
* ひと通りの依存関係は解決してくれます。
* chkconfig配下になってるけど、動くか試してません。
* パッケージの中身はここを参考に作成
* 試してないけどRHEL、SLでも動くはずです。
* 完全にテストできていないので、不具合あれば教えてください。
■一括設定用パッケージ(SAIO)
# yum install openstack-swift-saio
* 一括設定RPMには、作成済みのRing、コンフィグ、テスト用ディスクイメージが含まれてます。
* 1ホストでのみ動作するようにしています。
* ローカルホスト内で動作します(X-Storage-Urlに127.0.01が返されるため)
■一括設定の動かし方
SELinux, iptablesは無効にする。
# setenforce 0
# /etc/init.d/iptables stop
必要サービスの起動
# /etc/init.d/memcached restart ; chkconfig memcached on
# /etc/init.d/xinetd restart
Swiftの起動
# swift-init all start
再起動した場合、/swift/disk{0..4}以下にマウントしている、/mnt/disk{0..4}がアンマウントされるので、以下のスクリプトで再マウントしておく(もしくはfstabやrc.localへ記載しておく)
# bash /etc/swift/mount_demo_disk.sh
■TODO
* 署名を忘れたのでそのうち署名する
* object-expirerがchkconfig経由で動いてない気がする。
http://aikotobaha.blogspot.jp/2012/04/openstackessex-rpm-swiftkeystoneglance.html
--------------------------------------------
CentOS6.x, x64_x86用
■リポジトリの設定
# rpm -ihv http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/OpenStack-repo.noarch.rpm
リポジトリのツリーはここ
http://kvps-27-34-160-192.secure.ne.jp/pub/openstack/
■インストール
# yum install openstack-swift
* このRPMを使って何が起きても補償しません。
* githubから取得したソースから作成しています。
* ひと通りの依存関係は解決してくれます。
* chkconfig配下になってるけど、動くか試してません。
* パッケージの中身はここを参考に作成
* 試してないけどRHEL、SLでも動くはずです。
* 完全にテストできていないので、不具合あれば教えてください。
■一括設定用パッケージ(SAIO)
# yum install openstack-swift-saio
* 一括設定RPMには、作成済みのRing、コンフィグ、テスト用ディスクイメージが含まれてます。
* 1ホストでのみ動作するようにしています。
* ローカルホスト内で動作します(X-Storage-Urlに127.0.01が返されるため)
■一括設定の動かし方
SELinux, iptablesは無効にする。
# setenforce 0
# /etc/init.d/iptables stop
必要サービスの起動
# /etc/init.d/memcached restart ; chkconfig memcached on
# /etc/init.d/xinetd restart
Swiftの起動
# swift-init all start
再起動した場合、/swift/disk{0..4}以下にマウントしている、/mnt/disk{0..4}がアンマウントされるので、以下のスクリプトで再マウントしておく(もしくはfstabやrc.localへ記載しておく)
# bash /etc/swift/mount_demo_disk.sh
■TODO
* 署名を忘れたのでそのうち署名する
* object-expirerがchkconfig経由で動いてない気がする。
iptables 複数の--dport, --sport を指定する
Tweet
メモ
■ルールの詳細を表示
iptables -nvL --line-numbers
■複数ポートを指定
iptables -I INPUT -p tcp -m multiport --dport 80,443,8080 -j ACCEPT
iptables -I INPUT -p udp -m multiport --sport 1000,1100,1200 -j DENY
■ポートの範囲を指定
iptables -I INPUT -p tcp --dport 1000:1100 -j ACCEPT
* --dport と --sport は同時に指定できない。
■ルールの詳細を表示
iptables -nvL --line-numbers
■複数ポートを指定
iptables -I INPUT -p tcp -m multiport --dport 80,443,8080 -j ACCEPT
iptables -I INPUT -p udp -m multiport --sport 1000,1100,1200 -j DENY
■ポートの範囲を指定
iptables -I INPUT -p tcp --dport 1000:1100 -j ACCEPT
* --dport と --sport は同時に指定できない。
時刻:
1:53
GuestOS on KVM on CloudCore
Tweet
CloudCoreはホスト側で仮想化支援機能をNestしてくれているようで、仮想サーバ上で更に仮想サーバを起動できる。
# cat /proc/cpuinfo |grep svm
KVM関連をインストールする。
# yum install qemu-kvm libvirt python-virtinst
イメージファイルを作成
# qemu-img create -f qcow2 /var/lib/libvirt/images/test.qcow2 10G
コマンドラインからインストーラーを起動
インストーラーが起動したところ。
# cat /proc/cpuinfo |grep svm
flags : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 syscall nx mmxext fxsr_opt pdpe1gb lm up rep_good extd_apicid unfair_spinlock pni cx16 popcnt hypervisor lahf_lm cmp_legacy svm cr8_legacy abm sse4a misalignsse 3dnowprefetch npt
KVM関連をインストールする。
# yum install qemu-kvm libvirt python-virtinst
イメージファイルを作成
# qemu-img create -f qcow2 /var/lib/libvirt/images/test.qcow2 10G
コマンドラインからインストーラーを起動
virt-install --connect qemu:///system \ --name testvm \ --ram=512 \ --hvm \ --location http://ftp.riken.jp/Linux/centos/6.2/os/x86_64/ \ --os-type=Linux \ --os-variant=virtio26 \ --disk=/var/lib/libvirt/images/test.qcow2,format=qcow2 \ --network network=default \ --nographics \ --keymap ja \ --extra-args='console=tty0 console=ttyS0,115200n8'
インストーラーが起動したところ。
時刻:
1:22
CloudCore VPS に CentOS6を導入
Tweet
前回試したときは、まだコンソール機能が提供されていなかったのでできなかったけど、今はOK。
参考>> CloudCore VPS に CentOS 6.2 をクリーンインストールする方法
ようは、PXEブートからのネットワークインストールの要領でCentOS6を新規インストールしてやる。この手順は他のOSにも使える。
1. PXEブート用のvmlinuzとinitrdを現在インストールされているCentOS6のGrubから読み込ませる。
2. インストール媒体の指定に公開されているCentOSのツリーを指定する。
これだけ。実際の手順は以下。
参考>> CloudCore VPS に CentOS 6.2 をクリーンインストールする方法
ようは、PXEブートからのネットワークインストールの要領でCentOS6を新規インストールしてやる。この手順は他のOSにも使える。
1. PXEブート用のvmlinuzとinitrdを現在インストールされているCentOS6のGrubから読み込ませる。
2. インストール媒体の指定に公開されているCentOSのツリーを指定する。
これだけ。実際の手順は以下。
RHEL6/SL6/CentOS6系のOpenStack Nova をインストールするときの注意
Tweet
いくつかハマった内容のメモ
起動しようとするとこのエラー
以下のパッチをeventletに当てる。
参考:https://lists.launchpad.net/openstack/msg02565.html
以下のファイルを作成して、特権機能へのアクセスを許可する必要がある。
/etc/polkit-1/localauthority/50-local.d/50-nova.pkla
1. nova-networkが起動しない
起動しようとするとこのエラー
(nova): TRACE: File "/usr/lib64/python2.6/subprocess.py", line 725, in communicate (nova): TRACE: stdout, stderr = self._communicate(input, endtime) (nova): TRACE: File "/usr/lib64/python2.6/subprocess.py", line 1322, in _communicate (nova): TRACE: self.wait(timeout=self._remaining_time(endtime)) (nova): TRACE: TypeError: wait() got an unexpected keyword argument 'timeout'
以下のパッチをeventletに当てる。
--- /usr/lib/python2.6/site-packages/eventlet/green/subprocess.py.orig 2011-05-25 23:31:34.597271402 +0000 +++ /usr/lib/python2.6/site-packages/eventlet/green/subprocess.py 2011-05-25 23:33:24.055602468 +0000 @@ -32,7 +32,7 @@ setattr(self, attr, wrapped_pipe) __init__.__doc__ = subprocess_orig.Popen.__init__.__doc__ - def wait(self, check_interval=0.01): + def wait(self, check_interval=0.01, timeout=None): # Instead of a blocking OS call, this version of wait() uses logic # borrowed from the eventlet 0.2 processes.Process.wait() method. try: --
参考:https://lists.launchpad.net/openstack/msg02565.html
2. nova-computeがユーザ権限で起動できない
以下のファイルを作成して、特権機能へのアクセスを許可する必要がある。
/etc/polkit-1/localauthority/50-local.d/50-nova.pkla
[Allow nova libvirt management permissions] Identity=unix-user:nova Action=org.libvirt.unix.manage ResultAny=yes ResultInactive=yes ResultActive=yes
EmacsからDBを確認(Emacs DBI)
Tweet
これはすごい便利。
・DB操作ツール Emacs DBI を作ってみた
コードをEmacsで確認しつつ、テーブルを直感的&簡単に除くことができる。
主にOpenStackのMySQLスキーマを確認しつつ使ってる。
Fedora16への導入
root# yum install perl-DBD-MySQL
root# yum install perl-CPAN
root# cpan install Module::Build::Compat
root# cpan install RPC::EPC::Service
これらをload-pathの通った場所に配置。
https://github.com/kiwanami/emacs-deferred/raw/master/deferred.el
https://github.com/kiwanami/emacs-deferred/raw/master/concurrent.el
https://github.com/kiwanami/emacs-ctable/raw/master/ctable.el
https://github.com/kiwanami/emacs-epc/raw/master/epc.el
https://github.com/kiwanami/emacs-edbi/raw/master/edbi.el
https://github.com/kiwanami/emacs-edbi/raw/master/edbi-bridge.pl
後はdot.emacsへ
(require 'edbi)
を追記して、
M-x edbi:open-db-viewer
で起動。接続先を聞いてくるのでDBI形式で入力してやる。
素晴らしい!
・DB操作ツール Emacs DBI を作ってみた
コードをEmacsで確認しつつ、テーブルを直感的&簡単に除くことができる。
主にOpenStackのMySQLスキーマを確認しつつ使ってる。
Fedora16への導入
root# yum install perl-DBD-MySQL
root# yum install perl-CPAN
root# cpan install Module::Build::Compat
root# cpan install RPC::EPC::Service
これらをload-pathの通った場所に配置。
https://github.com/kiwanami/emacs-deferred/raw/master/deferred.el
https://github.com/kiwanami/emacs-deferred/raw/master/concurrent.el
https://github.com/kiwanami/emacs-ctable/raw/master/ctable.el
https://github.com/kiwanami/emacs-epc/raw/master/epc.el
https://github.com/kiwanami/emacs-edbi/raw/master/edbi.el
https://github.com/kiwanami/emacs-edbi/raw/master/edbi-bridge.pl
後はdot.emacsへ
(require 'edbi)
を追記して、
M-x edbi:open-db-viewer
で起動。接続先を聞いてくるのでDBI形式で入力してやる。
素晴らしい!
rdesktop オプションメモ
Tweet
たまに使うとすぐ忘れてるrdesktopのオプション
# rdesktop xxx.xxx.xxx.xxx -u user -g 1600x1100 -a 24 -x lan -r sound:local -r clipboard &
-u ユーザ名を指定
-p パスワード
-D ドメイン/ワークグループ
-g 解像度を指定
-a 色数(ビット数)
-r sound:local or remote 音をどこで鳴らすか
-r clipboard クリップボードを同期する
参考>> http://d.hatena.ne.jp/dayflower/20080529/1212051846
# rdesktop xxx.xxx.xxx.xxx -u user -g 1600x1100 -a 24 -x lan -r sound:local -r clipboard &
-u ユーザ名を指定
-p パスワード
-D ドメイン/ワークグループ
-g 解像度を指定
-a 色数(ビット数)
-r sound:local or remote 音をどこで鳴らすか
-r clipboard クリップボードを同期する
参考>> http://d.hatena.ne.jp/dayflower/20080529/1212051846
OSC2012 Tokyo Spring 日本OpenStackユーザ会で発表してきました
Tweet
発表スライドはこちら。
芸もなくまたSwiftネタ。SwiftはNovaに比べると話題が少ないので苦しくなってきた。次回OpenStackユーザ会ではOSC名古屋での発表を予定してますので、そこではGlance + Swiftあたりと、OpenStack全体のストレージ機構を話せればと思ってます。
雨の休日、かつやや都心から離れた場所が会場だったのですが、OpenStackユーザ会のブースには多数の人が訪れて、セミナーでは150人弱の方々に来ていただきました。ありがとうございます。
また発表者の皆様、ブースの皆様本日は本当にありがとうございます&お疲れ様でした。
引き続きよろしくお願い致します。
*追記
今回のOSC2012 Tokyo/Springでは萌系グッズの充実っぷりが半端じゃなかったです。
OpenStack Object Storage; Usage
View more presentations from irix_jp
芸もなくまたSwiftネタ。SwiftはNovaに比べると話題が少ないので苦しくなってきた。次回OpenStackユーザ会ではOSC名古屋での発表を予定してますので、そこではGlance + Swiftあたりと、OpenStack全体のストレージ機構を話せればと思ってます。
雨の休日、かつやや都心から離れた場所が会場だったのですが、OpenStackユーザ会のブースには多数の人が訪れて、セミナーでは150人弱の方々に来ていただきました。ありがとうございます。
また発表者の皆様、ブースの皆様本日は本当にありがとうございます&お疲れ様でした。
引き続きよろしくお願い致します。
*追記
今回のOSC2012 Tokyo/Springでは萌系グッズの充実っぷりが半端じゃなかったです。
Xのキーイベントを拾う xev
Tweet
xmodmapなんかでキーマップを変える時にどのキーを押すとどのコードが発行されるか確認する必要がある。
そんな時に使うのが、「xev」コマンド。
実行するとウィンドが立ち上がるので、そのウィンドをアクティブにしておいてキーやマウス入力すると標準出力にコードが表示される。
結構便利
マイクロソフト レーザー マウス Arc Mouseのスライド上タッチ、下タッチのイベント。
そんな時に使うのが、「xev」コマンド。
実行するとウィンドが立ち上がるので、そのウィンドをアクティブにしておいてキーやマウス入力すると標準出力にコードが表示される。
結構便利
マイクロソフト レーザー マウス Arc Mouseのスライド上タッチ、下タッチのイベント。
KeyPress event, serial 34, synthetic NO, window 0x2e00001, root 0xac, subw 0x0, time 514588, (168,-14), root:(170,72), state 0x0, keycode 117 (keysym 0xff56, Next), same_screen YES, XLookupString gives 0 bytes: XmbLookupString gives 0 bytes: XFilterEvent returns: False KeyRelease event, serial 34, synthetic NO, window 0x2e00001, root 0xac, subw 0x0, time 514611, (168,-14), root:(170,72), state 0x0, keycode 117 (keysym 0xff56, Next), same_screen YES, XLookupString gives 0 bytes: XFilterEvent returns: False KeyPress event, serial 34, synthetic NO, window 0x2e00001, root 0xac, subw 0x0, time 516068, (168,-14), root:(170,72), state 0x0, keycode 112 (keysym 0xff55, Prior), same_screen YES, XLookupString gives 0 bytes: XmbLookupString gives 0 bytes: XFilterEvent returns: False KeyRelease event, serial 34, synthetic NO, window 0x2e00001, root 0xac, subw 0x0, time 516099, (168,-14), root:(170,72), state 0x0, keycode 112 (keysym 0xff55, Prior), same_screen YES, XLookupString gives 0 bytes: XFilterEvent returns: False
Emacs で git blame
Tweet
ここを参考に設定。そのまんま。
ソースを開いた状態で C-cG で git blame を開けるようになる。
elispは以下から入手する。
https://github.com/voins/mo-git-blame
事前にgitコマンドが使えるようになっている必要がある。
# yum install git
load-libraryが通ったパスに配置し、バイトコンパイルする。
# emacs -q --no-site-file -batch -f batch-byte-compile mo-git-blame.el
dot.emacsへ以下を追記
ソースを開いた状態で C-cG で git blame を開けるようになる。
elispは以下から入手する。
https://github.com/voins/mo-git-blame
事前にgitコマンドが使えるようになっている必要がある。
# yum install git
load-libraryが通ったパスに配置し、バイトコンパイルする。
# emacs -q --no-site-file -batch -f batch-byte-compile mo-git-blame.el
dot.emacsへ以下を追記
RHEL6/CentOS6/SL6 on KVM時のシリアルコンソール設定
Tweet
すぐ忘れるのでメモ。これを設定しておくと virsh console virtnameでコンソールにログインできるようになる。
RHEL6.x, Scientific 6.x, CentOS 6.x 全部共通。5.x系はこちら。
下線部分を追記。
# vim /etc/grub.conf
rhgb
quiet
この2つのオプションを削除すると起動メッセージが全部表示されるようになる。
RHEL6.x, Scientific 6.x, CentOS 6.x 全部共通。5.x系はこちら。
下線部分を追記。
# vim /etc/grub.conf
default=0 timeout=5 splashimage=(hd0,0)/grub/splash.xpm.gz hiddenmenu serial --speed=115200 --unit=0 --word=8 --parity=no --stop=1 terminal --timeout=5 serial console title Scientific Linux (2.6.32-220.el6.x86_64) root (hd0,0) kernel /vmlinuz-2.6.32-220.el6.x86_64 ro root=/dev/mapper/vg_openstack-lv_root rd_LVM_LV=vg_openstack/lv_root rd_NO_LUKS rd_NO_MD crashkernel=auto KEYBOARDTYPE=pc KEYTABLE=jp106 LANG=ja_JP.UTF-8 rd_LVM_LV=vg_openstack/lv_swap rd_NO_DM console=tty0 console=ttyS0,115200n initrd /initramfs-2.6.32-220.el6.x86_64.im
rhgb
quiet
この2つのオプションを削除すると起動メッセージが全部表示されるようになる。
便利コマンド virt-top (仮想マシンの状態を監視)
Tweet
仮想マシンの状態を簡単に把握するためのコマンド。
・仮想マシンの負荷状態
・物理CPUの利用状況
・仮想NICの利用状況
・BLOCKデバイスの利用状況
をそれぞれ監視できる。
・仮想マシンの負荷状態
・物理CPUの利用状況
・仮想NICの利用状況
・BLOCKデバイスの利用状況
をそれぞれ監視できる。
RHEL5.8 リリース
Tweet
現在最安定の5.x系の最新リリースです。標準10年サポート、延長13年サポートで長期に渡って安心して利用可能です。
と言っても10年もHWがサポートされないので、仮想化で使う場合にこの恩恵を受けられでしょう。
5.8 リリースノート
5.8 Technical Notes
と言っても10年もHWがサポートされないので、仮想化で使う場合にこの恩恵を受けられでしょう。
5.8 リリースノート
5.8 Technical Notes
Scientific Linux 6.2リリース
Tweet
リリースノート
http://www.scientificlinux.org/distributions/6x/rnotes/sl-release-notes-6.2.html
kickstartインストールURL
http://ftp.jaist.ac.jp/pub/Linux/scientific/6.2/x86_64/os/
http://ftp.jaist.ac.jp/pub/Linux/scientific/6.2/i386/os/
http://www.scientificlinux.org/distributions/6x/rnotes/sl-release-notes-6.2.html
kickstartインストールURL
http://ftp.jaist.ac.jp/pub/Linux/scientific/6.2/x86_64/os/
http://ftp.jaist.ac.jp/pub/Linux/scientific/6.2/i386/os/
Fedora ファイルマネージャ(nautilus)から外部サーバへの接続と永続化
Tweet
Fedora標準のファイルマネージャ nautilus はローカルファイルだけでなく、独自に(mountコマンドを介さずユーザ単位で)外部のファイルサーバへ接続でき、ローカル&リモートのファイルを透過的に操作することができる。
今まで接続の永続化方法を知らず、毎回接続情報を入力して面倒くさかったけど、やっと永続的に接続する方法がわかったのでメモ。
今まで接続の永続化方法を知らず、毎回接続情報を入力して面倒くさかったけど、やっと永続的に接続する方法がわかったのでメモ。
Fedora Mozcの設定
Tweet
いつもGUIから呼び出してた設定画面が呼べなくなったので、コマンドで起動する方法をメモ
設定
/usr/libexec/mozc_tool --mode=config_dialog
辞書ツール
/usr/libexec/mozc_tool --mode=dictionary_tool
設定
/usr/libexec/mozc_tool --mode=config_dialog
辞書ツール
/usr/libexec/mozc_tool --mode=dictionary_tool
KVM on KVM(nested KVM)
Tweet
KVMの上でKVMを起動する方法。
何が嬉しいかというと、OpenStackやWakameのような仮想マシンを管理するIaaSソフトウェアのテストが捗る。
少し前まではAMD CPUでないと出来なかったりとか、カーネルにパッチを当てないとダメだったが、Kernel3.2以降はIntel CPUでも利用できるようになっており、標準機能としても取り込まれている。
以下ではSL6(guest) on SL6(nested kvm guest) on Fedora16(kvm host)を稼働させている。
何が嬉しいかというと、OpenStackやWakameのような仮想マシンを管理するIaaSソフトウェアのテストが捗る。
少し前まではAMD CPUでないと出来なかったりとか、カーネルにパッチを当てないとダメだったが、Kernel3.2以降はIntel CPUでも利用できるようになっており、標準機能としても取り込まれている。
以下ではSL6(guest) on SL6(nested kvm guest) on Fedora16(kvm host)を稼働させている。
OSSの活用は企業の繁栄を左右する
Tweet
IDCジャパンからとても興味深い調査レポートが報告されました。
2011年 国内オープンソースソフトウェア市場 ユーザー利用実態調査とソリューションプロバイダーの採用動向
今までのOSS関連レポートはどんな業種でどんなソフトが使われているといった情報がメインでしたが、今回はOSSの利用と企業の成長にまで言及しています。
OSS利用でコスト削減メリットでもサポートに不安--ベンダービジネスにも効果
この内容は仕事でOSSに携わっている人にとっては非常にありがたいものだと思います。
これまで「これからのシステムにはオープンソースの活用が重要です」と言っても、それは最前線のエンジニア間で通じる感覚であり、物売り営業やPPT/xlsいじりが仕事のメインになっているエンジニア、その他フロントに出てこない人々には通じませんでした。それ故肩身の狭い思いをしている方々も少なからずいます。
それがこのような数値的な根拠をある程度持って出てくると、コミュニティ活動にも参加しやすくなるってものです。
レポートでは以下のような提言もされています。
IDC Japan、国内オープンソースソフトウェア利用実態調査結果を発表
IDC Japan、OSSの利用・採用状況を調査、ユーザーもベンダーもOSS活用が成長のカギ
エンジニアの不足は避けられないでしょう。その代わりこの領域でしっかりとしたスキルと実績を持っていれば、非常にニーズの高い人材となることでしょう。
今まで商用ソフトウェアに発生していたコストが、OSSに置き換わることで何が起きるか?
・システムにかかるコストを下げる事ができる
→ 下げたコストを開発に回すこともできる。
・海外のソフトウェアに払っているコストが無くなる
→ OSSのサポートを行う国内ベンダーに回るようになる
(もしくは自社でOSSをサポートする部隊の稼働コストへ)
これらの相乗効果で国内IT全体の稼働工数が底上げされエンジニアの需要が増えるはずです。
これはIT業界全体にとっても就業人口が増える事で国内のITシステム全体の底上げも図れる上に、全体的に先細り感のある日本経済において新たな雇用を生み出していく効果も期待できます。
2011年 国内オープンソースソフトウェア市場 ユーザー利用実態調査とソリューションプロバイダーの採用動向
本調査レポートは、IDCがユーザー企業の情報システム管理者とソリューションプロバイダーの情報システムエンジニアを対象に、OSS(Open Source Software:オープンソースソフトウェア)の採用状況や採用理由、抱えている課題、今後の採用意向などについてアンケート調査を実施し、その結果について集計/分析をまとめたものである。
「金融危機による景気低迷と東日本大震災を経験し、企業のIT投資が抑制されている中、OSSを活用した低コストソリューションの利用はITビジネスの売上増加につながっている。ユーザーがOSSに期待する効果として、導入コストの削減はもちろんであるが、運用保守コストの削減にも大きな期待があり、ソリューションプロバイダーには導入後のTCO削減効果を明確にすることが求められる。特にソフトウェアの運用保守コストの負担増で悩んでいる大手企業に対しては、より大きな効果を発揮することができる。大手企業をターゲットにすることは、ソリューションプロバイダーにとっても大きな売上につながるため、両者にとってWin-Winの関係を築くことができる」
とIDC Japan ソフトウェア&セキュリティのマーケットアナリストである入谷 光浩は分析している。
本レポートの特徴
今までのOSS関連レポートはどんな業種でどんなソフトが使われているといった情報がメインでしたが、今回はOSSの利用と企業の成長にまで言及しています。
OSS利用でコスト削減メリットでもサポートに不安--ベンダービジネスにも効果
OSSの使用実績と過去3年間のビジネスの売上高の変化の関係を分析すると、OSSの使用実績が多いと回答したベンダー企業の37.2%は過去3年間の売上高が増加している。反対にOSSの使用実績が少ないと回答したベンダー企業では増加が15.2%にとどまり、減少が40.5%となっている。これらのことから、OSSの活用がビジネスの成長につながっていると見ている。
この内容は仕事でOSSに携わっている人にとっては非常にありがたいものだと思います。
これまで「これからのシステムにはオープンソースの活用が重要です」と言っても、それは最前線のエンジニア間で通じる感覚であり、物売り営業やPPT/xlsいじりが仕事のメインになっているエンジニア、その他フロントに出てこない人々には通じませんでした。それ故肩身の狭い思いをしている方々も少なからずいます。
それがこのような数値的な根拠をある程度持って出てくると、コミュニティ活動にも参加しやすくなるってものです。
ビジネスとしてのOSS
レポートでは以下のような提言もされています。
IDC Japan、国内オープンソースソフトウェア利用実態調査結果を発表
・ユーザー企業におけるオープンソースソフトウェア(OSS)の最大メリットはコスト削減
・ソリューションプロバイダーの30%以上はOSSプロジェクトが増加傾向
・OSSの使用実績の多さがITビジネス売上高の増加に繋がっている
・サポートに対する懸念やエンジニア不足の課題を業界挙げて解決していくことが必要
IDC Japan、OSSの利用・採用状況を調査、ユーザーもベンダーもOSS活用が成長のカギ
「OSSを活用することは、ユーザー企業にとってもITベンダーにとっても、今後のビジネスを成長させるための重要な要素。ただ、サポートに対する懸念やエンジニア不足など、解決していかなければならない課題も多い」
エンジニアの不足は避けられないでしょう。その代わりこの領域でしっかりとしたスキルと実績を持っていれば、非常にニーズの高い人材となることでしょう。
OSSは日本のITを活性化する
今まで商用ソフトウェアに発生していたコストが、OSSに置き換わることで何が起きるか?
・システムにかかるコストを下げる事ができる
→ 下げたコストを開発に回すこともできる。
・海外のソフトウェアに払っているコストが無くなる
→ OSSのサポートを行う国内ベンダーに回るようになる
(もしくは自社でOSSをサポートする部隊の稼働コストへ)
これらの相乗効果で国内IT全体の稼働工数が底上げされエンジニアの需要が増えるはずです。
これはIT業界全体にとっても就業人口が増える事で国内のITシステム全体の底上げも図れる上に、全体的に先細り感のある日本経済において新たな雇用を生み出していく効果も期待できます。
yum localinstall が便利
Tweet
野良rpmを拾ってきたときに便利。
# yum localinstall xxxxx.rpm
という形で使用する。
rpmに依存関係がある場合、設定されているリポジトリから自動的に依存関係を解決してからrpmをインストールしてくれる。
# yum localinstall xxxxx.rpm
という形で使用する。
rpmに依存関係がある場合、設定されているリポジトリから自動的に依存関係を解決してからrpmをインストールしてくれる。
RedHat系Linuxのリリース年表
Tweet
Scientific Linux 6.2の更新をチェックした時にふと気になったのでWikiを参考に以下のOSのリリース年表を作って見た。
RedHat Linux
RedHat Enterprise Linux
Fedora
CentOS
Scientific Linux
RedHat Linux
RedHat Enterprise Linux
Fedora
CentOS
Scientific Linux
Fedora16 grub2の起動メニューを編集
Tweet
Fedora16からブートローダーがGRUB2へ変更されている。
従来からの大きな違いは、
F15まで
/etc/grub.conf -> /boot/grub/grub.conf (編集可)
F16以降
/etc/grub2.cfg -> /boot/grub2/grub.cfg (編集不可)
となっている。
/etc/grub2.cfg は以下のファイルを編集し、grub2-mkconfig ファイルによって生成する必要がある。
・/etc/default/grub
・/etc/grub.d/*
デフォルト状態の/etc/default/grub
これをタイムアウト1秒、起動時に冗長的なメッセージ出力を行わせるには以下のようにする。
編集したら以下のコマンドで /etc/grub2.cfg を更新する。
標準出力へ
# grub2-mkconfig
ファイルへ出力
# grub2-mkconfig -o /boot/grub2/grub.cfg
■変更前
cat /etc/grub2.cfg
■変更後
cat /etc/grub2.cfg
従来からの大きな違いは、
F15まで
/etc/grub.conf -> /boot/grub/grub.conf (編集可)
F16以降
/etc/grub2.cfg -> /boot/grub2/grub.cfg (編集不可)
となっている。
/etc/grub2.cfg は以下のファイルを編集し、grub2-mkconfig ファイルによって生成する必要がある。
・/etc/default/grub
・/etc/grub.d/*
デフォルト状態の/etc/default/grub
1 GRUB_TIMEOUT=5 2 GRUB_DISTRIBUTOR="Fedora" 3 GRUB_DEFAULT=saved 4 GRUB_CMDLINE_LINUX="rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap quiet rhgb rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp106 rd.lvm.lv=vg_f16/lv_root"
これをタイムアウト1秒、起動時に冗長的なメッセージ出力を行わせるには以下のようにする。
1 GRUB_TIMEOUT=1 2 GRUB_DISTRIBUTOR="Fedora" 3 GRUB_DEFAULT=saved 4 GRUB_CMDLINE_LINUX="rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp 106 rd.lvm.lv=vg_f16/lv_root"
編集したら以下のコマンドで /etc/grub2.cfg を更新する。
標準出力へ
# grub2-mkconfig
ファイルへ出力
# grub2-mkconfig -o /boot/grub2/grub.cfg
■変更前
cat /etc/grub2.cfg
35 set timeout=5 48 linux /vmlinuz-3.1.6-1.fc16.x86_64 root=/dev/mapper/vg_f16-lv_root ro rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap quiet rhgb rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp106 rd.lvm.lv=vg_f16/lv_root 61 linux /vmlinuz-3.1.6-1.fc16.x86_64 root=/dev/mapper/vg_f16-lv_root ro single rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap quiet rhgb rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp106 rd.lvm.lv=vg_f16/l v_root
■変更後
cat /etc/grub2.cfg
35 set timeout=1 48 linux /vmlinuz-3.1.6-1.fc16.x86_64 root=/dev/mapper/vg_f16-lv_root ro rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp106 rd.lvm.lv=vg_f16/lv_root 61 linux /vmlinuz-3.1.6-1.fc16.x86_64 root=/dev/mapper/vg_f16-lv_root ro single rd.md=0 rd.dm=0 rd.lvm.lv=vg_f16/lv_swap rd.luks=0 LANG=ja_JP.UTF-8 KEYTABLE=jp106 rd.lvm.lv=vg_f16/lv_root
登録:
投稿 (Atom)