サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
大そうじへの備え
aaabbb-200904.hatenablog.jp
基本的にサーバーの設定はPuppet経由で実施しており、かつmanifestをGitで管理しているので、変更内容は後から容易にトラッキング出来るのだが、1台だけで実施していた作業や、暫定的に追加した対応については、サーバー上の設定を直接変更していることも多い。 その部分については、基本的には設定項目をExcelで管理していたのだが、変更項目が多かったり、今までに無い変更だったりすると、台帳のフォーマットに大きく変更が入ってしまうことがある。 また複数人で作業していると台帳更新が徹底されないこともあり、もう少し上手いやり方が欲しいところだった。 より上手い方法として、サーバー上で変更が頻繁に入る部分を、日次でrsyncでGitサーバーに転送しておき、かつGitサーバーではcronでdailyコミットを行うことで、各設定ファイルの差分を管理していくことにした。 やり方としては次のようになる。(
pGina(http://www.pgina.org/index.php/Main_Page)はWindowsのログインロジックを修正して、ログイン方法を変更するツールなのだが、今回はFreeIPAと組み合わせて使ってみた。検証にはwindows7 32bit版の試用版を使用した。 元々pGinaはWindowsXPまでのWindowsの機能(GINA)を使っていたのだが、Vista以降で動作が変化し、上手く動かない状態だった。(そのため、AD以外でWindowsのパスワードを集約管理する方法がほぼ皆無だった。。) pGina2.X系列で遂にVista以降の仕組みにも対応した形となる。 pGina自体はPluginを通じて動作するのだが、今回はLDAPと、Kerberos用のプラグインを使ってみた。 pGina本体のインストール 本家からダウンロードしてインストーラを叩くだけなので、特に問
エンタープライズで使えそうなオープンソースを分野別にまとめてみた。独断と偏見によりまとめているので、使用は自己責任で w 分類 小分類 ツール名 日本でのサポート元 備考 おすすめ度(1-5) アプリケーションサーバー Java JBoss あり その他(PHPなど) Apache 多数 DB PostgreSQL あり MySQL あり グループウェア メール・カレンダー中心 Zimbra あり アプリケーション基盤 Drupal 多分無し LDAP連携で認証・認可設定が可能、CCK機能によりプログラミング無しでフォーム開発が可能、モジュールにより機能拡張可能 3 インスタントメッセージング ejabberd 無し Jabber経由でチャットが可能。 2 VoIP Asterisk 無し SIP経由で通話が可能。 2 Web会議 Dimdim 不明 ブラウザからのWeb会議が可能(Fla
製品版の運用管理製品には、インベントリ管理として、各ノードのIPアドレス、ホスト名やミドルウェアごとのバージョンを確認できる機能がついている。 同じことをFedora 付属のツールで行おうとしてみたのだが、手っ取り早いオプションとして、Ganglia のgmetric を使う方法を試してみた。 gmetric は既にプロセス監視のところでも出てきたのだが、主にcronで動かして、各サーバーで取れる値(プロセス数等) を転送する機能である。 このgmetric なのだが、実は数値だけでなくstringの型も送ることが出来、例えばuname などを定期的に実施しておけば、OSのバージョンをGanglia の管理用ノードに送ることができるのである。 この方法だと各ノードにcronを設定しなければならず面倒だが、puppet が合わせて導入してあれば、直接cronを更新することが出きるので、設定は
サーバー上で取った情報等をまとめて、最終的にエクセルファイルとして出力したい場合(大抵CSVだと表現しきれない情報がある(枠線とか色とか)。。orz)、基本的にはエクセルマクロを使うことになる。ただ、エクセルマクロだと、言語としてVisualBasicしか使えず、いろいろと大変、Windows上でしか使えない、作ったマクロはエクセル以外の環境だと動かない、などいろいろと制限があるため、もう少し手軽な方法が欲しいところだった。 Openofficeについて調べていたところ、こちらはPython(他にJavascript等も使用できる。。)がマクロ用に使用できることが分かったため、こちらを使用してみることにした。動作環境としては、Fedora14上のOpenoffice(3.3.0), Python(2.7)を使用した。 準備 上ではマクロと書いたが、厳密にはマクロ(Openofficeのプロ
STP(Spanning-Tree Protocol)はスイッチでループを作った際にブロードキャストストームの発生を防いでくれるはずなのだが、スイッチが1台しかない筆者の環境ではこの構成をテストするのが難しかった。 最近、仮想化環境で自由に仮想スイッチを作れるようになったので、仮想マシンのブリッジ接続と合わせて、ブロードキャストストームが発生する状況を作ってみた。 仮想マシンはFedoraを使い、同じブリッジからのNICを2本(eth0, eth1)つなぎ、ブリッジ接続を行った。ブリッジの設定は次のようになる。 # brctl addbr br0 # brctl addif br0 eth0 # brctl addif br0 eth1 # ifconfig br0 192.168.1.XXX netmask 255.255.255.0 # ifconfig eth0 up # ifcon
RHCSを使う際には、フェイルオーバーを試すときに、Fence Deviceが必要になる。これまで、XenのノードのFencingにはfence_xvmなどが使用できたのだが、KVMのFencingとしては、SSH経由でVMの停止を行うfence_virshぐらいしかツールがなく、SSHのrootアクセスを許可しなくてはいけないため、敷居が高かった。 最近のFedoraでは、新たにfence-virt( http://sources.redhat.com/cluster/wiki/FenceVirt )が導入され、SSHの設定変更無しでもKVMのfencingが出来るようになっていたので、使ってみた。 詳しい使い方については、こちらを参照。 http://www.clusterlabs.org/wiki/Guest_Fencing fence-virtでは、複数ノードでのVM管理(別ノード
Fedora12の新機能の1つに、QCOW2形式のパフォーマンス向上がある。 ( https://fedoraproject.org/wiki/Features/KVM_qcow2_Performance ) QCOW2はraw形式と比べて、ディスクの使用に従って、順次ファイルサイズを大きくしていくという利点がある。このため、新規に作成するVMについてはできる限りQCOW2形式を使うことにしたのだが、既存のVMをraw形式から変換することも試してみた。fedora-virt4というVMを例に取ると、 # cd /var/lib/libvirt/images # mv fedora-virt4.img fedora-virt4.img.raw # qemu-img convert -c -O qcow2 fedora-virt4.img.raw fedora-virt4.img とした。 結
前回まででDMZを構築し、内部セグメントとの間にLinuxルーター(兼F/W)を挟むことができたため、その流れで透過プロキシを構成してみた。 透過プロキシは、80番ポートへの接続をルーターでNATし、プロキシ経由で接続を行う方式である。PC側での設定が不要なため、キャッシングや、URL書き換えなど、フォワードプロキシの機能をPCの設定無しで使いたいときに便利な構成である。。 ネットワーク構成図はこちらを参照。。 http://d.hatena.ne.jp/aaabbb_200904/20100127/1264609527 透過プロキシのプロキシサーバーは br0x251につなぎ、NAT用のルーターとしてfedora-virt5を使用している。(端末はbr0x11に直つなぎ) 透過プロキシの構成方法はこの辺を参照。<<ルーター側>> http://www.atmarkit.co.jp/fli
MRGにはqpidというパッケージが含まれていたのだが、こちらもCondorと合わせて、使ってみた。 Apache Qpid(http://qpid.apache.org/index.html)は、AMQP( http://ja.wikipedia.org/wiki/Advanced_Message_Queuing_Protocol )に従っており、商用MQと同種の機能を目指しているらしい。(参考リンク曰く、"HTTPとSMTPがうまくできないこと全て"が対象とのこと。)<<参考リンク>> http://www.infoq.com/jp/news/2008/08/amqp-progress インストール Fedora12では、インストールはyumで実施できる。 # yum install qpiddなお、qpiddの管理のため、pythonのパッケージも入れておいた方がよさそうである。(q
以前オープンソースの運用ツールについてまとめたとき( http://d.hatena.ne.jp/aaabbb_200904/20090718/1247940134 )、オープンソースのジョブ管理のツールにはなかなかいいものがない、ということを書いた。その後、Red Hat MRGについて調べていたとき、パッケージ内にCondorというGrid向けのバッチジョブ実行ツールが含まれていることに気づいたのだが、こちらをよく調べてみると、ジョブ管理ツールとしてもかなり優秀と思われたので、少し使ってみた。 Condor ( http://www.cs.wisc.edu/condor/ ) の主な使い方は、バッチジョブを複数のノード(Computer Grid的にPCの空き時間を使うことにも対応している)に振り分けることのようだ。ただし、Condor自身は、 1.依存性を持ったジョブの実行 2.複数
筆者の環境では、ルーター, F/W のパフォーマンス管理のために、Gangliaを使用しているのだが、DMZ側から直接管理PCに通信させたくなかったため、参考リンクの構成に従って、Gangliaをカスケード接続してみた。この構成だと管理PCからDMZ側に能動的に取りにいく方式になるため、DMZ側から内部に向けてF/Wを開放する必要がなくなる。<<参考リンク>> http://www.ibm.com/developerworks/wikis/display/WikiPtype/ganglia カスケード接続を行うためには、DMZ側にgmetadを置くノードが1台必要になる。 まず、F/Wを閉じることになるので、DMZ内のクライアントは全てDMZ内のgmetadサーバーにデータを送るように構成する。また、ネットワークごとにclusterを分割するため、clusterに適切な値を記入する。このた
Dimdim( http://www.dimdim.com/ )はWeb会議向けのオープンソースソフトウェアで、イントラネット内のサーバーにインストールすることで、自由にWeb会議を行うことが出来る。クライアントはWindowsの他に、Linuxも使えるようなので、FedoraサーバーにVMアプライアンスとして導入+Fedora, UbuntuのFirefoxでWeb会議という方法で使ってみた。 オープンソース版のダウンロードはこちら。 http://www.dimdim.com/opensource/dimdim_open_source_community_edition.html 一応RPM版も用意されているが、本体以外にもいくつか依存性があるらしいため、同時に配布されているVMWare Applianceにて動かしてみた。 ダウンロードしたVMware Applianceは2GB刻み
確実に外部ストレージへの接続を行うため、外部ストレージを利用する際には複数のHBAにより、multipathを使いたいのだが、CentOSやFedoraにもクライアント側のmultipathの機能がある。 既にopenfiler を使って、iSCSI target が使えるようになっているので、Fedora11 からmultipathを使ってみた。 大まかな使い方はこちらと同様になる。 http://www.redhat.com/docs/en-US/Red_Hat_Enterprise_Linux/5/html/DM_Multipath/index.html まず、iSCSIのストレージに複数のHBAがある状態にするため、openfilerにログインし、 # ifconfig eth0:1 xx.xx.xx.xx などにより、二つ目のIPを付与する。実際には1つのNICしかないため、冗長
Nagios との連携から始まったのだが、最近PostgreSQLを集中して触っている。その中でバックアップ&リカバリを試してみた。 PostgreSQL のバックアップは、DBの機能を使ったものでは、 1. pg_dump によるDBごとバックアップ 2. WALによるフル・差分バックアップ がある。 pg_dump はDBごとにまとめてダンプを取る方法で、その分差分バックアップは取れない。 一方2のWALバックアップは、アーカイブログ(変更内容を書き出したファイル)をバックアップすることで、差分バックアップが可能となる。 ただし、インスタンスごとに WALは1つだけらしく、DBごとにバックアップを取る場合には、それぞれをインスタンスとして分割するか、pg_dump で個別に取るかなどの対応が必要になりそうだ。 1のpg_dump は使い方が割合簡単で、例えば、mmmというDBのバックア
Red Hat Cluster は、HA用にも使えるのだが、同時にclvmdというCluster 対応のLVMデーモンを使って、ストレージの共有にも利用出来る。 この際、IPアドレスなどのリソースは設定しなくてもよい。こちらは、Webサーバーなど、LVSによる冗長化が可能なノードでも使うことができ、コンテンツのレプリケーション無しでコンテンツサーバーのスケールアウトを行うことができる。 ( http://www.jp.redhat.com/magazine/NO31/ ) GFSは、clvmd と組み合わせて、同一のデータを複数のノードから読み書きすることができるCluster File Systemだ。 同様の機能は、OCFS(Oracle File System ) でも使用できるが、yum で簡単に使用できることもあり、CentOSでは GFSを使っておいた方がよいだろう。 ww 関
このページを最初にブックマークしてみませんか?
『aaabbb_200904の日記』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く