「Bootchart」は OS 起動時の CPU、ディスク I/O などのシステム負荷をグラフ化してくれるツールです。
OS 起動時のプロセスを時系列でチャートで見ることができるので、視覚的にもわかりやすいです。
システム負荷情報から、ボトルネックを割り出したり、OS の起動はどのようなプロセスを経ているかなども分かります。
OS 起動時のプロセスを時系列でチャートで見ることができるので、視覚的にもわかりやすいです。
システム負荷情報から、ボトルネックを割り出したり、OS の起動はどのようなプロセスを経ているかなども分かります。
Ubuntu 9.10 で 暗号化ファイル転送(scp)を使ってみる。では、「scp」というコマンドラインユーティリティで暗号化のファイル転送を行いました。
たくさんのファイルを転送する場合、「scp」はコマンドなので、面倒なのは否めませんね。。。
「gFTP」は ssh での通信機能も備えているので、「gFTP」を使えば、GUI での暗号化ファイル転送は可能です。
では、「gFTP」を使って、ssh でのファイル転送を行ってみます。
たくさんのファイルを転送する場合、「scp」はコマンドなので、面倒なのは否めませんね。。。
「gFTP」は ssh での通信機能も備えているので、「gFTP」を使えば、GUI での暗号化ファイル転送は可能です。
では、「gFTP」を使って、ssh でのファイル転送を行ってみます。
Ubuntu 君での作業は、SSH(Open-ssh)でリモートログインして行う場合がほとんどです。
さすがに、GUI での作業は SSH ではできませんから、デスクトップにログインしますけど。。。
Open-ssh はリモートログインの他にも、「scp」というファイル転送する機能があります。
「scp」はSSH 上で動くので、SSH が利用できる環境であれば使用できるので、特にセットアップなどは不要です。
また、SSH の機能の一部ですので、データは暗号化されて転送されます。
では、「scp」を使ってみましょう。
さすがに、GUI での作業は SSH ではできませんから、デスクトップにログインしますけど。。。
Open-ssh はリモートログインの他にも、「scp」というファイル転送する機能があります。
「scp」はSSH 上で動くので、SSH が利用できる環境であれば使用できるので、特にセットアップなどは不要です。
また、SSH の機能の一部ですので、データは暗号化されて転送されます。
では、「scp」を使ってみましょう。
Unix 系 OS である Ubuntu はマルチユーザでの使用を考慮された OS です。
もちろん、デスクトップ版でも同じです。
例えば、家族で PC を共有していて、使う人によって、Ubuntu のデスクトップやファイルの保存を別管理したいということもありますね。
やっぱり、エッチな動画とかは他人に知られたくないので、個人管理したいですからねww
では、Ubuntu 9.10 でユーザを追加してみましょう。
もちろん、デスクトップ版でも同じです。
例えば、家族で PC を共有していて、使う人によって、Ubuntu のデスクトップやファイルの保存を別管理したいということもありますね。
やっぱり、エッチな動画とかは他人に知られたくないので、個人管理したいですからねww
では、Ubuntu 9.10 でユーザを追加してみましょう。
「MaCoPiX」はウィンドウの上に腰掛けるマスコットキャラクターです。
たまには、こんな感じで遊んでみるのもいいかもしれません。。。
たまには、こんな感じで遊んでみるのもいいかもしれません。。。
「paco」の特徴は
・「make install」などを実行したときに、ファイルの更新情報(どのファイルが更新されたか)を取得し、ログに出力
・パッケージの管理は「/var/log/paco」の配下に保存されたログで行っている
という点にあります。
この2点を利用すれば、インストール時に「何のファイルが作成されたか、更新されたか?」ということが取得できますね。
つまり、どこにライブラリが保存されて、どこに設定ファイルが保存されて。。。
などという情報を取得できるということです。
しかも、「/var/log/paco」配下のログファイルを物理削除すれば、「paco」のパッケージ管理外にできますので、インストールファイルの情報さえ取得してしまえば、後は「/var/log/paco」配下のファイルさえ削除すれば、「paco」は無かったことにしてくれます。
サーバアプリケーションであれば、インストール後に、設定ファイルなどを探さないといけません。
たいがいは、「man」で説明がありますが、中には不十分な説明のアプリケーションもあります。
また、パッケージの削除(dpkg -r、apt-get remove)を行っても、関連ファイルが全て削除されることはなく、一部のファイルがシステムに残ってしまう場合もあります。
そんな時には、この「paco」を応用して、インストールファイル一覧を作ってみるのも有効かもしれません。
※今回の「paco」の利用方法は本来の使用方法ではなく、裏技的な方法です。
マネをされるのは構いませんが、何が起こっても責任は持ちません、自己責任で行ってください。
・「make install」などを実行したときに、ファイルの更新情報(どのファイルが更新されたか)を取得し、ログに出力
・パッケージの管理は「/var/log/paco」の配下に保存されたログで行っている
という点にあります。
この2点を利用すれば、インストール時に「何のファイルが作成されたか、更新されたか?」ということが取得できますね。
つまり、どこにライブラリが保存されて、どこに設定ファイルが保存されて。。。
などという情報を取得できるということです。
しかも、「/var/log/paco」配下のログファイルを物理削除すれば、「paco」のパッケージ管理外にできますので、インストールファイルの情報さえ取得してしまえば、後は「/var/log/paco」配下のファイルさえ削除すれば、「paco」は無かったことにしてくれます。
サーバアプリケーションであれば、インストール後に、設定ファイルなどを探さないといけません。
たいがいは、「man」で説明がありますが、中には不十分な説明のアプリケーションもあります。
また、パッケージの削除(dpkg -r、apt-get remove)を行っても、関連ファイルが全て削除されることはなく、一部のファイルがシステムに残ってしまう場合もあります。
そんな時には、この「paco」を応用して、インストールファイル一覧を作ってみるのも有効かもしれません。
※今回の「paco」の利用方法は本来の使用方法ではなく、裏技的な方法です。
マネをされるのは構いませんが、何が起こっても責任は持ちません、自己責任で行ってください。
Ubuntu では利用できるソフトウェアがたくさんあります。
ありすぎて、全体でどれくらいあるのかは、想像できません。。。><;
よく利用されるソフトウェア、動作確認されているソフトウェアの多くはパッケージ化されているので、「apt」(GUI フロントエンドの「synaptic」、「ソフトウェアセンター」も含めて)や「dpkg」で簡単にインストールできます。
「apt」でインストールすれば、バージョン管理やパッケージ間の依存関係も自動で解消してくれるので、ユーザはパッケージの管理に工数をかける必要がありません。
パッケージされているのは問題ありませんが、中にはパッケージ化されていないソフトウェアもあります。
Redhat 系で「rpm」(Redhat Package Manager)のみ提供され、「Deb」(Debian パッケージ)が用意されていない場合は、「alien」でパッケージ変換を行うか、公開されているソースからビルドしなければなりません。
また、ソースでしか公開されていない場合もありますし、パッケージ化されていても、最新バージョンはソースしかない場合もあります。
依存関係さえ問題なければ、ソースからビルド(make)もそんなに手間はかかりませんが、ソースからのビルドはインストール情報がシステムに残らないことが問題ですね。。。><;
また、アンインストールが出来なかったりします。
(make uninstall 機能は全てのソースでは提供されていないですので、そんな場合ソースを追ったりしないとどのファイルを消せばいいのか分からない。。。)
「何を make でインストールしてたっけ??」と忘れてしまうこともあります。。。
(私は、「インストールパッケージ一覧」を作成して、構成管理しているので、インストール情報は調べられたり(漏れがあるかもしれませんが。。。)します)
「paco」は「make」などでインストールしたソフトウェアの管理ができるユーティリティです。
機能的に「apt」ほど優秀ではありませんが、「何をインストールしたか」ぐらいは管理できます。
では、「paco」を使ってみましょう。
ありすぎて、全体でどれくらいあるのかは、想像できません。。。><;
よく利用されるソフトウェア、動作確認されているソフトウェアの多くはパッケージ化されているので、「apt」(GUI フロントエンドの「synaptic」、「ソフトウェアセンター」も含めて)や「dpkg」で簡単にインストールできます。
「apt」でインストールすれば、バージョン管理やパッケージ間の依存関係も自動で解消してくれるので、ユーザはパッケージの管理に工数をかける必要がありません。
パッケージされているのは問題ありませんが、中にはパッケージ化されていないソフトウェアもあります。
Redhat 系で「rpm」(Redhat Package Manager)のみ提供され、「Deb」(Debian パッケージ)が用意されていない場合は、「alien」でパッケージ変換を行うか、公開されているソースからビルドしなければなりません。
また、ソースでしか公開されていない場合もありますし、パッケージ化されていても、最新バージョンはソースしかない場合もあります。
依存関係さえ問題なければ、ソースからビルド(make)もそんなに手間はかかりませんが、ソースからのビルドはインストール情報がシステムに残らないことが問題ですね。。。><;
また、アンインストールが出来なかったりします。
(make uninstall 機能は全てのソースでは提供されていないですので、そんな場合ソースを追ったりしないとどのファイルを消せばいいのか分からない。。。)
「何を make でインストールしてたっけ??」と忘れてしまうこともあります。。。
(私は、「インストールパッケージ一覧」を作成して、構成管理しているので、インストール情報は調べられたり(漏れがあるかもしれませんが。。。)します)
「paco」は「make」などでインストールしたソフトウェアの管理ができるユーティリティです。
機能的に「apt」ほど優秀ではありませんが、「何をインストールしたか」ぐらいは管理できます。
では、「paco」を使ってみましょう。
Ubuntu 9.10 では 便利な FTP GUI クライアントがあります。
GUI とはいえ、接続のたびユーザ名、パスワード認証するのが面倒だったりします。
ちなみに私は、FTP コマンドで作業するのがほとんどで、動作検証などで、GUI を使うくらいだったりします。
「CurlFtpFS」は FTP の接続先(FTP ホスト、FTP サーバ側)のディレクトリをローカル(FTP クライアント側)のファイルシステムとしてマウントできるユーティリティです。
「CurlFtpFS」を使用すれば、FTP ホストのディレクトリをローカルディレクトリとして利用できますので、FTP クライアントを利用せずにファイルマネージャだけで、FTP の送受信が行えてしまいます。
結構便利なので、「CurlFtpFS」を使ってみましょう。
GUI とはいえ、接続のたびユーザ名、パスワード認証するのが面倒だったりします。
ちなみに私は、FTP コマンドで作業するのがほとんどで、動作検証などで、GUI を使うくらいだったりします。
「CurlFtpFS」は FTP の接続先(FTP ホスト、FTP サーバ側)のディレクトリをローカル(FTP クライアント側)のファイルシステムとしてマウントできるユーティリティです。
「CurlFtpFS」を使用すれば、FTP ホストのディレクトリをローカルディレクトリとして利用できますので、FTP クライアントを利用せずにファイルマネージャだけで、FTP の送受信が行えてしまいます。
結構便利なので、「CurlFtpFS」を使ってみましょう。
「IceBreaker」は動くペンギンに当たらないように氷を分割しながらペンギンを追い込んでいく、いわば陣取りゲームです。
単純なので、誰でも楽しめます。
単純なので、誰でも楽しめます。
「Tuxpuck」はエアーホッケーゲームです。
VMware Player 上の仮想マシンでも十分動いてくれます。
VMware Player 上の仮想マシンでも十分動いてくれます。
Ubuntu 9.10 から Windows XP へリモートデスクトップ接続する。では、Ubuntu 9.10 から、Windows XP のデスクトップへリモートデスクトップ接続を行いました。
今度は、その逆に Windows XP(以下、WinXP)から、Ubuntu 9.10(以下、Ubuntu 君)のデスクトップへ接続を行います。
今回、WinXP から Ubuntu 君のデスクトップへの接続は、「VNC」(Virtual Network Computing)を利用しますが、Windows のリモートデスクトップとは少し違います。
大きな違いは、Ubuntu 側はデスクトップにログインしていなければ接続できないため、リモートでのデスクトップログインはできません。
どちらかというと、PCanywhere のような「デスクトップの操作」、「NetMeeting のデスクトップ共有機能」と言ったところです。
今度は、その逆に Windows XP(以下、WinXP)から、Ubuntu 9.10(以下、Ubuntu 君)のデスクトップへ接続を行います。
今回、WinXP から Ubuntu 君のデスクトップへの接続は、「VNC」(Virtual Network Computing)を利用しますが、Windows のリモートデスクトップとは少し違います。
大きな違いは、Ubuntu 側はデスクトップにログインしていなければ接続できないため、リモートでのデスクトップログインはできません。
どちらかというと、PCanywhere のような「デスクトップの操作」、「NetMeeting のデスクトップ共有機能」と言ったところです。
Windows には、「リモートデスクトップ」という機能があり、他の PC からデスクトップへリモートでログインして操作できます。
Windows のサーバやマシンを遠隔操作できるので、非常に便利ですね。
いい機能ですので、利用しない手は無いです。
Windoows 同士でリモートデスクトップ接続しても面白くありませんので、Ubuntu 9.10(以下、Ubuntu 君)から Windows XP(以下、WinXP) へリモートデスクトップ接続を行います。
つまり、WinXP をリモートデスクトップのサーバ(接続される側)として、Ubuntu 君をリモートデスクトップクライアント(接続する側)として、接続を行います。
Windows のサーバやマシンを遠隔操作できるので、非常に便利ですね。
いい機能ですので、利用しない手は無いです。
Windoows 同士でリモートデスクトップ接続しても面白くありませんので、Ubuntu 9.10(以下、Ubuntu 君)から Windows XP(以下、WinXP) へリモートデスクトップ接続を行います。
つまり、WinXP をリモートデスクトップのサーバ(接続される側)として、Ubuntu 君をリモートデスクトップクライアント(接続する側)として、接続を行います。
Ubuntu 9.10 には、「gedit」など、デスクトップ上で動くエディタがありので、設定ファイルの編集でもそれほど戸惑うことはないでしょう。
とはいえ、Linux を利用する上で、「vi」に代表される CUI 環境で利用できるエディタをさけて通ることはできません。。。
デスクトップが表示されない状況では、「gedit」はもちろん動きませんから、「gedit」で復旧作業はできません。。。
そのような状況では、「vi」などが活躍してくれます。
「vi」(または vi クローン)はおそらく、Unix 系 OS の全てでインストール直後から実行できるエディタです。
つまり、それだけ、メジャーなエディタと言えるでしょう。
「vi」の標準的な操作(ファイルのオープン、検索、一通りの編集作業、上書き保存や新規保存)くらいは出来るようになっておきましょう。
さておき。
通常の「vi」は CUI 環境で動作しますが、「gvim」という、GUI 環境で動作してくれる「vi クローン」を使ってみます。
GUI 環境で動作しますので、マウス操作もある程度はできます。
「vi」の入門用として「gvim」で「vi」というものに慣れてから、本格的に「vi」を使うのもいいかもしれません。
とはいえ、Linux を利用する上で、「vi」に代表される CUI 環境で利用できるエディタをさけて通ることはできません。。。
デスクトップが表示されない状況では、「gedit」はもちろん動きませんから、「gedit」で復旧作業はできません。。。
そのような状況では、「vi」などが活躍してくれます。
「vi」(または vi クローン)はおそらく、Unix 系 OS の全てでインストール直後から実行できるエディタです。
つまり、それだけ、メジャーなエディタと言えるでしょう。
「vi」の標準的な操作(ファイルのオープン、検索、一通りの編集作業、上書き保存や新規保存)くらいは出来るようになっておきましょう。
さておき。
通常の「vi」は CUI 環境で動作しますが、「gvim」という、GUI 環境で動作してくれる「vi クローン」を使ってみます。
GUI 環境で動作しますので、マウス操作もある程度はできます。
「vi」の入門用として「gvim」で「vi」というものに慣れてから、本格的に「vi」を使うのもいいかもしれません。
会社でも家でも、LAN はどこでも見かけますね。
LAN には、PC はもちろん、ルータ、プリンタなど、いろいろなネットワーク機器が接続されています。
もちろん、PC しかつながっていない場合もありますけど。。。
多くのネットワーク機器がつながっていると、IP アドレスの管理も大変になります。
全て DHCP であれば、適切な IP アドレスが自動的に割り当てられるため、気にすることはほとんどありませんが、固定 IP だと、大変ですね。
新しい機器を繋ぐとき、「何番の IP を割り当てよう。。。」なんて、悩むこともあるでしょう。
私の場合は、「IP アドレス管理台帳」というものを用意しておき、この台帳で IP アドレスを管理しています。
新しい機器を繋ぐときは、この台帳より新しい IP アドレスを払い出しするので、悩むことも無かったりします。
たとえ台帳管理していても、たまには台帳と 実際に割り振られた IP アドレスを確認しておかないといけません。
せっかく台帳があても、実際に払い出した IP アドレスと台帳で整合性がとれてなければ、意味ないですからね。
たかが IP アドレス、されど、IP アドレス。。。
このあたりの構成管理が出来ていないと、特にネットワーク関連の障害調査もできません。。。><;
1台1台調べてもいいですけど、まとめて、調べることもできます。
では、Ubuntu 9.10 で同一セグメント内の LAN に接続された機器の IP アドレスを確認してみましょう。
LAN には、PC はもちろん、ルータ、プリンタなど、いろいろなネットワーク機器が接続されています。
もちろん、PC しかつながっていない場合もありますけど。。。
多くのネットワーク機器がつながっていると、IP アドレスの管理も大変になります。
全て DHCP であれば、適切な IP アドレスが自動的に割り当てられるため、気にすることはほとんどありませんが、固定 IP だと、大変ですね。
新しい機器を繋ぐとき、「何番の IP を割り当てよう。。。」なんて、悩むこともあるでしょう。
私の場合は、「IP アドレス管理台帳」というものを用意しておき、この台帳で IP アドレスを管理しています。
新しい機器を繋ぐときは、この台帳より新しい IP アドレスを払い出しするので、悩むことも無かったりします。
たとえ台帳管理していても、たまには台帳と 実際に割り振られた IP アドレスを確認しておかないといけません。
せっかく台帳があても、実際に払い出した IP アドレスと台帳で整合性がとれてなければ、意味ないですからね。
たかが IP アドレス、されど、IP アドレス。。。
このあたりの構成管理が出来ていないと、特にネットワーク関連の障害調査もできません。。。><;
1台1台調べてもいいですけど、まとめて、調べることもできます。
では、Ubuntu 9.10 で同一セグメント内の LAN に接続された機器の IP アドレスを確認してみましょう。
CD/DVD イメージとして、「○○.iso」というイメージファイルがよく使われます。
この「ISO イメージ」という言葉も一般的になっているので、「○○の ISO イメージを用意して」などという使われ方も一般的ですね。
「ISO イメージ」は多くの CD/DVD ライティングソフトに対応しているので、「ISO イメージ」から CD/DVD を作るのも容易なので、使い勝手もいいです。
「ISO イメージ」はアーカイブファイル(複数のファイルを一つにまとめたファイル)の一種なので、中には複数のファイルが含まれています。
アーカイブファイルではありますが、そのままではファイルの中身を見ることはできません。
「Gmount-iso」は「ISO イメージ」を通常の CD/DVD のようにマウントすることができるユーティリティです。
通常の CD/DVD のようにマウントさえ出来てしまえば、アーカイブファイルのファイルでも、中を見たり、取り出すことができます。
「Gmount-iso」は GUI インターフェイスを備えているので、ちょっと、「ISO イメージ」の中を確認するには便利なツールです。
この「ISO イメージ」という言葉も一般的になっているので、「○○の ISO イメージを用意して」などという使われ方も一般的ですね。
「ISO イメージ」は多くの CD/DVD ライティングソフトに対応しているので、「ISO イメージ」から CD/DVD を作るのも容易なので、使い勝手もいいです。
「ISO イメージ」はアーカイブファイル(複数のファイルを一つにまとめたファイル)の一種なので、中には複数のファイルが含まれています。
アーカイブファイルではありますが、そのままではファイルの中身を見ることはできません。
「Gmount-iso」は「ISO イメージ」を通常の CD/DVD のようにマウントすることができるユーティリティです。
通常の CD/DVD のようにマウントさえ出来てしまえば、アーカイブファイルのファイルでも、中を見たり、取り出すことができます。
「Gmount-iso」は GUI インターフェイスを備えているので、ちょっと、「ISO イメージ」の中を確認するには便利なツールです。
Ubuntu 10.04 の β(ベータ) 1 がとうとうリリースされましたねww
試しにインストールしてみましょうww
現時点、Beta 1 という開発段階になりますので、不安定な部分が多々あります。
問題点等があり、場合によっては OS すら起動できない状況になる可能性があります。
ですので、そのリスクを理解した上で、あくまで、「お試し」としてインストールすることを強く推奨します。
インストールは動作しなくなってもよいマシンや仮想マシンへインストールし、決して、本番で使用している実機マシンにはインストールしないようにして下さい。
開発版の OS を本番で使用しているマシンへインストールするような無謀(勇気というより無謀。。。)なことは行わないように。。。
試しにインストールしてみましょうww
現時点、Beta 1 という開発段階になりますので、不安定な部分が多々あります。
問題点等があり、場合によっては OS すら起動できない状況になる可能性があります。
ですので、そのリスクを理解した上で、あくまで、「お試し」としてインストールすることを強く推奨します。
インストールは動作しなくなってもよいマシンや仮想マシンへインストールし、決して、本番で使用している実機マシンにはインストールしないようにして下さい。
開発版の OS を本番で使用しているマシンへインストールするような無謀(勇気というより無謀。。。)なことは行わないように。。。
普通、ネットワークは目に見えない部分が多いので、ネットワークの問題はなかなか解決しなかったりします。
例えばクライアントとサーバ間で認証処理がうまくいかない場合、認証のどの段階で問題が発生しているかの原因追求は手間がかかります。
ログやらをきちんとはいていれば、どの段階であるかを判別できますが、原因追求に役立つようなログ出力が無い場合もあります。。。
また、サーバ間通信でデータロストしている場合などは、どのデータが送受信できていて、どのデータが送受信できていないのかなどを判別するため、送信側でどのデータを送信していて、受信側でどのデータが受信しているかを採取して、送信側と受信側で比較するのは結構な手間がかかります。
そんな時には、スニファーを仕込んだり、「TCPDump」などでネットワークを監視して調査することもあります。
(認証の問題くらいなら、スニファーは大げさですけどね)
「TCPDump」は強力なユーティリティで、Ubuntu にも標準でインストールされていたかも。。。
(「TCPDump」をインストールした記憶はないのですけど、インストールされて使えたので)
強力とはいえ、CUI なので、ちょっと使いにくかったりします。
「Wireshark」はネットワーク監視できる、GUI ユーティリティです。
いわば、「TCPDump」の GUI 版といったところでしょうか。
パケットを追いかけて調査するような場合には役に立ってくれます。
例えばクライアントとサーバ間で認証処理がうまくいかない場合、認証のどの段階で問題が発生しているかの原因追求は手間がかかります。
ログやらをきちんとはいていれば、どの段階であるかを判別できますが、原因追求に役立つようなログ出力が無い場合もあります。。。
また、サーバ間通信でデータロストしている場合などは、どのデータが送受信できていて、どのデータが送受信できていないのかなどを判別するため、送信側でどのデータを送信していて、受信側でどのデータが受信しているかを採取して、送信側と受信側で比較するのは結構な手間がかかります。
そんな時には、スニファーを仕込んだり、「TCPDump」などでネットワークを監視して調査することもあります。
(認証の問題くらいなら、スニファーは大げさですけどね)
「TCPDump」は強力なユーティリティで、Ubuntu にも標準でインストールされていたかも。。。
(「TCPDump」をインストールした記憶はないのですけど、インストールされて使えたので)
強力とはいえ、CUI なので、ちょっと使いにくかったりします。
「Wireshark」はネットワーク監視できる、GUI ユーティリティです。
いわば、「TCPDump」の GUI 版といったところでしょうか。
パケットを追いかけて調査するような場合には役に立ってくれます。
最近は「メディアサーバ」という言葉を聞くようになりましたね。
メディアサーバとは、画像、映像、音楽などのマルチメディアコンテンツを保管、配信するサーバのことです。
ストリーミングサーバという場合もあるようですね。
(メディアサーバとストリーミングサーバ厳密な違いはよく知りません。。。><)
近頃の家電製品は LAN が普通に付いていたりして、マルチメディアクライアントとして動作してくれるのもあります。
さて、うちには、Playstation 3(以下、PS3)が眠っています。
(Linux が動くとかで買ったのはいいけど、キーボードが無いので、そのまま眠ってます)
たしか、PS3 は DLNA(Digital Living Network Alliance、AV 機器間でのデータを共有する規格)のクライアント(分かりやすくいえば、DLNA のプレイヤー)として動くはずなので、Ubuntu 君を DLNA(メディア)サーバとして稼動させれば、PS3 を DLNA のプレイヤーとして遊べますね。
「MediaTomb」は DLNA 規格の代表的なメディアサーバです。
Ubuntu 君に「MediaTomb」を構築して、PS3 を DLNA クライアントとして、メディア共有を行ってみます。
メディアサーバとは、画像、映像、音楽などのマルチメディアコンテンツを保管、配信するサーバのことです。
ストリーミングサーバという場合もあるようですね。
(メディアサーバとストリーミングサーバ厳密な違いはよく知りません。。。><)
近頃の家電製品は LAN が普通に付いていたりして、マルチメディアクライアントとして動作してくれるのもあります。
さて、うちには、Playstation 3(以下、PS3)が眠っています。
(Linux が動くとかで買ったのはいいけど、キーボードが無いので、そのまま眠ってます)
たしか、PS3 は DLNA(Digital Living Network Alliance、AV 機器間でのデータを共有する規格)のクライアント(分かりやすくいえば、DLNA のプレイヤー)として動くはずなので、Ubuntu 君を DLNA(メディア)サーバとして稼動させれば、PS3 を DLNA のプレイヤーとして遊べますね。
「MediaTomb」は DLNA 規格の代表的なメディアサーバです。
Ubuntu 君に「MediaTomb」を構築して、PS3 を DLNA クライアントとして、メディア共有を行ってみます。
Linux と Windows の大きな違いにファイルシステムがあります。
Windows ユーザにとっては、鬼門になるところの一つでしょうね。
某ドラマの影響??で Ubuntu をはじめたうちの若手も
「C ドライブってどこになるの?」
「インストールして保存される、Program Filesはどこになるの?」
などと、梃子摺っているようです。。。
まあ、某ドラマの影響という不純な動機で Ubuntu を初めたわけで、そのうち飽きるでしょうけどね。。。
とはいえ、Windows でいうところのドライブレターの概念は、Linux にはないし、戸惑うのも分からなくはないですけど。
Windows ユーザにとっては、鬼門になるところの一つでしょうね。
某ドラマの影響??で Ubuntu をはじめたうちの若手も
「C ドライブってどこになるの?」
「インストールして保存される、Program Filesはどこになるの?」
などと、梃子摺っているようです。。。
まあ、某ドラマの影響という不純な動機で Ubuntu を初めたわけで、そのうち飽きるでしょうけどね。。。
とはいえ、Windows でいうところのドライブレターの概念は、Linux にはないし、戸惑うのも分からなくはないですけど。
シェルスクリプトを作成したり、コマンド操作している時に
「あれ、引数は何だったっけ。。。?」
「オプションをどう指定すればいいんだろう。。。?」
ということがしばしばあります。
私がボケてるだけなのかもしれませんが、よく使うコマンド(ユーティリティ)であっても、ど忘れすることもありますね。
そんな時には「man」(マニュアルを表示するコマンド)で確認するのですが、新しく端末を立ち上げて「man」を使うのも面倒だったりしますね。
「man」を使っても、改行位置がおかしかったりして見にくい場合もあります。
そんな時には「man2html」が便利ですww
「man2html」は「man」を HTML に変換してくれるユーティリティです。
「あれ、引数は何だったっけ。。。?」
「オプションをどう指定すればいいんだろう。。。?」
ということがしばしばあります。
私がボケてるだけなのかもしれませんが、よく使うコマンド(ユーティリティ)であっても、ど忘れすることもありますね。
そんな時には「man」(マニュアルを表示するコマンド)で確認するのですが、新しく端末を立ち上げて「man」を使うのも面倒だったりしますね。
「man」を使っても、改行位置がおかしかったりして見にくい場合もあります。
そんな時には「man2html」が便利ですww
「man2html」は「man」を HTML に変換してくれるユーティリティです。
ネットワーク経由のファイル・ディレクトリ共有といえば、「samba」が有名ですね。
「samba」は主に Windows と Unix 系 OS での共有で利用されます。
Unix 系 OS での共有あれば、NFS(Network File System)があります。
個人的なイメージですが、「NFS」が料亭などの具は鳥だけの本格的な「鳥鍋」、「samba」が具沢山でおうちでも簡単に作れる「寄せ鍋」って感じww
同じ共有であっても、「samba」と「NFS」は全くの別物。。。
「samba」は Windows との共有、「NFS」は Unix 同士の共有で一般的に使用されます。
(まあ、「samba」では Unix 同士の共有もできちゃうんですけどね。。。)
では、NFS を使って、共有を行ってみましょう。
※NFS は高度な設定です。
不明点などはシステム管理者に確認して下さい。
「samba」は主に Windows と Unix 系 OS での共有で利用されます。
Unix 系 OS での共有あれば、NFS(Network File System)があります。
個人的なイメージですが、「NFS」が料亭などの具は鳥だけの本格的な「鳥鍋」、「samba」が具沢山でおうちでも簡単に作れる「寄せ鍋」って感じww
同じ共有であっても、「samba」と「NFS」は全くの別物。。。
「samba」は Windows との共有、「NFS」は Unix 同士の共有で一般的に使用されます。
(まあ、「samba」では Unix 同士の共有もできちゃうんですけどね。。。)
では、NFS を使って、共有を行ってみましょう。
※NFS は高度な設定です。
不明点などはシステム管理者に確認して下さい。
Ubuntu 9.10 で Avira AntiVir を使ってみる。(avscan.conf)では、Avira AntiVir(以下、AVIRA)の「avscan.conf」(手動スキャンの設定ファイル)の設定をみてみました。
手動スキャンの設定ファイルがあるように、リアルタイムスキャンにも設定ファイルがあります。
リアルタイムスキャンの設定ファイルが「/etc/avira/avguard.conf/」(以下、avguard.conf)になります。
手動スキャンとリアルタイムスキャンが別設定ファイルなので、違う動作設定も可能です。
ただし、ウィルスパターンファイルはリアルタイムスキャンでも手動スキャンでも同じパターンファイルを使ってます。
ですので、パターンファイルの更新はリアルタイムスキャン、手動スキャンで同じになります。
そのパターンファイルの更新設定は「/etc/avira/avupdate.conf」(以下、avupdate.conf)になります。
では、「avguard.conf」、「avupdate.conf」でどのような設定が行えるのかを見てみましょう。
手動スキャンの設定ファイルがあるように、リアルタイムスキャンにも設定ファイルがあります。
リアルタイムスキャンの設定ファイルが「/etc/avira/avguard.conf/」(以下、avguard.conf)になります。
手動スキャンとリアルタイムスキャンが別設定ファイルなので、違う動作設定も可能です。
ただし、ウィルスパターンファイルはリアルタイムスキャンでも手動スキャンでも同じパターンファイルを使ってます。
ですので、パターンファイルの更新はリアルタイムスキャン、手動スキャンで同じになります。
そのパターンファイルの更新設定は「/etc/avira/avupdate.conf」(以下、avupdate.conf)になります。
では、「avguard.conf」、「avupdate.conf」でどのような設定が行えるのかを見てみましょう。
Avira AntiVir(以下、AVIRA)での、手動スキャン(avscan、オンデマンドスキャン)の動作設定ファイルは「/etc/avira/avscan.conf」(以下、avscan.conf)になります。
この「avscan.conf」はデフォルトでも、十分利用できる設定ですが、いろいろ設定を編集することにより、より使いやすい動作になります。
ですので、設定内容をみながら、どのような動作が可能なのかをみてみましょう。
この「avscan.conf」はデフォルトでも、十分利用できる設定ですが、いろいろ設定を編集することにより、より使いやすい動作になります。
ですので、設定内容をみながら、どのような動作が可能なのかをみてみましょう。
Ubuntu 9.10 で Avira AntiVir を使ってみる。(その1)で Avira AntiVir(以下、AVIRA)をインストールし、リアルタイムスキャンの環境ができました。
この「AVIRA」には、スケジュールでのスキャンの自動実行の機能がないので、スケジュールでのスキャンを行う場合は、何かしらの策を講じる必要があります。
簡単に行うなら、スキャン実行をシェルスクリプト化し、そのシェルスクリプトを「cron」から実行することで実現できますね。
なので、スキャン実行をシェルスクリプト化してみます。
この「AVIRA」には、スケジュールでのスキャンの自動実行の機能がないので、スケジュールでのスキャンを行う場合は、何かしらの策を講じる必要があります。
簡単に行うなら、スキャン実行をシェルスクリプト化し、そのシェルスクリプトを「cron」から実行することで実現できますね。
なので、スキャン実行をシェルスクリプト化してみます。
3D の CG ソフト「Blender」を試してみます。。。
インストールして約1時間格闘しましたが。。。。
とんでもなく、難しい。。。><;
インストールして約1時間格闘しましたが。。。。
とんでもなく、難しい。。。><;
うちの Ubuntu 君は VMware Player の仮想マシンなので、ディスクの IO なんかのパフォーマンスはあまり気にならなかったりします。
(というか、限界が見えてますから、そこそこ動けばいいかなってところです。。。)
ベンチマークはほとんど使うことはないですが、負荷状況などの確認で、vmstat や iostat でたまに見ますね。
(たまにと言っても、調子が悪い時だけかも。。。)
さておき。
最新のハード機器のハイスペックなマシンで Ubuntu を使っておられる方もいるでしょう。
ハイスペックマシンをお使いでしたら、自分のマシンのパフォーマンスが気になったりすることでしょう。
「Bonnie++」はディスクのベンチマークを行うツールです。
うちの Ubuntu 君で、「Bonnie++」を使いディスクのベンチマークを行ってみました。
(というか、限界が見えてますから、そこそこ動けばいいかなってところです。。。)
ベンチマークはほとんど使うことはないですが、負荷状況などの確認で、vmstat や iostat でたまに見ますね。
(たまにと言っても、調子が悪い時だけかも。。。)
さておき。
最新のハード機器のハイスペックなマシンで Ubuntu を使っておられる方もいるでしょう。
ハイスペックマシンをお使いでしたら、自分のマシンのパフォーマンスが気になったりすることでしょう。
「Bonnie++」はディスクのベンチマークを行うツールです。
うちの Ubuntu 君で、「Bonnie++」を使いディスクのベンチマークを行ってみました。
よく見る動画など、毎回毎回サイトへアクセスするのは面倒ですね。。。
ローカルマシンへ保存しておければ、見たいときに見ることができます。
「HTTP Ripper」は Web サイトのコンテンツをダウンロードして、保存することができるユーティリティです。
「HTTP Ripper」はプロキシとして動作しますので、ブラウザでアクセスしたサイトへのコンテンツを自由に保存することができます。
ローカルマシンへ保存しておければ、見たいときに見ることができます。
「HTTP Ripper」は Web サイトのコンテンツをダウンロードして、保存することができるユーティリティです。
「HTTP Ripper」はプロキシとして動作しますので、ブラウザでアクセスしたサイトへのコンテンツを自由に保存することができます。
Linux では、いろいろな圧縮ファイルが存在します。
Windows でよく見かける「.zip」はもちろん、「.tar」や「.tar.gz」なんかも。。。
いろいろな形式が選べるのはいいのですけど、コマンドラインで解凍、圧縮する場合はそれぞれやり方が違ったりするので、覚えるのが結構面倒。。。
私自身もたまに忘れるので、メモとして残しておきます。
Windows でよく見かける「.zip」はもちろん、「.tar」や「.tar.gz」なんかも。。。
いろいろな形式が選べるのはいいのですけど、コマンドラインで解凍、圧縮する場合はそれぞれやり方が違ったりするので、覚えるのが結構面倒。。。
私自身もたまに忘れるので、メモとして残しておきます。
VMware Player 3.0.1 がリリースされてますね。
VMware Player 本体アップデートはいいんですけど、面倒なのは、ゲストマシン(仮想マシン)の「VMware Tool」のアップデート。。。
「VMware Tool」のアップデートは結構面倒なんですね。。。
とはいえ、「VMware Tool」もアップデートしておかないと、一部機能が使えなかったりするので、面倒でもやっておかないといけません。。。
ですので。。。
もちろん、「VMware Tool」のアップデートも行いました。。。
やり方は
Ubuntu 9.10 へ VMware Tools をインストールしてみる。
で、インストールもアップデートも基本的には同じです。
仮想マシンがいっぱいあると、そのノード分しないといけないので、面倒なんですね。。。><;
ほとんど使ってない仮想マシンもあるので、使わない仮想マシンは消しちゃおうっと。。。
VMware Player 本体アップデートはいいんですけど、面倒なのは、ゲストマシン(仮想マシン)の「VMware Tool」のアップデート。。。
「VMware Tool」のアップデートは結構面倒なんですね。。。
とはいえ、「VMware Tool」もアップデートしておかないと、一部機能が使えなかったりするので、面倒でもやっておかないといけません。。。
ですので。。。
もちろん、「VMware Tool」のアップデートも行いました。。。
やり方は
Ubuntu 9.10 へ VMware Tools をインストールしてみる。
で、インストールもアップデートも基本的には同じです。
仮想マシンがいっぱいあると、そのノード分しないといけないので、面倒なんですね。。。><;
ほとんど使ってない仮想マシンもあるので、使わない仮想マシンは消しちゃおうっと。。。