日本語対応が強化されたUSB起動・CD起動が可能なハードディスクのパーティション管理ツール「Parted Magic 5.2」

Linuxを利用したGUIで操作可能なハードディスクパーティション管理ツール「GParted」が使えるフリーソフトウエアが日本語対応となってバージョンアップした。バージョンアップ内容は下記の通り。

  • Parted 0.6.2に対応し、MiB単位でパーティション境界を揃えることが可能。WesternDigital製AFT採用ハードディスクで利用可能。
  • ブートメニューで日本語が選択可能。
  • SCIMを利用して日本語入力に対応。
  • 論理パーティションの移動に対応。
  • MBR書き換え問題を修正。

対応可能なファイルシステムは下記の通り。

  • ext2 ext3 ext4 linuxswapパーティション
  • ntfs fat16 fat32 (Windows向け)
  • hfs hfs+
  • jfs
  • reiserfs reiser4
  • xfs

動作には256MB(ライブモードでは128MB)のRAMが必要。古いPCで利用する際には注意。

Parted Magic 公式ページ http://partedmagic.com/

Parted Magic ダウンロードページ http://sourceforge.jp/projects/sfnet_partedmagic/releases/

広告

USB起動・CD起動が可能なハードディスクのパーティション管理ツール「Parted Magic 5.0」リリース

sourceforge.jp パーティション管理ツール「Parted Magic 5.0」リリース より。

Linux カーネル2.6.34.1を利用したGUIで操作可能なハードディスクパーティション管理ツール「GParted」が使えるフリーソフトウエア。

USBメモリやCDドライブから起動可能なので新規のハードディスク購入時の初期不良の洗い出しやハードディスクのまるごとコピー、WD20EARSなどのAFT採用ハードディスクをWinXPで利用する際のパーティション設定に良さそう。

対応可能なファイルシステムは下記の通り。

  • ext2 ext3 ext4 linuxswapパーティション
  • ntfs fat16 fat32 (Windows向け)
  • hfs hfs+
  • jfs
  • reiserfs reiser4
  • xfs (REGZAレコーダーで採用?)

なお動作には256MB(ライブモードでは128MB)のRAMが必要とのこと。古いPCで利用する際には注意を。

Parted Magic 公式ページ
http://partedmagic.com/

Parted Magic ダウンロードページ
http://sourceforge.jp/projects/sfnet_partedmagic/releases/

WesternDigital製HDD WD20EARSの667GBプラッタのベンチマーク

先日購入したWesternDigital製のハードディスク WD20EARS-00MVWB0 667GプラッタバージョンをUbuntu Linux 10.04 Lucid Lynx に接続した。接続環境は下記の通り。

CPU : Phenom X4 9750

M/B : Asus M2A-VM ( AMD 690G, SB600 )

OS : Ubuntu Linux 10.04 LTS Lucid Lynx ( kernel 2.6.31-21 )

ベンチマークはGNOME標準のPalimpsest ディスク・ユーティリティ 2.30.1を利用。

WD20EARS-00MVWB0ベンチマーク

平均読み込み速度が94.0MB/sなのでなかなかの速度である。

なおこのハードディスクを既に構築されているRAID6アレイ(合計10台)に追加したところ、reshape完了は4.8日後とのこと。

のんびり待つことにする。

WesternDigital製HDD WD20EARSの667GBプラッタバージョンを購入

ツクモオンラインショップ よりタイムセールで2TBのWesnternDigital製ハードディスクWD20EARS 667GBプラッタ×3枚バージョンを8,980円で購入した。到着したらUbuntu Lucid Lynx 10.04 マシンの3ware 9500s-12 に接続してRAID6に追加する予定。

なおWD20EARSの従来500Gプラッタと新667GBプラッタの違いは下記の通り。

  • 新667GBプラッタはWD15EARSの外装で基板レイアウトも同じらしい。
  • プラッタ枚数が4枚から3枚に減少。
  • プラッタの軸端にディクスがぶれない様に固定するStableTracが無い(4プラッタのみのため)
  • 消費電力は同じか微増。
  • AFT(Advanced Format Technology)やヘッダ退避機構IntelliPark、省電力機構IntelliPowerは従来と同様。
  • 回転数はIntelliPowerの為可変なので非公開だが、従来と同じ5000RPM前後らしい。

従来RAIDアレイは性能や相性問題回避のため同じメーカー・型番のハードディスクが良いとされていた。

ハードディスクの性能のボトルネックが解消された今、同じ環境で運用しているRAIDアレイで、特定メーカー・型番のハードディスクを集中して利用すると故障原因や平均故障時間が同じように集中しやすいという経験がある。

なので私は適度にメーカーや型番を分散させたハードディスクを利用してRAIDアレイを構築している。

WesternDigital社製WD20EARSのマイナーバージョンアップ製品が登場

WesternDigital社製WD20EARSのマイナーバージョンアップ製品が登場

従来品WD20EARSは500Gプラッタ×4枚にStableStac(プラッタのブレ防止機能)搭載。

新WD20EARSは666Gプラッタ×3枚にStableStac無し。

従来品は既に9,860円〜16,800円の在庫処分として価格が下がっている。WD20EARSの4プラッタ品を10,980円×5台を5月5日に購入してまだRAIDアレイの構築が完了していないのにハードディスクの価格が下がるとorzになる。

私は666Gプラッタ採用は2.5TB(2.3TiB)が6月に登場する予兆とみている(内部資料のロードマップでもそう記載されているし)。HGSTはSAS法人向けで2.5TB〜3TB製品を出すようだし、本格的な動きは6月にあるかも。

Ubuntu Linux 10.04 Lucid Lynxのパーティション操作コマンドpartedのバージョンがアップしたのでAFT採用ハードディスクで論理セクタと物理セクタの正常な値が取得できると思っていたが、論理・物理セクタともに512byte/sectorとしが表示されず、エミュレーション経由の値のみで物理セクタの値は取得できなかった。これは今後に期待。

Ubutnu 10.04 Lucid Lynx にてWD20EARS&WD20EADSの9台RAID6の拡張完了に5日間費やす

Ubutnu 10.04 Lucid Lynx にてWD20EARS&WD20EADSの9台RAID6の拡張がようやく明日に完了する予定。やはり3ware 9500s-12をPCI 32bit 33MHz接続ではバス帯域が足りないので実測値110MB/secしかでないので5日間もかかる。

またカーネ ルを2.4.34-999(nightly Build)にアップした。Promise SuperTrak ex8350ドライバのstex不具合等があれば記載する予定。

Ubuntu 10.04 Lucid LynxでRAID6構築 更新2010/06/19

※注意:コマンドラインはあくまで参考です。環境によりパラメータが異なります。またエディタの関係上一部記号がコピー&ペーストできません。自己責任でおねがいします。

先日ネットショップで購入したWD20EARSが我が家に到着した。

5台購入。代理店はCFDの1年保証。ウェスタンデジタル日本語ページのエンドユーザ保証サービスのページから、保証の確認を行うと、5台とも全て「限定保証なし」とつれない回答。

そこでRMAの3年保証を有効にするために、CFDのWesternDigital RMA申請開始手続きページから台数分のRMA有効の申請を行う。ちょっと面倒な作業。10日前後で手続きが完了とのこと。

次にUbuntu 10.04マシンに3ware 9500S-12経由で購入したハードディスク5台を追加接続して起動。

9500S-12はSATA1.5Gbit/secなのだが、8/10シリアルで換算して1台あたり100MB/secも速度が出れば充分なのと、PCI33MHz32bitなので133MB/secが限界値であること、さらにdebianやfedoraなどのイメージ記録用なので問題なしと判断した。

Ubuntu起動後にpalimpsestディスク・ユーティリティで全てのハードディスクが認識していることを確認。

そのままRAID構築でも良いが念のためパーティションを設定する。

GPTパーティションの作成

GPTパーティションを利用するのでfdiskではなくpartedを利用する。

$sudo parted /dev/sdq

$mklabel gpt

パーティションテーブルにGPTを利用する。

$unit MiB

パーティション作成時の単位をMiB(1,024bytes * 1,024  = 1,048,576 bytes)にする。

これは、WD20EARSがAdvanced Format Technology(AFT)を利用したハードディスクだからである。内部のセクタは4KiB(4096bytes)だが、セクタエミュレーションにより512bytesセクタに見せかけている。WindowsXP以前のOSは512bytesセクタに決め打ちしているため互換性を保つためと、セクタサイズを大きくしてもECC(エラー訂正符号)のbit数は比例せず同じ記録密度でディスク容量が最大11%アップするため導入したらしい。またエミュレーションセクタの境界と内部セクタの境界にズレが生じると性能が劣化する(最大2回の読み書きが生じるため)ので、パーティション境界を8の倍数のセクタに合わせておく必要がある。

$ mkpart ext4 1 -1

先頭パーティションを1MiBから開始するようにパーティションを設定する。

$ set 1 raid on

作成したパーティションにLinux RAIDフラグを設定する。

$ quit

この作業を5台分行う。

RAID6の構築

$ sudo mdadm –create /dev/md0 –raid-device=5 –level=6 –metadata=1.0 –chunk=128 –layout=left-symmetric-6 –bitmap=internal  /dev/sd[pqrst]1

長いので分けて解説する。

$ sudo mdadm –create /dev/md0

新規にディスクアレイ(RAID)を作成する。デバイス名をmd0とする。

–raid-device=5

RAIDに利用するハードディスク(デバイス)の数を設定する。

–level=6

RAIDレベルの設定。RAID0(冗長性なし・ストライピング)、RAID1(ミラーリング)、RAID5(1台分の冗長性)、RAID6(2台分の冗 長性)となる。その他にもRAID1の3重ミラーリングやRAID1+0など用途に応じて設定。

–metadata=1.0

LinuxのRAIDは、起動時に自動認識してRAIDデバイスを利用可能な状態にする。その際のRAIDに関する情報(metadata)を記録するのだが、バージョンと記録する位置によりいくつか設定がある。

0.9:ハードディスクの最後にmetadataを記録する。なお古いバージョンのため、1RAIDボリュームあたり2TiBまでなど制限がある。

1.0 1.1 1.2:metadataのバージョンは全て1.0で、小数点以下によりハードディスクの最後・ハードディスクの先頭・ハードディスクの先頭から4KiBとなる。

–chunk=128

単位はKiB。RAIDボリュームから読み出す単位を設定する。標準は64KiB。RAID5・6は128KiBが適切らしい。

–layout=left-symmetric

RAIDボリュームを構成するハードディスクの先頭からデータを書込み、最後にパリティ情報を記録する。詳細は別途検索をお願い。

–bitmap=internal

RAIDボリューム単位で更新情報を記録する。標準はnone。リカバリ時にbitmapの内容を参照して再構築に必要な部分のみを構築するため、時間短縮につながる。

/dev/sd[pqrst]1

続けて構築するハードディスクデバイス名を列挙する。

コマンドは実行すると2~3秒程で終了するが、バックグラウンドジョブで稼働している。

進捗状況を表示するには下記のコマンドで可能。

$ watch -n 1 cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdt1[4] sds1[3] sdr1[2] sdq1[1] sdp1[0]
5860539648 blocks super 1.0 level 6, 128k chunk, algorithm 2 [5/5] [UUUUU]
[>………………..]  resync =  4.5% (89325056/1953513216) finish=1490.8min speed=20840K/sec
bitmap: 446/466 pages [1784KB], 2048KB chunk

unused devices: <none>

などと表示される。resync=4.5%が構築の進捗状況。RAID再構築が完了してmd0デバイスが利用可能になるまで24時間強である。

RAID構築完了後詳細表示を行う。

$ sudo mdadm –detail /dev/md0

/dev/md0:
Version : 01.00
Creation Time : Fri May  7 18:10:52 2010
Raid Level : raid6
Array Size : 5860539648 (5589.05 GiB 6001.19 GB)
Used Dev Size : 3907026432 (3726.03 GiB 4000.80 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sat May  8 23:57:37 2010
State : active
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0

Chunk Size : 128K

Name : momoserver:0  (local to host momoserver)
UUID : f246dae2:6b221399:fea2f6a8:5e7dfdd2
Events : 20404

Number   Major   Minor   RaidDevice State
0       8      241        0      active sync   /dev/sdp1
1      65        1        1      active sync   /dev/sdq1
2      65       17        2      active sync   /dev/sdr1
3      65       33        3      active sync   /dev/sds1
4      65       49        4      active sync   /dev/sdt1

ここではChunk Size : 128Kを覚えておく。

LVM(Logical Volume Managementの設定

/dev/md0構築後直ぐにmkfs.ext4でも良いのだが、気分的にLVMを構築してからにする。

$ sudo vgcreate Array00 /dev/md0

PVとVGを同時に作成する。Array00はボリュームグループ名(VG)、/dev/md0以降は VGに参加させるデバイス(PV)を列挙する。

Volume group “Array00” successfully created

作 成すると上記のメッセージを表示する。

次にロジカルボリューム(LV)を作成する。これが実質的なパーティション名となる。

$ sudo vgdisplay -v Array00

作成したVGの詳細表示。

Using volume group(s) on command line
Finding volume group “Array00”
— Volume group —
VG Name               Array00
System ID
Format                lvm2
Metadata Areas        1
Metadata Sequence No  1
VG Access             read/write
VG Status             resizable
MAX LV                0
Cur LV                0
Open LV               0
Max PV                0
Cur PV                1
Act PV                1
VG Size               5.46 TiB
PE Size               4.00 MiB
Total PE              1430795
Alloc PE / Size       0 / 0
Free  PE / Size       1430795 / 5.46 TiB
VG UUID               PGcd8f-w2nM-22he-GRPl-y6Wr-kgyP-Mw3N6P

— Physical volumes —
PV Name               /dev/md0
PV UUID               eAZgg9-1tAW-XY36-UmBc-LjGn-HXiG-aiIvZF
PV Status             allocatable
Total PE / Free PE    1430795 / 1430795

PEとは、Physical Extentの略で、LVMで扱う情報の最小単位と思えばいい。

デフォルトでは1PE=4MiBなので、Total PE 1430795×4MiB=5590GiBとなる。

ここで最後に論理ボリューム(Logical Volume)の作成を行う。

$ sudo lvcreate -l 100%VG -n lv00 Array00

最後のパラメータにLVに追加するVGを列挙する。

-l 100%VG

これはVGの容量の100%で作成するというパラメータ。

-n lv00

LV名の設定

Logical volume “lv00” created

これでLVMの設定は完了。

ext4でLVをフォーマット

$ sudo mkfs.ext4 /dev/Array00/lv00

ここでext4フォーマットを行う。

Invalid argument 100%VG
Error during parsing of command line.
mtama@momoserver:~$ sudo lvcreate -l 100%VG -n lv00 Array00
Logical volume “lv00” created
mtama@momoserver:~$ sudo mkfs.ext4 /dev/Array00/lv00
mke2fs 1.41.11 (14-Mar-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=32 blocks, Stripe width=96 blocks
366288896 inodes, 1465134080 blocks
73256704 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
44713 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544

Writing inode tables:   399/44713

フォーマットしている間に/dev/md0を自動認識させるよう設定する。

$ sudo mdadm -Ds /dev/md0

ARRAY /dev/md0 level=raid6 num-devices=5 metadata=01.00 name=momoserver:0 UUID=f246dae2:6b221399:fea2f6a8:5e7dfdd2

$ sudo mdadm -Ds /dev/mdo >> /etc/mdadm/mdadm.conf

次に手作業でmdadm.confを編集する。

$ sudo vi /etc/mdadm/mdadm.conf

# definitions of existing MD arrays
ARRAY /dev/md0 name=server:0 metadata=01.00 UUID=XXXXXX auto=yes

下線部をmetadata=1.0に書き換える。

マウントして完了

フォーマットが終わると下記のメッセージが表示される。

Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 20 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

マウントする。

$ sudo mount -t ext4 /dev/Array00/lv00 /mnt/disk/

次に自動マウントするためfstabを編集する。

$ sudo vi /etc/fstab

下記の行を追加する。

# RAID6 LVM2 Array00
/dev/Array00/lv00        /mnt/disk    ext4    rw,auto,noatime 0       2

最後の数字はfsckをどのタイミングで行うか。詳しくは検索すること。

これで完了。

作業時間は1時間弱、作業期間は4日程度であった。次回はディスクの増設を行う予定。

RAID構築後にRAIDユニットがマウントできない場合 2010年06月06日追加

何かの表紙でRAIDボードやSATAデバイスのドライバがエラーを起こした場合、ハードディスクは正常なのにArray StatusがFaildとなってアレイをマウントできなくなる場合がある。

その際に有効なコマンドをいくつかメモする。

$ sudo mdadm -QE –scan

ARRAY /dev/md/2 level=raid5 metadata=1.0 num-devices=3 UUID=5cbbccda:b3b74458:8f193a8e:d66021d8 name=server:2
ARRAY /dev/md/1 level=raid5 metadata=1.0 num-devices=4 UUID=0aeedf27:e5a4d11e:44d6b3de:5aa5e901 name=server:1
ARRAY /dev/md/0 level=raid6 metadata=1.0 num-devices=9 UUID=f246dae2:6b221399:fea2f6a8:5e7dfdd2 name=server:0

mdadm.confに間違ったUUIDを記載した場合に正常なUUID値をハードディスクのスーパーブロックから読み出すコマンド。

出力されたリストをmdadm.confに追加するだけで良い。

$ sudo mdadm -As /dev/md0

mdadm.confに記載されたmdデバイスを開始する。

$ sudo mdadm -E /dev/sdc1

ハードディスクのスーパーブロックからRAID情報を読み出す。古いRAIDアレイで利用していたハードディスクを再利用使用する際に、UUIDが古いままだと新しいRAIDアレイに追加できない。-QEコマンドと使うとUUIDを比較して正しいか判断ができる。

WDのAFT採用HDD(Bigsector)とGPTの性能差について

WesternDigital社のハードディスクEARSシリーズは、従来の512セクタから4096セクタへと変更したAdvanced  Format Technology(AFT)を採用していますが、パーティションの先頭セクタの位置よりリード・ライト性能が変化します(セクタサイズエミュレーションのため)。

今までは従来のMBRパーティションの性能変化の情報がありましたが、Grobal Partition Table(GPT)での性能については情報がありませんでした。

FreeBSDで調べた方がいましたのでリンクします。

しののの – FreeBSD/BigSector HDD 様のページにあります。

詳しい情報は上記ページをみてもらえば判りますが、結果を引用いたします。

(さらに…)