破損したzfs/poolにあるホーム領域他の回復データ引き上げ用仮領域を確保するために、ハードディスク(HDD)用ケージの交換とHDDを追加しようと思います。注*1】
- 小生の健忘禄、兼作業記録になっていますことをお詫び申し上げます🙇♂️
飛ばしたzfs/poolにあったホーム領域は、既にReplicateサーバーとActiveDirecoryドメインコントローラ(AD-DC)に接続したBackup用ディスク[*2]に、2回、引き上げています[*3]。
ただ、引き上げてたデータを、rsyncでメインファイルサーバーに戻す作業は、まだ、rsync/sshで転送する設定は終えていないため、rsyncの圧縮オプション(-z)は意味をなさないので、転送速度の点から、効率が悪く、時間がかかってしまいます😅。
新しい”ホーム領域用pool”は、飛ばしていないpool0に確保する予定のため、一旦、仮領域用poolに退避させたいところです🤔。
また、拙宅のメインファイルサーバーに装着している"HighPoint製RocketRAID2720SGL"の2枚目のCh7/Ch8は使ってこなかったので、この2チャンネル分を活用して、回復回復作業前に、仮領域用RAID1を準備したいと思います。
1. HDDケージの交換とHDD追加
(1)HDDケージの交換
拙宅のメインファイルサーバーのケースには5インチハーフベイが9個あります。
このうち、最初に買った”4ドライブ用ケージ”は、ベイを3つ占有しています😅。
”BD-R/DL”ドライブをeSATA接続に変更して、手持ちの1ドライブ用HDDケージを使っても、1個分のHDDの装着スペースが不足します😢(*4)。

そこで、思い切って、”4ドライブ用ケージ”を”3ドライブケージ”×2に交換することにしました😀。
最初は、脱着の容易さから、HDDを直接装着できる下記のを候補として考えていました🤔。
ただ、HDDの開始時期などの情報をテプラで貼り付けておくのにトレイタイプの方が便利な気がしたのと、各種インジケーターLEDがあった方が、HDDの管理に何かと便利な気がしてきたので、トレイタイプを選択。
調達したのは、トレイタイプで一番安かったこちらのドライブケージを2個。
HDDを新しいトレイにつけなおします。
最初は、”HDDとケージの電源LEDが点灯しない”/”RocketRAID2720のBISOで認識しない”ので😵、電源ケーブル他の問題かと思ったところ、使用開始時にドライブのアクセスLED兼電源スイッチを押さないといけないケージでした😅。

商品説明からは把握できない機能でした(*5)。
ドライブの電源を一回、ONにすれば、停止・起動後も電源はONのままですが、
稼働中にHDDアクセス兼HDD電源スイッチを押してしまうと、稼働中でもHDDの電源が落ちてしまいます😵。
このケージ、不用意にスイッチを押してしまわないように、スイッチの保護方法を考えないと、絶対、どの沼にはまる気がします😅。
(2)HDD追加
新たに確保できた2ドライブ分のトレイには、手持ちの500Gbyte/6GbpsなHDDを装着し、2枚目のRocketRAID2720のSAS/SATAポートの内、チャンネル7/8に接続。
飛ばしていない、pool0は容量1TbyteのRAID5ですが、ディスク使用量は500Gbyte未満なので、pool0の中身をそっくり、500GbyteなRAID1に退避できます😀。
2. 仮領域確保
(1)RAID1領域作成
”RocketRAID2720”のRAID1構築は、”RocketRAID2720のBIOS”上で行います。







(2)仮poolの作成

まずは、”da5”上にGPTなパーティションを作成します。
| root@mainsv:# gpart create -s gpt da5 | ; | 。 |
| root@mainsv:# gpart add -t freebsd-ufs da5 | ; | 。 |
| root@mainsv:# gpart show | ; | 。 |

”da5p1”を使って仮のpoolを作成します。
poolの作成に際しては、pool名が既存のpool名と被らいないように明示的に”pooltemp ”としておきます(*6)。
| root@mainsv:# zpool create pooltemp da5p1 | ; | |
| root@mainsv:# zfs show | ; | 。 |
| root@mainsv:# zfs set mountpoint=none pooltemp | ; | 。 |
| root@mainsv:# zpool initialize pooltemp | ; | 。 |
| root@mainsv:# zpool status | ; | 。 |



安全のために、poolのイニシャライズが終わるのを待ちます🤔。
【次回に続く予定】
出典・引用・備考
*1:この投稿の内容は、特定の機種並びに特定の環境での確認結果になります。同等機種や異なる環境での動作他を保証するものではありませんので、ご留意いただけます様お願いいたします。
*2:
*3:
*4:事前計画では、手持ちの1ドライブ用HDDケージと内部5インチベイを使う予定にしていましたが、内部5インチベイにM/Bと直結させたSATAなディスクを装着してしまったので、1ベイ分足りなくなってしまいました😅。
*5:添付されていた英語の説明書を斜め読みした限りでは、このことに触れらていないようでした。
*6:プール名は英数字の組み合わせであれば、自由に付けられるようです。
ちなみにOracleのzfsマニュアルページではpool名は”tank”に統一されています。

