Linux技術情報 FAQ:ハードウェア

HPE製品に特化した問題に限らず、ハード系に関する質問・回答集です。

SmartArray - ハードウェア RAID(除: ソフトウェア RAID)

 

cciss.o系 SmartArrayに TAPE装置を繋げたいが?

 

 cciss.oドライバを利用する SmartArrayコントローラの場合、利用するドライバと kernelのバージョンによって TAPE装置のサポートが可能になりました。詳細はcciss.oでの TAPEサポートについてをご覧ください。


12-FEB-2002


shutdown後 HDDへのアクセスが開始されるが?

 

 shutdown後電源が切れないシステム構成の場合、SmartArrayコントローラが持つ ARM(automatic reliability monitoring)機能が起動し、RAIDボリュームの整合性を確認するために HDDへアクセスを開始します。電源ボタンを押して電源断を行って構いません。

20-MAY-2002


recoveryモードで TAPEは利用できるか?

 

 利用できません。cciss.oで TAPEを利用するには kernel側でのサポートも必要になりますが、recoveryモード等で利用される kernelは最低限の機能のみを装備している場合が殆であるためです。

24-FEB-2003


subsystem already engagedと云われて TAPEが利用できないが?

 

 RPM/cciss v2.4.50を導入すると /etc/rc.d/init.d/に SmartArray/cciss.oに接続されたTAPEを認識させるスクリプト compaq_cciss_scsiと cciss_hotplugの 2つが導入されます。このうち cciss_hotplugをリネームする等して起動しない様に変更する事で対処可能です。

31-AUG-2004


インストール後の RAIDの容量増加は可能か?

 

 OSに依存しない SmartArrayの機能ですので Linuxでも利用可能です。3本の RAID-5を 4本に拡張したり、2本の RAID-1を 3本の RAID-5に RAIDレベルの変更を伴う拡張を行ったりすることができます。この際、既存の論理ドライブを拡張する方法と、既存の論理ドライブと同じ RAIDレベルの論理ドライブを追加する方法が選択できます。新たに利用できるディスク容量は、この 2つのどちらの方法でも同じになります。論理ドライブが 1ヶだけのシステムで説明すると…デバイスファイル名から見た場合、/dev/ida/c0d0自体が拡張されるのが前者で、/dev/ida/c0d1が新たに作成されるのが後者になります。

 但し、前者の場合、現在 ACU v7.20-19(PSP7.20に同梱)以降の利用が必要となります。

revised 09-SEP-2005


スワップを大量に確保するには?

 

 昨今メモリ搭載量が増大しているためスワップの容量もそれに比例し大容量なものを求められる傾向があります。スワップパーティションを細かく分割して確保する場合、SmartArray上の LUN上には 15(拡張パーティション含む)迄しかパーティションが切れません。これは一般的な SCSI HBAでも同様です。この場合 SmartArray上の LUN作成時に ACU, ORCAで分割作成する事で柔軟な運用が可能です。ACUを利用した場合には HDDの物理的な構成にとらわれず論理的に分割する事が可能です。ORCAの場合には HDDの物理構成での分割が必要となります。論理的に分割した LUNの場合には、ディスクの有効利用の観点から、物理的に分割した LUNの場合にはパフォーマンスの向上が期待できます。
 この様に LUNの分割等で多数のパーティションを確保するのではなく、スワップパーティションあたりの容量を拡大して回避する事も可能です。Red Hatの場合で云うと RHEL2.1迄はスワップパーティションあたりの最大容量は 2GB迄でした。EL3以降に於いては 2GB単位の制限はなくなりましたが、EL3/EL4, x86/x86_64, UpdateXの種類によりインストーラの Disk Druidが対応している swapの最大制限サイズが異なります(x86_64版だと Maximum設定が利用できるが、x86版だと Maximum設定では 1020MBに制限されてしまうので直接値を入力をする必要がある等)ので、パフォーマンスの観点や HDDの有効利用の観点からパーティションの確保を計画してください。

09-MAR-06, revised 14-APR-2006


Integrityサーバで内蔵 HDDの自動再構築が行われないが?

 

 Integrity サーバの SCSIバックプレーンにはホット・プラグ時のデバイス自動認識機能が装備されていないため、故障した SmartArray接続の内蔵 HDDを交換しても、オンラインで RAIDの自動再構築は行われません。但し、spareの切り替えや、reboot後の自動認識に関しては問題なく動作します。

 オンラインでの修復は、ACU-CLI(Command Line Interface)と HPIMA(Insight Management Agent)をインストールする事により手動で可能となります。HDDの交換後、ACU-CLIを起動する事によって、手動にて修復が実行されます。HDDの交換時に ACU-CLIが起動している場合には、HDDの交換後、ACU-CLIを再起動して下さい。

 尚、MSA30等の外付け SCSI Enclosureや、rx2660/3600/6600等の内蔵SAS HDD搭載モデルでのRAID構成時には、オンラインでの自動修復は問題なく行われます。

13-APR-06, revised 10-MAY-2007


smartdに対応していないのか?

 

 SmartArrayは HDD障害監視機能である S.M.A.R.T.に対応していますが、ディストリビューションに一般搭載されている smartd(smartctl)のsmartmontoolsが ccissドライバに対応したのは 09-OCT-2006の v5.37から(利用例)です。但し、smartctlは HDD単位のアクセスであり LUN(Array)としての監視はできませんのでご注意ください。S.M.A.R.T.を利用した障害監視は、IMAの一部である hpasm(の storage agent)が対応していますので、IMAを導入して障害監視を行ってください。ちなみに、システム起動時に smartdの監視対象デバイスが無い等のエラー記録を抑制したい場合には、smartdを #chkconfigで offしてください。

 ディストリビューション的には、RHEL5と SLES11はそれぞれ初期リリースから ccissに対応しています。SLES10は SP2からの対応、RHEL4は RHEL4.6から対応しています。RHEL4.6の場合 smartctlでの version表記は v5.33となりますが、この version表記だけでは ccissに対応するか否かは判断できませんので、smartctlを同梱している kernel-utilsで判断する必要がある事。対応しているのは v2.4.13.1.105となります。技術的な観点としては、RHEL4.2にこの kernel-utils内の smartctlだけを導入しても smartctlは cciss配下の HDDの状況を取得する事が可能となります。

 ちなみに、RHEL5.4、5.5の technical notesには smartctlでは SATAデバイスからの S.M.A.R.T.データの読み出しが行えない可能性があるとの記載がありますが、SmartArray経由での SATA HDDの取得は可能です。但し、かなり限定的(Temperature, Error Counter loggintが取得不可)なものとなります。SASの場合には問題ありません。この制限は `sat+`オプション(--device=sat+cciss,0)と `-T permissive`を付与する事で回避可能な場合があります(RHEL6.1で確認)。もしくは、upstreamにある smartmontoolsをビルドする事で回避可能(RHEL6.1と Debian 5.0.8で確認)です。この際には `sat+`オプションの付与のみで `-T permissive`は不要です。

 

 [15-JAN-2013] RHEL5.9では SATAディスクに対して -T permissive指定が不要になりました。また取得できる S.M.A.R.T.情報(RHEL5.8/SATA, RHEL5.8/SATA_T-permissive, RHEL5.9/SATA)も多くなっています。

22-FEB-2007, revised 21-JAN-2013


2.2TB超の単体 filesystemはサポートされるのか?

 

 2.2TBを越えるには kernel, HBA, driverが対応している必要があります。SmartArrayでの 2.2TB越えに関しての情報についてはこちらをご覧ください。

03-SEP-2007


キャッシュ無しの ZM構成だと fifo fullエラーになるが?

 

 SmartArrayの Zero Memory(文書によっては ZMR: Zero Memory RAID表記もあり)構成の場合、ccissドライバのバージョンによっては cciss: fifo fullが大量に記録されます。このメッセージは通常、ディスクアクセスが発生すると即座に記録され、パフォーマンスに悪影響を及ぼします。
 この問題は ccissドライバに zmr patch(max queueの設定方法を hardcodingから SmartArrayに問い合わせる形式に変更)がリリースされ修正済みで、cciss v2(3|4).6.20-16にて zmr-patchが適用されています。但し、一般的に upstrem kernel用に用意された patchの適用バージョンが、そのままディストリビューションに装備されているドライバのバージョンにあてはまるとは限りませんので注意が必要です。
 実際にディストリ標準の ccissドライバで問題が発生しないのは RHEL4.8以降、RHEL5.3以降、SLES10/SP2以降です。また、SLES11では当問題は発生しません。
 HPE提供の RPM/ccissドライババージョンの場合、RHEL4.7に RPM/cciss v2.6.20-16を適用、RHEL5.1, 5.2に RPM/cciss v3.6.20-18を適用、SLES10/SP1に RPM/cciss v3.6.20-16を適用する事で回避可能です。

29-JUL-2009


IMA無しで RAID状況を知る事はできないか?

 

 ccissドライバ単体では各種の障害情報をログに出力しないため IMAを初めとした何らかのツールが必要となります。ACU-CLIは管理のためだけではなく、都度能動的に状態を知るためにも利用されますが、コマンドラインから直接ステータスを叩き結果を標準出力に出す事が可能ですので、cron等で定期的に logに追記する方法が考えられます。詳細はACU-CLIをご覧ください。
 その他に、能動的に知る方法として、HPEは cciss_vol_statusツールを GPLライセンスで提供しています。詳細は cciss_vol_statusソフトウェアをご覧ください。
 ディストリビューション標準ツールでは smartctlが ccissに対応してきています。但し、このツールでは HDD毎の状態が分かるだけで RAIDとしての LUN単位での情報を知る事ができません。詳細はsmartdに対応していないのか?をご覧ください。

05-MAR-2010


cciss_hotplugと cciss_phys_devsとは何か?

 

 これらは RPM/ccissドライバに同梱されているものです。前者は SmartArrayコントローラに接続している TAPEを装着した場合に再スキャンさせるためのスクリプトで、#echo "engage scsi" >/proc/driver/cciss/cciss0等を自動化したものです。後者のツールは、SmartArrayコントローラに接続している HDDや TAPEのモデル名、ファームウェアバージョンの取得が可能なもので、smartctlでの S.M.A.R.T.情報が取得できない場合に有用なツールです。ちなみに、これらのツールは RPM/ccissパッケージ内の tar.gzから導入されるため rpm DBには残りません。

30-MAR-2010


インストール中に HDDの位置を特定したいが?

 

 同じ SmartArray HBAが複数あり、その配下には同じ構成の HDD、Array、論理ドライブを配置している場合、インストーラが示す /dev/cciss/c0d0が、物理的にどのドライブなのかを知るのは少々難しいものがあります。その理由として、PCIデバイスレベルでのバス位置が物理的なスロットのどこに対応するのかを予め把握する困難さがあります。また、SmartStart CD-ROMからシステムを起動(製品自体は Linuxベースです)した場合とディストリビューションのインストーラの CD/DVD-ROMからシステムを起動した場合のデバイスアサインが kernelレベルでの PCIスキャン順が同一である事、ドライババージョンの違いによるデバイスアサイン順が同一である事を確認するのも大変な作業となります。RHEL5のインストーラは smartctlが利用できますので、tty2に移動し、予め ACUで調べておいた HDDのシリアルナンバーから論理ドライブに対応する HDDの位置を調べる事が可能です。また、もっと視覚的に確認する方法としては、インストーラから tty2に移動し、#dd if=/dev/random /dev/cciss/c0d0 とする事で、該当する論理ドライブに対応する HDDのアクセスランプが不定期な点滅を行う事で目視が可能です。ちなみに、RAID-5のパリティ計算中の点滅が行われていても、この方法で点滅させた場合とは異なる光り方をしますので確認は容易です。

30-JUN-2010


hpsaドライバがディストリや upstreamに標準搭載されたのはいつからか?

 

 upstream kernel 2.6.33で hpsaドライバがマージされています。cciss側では 2.6.32で共存可能なパラメータ(cciss_allow_hpsa)が追加されています。ディストリビューションとしては、Fedora 13以降、SLES11/SP1以降、RHEL6に標準搭載されています。この内 Fedoraは機種依存問題があります。SLES11/SP1で hpsaを利用するには別途設定が必要になります。詳細は Fedoraでは hpsaと ccissはどちらが利用されるのか? SLES11で hpsaを使いたいが?をご覧ください。

 

 [24-JAN-2013] SLES11/SP2のインストーラは ProLiant G7迄とは異なり、Gen8にインストールする場合には hpsaを利用します。

19-NOV-2010, revised 24-JAN-2013


RHEL6で SmartArrayの扱いはどう変わったのか?

 

 SmartArray P212/410世代が利用するドライバが ccissではなく hpsaとなり、デバイスファイルが /dev/cciss/c0d0等から /dev/sda等に変更されています。また、Fedora 13, 14とは異なり、SmartArray E200/P400世代を装着している場合、ProLiant本体の世代に関係なくデバイスファイルは常に /dev/cciss/c0d0等となります。ちなみに、SmartArray 431等の cpqarrayドライバは、RHEL6には搭載されていません。

21-FEB-2011


RHEL6の hpsa利用時 SmartArrayの firmwareバージョンは確認可能か?

 

 従来の /proc/driver/cciss/cciss0ではなく、/sys/class/scsi_host/host0/firmware_revisionで参照可能です。

23-FEB-2011



RHEL6の hpsaで障害情報は logとして記録されるのか?

 

 hpsa単体では障害ログの記録は行いません。従来の ccissと同様に IMAや、ACU-CLI等との連携が必要となります。

24-FEB-2011


RHEL6の hpsaで smartctlは利用可能か?

 

 #smartctl -a --deivce=cciss,0 /dev/sda(もしくは sg0)で取得可能です。ドライバが ccissではなく hpsaの場合であっても --deviceで引き渡す値は `cciss`となりますので注意が必要です。また、SATAデバイスの SMART情報は殆ど取得する事ができません。技術的には、upstreamの v5.41( upstreamのものを利用するのは HPEの正式サポートとはなりません)をビルドする事で取得が可能になります。もしくは ACU-CLIの diagモードで更に詳細なデータの取得も可能です。RHEL6.1, 6.2の smartctlの場合 -T permissiveを引き渡す事で SATAデバイスでも詳細なデータの取得が可能となります。このオプションを引き渡した場合と upstreamの smartctlを利用した場合での出力結果は同様のものでしたが、全ての HDDで S.M.A.R.T.情報の全てが取得できる事は確認していません。また、short/long testの結果が正常なものである事も確認していません。

25-FEB-2011, revised 27-DEC-2011


hpsaは /procに firmwareリビジョンが無いが?
 

 ccissドライバでは /procでしたが hpsaドライバでは sysfsに変更されました。/sys/class/scsi_host/host*/firmware_revisionで SmartArrayコントローラの firmwareリビジョンが確認できます。同一ディレクトリにデバイス検知用の rescanも用意されています。また、/sys/class/scsi_disk/c:b:t:l/deviceもしくは /sys/block/sdX/device配下には unique_id、raid_level、lunidも用意されています。

03-JUN-2011, revised 21-NOV-2013


2.2TBを越える容量の HDDを利用するのに必要な条件は?

 

 SmartArray G6世代となる P410, P212等のファームウェアとして v5.06以降が必要となります。また ACU/ACU-CLIは v8.75-12.0が必要となります。SmartArray G5世代となる P400, E200等では、2.2TBを越える HDDを扱う事はできません。

12-SEP-2011


新規セットアップ時に RAIDが自動に組まれる場合があるが?

 

 SmartArrayは工場出荷直後(SmartArray用メタデータが存在しない状態)の HDDを組み込んでいる場合、POST時に HDDの本数に応じて RAIDを自動で構成する自動コンフィギュレーションプロセスが実行されます。HDDが 1本の場合は RAID-0(JBOD)、2本の場合は RAID-1、3~6本の場合は RAID-5となります。HDDの本数が 7本以上の場合には RAIDは構成されません。また、メタデータが残っている HDDが 1本でも存在すると自動コンフィギュレーションは行われません。自動コンフィギュレーションを望まない場合、POST時に [F8]を押して ORCAメニューから手動で設定するか、別途 ACUを起動して希望する RAID/Array/LUN設定を行ってください。

08-DEC-2011



ドライバを導入しても grub.confの entryが増えないが?

 

 従来は RPM形式のストレージドライバを追加すると initrd/initramfsの再作成が行われ、grub.confに新しい entryがその都度追加されていました。これら一連の作業は全て HPEが提供する RPM形式ドライバ内のスクリプトが行っていたものです。昨今の KMP形式のドライバ(ファイル名先頭に kmod-が付与)の場合、ディストリビューションに搭載されている weak-updatesスクリプトを利用する方法に変更されています。この方式の場合、構成の変化毎に inirtd/initramfsを別個に作成しません(updateする場合はあります)ので grub.confへの新規 entryの追加は行われません。

14-AUG-2012


snmpwalkで SmartArrayのディスク障害を確認するには?

 

 cpqDaLogDrvStatus(1.3.6.1.4.1.232.3.2.3.1.1.4)が現在の論理ドライブの状況を示します。#snnmpwalk -v 2c -c COMMUNITY 1.1.1.1 enterprises.232.3.2.3.1.1.4等とする事で返された値が 2であれば正常である事が確認できます。1.1.1.1ノードに複数の論理ディスクが存在する場合には複数行で値が返されます。2以外の値については IMAに添付されている HP_SNMP_Trap_Guide.txtか、hp-smh-templatesに添付されている daenums.js.jaで確認可能です。iLO4を装備している ProLiant Gen8の場合、OS上で IMAが稼働していなくても iLO4自身が内部で snmpdを稼働させていますので、同じ OIDが利用可能です。

06-MAR-2013, revised 15-APR-2016


SmartCacheを Linuxで使うには?

 

 SmartCacheは SmartArrayコントローラのファームウェアが SSDディスクを FBWCキャッシュと HDDの間の中間キャッシュとして利用するもので OSには依存しません。対応する SmartArray P42x等のファームウェアを v3.42にし、ライセンスを適用する事で利用可能となります。ちなみに、SmartArray P21xは搭載可能な FBWCが 512MB迄となるため、SmartCacheは利用できません。

01-APR-2013


SmartCacheは OS上からどの様に見えるか?

 

 SmartCacheは OS上からは認識できません。従来の SmartArrayコントローラ上に搭載されている FBWC/BBWCキャッシュの様に #smartctl等でも認識する事ができない transparentなものですので意識する必要はありません。SSDドライブが故障しても SmartCacheは readに対してのみキャッシュを効かせるため、データの損失には繋がりません。

02-APR-2013


SmartCacheを使うと SSDが見えなくなるが?

 

 SmartCache用に利用する SSDは、その全領域が SmartCacheアレイ領域として確保され、OSや各種ツール(#fdisk -lや #smartctl等)からも認識できなくなります。つまり、SmartCacheとして使っていない領域を JBOD等としては利用できない事を意味します。

05-APR-2013


SmartCacheの利用状況を知るには?

 

 ACU(Linux上で稼働させる onlineモード)のGIFSmartCacheの統計情報で確認可能です。ACU-CLIではTEXT#hpacucli logicaldrive 2 show等で確認可能です。

08-APR-2013


prefailure状態になった事を HDDの LEDで確認可能か?

 

 SmartArray P42xのファームウェア v3.42より、事前予防保証(prefailure warranty)状況となった SmartDrive HDDの LEDをオレンジ(amber)に点滅できる様になっています。

09-APR-2013


SmartCacheの設定はどこで行うのか?

 

 Array Configuration Utility(cpqacuxe)、Array Configuration Utility CLI(hpacucli)共に v9.40.12.0より SmartCacheに対応しています。また、Intelligent Provisioning(IP) v1.4に搭載されている ACUも対応しています。ACU/-CLIではどの SSDをどの領域に割りあてるか等の設定や利用状況の確認等が可能です。hpacucliでは createの typeで ldcacheを指定します。詳細は#hpacucli help createをご覧ください。ちなみに、POST時に起動する ORCAでは設定できません。

11-APR-2013


作成したパーティションを自動認識できないが?

 

 LUNに新規にパーティションを作成する場合、或いはLUNに既にパーティションが存在していても、パーティションが未使用の場合には、作成したパーティションは自動認識されます。
 LUNに既にパーティションが存在し、且つ使用中(mount中、或いは activate中の LVM PV として使用)の場合、同一 LUN内に作成したパーティションはオンラインで自動認識されない場合があります。

 RHEL5(RHEL5.10迄確認)では、fdiskでパーティションを作成した場合には自動識されません。別途 partprobeコマンドの実行で手動認識が可能です。また、fdiskではなく partedでパーティションを追加作成した場合には、オンラインで自動認識されます。

 RHEL6(RHEL6.5迄確認)では、fdisk、partedいずれの場合でも、作成したパーティションは自動認識されません。別途下記の partxコマンドの実行で手動認識が可能です。但し、partxコマンドは、パーティションの追加だけではなく既存パーティションを変更した場合など、パーティションテーブルの不整合が発生する場合があり注意が必要です。詳細はRed Hat Knowledgebaseをご覧ください。

 

#partx -a /dev/sdX

 

 尚、上記 RHEL5、RHEL6で実行する partprobe及び partxコマンドは、パーティション作成後に再起動を行う場合には不要です。

12-APR-2013, revised 08-JUN-2014


SmartPathとは何か?

 

 SmartArray配下に SSDを接続した場合、SmartArrayのファームウェアを介在させない場合の方が性能面で有利となる構成が存在します。SmartPathを利用すると利用している構成に応じて、SmartArrayのファームウェアを介在させるか否かを自動判断し IO性能を向上させます。読込み時には全ての RAIDレベルで SmartPathの機能が利用可能です。書込み時に SmartPathが有効となるのは RAID-0のみです。本機能は SSDの本数が増加するに従い性能の向上が見込めるものです。特に、小データのリクエストが大量に発行される、オンライントレーディングやトランザクション処理等の様なリアルタイム系アプリを稼動させるシステムで有効となります。

22-APR-2014


SmartPathを利用するために必要な環境は?

 

 SmartPathに対応するファームウェア v5.22(P42xの場合)を搭載した SmartArray P42x世代以降となります。設定は Smart Storage Administrator(SSA)、もしくは SSA-CLIから行います。POSTから起動する ORCAでは設定できません。ドライバは hpsaの v3.4.4-125(SPP 2013.09.0Bサプリメンタル同梱版、もしくは 2014.02.0同梱版)以降となります。ちなみに、RHEL6.5標準の hpsaドライバは未対応です。

 

 [30-OCT-2014] RHEL6.6に標準搭載されている hpsaドライバから SmartPathに対応しています。RHEL7.0に標準搭載されている hpsaドライバは未対応です。

 [19-JAN-2015] SLES12に標準搭載されている hpsaドライバは SmartPathに対応しています。

 [17-MAR-2015] RHEL7.1に標準搭載されている hpsaドライバから SmartPathに対応しています。

 [14-MAR-2016] SLES11/SP4に標準搭載されている hpsaドライバから SmartPathに対応しています。

23-APR-2014, revised 14-MAR-2016


SmartPathの状況を確認するには?

 

 Smart Storage Administrator(SSA)のグラフィカル画面で確認可能です。SSA-CLIの場合には #hpssacli controller slot=X show config detailで表示されます。Linux上では #cat /sys/class/scsi_host/hostX/hp_ssd_smart_path_statusで `HP SSD SmartPath enabled`として表示されます。LUNレベルでの確認は #cat /sys/block/sdX/device/hp_ssd_smart_path_enabledでの値が 1であれば、有効な状況となります。

24-APR-2014


inbox hpsaドライバでの Gen9世代 Smart Arrayの認識状況は?

 

 各ディストリビューション (RHEL, SLES, Ubuntu server LTS)の inbox hpsa ドライバでの、Gen9世代 Smart Arrayの認識状況は以下の通りです。

RHEL6.5 H244br,P246br,P840の認識不可 (要DUD)
RHEL6.6以降 全ての Gen9世代 Smart Array認識可
RHEL7.0以降 全ての Gen9世代 Smart Array認識可
SLES11 SP3 全ての Gen9世代 Smart Array認識不可 (要Gen9用kISO)
SLES11 SP4以降 全ての Gen9世代 Smart Array認識可
SLES12 SP0以降 全ての Gen9世代 Smart Array認識可
Ubuntu Server 12.04.5 LTS以降 全ての Gen9世代 Smart Array認識可
Ubuntu Server 14.04 LTS H244br,P246br,P840の認識不可
Ubuntu Server 14.04.1 LTS以降 全ての Gen9世代 Smart Array認識可

19-FEB-2016

 

smartctlで LUNのヘルスの変化は拾えるのか?

 

 smartctlで HDD/SSDの玉を指定するのではなく #smartctl -a /dev/sda等として LUNを指定した場合には、SmartArray自体のファームウェアバージョンや LUNの一部の情報が表示されるだけとなり、SMART自体のサポートについても、 Device does not support SMART.が表示され、`SMART Health Status:`の項目自体も表示されないため LUNの RAID状況が正常なのか Degraded状態なのかを判断する事はできません。smartctlを利用する場合には HDD/SSDの個別の玉を監視する必要があります。例えば、3番目の HDD/SSDのヘルスステータスを取得するには #smartctl -a --device=cciss,2 /dev/sda等としてください。

27-JUN-2016

 

smartd.confの DEVICESCANではエラーが拾えないが?

 

 smartctlのデフォルトのタイプ指定は `sat,auto`であり SmartArrayが利用する `cciss`タイプではありません。このため、/etc/smartd.confでの DEVICESCAN指定のままでは HDD/SSDのステータスを取得できませんので、 /var/log/messagesには HDD/SSDの玉をスキャンするのではなく RAID構成した後の LUN(HP LOGICAL DRIVE)がスキャンされ、結果として IE(SMART) not enabled, skip device.が記録されます。ccissタイプを指定するには DEVICESCANを利用せずに玉の数に応じて ccissタイプを指定する必要があります。下記は、SmartArrayに HDD/SSDが 4台接続されている場合の指定例です。


DEVICESCAN -H -m root

#DEVICESCAN -H -m root
/dev/sda -d cciss,0 -H -m root
/dev/sda -d cciss,1 -H -m root
/dev/sda -d cciss,2 -H -m root
/dev/sda -d cciss,3 -H -m root

29-JUN-2016


SmartArray SR Gen10コントローラでの LUNの認識順は?

 

 Mixed mode(HBA modeと RAID modeの混在)に対応したSmartArray SR Gen10コントローラでは、RAIDを構成していない HDDが先に/dev/sda等で認識され、RAID構成された LUNはその後に/dev/sdb等で認識されます。

13-DEC-2017, revised 24-APR-2018


SmartArray SR Gen10用ドライバの実装状況は?

 

 SmartArray SR Gen10用 smartpqi ドライバは、RHEL 6.9以降、RHEL 7.3以降、 SLES 12 SP2以降、Ubuntu Server 16.04.3 LTS (HWE kernel)で標準実装されています。SLES11SP4では、HPE Server Installation Kitにて smartpqiドライバが提供されます。

 

 [24-APR-2018] Ubuntu Server 17.04以降、Debian 9.4、Fedora 26以降、ClearOS 7.3以降に於いても smartpqi.koが実装されています。

06-FEB-2018, revised 24-APR-2018


SmartArray SR Gen10コントローラで SmartPathは使えるのか?

 

 SmartPath機能はドライバ側のサポートも必要となりますが、smartpqi.koドライバではイニシャルリリースからサポートされています。

18-JUN-2018


Gen10用 SRコントローラでの smartctlは利用可能か?

 

 SmartArray SRコントローラは RAIDモードと HBAモードを同時利用可能な mixedモードで稼働しています。SmartArray SRに接続されたデバイスに対しては従来の hpsaドライバと同様の方法での利用が可能です。RAIDモード配下の物理ドライブに対しては、#smartctl -a --device=cciss,0 /dev/sda とする事で物理ドライブの #0番目の情報が表示されます。ここで示した sda内に物理ドライブが含まれている必要はありません(ダミー指定)。#smartctl -a /dev/sda とした場合、RAIDモードデバイスに対して実行された場合には RAID化された論理ドライブの情報が表示されます。この場合に表示されるシリアル番号はコントローラのものが表示されます。HBAモードデバイスに対して実行された場合には、コントローラの RAID用ファームウェアを介さない HBAモードの物理ドライブに対する情報が表示されます。

24-JAN-2019

 

SmartArray ソフトウェア RAID - B110i, B120i/B320i, B140i

 

B110iはハードウェア RAIDなのか?

 

 違います。B110iの実態は Intel ICH10Rチップセット機能を利用した driver-RAID(fake RAID、firmware RAID等いくつかの呼び方があります)となります。RAIDのパリティ計算等は ProLiant本体の CPUパワーを利用します。


24-JUL-2009, revised 24-DEC-2010
 

B110iと従来の ICHxRとの違いは?

 

 従来の ICHxRとの違いとして、設定用の I/Fやドライバが Adaptec製から HPE製に変更されています。この変更により既存の SmartArrayと同様に ORCAと ACU/-CLIでの設定、IMAでの監視が可能となっています。また、従来の SmartArrayから HDDの移動とその逆も可能となっています。従来の ICHxRと同様に、専用ドライバを利用する事で RAIDと認識されますが、ディストリビューションに標準搭載されている SATA用ドライバを利用しても HDD単体にアクセスする事ができると云う仕様を引き継いでいます。このため RAID-0構成で利用している環境の kernelをアップデートすると hpahcisrドライバが新しい kernelに適用されていない状態だと RAID-0のうちの片方の HDDにのみアクセスしつつシステムの起動を試みるため、起動に失敗します。

 

 [22-NOV-2010] B110iは第二世代から AMDにも対応しています。

19-AUG-2009, revised 22-NOV-2010

 

B110iの第二世代は何が違うのか?

 

 HDDのサポートドライブ数が 4から 6に、SSDのサポート、ホットプラグ(別途ライセンス要)等の違いがあります。また、DL165G7等の AMDハードウェアでのサポートも開始されており、従来の Intel ICH10R専用と云う枠を超えています。

22-NOV-2010


RHEL6での B110iの扱いはどうなのか?

 

 RHEL6のインストーラは `blacklist=`オプション(SLES系の `broken_modules=`相当)をサポートします。これにより RHEL5で必要だった non-RAIDドライバに対する共存排除が容易にできる様になりました。また、ドライバが KMOD/override対応した事により、errata kernelを適用してもオリジナルのドライバに自動でリンクを貼ります。これにより対応ドライバを待つ必要がなく kernel updateが行える様になりました。また、インストール時に必要な DUD/hpahisrも中味が RPM形式になっているため、RHEL6をインストールするだけで KMOD/overrideの恩恵を受ける事が可能です。また、RPM形式であるためパッケージ情報が rpm DBに登録されるため、管理がしやすくなっています。
 PSP8.62に同梱されている RPM/hpahcisrドライバには自己検出機能が付与されており、B110iが RAIDモードになっていない場合にはインストールを行ないません。この自己検出機能は RHEL6用の RPM/hpahcisrにのみ備わっている機能です。

21-FEB-2011, revised 25-MAY-2012


RHEL6で B110i利用時 blacklist=はインストール後にも必要か?

 

 インストール時の boot:プロンプトで引き渡した後には特に設定等は必要ありません。インストール後に #lsmod | grep ahciとしても non-RAIDドライバがロードされていない事が確認可能です。

22-FEB-2011


RHEL6で B110i用 DUDは KMODの動きをするのか?

 

 RHEL6用の SmartArray B110i向け DUD/hpahcisrの中味は KMOD/override形式の RPMとなっています。このため、errata kernelを後から適用しても自動的にドライバへのリンクが貼られますので、errata kernel上でも HPE提供のドライバが利用されます。 詳細については、DUD/hpahcisrと同時リリースされている readmeをご覧ください。

01-MAR-2011, revised 25-MAY-2012


B110i用 RHEL6.0向け DUDを 6.1で使えるか?

 

 RHEL6向けの DUDの中味は実際には RPM形式となっています。この RPMは KMOD/override形式ですので errata kernelに追従する事が可能ですが、インストール時には prebuiltされた kernelでしか動作しません。つまり、RHEL6.0用の DUDは RHEL6.1では利用できない事を意味します。

 

 [23-OCT-2012] 一部 minor versionが異なる DUDがロードできるもの(RHEL6.3で RHEL6.2用 DUD/hpvsaはロードできないが、RHEL6.1用 DUD/hpvsaはロードできる等)がリリースされていますが、対応した minor version用の DUDをご利用ください。

28-JUL-2011, revised 23-OCT-2012


B110iのファームウェアバージョンは?

 

 SmartArray B110iはハードウェア RAIDではないため、他の SmartArrayコントローラの様なハードウェアとしてのバージョンは存在しません。POST時、ADU, ACU, ACU-CLI, SMH(IMA)等で表示されるものは hpahcisrドライバのバージョンとなります。また、SMH(IMA)では v8.70より Firmwareの表示を `N/A`とし、`RAID Stack`の表示だけを hpahcisrドライバのバージョンを表示する様に変更されました。

01-AUG-2011


B110iは Firmware RAIDとして認識できるのか?

 

 一般的な Intel ICH10R等をはじめとした RAID機能をもつ SATAコントローラで RAID機能を有効にした場合、Red Hat Enterprise Linux 6のインストーラでは、Firmware RAID(Fake RAID, Driver RAID等)として認識されます。但し、ProLiantに搭載されたそれらの SATAコントローラの場合で、DUD/hpahcisrドライバを利用している場合には、Firmware RAIDとしては認識されずに、ハードウェア RAIDである他の SmartArrayコントローラと同様の認識が行われます。Firmware RAIDに個別の HDDがリストされている場合には、インストーラに DUD/hpahcisrドライバをロードさせる手順(blacklist=ahciの引渡しと ddの指定)を再確認してください。

13-SEP-2011, revised 20-SEP-2011


RHEL5での B110iの扱いはどうなのか?

 

 RHEL5.7のインストーラから `blacklist=`オプションのサポートが行われています。RHEL5.7に対応した DUD/hpahcisr v1.2.6-9を利用してください。RHEL5.7未満で考慮が必要だった --preload=hpahcisrも不要となります。詳細はSmartArray B110i製品情報をご覧ください。

 

 [25-MAY-2012] PSP v9.00に搭載されている RPM/hpahcisr v1.2.6-11より RHEL6以外のディストリビューション向けに pre-builtされたストレージドライバが KPM/override対応となり、errata kernelに追従可能となりました。

12-DEC-2011, revised 06-JUN-2012


Dynamic SmartArrayはハードウェア RAIDなのか?

 

 B120i, B320i共にハードウェア RAIDではありません。前モデルの SmartArray B110iと同様の driver-RAID/fake-RAID等と呼ばれる software-RAIDです。パリティ計算等の処理は driverを通じて ProLiant本体の CPUパワーを利用します。前モデルとは異なり hpvsaドライバ(PSP v9.10より同梱)を利用します。non-GPLドライバであるため HPEからのみドライバが提供される形態ですが、KMOD/override対応のため、errata kernelへの追従が可能です。

01-AUG-2012


hpvsaの入手先は?

 

 hpvsaドライバは通常のダウンロードサイトからの単体入手、PSP(v9.10以降)からの入手、SDRサイトからの入手する従来の方法とは別に、ProLiant Gen8の Intelligent Provisioning(IP)と連携する VID(virtual install disk)から直接インストーラへ引き渡す事も可能となっています。VIDは通常は有効になっていませんが、IP経由で RHELもしくは SLESを導入する際には自動で有効となります。IPを利用しない場合には、RBSUの Advanced Options内の Advanced System ROM Optionsから有効にする事ができます。

 

 [20-DEC-2012] IP v1.3からは IP経由で RHELもしくは SLESを導入する際にも VIDは有効とならなくなりました。IP v1.3は VID内のドライバを予めフォーマットしたパーティション上にコピーし、そのパーティションからシステムを起動するため DUDのロード方法を指定する必要がなくなりました(boot:プロンプト自体が表示されません)。

08-AUG-2012, revised 20-DEC-2012


IP v1.3経由のインストで気をつける事は?

 

 Dynamic SmartArray B120i, B320iを搭載したシステムに x86版システムを導入する場合、bootパラメータとして vmalloc=384Mを引き渡す必要がありますが、Intelligent Provisioning(IP) v1.3経由で Linux(RHEL5/6, SLES10/11)をインストールした場合には、このパラメータが引き渡されません。インストール後に grub.confに記載し rebootしてください。

11-JAN-2013


非 RAIDモードで B320i, B120iが使用するドライバは?

 

 B320iで RAIDモードを無効にしている場合、LSI SAS用の mpt2sasドライバが使用されます。B120iで RAIDモードではなく SATA AHCIモードを有効にしている場合には ahciドライバが、SATA Legacyモードを有効にしている場合には ata_piixドライバが使用されます。
 B320iの RAIDモードの無効設定は、RBSUの"System Options->HP Smart Array B320i Raid Configuration"メニューで行えます。B120iの SATA AHCIモード、SATA Legacyモードの設定は、RBSUの"System Options -> SATA Controller options -> Embedded SATA Configuration"メニューで行えます。

09-APR-2014


PXEで blacklist=はどこで渡すのか?

 

 特定のドライバ等をロードしたくない場合に利用する blacklist=オプションは PXEインストール時には PXEサーバ上の defaultファイルに記載します。Red Hat Enterprise Linux 6を例にした場合、/var/lib/tftpboot/pxelinux.cfg/defaultの `append`行に記載します。主に、Dynamic SmartArray B120iを利用する場合、バッティングする ahciドライバのロードを抑制するために blacklist=ahciを指定する必要が生じます。詳細はedlin - STK(Sctipting Tool Kit) for Linux活用術(06-AUG-2013)をご覧ください。

18-APR-2014


PXEで DUDの urlはどこで渡すのか?

 

 インストールメディアに利用するドライバが含まれていない場合に利用する DUD形式ドライバを PXEインストール時にロードさせるには、kickstartファイルで指定します。Red Hat Enterprise Linux 6を例にした場合、/var/www/html/dud(`dud`ディレクトリは任意)、gunzipで dd.gz形式の DUDファイルを .dd形式に変換したものを配置し、httpdで提供し、/var/www/html/rhel64x8664/ks.cfg(途中のディレクトリは任意)の `install`の次の行として `driverdisk --source=http://1.1.1.1/hpvsa-X.X.X-XX.rhel64u4.x86_64.dd`を記載します。詳細はedlin - STK(Sctipting Tool Kit) for Linux活用術(06-AUG-2013)をご覧ください。

21-APR-2014


Dynamic SmartArray B140iのエラーが POSTに出続けるが?

 

 Dynamic SmartArray B140iは ProLiant Gen9の UEFIモード専用のデバイスとなります。Legacy(BIOS)モードに変更する際には同時に Embedded SATAコントローラを Dynamic SmartArrayモードから AHCIモードに変更しておいてください。AHCIモードへの変更は Legacy(BIOS)モードの状態からでも変更可能です。

09-APR-2015


blacklist=ahciを指定してもロードされるが使われていない?

 

 SATAコントローラを AHCIモードに設定し、AHCIネィティブで利用するためのドライバが ahci.koドライバで、SATAコントローラを AHCIモードに設定したままで ATAモードで利用するためのものが libata.koドライバになります。ハードウェアの構成によっては blacklist=ahciを指定し ahciドライバのロードを抑制した場合でも libata.koの依存関係上 ahci.koがロードされます。これらのドライバ制御は Dynamic SmartArrayコントローラ B120i等を利用する際に内蔵 DVDを制御する際に、SATAコントローラのモードに適したものが利用されますが、ユーザはその違いを意識する必要は特にありません。libata.koは Red Hat Enterprise Linux 5, 7には同梱されていますが、Red Hat Enterprise Linux 6には同梱されていません。また、kernel側の chipset/SATAコントローラ対応によっても対応するドライバが変化する場合があります。#parted /dev/sda pの出力結果として Model: HP LOGICAL VOLUMEが表示されていれば、SATAコントローラは Dynamic SmartArrayとして稼動している事が確認できます。

10-APR-2015, revised 15-AUG-2016


インストール時に内蔵 DVDは利用できるのか?

 

 hpvsaドライバ、hpdsaドライバを利用して Linuxをインストールする際、これらのドライバと競合する ahciドライバのロードを抑止する構成を採用しているため、ProLiantに内蔵した DVDドライブはインストール時には利用できない場合があります。DVDメディアをインストーラに認識させるには、iLOの仮想メディアを利用する。USB-DVDを用意する。Intelligent Provisioning(IP)を利用してインストールする等の回避方法をとる必要があります。但し、hpvsaドライバを利用した場合でも B120iではなく B320iの場合には ahciと競合しないため問題は発生しません。


hpvsaドライバ(B120i) hpdsaドライバ(B140i)
-------------------- --------------------
○ - RHEL6 ○ - RHEL6
○ - RHEL7.0 △ - RHEL7.0 *1
○ - RHEL7.1 ○ - RHEL7.1
○ - SLES11 ○ - SLES11
○ - SLES12 ○ - SLES12
× - Ubuntu 14.04 *2 × - Ubuntu 14.04 *2

*1 内蔵 DVDドライブは iLO4の仮想 USBとの組合せ時のみインストール時に利用不可
*2 内蔵 DVDドライブはインストール時に利用不可

12-JAN-2016


S100iはサポートされるのか?

 

 ProLiant Gen10に装備されている SmartArray S100i Gen10コントローラは、ProLiant Gen9用 Dynamic SmartArray B140iの後継製品となる BIOS-RAID(driver-RAID、fake-RAID等と呼ばれます)となりますが、Linux向けにはドライバは提供されていませんので、SATAのモードを AHCIにして利用する必要があります。

18-OCT-2017

SAS/SATA, SCSI HBA, Marvell RAID

 

後から SCSI HBAを追加した場合 #mkinitrdが必須か?

 

 一般に kernel 2.4を利用したディストリビューションの場合、インストール後に TAPE利用を目的として SCSI HBAを装着する場合、/etc/modules.confに aliasを登録するだけでは、システム起動後にドライバはロードされません。#mkinitrdを実行する事で /etc/modules.confに登録されたドライバがシステム起動時にロードされる様になります。

 但し最近のディストリビューションは自動認識を行う場合があります。

 Red Hat EL4の場合、Kudzuが SCSI HBAを認識し、/etc/modules.confに alias登録します。 その後、#mkinitrdを実行しなくても、登録されたドライバはシステム起動後に自動ロードされます。SUSE Enterprise 9の場合、YaSTツールを起動する必要性もなく #lsmodするとドライバが自動ロードされている事が分ります。ちなみに Turbolinux 10SEの場合には /etc/modules.confに aliasを記述し #mkinitrdを実行する必要があります。

 ちなみに、Red Hat EL3の場合 kudzuが起動し /etc/modules.confに登録されるところ迄は EL4と同じですが、システム起動時にドライバを自動でロードさせるためには別途 #mkinitrdを行う必要があります。SUSE Enterprise 8/United Linux 1.0の場合、/etc/sysconfig/kernelの INITRD_MODULESを修正し、#mkinitrdが必要になります。

19-APR-2005


mptlinux利用時に IOCStatus(0x0002): Busyが記録されるが?

 

 ディストリビューション標準の mptinuxドライバを利用し且つ SMHへアクセスした場合に 'mptbase: ioc1: IOCStatus(0x0002): Busy'が記録される場合があります。このメッセージは無視してください。

07-NOV-2005, revised 28-JUL-2006


LSI Logic系 HBAの障害監視は可能か?

 

 利用するドライバの種類によって利用可能な方法が異なります。HPE提供の mptlinuxドライバには mptctlが搭載されており、IMAとの連携が可能となっています。ディストリビューションに標準装備されている mptlinuxドライバは IMAと連携ができませんので、log出力メッセージで障害状況を確認する必要があります。IMA(Insight Management Agent)で監視する場合のドライバー対応についてはこちらをご覧ください。また、ログの記録メッセージについてはこちらの `RAID利用時の障害ログについて`を参考にしてください。

22-OCT-2009


mpt-statusは利用可能か?

 

 SLES10に同梱されている mpt-statusを実行する事で mptlinuxドライバーを利用する LSI Logic HBAでの driver-RAID(fake RAID、firmware RAID等いくつかの呼び方があります)の状態確認が可能です。下記は、SLES10/SP0環境下で SC44Geに対して実行した結果です。


#mpt-status
 ioc0 vol_id 0 type IM, 2 phy, 698 GB, state OPTIMAL, flags ENABLED
 ioc0 phy 2 scsi_id 1 ATA GB0750C4414 HPG3, 698 GB, state ONLINE, flags NONE
 ioc0 phy 1 scsi_id 2 ATA GB0750C4414 HPG4, 698 GB, state ONLINE, flags NONE

↓ 障害発生後…

 ioc0 vol_id 0 type IM, 2 phy, 698 GB, state DEGRADED, flags ENABLED
 ioc0 phy 2 scsi_id 1 ATA GB0750C4414 HPG3, 698 GB, state ONLINE, flags NONE
 ioc0 phy 1 scsi_id 2 ATA GB0750C4414 HPG4, 698 GB, state MISSING, flags OUT_OF_SYNC

↓ 復旧中…

 ioc0 vol_id 0 type IM, 2 phy, 698 GB, state DEGRADED, flags ENABLED RESYNC_IN_PROGRESS
 ioc0 phy 2 scsi_id 1 ATA GB0750C4414 HPG3, 698 GB, state ONLINE, flags NONE
 ioc0 phy 1 scsi_id 2 ATA GB0750C4414 HPG4, 698 GB, state ONLINE, flags OUT_OF_SYNC


 Release Notesを見ると SPAREディスクの表示も可能に見えますが、実際には表示されませんでした。但し、SPAREへの切り替わりによる HDDの ID変更等はきちんと認識している模様です。mptlinuxドライバー自身は HDD障害等のログを /var/log/messagesに記録しますし、また IMAはリビルド状況等の表示を行ったり、メールや SNMP trapの送信等の高度な管理機能提供しますので、本ツール自体の必要性は高いものではありませんが、都度目視で確認するには便利なツールと思われます。ちなみに、本ツールは、SLES11には同梱されていません。

10-FEB-2010, revised 24-DEC-2010
 

H24x SmartHBAとは何か?

 

 SmartHBAは SmartArray P440ar等と同様のエンジンを備えている non-RAID用コントローラで、従来の H22xシリーズで利用していた LSI Logic用ドライバ mptbaseや mpt2sasを利用していた製品とは全くの別物となります。
 H24x SmartHBAは、SmartArrayからキャッシュモジュールを外し、モードを HBAモードとして出荷したもの相当の製品です。このためドライバは SmartArray P44xと同じ hpsaを利用し、ファームウェアも共通のものを利用します。モードを HBAからシンプル RAIDモードに変更する事で、SmartArray同様のハードウェア RAIDのレベル 0, 1, 5の利用も可能となります。ファイルシステム的に RAIDコントローラの介在をさせたくない場合に利用する製品です。
 SmartHBA H22xからシステムを起動する事ができるのは、UEFIモードのみで BIOSモードで利用する場合にはシステムからの起動は行えませんので、注意が必要です。詳細は UEFIと BIOSのどちらを使えばいいのか?をご覧ください。

10-NOV-2014


H220で smartctlでのメール送信を試してみたいが?

 

 H220コントローラで smartctlでのメール送信機能を試すには HDDの抜き挿しではメール送信が飛ばせません。/etc/smartd.confにて DEVICESCAN -a -W 1,20,22 -m hogehoge@hoge.com -M test等としてテストしてみてください。この例では温度が 1度変化した場合にメールが送信され、20度と 22度でログに info.レベルと warningレベルのメッセージを記録します。

27-AUG-2015


Marvell 88SE9230はハードウェア RAIDですか?

 

 ProLiant MicroServer Gen10に標準搭載されている本コントローラはハードウェア RAIDです。必要となるドライバは一般の AHCIドライバを利用しその裏で RAIDとして稼働しますので、AHCIが利用できる OSであれば RAIDの利用も可能となります。但し、リビルドをはじめとした RAID操作の一部には本コントローラ用専用ツールが用意されていない OSで利用する場合には運用上の制限がありますので注意が必要となります。

18-DEC-2019


Marvell 88SE9230での RAID操作はどうすれば?

 

 ProLiant MicroServer Gen10に標準搭載されている本コントローラは SmartArray向けの SSA(Smart Storage Administrator)を始めとした管理ツールとの互換性はありません。OSをインストールする前に RAIDの設定を行うには UEFIモードの場合にはPOSTで [F11]を押して UEFI Shellを起動し `raid`を叩くか、BIOSモードの場合には POSTで [Ctrl]+[M]を押して Marvell BIOS Setupを起動して設定を行ってください。また本機はホットプラグに対応していませんので、故障した HDDの交換はシステムをシャットダウンしてから行う必要があります。

19-DEC-2019
 

Marvell 88SE9230でリビルドが停止しているが?

 

 ProLiant MicroServer Gen10に標準搭載されている本コントローラで RAIDのリビルド操作を行うには Marvell BIOS Setupか、Red Hat Enterprise Linux 7向けの Marvell Storage Utility(MSU)からリビルドを指示する必要があります。但し、Marvell BIOS Setupから RAIDのリビルドを指示し、リビルドが終了する前に OSを起動するとリビルドはサスペンドしますので注意が必要です。リビルドを完了させるには Marvell BIOS Setup上でリビルドの完了まで待つか、OSが起動してから MSUでサスペンドしたリビルド状態を再開させる方法があります。

13-FEB-2020
 

Marvell 88SE9230で S.M.A.R.T.は採れるのか?

 

 Red Hat Enterprise Linux 7の #smartcltでは採取できません。Marvell Storage Utility(MSU)を起動して S.M.A.R.T.情報を採取してください。#man smartctlでは Marvell向けの command setが用意されている旨の記載がありますが、これは本コントローラ向けのものではありません。

14-FEB-2020
 

Marvell 88SE9230はアクセスランプと連動するのか?

 

 ProLiant MicroServer Gen10の筐体前面のアクセスランプはAHCIモードで利用する場合とRAIDモードで利用する場合で異なる動きを行います。AHCIモードの場合にはHDDへのアクセスを示す点滅を行いますが、RAIDモードの場合にはゆっくり点滅がRAIDのサスペンドを示し、高速点滅はRAIDのリビルドを示します。但し、このアクセスランプは利用するOSによって異なります。詳細は ProLiant MicroServer Gen10ページの `Marvell 88SE9230について` をご覧ください。

17-FEB-2020
 

Marvell 88SE9230用の Red Hat向け MSUがないが?

 

 ダウンロードサイト上での対応OSの記載はClearOSとなっていますが、これはRed Hat Enterprise Linux 7の間違いです。本MSUをRed Hat Enterprise Linux 7上で起動する事で障害を通知したり、S.M.A.R.T.を確認したり、サスペンドしたRAIDを再開させる等が可能となります。なお、本ソフトウェアやMarvell BIOS Setup等で`BGA`の表示が説明なく表示される事がありますが、background acitivityの略となります。このBGAがRAIDのリビルド状況としてRebuilded and Pausedとなっている場合にはサスペンドしていますので、[BGA Resume]でリビルドを指示しRunningに遷移させてください。

19-FEB-2020

 

ATA/SATA(non-RAIDモード), ATAPI, Intel RST

 

Gen8のスマートキャリアのランプは inboxドライバでも使えるのか?

 

 ProLiant Gen8より採用された HDDのスマートキャリアに装備されている LEDの内、アクセスランプは hpvsaドライバではなく ahci, mpt2sasドライバを利用した場合であっても点滅します。RAID構成ランプは SmartArray利用時にのみ利用可能です。ディスク取り出し禁止ランプは SmartArrayの Pシリーズ配下の場合にのみ利用可能となります。

- DL380e Gen8/B320iを SASモード(mpt2sas)に設定し確認 - RHEL5.8, RHEL6.3, SLES10/SP4, SLES11/SP2
- DL160 Gen8/B120iを SATAモード(ahci)に設定し確認 - RHEL5.8, RHEL6.3, SLES10/SP4, SLES11/SP2

06-FEB-2013, revised 05-APR-2013

 

Intel RSTとは何か?

 

 Intel Rapid Stroage Technology(RST)は、ProLiant ML10 Gen9に搭載されている SATAコントローラでソフトウェア RAIDを実現するためのファームウェア、管理ツール、ドライバ等の総称です。Linux自体が実装しているソフトウェア RAID機能を純粋なソフトウェア RAIDとする場合、Intel RSTは HDD上のメタデータを Intel RSTによるファームウェアが制御しつつ Linuxの DM RAID, MD RAIDソフトウェアと連携する形式をとっています。一般に、fake RAID, BIOS RAID, driver RAID, SW-RAID等と呼ばれます。

11-MAY-2017


Intel RST用ドライバが提供されていないが?

 

 Windows向けには Intel RST用ドライバと管理ツールが提供されていますが、Linuxでは DM RAIDもしくは MD RAIDと組み合わせたソフトウェア RAID構成で利用する形態となります。Intel RSTが HDD上に作成するメタデータを DM RAID, MD RAIDがネイティブにサポートを行う形となりますので専用ドライバは不要となり、通常の ahci.koを利用します。同様に管理ソフトウェアも Linux標準の dmraid, mdadmを利用しますので Linux向けには専用管理ツールも提供されていません。

12-MAY-2017


Intel RSTと Dynamic SmartArrayの違いは?

 

 Intel RSTと DM RAID, MD RAIDを組み合わせたソフトウェア RAIDと Dynamic SmartArrayの一番の運用上の違いは、前者は専用ドライバが不要な事。Legacy(BIOS)モードでも利用可能な事があげられます。後者は MBRを含めての完全なディスク保護が行えること。mdadm等の Linuxの知識が不要な事。ディストリビューションのインストーラのソフトウェア RAID自体のサポートレベルを気にする必要が無い事。スペアディスクの管理も含めた柔軟なディスク構成が可能な事。iLO4と連携したエージェントレス監視が可能な事があげられます。

16-MAY-2017


Intel RSTがサポートされたのはいつからか?

 

 Intel RST自体が Linuxでサポートされたのは、DM RAIDが kernel 2.6.18と dmaraid v1.0.0-rc15より。MD RAIDが kernel 2.6.27と mdadm v3.0よりとなります。それぞれ RAID 0, 1, 10と RAID 0, 1, 5, 10がサポートされています。但し、今後は DM RAIDに対する機能拡張が行われる予定はありません。ディストリビューションとしては、Red Hat Enterprise Linux 6.0以降、SUSE Linux Enterprise Server 11/sp0からです。これらは Intel RSTを搭載した ProLiant ML10 Gen9がサポートするディストリビューションとは異なりますのでご注意ください。また、DM RAID, MD RAID自体が Intel RSTに対応していてもディストリビューションのインストーラが旨く対応していない場合がありますので注意が必要です。

22-MAY-2017


Intel RSTでは DM RAIDと MD RAIDのどちらを使えばいいのか?

 

 Intel RSTに対して Intel社が新規に機能追加を行うのは今後 MD RAIDに対してのみとなります。ProLiant ML10 Gen9が対応するディストリビューションのインストーラは全て MD RAIDをデフォルトで利用しますので、MD RAIDの利用をお勧めします。

13-JUN-2017


Intel RSTと MD RAID単独のみの場合の違いは?

 

 Intel RSTと MD RAIDを組み合わせた場合と、MD RAID単独によるソフトウェア RAIDでの大きな運用上の違いは、インストール時に Intel RST配下の Logical Unitが RAID構成として認識されているため、ソフトウェア RAID構成を行う必要がない事があげられます。但し、SUSE Linux Enterprise Server 11, 12では、DM RAIDが構成されている HDDと二重に認識されてしまうものがあるので注意が必要となる場合があります。

14-JUN-2017


Intel RSTからシステムの起動は可能か?

 

 システムの起動については Intel RSTに関係なくディストリビューションの DM RAID, MD RAIDのサポート状況によります。Red Hat Enterprise Linux 6の UEFI環境では /boot/efiを MD RAID上に配置できません。SUSE Linux Enterprise Server 11/SP4で [Rescan Device]を実行して MD RAIDから DM RAIDに変更して利用した場合には、HDD#1障害時に正常起動が確認できませんでした。SUSE Linux Enterprise Server 12/SP1では /boot/efiに対する Partition Roleに `EFI Boot Partition`が存在しません。詳細はIntel RST製品情報をご覧ください。

15-JUN-2017


Intel RSTは UEFI専用なのか?

 

 Intel RSTと DM RAID, MD RAIDを組み合わせたソフトウェア RAID構成は、UEFIモードだけでなく Legacy(BIOS)モードでも利用可能です。機能差異はありませんが、RAID設定を行う OROM(option ROM)は起動モードによって異なります。UEFIの場合には [ESC]キーで起動するハードウェア設定メニュー内の一部として起動するのに対し、Legacy(BIOS)モード時には POST時の [Ctrl]+[I]から別途起動します。

16-JUN-2017


Intel RST利用時に kernelは taintするのか?

 

 Intel RSTと MD RAIDを組み合わせたソフトウェア RAID構成では、ベンダー固有の non-GPLとなるドライバは利用しませんので kernelは taintしません。

19-JUN-2017


Intel RSTで MBRは保護されるのか?

 

 Intel RSTは DM RAIDもしくは MD RAIDと組み合わせる形態で利用します。Intel RSTを Linuxで利用する場合、DM RAID, MD RAIDの補助機能ですので、これら RAIDソフトウェアで保護しない MBRは Intel RSTを利用した場合にも保護されません。このため Legacy(BIOS)モードで利用している最中にプライマリとなる HDD#1の故障のしかたによっては再起動後に POSTから Grubのメニューが表示される時点に遷移しない事があります(BIOS側で HDDの存在を認識しているが利用できない場合や MBR部分が破壊されている場合等)。この場合の復旧作業は通常の DM RAID, MD RAID単独利用時の修復と同じ作業が必要となります。UEFIモードの場合 MBR経由ではシステムを起動しないため修復作業は多少単純なものとなります。

20-JUN-2017


Intel RSTでは Linuxの知識は必要なのか?

 

 Intel RSTと DM RAIDもしくは MD RAIDを組み合わせたソフトウェア RAIDの制御は dmraidもしくは mdadmの知識が必要となります。また利用するディストリビューションによっては BIOS, UEFI共に bootloaderの仕組み等を考慮して作業を行う必要があります。

21-JUN-2017


Intel RSTで Logical Unitを複数切る事は可能か?

 

 Intel RSTの設定メニューでは 1ヶのディスクアレイ上に Logical Unitを複数(最大 2ヶ)切る事が出来る Intel Matrix RAID構成が利用可能です。例えば、2TBの HDD x6基を 1ヶのディスクアレイとした場合、その全てを 1ヶの Logical Unitとした場合には、Legacy(BIOS)モード利用時の制限となる 2.2TBの上限を超えてしまいますので、2.2TB以下の Logical Unitを起動用に作成し、残りをデータ用として作成する事が可能です。

22-JUN-2017


Intel RSTで RAIDレベルを別にする事は可能か?

 

 Intel RSTの設定メニューでは 1ヶのディスクアレイ上に Logical Unitを 2ヶ切る Intel Matrix RAID構成を利用する場合、最初の Logical Unitを RAID-1とし、次に作成する Logical Unitを RAID-0にする等の様に別の RAIDレベルを指定する事は可能です。また、複数のディスクアレイを作成し別個の Logical Unitを作成する場合には自由な RAIDレベルの選択が可能となります。どちらの形態であっても、HDDの本数により利用できる RAIDレベルの制限は発生します(HDD x3基では RAID-1は指定不可等)。

23-JUN-2017


Intel RSTは UEFIと BIOSで使いまわし可能か?

 

 Intel RSTが HDD上に作成するメタデータは UEFIモードと Legacy(BIOS)モードで同じものとなりますので、データディスクとして利用するには問題なくどちらのモードからでも利用が可能です。システムを起動する場合には、Intel RSTの利用には関係なく、ディスクラベルが MBRと GPTで異なる事。Legacy(BIOS)利用時には 2.2TB制限がある事。Linuxの起動形態(/boot/efi等)の違いから再インストールが必要となります。

26-JUN-2017


Intel RSTの RAIDレベルにある Recoveryとは何か?

 

  ProLiant ML10 Gen9で Intel RSTの RAID設定を行う OROM(option ROM)で Logical Unitを作成する際に RAIDレベルの選択を行いますが、そのリストの中には ProLiant ML10 Gen9がサポートする RAID-0/1/5/10の他に Recoveryと云うレベルが用意されています。これはノート PC等のドッキングステーション内に用意された HDDと非同期のシンクロを行うための Intel Rapid Recoverモードで、本機では利用しないモードとなります。

29-JUN-2017


Intel RSTでスペアの選択が出来ないが?

 

 Intel RSTの RAID設定を行う OROM(option ROM)からはスペアディスクの設定は出来ません。スペアの設定は Linux上で dmraidもしくは mdadm経由で指定を行います。この際、DM RAID, MD RAID単体のソフトウェア RAIDとは異なり、スペアとなる HDDは DM RAIDの場合には #dmraid -f isw -S -M /dev/sdX等として iswフォーマット指定で行います。MD RAIDの場合には #mdadm --manage /dev/md127 --add /dev/sdX等として iswメタデータコンテナに対してスペアディスクを追加指定します。Linux上でスペアを設定した後に POST上の OROM(option ROM)上ではスペア設定した HDDが SPAREとして認識されている事が確認可能です。

03-JUL-2017


Intel RSTで利用される RAIDソフトウェアは何か?

 

 Intel RSTは DM RAIDもしくは MD RAIDの補助機能として扱われます。ProLiant ML10 Gen9がサポートするディストリビューションである Red Hat Enterprise Linux 6, 7、SUSE Linux Enterprise Server 11, 12のインストーラがデフォルト利用するソフトウェア RAIDは全て MD RAIDであるため、Intel RSTもそのまま MD RAIDとして利用されます。

04-JUL-2017


Intel RSTで SUSE Linux Enterprise Server 11は利用可能か?

 

 SUSE Linux Enterprise Server 11 SP4で Intel RSTの利用は可能です。インストーラは MD RAIDをデフォルトとして利用しますが、[Rescan Device]を実行すると DM RAIDに変更されリストされます。パーティション設定を DM RAIDとして続行しても bootloader画面では MD RAIDのまま設定しようとし bootloader location設定の確認画面が表示される等します。このため SUSE Linux Enterprise Server 11 SP4で起動デバイスとして利用される場合には MD RAIDのまま利用する事を推奨します。DM RAIDとして利用する場合には別途起動デバイスを用意するかデータディスクとして利用する必要があります。また、SUSE Linux Enterprise Server 11 SP4, SUSE Linux Enterprise Server 12 SP1/SP2では Intel RSTで論理ドライブとして利用した HDDが再度 /dev/sda等として全容量が利用可能としてリストされている等注意が必要となります。

05-JUL-2017


Intel RSTで 3本での RAID-1は組めるのか?

 

 Intel RSTで構成可能な RAID構成は一般的な 2本での RAID-1のみとなります。ちなみに、RAID-10構成は HDD x4本のみで構成可能となります。

06-JUL-2017


Intel RSTで SASデバイスは利用可能か?

 

 Intel RST自体には SASデバイスをサポートするためのオプションが存在しますが、ProLiant ML10 Gen9では用意されていません。本機用の SASコントローラとしては H241をオプションで用意していますが、外部テープドライブを接続するためのものであり、Intel RSTとの連携を行うものではありません。

07-JUL-2017


Intel RSTはインストーラからどの様に認識されるのか?

 

 Intel RSTで構成した Logical Unitがインストーラからどの様に見えるかはディストリビューションのインストーラの仕様によります。新しめのディストリビューションでは BIOS RAID等として最初から MD RAIDデバイス(/dev/mdX)として認識されます。このためインストール時点ではソフトウェア RAIDである事をあまり意識させない形として利用可能です。

10-JUL-2017


Intel RSTはホットプラグに対応しているのか?

 

 Intel RSTが HDDのホットプラグで運用可能かどうかはサーバ本体のハードウェア構成によります。ProLiant ML10 Gen9ではホットプラグをサポートしていませんので、故障した HDDの交換には一度電源を落とす必要があります。

11-JUL-2017


Intel RSTはバッドブロックの管理をするのか?

 

 HDD上のバッドブロックは Intel RSTがメタデータ上に記録し管理しています。

18-JUL-2017

 

Fibre Channel

 

RHEL5.3、SLES10/SP3、SLES11で HPE製 Fibreドライバーは提供されるか?

 

 HPE製 Qlogic/Emulexドライバーは、Red Hat EL5.2及び SLES10SP2までのサポートです。Red Hat EL5.3以降, Red Hat EL6, SLES10SP3以降, 及び SLES11では、ディストリビューションに標準搭載されているドライバーをご利用ください。但し、Storage及びHBAの要件によっては、ディストリビューション標準のドライバーではなく、別途HPE提供のドライバーが必要な場合があります。詳細はSPOCKサイトよりご確認ください(初回ユーザ登録必要)。
 また、Red Hat EL5.3以降, Red Hat EL6, SLES10SP3以降, 及び SLES11でマルチパスを構成する場合には、Device Mapper Multipathをご使用ください。
Hat EL5.3以降及び SLES11で、IMA/ACU/ACU-CLI/ADU/SMH等による FC環境の監視・管理を行うには、HP Fibre Channel Enablement Kitをご利用ください。

 注) 現時点、Qlogicドライバーで HP Fibre Channel Enablement Kitを使用した場合、ACU/ACU-CLIでMSA1000/MSA1500が認識できず、設定が行えません。

 

 [07-DEC-2009] SLES10 SP3の記載を追加しました。
 [07-DEC-2009] MSA1000/1500では、Red Hat EL5.3以降, SLES10 SP3以降, 及び SLES11が非サポートとなった為、上記 ACU/ACU-CLIの記載を削除しました。
 [03-MAR-2014] Red Hat EL6の記載を追加しました。

07-APR-2009, revised 30-AUG-2016


新規追加した LUNを再起動なしでスキャンするには?

 

 通常 hp_rescanコマンドを利用しますが、RHEL5.3のリリース直後の様に対応したツールを HPEが提供していない場合もあります。この場合、sysfsの機能で代用が可能です。#echo - - - > /sys/class/scsi_host/hostN/scanとする事で `- - -`をワイルドカードとして利用する事が可能です。

10-AUG-2009


hp-fc-enablement rpmがインストールされないが?

 

 hp-fc-enablement rpmは、ディストリビューション標準の Qlogic / Emulexドライバーを使用する Red Hat EL5.3以降, SLES10SP3以降, 及び SLES11用に、HPE製 Fibrechannelストレージを使用する為の追加のライブラリを提供します。
 この rpmをインストールする為には、事前に libnl rpmをインストールしておく必要があります。
 また、SPP 2013.09.0(B)から同梱されている、各 Fibre HBA(Qlogic, Emulex, Brocade)毎の HP-FC-Enablement rpmでは、 Emulex Fibre HBA用 rpmのみ、事前に libnl rpmをインストールしておく必要があります。

 

 [03-MAR-2014] SPP 2013.09.0(B)以降の HP-FC-Enablement rpmの記載を追記しました。

21-DEC-2009, revised 03-MAR-2014


SPP同梱の Fibre driver rpmをインストールするべきか?

 

 HPE製 Storage及び HBAの要件によっては、ディストリビューション標準のドライバーではなく、別途 HPE提供のドライバーが必要な場合があります。
 詳細は SPOCKサイトよりご確認ください(初回ユーザ登録必要)。

03-MAR-2014, revised 30-AUG-2016


HP Fibre Channel Enablement Kit で libhbaapi rpmは必要か?

 

 SPPサプリ 2013.09.0(B) for RHEL6.5以降同梱の Emulex用 Enablement Kit v6以降では、事前に libhbaapi rpm (RHEL6,RHEL7) 及び libHBAAPI2 rpm (SLES11, SLES12) で提供される libHBAAPI.soをインストールしておく必要があります。
 SPP 2013.09.0(B)同梱の Emulex用 Enablement Kit v2 (HP-CNA-FC-Emulex-Enablement-Kit-2.0.0.0-24.noarch.rpm) では 、Kitに libHBAAPI.soが同梱されている為、 libhbaapi rpm及び libHBAAPI2 rpmのインストールは必要ありません。
 Emulex用 Enablement Kit v2と v6以降では libHBAAPI.soの提供形態が異なりバージョン間の互換性がない為、Emulex用 Enablement Kit v2から v6以降にアップデートする場合には、Emulex用 Enablement Kit v2をアンインストールし libhbaapi rpm及び libHBAAPI2 rpmをインストール後、 Emulex用 Enablement Kit v6以降をインストールして下さい。
 尚、Qlogic及び Brocade用 Enablement Kit では libHBAAPI.soは必要ありません。

10-MAR-2015


Qlogic driverの LUN queue depth値を変更できないが?

 

 Qlogic driverの LUN queue depth parameter (ql2xmaxqdepth)は、#echo NN > /sys/module/qla2xxx/parameters/ql2xmaxqdepthでダイナミックに値を変更しても、FCHBA配下の LUNの実際の queue depth 値としては反映されません。
 /etc/modprobe.conf(RHEL5)或いは /etc/modprobe.d下の .conf file(RHEL6以降)にて以下のように parameterを設定した後、driverを reloadするか、initramfsを更新し rebootする事で値が正常にLUNに反映されます。

options qla2xxx ql2xmaxqdepth=NN

 

) ql2xmaxqdepth値の変更は performance等に影響を及ぼす可能性があります。ストレージ製品やマルチパスツールにより ql2xmaxqdepthの推奨値が提供されている場合には、そちらに準拠してください。

09-SEP-2015


inboxドライバで SN1100Q, SN1600Qの認識は可能か?

 

 SN1100Q及び SN1600Q は、RHEL6.8以降、RHEL7.3以降、RHEL8、SLES12 SP2以降、SLES15の inbox qla2xxxドライバで認識可能です。
SLES11及び上記バージョン未満のディストリビューションでは、別途ドライバが必要となります。

 

)各 HPE製 Storageとの組み合わせでサポートされるドライババージョンについては、SPOCKサイトにてご確認ください(初回ユーザ登録必要)。

 

 [27-MAR-2020] SN1600Q, RHEL8, SLES15の情報を追加しました。

06-JAN-2017, revised 14-OCT-2020

 

inboxドライバでSN1610Qの認識は可能か?

 

 SN1610Qは、RHEL7.8以降、RHEL8.1以降、SLES12 SP4/kernel 4.12.14-95.37.1以降、SLES12 SP5以降、SLES15 SP0/kernel 4.12.14-150.38.1以降、
SLES15 SP1/kernel 4.12.14-197.4.1以降のinbox qla2xxxドライバで認識可能です。
上記バージョン未満のディストリビューションでは、別途ドライバが必要となります。

 

)各 HPE製 Storageとの組み合わせでサポートされるドライババージョンについては、SPOCKサイトにてご確認ください(初回ユーザ登録必要)。

 

 [19-AUG-2020] RHEL7の情報を追加しました。

30-MAR-2020, revised 14-OCT-2020

 

inboxドライバでSN1200E, SN1600Eの認識は可能か?
 

 SN1200E及び SN1600E は、RHEL6.8以降、RHEL7.3以降、RHEL8、SLES12 SP2以降、SLES15の inbox lpfcドライバで認識可能です。
SLES11及び上記バージョン未満のディストリビューションでは、別途ドライバが必要となります。

 

)各 HPE製 Storageとの組み合わせでサポートされるドライババージョンについては、SPOCKサイトにてご確認ください(初回ユーザ登録必要)。

01-APR-2020, revised 14-OCT-2020

Ethernet

 

HUBの Linkランプが点灯し続けるが?

 

 サーバ本体の電源を落としても ACケーブルが接続されていれば Ethernetコントローラが WOL(wakeup-on LAN)機能を搭載している場合、Ethernet HUBの Link LEDは点灯し続けます。

25-MAY-2000


バッククォートが打てないが?

 

 昨今の Red Hat等で Ethernetモジュールをビルドする際に必要な作業、#make -e KERNELRELEASE=`uname -r` oldconfig(もしくは dep)の「`」の入力を間違っても oldconfigや depは通ってしまいます(もちろん NICモジュールの buildは失敗します)。 ここでの `はクォートではなく、バッククォートです。日本語キーボードの場合、[Shift]+[@]で入力できます。インストール時やリカバリー時で、キーマップが合致していない等の状況で入力が困難な場合には、`uname -r`の部分には #uname -rで表示される値をそのまま入力してください。これは、Ethernetのモジュールがビルドに失敗するものの内で、一番陥りやすいミスです。

20-AUG-2003, revised 17-FEB-2014


サーバー直結のARP監視 bonding interface(active-backup)は必ず degradeになるが?

 

 active-backupモードで動作する bonding interfaceを図のようにサーバー直結(クロスケーブルで接続)で構成した場合、ARP監視モードでは、link upする slave interafceは必ず1つだけになる(他の slave interfaceは必ず link down)ので、Insight Management Agentでの bonding interface statusは必ず"劣化(degrade)" になってしまいます。但し、MII監視モードでは、全ての slave interfaceが link upするので "劣化(degrade)" になりません。

 ARP監視モードでの link up/downは slave interfaceの"最後のpacket受信時刻"で判定します。ARP監視 active-backupモードでは、active slave interfaceが送信する arp request packetを slave interfaceが受信することで link upとみなします。サーバー直結の場合、active interfaceが送信した arp request packetが相手側の1つの slave interafceにしか届かないため、残りの slave interface が全て link downになってしまいます。なお、switchに全ての slave interafceが接続されている場合、switchが arp request packetを activeな全 portへ broadcastするため問題ありません。

 基本的に active-backupモードは slave interfaceを switching HUBに接続する構成をお勧めしますが、サーバー直結で使う場合は、bonding interfaceを MII監視モードにするか、active-backupモードではなく round-robinモードで構成してください。

05-JUL-2005

起動ログで ethXの link upが遅いがハードウェアの問題か?

 

 これはハードウェアの問題ではなく、Linuxの仕様になります。/var/log/messagesに記録される Bringin...表示から Link is Upまで 30秒程度の差が出る場合がありますが、これは processや kernelからの logに記録される迄の時間差によるもので、実際には 30秒よりも早い段階(数秒程度)で link upしています。Bringing...メッセージは、/etc/rc.d/init.d/networkから直接 syslogdに渡されますが、kernel landから発行される NICドライバからのメッセージは一旦 ring bufferに入り、klogdが syslogdに引き渡した後 /var/log/messagesに記録され、記録される時刻は実際にイベントが発生した時刻ではなく、syslogdが klogdから受け取ったものとなります。このため、システムの起動等の様に多重の処理が行われている場合、ログ上での時刻の遅延が見られる事になります。試しに klogdのサービスを停止した状態でシステムを起動し、起動が終わってから klogdを起動すると /var/log/messages上に記録される kernel landからのメッセージは全て klogdを手動起動した時刻になる事が分かります。

19-MAR-2007


NICポートが逆転しているが?

 

 Ethernetの NICポートが逆転する原因としては、firmware側での MAC addressの配置と ACPI table上での配置の違い、x86 kernelと x86_64 kernelでの違い(RHEL3)、kernelのスキャン方法自体のアルゴリズム変更(RHEL4/U5)、インストーラの問題(beta版インストーラ等で eth0が eth12になったり)等と、多岐に渡りますので、このシステムではこの配置になる…等、予め NICポートがどこに割り当てられるかを特定するのはかなり困難です。
 このためインストール後にどの NIC portが eth0にアサインされるのかは実際の環境で試さなければならない事になります。これを避けるには /etc/sysconfig/network-scripts/ifcfg-eth0等で HWADDR=として直接インターフェースの固定化を行うのが有効です。

 

 [17-FEB-2014] RHEL5以降では ProLiantの機種毎に適切な PCIスキャンを定義している場合があります。新型の ProLiantを古めのディストリビューションで利用した場合には適切な PCIスキャン方法を行わない場合があります。この場合には pci=bfsortを指定する事でデバイスアサイン順が変更される場合があります。

22-AUG-2007, revised 17-FEB-2014


NAPIとは?

 

 ネットワークの処理速度向上のための仕組みで New APIから NAPIと呼ばれます。Ethernetの速度向上に伴い、割り込み処理を行うためのシステム負荷が非常に高くなってきています。従来システムはネットワーク関連の処理は NIC側からのハードウェア割り込みを受けて、都度優先的に処理を行ってきました。例えば 10Gigabit Ethernet用ドライバが 1500byteのパケット毎に割り込みを発生させる場合、一秒間の割り込み回数は 80万回を超える事となり、この処理だけで CPUは殆どの時間を費やしてしまう事になります。これを改善するために割り込み処理が高い状況においては 10ms程度の割り込みを停止し、後から CPU側から NIC上の DMA ring buffer上のパケットをまとめて取りにいきます。

16-JAN-2008


DHCPで IPが取れない場合があるが?

 

 DHCPを利用している場合、システム起動時に IPの取得に失敗する場合があります。この現象を防ぐには /etc/sysconfig/network-scripts/ifcfg-eth0の最後に下記のどちらかを追加し、link downしていると認識させない事で防げます。但し、LINKDELAY patch(それも本問題に関する)の適用が行われているのを確認できたのは RHEL5.0以降だけです。RHEL4.6等の patch未適用のディストリビューションでは、check_link_downの方法を利用してください。 ちなみに、LINKDELAY=で指定する値の単位は、秒になります。この値は適時調整してください。


check_link_down ( ) {
return 1;
}


LINKDELAY=30

 


 この現象は NICの初期化スクリプトに起因する問題で、ProLiantや特定のディストリビューションに特化したものではなく広く発生する可能性があります。

27-MAR-2008, revised 02-MAY-2008


ethtoolで速度が Unknownになるが?

 

 ethtoolが version 6未満の場合、#ethtoll eth0等で表示される速度表示は 1Gbpsを超える速度は表示に Unknownが付与されます。また、3.4Gbps等の様な c-Classの Flex10による速度分割をした速度の場合にも `Speed: Unknown! (3400)`と云う表示となります。

01-DEC-2008


Virtual Connectだと bondingが切り替わらないが?

 

 c-Classブレード用 Virtual Connectと e1000ドライバを組み合わせた構成の場合、NICの link up/downが正常検知できないため、bondingが正常に切り替わりません。この問題は bondingの mode=6を利用しても回避できません。現状に於いては Broadcom系 NICを利用してください。状況が変わりましたら、本サイトの What's Newで案内させて頂きます。

 

 [10-DEC-2008] e1000 v7.6.14a-1で修正されました。

10-DEC-2008, revised 30-JUN-2010


bnx2xドライバで ethXはいくつまで作成可能か?

 

 通常、vmallocメモリの関係で x86環境の場合、パーティション数は 11迄しか作成できません。HPEはパフォーマンスの観点から x86, x86_64共に 8ヶ迄の利用を推奨します。8を超えて利用される場合は `vmalloc=512M uppermem=512M`等として kernelパラメータを引き渡す事で利用が可能となります。詳細はbnx2xドライバの技術情報をご覧ください。

03-JUL-2009


e1000と e1000eドライバの違いは?

 

 PCI-Express対応 NIC用ドライバが e1000eで、PCI-X対応 NIC用ドライバが e1000になります。但し、HPEから提供していた e1000ドライバは互換性のためにしばらくの間 e1000ドライバで PCI-Expressデバイスのサポートを行っていました。PSPでは v8.20から e1000e v0.4.1.12-1が同梱され始めています。

08-OCT-2009

 

NICの持つ offload機能を確認する方法は?

 

 #ethtool -k eth0とする事で、Ethernetコントローラがハードウェア的に処理を行う機能の状況が表示されます。

13-NOV-2009


最近の NICドライバのビルドが難しいが?

 

 最近は NICドライバの制限事項(必ず xen kernelであっても kernel-develが必要だったり、--target, --defineの指定が必要等)が多岐に渡る事が多くなり、単純に #rpmbuild -bbだけではビルドが出来ない事が少なくありません。ドライバに添付されている readme等に詳細なビルド方法や特定のディストリビューションでの制限事項等が記載されています。これらをもとに PSPの SUMインストーラがビルド方法の手順をディストリビューション毎に記載しているファイルがあります。これは PSP8.40以降に添付されるRPMBuildInstructions.xml(PSP8.41より)となります。例えば、RHEL5/x86-PAE上で e1000eドライバをビルドする方法としては、208行目を参考とする事で、下記のコマンドでビルドできる事がわかります。


#rpmbuild -bb /usr/src/redhat/SPECS/hp-e1000e.spec --target=i686╲
--define "KVER=2.6.18-194.el5PAE"


 ちなみにこの環境では PAE kernelであっても UNI/SMP用 alternative kernel用の kernel-develが導入されている必要があります(e1000eの readmeの CAVEATSセクションに記載されています)。この様に個別の制限事項を考慮する必要がありますので、readmeファイルには目を通す必要がありますが、RPMBuildInstructions.xmlは分かりやすいのでこちらも参考になる筈です。

13-JUL-2010, revised 25-MAY-2012


nx_nicドライバーがロードされないが?

 

 PSPで提供される nx_nicドライバーパッケージをインストールしても、ディストリビューション標準の netxen_nicドライバから nx_nicに切り替えが正常に行われない場合があります。PSP8.20以降で確認されている環境、現象及び対処方法は下記の通りです。


・PSP8.40及び 8.41で提供される nx_nicドライバーパッケージ

現象:nx_nicドライバーパッケージをインストールしても、RHEL5標準の netxen_nicドライバーが使用される。
対処方法:/etc/modprobe.d/blacklistに「blacklist netxen_nic」を追加

・PSP8.20、8.25及び 8.26で提供される nx_nicドライバーパッケージ

現象:nx_nicドライバーパッケージをインストールしても、RHEL4標準の netxen_nicドライバーが使用される
対処方法:/etc/modproe.confの aliasを「netxen_nic」から「nx_nic」に変更

・PSP8.20、8.25及び 8.40で提供される nx_nicドライバーパッケージ

現象:nx_nicドライバーパッケージをインストールしても、SLES10標準の netxen_nicドライバーが使用される
対処方法:YaST2で NICに割り当てるドライバーを「netxen_nic」から「nx_nic」に変更

・PSP8.30、8.31、8.50、8.60、8.70及び8.71で提供される nx_nicドライバーパッケージ

現象:nx_nicドライバーパッケージをインストールすると、ドライバーがロードされなくなる
対処方法:YaST2で NICに割り当てるドライバーを「netxen_nic」から「nx_nic」に変更

・PSP 8.40で提供されるnx_nicドライバーパッケージ

現象:nx_nicドライバーパッケージをインストールしても、SLES11標準のnetxen_nicドライバーが使用される
対処方法:YaST2で NICに割り当てるドライバーを「netxen_nic」から「nx_nic」に変更

30-JUL-2010, revised 24-MAY-2011


HPE提供の bnx2iドライバはいつから単体パッケージではなくなったか?

 

 HPEが提供する bnx2iドライバは PSPの v8.40から hp-netxtreme2パッケージに統合されました。ちなみに、パッケージ内には SLES11用の別バージョンが同梱されています。

 

 [17-FEB-2014] SPP 2013.09.0Bから netxtreme2-iscsiは netxtreme2に統合されました。

04-OCT-2010, revised 17-FEB-2014


HPE提供の bnx2, bnx2xのドライババージョンをインスト前に知るには?

 

 HPEが提供する bnx2, bnx2xドライバはかつて、それぞれ個別の RPMパッケージでしたので、そのファイル名等からドライババージョンを知る事が可能でした。PSPの v8.20を境にこれらのドライバは 1つの RPMパッケージとして統一され netxtreme2パッケージとなり、PSP v8.40で hp-netxtreme2パッケージとなりました(RHEL4のみ netxtreme2パッケージのまま)。この netxtreme2パッケージ自体のバージョンや、添付されている .txtからは bnx2, bnx2xドライバのバージョンを知る事はできません。この不便さを解消するために、当サイトでは PSPの技術ページの `個別パッケージ - 全ディストリ共通`セクションにドライバのバージョンを記載しておりますのでご参照ください。

05-OCT-2010, revised 13-OCT-2010


bnx2xは MIIに対応している筈なのに mii-toolでは確認できないが?

 

 MIIは Fast Ethernet(100Mbps)の規格に対応したものです。このため 10/100Mbpsをサポートしない bnx2xは mii-toolを利用して MIIの対応を確認しても No MII transceiver Presentと表示(no MII interfaces foundではなく)され MIIの有無の判断はできません。ethtoolコマンドを利用してください。

09-AUG-2011


KMOD対応なのに errataに追従しないが?

 

 HPEが提供する NICドライバ等は KMP(KMOD)対応している旨が記載されています(PSP v9.10用 psp-9_10_rhel5_linux.txt)が、この KMODへの対応だけでは errata kernelへの追従は行えません。ディストリ標準の(inbox)ドライバよりも KMOD形態となる link先のドライバを優先利用する指定(override)が別途必要となります。この linkを利用したドライバ更新の仕組みが DUP(driver update program)となります。基本 NICドライバにはこの DUPの override指定が行われていないため、errata kernelへの追従は行えません。詳細はKMOD/overrideとは何か?をご覧ください。

 

 [12-MAR-2014] Service Pack for ProLinat(SPP) 2014.02.0より全ての NICドライバが kmod/override対応になりました。

05-JUN-2012, revised 12-MAR-2014


FlexLOMは biosdevname的には何で認識されるのか?

 

 ProLiant Gen8シリーズで利用可能な、FlexLOM対応 NICは物理的には取り外し可能な NICカード形式ですが、RHEL6.2の biosdevnameでは embedded(LOM: Lan on Motherboard)扱いの emXインターフェースとしてアサインされます。LOM 331を搭載した DL380p Gen8に CN1000Q PCI-Eカードを追加した構成での lspciの結果はこちら(biosdev有効, biosdev無効)となります。

 

 [17-FEB-2014] Insight Management Agent(IMA)は bisodevnameには対応していません。iLO4搭載機の場合には agent-less監視を行う等の代替手段が必要になります。

20-JUN-2012, revised 17-FEB-2014


KMOD対応 NICドライバが想定しない場所にインストされるが?

 

 KMOD対応 NICドライバはインストールされている kernel-develの一番新しいバージョンを利用してビルドされます。このため kernel関連パッケージの導入状況によっては、インストールしたい kernelに対応した /lib/modules配下に導入されない場合があります。例えば、RHEL6の 2.6.32-220.17.1で稼働しているシステムがあり、近い将来利用する事を踏まえて 2.6.32-220.23.1の kernelと kernel-develも導入している環境の場合、最新の kernel-develである kernel-devel-2.6.32-220.23.1を利用してドライバがビルドされます。ビルドされた RPMパッケージを導入した場合、/lib/modulesの 2.6.32-220.23.1の extra配下にドライバが導入されます。2.6.32-220.17.1に対しては weak-updates配下に先ほどの extra配下のドライバへの linkが貼られます。この場合、RPMパッケージには inboxドライバよりも追加導入したドライバを優先的にロードする override設定ファイルが提供されていないため、2.6.32-220.17.1環境では、inboxドライバがロードされてしまいます。この場合には、kernel-develの一番新しいものが 2.6.32-220.17.1である様にする必要がありますので、2.6.32-220.23.1を一時的にアンインストールする必要があります。

 ちなみに、rpmコマンドでのドライバのビルドと導入を行うのではなく、SUMを利用する場合には別のルールもあります。詳細はSUMを使うと NICドライバが errataにあたらないが?を参照してください。

 

 [17-FEB-2014] Service Pack for ProLiant(SPP) 2013.09.0Bより NICドライバは src形態ではなく pre-builtされたバイナリ形態に変更されましたので、本 FAQには最新の SPPは該当しません。

20-AUG-2012, revised 17-FEB-2014


OCSD/AHS Agentとは何か?

 

 Option Card Sensor Data(OCSD)は AHS(Active Health System)エージェントとして、NICの温度情報を取得するためのエージェントです。HPEが提供する igbと igbxeドライバ(inboxドライバではなく)では /sys/bus/pci/drivers/igb/0000\:02\:00.0/net/eth0/info/sensor_0/temp等として温度情報が表示されます。OCSDはこの情報を iLO4の WEB I/Fに転送します。詳細は #man ocsbbdをご覧ください。

 

 [09-MAY-2013] manが存在するのは SPP2012.06の RHEL6用サプリメント, SPP2012.08, SPP2012.10に内包された igb v3.4.7.1-1と ixgbe v3.9.17-1だけです。また、SPP2013.02以降は NICドライバから分離され単独パッケージとして提供されています。
 [17-FEB-2014] AHSエージェントは iLO4と連携して AMSモードにて NICの温度状況を表示します。詳細はiLO4の製品情報をご覧ください。

04-OCT-2012, revised 17-FEB-2014


bnx2xドライバで vmallocが足りないが?

 

 x86(32bit) kernelで Broadcom 10Gb NIC用 bnx2xドライバを利用する場合、vmallocの量が足りなくなる場合があります。これは bnx2xで利用するパーティション(ethX)数、他のドライバとの兼ね合いに関係してきます。x86_64(64bit) kernelに変更するのが一番の解決策ですが、x86 kernelを利用せざるを得ない場合には、vmallocの割当てを増やす事で対応が可能ですが難しい場合には、bnx2x.num_queues=1を指定して RXキューの数を制限する事で潜在的なメモリ不足の問題を回避する事が可能です。可能であれば、hpvsaドライバや 10Gb NICの枚数を減らす等も考慮してください。詳細は Broadcomベースアダプターの FCoE構成ユーザーガイドをご覧ください。

23-MAY-2014


bnx2xで FCoE起動時に IOエラーが出るが?

 

 FCoEストレージからシステムが起動する際に IOエラーが潜在的に発生する可能性があります。この問題を防止するには grub.confに bnx2x.disable_tpa=1を引き渡す事で回避可能です。詳細は Broadcomベースアダプターの FCoE構成ユーザーガイドをご覧ください。

26-MAY-2014


bondingでスイッチ側の設定が不要なのはどの modeか?

 

 Ethernetスイッチ側の設定が不要となるのは bonding modeの 1, 5, 6です。他のモードは別途 Ethernetスイッチ側の設定が必要となります。

06-JAN-2016


UEFI機上で NICの設定を変更するには?

 

 ProLiant Gen8迄の BIOS機で NICの WOLや PXEの設定を変更するには、POST時に Ctrl-S等で起動する NIC個別の Option ROMメニューから設定変更を行いましたが、ProLiant Gen9以降の UEFI機では Legacy(BIOS)モードを利用するか UEFIモードを利用するかによって設定変更の方法が異なります。次に述べる設定方法は、NIC毎もしくはファームウェアのバージョンによって実装されている機能や設定方法が変わる場合がありますので、全ての構成に当てはまる訳ではない事にご注意ください。詳細な設定方法はオンラインマニュアル等の個別ドキュメントを参照してください。

・ Legacy(BIOS)モードの場合には、従来と同様に Ctrl-S等で NIC個別の Option ROMメニューから設定変更を行います。但し、NICによっては設定の確認のみが可能状態となっているものがあります。これらの設定は次に述べる UEFIモードと同様に RBSU内で行う必要があります。また、一部の機能は Option ROM側にはない場合もあります(361iの WOL、v6.9.07で確認)。
・ UEFIモードの場合には、Ctrl-Sによる Option ROMメニューは利用できません。POST時に [F9]を押して起動する RBSUから NICの設定変更を行います。但し、Option ROM側にあった機能の一部が RBSU側に設定メニューがない場合もあります(530Tの WOL、v7.11.8で確認)。

23-SEP-2016


BIOS環境で Option ROMが起動できないが?

 

 Intel製コントローラを搭載した NICの内、PCI-Eカード形式のものは BIOS環境の POST時に Ctrl-S等で起動する NIC個別の Option ROMメニューが利用できません。WOLや PXE等の設定変更を行いたい場合には、Intel社から提供されている BootUtilツールを使って設定を変更する必要があります。下記は ProLiant Gen9の UEFI Shellから `PXE`を `PXE Enabled`に変更する作業例となります。詳細はc03388152をご覧ください。


#wget https://downloadmirror.com/19186/eng/PREBOOT.EXE


・ Windows上で EXEを実行、ライセンス条項を経ると `Intel21.0`に中身が展開される
・ Intel21.0を preboot.zipとして圧縮
・ preboot.zipを Linux上に移動


#unzip preboot.zip
#dd if=/dev/zero of=preboot.dd bs=33MB count=1
#mkfs.vfat preboot.dd
#mount -o loop preboot.dd /mnt
#cp -R Intel21.0/* /mnt
#umount /mnt


・ preboot.isoを iLO4/Virtual Mediaか USB-keyで mountする
・ POSTで [F9]を押し RBSU起動
・ Embedded Applications ⇒ Embedded UFEI Shell


Shell> fs0:
FS0:\> cd apps\bootutil\efix64
FS0:\apps\bootutil\efix64> bootutil64e.efi
Intel(R) Ethernet Flash Firmware Utility
BootUtil version 1.6.13.0
Port Network Address Location Series WOL Flash Firmware Version
==== =============== ======== ======= === ======================== ======= 1 38EAA792BF49 3:00.0 10GbE N/A UEFI,CLP,PXE,OCD ------
2 38EAA792BF48 3:00.1 10GbE N/A UEFI,CLP,PXE,OCD ------
FS0:\apps\bootutil\efix64> bootutil64e.efi -nic=1 -bootenable=pxe
Port Network Address Location Series WOL Flash Firmware Version
==== =============== ======== ======= === ======================== =======
1 38EAA792BF49 3:00.0 10GbE N/A UEFI,CLP,PXE Enabled,OCD 2.3.46
2 38EAA792BF48 3:00.1 10GbE N/A UEFI,CLP,PXE,OCD ------


28-SEP-2016


UEFI機種で NICが認識されないが?

 

 ProLiant Gen9でサポートされている NICは POST時に [F9]で起動する RBSUで NICが認識され、設定変更等が可能となります。RBSUで認識されない NICは Servcie Pack for ProLiant(SPP)等でファームウェアのアップデートを行ってください。BIOS機である ProLiant Gen8世代から販売している 1Gb NICを ProLiant Gen9に装着した場合に本事象が発生します。

29-SEP-2016


Broadcom系 NICのファームウェアをアップデートするには?

 

 Red Hat Enterprise Linux 6.6に標準搭載されている tg3.koドライバはファームウェアをアップデートする際のタイミングマージンが 1msに短縮されています。本ドライバ経由でファームウェアをアップデートすると NICが正常動作しなくなる場合があります。この問題を避けるためには以下の環境での作業が必要となります。

・ HPEが提供する tg3.koドライバ v3.137e-3以降を利用する(且つファームウェア側の要件に拠る)
・ RHEL6.6系の errata kernelである kernel-2.6.32-504.12.2を利用
・ RHEL6.7にマイナーバージョンアップする
・ SPP(Service Pack for ProLiant)の ISOイメージから起動する offlineアップデートを利用

13-OCT-2016

 

Broadcom系 NICのファームウェアが一部のポートだけ古いままだが?

 

 Broadcom系 NICのファームウェアをアップデートする際には、NICポートを全て link upしておく必要があります。例えば eth0のみ link upした状態の場合には、eth1, eth2, eth3のポートに対するファームウェアはアップデートが行われません。SPP(Service Pack for ProLiant)の ISOイメージから起動する offlineアップデートを行う場合には、link upの考慮は不要です。

14-OCT-2016


tg3ドライバのバージョンがずっと 3.137のままだが?

 

 Red Hat Enterprise Linux 6.6から 6.8以降の errata kernel迄に標準搭載されているtg3.koドライバのバージョンは v3.137のままとなっています。このためバージョンだけでは Broadcom系 NICのファームウェアをアップデートする際に問題が発生するタイミングマージンが 1msになっているものかどうかを判断する事はできませんので注意が必要です。kernelバージョンが 2.6.32-504.12.2以降か否かで判断してください。

18-NOV-2016


今ロードされているドライババージョンを調べるには?

 

 現在ロードされているドライバのバージョンは #modinfo tg3等では判断できません。このコマンドは次回にロードされる際のドライバ情報を示しています。現時点でロードされているドライバのバージョンを判断するには #dmesg |grep tg3等で判断するか、/sys/module/tg3/versionで判断する必要があります。但し、これらで分かるのはバージョン番号だけですので、tg3.koの様に同じバージョン番号で改変が行われている場合には、/sys/module/tg3/drivers/pci:tg3/module/srcversionの値が変化しているかどうかで確認する必要があります。

02-DEC-2016


DPDKで通信ができないが?

 

 Intelの DPDK(data plane developer kit)を利用する場合、ProLiantの HPE Shared Memory機能を disabledにする必要があります。この機能を enabledのまま DPDKを稼動させた場合には、DPDKのバージョンやハードウェア構成によって、DMA Faultが発生し DPDKが利用できないだけの場合、NMIが発生してしまう場合、kernel panicが発生してしまう事象が見受けられます。これら 3ヶの現象は、それぞれ DPDKのバージョンが古いものから新しいものにかけての現象として見受けられます(最新の DPDKである程に DMA Faultではなく kernel panicになります)。HPE Shared Memory機能についてはShared Memory機能とは何か?からの流れとなる FAQ群をご覧ください。

 

 [15-OCT-2018] ProLiant Gen10からは Shared Memoryに関係なく DPDKの利用が可能になっています。

17-MAR-2017, revised 15-OCT-2018


ocsbbdが起動しないが?

 

 Intel製 Ethernetコントローラを搭載した NICの温度監視を行うための ocsbbdサービスは、ProLiant上の 特定のメモリ空間を利用しています。この領域は Intel DPDK(data plane development kit)が利用する領域 とコンフリクトします。DPDKを利用する際に RBSUから HPE Shared Memoryを利用しない様にデフォルトからの 変更を行うと ocsbbdサービスのロード時に No devices to poll等のエラーと共にサービスの起動に失敗します。

 

 [15-OCT-2018] ProLiant Gen10からは Shared Memoryに関係なく DPDKが利用可能になっており、且つ Active Health Agent(ocsbbd, tg3sd)は Gen10よりサポートされなくなりました。

09-OCT-2018, revised 15-OCT-2018


ファームウェアアップデートでパッケージが足りないと云われるが?

 

 オンラインファームウェア用のパッケージである Smartコンポーネントを利用して Linuxの稼働中にオンラインアップデートを行おうとして、firmware-nic-broadcomをインストールしてから、#./hpsetupを実行すると必要となる依存パッケージがないと云うエラーが表示される事があります。例えば Red Hat Enterprise Linux 7を minimumインストールした環境で、当該ファームウェアをオンラインアップデートするには netstatパッケージが入っていないと云うエラーが表示されますので、予め netstatパッケージのインストールが必要となります。

05-FEB-2019


RFUT経由でのファームウェアアップデートが失敗するが?

 

 Broadcom NX1コントローラを搭載した 330/331/332系 NICはファームウェア内の Comboイメージ v20.6.61が稼働している状態で、そのファームウェアを ProLiant Gen10の POSTの最終段階で iLO5が起動する REST Flash Utility Tool(RFUT)を利用したアップデート方法を利用する場合には、アップデートが失敗します。Comboイメージ v20.6.61を内包するのは、Service Pack for ProLiant(SPP) 2017.10.1に同梱されている firmware-nic-broadocm-2.19.6-1.1.x86_64.rpmと、cp032626.exeになります。実際に 330/331/332系 NICで稼働している Comboイメージのバージョンは iLO5の WEB I/Fで表示される Firmware Versionとして確認可能です。本事象は Smart Update Manager(SUM)でインストール先を `iLOノード`に指定する等した場合に利用される RFUT経由でのファームウェアアップデート時だけの問題となります。また、当該 Comboバージョンだけの問題となります。詳細はa00056840en_usをご覧ください。

06-FEB-2019

 

Workload Accelerator/NVMe

 

LE/VE/ME/HEの違いは何か?

 

 Workload Acceleratorには LE(light endurance)、VE(value endurance)、ME(mainstream endurance)、HE(high endurance)シリーズがあります。これらの違いは搭載されている NANDメモリ等に対する耐久性の違いによりシリーズ分けされており、NANDの種類による容量と性能にも違いがあります。また Linuxでのドライバもシリーズによって異なります。管理面では SNMPエージェントを実装しているものと、RealSSD Managerを利用するものがあります。詳細は製品情報をご覧ください。

02-MAR-2015


IO Acceleratorとの違いは何か?

 

 従来の PCI-Express直結型半導体ストレージには IO Accelerator系と Workload Accelerator系の 2系統がありましたが、現在は名称を Workload Acceleratorシリーズに統一しています。

03-MAR-2015


システムの起動は可能か?

 

 Workload Acceleratorからのシステム起動は UEFIモード、Legacy(BIOS)モード共にサポートされません。データディスクとして利用してください。

04-MAR-2015


RI/MU/WIの違いは何か?

 

 PCIe Workload Acceleratorは従来 NANDメモリの耐久性に応じた Light/Value/Mainstream/High Endurance(LE/VE/ME/HE)の4種類の製品に分類してきました。2015年 4月の新製品からは書込みと読出しのどちらに重視された製品かと云う Read Intensive/Mixed Use/Write Intensive(RI/MU/WI)の 3種類の製品に分類しています(既存の製品の分類変更は行っておりません)。RIは従来の VEモデル相当、MUは従来の LE/ME相当、WIは従来の HE相当となります。

28-APR-2015


利用するドライバやファームウェアは HPEから提供されるのか?

 

 HPEから NVMe用ドライバを提供する予定はありません。これは inboxと同様の nvme.koだけでなくベンダー元独自のドライバの両方の提供を行わない事を意味します。ディストリビューションに同梱されている nvme.koを利用してください。ファームウェアは Service Pack for ProLiant(SPP)等で SATA/SASドライブ等と同様に提供を行う予定です。

01-APR-2016


UEFIだけのサポートか?

 

 NVMe Expressベイキットを装着する ProLiant Gen9は UEFIモードだけでなく Legacy(BIOS)モードでもサポートされます。

04-APR-2016


ドライブ装着時に電源ボタンを押す必要はあるのか?

 

 NVMe Expressベイ内に NVMeドライブを装着すると NVMeバックプレーンが自動で link up処理を行うため電源ボタンの操作は不要です。取り外す際には電源ボタンを押すことで、link down処理が行われます。この処理時間はシステムの負荷状況により数分程度かかる場合もあります。NVMeドライブ前面の DNR(do not remove) LEDが消灯してから取り外してください。

05-APR-2016


hot addは可能か?

 

 NVMe Expressベイキット構成に於いて、システム起動時にデバイスとして認識されていたベイ内のドライブを交換する hot swapとは異なり、システム起動時に認識されていなかった NVMeドライブを追加する hot addは現状ではシステムが不安定となるためサポートしていません。

07-APR-2016


smartctlでステータスの確認は可能か?

 

 NVMe Expressベイ内の NVMeドライブに対して #smartctlを発行する際に `-d scsi`を付与する事で vendor, product, revision, capacity, serial number, temperature等の限られた情報の取得は可能(RHEL7.2で確認)ですが、エラー状況等を確認する事はできません。Smart Storage Administrator(SSA)/-CLI, Smart Storage Array Diagnostics Utility CLI(hpssaducli)の v2.40以降で実装された WearGauge機能から確認可能です。

 

 [26-APR-2018] smartmontools v6.5より NVMeがサポートされています。Fedora 24, Red Hat Enterprise Linux 7.5、Ubuntu Server 16.10に同バージョンが同梱されています。

08-APR-2016, revised 26-APR-2018


link down/up時の状況はログに記録されるのか?

 

 NVMe Expressベイ内の NVMeドライブの電源ボタン操作による link down/up時に記録されるログの量は利用するディストリビューションとそのバージョンによって異なります。下記は bootパラメータとして `pci=pcie_bus_safe`を付与して起動した Red Hat Enterprise Linux 7.2での例です。
== NVMeドライブの電源ボタンの投入による link down時 ==
   kernel: pciehp 0000:09:11.0:pcie24: Button pressed on Slot(0-3)
   kernel: pciehp 0000:09:11.0:pcie24: PCI slot #0-3 - powering off due to button press
   kernel: pciehp 0000:09:11.0:pcie24: slot(0-3): Link Down event
   kernel: pciehp 0000:09:11.0:pcie24: Link Down event ignored on slot(0-3): already powering off
== NVMeドライブの電源ボタンの投入もしくはドライブ装着による link up時 ==
   kernel: pciehp 0000:09:11.0:pcie24: Button pressed on Slot(0-3)
   kernel: pciehp 0000:09:11.0:pcie24: Card present on Slot(0-3)
   kernel: pciehp 0000:09:11.0:pcie24: PCI slot #0-3 - powering on due to button press
   kernel: pciehp 0000:09:11.0:pcie24: slot(0-3): Link Up event
   kernel: pciehp 0000:09:11.0:pcie24: Link Up event ignored on slot(0-3): already powering on
   kernel: pci 0000:0e:00.0: BAR 6: assigned [mem 0x93200000-0x9320ffff pref]
   kernel: pci 0000:0e:00.0: BAR 0: assigned [mem 0x93210000-0x93213fff 64bit]
   kernel: pcieport 0000:09:11.0: PCI bridge to [bus 0e]
   kernel: pcieport 0000:09:11.0: bridge window [io 0x7000-0x7fff]
   kernel: pcieport 0000:09:11.0: bridge window [mem 0x93200000-0x932fffff]
   kernel: pcieport 0000:09:11.0: bridge window [mem 0x38000600000-0x380007fffff 64bit pref]
   kernel: pcieport 0000:09:11.0: Max Payload Size set to 128/ 512 (was 128), Max Read Rq 128
   kernel: pci 0000:0e:00.0: Max Payload Size set to 128/ 256 (was 128), Max Read Rq 512
   kernel: nvme 0000:0e:00.0: enabling device (0000 -> 0002)
   kernel: nvme1n1: p1 p2

11-APR-2016, revised 06-JUN-2016


kdumpのコアは吐けるのか?

 

 NVMe Expressベイ内の NVMeドライブ上に kdumpを吐くには kernel 3.0以降が必要となります。例えば、Red Hat Enterprise Linux 7では問題ありませんが、Red Hat Enterprise Linux 6ではコアの吐き先を NVMe以外のデバイスにする必要があります。

18-APR-2016


NVMeからの起動はサポートされるのか?

 

 NVM Expressベイ内の NVMeドライブからの起動は UEFI, Legacy(BIOS)モードの両方でサポートされませんので、別途起動デバイスを用意する必要があります。

 

 [25-APR-2019] 本制限は ProLiant Gen10で解除され UEFIモードでのみ NVMeからの起動はサポートされます。

25-AUG-2016, revised 25-APR-2019


payloadサイズが一致しないが?

 

 NVMe Expressベイキットの PCI-Expressブリッジカード側と NVMeドライブ側の payloadサイズが一致しない構成で利用した場合、Call Traceが記録されたり、hot swapが失敗する事があります。この値が一致しない場合には、値が低い方にあわせるために bootパラメータとして pci=pcie_bus_safeを引き渡す事で hot swapの安定稼動が可能になります。SUSE Linux Enterprise Server 12/SP1等の新しめのディストリビューションではこの値を自動で一致させてくれるものがあります。

26-AUG-2016


link down前に #umountは必要か?

 

 NVMe Expressベイ内の NVMeドライブを link downすると #umountが自動で掛かります。link down前に予め #umountをせずに link down時に自動で行われる #umount処理に任せた場合、古めのディストリビューションである程、軽微な journalエラーが発生する場合がありますので、link down前に予め #umountする事が可能であれば実行する事をお勧めします。

02-SEP-2016


link down処理が終了しないが?

 

 Red Hat Enterprise Linux 6環境で NVMe Expressベイ内の NVMeドライブを link downしても処理が終了しません。本ディストリビューションは hot swapをサポートしていませんので、故障した NVMeドライブを交換する際にはシステムの再起動が必要となります。

08-SEP-2016


hot swapすると隣のドライブの LEDも点滅するが?

 

 NVMe Expressベイ内の NVMeドライブを hot swapする場合、NVMeドライブを装着する段階でストレージバックプレーンに搭載されている ASICが NVMeキャリアが正しいアドレスを取得できる様にリセットコマンドを発行し、電源スイッチがリセットを掛けます。この電源スイッチは NVMeドライブ 2ヶ毎に 1ヶ設置されているため、NVMeドライブを装着した隣のドライブベイ内も同時にリセットが掛かるため、隣の NVMeドライブの LEDが一時的に点滅します。

12-SEP-2016


smartctlの様な GPLなツールでコマンドでステータスを確認したいが?

 

 GitHub上で GPLソフトウェアとして公開されているnvme-cli-masterを利用すると smartctlに似た利用が可能となります。本ソフトウェアを HPEがサポートしている訳ではありません。


#./nvme smart-log /dev/nvme0
   Smart Log for NVME device:nvme0 namespace-id:ffffffff
   critical_warning : 0
   temperature : 25 C
   availabe_spare : 100%
   avairable_spare_threshold : 10%
   percentage_used : 0%
   data_units_read : 341,004
   data_units_written : 584,089
   host_read_commands : 2,824,545
   host_write_commands : 6,122,332
   controller_busy_time : 5
   power_cycles : 51
   power_on_hours : 216
   unsafe_shutdowns : 45
   media_errors : 0
   num_err_log_entries : 0
   Warning Temperature Time : 0
       ・・・


13-SEP-2016

Video

 

GUIインストーラが起動すると画面が乱れたり映らなかったりするが?

 

 インストーラが DDC(display data channel)によるモニタディスプレイの自動認識に失敗した場合、画面が正常表示できなくなる事があります。原因の一つには KVMスイッチャーを噛ましている事や最新式のモニタディスプレイを利用している等が要因として挙げられます。この場合、boot: linux skipddc等として 'skipddc'パラメータを引き渡して DDCを利用せずにインストーラを起動してください。

 

 [17-FEB-2014] Red Hat Enterprise Linux 6では nomodesetを引き渡す方法が有効です。

08-SEP-06, revised 17-FEB-2014

 

USB

 

USBでの利用可能なデバイスは?

 

 現時点に於いては Compaq純正品で Linuxの動作を保証しているものは存在しませんが、サードパーティ製品での動作確認結果を実験工房で公表しております。

16-NOV-01


一般の USB-memoryを DUD用デバイスとして利用できるか?

 

 利用可能です。例えば、 2GBの USB-memoryに対しても FDDに対するのと同じ様に、 #dd if=hoge.dd of=/dev/sda bs=512等として書き込み、ロードする事が可能です。 Red Hat EL4.7、EL5.2で確認しました。

10-OCT-08

 

CD, CD-R/RW

 

set_drive_spped_statusエラーが出るが?

 

 IDEの DMA関連エラーで transfer rate変更要求を行った際に表示される場合があります。一般に multi-mode DMAオプションを有効にする事でこのメッセージの表示を抑制する事ができましたが、kernel 2.4の最新のものにアップデートする事等で表示される様になります。このメッセージは無視してください。

29-JAN-04


G6で内蔵 DVDがインストールの途中から認識できなくなるが?

 

 ディストリビューションのインストーラ用 kernelが SATAコントローラを認識できるかによります。ProLiant G6シリーズで主に使われている Intel ICH10Rの場合、Red Hat EL4だと U7以降、Red Hat EL5だと U2以降、SLES10だと SP2以降、SLES11だと初期 SP0メディアで利用可能です。SLES9は SP4でも利用できません。

16-JUL-09

CPU

 

時間が狂うが?

 

 サーバの内蔵時計が狂う原因を大きく2つに分けると、電源管理機能の問題と CPUの割込みタイマーの問題となります。詳細については下記の CPUについての技術情報をご覧ください。

Opteron multi-coreサポートに必要なディストリビューションについて

Xeonプロセッサでの DBS利用時の注意事項について

Opteronプロセッサでの PowerNow!利用時の注意事項について

23-AUG-07


powernow-k8のエラーが記録されるが?

 

 ProLiantの省電力関連機能である Power Regulator機能を RBSUで OS Control Mode以外に設定した場合、BIOSバグ関連を意味するエラーが記録されます。これは AMD CPUの省電力サービスである powernow-k8が kernelと通信が行えないために吐かれるメッセージです。Power Regulatorを利用する場合にはこのメッセージは無害ですので無視してください。

RHEL5の場合:

powernow-k8: Your BIOS does not provide _PSS objects. PowerNow! does not work on SMP systems without _PSS objects. Complain to your BIOS vendor.

RHEL6の場合:

[Firmware Bug]: powernow-k8: No compatible ACPI _PSS objects found.
[Firmware Bug]: powernow-k8: Try again with latest BIOS.

SLES10の場合:

powernow-k8: MP systems not supported by PSB BIOS structure.

SLES11の場合:

powernow-k8: ACPI Processor support is required for SMP systems but is absent. Please load the ACPI processor module before starting this driver.

26-JUN-2012


x2APICは利用できるのか?

 

 Xeon E7の x2APIC(割込みコントローラ)は、RHEL6と、SLES11で利用可能です。RHEL5と SLES10では利用できませんので、Linuxのインストール前に RBSUで予め無効にしておく必要があります。

06-DEC-2012


HTは利用するべきなのか?

 

 ProLiant DL980 G7の様に CPU数の搭載基数が多いマシンは、Hyper-Threadingを有効にし論理 CPU数が 2倍となる事により、スケジューラ自体の負荷もあがります。データベースの様に I/O処理よりも CPU処理が必要とされる場合には Hyper-Threadingを利用する価値はあります。Hyper-Threadingの設定は Linuxのインストール後でも RBSUから変更可能ですので、実際のシステムで CPU負荷を鑑みて利用するか否かを決定してください。
 ちなみに、RHEL5, SLES10では多数の論理 CPU数を効率的に稼働させるのに最適化されていないため、Hyper-Threadignを無効にした場合のスケジューラ負荷の低減効果はより高くなる筈です。
 詳細はBest Practices When Deploying Linux on ProLiant DL980 G7 Serversをご覧ください。

07-DEC-2012


c-stateが勝手にあがるが?

 

 intel_idleドライバは、RBSUの Minimum Processor Idle Stateで設定された ACPI tableの値を参照するのではなく、CPUが対応する c-stateの範囲を直接確認します。このため、RBSUで設定した c-stateから逸脱する事があります(#powertop等で確認可能)。intel_idle.max_cstate=1等として遷移範囲を制限する事が可能です。

10-APR-2013, verified with RHEL6.3, Ubuntu 12.04


Linux稼働中に HTの状態を知る方法は?

 

 Hyper-Threadingが有効になっているかを Linuxの稼動中に確認したい場合、RHEL6では、lscpuコマンドで確認する事ができます。#lscpuの結果で、"Thread(s) per core"の値が"2"になっている場合には、Hyper-Threadingが有効な状態です。
 RHEL5では lscpuコマンドが提供されていませんが、/proc/cpuinfoの内容から確認可能です。/proc/cpuinfoの情報の内、"cpu cores"は1ソケットあたりの物理コア数をさしています。"siblings"は1ソケットあたりの論理コア数をさしています。Hyper-Threadingが有効な状態では、論理コア数は物理コア数の倍となりますので、"cpu cores"と"siblings"の数が同じ場合には、Hyper-Threadingは無効状態、"siblings"の数が"cpu cores"の倍の場合には、Hyper-Threadingが有効状態と判断できます。

16-APR-2013


power and utilization monitoringを停止した場合の影響は?

 

 RBSUの Processor Power and Utilization Monitoring設定を offにした場合、1秒間に 8回行われる CPUへの割込みを停止します。この設定は low-latencyを目的としたシステムに有効です。本設定を offにする事で iLOが収集する各種の省電力機能、消費電力レポート等が利用できなくなります。詳細はConfiguring and Tuning ProLiant for Low-Latency Applicationsをご覧ください。

14-JUN-2013


C0ステートに固定するには?

 

 bootパラメータで idle=pollと intel.idle.max_cstate=0を併用する事で C0ステートに固定可能です。詳細はConfiguring and Tuning ProLiant for Low-Latency Applicationsをご覧ください。

17-JUN-2013


特定の coreを kernelから隠蔽できるか?

 

 標準のツールでは出来ませんが、cset(http://code.google.com/p/cpuset/)を利用する事で特定の CPU coreを kernelから隠蔽する事が可能です。詳細はConfiguring and Tuning ProLiant for Low-Latency Applicationsをご覧ください。

18-JUN-2013


CPUの利用率が時折低くなる事があるが?

 

 iLO4のファームウェア v1.40では SMI(system management interrupt)の影響により、レイテンシを重視する real-time系システムでの CPUの利用率に影響を及ぼす場合があります。この問題は v1.50で修正されています。詳細はConfiguring and tuning HP ProLiant Servers for low-latency applicationsをご覧ください。

10-DEC-2014


論理 CPU 1ヶのみしか認識されないが?

 

 従来の APICではなく x2apicを利用している場合で OSが対応していない場合には論理 CPUが 1ヶしか認識されなくなります。RBSUで x2apic機能を disabledにし、従来の APICモードに変更してください。

19-AUG-2015


BIOS has corrupted hw-PMU resourcesメッセージが表示されるが?

 

 OS boot時の初期画面に ” [Firmware Bug]: the BIOS has corrupted hw-PMU resources (MSR 38d is 330)” メッセージが表示されますが、これは kernelが PMU(Performance Management Unit)から performance counterを正常に取得できない場合に表示される、OSやハードの動作には影響しない無害なメッセージです。
 当メッセージは、RHEL6.1以降, RHEL7, SLES11 SP2以降, SLES12, Ubuntu server 12.04/14.04/16.04 LTSで表示される事を確認しています。
 RBSUの Processor Power and Utilization Monitoring設定を無効にする事で当メッセージの抑制が可能ですが、本設定を 無効にする事で iLOが収集する各種の省電力機能、消費電力レポート等が利用できなくなります。詳細はConfiguring and Tuning ProLiant for Low-Latency Applicationsをご覧ください。

05-DEC-2015


CPUの選択時に気を付けなければならない事は?

 

 CPUがリリースされた後に発見される脆弱性に対応するためにファームウェアもしくは OS側で対応が行われますが、これらの対応はシステムの性能低下をもたらす事があります。これを見据えて高めの CPUクロックもしくは多めの Core数の CPUの選択をお勧めします。また、CPUファミリーの製品クラスによってサポートされる機能が異なる事がありますので注意が必要です。例えば、Intel Xeonの Bronzeは TurboBoostや HyperThreadingをサポートしていません。

22-JUL-2020

EPYCの SMEで kdumpは利用できますか?

 

 AMD EPYC搭載機の SME(Secure Memory Encryption: メモリ暗号化機能)は、Red Hat EnterpriseLinux 7.8では kdumpと互換性がありません。8.1では正式サポートとなりました。詳細は Red Hat社のリリースノートをご覧ください。

30-JUL-2020

 

memory

 

44bitアドレッシングは利用できるのか?

 

  メモリ搭載容量が 1TBを越える場合には 40bitアドレッシングではなく 44bitアドレッシングを利用する必要があります。RHEL6、SLES10、SLES11で利用可能です。RHEL5では 40bitアドレッシングしか利用できませんので、OSのインストール前に RBSUで予めアドレッシングモードを 40bitモードにしておく必要があります。

12-NOV-2012


EDACドライバをロードさせたくないが?

 

 EDAC(error detection and correction)ドライバが稼働するか否かは、利用している ProLiantの chipsetと稼働している kernelの組合せによりロードされるか否か、またどのドライバがロードされるかが変わります。EDACドライバがロードされているか否かは下記で確認してください。


#lsmod | grep edac(Intel CPU構成での例)
  i7core_edac    18184  0
  edac_core     46773  1  i7core_edac
#lsmod | grep edac(AMD CPU構成での例)
  amd64_edac_mod   21461  0
  edac_core     46773  1  amd64_edac_mod


 上記の例では i7core_edacと amd64_edac_modがメモリコントローラと連携するためのドライバで、このドライバのロードを抑制する事で付随する edac_coreのロードも抑制されます。
 上記の Intel CPU構成でのドライバのロード停止方法は下記となります。ドライバ名は ProLiantの機種によって様々ですので、上記の lsmodでの結果のものに置き換えてください。

RHEL5, RHEL6の場合


echo "blacklist i7core_edac" >> /etc/modprobe.d/blacklist.conf


 [19-MAR-2013] 上述の方法による EDAC用モジュールのロード停止による EDACコンポーネント全ての停止ではなく bootパラメータで `mce=ignore_ce`を引渡し、メモリ関連のポーリングとレジスタクリア機能のみを停止し、MCEハンドリングサブシステムは有効にしたままとする回避を推奨します。

03-DEC-2012, revised 31-MAY-2017


4TBのメモリを使いたいが?

 

 物理的に 1TB超のメモリが搭載可能な ProLiantの場合、RBSUにて 40bitアドレッシングから 44bitアドレッシングに切り替えが必要です。また、ディストリビューションでのサポートがなされているかの確認も必要です。Red Hatの場合、RHEL6では 2TB迄が標準でサポートされていますが、2TB超の場合には個別のテストにパスしたものだけがサポートされます。ProLiant DL980 G7ではこのテストにパスしています。但し、6.0ではなく 6.1以降を利用した場合のみ 4TBメモリのサポートが受けられます。詳細は Red Hat社の certification notes#59616をご覧ください。

 

 [05-JUN-2013]RHEL6で標準でサポートされる最大メモリ容量が 3TBに拡張されました。

01-MAR-2013, revised 05-JUN-2013


pre-failure notificationを停止した場合の影響は?

 

 RBSUの Memory Pre-failure Notificationの設定を offにした場合、1時間に 1回行われる CPUへの割込みを停止します。この設定は low-latencyを目的としたシステムに影響を与えます。本設定を offにする事でメモリの事前予防保証機能が働かなくなります。また、メモリのモードとしては、オンラインスペアモード、ミラーメモリモードが使えなくなり、Advanced ECCモードでしか稼働させられなくなります。詳細はConfiguring and Tuning ProLiant for Low-Latency Applicationsをご覧ください。

12-JUN-2013


メモリの稼働速度を調べるには?

 

 iLO2/3/4の WEB I/F内のシステム情報、もしくは IMA(Insight Management Agenet)が稼働している場合には SMH(System Management Homepage)からも確認が可能です。中でも iLO4の場合には多数の情報が取得可能になっています。また、#dmidecode -t 17での確認も可能です。

13-JUN-2013


NVDIMMの必要要件は?

 

 Xeon E5-2600 v4を搭載した ProLiant DL360, DL380 Gen9で NVDIMMのサポートが開始されました。メモリをバックアップさせる際の電力として SmartBatteryの搭載が必須となります。NVDIMMの設定を RBSUで行うにはファームウェア v2.31が必要となります。このファームウェアは現時点では通常のダウンロードサイトでは提供されていませんのでNVDIMM専用サイトから入手する必要があります(次版からは通常のファームウェアリリースサイクルにマージされる予定です)。対応するディストリビューションは Red Hat Enterprise Linux 7.3、SUSE Linux Enterprise Server 12/SP2となります。

18-JAN-2017


NVDIMMをサニタイズする必要はあるのか?

 

 NVDIMM上のデータを復旧不能な状態にするメディアサニタイズ作業は、主に障害発生時や構成変更時に必要な作業となります。RBSUからは、サニタイズ後に OSを起動するモードと、サニタイズ後に電源を切断するモードが用意されています。前者は NVDIMM-Nを追加した場合や別のシステムから移動した場合等に利用します。後者は NVDIMMを撤去するする場合等に利用します。詳細はNVDIMMユーザガイドをご覧ください。

30-MAY-2017


EDACが変わったが?

 

 kernel 4.14迄の `CONFIG_EDAC_SKX=m`だけの設定とは異なり kernel 4.15以降では `CONFIG_EDAC_GHES=y` も設定されています。このため Ubuntu Server 16.04.3の HWE kernelを利用する ProLiant Gen10環境を 16.04.5に引き上げた場合には、従来の SKX EDACではなく GHES EDACが利用されます。

07-FEB-2019

 

バックアップデバイス等

 

/var/log/lastlogをバックアップ対象に含めると時間が掛かるが?

 

 このファイルは sparseファイルであるため、HDD上でのファイルサイズは小さくまとめられていますが、実際のデータ容量は巨大な場合があります。例えば /var自体が数十GBしかないのに、lastlog自体は TBに達する事もあります。sparseファイルのバックアップを行う際にはバックアップソフトウェアで sparse指定をするか、必要に応じてバックアップ対象から除外してください。

 NetVaultでは v7.4.5から sparse file対応されております。

28-JUL-05, revised 15-AUG-07


#mt tellが利かないが?

 

 kernel 2.6系の一部では #mt tellを実行しても no such deviceもしくは Inappropriate ioctl for deviceと表示され TAPEポジションの表示が行えません。この問題は Red Hat EL4の U2未満、SLES9(SP3迄確認)で発生する事を確認しています。これら以外の kernel 2.6系ディストリビューションでも発生する環境があると思われます。

19-JAN-06, revised 08-FEB-06

UEFI/BIOS

 

UEFIとは何か?

 

 Unified Extensible Firmware Interfaceは、従来の BIOS同様にハードウェアの入り口となるファームウェアインターフェースです。BIOSに比べて各種の拡張を行いやすいモジュラー形態となっています。現時点で、Linux環境が受ける恩恵としては、GPTラベルを付与された 2.2TB超の LUNからシステムの起動が CHS geometryの変換等を行う事なく可能となる事です。その他にも今後 Linuxで実装される予定の機能や、OSに特化しないハードウェアレベルでの拡張機能による恩恵があります。UEFIを搭載した ProLiantシリーズとして DL580 Gen8が初の実装を行っています。

06-JUN-2014


UEFIと BIOSは切替え可能か?

 

 ProLiant DL580 Gen8の工場出荷時の設定は BIOSモードになっていますが、UEFIモードへの切替えが可能です。OSを導入した後で UEFIと BIOSのモードを切り替える事はできませんので、モードを変更するには OSの入れ直しが必要となります。PXEインストール時に UEFIモードを利用するには、BIOSモード用のものとは別のイメージが必要になります。将来リリースされる ProLiantでは UEFIモードのみを実装したサーバがリリースされる予定です。

 

 [23-FEB-2017] ProLiant XL260a Gen9は UEFI Class 3での実装となり、CSM(compatibility support mode)による Legacy(BIOS)モードを搭載しておりません。

10-JUN-2014, revised 23-FEB-2017


UEFIと BIOSのどちらを使えばいいのか?

 

 利用する OSが BIOSにしか対応していない、もしくはモードによって技術的制限を受ける場合がありますので、OSのリリースノート等で確認してください。現在、ProLiant DL580 Gen8の構成の注意点としては、Fibre Channel HBAは UEFIモードでのみサポートが行われます。管理ソフトウェア的には、Smart Update Manager, Insight Management Agent, Insight Control等は UEFIモードのサポートが行われているバージョンを利用する必要があります。なお、OneViewは現在、BIOSモードのみサポートが行われます。

 

 [11-NOV-2014] ProLiant Gen9用オプションの UEFI, BIOS対応の詳細については HP ProLiant Gen9 options configuration during server boot (PDF) - Septempber 2014版をご覧ください。また、システム構成図の機種固有の制限情報も合わせてお読みください。

 [01-DEC-2015] ProLiant Gen9から全面的に UEFIがサポートされています。DL580 Gen8を含めて UEFIモードを利用する場合の技術制限等については都度最新の QuickSpec、構成ガイド、SPOCK、サポートマトリックス等を参照してください。

12-JUN-2014, revised 01-DEC-2015


ProLiant Gen9の UEFIを Legacy(BIOS)に変更できないが?

 

 Secure Bootを利用している場合には、ProLiantのブートモードを UEFIモードから Legacy(BIOS)モードに変更する際 `This item is currently not available.`と表示され変更ができませんので、予め Secure Bootを disabledに戻しておく必要があります。変更箇所は System Configuraiton ⇒ BIOS/Platform Configuration(RBSU ⇒ Server Security ⇒ Secure Boot Configurationの Secure Boot Enforcementから変更してください。本変更を有効にするためには一度 System Configurationを抜け再起動が必要になります。再起動後に再度 System Configuraitonを起動する事で UEFIモードから Legacy(BIOS)モードへの変更が可能になっています。

 

 [23-FEB-2017] ProLiant XL260a Gen9は UEFI Class 3での実装となり、CSM(compatibility support mode)による Legacy(BIOS)モードを搭載しておりません。

08-APR-2015, revised 23-FEB-2017


grub2-mkconfigの吐き先はどこなのか?

 

 ProLiantを Legacy(BIOS)モードで利用している場合に grub2の設定変更を行った場合にに実行する #grub2-mkconfig -o での吐き先は grub 0.9xと同様な /boot/grub2/grub.cfgのままですが、UEFIモードの場合には EFIパーティション上になります。Red Hat Enterprise Linux 7の場合 /boot/efi/EFI/redhat/grub.cfgとなり、/etc/grub2-efi.cfgにもリンクが貼られます。

21-APR-2015, revised 24-JAN-2018


設定したのに、また DVDから起動しなくなったが?

 

 ProLiant起動時に [F9]を起動し、UEFI Boot Orderで `Embedded SATA Port X CD/DVD : hp DVDXXX XXXXX`(もしくは Dynamic SmartArray B140i)の起動を優先する事で DVDからの起動を優先させる事が可能です。但し、OSのインストール後には OSの起動エントリが更に上位に追加されてしまいますので、この作業を OSのインストール前にされていた場合には、再度同様の作業が必要となります。恒常的に DVDから起動するのでなければ、ProLiant起動時に [F11]を押すことで、一時的に Boot Orderの変更も可能です。

28-SEP-2015


Generic USB Bootとは?

 

 ProLiant Gen9の 2015年 3月のファームウェア v1.30から USB Mass Storage用のプレースホルダーとして `Generic USB Boot`が追加され、取り外し可能な USB Mass Storageに対して、UEFI Boot Orderでの起動順序の制御が可能となりました。

29-SEP-2015


USB-keyを装着している時には USB-keyから起動させたいが?

 

 まず、ProLiant Gen9のファームウェアが 2015年 3月以降のものである事を確認してください。本ファームウェア以降では USB Mass Storage用の起動エントリとして `Generic USB Boot`がリストされます。ProLiant起動時に [F9]で RBSUを起動し、System Configuration ⇒ BIOS/Platform Confituration(RBSU) ⇒ Boot Options ⇒ UEFI Boot Orderへアクセスし `Generic USB Boot`を [+]キーにて一番上に移動してください。但し、本変更の後に OSの導入を行った場合には、OSの起動エントリが更に上位に追加されてしまいますので、その際には再度同様の作業が必要となります。恒常的に USB-keyから起動するのでなければ、ProLiant起動時に [F11]を押すことで、一時的に Boot Orderの変更も可能です。

01-OCT-2015


使わない起動エントリが増加するが?

 

 テスト環境等の場合、OSを導入する毎に UEFIの起動エントリとして ProLiantの NVRMに登録されます。また、Intelligent Provisioning(IP)経由で OSをインストールした際には `HP Assisted Installation`エントリが登録されますがインストーラを含む起動パーティションへの起動エントリであり、インストール後には利用する事ないものです。不要な起動エントリは RBSUもしくは #efibootmgr -b X -Bで削除して構いません。

02-OCT-2015


内蔵 DVDがスキャンすらされないが?

 

 ProLiantを UEFIモードで利用し、且つ Dynamic SmartArray B140iも利用していた状態から UEFIモードを Legacy(BIOS)モードに変更した場合、SATAのモードが Dynamic SmartArrayモードのままとなっています。この状態では内蔵 DVDドライブは利用できません。RBSUから SATAのモードをAHCIモードに変更する必要があります。

13-OCT-2015


Legacy(BIOS)モードでも UEFI Shellは利用できるのか?

 

 ProLiant Gen9の Legacy(BIOS)モードは UEFIの CSM(compatibility support module: BIOS互換)を持つ Class 2で、UEFI Shellの利用も Legacy(BIOS)モードで利用可能です。RBSUの Embedded Applicationsから起動可能です。

16-OCT-2015


UEFI Class 3とは何か?

 

 ProLiant DL580 Gen8と ProLiant Gen9では UEFIは Class 2仕様が実装されています。Class 2仕様では CSM(compatibility support mode)の搭載を行っているため、従来の BIOS仕様な ProLiantと同等となる Legacy(BIOS)ブートモードと UEFIブートモードの切り替えが可能でしたが、Class 3では CSMが実装されていないため UEFIブートモードでの利用しか行えません。ProLiant XL260a Gen9が Class 3実装となります。

23-FEB-2017


同じ Workload Profilesを選択したのに設定が異なるが?

 

 ProLiant Gen10では稼働させるシステム用途毎に応じた RBSUのグループ設定として Workload Profilesを用意しています。Virtualization Max Performance, Low Latency, Mission Critical, I/O Throughput等 13種が用意されています。例えば、High Performance Computeを選択した場合、SR-IOV, VT-D, VT-x, x2APIC等の項目が disabledとなります。Power Regulatorは Static Highとなり、各種 C-Stateも利用されなくなります。これらの項目は RBSUの個別メニューでは表示確認が可能なだけで設定は固定されて、変更ができない状態となります。本 Profileから標準設定の General Power Efficient Computeに戻した場合、この Profileでは SR-IOV, VT-D, VT-xの値は `編集可能(editable)`な値となっておりデフォルトの値を持ちません。このため、工場出荷直後での General Power Efficient Computeが選択されているシステムと、一旦別の Profileを選択したり Customを選択して個別の値を変更した後で、General Power Efficient Computeを選択したシステムでは`編集可能`となっている個別の設定項目が異なります。全ての項目を独自に設定したい場合には、Customを選択してください。

20-OCT-2017


Boot from URLから ISOの起動は可能か?

 

 ProLiant Gen9の場合、boot from URLに対応した ISOイメージであれば可能です。tftpや dhcp等のサーバを用意せずともインストール用 ISOメディア(Full ISOからの起動は正式サポートではありません)を httpサーバ上に用意しておくだけで、インストールが可能です。ProLiant Gen10の場合には dhcp, dnsサーバを別途用意する必要があります。ProLiant Gen9の Boot from URL機能は UEFI 2.4仕様に加えて HPE独自の実装を行っていましたが、ProLiant Gen10では UEFI 2.6仕様で標準化されたものを採用しているため Gen9とは機能差異があります。HPEは Boot from URLの仕様に対して Static IPサポートの採用を働きかけています。

 ProLiant Gen9で Boot from URLを利用する一つの方法として、ネットワーク接続された ProLiant Gen9だけでインストールを行う事が可能となります。例えば SUSE Linux Enterprise Server 12/SP3(Full ISOからの起動は正式サポートではありません)を http://1.1.1.1/iso/sles12sp3.iso として用意し、更に loopbackマウントしたものを http://1.1.1.1/iso/a/ に用意しておきます。ProLiant Gen9の RBSUで Network Option ⇒ Pre-Boot Network Settingsでネットワーク設定を行い、Boot from URLには `http://1.1.1.1/iso/sles12sp3.iso`を指定します。One-Time Boot Menuには `URL File : http://1.1.1.1/iso/sles12sp3.iso` が追加されていますので指定してシステムを起動します。Downloading from URL... でインストーラのロードが行われます。Installationを指定します。Choose the URL to retry.と聞かれますので [ESC]を押し Select the language画面でキーボードと言語を指定し、Main Menuから Start Installationを選択し、Network Setupからネットワーク設定を行い、Installationを選択、Networkを選択、HTTPを選択し isoメディアを提供しているサーバ(先ほどの例: `1.1.1.1`)を入力、Enter the directory on the serverに対して `/iso/a`を入力して進める事で GUIインストーラが起動します。インストーラの更新と SUSE用社外サイトへのアクセス(もしくは timeout)を待ちます。Yast2で usb-storageが発見されたとのメッセージが出る場合には [OK]を押します。あとは、通常のインストールが可能です。

04-FEB-2019, revised 28-MAY-2019

ハード一般

 

SystemEraseで二重化ROMが切り替わるが?

 

 ProLiant DL380 G2等では system BIOSを二重化できます。格納されている system BIOSが異なるバージョンで、古い方を primaryに設定していた場合、SystemEraseを起動すると、新しい方の BIOSを primaryに切り替えます。これは本来の設計通りの動作です。

25-SEP-2001, revised 17-JUL-2018

 

サポートを受ける際にどんな情報を用意しておけばいいのか?

 

 HPEへの問い合わせをする際には、発生した問題の詳細な説明とエラーメッセージ以外の情報として、ハードウェアと OS情報のご提供をお願いしています。ハードウェア情報は ProLiant Gen8以降の場合には、iLOが収集している AHS(active health system)ログのご提供。ProLiant G7迄の場合には、#dmesgや iLO等の画面から各種コントローラの種類とそのファームウェア情報と SmartArray等の設定情報の提供をお願い致します。OS等のソフトウェア情報については、ディストリビューションに付属のレポートツール(#sosreport(Red Hat)や #supportconfig(SUSE)等)のログのご提供をお願い致します。レポートツールが利用できない場合には、下記に相当する情報があれば システム構成の把握に掛かる時間が軽減されます。

ディストリビューションの種類、バージョン、CPUアーキテクチャ

・/etc/redhat-release
 もしくは /etc/os-release等

・lspci -v

・uname -a

・/proc/meminfo

・/proc/cpuinfo

・rpm -qa --last

・dmesg

・lsmod

・dmidecode

・ps -ef

・ip addr
 もしくは ifconfig -a

・systemctl list-unit-files -t service
 もしくは chkconfig --list

・mount

・/var/log/messages

・/var/log/boot.log

・/var/log/mcelog

・/boot/grub/grub.conf等のブートローダ設定ファイル

・/etc/fstab

08-AUG-2011 revised 13-DEC-2018


仮想インストールディスクは Linux対応なのか?

 

 RBSUを搭載した ProLiant(主に 300以上)では NVRAM上に仮想インストールディスク(VID)を保持しています。利用するディスクツール等によってはこの領域が VFAT領域として認識できる場合がありますが、この領域は Windowsのインストール時に追加ドライバをロードさせるための read-onlyなストレージ領域となっています。このため、Linuxからの利用はできません。

 

 [21-MAY-2012] ProLiant Gen8の VIDには RHEL, SLES用ドライバが同梱される様になりました。詳細はIntelligent Provisioning(IP)の技術情報をご覧ください。

20-JAN-2012, revised 21-NOV-2014


CPLD/SPLDファームウェアとは何か?

 

 Complex/System Programmable Logic Deviceの略で、通常の ProLiant本体用ファームウェア以上にハードウェアに密接したファームウェアです。他のファームウェアとは異なり、リモートでのデプロイや自動でのデプロイには適していません。詳細については機種毎のリリースノート、HP ProLiant Firmware Managementプランニングガイドベストプラクティスをご覧ください。

07-FEB-2012


CPLD/SPLDファームウェアのアップデート後には電源を落とす必要があるのか?

 

 電源を落とすだけではなく、ACケーブルを 30秒以上の間外す必要があります。c-classブレードの場合にはシャーシから 30秒以上抜く必要がある事を意味します。詳細については機種毎のリリースノート、HP ProLiant Firmware Managementプランニングガイドベストプラクティスをご覧ください。

 

 [13-DEC-2018]CPLD/SPLDでも E-FUSEにより電源を 30秒抜く等の作業が不要な場合があります。また、CPLD/SPLD以外のデバイスであっても電源を 30秒抜く必要がある場合もあります。詳細は各ファームウェア向けのリリースノート等で確認してください。

24-FEB-2012, revised 13-DEC-2018


HPEが提供する不具合情報を定期購読したいが?

 

 Customer Advisoryから希望する製品の Customer Advisory等のメールによる定期購読が可能です。Customer Advisoryには ProLiant本体、オプションカード、HDD等のファームウェアの最新状況・不具合情報、HPEが提供する各種ソフトウェアの最新情報・不具合情報等がレポートされています。

28-FEB-2012


ユーザーパーティションは起動可能なのか?

 

 ProLiant Gen9から搭載された iLO4が保持する NAND領域の内 1GB分をユーザーパーティションとして利用が可能です。 一般的な USB-keyと同様に利用可能で、この領域は ProLiant Gen9を UEFIモードで利用した場合にのみ、本デバイスからのシステムの起動をサポートします。但し、本領域は RAID配下の SSD等の様に耐障害性に秀でたものではなく、あくまで一般の USB-keyと同等のものとなるため、一般の OS等の導入として利用するのではなく、NANDの特性を考慮した OSでの利用を推奨します。詳細はHP ProLiant Gen9サーバー用 HP UEFI展開ガイドをご覧ください。

04-DEC-2015


Shared Memory機能とは何か?

 

 HPE Shared Memory機能とは、ProLiant Gen8, Gen9の iLO4がデバイスを監視するために利用している特定のメモリ領域の利用設定をするためのものです。ProLiantはこのメモリ領域を温度センサーである Sea of Sensorsが利用しています。このメモリ領域を指定した特定のアプリケーションを稼動させる場合には、本機能を disabledとして、Sea of Sensorsから明け渡す事でアプリケーション側にメモリ領域を開放する事が可能です。
 この領域を必要とするアプリケーションは Intelの DPDK(data plane developer kit)と PCI Pass-through機能が該当します。

 

 [11-JAN-2019] ProLiant Gen10は Shared Memory機能に関係なく DPDK, PCI Pass-through機能が利用可能になりました。

15-MAR-2017, revised 11-JAN-2019


Shared Memory機能の変更方法は?

 

 ProLiant Gen9の場合には POST時の [F9]からの System Configuration ⇒ Slot X Port X: HP Ethernet 10Gb 2port 5xxSFP+ Adapter ⇒ Device Level Configuration ⇒ Disable HPE Shared Memory Featureから設定可能です。この設定は NICの port毎に行うものです。NICによっては Enabledと Disabledの指定が逆(Disabledにしますか?の問いに対しては Enabledにする事でメモリ領域開放)になっているものがありますので注意が必要です。
 ProLiant Gen8の場合には、RBSUでの設定は行えませんので、STK(Smart Scripting Toolkit)に同梱されている conrepユーティリティを利用し RMRDS(reserved memory range device scope)設定を PCIバススロットに対して変更するための conrep_rmrds.xml(local)ファイルを下記の手順でロードさせる事で対応可能となります。詳細はc04781229をご覧ください。 

        #rpm -ivh hp-scripting-tools-x.x.x.x.rpm
        #conrep -s -f show.xml -x conrep_rmrds.xml ; cat show.xml
             …
          < Section name="RMRDS_Slot3" helptext=".">Endpointes_Included< /Section>
             …
        #echo `< conrep>< section name="RMRDS_Slot3"
        helptext=".">Endpoints_Excluded< /section>< /conrep>` > exclude.dat
        #conrep -l -x conrep_rmrds.xml -f exclude.dat
             …
          XML System Configuration: conrep_rmrds.xml
          Hardware Configuration: exclude.dat
          Conrep Return Code: 0
             …
        #conrep -s -f show.xml -x conrep_rmrds.xml ; cat show.xml
             …
          < Section name="RMRDS_Slot3" helptext=".">Endpointes_Excluded< /Section>
             …   

 [15-OCT-2018] ProLiant Gen10からは Shared Memoryに関係なく DPDK, PCI Pass-through機能が利用可能になっています。

16-MAR-2017, revised 15-OCT-2018


Shared Memory機能を disabledにした場合の影響は?

 

 ProLiant Gen8, Gen9で HPE Shared Memory機能をデフォルトではない disabledで利用した場合、ProLiantで利用できなくなる機能としては、設定した NICに対する温度センサーと AHS(active health system)ロギング機能が利用できなくなります。

 

 [15-OCT-2018] ProLiant Gen10からは Shared Memoryに関係なく DPDKが利用可能になっており、且つ Active Health Agent(ocsbbd, tg3sd)は Gen10よりサポートされなくなりました。

21-MAR-2017, revised 15-OCT-2018


RMRR通信が出来ないが?

 

 ProLiant Gen8, Gen9では管理プロセッサである iLO4がデバイスを監視するためのステータスを取得するために RMRR(reserved memory region reporting)を利用したメモリ領域を利用して通信を行っています。このメモリ領域を指定して利用するアプリケーションを稼動させるには、ProLiant側でこの領域を利用しない設定が必要となります。詳細はShared Memory機能とは何か?からの流れとなる FAQ群をご覧ください。

 

 [15-OCT-2018] ProLiant Gen10からは Shared Memoryに関係なく DPDK, PCI Pass-through機能が利用可能になっています。

03-APR-2017, revised 15-OCT-2018

Open Source & Linux

2015年11月1日付でHewlett-Packard CompanyをHewlett Packard Enterprise Company とHP Inc.に分社する以前に販売された製品については、現在のモデルと異なる、古い製品名およびモデル番号である場合があります。