何でもありの備忘録
by takahiro_komiya
S M T W T F S
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31
カテゴリ
以前の記事
2017年 05月
2017年 04月
2017年 03月
2017年 02月
2017年 01月
2016年 12月
2016年 11月
2016年 10月
2016年 09月
2016年 08月
2016年 07月
2016年 06月
2016年 05月
2016年 04月
2016年 03月
2016年 02月
2016年 01月
2015年 12月
2015年 11月
2015年 10月
2015年 09月
2015年 08月
2015年 07月
2015年 06月
2015年 05月
2015年 04月
2015年 03月
2015年 02月
2015年 01月
2014年 12月
2014年 11月
2014年 10月
2014年 09月
2014年 08月
2014年 07月
2014年 06月
2014年 05月
2014年 04月
2014年 03月
2014年 02月
2014年 01月
2013年 12月
2013年 11月
2013年 10月
2013年 09月
2013年 08月
2013年 07月
2013年 06月
2013年 05月
2013年 04月
2013年 03月
2013年 02月
2013年 01月
2012年 12月
2012年 11月
2012年 10月
2012年 09月
2012年 08月
2012年 07月
2012年 06月
2012年 05月
2012年 04月
2012年 03月
2012年 02月
2012年 01月
2011年 12月
2011年 11月
2011年 10月
2011年 09月
2011年 08月
2011年 07月
2011年 06月
2011年 05月
2011年 04月
2011年 03月
2011年 02月
2011年 01月
2010年 12月
2010年 11月
2010年 10月
2010年 09月
2010年 08月
2010年 07月
2010年 06月
2010年 05月
2010年 04月
2010年 03月
2010年 02月
2010年 01月
2009年 12月
2009年 11月
2009年 10月
2009年 09月
2009年 08月
2009年 07月
2009年 06月
2009年 05月
2009年 04月
2009年 03月
2009年 02月
2009年 01月
2008年 12月
2008年 11月
2008年 10月
2008年 09月
2008年 08月
2008年 07月
2008年 06月
2008年 05月
2008年 04月
2008年 03月
2008年 02月
2008年 01月
2007年 12月
2007年 11月
2007年 10月
2007年 09月
2007年 08月
2007年 07月
2007年 06月
2007年 05月
2007年 04月
2007年 03月
2007年 02月
2007年 01月
2006年 12月
2006年 11月
2006年 10月
2006年 09月
2006年 08月
2006年 07月
2006年 06月
2006年 05月
2006年 04月
2006年 03月
2006年 02月
2006年 01月
2005年 12月
2005年 11月
2005年 10月
2005年 09月
2005年 08月
2005年 07月
2005年 06月
2005年 05月
2005年 04月
2005年 02月
2005年 01月
2004年 12月
2004年 11月
タグ:fcoe ( 26 ) タグの人気記事
VN2VN and TDZ
VN2VN and TDZ indication


TDZ はともかく、VN2VN を推進する人がまだいるなぁ。
by Takahiro_Komiya | 2012-11-26 17:15 | ファイバチャネル
8GFC/10G iSCSI/10G FCoE の性能
うちのアダプタでの話ではないが、こんな資料がある。FCoE については資料がないが、8GFC と 10G iSCSI の性能についての資料だ。私の経験値としても、概ねこのような結果になることは複数ベンダのユニファイドストレージで確認している。

面白いのは、どのストレージ、スイッチ、アダプタベンダも 10GFCoE と 8GFC の性能比較を行なっていないことだ。これは結構自虐的だったりするのであまり出していないのだろう。

というわけで、8GFC/10G iSCSI/10G FCoE の iometer, RDBMS などの性能について知りたい方は「仮想化環境における SAN最適化 基礎講座」にお越しください。

ちなみにここでも書いているとおり、8GFCスイッチのポート単価は10GbEスイッチのポート単価より安いし、日本のデルのページを見ても、8GFC HBA と 10GCNA の値段はポート単価で3万円ほど 10G のほうが高い。Intel X520 10GBASE-T であれば逆に 5000円ほど安いが、スイッチのポート単価を埋めるほどにはなっていない。

#上記の議論は、アダプタとスイッチだけで、ストレージについては何も言っていないので注意
by Takahiro_Komiya | 2011-11-26 10:46 | ファイバチャネル
L2 multipath の使い方
Arista のこの表現は気になる。


So why did companies chase L2 multipath solutions? Hint: it wasn't for FCoE. It was for Virtualization! The main driver for Large, Flat Layer-2 Networks is because virtualization admins want to move VMs from one server to another, even across our vaunted routed boundaries. They don't want IP addressing decisions we made 10 years ago to influence their ability to put a workload on a server when they want and where they want. And when they do move a VM they prefer the TCP sockets stay open and the IP address not change - so they want a stateful live migration across existing L3 boundaries. The only realistic way to do this in the data center to date has been to build a Large, Flat Layer-2 Network.

途中省略

One thing important to point out: Neither Cisco's OTV, nor VMware's VXLAN (co-authored by Cisco's Dinesh Dutt and Arista's Ken Duda and others) support the transport of FCoE.


これは私がよく Twitter やセミナーで話すネタだが、Aristaもなにかやっているのか。やるなぁ。
by Takahiro_Komiya | 2011-09-22 09:22 | Ethernet
FCoE over distance がないから FCoE is dead???
某社(C社でもJ社でもない)から、FCoE は Distance Extension が無いので、死ぬだろうと言われている。いやいや、そんなことはない。

FCoE は FC protocol を Ethernet 、正確には DCB にカプセル化したもの。つまり、既存の FC のインフラが使えるわけだ。 FC の distance extension は今でも普通に FCIP が使われている。つまり、L2 の上に L3 でマッピングしているわけだ。こんなことは通常しないが、VLAN わけて VRF 切って他のネットワークと物理的に同居だってできる。

VDX6730 は NOS v2.1.1(残念ながらあと少しかかる)で FC-SAN 接続性ができる。つまり普通に上記が実現できる。

ちなみに、この某社の話ではストレージの Dual Fabric 性と Ethernet Fabric の Single Fabric 性については触れられていない。これは避けて通れない話だ。Block I/O ではフレームロストが性能ダウンだけではなく、システム停止につながる。したがって、FC-SAN の Dual Fabric 性は必須だ。

#FCoE についてはベンダー間でも複数の意見がある

メインフレームがまだ1000億単位のビジネスがあるように、UNIXマシンもなくならないし、ストレージも ESCON, FICON, FC は全くなくならない。むしろ、16GFC は価格的に 10GbE の値段だから8GFCよりもベンダアドプションが高い。つまり、ネットワークはハイブリッド化していく。

#InfiniBandだってあるし

新興 Ethernet 機器メーカとしてはそんなことは認めたくないだろうが、実際そう動いている。

話は変わるが、この blog でもしばしば書いているとおり、CloudPlex の distance extension がでれば(すみません、まだないです)、上記は関係なくなる。VXLAN も NV-GRE も大きな意味では統合されるだろう。



ということで、LAN/SAN の話も含め(レガシーからクラウドまでのハイブリッドなシステムを統合しなくてはならない)真のデータセンタファブリックをめざしています。
by Takahiro_Komiya | 2011-09-22 09:10 | ファイバチャネル
FCoE over TRILL
FCoE over TRILL ver.0
by takahiro_komiya | 2011-06-30 19:33 | Ethernet
Apresia 15000 FCoE License
Apresia 15000 の FCoE ライセンスが出ている

Native FCoE はともかく、FC-SAN をどう統合するのだろうか。Force10 のように頑張って FC ポート付けちゃうのだろうか?

QFX の FC ポートは E_Port じゃないからいいけど、FCF 持っているところだと、E_Port で接続するということだろうか。
by takahiro_komiya | 2011-05-03 16:42 | Ethernet
TRILL と multihop FCoE
このネタ書いた気がする。

先日、とある DCB スイッチを開発しているメーカーと話をする機会があった。残念ながら、ネットワーク的なサポータビリティ(原理主義的な)とシステムのサポータビリティ(保守サービス観点)での違いがご理解いただけなかったようであった。

ちなみに、DCBスイッチが世に出て1年以上経つわけだが、マルチホップFCoEがVDXで実現できるまでは、FCoEは現実的ではないとまで言われていた(でもビットアイルさんはちゃんとビジネスをしている)。なぜ、DCBスイッチとFCoE forwarderを搭載したスイッチをカスケードしてFCoEができないのかというと、それはスケーラビリティに問題が出るからである。

b0068870_1335650.jpg


FCoE の FIP ログインというサービスと、FIP Keep-Alive(FKA) というサービスはCPUで処理しているので、DCB スイッチでカスケードして、どんどん VN_Port 数を増やされてしまうと、スイッチが落ちてしまう。したがって、サポートの都合上、この構成を制限している。

あと、STPでつなげないか?ともいわれるが、これは重要な問題(ファブリック内のマルチパス(redundancy)がマルチパスにならない)を起こす。ということで、STPベースのFCoEもありえない。TRILL/SPB とかその他の ECMP がないとこれはうまくいかない。FCの場合、デュアルファブリックを形成するため、最悪、もう片方のパス(完全冗長かされたパス)に切り替わるが、Ethernetはシングルネットワーク(完全分離された冗長化ネットワーク)のため、マルチパスドライバの冗長化パスの設定ができない。

このあたりは
b0068870_13113922.jpg



という背景がわかると、VDXのマルチホップFCoEは現実的に動作する製品としていい感じなんて思ってしまう。
by takahiro_komiya | 2011-04-25 13:15 | Ethernet
VDX における FCoE の設定
VDX においては default で FCoE の基本パラメータが設定されている。

cee-map default
precedence 1
priority-group-table 1 weight 40 pfc on
priority-group-table 15.0 pfc off
priority-group-table 15.1 pfc off
priority-group-table 15.2 pfc off
priority-group-table 15.3 pfc off
priority-group-table 15.4 pfc off
priority-group-table 15.5 pfc off
priority-group-table 15.6 pfc off
priority-group-table 15.7 pfc off
priority-group-table 2 weight 60 pfc off
priority-table 2 2 2 1 2 2 2 2
remap fabric-priority priority 0
remap lossless-priority priority 0
!
fcoe
fabric-map default
vlan 1002
priority 3
virtual-fabric 128
fcmap 0E:FC:00
advertisement interval 8000
keep-alive timeout
!
map default
fabric-map default
cee-map default
!
!


したがって、dcbx の設定(これは BR8000 と同じ)と interface の設定をすればFCoE で動作する。


!
protocol lldp
advertise dcbx-fcoe-app-tlv
advertise dcbx-fcoe-logical-link-tlv
advertise dcbx-tlv
!

interface の設定。

interface TenGigabitEthernet 3/0/9
fabric isl enable
fabric trunk enable
switchport            <-- ここを追加(FCoE ではなく通常の通信のために設定)
switchport mode access <-- ここを追加(FCoE ではなく通常の通信のために設定)
switchport access vlan 1 <-- ここを追加(FCoE ではなく通常の通信のために設定)
fcoeport default        <-- ここを追加(FCoE の設定)
no shutdown


#ちなみに FCoE をやるためには VCS が動いていないといけない(Fabric Service のため)
by takahiro_komiya | 2011-01-12 19:47 | Ethernet
DELL All-in-One switch がキター
DELL のブレードサーバ向けの組み込みスイッチとCNAがキター

Dell M84270k Converged 10GbE switch

Brocade BR1741M-k 10 Gbps Converged Network Adapter (CNA)
by takahiro_komiya | 2010-12-08 09:54 | Ethernet
BitIsle Cloud Isle ネットワーク基盤
こんな事例が記事になりました。FCoE の本番向け採用が始まったという話です。他にもいろいろなところで紹介されています。

基本動作の問題はないのですが、製品スペック上、Brocade8000 では不可能な要件(1G/10G, 2筐体間の仮想トランク)もあり、他社との組み合わせになっています。

まぁ、このあたりは、来週発表予定の製品が出れば、全部BrocadeでOKですけどね。
by takahiro_komiya | 2010-11-10 09:32 | Ethernet