作者 陈怀临 | 2011-07-06 02:38 | 类型 专题分析, 云计算, 弯曲推荐 | 55条用户评论 »
工具箱 本文链接 | | 打印此页 | 55条用户评论 »
“弯曲出品--罗依 (Roy)。《云计算数据中心网络技术》(PDF)”有55个回复
很棒,很不错的分享。
作者先晒晒背景,不然就是写一堆xx。
呵呵,作者就是个对技术比较感兴趣的普通工程师,没啥背景,写本文的目的自娱的因素更多一些,发出来给志趣相投的技术同好分享。希望可以让更多的人能从中得到帮助,欢迎大家转发,用xxx代表作者完全没还有问题。:)
like
已经下载了还没来得及看。麻烦请教一下大的2层vlan下广播问题是咋克服的?
作者的知识面很丰富,十分佩服。希望能对LB的部分做更细致的研究,以免有误导读者之嫌。
有些图没有贴上,看起来不连贯
楼上的朋友说得很对,我发现问题是我安装的 pdfmaker 和某些 smartart 不太兼容,所以导致某些部分的 smartart 没有转换出来。 后来我又重做了一份图片没问题的,只能麻烦首席重发了…囧rz…
ROY很棒!数据中心从产业发展到技术细节都看的很清楚,而且视野宽广。 不到30岁能有如此见地,佩服佩服。
写的真好,俺喜欢的文风!
信息量很大,看得出作者是个全才。敬仰,学习。看了一整天了,有点消化不良。。。
问个问题,做1TB的ROM要多少钱?多大的功耗?
关于作者提到数据中心选址遇到光纤瓶颈的问题,我认为在中国不是主要瓶颈,中国运营商建设光缆都是不计成本的,为了个偏远的小基站都建光缆过去,国外一般为了省钱都是微波搞定的。 数据中心不建在很偏远的地方,主要还是电力限制和维护管理的限制。
借宝地问个问题: 交换机硬件接收以太帧时,如果界定FCS开始?毕竟Payload是变长的,应该不是深入上层报文,通过其Length值来计算吧?谢谢先。
我有个想法,想去实现。 http://bbs.chinaunix.net/thread-3562729-1-1.html
Natalia, PCS层通过线路上的编码会知道数据流的开始和结束,MAC层会把实时计算的CRC与最后32位比较。
之前已经有人答复过了,和大部分协议类似,ethernet frame是有帧间隙和前导码的
PDF更新了。之前的好像有点问题。
To nexus,理客 通过Preamble和IPG是可以界定帧的开始和结束,802.3上讲是通过SSD(Start-of-Stream delimiter)和ESD(End-of-Stream delimiter)。 我想问的是:知道了帧开始、结束位置,如何知道FCS位置?是直接取倒数4 Bytes作为FCS吗?毕竟线路上有可能会错,比如原来的FCS后面或者前面在线路上增加了一些bits。 一些测试仪器上有dribble bit error的统计,一些资料上说dribble是FCS后面多出了一些bit,如果把倒数4 Bytes作为FCS的方法,那么FCS后面就应该没有其它数据,不会有dribble的说法。
Natalie, Preamble 实际上是 PHY的PCS层收到/J/K/编码后转换的。详细的情况你看看下列的文档就知道了。http://www.iol.unh.edu/services/testing/fe/training/100BASE-X%20PCS.pdf
to Natalia,抱歉,我只知皮毛,弯曲里水深高人潜水多,这是个简单问题,定有人能回答
To Natalia:可以认为FCS就是最后4个字节,至于你提到的dribble bit error等等应该是物理层能够感知的东西,而且是早期的以太网–10/100的时候才会有。不管怎么说,在帧里FCS是没有特殊标识的。
Roy 兄不是姓镇吧?
写得挺好,受教良多
好文章最好能够打上弯曲的水印啊,否则被别人盗版,就可惜了!
希望弟兄们不要嫉妒ing。。。我这几天会有机会与Roy见面。。。
1、总体确实写得很棒,信息量相当丰富,可见其阅读量之大,文风也属粗中有细类型; 2、参照BS25999类似的业务连续性实践据我所了解也仅有在文中所提到的公字头产业中有所应用,当然水平参差不齐; 3、无论是技术角度,抑或是商业角度,都没有绝对的王者,否则将失去发展的动力; 4、出差途中,阅读良篇。
这个年头技术泛滥,很多时候是“被引导”: 1 FCOE: FCIP很好啊,网络厂家也都支持了,有测试表明同FCOE比较综合性能基本相当,看似SERVER升级选择FCIP演进到全IP更适合,新搞一套那么复杂的FCOE过渡技术价值何在呢? 2 DCB:以太一般运营使用对于点到点方式,还没有听说运营商有改进需求。以太技术要的就是简单成本低,DCB引入很多TE流量工程方法,除了给FCOE用又价值何在? 3 QBH:网络层面就是一个虚拟交换机,FEX中心成了转发扩展瓶颈,还不如搞个虚拟堆叠技术继承性好。 4 OTV:现有的VPLS少量改进完全可以满足需求了, 节点间互联数量本来就不多,能用现有城域网/IP专网为何要新搞一套?
5 VDC/LIST:就是LR吧,与网络多虚一简化管理趋势背离,只在按业务划分网络拓扑上有用,有用不宜多。LIST是针对VM迁移三层网络多站点选址技术?多少年没用起来估计后续也没戏。
6 数据中心L2/L3:现在流行三层到边缘,为何数据中心是例外不能三层到TOR?仅仅因为VM IP不变迁移后网关网段不一致问题吗。从容量上L2的MAC扩展性不如IP路由聚合扩展性。L3现在盛行分布式控制,如果VRRP/BRAS采用AGG统一控制、分布到TOR代理,做到IP地址SITE位置/性能无关。是否L3数据中心才是王道呢?
Roy,兄弟你太有才了,有无博客??
作者写得不错,802.1qbg和802.1qbh但只讲了转发面,实际上802.1qbg的管理面、控制面扩展了很多,需要网卡、vm端开发。这也是难以实现推进的层面
首席,怎么只有一个目录呢?很想看看这部大作啊,这个是可以下载的吗?或者付费的话也行啊。。。。。。另外,知道的朋友们能否告知一下如何能够下载到这本书啊。。。。。。。。。
详细读过,淋漓尽致,作者对于市场、行业、技术非常有见地,赞一个!
这是一篇针对数据中心技术的总结性文章!只有对这些技术进行过潜心研究的技术专家,才可能写出如此好的文章,建议大家有时间仔细读读,将受益匪浅!
受益匪浅,认真研读
Great article, can Roy please comment on BrocadeOne strategy also? or BrocadeOne is totally irrelevant?
现在大家都有一种误解,认为 TRILL = FabricPath。应当仔细去读相关的文件,比如 Cisco Live 2011 的 BRKDCT-2081,等等。TRILL 拼了命的往 Cisco 靠,而 Cisco 只是想借 TRILL 证明自己在往标准化走。其实这两者的连数据层面上的转发机制都完全不同,如何能走到一起?TRILL 的数据格式在 2006 年就已经定了,而 FaricPath 的数据格式是在 2010 年才出来的,难道在此之前 Cisco 没读过 TRILL 标准?那么 Cisco 为什么不用现成的 TRILL,自己又去定义一个新的数据格式?
既然谈到一类新的网络–云网络,那么云网络究竟是园区网的属性多一些,还是运营商网的属性多一些?我看还是属于需要控制的运营商网络的属性多一些吧。 TRILL是从园区网发展而来的,从设计上来看,就是在标准七层中的二层和三层之间增加了一个TRILL层,这样原来的二层以太网被限制在了点对点(本地链路或者本地网络上)的路径上,而用TRILL层实现了端到端的路径。 FabricPath 就是为数据中心而设计的,用的就是 MACinMAC 的封装,只是对原来的 MAC 进行了新的定义,用的是端到端的转发,它的网络可以看成是一个 Fabric,既与一台以太网交换机类似。 TRILL的另一个大问题是对原有端到端的以太网协议均不能支持(点对点的还是可以支持的),所以大家可以看到玩TRILL的伙计们在IETF中忙碌的身影。到是不错,这工作还能维持几年,饭碗是没问题了。
TRILL的真正应用领域应该回到它自己的原点,也就是园区网上。TRILL协议中接近一半的内容是关于如何与现有以太网络的共存和并行运行上,这些内容在数据中心中基本没用。现在广泛被认可的二层胖树网络架构中,ECMP 也发挥不出什么优势,何苦非要去伴个大款,想方设法地去上Cisco,没必要。 在数据中心这个特殊的应用场景下,FabricPath 从各方面来说都比 TRILL 要强,主要的问题是私有协议。不过这也说不准,那天说不定 Cisco 就在 IETF 来一个新标准。
很不错的文章。喜欢。
28楼的兄弟要注意了,多读书哦
fabricpath和trill的比较就类似于cisco的vlan技术一样,源于标准,但是比标准多做了一点儿内容,本质来看两个东西就是一个,可以兼容互通的
恩,这本书不错,有比较多的新技术。唯一的问题就是没有主线,没有讲清楚各个点之间的发展脉络,比如说,虚拟实际上是由数据中心和云计算带来的变革。。。
文章和openflow那个比较,都代表了网络发展的方向,也是我心仪的方向!
看错了,作者是ROY。。
看完了,前面数通设备还是看懂了,后面IT设施没看懂,继续学习啊。 写这种文章很辛苦,小伙子应该在PDF里属个名啥的,也好在老家伙的江湖中留下一抹青春亮色啊。首席看看联系下作者,给补上联系方式啥的,好歹也是人家两个月的辛苦成绩。
非常不错,学习了一天。感兴趣Roy到底是哪的?
我知道而且见过面。但作为曾经的共青团员,我是不会说的,除非美人计。。。
如果是大二层网络,在一个DC POD中,可能就会有上万台服务器。有什么较好的控制广播包的方法呢。
ROY有没有微博啊,私信一下哈哈
懒人罗依,在新浪
不错的文档,支持一下。 最近正在了解云的内容,就是没系统看过,都是东瞅西看。
trill和fabricpath数据帧格式都完全不同,怎么互通,怎么可能互通?
实在不懂。为何要从IP又回到以太网呢
以太网没有IP的聚合路由,端点数上了规模之后怎么组网。几万台服务器放在一个局域网中?
这篇文章读了两遍了,每次读都受益匪浅。 后记里面作者说会有其他的一些后篇的文章,求首席能发一些ROY后篇的文章。 还有,求BLOG地址啊
当时感觉很好,实则没懂。最近自己设计系统,这篇文章中的信息量非常大,要常放枕边…
很棒,很不错的分享。
作者先晒晒背景,不然就是写一堆xx。
呵呵,作者就是个对技术比较感兴趣的普通工程师,没啥背景,写本文的目的自娱的因素更多一些,发出来给志趣相投的技术同好分享。希望可以让更多的人能从中得到帮助,欢迎大家转发,用xxx代表作者完全没还有问题。:)
like
已经下载了还没来得及看。麻烦请教一下大的2层vlan下广播问题是咋克服的?
作者的知识面很丰富,十分佩服。希望能对LB的部分做更细致的研究,以免有误导读者之嫌。
有些图没有贴上,看起来不连贯
楼上的朋友说得很对,我发现问题是我安装的 pdfmaker 和某些 smartart 不太兼容,所以导致某些部分的 smartart 没有转换出来。
后来我又重做了一份图片没问题的,只能麻烦首席重发了…囧rz…
ROY很棒!数据中心从产业发展到技术细节都看的很清楚,而且视野宽广。
不到30岁能有如此见地,佩服佩服。
写的真好,俺喜欢的文风!
信息量很大,看得出作者是个全才。敬仰,学习。看了一整天了,有点消化不良。。。
问个问题,做1TB的ROM要多少钱?多大的功耗?
关于作者提到数据中心选址遇到光纤瓶颈的问题,我认为在中国不是主要瓶颈,中国运营商建设光缆都是不计成本的,为了个偏远的小基站都建光缆过去,国外一般为了省钱都是微波搞定的。
数据中心不建在很偏远的地方,主要还是电力限制和维护管理的限制。
借宝地问个问题:
交换机硬件接收以太帧时,如果界定FCS开始?毕竟Payload是变长的,应该不是深入上层报文,通过其Length值来计算吧?谢谢先。
我有个想法,想去实现。
http://bbs.chinaunix.net/thread-3562729-1-1.html
Natalia, PCS层通过线路上的编码会知道数据流的开始和结束,MAC层会把实时计算的CRC与最后32位比较。
之前已经有人答复过了,和大部分协议类似,ethernet frame是有帧间隙和前导码的
PDF更新了。之前的好像有点问题。
To nexus,理客
通过Preamble和IPG是可以界定帧的开始和结束,802.3上讲是通过SSD(Start-of-Stream delimiter)和ESD(End-of-Stream delimiter)。
我想问的是:知道了帧开始、结束位置,如何知道FCS位置?是直接取倒数4 Bytes作为FCS吗?毕竟线路上有可能会错,比如原来的FCS后面或者前面在线路上增加了一些bits。
一些测试仪器上有dribble bit error的统计,一些资料上说dribble是FCS后面多出了一些bit,如果把倒数4 Bytes作为FCS的方法,那么FCS后面就应该没有其它数据,不会有dribble的说法。
Natalie, Preamble 实际上是 PHY的PCS层收到/J/K/编码后转换的。详细的情况你看看下列的文档就知道了。http://www.iol.unh.edu/services/testing/fe/training/100BASE-X%20PCS.pdf
to Natalia,抱歉,我只知皮毛,弯曲里水深高人潜水多,这是个简单问题,定有人能回答
To Natalia:可以认为FCS就是最后4个字节,至于你提到的dribble bit error等等应该是物理层能够感知的东西,而且是早期的以太网–10/100的时候才会有。不管怎么说,在帧里FCS是没有特殊标识的。
Roy 兄不是姓镇吧?
写得挺好,受教良多
好文章最好能够打上弯曲的水印啊,否则被别人盗版,就可惜了!
希望弟兄们不要嫉妒ing。。。我这几天会有机会与Roy见面。。。
1、总体确实写得很棒,信息量相当丰富,可见其阅读量之大,文风也属粗中有细类型;
2、参照BS25999类似的业务连续性实践据我所了解也仅有在文中所提到的公字头产业中有所应用,当然水平参差不齐;
3、无论是技术角度,抑或是商业角度,都没有绝对的王者,否则将失去发展的动力;
4、出差途中,阅读良篇。
这个年头技术泛滥,很多时候是“被引导”:
1 FCOE: FCIP很好啊,网络厂家也都支持了,有测试表明同FCOE比较综合性能基本相当,看似SERVER升级选择FCIP演进到全IP更适合,新搞一套那么复杂的FCOE过渡技术价值何在呢?
2 DCB:以太一般运营使用对于点到点方式,还没有听说运营商有改进需求。以太技术要的就是简单成本低,DCB引入很多TE流量工程方法,除了给FCOE用又价值何在?
3 QBH:网络层面就是一个虚拟交换机,FEX中心成了转发扩展瓶颈,还不如搞个虚拟堆叠技术继承性好。
4 OTV:现有的VPLS少量改进完全可以满足需求了,
节点间互联数量本来就不多,能用现有城域网/IP专网为何要新搞一套?
5 VDC/LIST:就是LR吧,与网络多虚一简化管理趋势背离,只在按业务划分网络拓扑上有用,有用不宜多。LIST是针对VM迁移三层网络多站点选址技术?多少年没用起来估计后续也没戏。
6 数据中心L2/L3:现在流行三层到边缘,为何数据中心是例外不能三层到TOR?仅仅因为VM IP不变迁移后网关网段不一致问题吗。从容量上L2的MAC扩展性不如IP路由聚合扩展性。L3现在盛行分布式控制,如果VRRP/BRAS采用AGG统一控制、分布到TOR代理,做到IP地址SITE位置/性能无关。是否L3数据中心才是王道呢?
Roy,兄弟你太有才了,有无博客??
作者写得不错,802.1qbg和802.1qbh但只讲了转发面,实际上802.1qbg的管理面、控制面扩展了很多,需要网卡、vm端开发。这也是难以实现推进的层面
首席,怎么只有一个目录呢?很想看看这部大作啊,这个是可以下载的吗?或者付费的话也行啊。。。。。。另外,知道的朋友们能否告知一下如何能够下载到这本书啊。。。。。。。。。
详细读过,淋漓尽致,作者对于市场、行业、技术非常有见地,赞一个!
这是一篇针对数据中心技术的总结性文章!只有对这些技术进行过潜心研究的技术专家,才可能写出如此好的文章,建议大家有时间仔细读读,将受益匪浅!
受益匪浅,认真研读
Great article, can Roy please comment on BrocadeOne strategy also? or BrocadeOne is totally irrelevant?
现在大家都有一种误解,认为 TRILL = FabricPath。应当仔细去读相关的文件,比如 Cisco Live 2011 的 BRKDCT-2081,等等。TRILL 拼了命的往 Cisco 靠,而 Cisco 只是想借 TRILL 证明自己在往标准化走。其实这两者的连数据层面上的转发机制都完全不同,如何能走到一起?TRILL 的数据格式在 2006 年就已经定了,而 FaricPath 的数据格式是在 2010 年才出来的,难道在此之前 Cisco 没读过 TRILL 标准?那么 Cisco 为什么不用现成的 TRILL,自己又去定义一个新的数据格式?
既然谈到一类新的网络–云网络,那么云网络究竟是园区网的属性多一些,还是运营商网的属性多一些?我看还是属于需要控制的运营商网络的属性多一些吧。
TRILL是从园区网发展而来的,从设计上来看,就是在标准七层中的二层和三层之间增加了一个TRILL层,这样原来的二层以太网被限制在了点对点(本地链路或者本地网络上)的路径上,而用TRILL层实现了端到端的路径。
FabricPath 就是为数据中心而设计的,用的就是 MACinMAC 的封装,只是对原来的 MAC 进行了新的定义,用的是端到端的转发,它的网络可以看成是一个 Fabric,既与一台以太网交换机类似。
TRILL的另一个大问题是对原有端到端的以太网协议均不能支持(点对点的还是可以支持的),所以大家可以看到玩TRILL的伙计们在IETF中忙碌的身影。到是不错,这工作还能维持几年,饭碗是没问题了。
TRILL的真正应用领域应该回到它自己的原点,也就是园区网上。TRILL协议中接近一半的内容是关于如何与现有以太网络的共存和并行运行上,这些内容在数据中心中基本没用。现在广泛被认可的二层胖树网络架构中,ECMP 也发挥不出什么优势,何苦非要去伴个大款,想方设法地去上Cisco,没必要。
在数据中心这个特殊的应用场景下,FabricPath 从各方面来说都比 TRILL 要强,主要的问题是私有协议。不过这也说不准,那天说不定 Cisco 就在 IETF 来一个新标准。
很不错的文章。喜欢。
28楼的兄弟要注意了,多读书哦
fabricpath和trill的比较就类似于cisco的vlan技术一样,源于标准,但是比标准多做了一点儿内容,本质来看两个东西就是一个,可以兼容互通的
恩,这本书不错,有比较多的新技术。唯一的问题就是没有主线,没有讲清楚各个点之间的发展脉络,比如说,虚拟实际上是由数据中心和云计算带来的变革。。。
文章和openflow那个比较,都代表了网络发展的方向,也是我心仪的方向!
看错了,作者是ROY。。
看完了,前面数通设备还是看懂了,后面IT设施没看懂,继续学习啊。
写这种文章很辛苦,小伙子应该在PDF里属个名啥的,也好在老家伙的江湖中留下一抹青春亮色啊。首席看看联系下作者,给补上联系方式啥的,好歹也是人家两个月的辛苦成绩。
非常不错,学习了一天。感兴趣Roy到底是哪的?
我知道而且见过面。但作为曾经的共青团员,我是不会说的,除非美人计。。。
如果是大二层网络,在一个DC POD中,可能就会有上万台服务器。有什么较好的控制广播包的方法呢。
ROY有没有微博啊,私信一下哈哈
懒人罗依,在新浪
不错的文档,支持一下。
最近正在了解云的内容,就是没系统看过,都是东瞅西看。
trill和fabricpath数据帧格式都完全不同,怎么互通,怎么可能互通?
实在不懂。为何要从IP又回到以太网呢
以太网没有IP的聚合路由,端点数上了规模之后怎么组网。几万台服务器放在一个局域网中?
这篇文章读了两遍了,每次读都受益匪浅。
后记里面作者说会有其他的一些后篇的文章,求首席能发一些ROY后篇的文章。
还有,求BLOG地址啊
当时感觉很好,实则没懂。最近自己设计系统,这篇文章中的信息量非常大,要常放枕边…