思科核心路由器CRS-1与SPP处理器的研究–端口配置

Sina WeiboBaiduLinkedInQQGoogle+RedditEvernote分享




CRS-1产品家族的4,8和16线卡槽的线卡机(Line Card Shelf)可以单独作为路由器被安放在网络的节点上,也可以通过24槽的交换互联机(Fabric Shelf)互联形成一个强大的路由器阵列,提供超大规模的IP/MPLS报文交换能力。

从微观角度观察,其最基本的数据通信的粒度就是通过位于线卡机上的线卡(Line Card)的接口模块(Interface Module)所提供的。这里读者注意一个CRS-1的概念和术语:CRS-1上的线卡其实是包括3个部分(硬件):接口模块卡(Interface Module),模块服务卡(Modular Services Card)和中间板(Midplane)。换言之,线卡是2个硬件卡通过插在中间板上组合形成。

CRS-1产品系列支持如下的接口模块:

×40Gbps端口的OC-768c/STM-256PoS卡。这个(40Gbps)卡上就是只有一个(40Gbps)端口(Port)。

×10Gbps端口的OC-192c/STM-64c PoS/DPT卡。这个(40Gbps)卡上有4个端口。4×10Gbps=40Gbps。

×10Gbps端口的Ethernet以太卡。这个卡上有8个10Gbps以太端口。40Gbps交换。可以Oversubscribe只利用4个端口。

×2.5Gbps端口的OC-48c/STM-16c PoS/DPT卡。这个(40Gbps)卡上有16个端口。16×2.5Gbps=40Gbps。

×40Gbps端口的OC-768c/STM-256 tunable WDMPOS卡。这个(40Gbps)卡就是只有一个(40Gbps)端口(Port)。

×10Gbps端口的Ethernet 以太tunable WDMPHY卡。这个(40Gbps)卡上有4个端口。4×10Gbps=40Gbps。

对于4,8,16卡槽的CRS-1线卡机,针对上述的端口,其配置相应为:

×4, 8, 或16 个OC-768c/STM-256 PoS端口

×16, 32, 或64个 OC-192c/STM-64c PoS/DPI端口

×32, 64, 或128个 10 Gigabit Ethernet以太端口

× 64, 128, 或256个 OC-48c/STM-16c PoS/DPT端口

× 4, 8, 或 16个 OC-768c/STM-256 tunable WDMPOS 端口

×16, 32, 或64个 10 Gigabit Ethernet tunable WDMPHY端口

当CRS-1线卡机通过最多可达8个Fabric交换机互联起来时,线卡机的数量可达72个。因此,在最大容量下,这72个线卡机可以都是16槽的线卡机。因此,CRS-1多机组的最大交换容量为:

× 72个线卡机

×(最多)8个Fabric交换机互联

×交换能力:72×(16*40Gbps)*2=92160Gbps=92Tbps (16*40Gbps*2是一个16卡槽的线卡机的双向交换能力)

×支持40Gbps接口模块:1152 个40Gbps接口模块(72×16=1152个40Gbps接口模块)

× 1152 OC-768c/STM-256 PoS 个端口

× 4608 OC-192c/STM-64c PoS/DPT 端口

× 9216 10 Gigabit Ethernet 端口

× 18,432 OC-48c/STM-16c PoS/DPT 端口

× 1152 OC-768c/STM-256 tunable WDMPOS 端口

× 4608 10 Gigabit Ethernet tunable WDMPHY端口

下图所示为各种接口模块和端口:

(1个打分, 平均:1.00 / 5)

雁过留声

“思科核心路由器CRS-1与SPP处理器的研究–端口配置”有13个回复

  1. 陈怀临 于 2009-04-12 9:37 上午

    我问一个问题:

    为什么说:最多是互联72个Line Card Shelf和8个Fabric Card Shelf?

    如何算出来的?

  2. 陈怀临 于 2009-04-15 3:26 下午

    我认识到CRS-1的互联是一个非常重要的部分。会在以后的章节中用我理解的话语和笔墨把Multi-shelf互联的东西试图讲清楚。

    Multishelf(思科)或者Routing matrix(Juniper)一定是高端路由器的重点发展方向。这样才可以使得用户“Add bandwidth when grows”.也就是说,可以在不需要从新大规模投资的情况下,逐步的增加端口卡,线卡机,并通过Fabric机互联。互联又可以1,2,4,。。。8个,从而理论上最大可达到8个FCC连接72个LCC。如果每个LCC是16卡槽的,从而理论交换速度为92Tbps。。。

  3. Jason 于 2009-04-16 8:22 下午

    首席不说fabric的每个chip的端口数和每个卡的chip数,叫人如何去算?

  4. 陈怀临 于 2009-04-18 8:06 下午

    技术就是一张纸;不点就象一堵墙。

  5. Jason 于 2009-04-21 3:17 上午

    ×交换能力:72×(16*40Gbps)*2=92160Gbps=92Tbps (16*40Gbps*2是一个16卡槽的线卡机的双向交换能力)

    请教一下:
    这个x2确实是“双向交换能力”?还是speed up factor?我觉得16*40G应该就是指双向的交换能力了

  6. 陈怀临 于 2009-04-21 6:02 上午

    16×40是指单向(16个端口槽,每个槽可以是40Gbps的线速)。×2是指双工。MSC是CRS-1的转发引擎(Forwarding Engine)。决定一切其实。例如,你可以有8个port的10G Ethernet card,但MSC就是把你修理(shape)成40G的流量。

  7. 陈怀临 于 2009-04-21 8:34 上午

    “speed up factor”通常指的是,为了实现switch fabric的nonblocking的高速switching(交换),你的交换能力一定要大于你线卡交换能力的总和。否则,你不能claim你系统的线卡能达到线速。因此,通过fabric上的加速从而避免link contention等等。

    但在计算系统的交换能力上,通常是通过算所有线卡的层2交换能力。40Gbps是指一个port。但其实是40G进,40G出。所以要×2.

  8. Jason 于 2009-04-21 9:15 下午

    如此说来实际的背板带宽远大于92T了,92T才只算了端口需要的交换能力,加速比和热备份都没算进去

  9. anonymous 于 2009-04-25 8:52 上午

    想到个有趣的问题,那么多机框会把楼板压塌哈哈

  10. 陈怀临 于 2009-04-25 11:03 上午

    在研究一个通信设备的基本交换能力时,我们通常只考虑线卡合起来(aggregate)的交换能力。fabric和在fabric中通常采用的加速等是为了解决non-blocking交换的。

    另外,请参阅我曾编辑的一篇文章:

    如何计算一个通信系统的理论带宽:
    http://www.tektalk.cn/?p=3964

  11. 过客 于 2009-05-25 8:23 上午

    级联的能力最主要取决于Fabric架构及其交换网卡的设计,其次,控制平面的互联也是一个因素

  12. forgetting 于 2009-06-20 9:24 上午

    最多是互联72个Line Card Shelf,是这么算的么:
    每个FCS有24个OIM,每个OIM有9个Port,一共216个Port
    每个LCS有8个S13,每个S13有3个Port,一共24个Port
    所以每个FCS可以连接9个LCS
    8个FCS就是互联72个LCS了

  13. 陈怀临 于 2009-06-20 2:27 下午

    forgetting, 是的。你很聪明。72个LCS就是这样计算出来的。