打算挑一款24盘位的机箱,一步到位。但是背板的类型不知道如何选择。
机箱价格跨度较大,千把块到万把块都有很多选择,懂行的大神能说一说除背板外都有什么区别呢?
然后是背板的问题了。
有的每单盘引出sata接口、有的4盘为一个sas接口、有的带扩展的,2sas接口带24盘。
那么问题来了,先分两类。一是带扩展,二是不带拓展。两种相比哪一种更好呢?
我现在nas只是i7 3770,没上服务器u,pcie通道只有20条。万兆网卡+阵列卡已经占了16条了,若加expander的话起码要24条pcie通道,20条的cpu应付不了,意味着要多花4k+expander升级平台,5820k什么的。
若果不升级平台,我就只能选择3k左右带扩展的24盘位机箱了,同样目的总价省1-2k。
现在的阵列卡是lsi9271+bbu+key
从性能分析:
以后若果升级ssd阵列,24盘位应该要2卡才能满足带宽。
500mb*24=12000>pciex8的8000mb/s,单卡必然成瓶颈。
而多卡要升级平台。
其次,机柜只有两个sas接口,sas理论值每接口顶多6000mb/s。
那么能否双阵列卡分别两条sas线组两组12盘r6无瓶颈?
但问题是我想要3组8盘r5。
那么意味着,带扩展背板的sas机箱,并不能撑到ssd时代,因为只有两个sas接口。
然后我先不想ssd的事情,光机械硬盘,背板扩展和expander扩展性能上有区别吗?
expander需要x8的pcie插槽,而背板完全不需要pcie,我搞不清expander的pcie槽是取电的还是有数据交换的?
价 格:(第一次升级)+(第二次升级)
带 扩 展:(3k的机箱)+(4k的平台+两张3.5k的9271+24个ssd+1.5k的机箱)=3+12.5k+ssd =15.5k+24ssd
不带扩展:(1k5的机箱+4k的平台+0.65k的expander)+([size=15.3333330154419px]两张3.5k的9271+24个ssd)=6.15k+7k+ssd=13.5k+24ssd
评论
我完全的不知道,其实我就想知道这是拿来干嘛用的
我一看到这么多硬盘第一反应就是上机柜,走光口,其实我就只用过机柜整过这么多硬盘,还是SAS的。很久没整了,因为柜子实再是太吵了,耳朵受不了。不过现在机房里好象都是用SSD的机柜多了.
评论
就是放机柜,而且在独立的房间内,噪音可以忽略,24盘位3-4U这样子吧。
至于意义。其实就是折腾。穷玩车,富玩表,屌丝玩电脑。
评论
没怎么看明白,9271最大不是支持128个盘么。曾经用9261-8i组过两组12盘的raid6,用的是RES2CV360接机箱背板的6个SAS口,这货不用接pcie,没感觉出啥瓶颈。但是因为太吵放弃了,就算放独立房间如果隔音效果不好一样没法过,我是家用的。
评论
独立房间也得重新装修下,隔音,空调什么的。
评论
没必要diy 直接上dell/hp 的24位盘柜
评论
lsi 9271-8i是minisas接口(sff8087),机箱背板肯定选择minisas接口(sff8087),这样8个硬盘只需要两条线。(想想如果24条sata线,真是恐怖)
评论
24盘热插拔机箱,靠得住有出售只看到勤诚、国鑫有24盘。
迎广只看到16盘。
本人就用迎广12热插拔机箱,开机噪音大,正常运行噪音不大。
评论
勤诚知道,国鑫可靠?
评论
直接买个惠普的阵列柜就行了,而且因为是行业产品,可扩充性、未来的模块升级什么的都非常容易。
而且刚好就是一个机柜,全套啥都有了,性能杠杠的,可靠性也杠杠的。
评论
都24盘了还diy干嘛,直接机柜!
评论
9271是pcie3.0 x8的。尽管然并卵,但是带ssd的话,pcie3.0x8应该是瓶颈了。我不清楚跨卡能否建立同一阵列。
昨晚开夜车终于搞明白了,全部expander都不需要pcie数据通道。这货的兼容性有讲究吗?
评论
expander可以简单理解为交换机,不会直接与主板pcie关联,对于阵列卡有多少带宽给expander就只有多少带宽。
另外你的这些卡实际负债率怎样,我觉得实在不行上X79好了,带宽通道管够。实在不行换个多pcie槽的主板,但是这样的话带宽并没有增加。。。
我之前有段时间也犹豫过expander卡,后来想想只是带HDD也就不存在什么瓶颈了。
评论
谢谢指点,不同厂家的expander和阵列卡之间的兼容性如何?我是lsi的,如果用intel的expander会不会有稳定性问题?因为lsi的是全高pcie卡,不带4Pin供电。如果带4pin供电的就只能选其他牌子了。然后有的卖1200,有的卖650,它们之间功能上有什么区别呢?
评论
至于为什么不选择品牌机柜,我一开始是觉得太贵了,然而现在光阵列卡都花了快4k了,还没算expander。另外一个原因是把闲置的平台运用起来。但最核心的动机是,想折腾捣鼓一下,找乐子。
评论
品牌阵列柜就只是个阵列柜 相当于自带expander的硬盘盒 用8088线连上阵列卡就能用了 你原来的平台并不会浪费 盘柜这玩意想DIY找到合适的反而不容易
评论
那我理解啦,我就是找这种不带平台的4U热插拔阵列啦。但是我见某宝上hp、dell等老字号都带主板电源。而我打算买6个sas接头的背板那种机箱+expander。这样以后多卡阵列的灵活性大一点。
但是空箱差别真的这么大吗?24盘位来说。有的带expander的只要3k,背板是lsi代工的。有的不带expander空箱也要8k左右。当然也有不带expander的只要1k多点。我是小白完全看不出区别。我能说出来的区别基本是背板、机箱厚度、带不带风扇控制、加固、带不带电源什么的,其他方面一窍不通。我感觉这些都不值钱呀,是买这东西的人都不用自己钱还是咋的2333。
(自用服务器可停机,所以不打算上冗电,直接上ups)
评论
个人理解为产品的定位不同吧。
服务器机架基本上属于企业级消费的产品,就连一个硬盘抽取架(只是一个夹紧硬盘的架子)价格都在50~100元的样子。我也觉得那玩意儿不值钱,而且也说不上来为什么要这么贵。但是我观察到但凡是企业级的产品,都是价格不菲的。可能就是你所说的“买这东西的人都不用自己的钱”吧。
说回到机箱吧,服务器机架不仅价格昂贵,而且外观什么的也不怎么好看,结不结实得你亲自去检视。我昨天在晚上看到了一款迎广的机箱,可以容纳20盘位,价格也就在4000块钱的样子吧(今天找不到那家店了,他们的宝贝描述非常详细的。你可以去搜一下)。迎广的机箱质量相信大家都是有目共睹的。
再说背板,其实我觉得背板有一点占用预算了。因为背板也是要用SFF-8087或者SFF-8088接口,这些接口主板上不一定够用,还是得买阵列卡。还不如直接从阵列卡用SFF-8087一分四的接头连到硬盘上,减少中间的转换环节。再就是电源,增加一个背板就增加了一个转换和损耗的环节。
从你的描述中来看,你并没有那么强烈需求热插拔,硬盘的抽取频率一定不高。我觉得背板是可以省略掉的。
最后,我记得华擎有Extreme11系列的主板,其板载Sata(有些其实是第三方扩展的SAS口)接口多达20个以上,但是即便如此,依然能够组建双路SLI,还不算板载声卡、网卡的带宽。所以楼主前面对于带宽的担心也有一点过了,硬盘的读写没有那么占带宽,我也曾记得主板南北桥芯片都有共享中断的机制。所以楼主无需担心。如果选择上阵列卡。应该是没有什么问题的。
评论
24盘位,得4U机箱。4U机箱,可以上全高卡。
评论
expander的pcie槽是固定用的,可以用来取电,可以通过 4PD口供电。
其实完全没必要弄这个卡的,因为不是很合适
扩展卡本身,能选择的不多, 目前好像在只看到Intel的。
在说机箱,背板
如果是SATA的,有单纯直连型的。。
如果支持SAS,有可能带控制芯片。有直连方式,也有通过 MiniSAS的
通过后者连接的背板,有一定几率是提供Explander的,比如12盘位机箱,只给了2个 MiniSAS接口,这种情况就是带扩展的了。
至于你需要的24盘位机箱,你可以看看它提供几个接口, 如果是 6个,应该是1:1的, 所以不太常见,一般是2个,偶尔会有3个吧。
还有一点,要选择支持SES3的机箱,简单说就是支持故障指示灯通讯,这样通过卡连接后(有时候可能需要飞线) 就可以切换指定硬盘的指示灯,更容易区分。
评论
我自己也是之前纠结的时候研究过 并没用过expander。
之前有个朋友用的就是lsi的12g的raid卡+intel的expander,没有兼容问题。
不过expander的发热比较厉害,专门加了散热片和风扇温度依然不低,如果是工业机房里倒是可以忽略这个问题。
raid卡这块不是非常清楚,我的应用也仅局限于HBA应用。
评论
24*7跑了一年没出现兼容问题,过于考虑带宽没意义啊,你万兆网卡也就8G。另外某微有机柜背板是1IN1OUT或2IN2OUT的,expander都不用还可以方便之后扩展级联。等有条件隔音房间了我就会换这套方案。
评论
同关注,24盘我可能还不够,估计得32或者更多了。
还有expander用pci只是提供供电的,不占用通道。
你用9271+intel那几款,一般是没啥问题的。因为intel的其实也是lsi oem的,而且lsi的是事实上的标准,基本没啥不支持的。
另外,楼主方便pm下你现在搜到的24盘这几种无扩展/有扩展的链接吗?
评论
同问lz的方案,也在纠结
评论
发现个有意思的现象,品牌热插拔机箱,12盘1000+,16盘近3000,24盘就7000+,厂商真是会做生意啊。
评论
真希望有良心厂家来搅服务器这块大蛋糕呀233,主要是阵列卡只有8口的,真心不够用。只能expander。而买阵列卡的目的是怕主板挂了,阵列陪葬。所以才割肉把原来的阵列挪到卡上。殊不知是个大坑。
评论
搞了个一万手的intel expander,新硬盘还在路上,等着到时候测试
评论
淘宝上,1250的有一家,叫不出名字,不带拓展的,6条背板。
贵一点,1850,叫托普龙,高端点,每个硬盘都有指示灯。全sata
然后3150,研拓,带expander,
基本上淘宝搜 24盘位机箱 (扩展) 都能搜出来。
评论
我付款了在等st4000nm0024大船到岸,不过不是洋垃圾,而是全新2333
评论
和税收一样2333,富人多收税2333,谁能施舍个24盘位给我,二手区的伙伴们有不
24 port还是36 port?
我知道的lsi 9260 配rescv240是没兼容问题的。
dell的h710有段时间有问题,好像后来解决了
评论
看了你在这里发的一些帖子。。怎么说呢???
你这纯属乱折腾,还有什么家里的10G网络,或者40G网络。。。
你应该不是从事IT行业的,一些专业的知识和设备接触不到,也不能怪你。。
都24个盘了,还玩什么DIY,直接弄个HP的2U的机器,有能安装24个硬盘的机器,是2.5寸的盘,也有些高级的服务器,支持2.5和3.5混插的,或者你购买专业的机箱。。
24个盘,就不是用卡了,虽然本质是都一样,但是叫做控制器,同时做RAID也有很大的学问,存储也要根据硬盘速度不同,划分分层的存储,这不是你DIY可以解决的,需要软件做存储的分析。。
什么带宽缓存,还算到PCI-E的带宽了,那些硬盘都总线型串联,不是星型中心控制连接,带宽受SAS或者背板总线的限制,谈毛性能。。。。
关于网络,10G网络其实大家都很向往,可惜RJ-45的10G普及不了,郁闷,对于光纤来说,10Gbps需要的光纤本身质量很高,即使家里短距离布线,我们所用的LC-LC的线缆,你家肯定有10m的,一条光纤就已经1000多元。。。美国康宁的。。
木桶效应,规避短板效应,所以每个环节都不能有问题,否则性能上不来,所以10G网络现在的成本还是很高的。。。
评论
再给你补一个图。。。
看我给你写的红字。。。
Gen.9.380.JPG (172.64 KB, 下载次数: 1)
评论
这个好,但有几个疑问,这都是2.5的盘吧?目前2.5的容量比3.5有所差距的
另外一个就是保修问题,不知道这机器过保后一年延保得多少钱,完全没保修也不放心啊……
P.S.这应该支持sata和sas吧?
评论
坐等LZ成品后分享方案,供我们借鉴
评论
电口10G网络,现在不能普及,将来肯定会普及。
评论
10G铜缆有啥难得 六类非屏蔽或者7类都可以 网卡有现成的X540 好用的不要不要的
10G不是远距或者大规模布线 根本不需要光纤
最难也就是10G电口交换机略贵 dell n4032 24电口10G 3万左右吧
评论
又可以配置成安装3.5硬盘的模块,只是数量不能做到这么多,3.5的更加划算一些,不过你有了这个机头,可以扩展3.5的阵列箱子,通过HBA卡,想弄多少就弄多少,不用局限于一个服务器内部。。。
保修,默认HP的保修分为7*24,3年或者5年,价格不一样,但我觉得你可以购买基础的就可以了,以后可以找第三方购买,便宜啊。。
是的,SAS和SATA混插,但软件做RAID的时候需要注意。。不过SAS这个机器应该是12G的了。。
评论
现在看不见迹象。。
光纤的优势非常的明显,暂时电口遥遥无期。。
光纤的成本也在下降。。。
40G,貌似出来也有5年了吧。。
评论
期待看到你的最终结果。
评论
现在家里全10GbE交换机纯粹是有钱没处花。。。先不说价钱的事情,光功耗就要命,一个个的比PoE供电的交换机还费电。。。家用一般都是几十个千兆口加4个万兆就足够了,这样的交换机便宜些的海淘也就不到3000。万兆进不了家庭的原因不是成本,而是需求。。。以现在H.264 H.265的编码能力,别说4K了,8K 3D也用不光千兆的带宽。。。
评论
对于原盘党来说,10G还是有实际意义的
评论
不知这款有没有链接?我看下具体配置,找经销商问下价格,顺便问下海淘回来的话能不能在他们那延保
谢谢~
评论
你的expander是什么型号?
以adaptec AEC-82885T 2283400-R 12Gb/s SAS expander举例:其中PCIE×4 只是供电,并没有数据传送(数据传送是经过连接线缆,好像是8643 to SFF 8643),还要配合指定的HBA卡才能工作。
背板扩展:其实要和HBA卡对应,一般SAS wide接口支持4个HDD,如果是24盘位理论上需要6个wide接口。
区别:背板是全速,expander受限于MiniSAS的接口(一般Wide接口是6GB/12GB)。
评论
万兆在不同计算机之间的数据交换确实快,如果不差钱,或者成本下降,能实现铜线的RJ-45接口,还是不错的选择,如果是SFP+的话,那么成本太高,而且太脆弱,光纤线缆也伤不起。。
4K的H.265的直播标准貌似已经基本定了下来,大概是32-40Mbps左右,按照计算机数据来算,5MB/s的速度就能包住了。。。
现在主板不能集成万兆的网卡端口是硬伤。。Intel弄什么Thunderbolt,那好好弄弄万兆网卡的事情,坑爹。。
评论
这服务器不能海淘,你要购买行货,这样保修方便,海淘肯定没有保修,海淘因为很重,未必便宜!!!
另外,Gen.9 DL380的机器属于海量型的机器,如果渠道好,价格比国外网站销售的便宜多了,因为面对电信企业的大单,都是1000台以上销售的,行业销售会乘着价格好,囤私货,这个时候,就是他们赚钱的好机会,你拣便宜的好机会。。
配置的,前面的那个3组磁盘模块应该可以更换的,需要HP渠道内的软件订购P/N号码,才能查询到具体的信息,你可以找HP的业内销售问问(要大的代理商才能)。。
另外这个服务器后面的10G网卡,也是模块化的了,芯片和接口分开的,很牛逼的说。。
评论
同意!! 从下载服务器,Copy到HTPC要好多时间。。
不过,现在都NAS时代了,也不用Copy,直接播放了,这样存储还方便。。
评论
主要是你查看的这个链接能不能给一个,我看下这三款的具体配置,经销商那边需要具体配置来报价,另外这种囤私货的销售不好找吧,至少我找不到这种途径,虽然有人是的经销商,但他也不会告诉我这是囤的私货呀……按照行价卖也没办法吧……
评论
带宽上去了,延迟和千兆一样。低延迟(微秒级)的万兆交换机不是没有,全是光口,而且还死贵。。。万兆网卡intel自家都出了一大堆了,还是主板厂商没动力来集成到主板里。
评论
微秒级别,这个我没有研究过,我觉得普通的交换机延迟就好了啊,就能达到普通企业部门级别的交换机就好。。像Cisco 29xx系列的企业交换机这个级别,是什么级别的延迟???
另外,万兆没有集成到主板,我觉得是下面这个原因,Tray,这个东西是一个芯片的价格,还是一排芯片的价格???
10G的RJ-45芯片.JPG (138.5 KB, 下载次数: 0)
这个东西,就是今年比较新的单个网口的控制芯片,你可以看见价格还是比较高的,可能在美帝都能购买到主板了,这个价格,但不知道Tray的单位,是多少个。。。。
这东西价格不下来的话,万兆很难普及的。。
之前Intel X55x,X54x等的万兆芯片很多事光接口,而且价格都很高,普及困难,超微双路Xeon的很多都没有。。。
万兆的RJ-45交换机有没有推荐??
评论
那个链接就是HP美国官网,你找HP Enterprise这个网站,就能看见了。。
HP分家了。。
你说的是,私货,要有业内渠道,才能好知道,和好砍价,一般的不知道的。。
评论
是啊,所以没渠道还是很难捡到便宜,唉
另外配置已经找到了,非常感谢!
评论
LZ,你的机箱选好了吗?是哪一个阿?
评论
没办法。外行折腾也是泪。一开始看这种箱子就是感觉贵,其次觉得2.5的硬盘容量少也不耐草,所以没怎么考虑,所谓的控制器是什么概念呢?我现在是9271+expander,先不考虑分层。
评论
买了张res2sv240,600包邮。
评论
Thunderbolt也没弄好,X99有Thunderbolt的接口,但是找不到有Thunderbolt卡卖。现在主要还是在不同计算机之间传输数据为主。
评论
还没选好,现在是把14个盘塞进一个普通机箱里面,满得蟑螂都爬不进去。
评论
Thunderbolt已经出了3代了,不知道你的X99是否是最新的40Gb的了。。
但是Thunderbolt,Intel花了很多钱来推,但是貌似成果没啥,现在更加是Thunderbolt已经和USB 3.1整合,无奈销售不出去啊,都使用USB Type-C的接口,面对10Gbps的USB 3.1,雷电3的接口市场不乐观。。。
没人愿意制造Thunderbolt,主要是深圳的大部分工厂,觉得这个东西太小众,技术要求高,成本高,生产了销售不出去。。。
评论
一般的万兆和千兆交换机都是亚毫秒级的延迟(也就是百微秒级的)。微秒级是超算用的互联系统的入门延迟能力,在这个级别上才能保证很多需要计算节点间频繁交互的计算模型的计算能力。。。企业级交换机的价值更多的体现在堆叠能力和各种管理/扩展功能上,而不是延迟(就一个交换机的话,啥企业交换机也拼不过普通非网管的8口千兆交换机的延迟)。
那个是芯片的单片价格,主要还是用的少,要摊研发成本在里面,所以才这么贵,要和千兆芯片一样普及,早就白菜价了。。。
评论
x99e ws自带接口,说明书说可以配卡,但是死活找不到卡,网上也找不到资料。本来想让rmbp的数据方便高速导出导入,现在少且贵,而且介绍少,也不知道能否两台电脑直连传输数据。
果然是大神级别,您是网络专家,估计您是从事高性能计算方面的工作吧,了解的如此详细!!!
CHH的大神就是多。。。
第一次知道网管交换机还不如非网管交换机延迟低。。。您说的那个我曾经隐约听到过一个案例,那个案例是纽交所,他们貌似要求网络的微秒级别的延时。。。
超算对于普通单位太遥远了,别说一般人了,昨天看了个电影,估计NASA这样的单位是大量需要超算的。。
看到Intel那个万兆网络控制器芯片的价格,无论是集成到主板,还是做成单独的卡,总之走向普及至少还需要3-5年。。。
评论
你说的那个卡,应该在美亚有销售的吧,就是一张单独的PCI的卡,还能输出DP显示呢。。
最近看了一个新闻,在雷电3上面,Asus被Gigabyte给搞了一把,两个公司在主板上采用了不同的方案。。。
Asus有个子公司,叫Asmedia,这家公司也是制造USB3.1的控制器的,而且最近还做的很火热,成为移动存储行业的领导者了快。。所以华硕为了力挺自己的公司,在自己的主板上使用的USB 3.1的控制器应该是AMS1142的3.1的控制器,所以它的雷电3需要用其他的方式实现。。
然而,没想到Gigabyte却突然爆发,坚持做Intel的雷电事业部的盟友,(同时Intel在新一代也做出了调整,将雷电3和USB 3.1的控制器芯片整合了,产品为DSL6540,实现40Gb的传输,同时实现USB 3.1的10Gbps的传输,使用PCI-E Gen.3的x4接口进入总线,接口方面使用最新的USB Type-C的线缆。)技嘉抓住这个机会,把这个DSL6540芯片直接焊在了大部分高端主板上面,这样会一下子提高雷电的市场占有率,技嘉也因为这个大力宣传自己的新主板打压华硕,这芯片极有可能是直接接入CPU的PCI-E总线的,不走芯片组,所以USB 3.1的稳定性和性能都会很好。。。
USB Type-C估计以后计算机,就剩这个接口了,前途大好!!
向你这种两台数据需要高速传输数据的应用的话,还是万兆以太网来的方面,雷电现在最广泛的应用就是移动磁盘阵列。。。
评论
勤诚 RM41070(RM41824)带扩展 4U 24盘热插拔 服务器机箱
X宝有店家价格在3000以内,应该是实价,楼主可以考虑。
评论
698 x 432 x 176 (mm),g感觉太大了放不下阿。。。。
评论
家用万兆网络有点夸张,家庭用户主要还是用于存储而不是7X24小时大数据读写,而且20多个SSD价格和容量的性价比太差,所以自己DIY个类似存储PC就好了,多媒体读写只要不是上4K基本也够了。
我的想法是用华擎的Z87极限玩家11吧,有多达22个SATAIII口,剩下PCIE可以独显或是上PCIE的SSD系统盘;机箱选择联力的D8000,有20个盘位本身,再买个光驱位三转五的话基本可以上到25个左右的硬盘。买3-4U的服务器机箱也可以,我看到最多的有90块硬盘的,不过主板选择和电源选择很局限,而且还要机柜。这个想法性能是差,但是至少满足了存储吧,而且DIY起来不复杂。D8000是很大啦,不过密封性好,静音肯定比机柜要好,可以做个书桌侧柜,啊哈哈哈
评论
幻想一下,24个硬盘,24条sata数据线,那画面真美。
上4U热插拔机箱,带扩展的话,一条minisas线搞定;不上扩展,6条minisas搞定。
评论
最低延时交换模式就是 :直通转发模式(Cut—through)。
这是一款万兆级别直通架构的交换机延时的截图
如果是HPC或者大型分布式计算机,常见就是Infiniband交换机,那个延时可以做到<100ns。
评论
超算常见会用到Infiniband技术,TCP的消耗太大TOE也很难做到,更不要说DRMA、和低延时的优势。
评论
自己diy的这种箱子麻烦不说,还不见得省钱,箱子质量不过关的话,硬盘坏很快
DIY的的存储,盘一多,总会有掉盘的情况,一个处理不好,就是丢数据
实在想弄,用hba卡直连,搞个zfs或windows2012就好了,用raid卡还麻烦 这些东西可靠性没想象中高,见过好几次卡出问题阵列全挂的事情了
评论
嗯,也是专家级别。。。
不过协议都不用TCP/IP了,改用Infiniband了,还谈个毛网络,我们现在说的网络,就是TCP/IP,就如同FC存储协议一样,这些都是小众数据中心的协议,如果说FC是100数量级的话,那么Infiniband,最多是0.1数量级。。。
评论
其实网络是一种结构总称,至于使用什么协议那是看需要。通常我们接触最多是TCP协议。我不太同意用TCP协议就代表网络这一说法。
因为TCP结构限制太多,所以才发展更好的协议或者叫总线技术来代替,如果是几千个以上节点,那么数据交换会到PB级别,TCP就不适合了,Infiniband可以作为一种替代方案,说不定未来的网络有他的影子。
评论
其实网络是一种结构总称,至于使用什么协议那是看需要。通常我们接触最多是TCP协议。我不太同意用TCP协议就代表网络这一说法。
因为TCP结构限制太多,所以才发展更好的协议或者叫总线技术来代替,如果是几千个以上节点,那么数据交换会到PB级别,TCP就不适合了,Infiniband可以作为一种替代方案,说不定未来的网络有他的影子。
评论
低延迟10GbE已经能有上代infiniband的延迟水平了。常用以太网主要延迟还是在交换机的存储转发上,低延迟万兆交换机都是用cut-through方式,现在都是亚微秒级(300纳秒左右)的延迟,缺点就是贵,而且没有支持RJ45的。至于说TCP的消耗确实不小,但是IP又不是只有TCP,iWARP就是跑在IP层上支持RDMA的协议,用的也挺多的,胜在便宜。。。
评论
低延迟10GbE已经能有上代infiniband的延迟水平了。常用以太网主要延迟还是在交换机的存储转发上,低延迟万兆交换机都是用cut-through方式,现在都是亚微秒级(300纳秒左右)的延迟,缺点就是贵,而且没有支持RJ45的。至于说TCP的消耗确实不小,但是IP又不是只有TCP,iWARP就是跑在IP层上支持RDMA的协议,用的也挺多的,胜在便宜。。。
评论
TCP结构本身不是为高I/O设计,而且消耗很大(三次握手、通话窗口调节等等)。至于iWARP还是没跑出这个架构,只是加入了DRMA支持,效果根本不能和IB做比较。至于采用直通交换的代价也是很大,残帧、错帧容易堵塞,这些对于HPC是致命,这样低延时意义不大。
唯一相近的是ROCE网络,这个已经可以打败iWARP,但性能还是比不上IB。
IB致命的地方就是距离限制(成本不算太离谱),在HPC领域暂时未逢敌手。
评论
是的,英文Network这个单词,是一个广义网络的总称,不代表TCP/IP协议,可以在我们的应用中95%以上的网络设备,估计都使用这个协议,也是大家说到网络的第一反应,广电有自己的网络,有自己的传输协议,无线信号有卫星信号,收音机网络等等。。。
TCP/IP确实很多场合不适合,但Infiniband在出来的5年多时间里面,貌似也没有怎么样的一个发展,此技术没有前途。。。只能限制在专用领域。。
评论
没玩过如此高大上的NAS
24盘,哇塞,启动的时候肯定比较壮观
评论
其实我们接触最多就是以太网,所以有这样的误解。
至于IB网络,你说没发展也不对,你看看带宽的增长就知道了它的恐怖,当然要在服务器上面使用还是受限于总线结构。还有距离的限制(这个是很大问题),所以就算推广也不容易,但他在HPC领域是压倒性胜利,不能说没有前途。补充说明:有很多需要高I/O接口都可以看到IB的身影,最典型就是集群(包括核心交换机、服务器、存储等等)
现在看看RoCE推广的怎样,这个技术还是有前途。
评论
中国移动,2400个盘。。。
评论
现在这个IB网络,能说大量占有市场还是很难的,前两年没有发力,可惜了,现在也只能说集中在HPC领域了,但就就像汽车领域的F1一样,超小众玩家!!!
40Gb现在真心不算很快了,估计IB已经有80Gb了吧。。
现在40Gb的,以太网40G今天可以说是开始走向普及的步伐,Intel还弄了个Thunderbolt 3也是40Gb的,这个成本可以做到非常低,现在技嘉替Intel在推广,前景还是看好的,看Intel的产业支持力度了,不过这个可能更多是在广电领域,不过Intel想在笔记本领域做Dock,一旦这个成功,那么市场前景就太大了。。
总线问题,PCI-E Gen.3已经没有问题了,x4接口,妥妥传输40Gb的数据,更何况普通计算机主板都有x16的接口了,而且还直接捅在CPU上面。。
传输距离,IB,雷电3,都收距离的限制,太短,以太网40G的采用光,也长不到哪里去。。这个确实是个大问题。。
IBM开始有些设备想使用IB技术,还有HP的刀片服务器,后来这两个厂家基本上都放弃了。。
评论
如果要完全发挥IB的功能,建议使用全IB 结构,想想都知道天价,还有巨大的改造工程,况且IB的结构不可能取代以太网,尽管加入了对IP协议的支持。
IB应用定位在高端,小众那是一定的。
IB的最新标准是EDR(好像是25Gbs),4X可以达到100Gbs至少x8的 PCI-e 3.0。
至于刀片服务器领域,有好多用应用没有利用IB结构的优势(例如RDMA,低延时要求不高),所以发展不多。我个人倒是看好存储这块,因为全SSD存储对I/O要求很高。
评论
如果要完全发挥IB的功能,建议使用全IB 结构,想想都知道天价,还有巨大的改造工程,况且IB的结构不可能取代以太网,尽管加入了对IP协议的支持。
IB应用定位在高端,小众那是一定的。
IB的最新标准是EDR(好像是25Gbs),4X可以达到100Gbs至少x8的 PCI-e 3.0。
至于刀片服务器领域,有好多用应用没有利用IB结构的优势(例如RDMA,低延时要求不高),所以发展不多。我个人倒是看好存储这块,因为全SSD存储对I/O要求很高。
评论
新的机柜都带温控了。
如果温度不是很高,声音不大的。
评论
我操,这个比较智能。。
什么牌子的,APC嘛???
评论
呵呵,你说的是单位里用的吧,我一般去的都是IDC机房,那里面不是人呆的
评论
说起expander其实不一定是SV系列吧, 可以看看类似RES2CV360这种,不需要连接pcie
24端口版本是 RES2CV240
评论
家用想搞一台服务器用作家庭nas,另外搞搞虚拟机什么的,准备做raid5+热备,所以硬盘至少要12个,有推荐型号吗
评论
恩,现在的都是开机狂叫几分钟,进去系统后就静音了。
评论
看了,学习了不少,哈哈。
评论
我公司准备上这一款 再上个freenas 用Veeam 做备份服务器用。 不知道是否可行。。。呵呵
PM购买地址,迎广12盘热插拔 电路 电子 维修 求创维42c08RD电路图 评论 电视的图纸很少见 评论 电视的图纸很少见 评论 创维的图纸你要说 版号,不然无能为力 评论 板号5800-p42ALM-0050 168P-P42CLM-01 电路 电子 维修 我现在把定影部分拆出来了。想换下滚,因为卡纸。但是我发现灯管挡住了。拆不了。不会拆。论坛里的高手拆解过吗? 评论 认真看,认真瞧。果然有收
·日本中文新闻 唐田绘里香为新剧《极恶女王》剃光头 展现演员决心
·日本中文新闻 真子小室夫妇新居引发隐私担忧
·日本中文新闻 前AKB48成员柏木由纪与搞笑艺人交往曝光
·日本学校 {日本国际学校}梅田インターナショナルスクール
·日本学校 LINE:sm287 陳雨菲、20歳、台湾からの留学生、東京に来たばかり
·日本留学生活 出售平成22年走行48000km 代步小车
·日本华人网络交流 円相場 一時1ドル=140円台まで上昇?
·日本华人网络交流 问日本华人一个问题
·日本旅游代购 富山接机
·生活百科 英国转澳大利亚转换插头
·汽车 【求助】修车遇到困难怎么办?