- 【增强的管理能力】Mellanox SX6036交换机内置了子网管理器,实现了高达648个节点的开箱即用。其配备的MLNX-OS机箱管理软件为管理固件、电源、风扇、端口和其他接口提供了管理工具。
#Mellanox SX6036 SDN交换机# Mellanox SX6036是一款拥有36个56Gb/s端口的InfiniBand/VPI SDN交换机(内置管理)。在1U情况下,SX6036能够提供高达4Tb/s的无阻塞带宽和最低170ns的端口间延迟,为用户打造最高性能的网络解决方案。官网介绍请戳→🔗 网页链接展开全文
- #Mellanox SX6036 SDN交换机# Mellanox SX6036是一款拥有36个56Gb/s端口的InfiniBand/VPI SDN交换机(内置管理)。在1U情况下,SX6036能够提供高达4Tb/s的无阻塞带宽和最低170ns的端口间延迟,为用户打造最高性能的网络解决方案。官网介绍请戳→🔗 网页链接展开全文
- 【增强的管理能力】SX6018交换机内置了子网管理器,实现了高达648个节点网络的开箱即用。其配备的MLNX-OS机箱管理软件为管理固件、电源、风扇、端口和其他接口提供了管理工具。MLNX-OS为用户提供了内置诊断工具——Fabric Inspector,用于检查节点间、节点与交换机间的连接并确保网络的健康。展开全文
#Mellanox SX6018 SDN交换机# Mellanox SX6018是一款拥有18个56Gb/s端口的InfiniBand/VPI SDN交换机(内置管理)。在1U情况下,SX6018能够提供高达2Tb/s的无阻塞带宽和最低170ns的端口间延迟,为用户打造最高性能的网络解决方案。展开全文
- #Mellanox SX6018 SDN交换机# Mellanox SX6018是一款拥有18个56Gb/s端口的InfiniBand/VPI SDN交换机(内置管理)。在1U情况下,SX6018能够提供高达2Tb/s的无阻塞带宽和最低170ns的端口间延迟,为用户打造最高性能的网络解决方案。展开全文
- #产品发布信息# Mellanox针对NVIDIA GPUDirect RDMA技术和MVAPICH2-2.0b-GDR的Beta版支持产品,将于本季度内随着MLNX_OFED 2.1的推出,正式公开发售。
【搭载GPUDirect RDMA技术 Mellanox Connect-IB适配器全面提升基于GPU的集群性能】Mellanox公司日前表示,由Mellanox Connect -IB FDR InfiniBand适配器、英伟达GPUDirect RDMA技术和Tesla GPU加速器组成的解决方案组合,为基于GPU加速器的高性能集群提供了业界领先的高效率和应用性能。展开全文
- 【搭载GPUDirect RDMA技术 Mellanox Connect-IB适配器全面提升基于GPU的集群性能】Mellanox公司日前表示,由Mellanox Connect -IB FDR InfiniBand适配器、英伟达GPUDirect RDMA技术和Tesla GPU加速器组成的解决方案组合,为基于GPU加速器的高性能集群提供了业界领先的高效率和应用性能。展开全文
- 在IT业界中,云计算的实施需要有完整的生态系统作支撑,Mellanox与企业级的OpenStack解决方案服务提供商红帽、Fuel等有着紧密合作,他们都认证了Mellanox的网络。Mellanox一直力求与服务器、存储厂商进行完整的融合,最终一起为用户提供一个完整的解决方案。
#好文分享#【Mellanox刘通:我们让OpenStack变得更高速】近日,Mellanox作为参展商参加了OpenStack2013亚太峰会。网界网记者在该公司展区偶遇Mellanox公司亚太区市场开发总监刘通,他表示,Mellanox软件与OpenStack的集成会进一步地提升其性能.......🔗 网页链接 @CNW_ZY 展开全文
- #视频分享# 在日前举办的HPC China 2013上,Mellanox亚太区市场开发总监刘通发表了题为《创“芯”网络,迈向百亿亿次计算》主题演讲。演讲视频新鲜出炉,当天未能去到现场的同学,或者对我们讲座还意犹未尽的各位小伙伴们请戳:🔗 网页链接 🔗 网页链接
- #好文分享#【Mellanox刘通:我们让OpenStack变得更高速】近日,Mellanox作为参展商参加了OpenStack2013亚太峰会。网界网记者在该公司展区偶遇Mellanox公司亚太区市场开发总监刘通,他表示,Mellanox软件与OpenStack的集成会进一步地提升其性能.......🔗 网页链接 @CNW_ZY 展开全文
- 【40GbE双层聚合架构】在架顶式(ToR)网络中,采用VMS方案的数据中心规模可从仅有几个端口扩展到648个端口,是友商产品的6倍(该方案在拓扑架构的第一层和第二层分别部署了18个和36个SX1036交换机)。
#Mellanox VMS# 随着新兴应用的不断发展,面向未来的数据中心不仅需要具备很高的灵活性,还要在控制成本,降低运维开支的同时,尽可能满足业务带来的庞大吞吐量和可扩展性需求。Mellanox虚拟模块化交换机(VMS)解决方案由Mellanox 10/40/56GbE机架式交换机所组成,是数据中心理想的聚合优化方案。
- 【增强的管理能力】SX6012交换机内置了子网管理器,实现了高达648个节点网络的开箱即用。其配备的MLNX-OS机箱管理软件为管理固件、电源、风扇、端口和其他接口提供了管理工具。
#Mellanox SX6012交换机# SX6012是一款12端口无阻塞56Gb/s InfiniBand/VPI(自带管理) SDN交换机,它能提供最高性能的架顶式互连解决方案。在1U半宽机架内,SX6012可实现高达1.3Tb/s的无阻塞吞吐量,端到端延迟仅170ns。
- #Mellanox SX6012交换机# SX6012是一款12端口无阻塞56Gb/s InfiniBand/VPI(自带管理) SDN交换机,它能提供最高性能的架顶式互连解决方案。在1U半宽机架内,SX6012可实现高达1.3Tb/s的无阻塞吞吐量,端到端延迟仅170ns。
- SX1016具备行业领先的250ns低延迟和每端口低于1.8W的超低功耗, 为企业数据中心、金融服务、Web 2.0、高性能计算和云计算应用提供了最佳性能。
#Mellanox SX1016 SDN交换机# SX1016是一款性价比极高的交换机,具有64个万兆(10GbE)端口,可提供总共达1.28Tb/s的超高速度。在1U情况下,采用Mellanox SwitchX-2芯片设计的SX1016交换机能够提供64个SFP +接口。
- Mellanox SX1012交换机提供最高性能的架顶式互连解决方案。在1U半宽机架内,SX1012能够在10GbE或40/56GbE端口间提供高达1.3Tb/s的无阻塞吞吐量。
#Mellanox SX1012小型网络交换机# 对于需要连接少量服务器的机柜来说,SX1012是架顶式交换机的理想之选。其中的每个QSFP端口,都可以连接被动式分线电缆来创建四个独立的SFP+10GbE端口(从而提供48个万兆端口),是业内体积最小的具备48个10GbE端口的架顶式交换机。
- 刘通表示,面对未来的云计算环境,我们肯定希望用稳定、成熟、以及高速的网络,因此将来会是具备明确发展路线的高速以太网和InfiniBand的天下。据悉,Mellanox最快将于明年推出100Gb/s的端到端的以太网与InfiniBand网络。
- 【Mellanox FDR IB助力TOP500 部署量半年增长200%】在上周结束的ISC 2013大会上, Mellanox宣布在本次全球超级计算机Top500榜单中,公司延续了其在互连方案上的领先地位。自2012年11月至2013年6月,TOP500排行榜中采用Mellanox FDR InfiniBand互连技术的千万亿次超算系统(PFlops)数量实现了200%增长。展开全文
- #InfiniBand# 全球财富500强中超过50%的企业都在使用的微软Windows Azure云平台,采用的也是InfiniBand技术。Windows Azure的InfiniBand网络支持计算节点之间的远程直接内存访问 (RDMA),该技术可实现应用程序对多台计算节点上的内存访问无差别化。RDMA网络在性能方面提供了极佳的弹性和成本效益。展开全文
#全球超级计算机500强#在Top 500榜单中,共有204台超算设备采用了Infiniband互联技术。其中,FDR InfiniBand互联系统的部署数量在一年间增长了3.3倍,从12年6月的20台增至本次榜单的67台;而在千万亿次级别的超级计算机中,采用FDR InfiniBand的数量也在半年中实现了翻番,达到了8台。InfiniBand
- #以太网40周年纪念##以太网的诞生# 以太网是受到ALOHAnet的启发而产生的,后者是夏威夷大学开发的,可利用低成本的商用无线电设备连接该大学在夏威夷主岛欧胡岛和其他的岛屿,在欧胡岛主校区里用的是一台中央分时计算机。
- #开源以太网#Mellanox亚太市场开发总监刘通先生在演讲中指出,如今无论在云计算还是大数据领域,开源都是发展趋势,Mellanox推动开源以太网,希望做到层面上的开拓。开源以太网让更多公司加入到网络管理平台的开发中,这将大大推动以太网的发展,提高普及速度,为用户创造无限可能。
- 【Mellanox高速网络 加速电信行业云应用】Mellanox公司亚太区市场开发总监刘通在2013年中国信息与通信行业云计算峰会上表示,随着云计算与大数据在通信行业崭露头角,其对系统整体效率的需求日益增强。网络作为系统连接的动脉,其性能与效率决定整个系统效能的发挥。🔗 网页链接
- @迈络思Mellanox 高级技术总监Gliad Shainer表示,实现RDMA有不同的技术,但是在RoCE上,作为RoCE规范的制定者,Mellanox的优势还是很明显的,其他公司还是处于一种跟随的步伐。
- Mellanox公司的英文全称是Mellanox Technologies(纳斯达克股票代码:MLNX;特拉维夫证交所代码:MLNX)于1999年成立,总部设在美国加州的圣塔克拉拉和以色列的Yokneam。Mellanox公司是服务器和存储端到端连接解决方案的领先供应商。公司的中文名称是:北京迈络思科技有限公司,别搞错哦!展开全文