自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(474)
  • 资源 (83)
  • 收藏
  • 关注

原创 Chapter 1-17. Introduction to Congestion in Storage Networks

然后,升级网络链接可能无法立即实现,因为购买新组件的资金可能无法立即到位,或者组件的运输可能会延迟。在这漫长的延迟期间,让网络拥塞影响应用程序是不可接受的。造成网络拥塞的原因还有很多,在这些情况下,增加网络容量并不能解决问题。例如,在无损网络(如光纤通道)中,即使网络容量不是限制因素,也会发生因慢排空而导致的拥塞。另一个实际挑战是,传统设备和应用程序仍然对业务至关重要,但在维护模式下运行,几乎得不到支持。在很多情况下,利用率并不高,但网络却很拥堵。),但搜索结果却不是网络拥塞,而是浴室和厨房的管道问题。

2024-04-27 19:17:45 748

原创 Chapter 1-16. Introduction to Congestion in Storage Networks

数据中心流量是突发的,尽管不同的流量类型可能会有不同的突发持续时间。所有网络实体(终端设备、链路和交换机)都容易受到拥塞的影响,尽管造成拥塞的原因可能不同。在某些情况下,当流量从无损网络传输到有损网络时,有损网络的拥塞可能会扩散到无损网络,例如通过。的无损以太网网络中,缺乏足够的缓冲区可能会导致丢包(这与无损网络的基本原则相悖)或降低链路利用率。在无损网络中,随着链路长度的增加、速度的提高和平均帧大小的减小,端口所需的缓冲区数量也会增加。通常会反映向其传播的拥塞情况,但大多数情况下,拥塞源是终端设备。

2024-04-27 19:16:23 835

原创 Chapter 1-15. Introduction to Congestion in Storage Networks

然而,根据我们的实际经验,大多数情况下,满利用率和高利用率也会出现一定时间的过度利用。利用率的持续时间可能是过度利用的条件,导致有损网络中的数据包丢弃或无损网络中的拥塞扩散。从检测拥塞的角度来看,这将是一个难以解释的情况,因为报告的利用率在。但如前所述,在大多数情况下,我们发现使用率高的端口也有使用率过高的症状。在监控生产存储网络的利用率时,如果发现某个端口的利用率很高,我们建议将其与利用率过高的严重程度相提并论。)为单位报告端口利用率,设备的固件会定期轮询某个时间间隔内的累积值,求出与前一个值的差值(

2024-04-20 02:14:43 894

原创 Chapter 1-14. Introduction to Congestion in Storage Networks

History of Congestion Due to Link Over-utilizationCongestion in networks is as old as the networks themselves. It’s been a topic of interest within the research community since the early days. It is not surprising to observe congestion when a network port

2024-04-20 02:12:36 598

原创 Chapter 1-13. Introduction to Congestion in Storage Networks

与此相反,当许多主机(可能以较低的速度连接)同时向存储端口发送流量时,存储链路的过度使用就会导致拥塞。这就减少了存储阵列的端口数量,再加上更高的吞吐量,从而提高了每个端口的利用率。由于数据中心的刷新周期和方法,因过度使用而导致的拥塞,在主机链路上更多被发现。这些因素综合起来看,似乎只有全闪存阵列才会出现因过度使用而导致的拥塞,但基于旋转磁盘的阵列也存在这个问题,只是报道得不多。当主机向其目标请求的数据超过主机链路可发送的数据时,就会出现主机链路过度使用造成的拥塞。全闪存阵列以其链路的全部容量传输帧的能力。

2024-04-20 02:10:29 484

原创 Chapter 1-12. Introduction to Congestion in Storage Networks

虽然目的地城市内部并不拥堵,但两条车道的车辆试图通过一条车道进入该城市,却导致了高速公路上的拥堵。结果,不仅前往该城市的车辆受到影响,前往其他城市的车辆也因为共用同一条高速公路而放慢了速度。可能会导致复杂的情况。当交换端口以最大速度传输,但传输的帧数超过了该链路的传输能力时,就会出现因过度使用而造成的拥塞。然而,这种类比并不适用于有损网络,因为虽然数据包会在网络拥塞时丢弃,但车辆并不会在高速公路拥塞时消失。同样,这种类比不适用于有损网络,因为虽然数据包会在网络拥塞时丢弃,但车辆不会在高速公路拥塞时消失。

2024-04-20 02:08:59 619

原创 Chapter 1-11. Introduction to Congestion in Storage Networks

在无损网络中,为防止缓冲区超限,接收器会对其直接连接的邻居施加反向压力。但是,邻居的缓冲区开始填满,为了避免自己的缓冲区超限,邻居向其上游直接连接的邻居施加反向压力。但是,作为副作用,流量控制会减慢流经同一路径的所有流量。在无损网络中,这种慢速终端设备使用逐跳流量控制来降低入口流量速率,从而使其缓冲区不会超载,避免丢帧。同时传输有损和无损流量的融合网络,只有无损流量才会出现拥塞扩散。因此,拥塞的影响仅限于通过拥塞端口的流量。在有损网络中,这种慢速终端设备会丢弃任何多余的流量,而网络却不会察觉到这种情况。

2024-04-13 20:33:05 968

原创 Chapter 1-10. Introduction to Congestion in Storage Networks

当进入网络的流量(称为入口流量)大于流出网络的流量(称为出口流量)时,网络就会拥塞。在想象的世界中,要在高速公路上实现无损网络的理念,就需要采用神奇的方法来移除多余的车辆,比如将它们空运回出发地。,无论其类型是块存储、文件存储还是对象存储。在本书中,存储网络指的是任何传输存储流量的网络,无论其类型是块存储、文件存储还是对象存储,并处理对远程存储设备的。总之,无论公共云、私有云还是混合云,大多数应用都需要访问远程存储,而存储网络可提供连接。等协议传输文件和对象存储流量的网络也是一种存储网络。

2024-04-13 20:21:44 1151

原创 Chapter 1 - 9. Introduction to Congestion in Storage Networks

当网络是专用网络时,其所有容量都可用于存储流量,因此其他流量不会影响存储流量的性能。尽管根据我们的经验,这些是最常见的因素,但不同的组织会根据其要求和限制做出不同的选择。如果这只是单台主机的情况,你或许可以再增加一条链路,但如果所有主机都有类似的流量需求,那么你是应该增加现有网络的容量,还是应该为存储流量创建一个专用网络呢?共享网络的另一个子类别是融合网络。,但其他类别的流量仍会影响存储流量,以及对存储流量进行单独流量监控和对组件故障做出响应的复杂性。被存储和非存储流量共享,因此最大的问题是,以太网网络。

2024-04-05 06:54:34 829

原创 Chapter 1 - 8. Introduction to Congestion in Storage Networks

交换机连接终端设备和其他交换机,提供控制面功能(如光纤通道分区、名称服务器和路由协议)和数据面功能(如交换端口之间的数据包转发和无损网络中的流量控制)。当主机和目标连接到不同的叶子交换机时,它们的流量路径涉及两个边缘链路、三个交换机和两个。当启动程序和目标连接到不同的交换机时,其流量路径涉及两个边缘链路、两个交换机和一个。当启动程序和目标连接到同一叶交换机时,它们的流量路径涉及两个边缘链路和一个交换机(如交换机。当启动程序和目标程序连接到同一交换机时,其流量路径涉及两个边缘链路和一个交换机(如交换机。

2024-04-05 06:52:12 1057 1

原创 Chapter 1 - 7. Introduction to Congestion in Storage Networks

归根结底,无论存储协议和传输协议的类型如何,网络上的流量配置文件都是由应用程序定义的。网络必须了解以太网帧的内容,以执行光纤通道分区并提供基于交换的负载平衡,因为交换是在光纤通道帧中进行的,而光纤通道帧前有。的名称中包含内存,但这并不意味着它人为地移动了应用程序不希望它移动的任何数据。网络并不了解存储协议,这些协议由终端设备在将帧发送到网络之前封装在传输中。因此,它们的拥塞管理是相似的,将在第。都使用无损以太网,但它们的网络是不同的。,网络不需要知道以太网帧的内容。的协议,存储网络移动的数据都是一样的。

2024-03-30 07:45:12 1149

原创 Chapter 1 - 6. Introduction to Congestion in Storage Networks

并依靠其他机制实现端到端的可靠传输。层的存在,只是使用无损以太网或有时有损以太网网络将以太网帧传输到目的地。的所有优点,如可靠和按顺序传输、端到端流量控制和拥塞控制。命令,以便通过有损或无损网络访问远程块存储。流量在融合以太网网络上运行,同时使用其无损行为。层之间的交互在高层并不那么简单,因为有许多类型的。层的存在,只是通过有损以太网或有时无损以太网传输。传输上提供远程文件存储访问的协议。章详细介绍了以太网存储网络中的拥塞管理。层的存在,只是利用网络的标准转发功能将。模型的高层,对于远程块存储,

2024-03-30 07:43:11 659

原创 Chapter 1 - 5. Introduction to Congestion in Storage Networks

的人较少,因此根据它的功能而不是它的本质来命名是提高知名度的不错选择。可在有损网络上运行,因为它已具备可靠的数据传输机制,内置端到端流量控制和拥塞控制。这些机制不同于上一节中解释的在成帧层跨越网络边界的机制,成帧层对应于。)可将流量划分为不同等级,用于为存储流量提供服务质量,如最低带宽保证。层的存在,只需使用标准转发功能将以太网帧传输到目的地即可。标头,但可能使用无损以太网网络。层(传输层)协议,通常在有损以太网网络上运行。),但在某些环境下也可能使用有损网络。使用无损网络时,它的网络拥塞特征与。

2024-03-23 07:15:46 675

原创 Chapter 1 - 4. Introduction to Congestion in Storage Networks

这种流量控制的结果是对直接连接的发送方施加反向压力,加快其流量速率,以避免接收方缓冲区超限。这样,进入网络的流量就与流出网络的流量相等。不过,在本书中,聚合网络指的是配置为同时传输有损和无损流量的网络。)指的是针对流量方向使用流量控制的通用术语,无论其实现方式如何。实现无损网络功能的流量控制机制的常见例子有光纤通道使用的缓冲区到缓冲区(使用的类似的基于信用的流量控制机制,以及以太网使用的链路级流量控制()对链路上的所有流量进行流量控制,也可以使用基于优先级的流量控制()只对选择性的流量类别进行流量控制。

2024-03-23 07:12:47 859

原创 Chapter 1 - 3. Introduction to Congestion in Storage Networks

在大多数人身边看到的通用以太网网络中,当接收器的缓冲区已满时,发送器不会使用流量控制来停止或减慢发送,因此接收器会丢弃任何新传入的帧。当数据包被丢弃时,堆栈中的另一层会处理这种情况。但需要了解的关键一点是,有损网络通过丢弃帧来处理拥塞。它们不在直接连接的设备之间使用流量控制,使入口流量速率与出口流量速率相匹配。,它会检测和重传丢失的数据包,并调整传输速率以控制网络拥塞。在直接连接的设备之间不使用流量控制的网络称为有损网络。的协议都进一步定义了其使用的传输和网络类型。光纤通道是最常见的网络类型,用于传输。

2024-03-18 03:37:26 539

原创 Chapter 1 - 2. Introduction to Congestion in Storage Networks

文件级访问抽象了块级细节,并以文件和目录的形式向应用程序或操作系统展示存储。在本书的范围内,重点关注这些协议如何最终在网络上形成数据包,以及如何对它们进行流量控制。换句话说,每种网络都定义了帧格式以及在物理介质(铜线或光纤)上传输比特的编码方案。对象存储的常见用途是存储可能不会经常变化的海量数据,如图像托管、视频流服务和数据备份。)抽象了较低层次的细节,不管是块存储、文件存储还是对象存储。,因此无需加载卷(与块存储一样)或文件系统(与文件存储一样)。),通过广域网链接到远程站点,或通过互联网连接到公共云。

2024-03-18 03:34:49 880

原创 Chapter 1 - 1. Introduction to Congestion in Storage Networks

对于其他读者,本章不会让你成为专家,但会提供足够的解释,为后续章节的学习铺平道路。本地存储以块存储的形式呈现给操作系统,但也可能以文件存储或对象存储的形式呈现给应用程序。从本质上讲,它是对减少或消除网络拥塞所需的一切工作的一种较简洁的表述方式。此外,本章还对存储网络拥塞的原因和根源进行了高层次的概述。远程存储是在设备物理外壳之外的存储,它有不同的类型。它提供了一百多条命令,但最重要的是读取和写入命令的许多变体。数据中心中的存储可根据其位置(本地和远程)和访问级别(块、文件和对象)进行分类。

2024-03-12 23:29:34 1022

原创 Chapter 8 - 25. Congestion Management in TCP Storage Networks

在配置主动队列管理机制时,目标应是实现较低的队列利用率,以最大限度地减少队列延迟,并最大限度地为流量突发留出空间。从本质上讲,对于存储网络来说,宁可选择利用率低的链路,也不要选择利用率过高的链路。要实现存储流量的低延迟和突发要求,就必须了解、检测并减少拥塞问题,从而使应用性能达到可接受的水平。使用远程监控平台可以快速准确地排除故障,这些平台可以分析趋势和季节性,执行比较分析,提供端到端路径的单面可见性,并生成警报主动通知用户。的其他功能,如慢速启动、拥塞避免的累加增加或数据包丢失后的恢复,则保持不变。

2024-03-12 22:50:29 1134

原创 Chapter 8 - 24. Congestion Management in TCP Storage Networks

此外,当数据包被丢弃时,拥塞窗口会减小,从而只降低很小的吞吐量,如最大带宽的 90%(例 8-8 中的 min-available-bandwidth-mbps)。例如,要查找 FCIP 链路上的重传情况,可使用 Cisco MDS 交换机上的 show ips stats tcp interface 命令(例 8-9)。). 由于最大光纤通道帧大小为 2148 字节,因此在 FCIP 端点之间的所有链路上配置 2300 字节(考虑报头后)的 IP MTU 可以避免碎片,从而获得更好的性能(例 8-8)。

2024-03-09 16:18:59 1133

原创 Chapter 8 - 23. Congestion Management in TCP Storage Networks

流量,那么在数据层,该网络与其他以太网网络没有任何区别。另一方面,如果没有其他类别的流量,该网络就会像专用存储网络一样运行。网络被配置为共享,并不一定意味着存储和其他流量同时流过网络。在网络中使用多个无损和有损流量类别在技术上是可行的,但由于会造成带宽和缓冲区等网络资源的争用,因此会使拥塞管理变得更加复杂。这是因为您仍然需要对存储流量进行标记和分类,为其分配最小带宽,并在整个网络中一致地应用此配置。的单独类别,因此该类别中的数据包可能会被丢弃。的无损网络并不常见,但某些环境可能仍在使用。

2024-03-09 15:59:49 1233

原创 Chapter 8 - 22. Congestion Management in TCP Storage Networks

链路连接到叶交换机的骨干交换机的封闭网络设计中,这一点更为重要,因为不仅要对一个交换机上的链路进行比较,还要对多个骨干交换机上的链路进行比较。字段对流量进行分类,将其分配到存储流量类别,并分配最低带宽保证。网络通常使用基于流量的负载平衡方案(或可选的基于每个数据包的负载平衡方案),以实现聚合链路(端口通道)或。但是,当其他类有流量时,存储流量类的带宽分配就会受到限制(假设为。但是,当其他类别的流量增加到。后,其他类别的流量不会影响存储流量类别。连接使用不同的源端口,因此其流量被归类为不同的流量,与先前的。

2024-03-04 10:45:19 859

原创 Chapter 8 - 21. Congestion Management in TCP Storage Networks

,则会变得更加困难,因为一旦数据包进入他们的网络,本地网络和存储团队就不再具有可见性或控制权。当网络链路容量不足时,通过该链路的所有流量都可能受到影响,因为它们的数据包可能会被丢弃或延迟。的性能低于预期,即使其端点知道数据包丢失,它也不知道数据包在端到端路径的哪个位置丢失,也不知道数据包丢失的原因。的端到端流量控制和拥塞控制机制是默认启用的,用户无需干预。通过按端口和按流量等级检测网络链路上的数据包丢失和终端设备上的数据包重传。计数器检测网络链路上的高链路利用率和微爆检测,以及终端设备上的。

2024-03-04 10:43:11 855

原创 Chapter 8 - 20. Congestion Management in TCP Storage Networks

计数器和微爆事件在过去几天、几周或几个月中是否一直在上升,尽管可能不会出现任何突然的峰值。此外,还要注意是否存在季节性,即是否在一天中的特定时段或一周中的特定日子,甚至一年中的特定月份出现峰值。数据包在拥塞端口被丢弃,拥塞的不利影响只限于通过该端口的流量。拥塞控制机制很重要,因此它们的正常活动是正常的。我们建议您参考产品文档和发布说明,了解产品在您的环境中的功能和使用方法。例如,比较所有骨干端口,检测是否有少数端口报告的计数过高。对于定制开发的应用程序或脚本来说,输出指标的机制是一个主要考虑因素。

2024-02-28 13:12:22 1031

原创 Chapter 8 - 19. Congestion Management in TCP Storage Networks

但是,如果链路持续报告微爆事件、显示的微爆次数高于其他链路或显示的微爆次数不断增加,则需要进行调查。队列深度监控和微爆检测可捕捉到可能导致较低粒度拥塞的事件,但由于轮询间隔较长,其他方法无法捕捉到这些事件。的利用率,但却有很多微爆事件,那么就很难证明增加容量是合理的。,但偶尔会发生微脉冲,那么解决方案就是提高速度或增加更多链路。当队列利用率低于突发检测命令中的下降阈值参数时,微突发事件就会结束。,它们可以优先处理短期的小流量,而不是长期的大流量。随着这种微爆发生率的增加,拥塞事件的数量也在增加。

2024-02-28 13:09:35 1188

原创 Chapter 8 - 18. Congestion Management in TCP Storage Networks

在大多数生产网络中,流量速率总是按时间段计算的,因此报告的速率总是该时间段的平均值。无论网络端口处于何种状态,如果链路利用率很高,就应将其视为过度利用,并增加容量。章中解释)中,当拥塞源在终端设备内时,这些设备被称为慢耗设备,它们是通过流量控制机制的指标检测到的,例如光纤通道交换端口上缺少。如果链路利用率不均,在流量高峰期间,一条链路可能会丢弃数据包,而其他链路可能利用率不足。数据包不会丢弃,也不会延迟,但如果链路仍在高利用率下运行,就没有足够的容量来处理流量突发。请记住,存储流量是突发的。

2024-02-24 09:33:35 1423 1

原创 Chapter 8 - 17. Congestion Management in TCP Storage Networks

接收机出现拥塞时,它会使用端到端流量控制直接向源设备施加反向压力,以减慢其速度。之后,如果同一流量的数据包到达,它们将被视为新流量,其初始(最大包数)数据包将被优先处理。拥塞控制会限制出口流量,使其与网络容量相匹配,即使接收方可以发送方的速率接收。流量控制会限制发送方的出口流量速率,以便接收方能以该速率进行处理。,新流量的特定数量的初始数据包会被优先处理。换句话说,新流量总是获得优先权。层可用缓冲区较少,因此会向发送方公布一个较小(甚至为零)的接收方窗口。会将其视为网络拥塞,并使用其拥塞控制机制来处理。

2024-02-24 09:30:54 924

原创 Chapter 8 - 16. Congestion Management in TCP Storage Networks

当队列利用率超过最大阈值时,所有新到达的数据包都会被丢弃(尾部丢弃),或根据配置用。一节所述,如果降低速率的操作被延迟,同时队列利用率继续增加,导致队列满状态,则所有新进入的数据包都会被尾部丢弃。根据数据流的到达率计算概率,并与计算出的公平率进行比较,然后丢弃或标记大象数据流的数据包,而不影响小鼠数据流。流量到达时队列已满的情况下,尾部丢弃会丢弃该流量的许多数据包,从而导致仅该流量的速率显著降低。尾部丢弃方案会在队列满时丢弃新到达的数据包。如前所述,针对在队列中等待的数据包的丢弃或标记方案会极大地影响。

2024-02-18 07:54:09 1377

原创 Chapter 8 - 15. Congestion Management in TCP Storage Networks

只有空队列的链路利用率较低,因此这也是空队列利用率成为仅次于低队列利用率的最佳选择的另一个原因。但是,如果没有逐跳流量控制来减慢入口流量,新数据包仍会到达,当队列满时,唯一的选择就是丢弃这些数据包,而不管活动队列管理如何。请注意带暂停阈值的入口缓冲区是如何在出口队列利用率超过一定水平后,但在队列完全满之前才开始使用的,因为队列满了就容易出现尾丢弃。如果突发的数据包大于当时队列所能容纳的容量,那么无论队列的最大容量是多少,数据包都会被丢弃。中的低队列利用率和高队列利用率类似于光纤通道端口上的低剩余。

2024-02-18 07:51:23 1101

原创 Chapter 8 - 14. Congestion Management in TCP Storage Networks

如果这些缓冲区一直被使用,就像队列利用率很高的状态一样,即使是大缓冲区也不会有足够的空闲空间来容纳流量突发,因此新进入的数据包仍然会被丢弃。仅测量链路利用率很难检测到这种延迟,因为即使队列利用率较低,链路也会满负荷传输,队列延迟极小。当队列利用率变高时,队列延迟会增加,但链路利用率保持不变。如果网络端口上的队列没有空间容纳这些突发数据包,任何新进入的数据包都会被丢弃。因此,队列中可以存储更多的数据包,从而增加队列的最大容量。当队列利用率较高时,虽然不会丢弃数据包,但新数据包必须在已排队的数据包后面等待。

2024-02-17 15:03:53 1124

原创 Chapter 8 - 13. Congestion Management in TCP Storage Networks

换句话说,本节的重点是队列内的数据包转发,而不是多个队列之间的数据包转发。出口速率是固定的,因为它是由链路速度决定的。但是,如果整体输入速率快于输出速率,数据包就会暂时存储在队列中。为了在不浪费端口容量的情况下在端口上持续发送流量,下一个数据包应已在队列中,以便在传输当前数据包后立即传输。通常情况下,每个端口都有多个出口队列,这些队列中的数据包使用调度算法(如循环罗宾或赤字加权循环罗宾。入口端口将数据包添加到出口队列,而出口端口则不断传输队列中的数据包。在没有流量的情况下,队列是空的。微秒内队列都是空的。

2024-02-17 15:01:44 1022

原创 Chapter 8 - 12. Congestion Management in TCP Storage Networks

需要记住的重要一点是,不能因为某些东西在较新(新建环境)中运行良好,就不需要监控拥塞症状。这些值还取决于交换机的类型,因为不同的交换机有不同的架构和缓冲区大小。(以及其他通过通知终端设备来防止拥塞的方法)可能并不有效,因为从检测到拥塞到采取预防措施之间存在延迟。不过,在生产存储网络中,成百上千台设备可能以多对一的流量模式连接到同一网络。之后,随着网络的发展和成熟,拥塞的情况和严重程度可能会增加,从而激活。速率降低的延迟,其队列可能会填满,最终导致数据包丢弃。标记的数据包,最后,源降低速率。

2024-02-16 23:20:56 882

原创 Chapter 8 - 11. Congestion Management in TCP Storage Networks

网络中的显式拥塞通知,以便于比较不同传输类型的实施情况,并使用户拥有一致的检测和故障排除工作流程。标记的数据包后,会将此信息反映给源,源会像丢失数据包一样调用拥塞控制,从而降低流量速率。如稍后的队列利用率一节所述,如果队列已满,任何新进入的数据包都会被丢弃,无论其。的一部分,因此不需要特殊的数据包来反映从目标到源的拥塞情况。在收到网络拥塞通知后,最重要的是终端设备采取预防措施,如降低速率。检测到拥塞后,交换机必须能够将拥塞情况通知终端设备。)的数据包时,它就会检测到网络拥塞。)标记,以反映源的拥塞情况。

2024-02-16 23:19:26 1451

原创 Chapter 8 - 10. Congestion Management in TCP Storage Networks

由于拥塞在有损网络中不会逐跳传播,因此不会影响到许多其他无关设备,因此无需断开慢速设备的连接来防止拥塞。不过,当链路出现较低级别的问题(如位错误和收发器接收功率低)时,仍可考虑断开链路连接,以便在继续调查和采用解决方案时,不会因为链路性能下降而影响流量。在无损网络中,流量可被分隔为专用链路或虚拟链路,或不丢弃类,而每个虚拟链路或不丢弃类都有专用缓冲区,并使用专用的逐跳流量控制。无损网络不应该丢弃帧。但是,在拥塞情况下,它们可能会使用受控机制丢弃帧,以释放缓冲区并减少整个链路或无丢弃流量类中的反向压力。

2024-02-11 10:29:32 1454 1

原创 Chapter 8 - 9. Congestion Management in TCP Storage Networks

目的地必须重新组装多个碎片,这通常是一项资源密集型任务,会导致性能下降。)标志,这些数据包可能会被丢弃,而不是进行分片。,但根据执行地点的不同,这种情况可能不会发生。操作(读取或写入)可能会受到影响,因为它们的大尺寸数据帧的传输方向是相反的。需要注意的是,某些实现可能会在初始发现后协商不同的端口号。操作,因为只有上层协议的报头才能提供这一信息。请参阅产品文档,了解非标准端口号的使用情况,然后监控这些。使用巨型数据包时,必须在端到端数据路径中的所有链路上正确设置。操作的数据包很小,因此可以顺利到达目的地。

2024-02-11 10:27:53 1570

原创 Linux storage stack

2024-02-11 09:39:04 79

原创 Chapter 8 - 8. Congestion Management in TCP Storage Networks

操作有惊人的相似之处。因此,它们会导致类似的流量模式,并与网络拥塞有类似的关联。帧大小相似,方向相同,因此对网络性能和拥塞的影响也相同。一节解释说,主机链路拥塞的主要原因是来自该主机的多个并发大容量读取。)定义了流量配置文件,无论传输类型如何,流量配置文件都是相同的。,以一个或多个数据包的形式向主机发送数据。,以一个或多个数据包的形式向目标发送数据。)相比,帧类型不同,但网络流量模式相同。章的以下章节,为简洁起见,此处不再赘述。操作,如果数据包内有足够的空间,响应。一节,光纤通道也有类似的优化。

2024-02-08 20:50:49 1348

原创 Chapter 8 - 7. Congestion Management in TCP Storage Networks

这并不是对它们的认可,而是鼓励大家找到合适的解决方案,甚至在。交换机来说并不是一个挑战,因为光纤通道是专门为存储流量而构建的。这些应用前景广阔,因为它们可以收集可用数据,然后集中精力解决问题。以太网交换机可能会报告网络延迟,这通常是指数据包在网络中花费的时间。等)并测量其性能,可能无法弥补进行这些增强所需的额外成本。层将其划分为段,并将其发送给下层,以便在网络上传输帧之前添加。流量有自己的性能监控指标,如每秒传输的数据包、吞吐量、活动。,以一个或多个数据包的形式向目标发送数据。但是,如前所述,这并不是对。

2024-02-08 20:48:53 1443

原创 Chapter 8 - 6. Congestion Management in TCP Storage Networks

它会调用逐跳流量控制,减缓链路上或无丢包类中的所有流量。将调用逐跳流量控制,以减缓来自链路上脊柱交换机或无丢弃流量类别内的所有流量。这种拥塞会扩散到流量源(目标),使许多共享相同网络路径的设备受害。存储网络中,称此类设备为慢排水设备是不恰当的,因为拥塞不会蔓延到网络,尽管根本原因是相同的。因此,目标(接收器)会向主机公布一个较小的接收器窗口,以降低传输速率。因此,它会向目标发出较小接收窗口的广告,目标上的。章中的这些内容后,接下来要注意的是,可以在以下层面监控承载。它的链路可能仍有足够的容量,因此它在。

2024-02-04 10:19:18 1216

原创 Chapter 8 - 5. Congestion Management in TCP Storage Networks

的要求,以最快的速度在网络上即时发送流量。的缓冲区(队列)中等待时可能会出现延迟,如果队列已满,甚至会被丢弃。发送方吞吐量低于预期时,锯齿才会继续,原因可能是网络拥塞。将拥塞窗口减半后,发送方可能会再次进入慢启动阶段,以扩大传输规模。如何提供可靠的数据传输、流量控制和拥塞控制之后,让我们来了解一下它在存储网络中的意义。就会进入拥塞避免阶段,如果窗口中的所有分段都已确认,拥塞窗口就会递增一个(非指数)。提供了按流量降低速率的功能,但该算法未标准化,取决于实施情况。与此同时,发送方会重传丢失的数据包。

2024-02-04 10:16:24 1196

原创 Chapter 8 - 4. Congestion Management in TCP Storage Networks

但是,如果接收方的缓冲区快满了,它就会减小窗口大小,以减慢发送方的速度。因此,发送方的发送速度与接收方的接收速度相同。,它只对收到的数据包进行选择性确认,因此只传输丢失的数据包,而不是在丢失数据包后重传所有数据包,从而提高了数据包丢失时的性能。接收方会记住已接收数据包的序列号,如果很快又收到相同的序列号,就会丢弃重复的数据包。接收窗口和拥塞窗口的另一个区别是,只有接收窗口是由接收方向发送方公布的,而拥塞窗口是由发送方本地计算的。发送方的发送速率就是其上层所期望的速率,也是接收方接收窗口所公布的接收能力。

2024-01-31 12:53:05 1101

linux kernel driver development

linux kernel driver development

2023-12-03

RDMA 优先级 流量控制

RDMA 优先级 流量控制

2023-12-03

update kernel headers

update kernel headers

2021-07-12

rdma-core/irdma: Implement device supported verb APIs

rdma-core/irdma: Implement device supported verb APIs

2021-07-12

rdma-core/irdma: Add library setup and utility

rdma-core/irdma: Add library setup and utility

2021-07-12

rdma-core/irdma: Add user/kernel shared libraries

rdma-core/irdma: Add user/kernel shared libraries

2021-07-12

0001-rdma-core-irdma-Add-irdma-to-Makefiles-distro-files-.patch

0001-rdma-core-irdma-Add-irdma-to-Makefiles-distro-files-.patch

2021-07-12

Chapter3.docx

Chapter3.docx

2021-06-20

Chapter2.docx

Linux is available for a wide range of architectures, so an architecture-independent way of describing memory is needed. This chapter describes the structures used to keep account of memory banks, pages and flags that affect VM behavior.

2021-04-11

312_On-demand-paging_LLiss.pdf

312_On-demand-paging_LLiss.pdf

2021-02-17

内存管理Introduction.docx

内存管理Introduction.docx

2021-02-13

1Introduction to the Linux Kernel.docx

1Introduction to the Linux Kernel.docx

2021-01-10

2. Getting Started with the Kernel

2. Getting Started with the Kernel

2020-12-26

3Process Management.docx

This chapter introduces the concept of the process, one of the fundamental abstractions in Unix operating systems. It defines the process, as well as related concepts such as threads, and then discusses how the Linux kernel manages each process: how they are enumerated within the kernel

2020-12-08

Advanced programmability and recent updates with tc’s cls bpf

eBPF: efficient, generic in-kernel bytecode engine Today used mainly in networking, tracing, sandboxing tc, XDP, socket filters/demuxing, perf, bcc, seccomp, LSM, ... cls bpf programmable classifier and action in tc subsystem Attachable to ingress, egress of kernel’s networking data path

2020-11-18

4Process Scheduling.docx

The prior chapter discussed processes, the operating system abstraction of active program code. This chapter discusses the process scheduler, the kernel subsystem that puts those processes to work.

2020-11-14

OVS_Offload_using_ASAP2_Direct_User_Manual_v3.3.pdf

Open vSwitch (OVS) allows Virtual Machines (VM) to communicate with each other and with the outside world. OVS traditionally resides in the hypervisor and switching is based on twelve tuple matching on flows. The OVS software based solution is CPU intensive, affecting system performance and preve

2020-11-09

OVS kernel intro - By Maor.pptx

ASAP^2 Direct design SRIOV, legacy/switchdev Software based vs Hardware based ASAP2 Software Architecture ASAP^2 Features Classifications fields (Matches) Actions Feature matrix

2020-11-09

BF-2 Virtio-net_.docx

This will show how to configure and test virtio-net emulation using BlueField-2

2020-11-09

AVS Offload Tech Discussions (November 2018).pdf

 VirtIO Connected VMs  Multiple interfaces per VM (vPorts)  Accelerate AVS virtual switching using hardware offload  Overlay networking using Ali-VXLAN/Ali-VXLAN-GPE  NAT (modify IP/port, adjust TCP sequence number)  Routing (TTL decrement, header modify)  Aging acceleration  Rate metering 

2020-11-09

Introduction to InfiniBand.ppt

InfiniBand features Glossary Get familiar with IB HW/SW entities Get familiar with data path operations Get familiar with IB SW objects

2020-11-09

Intro to RDMA.pptx

Motivation Background Kernel Bypass & Transport Offload RDMA programming APIs

2020-11-09

FAE training - ASAP^2 - Gavi.pptx

PCIe device presents multiple instances to the OS/Hypervisor Enables application direct access Bare metal performance for VM Reduces CPU overhead Enables many advanced features – DPDK, RDMA, etc.

2020-11-09

ASAP2_Hardware_Offloading_for_vSwitches_User_Manual_v4.4

Open vSwitch (OVS) allows Virtual Machines (VM) to communicate with each other and with the outside world. OVS traditionally resides in the hypervisor and switching is based on twelve tuple matching on flows. The OVS software based solution is CPU intensive, affecting system performance and preve

2020-11-09

Mellanox Adapters Programmer’s Reference Manual (PRM)

This Programmer’s Reference Manual (PRM) describes the interface used by developers to develop Mellanox Adapters based solutions and to write a driver for the supported adapter devices. The following Mellanox adapters are supported in this document: • Connect-IB® • ConnectX®-4 • ConnectX®-4 Lx • C

2020-11-09

Verbs programming tutorial-final.pdf

SR-IOV and IOMMU/VT-d must be enabled in BIOS intel_iommu=on option must be specified in kernel command line - to check: cat /proc/cmdline - to setup: edit and configure bootloader files (GRUB/GRUB2)

2020-11-09

vswitch diagram (002).pptx

The diagram describes the whole process that packet passes.

2020-11-09

vSwitch_Data_Path_HW_Offload_UM.pdf

This manual describes the proper use of DPDK APIs to efficiently offload a part or all of the vSwitch data path to the device.

2020-11-09

RDMA overview for verification team.pptx

What is RDMA? Direct Memory Access is an ability of a device to access the host memory directly for reads and writes without involving the CPU RDMA is the ability of doing DMA on a remote machine Kernel and TCP/IP bypass

2020-11-08

0-BlueField SmartNic Overview.pptx

QPs can be initialized and set-up without coordination Use TCP to exchange parameters Connection Management Out-of-band: uses GSI (QP1) MADs

2020-11-08

OVS_Offload_using_ASAP2_Performance_Tuning_Guide_v3.0.pdf

This document describes Open vSwitch (OVS) offload using Mellanox "Accelerated Switching And Packet Processing" (ASAP2) Direct technology performance verification procedure. Additionally, it describes the proper way to bring-up a system for optimized packet processing performance.

2020-11-06

OVS_Offload_using_ASAP2_Performance_Tuning_Guide_v1.0.pdf

This document describes Open vSwitch (OVS) offload using Mellanox "Accelerated Switching And Packet Processing" (ASAP2) Direct technology performance verification procedure.

2020-11-06

ASAP2 Arch.pdf

ASAP2 takes advantage of ConnectX-4\5 capabilities to offload “in host” network stack

2020-11-05

Introduction to InfiniBand.ppt

InfiniBand is a network architecture for interconnecting processor nodes and I/O nodes to form a system area network. The architecture is independent on the host operating system (OS) and processor platform. IB is an open standard (not proprietary) IB has low latency (< 3usec) and high Bandwidth (up

2020-11-04

Intro to RDMA.PPTX

RC (~= TCP) Reliable, connection oriented, transport. Guarantees full, in-order, delivery of messages and RDMA UD (~= UDP) Unreliable, connection-less, transport. Best effort to deliver messages. Optional multicast support UC Unreliable, connection oriented, transport. Best effort, in-order, deliver

2020-11-04

Virtio Full Emulation - Spec.docx

This spec describes the SW architecture for Virtio device (net and block) emulation on top of BlueField2.

2020-11-02

BlueField2_MOC3.0_POC_0.5.pptx

Progress: ASAP2 OVS-DPDK offload setup finished. VFs inside local host and between two hosts can run forwarding Preliminary forwarding performance got Full emulation virtio-net demo in Mellanox setup delivered to Alibaba RoCE perftest latency and bandwidth got Need: Full emulation virtio-net perfo

2020-11-02

BlueField2_MOC3.0_POC_0.3.pptx

High priority cases which need to finish in Aug Case1 local forwarding case2 forwarding Case3 boot from local nvme disk Case4 virtIO emulation Other cases which need to finish in Sep Case5 RoCE HPCC Case6 IPSEC/KTLS

2020-11-02

BlueField Software Documentation v2.5.0.11176__03_05_2020.pdf

The release note pages provide information for the BlueField Software such as changes and new features, supported platforms, and reports on software known issues as well as bug fixes.

2020-11-02

sFlow-ovs.pptx

sFlow test environment OVS flow dump Sflowtool result

2020-11-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除