用群晖做网站服务器长治市住房保障和城乡建设管理局网站

news/2025/10/8 14:18:32/文章来源:
用群晖做网站服务器,长治市住房保障和城乡建设管理局网站,网站建设公司那家好,江苏外贸型网站制作dpdk原理 1、操作系统、计算机网络诞生已经几十年了#xff0c;部分功能不再能满足现在的业务需求。如果对操作系统做更改#xff0c;成本非常高#xff0c;所以部分问题是在应用层想办法解决的#xff0c;比如前面介绍的协程、quic等#xff0c;都是在应用层重新开发的框…dpdk原理 1、操作系统、计算机网络诞生已经几十年了部分功能不再能满足现在的业务需求。如果对操作系统做更改成本非常高所以部分问题是在应用层想办法解决的比如前面介绍的协程、quic等都是在应用层重新开发的框架简单回顾如下 协程server多线程通信时如果每连接一个客户端就要生成一个线程去处理对server硬件资源消耗极大为了解决多线程以及互相切换带来的性能损耗应用层发明了协程框架单线程人为控制跳转到不同的代码块执行避免了cpu浪费、线程锁/切换等一系列耗时的问题 quic协议tcp协议已经深度嵌入了操作系统更改起来难度很大所以同样也是在应用层基于udp协议实现了tls、拥塞控制等彻底让协议和操作系统松耦合 除了上述问题操作还有另一个比较严重的问题基于os内核的网络数据IO传统做网络开发时接收和发送数据用的是操作系统提供的receive和send函数用户配置一下网络参数、传入应用层的数据即可操作系统由于集成了协议栈会在用户传输的应用层数据前面加上协议不同层级的包头然后通过网卡发送数据接收到的数据处理方式类似按照协议类型一层一层拨开直到获取到应用层的数据整个流程大致如下 网卡接受数据-----发出硬件中断通知cpu来取数据-----os把数据复制到内存并启动内核线程          ---软件中断---内核线程在协议栈中处理包---处理完毕通知用户层 大家有没有觉得这个链条忒长啊这么长的处理流程带来的问题 “中间商”多整个流程耗时数据进入下一个环节时容易cache miss 同一份数据在内存不同的地方存储缓存内存、内核内存、用户空间的内存浪费内存 网卡通过中断通知cpu每次硬中断大约消耗100微秒这还不算因为终止上下文所带来的Cache MissL1、L2、TLB等cpu的cache可能都会更新 用户到内核态的上下文切换耗时 数据在内核态用户态之间切换拷贝带来大量CPU消耗全局锁竞争 内核工作在多核上为保障全局一致即使采用Lock Free也避免不了锁总线、内存屏障带来的性能损耗 这一系列的问题都是内核处理网卡接收到的数据导致的。大胆一点想象如果不让内核处理网卡数据了能不能避免上述各个环节的损耗了能不能让3环的应用直接控制网卡收发数据了 2、如果真的通过3环应用层直接读写网卡面临的问题 用户空间的内存要映射到网卡才能直接读写网卡 驱动要运行在用户空间 1这两个问题是怎么解决的了这一切都得益于linux提供的UIO机制 UIO 能够拦截中断并重设中断回调行为相当于hook了这个功能还是要在内核实现的因为硬件中断只能在内核处理从而绕过内核协议栈后续的处理流程。这里借用别人的一张图 UIO 设备的实现机制其实是对用户空间暴露文件接口比如当注册一个 UIO 设备 uioX就会出现文件 /dev/uioX用于读取中断底层还是要在内核处理因为硬件中断只能发生在内核对该文件的读写就是对设备内存的读写通过mmap实现。除此之外对设备的控制还可以通过 /sys/class/uio 下的各个文件的读写来完成。所以UIO的本质 让用户空间的程序拦截内核的中断更改中断的handler处理函数让用户空间的程序第一时间拿到刚从网卡接收到的“一手、热乎”数据减少内核的数据处理流程由于应用程序拿到的是网络链路层也就是第二层的数据这就需要应用程序自己按照协议解析数据了说个额外的这个功能可以用来抓包 简化后的示意图如下原本网卡是由操作系统内核接管的现在直接由3环的dpdk应用控制了 这就是dpdk的第一个优点除了这个还有以下几个 2Huge Page 大页传统页面大小是4Kb如果进程要使用64G内存则64G/4KB16000000一千六百万页所有在页表项中占用16000000 * 4B62MB但是TLB缓存的空间是有限的不可能存储这么多页面的地址映射关系所以可能导致TLB miss如果改成2MB的huge Page所需页面减少到64G/2MB2000个。在TLB容量有限的情况下尽可能地多在TLB存放地址映射极大减少了TLB miss下图是采用不同大小页面时TLB能覆盖的内存对比 3mempool 内存池任何网络协议都要处理报文这些报文肯定是存放在内存的申请和释放内存就需要调用malloc和free函数了这两个是系统调用涉及到上下文切换同时还要用buddy或slab算法查找空闲内存块效率较低dpdk 在用户空间实现了一套精巧的内存池技术内核空间和用户空间的内存交互不进行拷贝只做控制权转移。当收发数据包时就减少了内存拷贝的开销 4Ring 无锁环多线程/多进程之间互斥传统的方式就是上锁但是dpdk基于 Linux 内核的无锁环形缓冲 kfifo 实现了自己的一套无锁机制支持多消费者或单消费者出队、多生产者或单生产者入队 5PMD poll-mode网卡驱动网络IO监听有两种方式分别是 事件驱动比如epoll这种方式进程让出cpu后等数据一旦有了数据网卡通过中断通知操作系统然后唤醒进程继续执行这种方式适合于接收的数据量不大但实时性要求高的场景 轮询比如poll本质就是用死循环不停的检查内存有没有数据到来这种方式适合于接收大块数据实时性要求不高的场景 总的来说说中断是外界强加给的信号必须被动应对而轮询则是应用程序主动地处理事情。前者最大的影响就是打断系统当前工作的连续性而后者则不会事务的安排自在掌握 dpdk采用第二种轮询方式直接用死循环不停的地检查网卡内存带来了零拷贝、无系统调用的好处同时避免了网卡硬件中断带来的上下文切换理论上会消耗300个时钟周期、cache miss、硬中断执行等损耗 6NUMAdpdk 内存分配上通过 proc 提供的内存信息使 CPU 核心尽量使用靠近其所在节点的内存避免了跨 NUMA 节点远程访问内存的性能问题其软件架构去中心化尽量避免全局共享带来全局竞争失去横向扩展的能力 7CPU 亲和性 dpdk 利用 CPU 的亲和性将一个线程或多个线程绑定到一个或多个 CPU 上这样在线程执行过程中就不会被随意调度一方面减少了线程间的频繁切换带来的开销另一方面避免了 CPU L1、L2、TLB等缓存的局部失效性增加了 CPU cache的命中率。 dpdk学习视频推荐 dpdk专题讲解dpdk/网络协议栈/vpp/OvS/DDos/SDN/NFV/虚拟化/高性能网络专家之路https://www.bilibili.com/video/BV1fY411z7Y8/ Linux C/C开发后端/音视频/游戏/嵌入式/高性能网络/存储/基础架构/安全 需要C/C Linux服务器架构师学习资料加qun812855908获取资料包括C/CLinuxgolang技术NginxZeroMQMySQLRedisfastdfsMongoDBZK流媒体CDNP2PK8SDockerTCP/IP协程DPDKffmpeg等免费分享 dpdk核心源码 dpdk是intel主导开发的网络编程框架 有这么多的优点都是怎么实现的了 1、UIO原理dpdk绕过了操作系统内核直接接管网卡用户程序可以直接在3环读写网卡的数据这就涉及到两个关键技术点了 地址映射3环的程序是怎么定位到网卡数据存放在哪的了 拦截硬件中断传统数据处理流程是网卡收到数据后通过硬件中断通知cpu来取数据3环的程序肯定要拦截这个中断然后通过轮询方式取数据这个又是怎么实现的了 1地址映射3环程序最常使用的就是内存地址了一共32或64bitC/C层面可以通过指针直接读写地址的值除了内存还有很多设备也需要和cpu交互数据比如显示器要在屏幕显示的内容肯定是需要用户指定的用户程序可以把显示的内容发送到显示器指定的地方然后再屏幕打印出来。为了方便用户程序发送数据硬件层面会把显示器的部分存储空间映射到内存地址做到了和内存条硬件的寻址方式一样用户也可以直接通过指针往这里写数据汇编层面直接通过mov指令操作即可网卡也类似网卡是插在pci插槽的网卡或者说pci插槽的存储空间也会映射到内存地址应用程序读写这块物理地址就等同于读写网卡的存储空间实际写代码时由于要深入驱动pci网卡预留物理的内存与io空间会保存到uio设备上相当于将这些物理空间与io空间暴露给uio设备应用程序访问这些uio设备即可几个关键的函数如下 将pci网卡的物理内存空间以及io空间保存在uio设备结构struct uio_info中的mem成员以及port成员中uio设备就知道了网卡的物理以及io空间。应用层访问这个uio设备的物理空间以及io空间就相当于访问pci设备的物理以及io空间本质上就是将pci网卡的空间暴露给uio设备。 int igbuio_pci_probe(struct pci_dev *dev, const struct pci_device_id *id) {//将pci内存端口映射给uio设备struct rte_uio_pci_dev *udev;err igbuio_setup_bars(dev, udev-info); } static int igbuio_setup_bars(struct pci_dev *dev, struct uio_info *info) {//pci内存端口映射给uio设备for (i 0; i ! sizeof(bar_names) / sizeof(bar_names[0]); i) {if (pci_resource_len(dev, i) ! 0 pci_resource_start(dev, i) ! 0) {flags pci_resource_flags(dev, i);if (flags IORESOURCE_MEM) {//暴露pci的内存空间给uio设备ret igbuio_pci_setup_iomem(dev, info, iom, i, bar_names[i]);} else if (flags IORESOURCE_IO) {//暴露pci的io空间给uio设备ret igbuio_pci_setup_ioport(dev, info, iop, i, bar_names[i]);}}} } 2拦截硬件中断为了减掉内核中冗余的数据处理流程应用程序要hook网卡的中断从源头开始拦截网卡数据当硬件中断触发时才不会一直触发内核去执行中断回调。也就是通过这种方式才能在应用层实现硬件中断处理过程。注意这里说的中断仅是控制中断而不是报文收发的数据中断数据中断是不会走到这里来的因为在pmd开启中断时没有设置收发报文的中断掩码只注册了网卡状态改变的中断掩码hook中断的代码如下 int igbuio_pci_probe(struct pci_dev *dev, const struct pci_device_id *id) {//填充uio信息udev-info.name igb_uio;udev-info.version 0.1;udev-info.handler igbuio_pci_irqhandler; //硬件控制中断的入口劫持原来的硬件中断udev-info.irqcontrol igbuio_pci_irqcontrol; //应用层开关中断时被调用用于是否开始中断 } static irqreturn_t igbuio_pci_irqhandler(int irq, struct uio_info *info) {if (udev-mode RTE_INTR_MODE_LEGACY !pci_check_and_mask_intx(udev-pdev)){return IRQ_NONE;}//返回IRQ_HANDLED时linux uio框架会唤醒等待uio中断的进程。注册到epoll的uio中断事件就会被调度/* Message signal mode, no share IRQ and automasked */return IRQ_HANDLED; } static int igbuio_pci_irqcontrol(struct uio_info *info, s32 irq_state) {//调用内核的api来开关中断if (udev-mode RTE_INTR_MODE_LEGACY){pci_intx(pdev, !!irq_state);}else if (udev-mode RTE_INTR_MODE_MSIX)\{list_for_each_entry(desc, pdev-msi_list, list)igbuio_msix_mask_irq(desc, irq_state);} } 2、内存池传统应用要使用内存时一般都是调用malloc让操作系统在堆上分配。这样做有两点弊端 进入内核要切换上下文 操作系统通过buddyslab算法找合适的空闲内存 所以频繁调用malloc会严重拉低效率如果不频繁调用malloc怎么处理频繁收到和需要发送的报文数据了dpdk采用的是内存池的技术即在huge page内存中开辟一个连续的大缓冲区当做内存池同时提供rte_mempool_get从内存池中获取内存空间。也可调用rte_mempool_put将不再使用的内存空间放回到内存池中。从这里就能看出dpdk自己从huge page处维护了一大块内存供应用程序使用应用程序不再需要通过系统调用从操作系统申请内存了 1内存池的创建在rte_mempool_create接口中完成。这个接口主要是在大页内存中开辟一个连续的大缓冲区当做内存池然后将这个内存池进行分割头部为struct rte_mempool内存池结构 紧接着是内存池的私有结构大小这个由应用层自己设置每个创建内存池的应用进程都可以指定不同的私有结构 最后是多个连续的对象元素这些对象元素都是处于同一个内存池中。每个对象元素又有对象的头部对象的真实数据区域对象的尾部组成。这里所说的对象元素其实就是应用层要开辟的真实数据空间例如应用层自己定义的结构体变量等本质上是dpdk自己实现了一套内存的管理办法其作用和linux的buddyslab是一样的没本质区别整个内存池图示如下 每创建一个内存池都会创建一个链表节点然后插入到链表中因此这个链表记录着当前系统创建了多少内存池。核心代码如下 //创建内存池链表节点 te rte_zmalloc(MEMPOOL_TAILQ_ENTRY, sizeof(*te), 0); //内存池链表节点插入到内存池链表中 te-data (void *) mp; RTE_EAL_TAILQ_INSERT_TAIL(RTE_TAILQ_MEMPOOL, rte_mempool_list, te); 所以说内存池可能不止1个会有多个在内存池中内存被划分成了N多的对象。应用程序要申请内存时怎么知道哪些对象空闲可以用哪些对象已经被占用了当对象元素初始化完成后会把对象指针放入ring队列所以说ring队列的所有对象指针都是可以使用的应用程序要申请内存时可以调用rte_mempool_get接口从ring队列中获取也就是出队 使用完毕后调用rte_mempool_put将内存释放回收时也是将要回收的内存空间对应的对象指针放到这个ring队列中也就是入队 2具体分配内存时的步骤 现代cpu基本都是多核的多个cpu同时在内存池申请内存时无法避免涉及到互斥会在一定程度上影响分配的效率所以每个cpu自己都有自己的“自留地”会优先在自己的“自留地”申请内存 如果“自留地”的内存已耗尽才会继续去内存池申请内存核心代码如下 int rte_mempool_get(struct rte_mempool *mp, void **obj_table, unsigned n) { #if RTE_MEMPOOL_CACHE_MAX_SIZE 0//从当前cpu应用层缓冲区中获取cache mp-local_cache[lcore_id];cache_objs cache-objs;for (index 0, len cache-len - 1; index n; index, len--, obj_table){*obj_table cache_objs[len];}return 0; #endif/* get remaining objects from ring *///直接从ring队列中获取ret rte_ring_sc_dequeue_bulk(mp-ring, obj_table, n); } 释放内存的步骤和申请类似 先查看cpu的“自留地”是否还有空间。如果有就先把释放的对象指针放在“自留地” 如果“自留地”没空间了再把释放的对象指针放在内存池核心代码如下 int rte_mempool_put(struct rte_mempool *mp, void **obj_table, unsigned n) { #if RTE_MEMPOOL_CACHE_MAX_SIZE 0//在当前cpu本地缓存有空间的场景下 先放回到本地缓存。cache mp-local_cache[lcore_id];cache_objs cache-objs[cache-len];for (index 0; index n; index, obj_table){cache_objs[index] *obj_table;}//缓冲达到阈值刷到队列中if (cache-len flushthresh) {rte_ring_mp_enqueue_bulk(mp-ring, cache-objs[cache_size], cache-len - cache_size);cache-len cache_size;}return 0 #endif//直接放回到ring队列rte_ring_sp_enqueue_bulk(mp-ring, obj_table, n); } 注意这里的ring是环形无锁队列 3、Poll mode driver 不论何总形式的io接收方获取数据的方式有两种 被动接收中断的唤醒典型如网卡收到数据通过硬件中断通知操作系统去处理操作系统收到数据后会唤醒休眠的进程继续处理数据 轮询 poll写个死循环不停的检查内存地址是否有新数据到了 在 x86 体系结构中一次中断处理需要将 CPU 的状态寄存器保存到堆栈并运行中断handler最后再将保存的状态寄存器信息从堆栈中恢复整个过程需要至少 300 个处理器时钟周期所以dpdk果断抛弃了中断转而使用轮询方式整个流程大致是这样的内核态的UIO Driver hook了网卡发出的中断信号然后由用户态的 PMD Driver 采用主动轮询的方式。除了链路状态通知仍必须采用中断方式以外因为网卡发出硬件中断才能触发执行hook代码的嘛这个容易理解吧均使用无中断方式直接操作网卡设备的接收和发送队列。整体流程大致如下UIO hook了网卡的中断网卡收到数据后“被迫”执行hook代码先是通过UIO把网卡的存储地址映射到/dev/uio文件而后应用程序通过PMD轮询检查文件是否有新数据到来期间也使用mmap把应用的虚拟地址映射到网卡的物理地址减少数据的拷贝转移 总的来说UIOPMD前者旁路了内核后者主动轮询避免了硬中断DPDK 从而可以在用户态进行收发包的处理。带来了零拷贝Zero Copy、无系统调用System call的优化。同时还避免了软中断的异步处理也减少了上下文切换带来的 Cache Miss轮询收报核心代码如下 /*PMD轮询接收数据包*/ uint16_t eth_em_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,uint16_t nb_pkts) {/* volatile防止编译器优化,每次使用必须又一次从memory中取而不是用寄存器的值 */volatile struct e1000_rx_desc *rx_ring;volatile struct e1000_rx_desc *rxdp;//指向rx ring中某个e1000_rx_desc描述符struct em_rx_queue *rxq;//整个接收队列struct em_rx_entry *sw_ring;//指向描述符队列的头部根据rx tail来偏移struct em_rx_entry *rxe;//指向sw ring中具体的entrystruct rte_mbuf *rxm;//entry里的rte mbuf/*是new mbuf新申请的mbuf当rxm从ring中取出后需要用nmb再挂上去更新对应rx ring和sw ring中的值为下一次收包做准备*/struct rte_mbuf *nmb;struct e1000_rx_desc rxd;//具体的非指针描述符uint64_t dma_addr;uint16_t pkt_len;uint16_t rx_id;uint16_t nb_rx;uint16_t nb_hold;uint8_t status;rxq rx_queue;nb_rx 0;nb_hold 0;//初始化临时变量要开始遍历队列了rx_id rxq-rx_tail;rx_ring rxq-rx_ring;sw_ring rxq-sw_ring;/* 一次性收32个报文 */while (nb_rx nb_pkts) {/** The order of operations here is important as the DD status* bit must not be read after any other descriptor fields.* rx_ring and rxdp are pointing to volatile data so the order* of accesses cannot be reordered by the compiler. If they were* not volatile, they could be reordered which could lead to* using invalid descriptor fields when read from rxd.*//* 当前报文的descriptor */rxdp rx_ring[rx_id];status rxdp-status; /* 结束标记,必须首先读取 *//*检查状态是否为dd, 不是则说明驱动还没有把报文放到接收队列直接退出*/if (! (status E1000_RXD_STAT_DD))break;rxd *rxdp; /* 复制一份 *//** End of packet.** If the E1000_RXD_STAT_EOP flag is not set, the RX packet is* likely to be invalid and to be dropped by the various* validation checks performed by the network stack.** Allocate a new mbuf to replenish the RX ring descriptor.* If the allocation fails:* - arrange for that RX descriptor to be the first one* being parsed the next time the receive function is* invoked [on the same queue].** - Stop parsing the RX ring and return immediately.** This policy do not drop the packet received in the RX* descriptor for which the allocation of a new mbuf failed.* Thus, it allows that packet to be later retrieved if* mbuf have been freed in the mean time.* As a side effect, holding RX descriptors instead of* systematically giving them back to the NIC may lead to* RX ring exhaustion situations.* However, the NIC can gracefully prevent such situations* to happen by sending specific back-pressure flow control* frames to its peer(s).*/PMD_RX_LOG(DEBUG, port_id%u queue_id%u rx_id%u status0x%x pkt_len%u,(unsigned) rxq-port_id, (unsigned) rxq-queue_id,(unsigned) rx_id, (unsigned) status,(unsigned) rte_le_to_cpu_16(rxd.length));nmb rte_mbuf_raw_alloc(rxq-mb_pool);if (nmb NULL) {PMD_RX_LOG(DEBUG, RX mbuf alloc failed port_id%u queue_id%u,(unsigned) rxq-port_id,(unsigned) rxq-queue_id);rte_eth_devices[rxq-port_id].data-rx_mbuf_alloc_failed;break;}/* 表示当前descriptor被上层软件占用 */nb_hold;/* 当前收到的mbuf */rxe sw_ring[rx_id];/* 收包位置,假设超过环状数组则回滚 */rx_id;if (rx_id rxq-nb_rx_desc)rx_id 0;/* mbuf加载cache下次循环使用 *//* Prefetch next mbuf while processing current one. */rte_em_prefetch(sw_ring[rx_id].mbuf);/** When next RX descriptor is on a cache-line boundary,* prefetch the next 4 RX descriptors and the next 8 pointers* to mbufs.*//* 取下一个descriptor,以及mbuf指针下次循环使用 *//* 一个cache line是4个descriptor大小(64字节) */if ((rx_id 0x3) 0) {rte_em_prefetch(rx_ring[rx_id]);rte_em_prefetch(sw_ring[rx_id]);}/* Rearm RXD: attach new mbuf and reset status to zero. */rxm rxe-mbuf;rxe-mbuf nmb;dma_addr rte_cpu_to_le_64(rte_mbuf_data_iova_default(nmb));rxdp-buffer_addr dma_addr;rxdp-status 0;/* 重置当前descriptor的status *//** Initialize the returned mbuf.* 1) setup generic mbuf fields:* - number of segments,* - next segment,* - packet length,* - RX port identifier.* 2) integrate hardware offload data, if any:* - RSS flag hash,* - IP checksum flag,* - VLAN TCI, if any,* - error flags.*/pkt_len (uint16_t) (rte_le_to_cpu_16(rxd.length) -rxq-crc_len);rxm-data_off RTE_PKTMBUF_HEADROOM;rte_packet_prefetch((char *)rxm-buf_addr rxm-data_off);rxm-nb_segs 1;rxm-next NULL;rxm-pkt_len pkt_len;rxm-data_len pkt_len;rxm-port rxq-port_id;rxm-ol_flags rx_desc_status_to_pkt_flags(status);rxm-ol_flags rxm-ol_flags |rx_desc_error_to_pkt_flags(rxd.errors);/* Only valid if PKT_RX_VLAN set in pkt_flags */rxm-vlan_tci rte_le_to_cpu_16(rxd.special);/** Store the mbuf address into the next entry of the array* of returned packets.*//* 把收到的mbuf返回给用户 */rx_pkts[nb_rx] rxm;}/* 收包位置更新 */rxq-rx_tail rx_id;/** If the number of free RX descriptors is greater than the RX free* threshold of the queue, advance the Receive Descriptor Tail (RDT)* register.* Update the RDT with the value of the last processed RX descriptor* minus 1, to guarantee that the RDT register is never equal to the* RDH register, which creates a full ring situtation from the* hardware point of view...*/nb_hold (uint16_t) (nb_hold rxq-nb_rx_hold);if (nb_hold rxq-rx_free_thresh) {PMD_RX_LOG(DEBUG, port_id%u queue_id%u rx_tail%u nb_hold%u nb_rx%u,(unsigned) rxq-port_id, (unsigned) rxq-queue_id,(unsigned) rx_id, (unsigned) nb_hold,(unsigned) nb_rx);rx_id (uint16_t) ((rx_id 0) ?(rxq-nb_rx_desc - 1) : (rx_id - 1));E1000_PCI_REG_WRITE(rxq-rdt_reg_addr, rx_id);nb_hold 0;}rxq-nb_rx_hold nb_hold;return nb_rx; } 接收报文的整理流程梳理如下图所示 DMA控制器控制报文一个个写到rx ring中接收描述符指定的IO虚拟内存中对应的实际内存应该就是mbuf 接收函数用rx tail变量控制不停地读取rx ring中的描述符和sw ring中的mbuf并申请新的mbuf放入sw ring中更新rx ring中的buffer addr 最后把读取的mbuf返回给应用程序。 4、线程亲和性 一个cpu上可以运行多个线程 由linux内核来调度各个线程的执行。内核在调度线程时会进行上下文切换保存线程的堆栈等信息 以便这个线程下次再被调度执行时继续从指定的位置开始执行。然而上下文切换是需要耗费cpu资源的的。多核体系的CPU物理核上的线程来回切换会导致L1/L2 cache命中率的下降。同时NUMA架构下如果操作系统调度线程的时候跨越了NUMA节点将会导致大量的L3 cache的丢失。Linux对线程的亲和性是有支持的, 如果将线程和cpu进行绑定的话线程会一直在指定的cpu上运行不会被操作系统调度到别的cpu上线程之间互相独立工作而不会互相扰完节省了操作系统来回调度的时间。目前DPDK通过把线程绑定到cpu的方法来避免跨核任务中的切换开销。 线程绑定cpu物理核的函数如下 /* set affinity for current EAL thread */ static int eal_thread_set_affinity(void) {unsigned lcore_id rte_lcore_id();/* acquire system unique id */rte_gettid();/* update EAL thread core affinity */return rte_thread_set_affinity(lcore_config[lcore_id].cpuset); } 继续往下走 /*根据前面的rte_cpuset_t ,设置tid的绑定关系存储thread local socket_id存储thread local rte_cpuset_t */ int rte_thread_set_affinity(rte_cpuset_t *cpusetp) {int s;unsigned lcore_id;pthread_t tid;tid pthread_self();//得到当前线程id//绑定cpu和线程s pthread_setaffinity_np(tid, sizeof(rte_cpuset_t), cpusetp);if (s ! 0) {RTE_LOG(ERR, EAL, pthread_setaffinity_np failed\n);return -1;}/* store socket_id in TLS for quick access *///socketid存放到线程本地空间便于快速读取RTE_PER_LCORE(_socket_id) eal_cpuset_socket_id(cpusetp);/* store cpuset in TLS for quick access *///cpu信息存放到cpu本地空间便于快速读取memmove(RTE_PER_LCORE(_cpuset), cpusetp,sizeof(rte_cpuset_t));lcore_id rte_lcore_id();//获取线程绑定的CPUif (lcore_id ! (unsigned)LCORE_ID_ANY) {//如果不相等就更新lcore配置/* EAL thread will update lcore_config */lcore_config[lcore_id].socket_id RTE_PER_LCORE(_socket_id);memmove(lcore_config[lcore_id].cpuset, cpusetp,sizeof(rte_cpuset_t));}return 0; } 继续往下走 int pthread_setaffinity_np(pthread_t thread, size_t cpusetsize,const rte_cpuset_t *cpuset) {if (override) {/* we only allow affinity with a single CPU */if (CPU_COUNT(cpuset) ! 1)return POSIX_ERRNO(EINVAL);/* we only allow the current thread to sets its own affinity */struct lthread *lt (struct lthread *)thread;if (lthread_current() ! lt)return POSIX_ERRNO(EINVAL);/* determine the CPU being requested */int i;for (i 0; i LTHREAD_MAX_LCORES; i) {if (!CPU_ISSET(i, cpuset))continue;break;}/* check requested core is allowed */if (i LTHREAD_MAX_LCORES)return POSIX_ERRNO(EINVAL);/* finally we can set affinity to the requested lcore 前面做了大量的检查和容错这里终于开始绑定cpu了*/lthread_set_affinity(i);return 0;}return _sys_pthread_funcs.f_pthread_setaffinity_np(thread, cpusetsize,cpuset); } 绑定cpu的方法也简单本质就是个上下文切换 /** migrate the current thread to another scheduler running* on the specified lcore.*/ int lthread_set_affinity(unsigned lcoreid) {struct lthread *lt THIS_LTHREAD;struct lthread_sched *dest_sched;if (unlikely(lcoreid LTHREAD_MAX_LCORES))return POSIX_ERRNO(EINVAL);DIAG_EVENT(lt, LT_DIAG_LTHREAD_AFFINITY, lcoreid, 0);dest_sched schedcore[lcoreid];if (unlikely(dest_sched NULL))return POSIX_ERRNO(EINVAL);if (likely(dest_sched ! THIS_SCHED)) {lt-sched dest_sched;lt-pending_wr_queue dest_sched-pready;//真正切换线程到指定cpu运行的代码_affinitize();return 0;}return 0; } tatic __rte_always_inline void _affinitize(void); static inline void _affinitize(void) {struct lthread *lt THIS_LTHREAD;DIAG_EVENT(lt, LT_DIAG_LTHREAD_SUSPENDED, 0, 0);ctx_switch((THIS_SCHED)-ctx, lt-ctx); } void ctx_switch(struct ctx *new_ctx __rte_unused, struct ctx *curr_ctx __rte_unused) {/* SAVE CURRENT CONTEXT */asm volatile (/* Save SP */mov x3, sp\nstr x3, [x1, #0]\n/* Save FP and LR */stp x29, x30, [x1, #8]\n/* Save Callee Saved Regs x19 - x28 */stp x19, x20, [x1, #24]\nstp x21, x22, [x1, #40]\nstp x23, x24, [x1, #56]\nstp x25, x26, [x1, #72]\nstp x27, x28, [x1, #88]\n/** Save bottom 64-bits of Callee Saved* SIMD Regs v8 - v15*/stp d8, d9, [x1, #104]\nstp d10, d11, [x1, #120]\nstp d12, d13, [x1, #136]\nstp d14, d15, [x1, #152]\n);/* RESTORE NEW CONTEXT */asm volatile (/* Restore SP */ldr x3, [x0, #0]\nmov sp, x3\n/* Restore FP and LR */ldp x29, x30, [x0, #8]\n/* Restore Callee Saved Regs x19 - x28 */ldp x19, x20, [x0, #24]\nldp x21, x22, [x0, #40]\nldp x23, x24, [x0, #56]\nldp x25, x26, [x0, #72]\nldp x27, x28, [x0, #88]\n/** Restore bottom 64-bits of Callee Saved* SIMD Regs v8 - v15*/ldp d8, d9, [x0, #104]\nldp d10, d11, [x0, #120]\nldp d12, d13, [x0, #136]\nldp d14, d15, [x0, #152]\n); }

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/931592.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

做古玩的网站wordpress属于

目标是比开源精神疾病提供的基本报告更深入地挖掘,并了解更多属性之间的相互作用,这可以为所描述的决策者提供信息。 考虑的问题点: 不同性别属性的员工心理健康是否存在显着差异?不同年龄属性的员工心理健康是否存在显着差异&a…

[计算机组成] 计算机字体文件及其运行原理

0 序python的图形绘制库matplotlib默认不支持中文,但可支持通过集成第三方的中文字体文件后渲染中文:import numpy as np from matplotlib import pyplot as plt import matplotlib# 加载指定的字体文件 # 1. fname …

免费写作文网站搜索引擎环境优化

效果:在点击提交按钮时,首先进行js判断, 如果不符合条件,则alert出提示信息,并return false. 主要点就在于给form表单添加一个onsubmit事件. 在onsubmit事件中定义的函数里进行js验证处理.代码 : <!DOCTYPE html> <html lang"en"> <head><meta …

后量子密码技术延迟随数据量增加而降低

本文探讨了后量子密码算法对TLS 1.3连接性能的影响,通过时间到最后字节指标评估数据密集型连接中ML-KEM和ML-DSA算法的实际表现,研究发现随着传输数据量增加,后量子密码带来的延迟影响显著降低。后量子密码技术延迟…

[android]MT6835 Android 指令启动MT6631 wifi操作说明 - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

深度解析 Qt 最顶层类 QObject:继承关系与内存生命周期管理 - 详解

深度解析 Qt 最顶层类 QObject:继承关系与内存生命周期管理 - 详解2025-10-08 14:07 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !…

物流业网站建设方案实验总结商城网站系统建设方案

摘要 信息技术永远是改变生活的第一种创新方式&#xff0c;各种行业的发展更是脱离不了科技化的支持。原本传统的行业正在被科技行业的切入悄悄的发生变化。就拿我们生活当中常见的事情举例而言&#xff0c;在外卖行业还没有发展的快速的时候&#xff0c;方便面等速食成了快速吃…

做网站自己买服务器吗网站开发培训少儿

今天一个同事跟我说磁盘爆了&#xff0c;df -h 查看磁盘使用率显示确实是100%&#xff0c;但是我du -sh *查看磁盘使用情况时&#xff0c;又发现磁盘情况根本不可能占满。磁盘是40G&#xff0c;使用顶多在10G&#xff0c;那还有的30多G去哪了呢。 因为之前出现过磁盘占满的情况…

2025 南昌装修公司最新推荐榜单:权威解析本土标杆与新锐品牌,助力品质家装决策南昌装修设计 / 南昌装修设计师公司推荐

随着南昌家装市场规模持续扩大,装配式装修等新技术加速渗透,消费者对装修品质的需求不断升级,但市场乱象仍未根除。部分品牌以低价噱头掩盖材料劣质、工艺粗糙的问题,墙面开裂、甲醛超标等投诉频发;还有品牌缺乏标…

网站开发的硬件环境和软件怎么写凡科网站建设

4月30日&#xff0c;“启明星辰集团年度业绩说明与战略发布会”在上海成功举办&#xff0c;启明星辰集团总裁严立、集团CFO张媛、集团董秘姜朋出席会议&#xff0c;为投资者、用户、媒体解读企业未来战略布局&#xff0c;就行业状况、生产经营、财务状况进行说明&#xff0c;探…

搜狗站长平台长沙网站制作公司在哪里

C语言文件操作 在C语言中&#xff0c;文件操作主要是通过标准库函数来实现的。 今天有时间就来学习下一些常用的文件操作函数&#xff1a; C 语言提供了一个 FILE 数据结构&#xff0c;记录了操作一个文件所需要的信息。该结构定义在头文件stdio.h&#xff0c;所有文件操作函…

实用指南:[Harmony]网络状态监听

实用指南:[Harmony]网络状态监听pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco&q…

微网站建设企划书制作网站心得

转载&#xff1a;C设计实现日志系统 - 知乎 (zhihu.com) 日志系统几乎是每一个实际的软件项目从开发、测试到交付&#xff0c;再到后期的维护过程中极为重要的 查看软件代码运行流程、 还原错误现场、 记录运行错误位置及上下文等的重要依据。一个高性能的日志系统&#xff0c…

在线教育网站建设策划WordPress自定义icon

目录 图像识别简介 神经网络 感知器 前馈神经网络 自动编码器 受限玻尔兹曼机 深度卷积网络 理解图像内容以及图像含义方面&#xff0c;计算机遇到了很大困难。本章先介绍计算机理解图像教育方面 遇到的难题&#xff0c;接着重点讲解一个基于深度学习的解决方法。我们会…

1000th post Problem 1

原题链接:https://artofproblemsolving.com/community/c4h3685828_1000th_post P1解法: 注意到有 \(\sum_{i=1}^n \frac{a_i}{s-a_i}=\sum_{i=1}^n\left(\frac{s}{b_i}-1\right)=\sum_{i=1}^n \frac{s}{b_i}+\sum_{i…

下行经济周期,就应该做只能在下行周期里做的事情

正文经济下行的时候,不要想着逆势而上,而要想着做那些只有在下行周期里才能做的事情。大部分人在经济不好的时候,要么焦虑,要么抱怨,要么等待。但是这些经济不好的时候,真的都是所谓的 Rubbish Time(垃圾时间)…

WPF Prism.Wpf RegionManager

Install-Package Prism.Wpf; Install-Package Prism.DryIOC; <Window x:Class="WpfApp28.Views.MainWin"xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"xmlns:x="ht…

题解:AT_agc065_d [AGC065D] Not Intersect

很牛的题。 题意:很简单了,不再赘述。 做法: 首先需要一个 Raney 引理:对于整数序列 \(a\),若 \(\sum a = 1\),则有且仅有一个 \(a\) 的循环位移满足前缀和均大于 \(0\)。 来简单证明一下,首先不会有两个及以上…

uniapp滚动导航 - unique

下面是效果图下面是实现代码<template><view class="container"><!-- 顶部导航 --><view class="navbar"><viewv-for="(item, index) in navList":key=&quo…

公司网站运营淮北建网站

一、概念 Java 内存区域和内存模型是不一样的东西&#xff0c;内存区域是指 Jvm 运行时将数据分区域存储&#xff0c;强调对内存空间的划分。 而内存模型&#xff08;Java Memory Model&#xff0c;简称 JMM &#xff09;是定义了线程和主内存之间的抽象关系&#xff0c;即 J…