二、KVM 内存性能调优
我们说完CPU方面的优化,接着我们继续第二块内容,也就是内存方面的优化。内存方面有以下四个方向去着手:
1. EPT 技术
2. 大页和透明大页
3. KSM 技术
4. 内存限制
2.1. EPT技术
EPT也就是扩展页表,这是intel开创的硬件辅助内存虚拟化技术。我们知道内存的使用,是一个逻辑地址跟物理地址转换的过程。虚拟机内部有逻辑地址转成成物理地址的过程,然后再跳出来,虚拟机这块内存又跟宿主机存在逻辑到物理的转换。有了EPT技术,那么能够将虚拟机的物理地址直接翻译为宿主机的物理地址,从而把后面那个转换过程去掉了,增加了效率。
那么这项技术,现在的服务器都支持,只要在BIOS打开了intel 的VT设置,那么这个也一起打开了。
2.2 大页和透明大页
我们先解释什么叫大页。
所谓的大页指的是内存的大页面。当然,有大页面必然有对应的小页面... 我们知道内存采用的是分页机制,当初这个机制提出的时候,计算机的内存大小也就几十M,所以当时内存默认的页面大小都是4KB,那么这个4KB 也就是所谓的小页面。但是随着计算机的硬件发展,现在的内存基本上都是几十G 甚至上百G了,虽然,如果还是4KB小页的方式,那么必然会存在一些问题。那么会有哪些问题呢?操作系统如果还是小页存在,那么将会产生较多的TLB Miss和缺页中断,从而大大影响性能。
为什么小页就存在较多的Miss和缺页中断呢?比如说系统里的一个应用程序需要2MB的内容,如果操作系统还是以4KB小页为单位,那么内存里就要有512个页面(512*4KB=2M),所以在TLB里就需要512个表项以及512个页表项,因此操作系统就要经历512次的TLB miss和512次的缺页中断才能将2MB的应用程序空间全部映射到物理内存里。想想,2MB内存的需要就要经历512次的操作,如果内存需求大呢?必然操作数量会大大增加,从而间接的影响性能。
如果把这个4KB变成2MB呢?那就很轻松了,一次TLB Miss和缺页中断操作就完成了,大大的增加了效率。
所以,虚拟机可以通过分配巨型页也就是刚才说的大页来提高运行性能。
那么具体怎么操作呢?也就是说如何把这个4KB的小页变成2MB甚至1GB的大页,然后把这个大页赋给虚拟机使用?
我们可以先通过命令 cat /proc/meminfo | grep HugePages 查看当前系统有多少个大页:
我们看到,当前数量是0。
那么如何设置大页的数量呢?也就是上面的HugePages_Total的数量。
只要运行 echo 2000 > /proc/sys/vm/nr_hugepages 这个命令即可:
已经变成了2000了。
当然这样重启会失效,我们运行这个命令让它永久生效 :sysctl -w vm.nr_hugepages=2000
运行了这个命令系统重启的话,大页的数量也将是保持2000,不会变。
接下来,我们还得把大页进行挂载,我们运行:
# mount -t hugetlbfs hugetlbfs /dev/hugepages
这个hugetlbfs 是一种特殊文件系统,那至于为什么采用这样的文件系统是因为这样花费的代价小。
那么通过这几步操作,开启->设置大页数量->挂载, 那么宿主机这块就没什么问题了。
如果我们KVM里面的某个虚拟机要使用宿主机的大页,那么我们还得做如下操作:
1. 重启下libvirtd服务
2. 虚拟机也开启透明巨型页
3. 关闭虚拟机编辑虚拟机XML设置虚拟机可以使用宿主机的巨型页数量
我们先看看,当前的大页是没进程用的, hugepages_free是2000:
我们先把libvirtd服务重启:systemctl restart libvirtd.service
然后,我们看看虚拟机的透明大页有没有打开,一般默认系统是打开的,我们确认下: 我们看到是always状态,那么就是打开的,OK,我们进行下一步。
编辑虚拟机XML文件,让它使用宿主机的大页。
我们先把虚拟机关闭,然后 virsh edit vmname 命令修改,添加下图中红色框框的内容: 修改后,保存,然后开启虚拟机,注意这个虚拟机的内存是2G的配置。
最后我们在宿主机运行 cat /proc/meminfo | grep -i HugePages 查看下大页的使用情况:
我们发现hugepages_free 已经变成了912个了,那么使用了2000-912=1088 个。
Hugepagesize是2M,也就是每页页面的大小,使用了1088个页面,那么2*1088=2176M 正好跟虚拟机内存的大小2G差不多。
如果想让虚拟机释放大页,那么只要把这个虚拟机关机或者删除XML里刚才添加的配置。
刚才的操作,我们只是针对一个虚拟机的,也就是说我们把大页面赋给了一个虚拟机。如果我们要赋予多个虚拟机怎么办?
那么要让大页同时让多个虚拟机享用,有以下两步要做:
1. 给NUMA 各个node节点分配多个2MB或者1GB的大页
2. 编辑虚拟机xml文件以使用node里分配好的大页
我们可以运行下面两个命令就可以给宿主机各个NUMA Node分配大页
# echo 4 > /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepages
# echo 1024 > /sys/devices/system/node/node1/hugepages/hugepages-2048kB/nr_hugepages
这两个命令的意思就是先给node0里分配4个1GB的大页,然后再给node1分配1024个2MB的大页。
然后执行相关挂载操作,这跟刚才我们做的操作类似:
# mkdir /dev/hugepages1G
# mount -t hugetlbfs -o pagesize=1G none /dev/hugepages1G
# mkdir /dev/hugepages2M
# mount -t hugetlbfs -o pagesize=2M none /dev/hugepages2M
挂载成功后,重启下libvirtd服务,然后虚拟机就可以使用了,但是这里要注意的是,1GB的大页,虚拟机是不能直接使用的,需要在XML里指定。
那么怎么指定? 我们目前宿主机NUMA node1和node2里面分别有4个1GB的和1024个2MB的大页。因此,只要跑在这两node上的虚拟机都可以享用了。
比如刚才我们那虚拟机,我们要让它使用1GB的大页,我们只需要在XML里这样定义
<memoryBacking>
<hugepages/>
<page size="1" unit="G" nodeset="0-3,5"/>
<page size="2" unit="M" nodeset="4"/>
</hugepages>
</memoryBacking>
红色的部分就是要添加的参数,size是1,表示第一个使用的page;然后单位unit是G,nodeset="0-3,5" 意思是虚拟机的NUMA node0,node1, node2 , node3和node5将使用1GB的大页 ; 虚拟机的node4将用2MB的大页。
注意,这里的nodeset指的是虚拟机的节点,同时还要注意的是,如果宿主机大页面不够用了,你这样配置了,虚拟机是会起不来的。
以上就是给虚拟机分配大页的方法。当然如果你想把宿主机的大页关闭,只要执行:
# sysctl vm.nr_hugepages=0
# umount hugetlbfs
接下来我们讲下透明大页。
从Centos6开始,linux系统自带了一技术叫透明巨型页(transparent huge page),它允许所有的空余内存被用作缓存以提高性能,而且这个设置是默认开启的,我们不需要手动去操作。
Centos下,我们用 cat /sys/kernel/mm/transparent_hugepage/enabled 可以查看:
我们看到这个中括号把这个always括起来了,说明这机器的透明巨型页的功能是打开的。当有512个页面可以整合的时候,就会合成一个2MB的大页;如果是在括号把never括起来了,那么就是关闭状态;madvise的话就是避免改变内存占用。
当然,如果你想改变透明巨型页的状态,比如说关闭它,那么运行下面的命令即可。
# echo never >/sys/kernel/mm/transparent_hugepage/enabled
最后要注意的是透明巨型页跟刚才我们说的hugetlbfs 文件挂载大页是不冲突的,如果你没做任何大页的指定和挂载,那么KVM就会使用透明大页的方式。
那么说到这,大家就会疑问,既然有透明大页,我为何还要费劲的去做相关大页的指定? 其实这两种方式都差不多,区别就是一个是手动的一,个是自动的。如果你对你宿主机资源把握的更加精准,推荐的还是手动指定。
2.3. KSM 技术
KSM是什么呢?KSM(Kernel SamePage Merging),也就是所谓的相同页面内存压缩技术。
KSM服务在linux系统里默认是开启的,它的作用就是让内存利用的更加高效,我们知道内存是分页的,如果多个程序中用的内存都是相同的页面,那么KSM就会把相同的内存合并,这样就能腾出更多的空间。
KSM在系统里有个守护进程,它的作用就是不断的扫描宿主机的内存情况,检测有相同的页面就会合并,当然这或多或少会消耗点CPU。
如果你的环境,内存资源比较丰富,建议这个功能开不开启都无所谓;如果不够,又想跑多一点的虚拟机,那么可以打开这个功能,但是你一定要清楚,这个是一种内存超用的方案,假如你的大部分虚拟机内存变化比较频繁(比如内存使用率一下高,一下低),那么不建议开启,因为内存不够了,就会用到swap,那么这个会严重影响虚拟机性能。
下面有几个命令设置大家要了解:
首先是开关KSM服务
systemctl start|stop ksmd
systemctl start|stop ksmtuned
systemctl enable|disable ksmd
systemctl enable|disable ksmtuned
其次是在宿主机KSM服务打开的情况下,如果不想让虚拟机受宿主机KSM的影响,那么可以这么操作:
编辑虚拟机的XML文件,添加:
<memoryBacking>
<nosharepages/>
</memoryBacking>
这样,这个KSM就不会去合并这个虚拟机的内存了
总的来说,用不用KSM视你自己的生产环境具体情况而定。
2.4. 内存限制技术
通过虚拟机内存限制,可以让虚拟机的内存使用限制在一定范围内。
那么这个操作有什么作用呢?比如你的一台KVM宿主机,里面跑着多个业务的虚拟机,有的虚拟机业务比较大,吃得内存多,有的业务比较低,用不了多少内存,那么我们可以通过内存限制技术来手动调节宿主机的内存分配。
当然这里要说明的是,使用这个必须对你虚拟化环境特别清楚,比如宿主机平时的负载情况以及各个虚拟机的负载情况。
那么具体如何操作呢?我们通过memtune命令或者通过改虚拟机的XML文件来设定内存的限制。
这个memtune命令有以下4个参数:
hard_limit:强制设置虚拟机最大使用内存,单位为KB
soft_limit:可用最大内存,单位为KB
swap_hard_limit:虚拟机最多使用的内存加上swap的大小,单位为KB
min_guarantee:强制设置虚拟机最低使用的内存,单位为KB
最后一个参数虽然OPTIONS里有列出,但是实测是发现CentOS7.0 以上系统不能支持,执行的时候会报下面这样的错误:
centos6 虽然不会报这个错,但是这命令貌似也不会有实际效果
官方解释这是一个bug,大家可以参考下面的链接:
https://bugzilla.redhat.com/show_bug.cgi?id=1122455
--config : 写入配置文件中,虚拟机重启后生效
--live :让设置立即生效,但是虚拟机重启后,效果消失 (如果不加--config --live --current 那么默认是这个)
--current :影响关机或者运行状态的虚拟机,如果当前虚拟机正在运行,那么虚拟机停止后,效果会消失
例:
# memtune VM3_CentOS7.1 --hard-limit 9437184 --config
给虚拟机VM3_CentOS7.1 设置最大使用内存为9G
# memtune VM3_CentOS7.1 --soft-limit 8388608 --config
给虚拟机VM3_CentOS7.1 设置最大可用内存为8G
# memtune VM3_CentOS7.1 --swap-hard-limit 10485760 --config
限制虚拟机VM3_CentOS7.1最大内加可以使用的宿主机swap不超过10GB内存,注意设置这个值的时候必须大于hard-limit的所设置的值。
这个设置可以慎用,因为虚拟机使用了swap那么速度性能肯定会下降很多,而且要注意的是,这里设置的内存大小必须大于hard-limit
http://mp.weixin.qq.com/s?__biz=MzA3Mzk0ODk5MA==&mid=2651603847&idx=1&sn=8353c4a62afeeb12cc59d8907edc4e78&scene=23&srcid=0505csByxccqe9cW8eE0T4R2#rd
# memtune VM3_CentOS7.1 --min-guarantee 4194304 --config
这个命令我们可以操作下,但是演示会发现前面所说的error
以上是通过命令的方式,我们刚才说了,还可以通过修改XML的方式来现在虚拟机的内存。
我们在XML里添加下面这个配置即可:
<memtune>
<hard_limit unit='KiB'>9437184</hard_limit>
<soft_limit unit='KiB'>8388608</soft_limit>
<swap_hard_limit unit='KiB'>10485760</swap_hard_limit>
</memtune>
注意第四个参数min_guarantee加里面会报错,虚拟机启动不了。
以上几点就是KVM在内存方面的优化设置,大家要根据自己的生产环境情况,去做相关的调试。
参考链接:
http://blog.csdn.net/summer_liuwei/article/details/6013255
https://www.ibm.com/developerworks/cn/linux/l-cn-hugetlb/
http://lduan.blog.51cto.com/5428084/1716188
http://www.oracle.com/technetwork/cn/articles/servers-storage-dev/hugepages-2099009-zhs.html
http://mp.weixin.qq.com/s?__biz=MzA3Mzk0ODk5MA==&mid=2651603847&idx=1&sn=8353c4a62afeeb12cc59d8907edc4e78&scene=23&srcid=0505csByxccqe9cW8eE0T4R2#rd
相关推荐
在 KVM 性能优化中,我们可以从四个方面入手:CPU、内存、磁盘 IO 和网络。在这篇文章中,我们将着重讨论 CPU 优化。 CPU 优化最佳实践 在 CPU 优化中,我们需要了解 NUMA(Non Uniform Memory Access ...
KVM 性能优化最佳实践之 CPU 优化 KVM 性能优化是确保虚拟机性能的关键步骤之一,而 CPU 优化是 KVM 性能优化的重要组成部分。本文将探讨 KVM CPU 优化的最佳实践,以提高虚拟机的性能。 理解 NUMA NUMA(Non-...
KVM性能优化 以下是关于KVM性能优化的知识点: 1. Context Switch:上下文切换是虚拟机监控程序(VMM)和虚拟机(VM)之间的切换过程。为了提高性能,需要减少上下文切换的次数。Intel VT-x技术可以实现快速的上...
本讲座聚焦于KVM虚拟机的性能优化,旨在帮助技术人员提升虚拟环境的运行效率。以下将详细探讨KVM虚拟机性能优化的相关知识点。 首先,理解KVM的工作原理至关重要。KVM利用Linux内核的虚拟化支持,允许在一个物理...
2. 内存优化:合理设置内存大小,避免过度分配。使用大页内存( Hugepages )可以减少内存页面的映射开销,提高效率。 3. 存储优化:使用快速的存储设备,如SSD,作为KVM的后端存储,并采用QEMU的块设备驱动,如...
### KVM性能测试报告知识点详解 #### 测试背景与目的 KVM(Kernel-based Virtual Machine)作为现代云计算架构中的重要组成部分,其性能表现直接影响到云服务的质量与用户体验。本测试旨在评估KVM虚拟机与宿主机...
在本篇文档中,我们将详细探讨KVM虚拟化环境下的性能优化方案,重点关注CPU、内存、磁盘和网络这四个主要方面。 CPU优化是KVM虚拟化性能调优的一个重要组成部分。在开始CPU优化前,我们需要理解NUMA(Non-Uniform ...
内存管理对KVM性能影响显著。`free`命令可以查看系统的总内存和已用内存,而`virsh dommemstat`则可以获取虚拟机的内存使用详情。此外,使用`virt-what`和`ps`组合可以追踪哪个进程属于哪个虚拟机,进一步分析内存...
《OpenStack之KVM优化(二)》和《OpenStack之KVM优化(一)》可能涵盖了CPU和内存的优化,包括设置CPU亲和性、内存气泡以及资源调度策略。 《LibvirtQemuKVM.pdf》则会深入探讨Libvirt——一个管理KVM和其他虚拟化...
在Hypervisor级别,CPU调优是最关键的性能优化点之一。CPU缓存共享调优强调了虚拟CPU(vCPU)的合理安排,可以将vCPU绑定到相同的物理核心或者插槽上,以提高缓存命中率,减少缓存一致性问题,从而提升性能。在NUMA...
综上所述,KVM虚拟化环境下的性能优化是一个多方面的工作,需要根据实际应用场景,对CPU、内存、磁盘和网络这四个关键方面进行细致的调整和配置。通过上述的优化方案,可以有效地提升OpenStack环境中虚拟机的性能和...
KVM支持大页内存分配,以及内存页面共享(KSM),这些都可以提升虚拟机的内存使用效率和性能。同时,KVM还支持来自CPU供应商的最新内存虚拟化技术,例如Intel的EPT(扩展页表)和AMD的RVI(快速虚拟化索引),以...
通过对KVM性能提升方法的介绍,我们可以看到,无论是从内存优化、网络性能提升还是块I/O性能优化等方面,都有很多有效的手段来提高KVM虚拟机的整体性能。在未来,随着技术的进步和应用场景的多样化,KVM还将继续发展...
本文档主要关注如何对KVM进行高性能测试,包括CPU和内存占用、磁盘I/O以及网络流量的测试方法和观察结果。 **一、CPU和内存占用测试** 测试目标是评估KVM在高负荷下的资源管理能力。测试环境由一台主机(host)和两...
3. **性能监控**:华为KVM客户端提供了详细的性能监控功能,包括CPU使用率、内存占用、磁盘I/O等关键指标,帮助管理员及时发现并解决性能瓶颈。 4. **网络配置**:客户端支持对虚拟机的网络设置进行管理,包括VLAN...
Linux 下 KVM 虚拟化环境部署...十一、虚拟机性能优化 * 使用 virtio 驱动程序提高虚拟机性能 * 使用 cache 参数优化虚拟机磁盘性能 KVM 虚拟化环境提供了一个灵活、可靠的虚拟化解决方案,可以满足不同用户的需求。