【N版】openstack――走进云计算
云计算是一种按使用量付费的模式,这种模式提供可用的、便捷的、按需的网络访问,进入可配置的计算资源共享池(资源包括:网络、服务器、存储、应用软件、服务),这些资源能够被快速提供,只需投入很少的管理工作,或与服务供应商进行很少的交互。
1)云计算是一种使用模式
2)云计算必须通过网络访问
3)弹性计算,按需付费
1)IDC托管
2)IDC租用
3)虚拟主机(卖空间的)
4)VPS:虚拟专用主机,openvz超卖很坑人的,xen不支持超卖
1)资源利用率低(大部分机器cpu所占比率低于15%)
2)资源分配不合理
举例:由于某个活动,上线各种服务器,但是并未达到实际效果,导致服务器资源浪费
3)很难实现真正的运维自动化
基础设施:计算,存储,网络服务
平台服务:对象存储,身份认证,运行环境,消息队列,数据库服务
应用平台:监控,内容,合作,通信,财务
l 公有云(publiccloud):
通常指第三方提供商为用户提供的能够使用的云,公有云一般通过Internet使用,可能是免费或成本低廉的,公有云的核心属性是共享资源服务。这种云有许多实例,可在当今整个开房的共有网络中提供服务。例如:aws,阿里云,青云,百度云,腾讯云。
优点:价格低廉,使用方便
l 私有云(privatecloud):
是为一个客户单独使用而构建的,因而提供对数据、安全性和服务质量的最有效控制。该公司拥有基础设施,并可以控制在此基础设施上部署应用程序的方式。私有云可部署在企业数据中心的防火墙内,也可以将他们部署在一个安全的主机托管场所,私有云的核心属性是专有资源。
优点:可控,数据安全(银行必然使用私有云)
l 混合云(hybirdcloud):
混合云融合了公有云和私有云,是近年来云计算的主要模式和发展方向。我们已经知道私企业主要是面向企业用户,出于安全考虑,企业更愿意将数据存放在私有云中,但是同时又希望可以获得公有云的计算资源,在这种情况下混合云呗越来越多的采用,他将公有云和私有云进行混合和匹配,以获得最佳的效果,这种个性化的解决方案,达到了既省钱又安全的目的,例如在一次活动中,只需要暂时几台机器,在私有云存在的情况,考虑混合云的使用,是最合理化的。
优点:集合的使用方式更完美,可扩展,更节省
l SaaS
提供给客户的服务是运营商运行在云计算基础设施上的应用程序,用户可以在各种设备上通过过客户端界面访问,如浏览器。消费者不需要管理或控制任何云计算基础设施,包括网络、服务器、操作系统、存储等等;平时使用的邮件服务器,即属于SaaS服务。
l PaaS
提供给消费者的服务是把客户采用提供的开发语言和工具(例如:JAVA,python,.net)开发的或收购的应用程序部署到供应商的云计算基础设施上去,客户不需要管理或控制底层的云基础设施,包括网络、服务器、操作系统、存储等,但客户能控制部署的应用程序,也可能控制运行应用程序的托管环境配置,更适合提供给开发人员使用,在这里也可以使用docker容器技术实现。
l IaaS
提供给消费者的服务是对所有云计算基础设施的利用,包括处理CPU、内存、存储、网络和其它基本的计算资源,用户能够部署和运行任意软件,包括操作系统和应用程序。消费者不管理或控制任何云计算基础设施,但能控制操作系统的选择、存储空间、部署的应用,也有可能获得有限制的网络组件(例如:路由器,防火墙,负载均衡器等)的控制。更适合提供给运维人员使用。
虚拟化可以虚拟出来多个操作系统:每个操作系统之间是相互独立的,所以每个操作系统上所跑的应用自然是相互不影响的。在这里用一个经典例子说明,一台物理机跑8个tomcat,和8个虚拟机上各跑1个tomcat,跑8个tomcat的物理机,如果其中一个tomcat出了问题(内存问题,jvm问题等),势必会影响到其它7个tomcat,但是在8个虚拟机上分别各跑一个tomcat,他们之间是互不影响的,由于虚拟化一层原因占用了一些资源,效果并没有直接一台物理机跑8个tomcat效果好,但是虚拟机的互相独立互不影响是更重要的,而且便于管理,每个tomcat实例都会起3个端口(8080:对外服务端口,8009AJP端口,8005关闭端口),使用虚拟机之后,就不会担心多个tomcat端口冲突的情况。
支持异构:linux系统可以虚拟化Windows系统,方便不同场景系统的使用。
支持快照功能和克隆功能:快照功能在某个物理机不知运行什么,是否正在运行的情况下,如果是一台虚拟机就好办了,直接听了该虚拟机,只不过是占了一些磁盘空间而已。
虚拟化是一种技术,云计算是通过虚拟化技术实现的一种通过网络访问获取资源,流量,交付的使用模式,两者并不能互相比较,虚拟化相当于实干家,而云计算是思想家。
l 全虚拟化
又叫硬件辅助虚拟化技术,最初所使用的虚拟化技术就是全虚拟化(full virtualization)技术,它在虚拟机VM和硬件之间加了一个软件层 Hypervisor 或者叫做虚拟机管理程序(VMM)。Hypervisor 可以划分为两大类,首先是类型1.直接运行在物理硬件之上的。其次是类型2.运行在另一个操作系统(运行在另一个物理硬件之上)中。类型1的一个例子是基于内核的虚拟机,(KVM它本身是一个基于操作系统的hypervsior)类型2包括QEMU和WINE。因为运行在虚拟机上的操作系统通过Hypervisor来最终分享硬件,所以虚拟机发出的指令需经过Hypervisor补货并处理,为此每个客户操作系统所发出的指令都要呗翻译成CPU能识别的指令格式,这里的客户操作系统即是运行的虚拟机,所以hypervsior的工作负荷会很大,因此会占用一定的资源,所以在性能方面不如裸机。但是运行速度要快于硬件模拟。全虚拟化最大的有点就是运行在虚拟机上的操作系统没有听过任何修改,唯一的限制就是操作系统必须能够支持底层的硬件,不过目前的操作系统一般都能支持底层硬件,所以这个限制就变得微不足道了。
l 半虚拟化
半虚拟化技术是后来才出现的技术,半虚拟化技术英文是paravirtualization,也叫作准虚拟化技术,现在比较热门,它就是在全虚拟化的基础上,把客户操作系统进行了修改,增加了一个专门的API,这个API可以将客户操作系统发出的指令进行最优化,即不需要htpervisor好肥一定的资源进行翻译操作,但对于某些不含该API的操作系统(主要是Windows)来说,就不能用这种方法,xen就是一个典型的半虚拟化的技术。
l 服务器虚拟化
数量少的情况推荐使用ESXI,XenServer
数量大的情况推荐使用KVM,RHEV(不开源),oVirt,Openstack,Vmvarevshpere
l 桌面虚拟化
桌面虚拟化依赖于服务器虚拟化,在数据中心的服务器上进行服务器虚拟化,生成大量的独立的桌面操作系统(虚拟机或者虚拟桌面),同事根据转悠的虚拟桌面协议发送给终端设备。用户终端通过以太网登录到虚拟主机上只需要记住用户名和密码及网关信息,即可随时随地的通过网络访问自己的桌面系统,从而实现单机多用户,多用于IP外包,呼叫中心,银行办公,移动桌面。
l 应用虚拟化
技术原理是基于应用/服务器计算A/S架构,采用类似虚拟终端的技术,把应用程序的人机交互逻辑(应用程序界面,键盘及鼠标的操作,音频的输入输出,读卡器,打印输出等)与计算逻辑隔离开来。在用户访问一个服务器虚拟化后的应用时,用户计算机只需要把人机交互逻辑传送到服务器端,服务器端为用户开设独立的绘画空间,应用程序的计算逻辑在这个会话空间中运行,把变化后的人机交互逻辑传送给客户端,并且咋客户端相应设备展示出来,从而使用户获得如同运行本地应用程序一样的访问感受。
1)嵌入到linux正式kernel(提高了兼容性)
2)代码级资源调用(提高性能)
3)虚拟机就是一个进程(内存易于管理)
4)直接支持NUMA技术(提高扩展性)
5)虽然被RedHat收购了,但是依然保持开源发展模式,社区活跃
6)更好的商业支持及服务保障
7)CentOS7较CentOS6默认支持cpu热添加,内存热添加,大页内存默认都是开启的。
Inter的cpu:VMX
AMD的cpu:SVM
VMware需要开启如下两个条件即可,如果是物理机,需要在bios里面设置,默认都是开启的。
在cpuinfo中可以查看具体的支持虚拟化信息
[root@linux-node1~]# grep -E "svm|vmx" /proc/cpuinfo
flags : fpu vme de pse tsc msr pae mce cx8apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss syscallnx rdtscp lm constant_tsc arch_perfmon pebs bts nopl xtopology tsc_reliablenonstop_tsc aperfmperf eagerfpu pni pclmulqdq vmxssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt aes xsave avx f16c rdrandhypervisor lahf_lm ida arat epb pln pts dtherm tpr_shadow vnmi ept vpidfsgsbase smep xsaveopt
flags : fpu vme de pse tsc msr pae mce cx8apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss htsyscall nx rdtscp lm constant_tsc arch_perfmon pebs bts nopl xtopologytsc_reliable nonstop_tsc aperfmperf pni pclmulqdq vmxssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer xsave a* vxhypervisor lahf_lm arat epb pln pts dtherm tpr_shadow vnmi ept vpid tsc_adjust
l 安装kvm
[root@linux-node1~]# yum install -y qemu-kvm libvirt <- 安装管理工具 ->
[root@linux-node1~]# yum install -y virt-install <- 安装virt命令 ->
Kvm:linux内核的一个模块,模块不需要安装,只需要加载
Qemu:虚拟化软件,可以虚拟不同的cpu,支持异构(x86架构可虚拟化出不是x86的架构)
Qemu-kvm:用户态管理kvm,网卡,声卡,PCI设备等都是qemu来管理的
l 创建虚拟磁盘
[root@linux-node1~]# qemu-img create -f raw /opt/CentOS-7-x86_64.raw 10G
Formatting'/opt/CentOS-7-x86_64.raw', fmt=raw size=10737418240
[root@linux-node1opt]# qemu-img create -f qcow2 /opt/CentOS-7-x86_64.qcow2 10G
<- 创建qcow2磁盘->
[root@linux-node1~]# qemu-img convert -c -f raw -O qcow2 CentOS-7-x86_64.rawCentOS-7-x86_64.qcow2 <- 转换磁盘格式->
<- 创建虚拟磁盘:-f指定格式,路径是/opt/CentOS-7-x86_64.raw 大小为10G ->
<- 格式:1.raw 创建多大占用多大磁盘空间
2.qcow2 占用磁盘大小根据使用量来决定 ->
l 显示内核中kvm状态
[root@linux-node1~]# lsmod |grep kvm
kvm_intel 162153 0
kvm 525409 1 kvm_intel
l 启动服务
[root@linux-node1~]# systemctl enable libvirtd <- 开机自启 ->
[root@linux-node1~]# systemctl start libvirtd <- 启动libvirt ->
[root@linux-node1~]# systemctl status libvirtd <- libvirt状态 ->
libvirtd.service - Virtualization daemon
Loaded: loaded(/usr/lib/systemd/system/libvirtd.service; enabled; vendor preset: enabled)
Active: active(running) since Wed 2016-12-14 03:36:51 CST; 21min ago
Docs: man:libvirtd(8)
http://libvirt.org
Main PID: 3371 (libvirtd)
<- libvirt状态:主要查看active关键字,证明开启 ->
l 上传镜像
法一:
[root@linux-node1~]# cd /opt/
[root@linux-node1opt]#
wget http://mirrors.aliyun.com/centos/7.2.1511/isos/x86_64/CentOS-7-x86_64-DVD-1511.iso <- 将镜像下载到/opt下 ->
法二:
利用CRT的SFTP上传
CRT==> File ==> Connect SFTP Session (英文版CRT)
CRT==> 文件 ==> 连接到SFTP (中文版CRT)
sftp>cd /opt
sftp>put D:/ISO/CentOS-7-x86_64-DVD-1511.iso <- 将镜像上传到/opt下 ->
法三:
[root@linux-node1~]# cd /opt/
[root@linux-node1opt]# dd if=/dev/cdrom of=/opt/CentOS-7.1-x86_64.iso
<- 将镜像从cdrom挂载到/opt下 ->
Virt-install重要命令介绍:
virt-install �Chelp
-n(Name): 指定虚拟机的名称
�Cmemory(�Craw): 指定内存大小
�Ccpu: 指定cpu的核数(默认为1)
�Ccdrom: 指定镜像
�Cdisk: 指定磁盘路径(即上文创建的虚拟磁盘)
�Cvirt-type: 指定虚拟机类型(kvm,qemu,xen)
�Cnetwork: 指定网络类型
[root@linux-node1opt]# virt-install \
--virt-typekvm \ <- 虚拟机类型:kvm ->
--nameCentOS-7-x86_64 \ <- 虚拟机名字 ->
--ram1024 \ <- 虚拟机内存:1024M ->
--cdrom=/tmp/CentOS-7-x86_64-DVD-1511.iso\ <-虚拟机光驱路径 ->
--diskpath=/opt/CentOS-7-x86_64.raw \ <- 虚拟机磁盘路径 raw ->
--disk/tmp/CentOS-7-x86_64.qcow2,format=qcow2 \ <- 虚拟机磁盘路径 qcow2 ->
--networknetwork=default \ <- 虚拟机网络类型:默认 ->
--networkbridge=br0 \ <- 虚拟机网络类型:桥接 ->
--graphicsvnc,listen=0.0.0.0 \ <- 指定控制台:VNC ->
--noautoconsole <- 指定不自动试图连接到客户机控制台 ->
生成kvm虚拟机:virt-install
查看再运行的虚拟机:virsh list
查看kvm虚拟机配置文件:virsh dumpxml name
启动kvm虚拟机:virsh start name
正常关机:virsh shutdown name
非正常关机:virsh destroy name
删除:virsh undefine name (彻底删除,无法找回,除非备份xml文件)
根据配置文件定义虚拟机:virsh define file-name.xml
挂起,终止:virsh suspend name
回复挂起状态:virsh resumed name
以上内容均可进入virsh控制台使用,进入后命令可以Tab自动补全如下:
[root@linux-node1opt]# virsh <- 进入控制台 ->
Welcometo virsh, the virtualization interactive terminal.
Type: 'help' for help with commands
'quit' to quit
virsh# <- 控制台提示符 ->
virsh# list --all <- 查看所有虚拟机 ->
Id Name State
----------------------------------------------------
- CentOS-7-x86_64 shut off <- 虚拟机列表 ->
virsh# start CentOS-7-x86_64 <- 启动虚拟机 ->
DomainCentOS-7-x86_64 started
virsh# list <- 查看运行的虚拟机 ->
Id Name State
----------------------------------------------------
1 CentOS-7-x86_64 running <- 虚拟机状态:运行 ->
virsh# shutdown CentOS-7-x86_64 <- 正常关闭虚拟机 ->
DomainCentOS-7-x86_64 is being shutdown
virsh# destroy CentOS-7-x86_64 <- 非正常关闭虚拟机 ->
DomainCentOS-7-x86_64 destroyed
virsh# quit <-退出控制台 ->
[root@linux-node1opt]# cd /etc/libvirt/qemu/ <- 虚拟机xml路径 ->
[root@linux-node1qemu]# ll
total4
-rw-------1 root root 3887 Dec 11 11:19 CentOS-7-x86_64.xml <-虚拟机xml文件->
注:修改虚拟机xml文件不直接修改上文所述文件,要在用virsh管理命令修改
virsh# edit CentOS-7-x86_64 <- 控制台内修改 ->
[root@linux-node1qemu]# virsh edit CentOS-7-x86_64 <- 控制台外修改 ->
注:热添加的CPU数不能超过最大值
[root@linux-node1qemu]# virsh edit CentOS-7-x86_64 <- 编辑配置文件 ->
<vcpuplacement='static'>1</vcpu> <- 修改此行内容 ->
<vcpu placement='auto' current="1">4</vcpu> <- 当前为1 自动扩容 最大为4 ->
[root@linux-node1~]# virsh shutdown CentOS-7-x86_64 <- 关闭虚拟机 ->
DomainCentOS-7-x86_64 is being shutdown
[root@linux-node1~]# virsh start CentOS-7-x86_64 <- 开启虚拟机 ->
DomainCentOS-7-x86_64 started
没有热添加cpu之前先查看cpu的个数
[root@linux-node1~]# virsh setvcpus CentOS-7-x86_64 2 --live <- 热添加CPU ->
添加完cpu后,查看cpu个数:
l 激活cpu
[root@linux-node1~]# echo "1" > /sys/devices/system/cpu/cpu1/online
高版本的kvm不需要这样做,直接可以激活
[root@linux-node1~]# cat /sys/devices/system/cpu/cpu0/online
1
[root@linux-node1~]# cat /sys/devices/system/cpu/cpu1/online
1
第二种添加cpu的方法:安装时指定
[root@linux-node1~]# virt-install �Cvcpus 5 �Cvcpus 5,maxcpus=10,cpuset=1-4,6,8 �Cvcpussockets=2,cores=4,thread=2
内存的设置拥有一个“气球(balloon)机制”,可以增大减少,但是也要设置一个最大值,默认并没有设置最大值,也可以在安装的时候指定
[root@linux-node1~]# virsh edit CentOS-7-x86_64 <- 编辑配置文件 ->
<memoryunit='KiB'>4194304</memory> <- 最大内存:4G ->
<currentMemoryunit='KiB'>1048576</currentMemory> <- 当前内存:1G ->
[root@linux-node1~]# virsh qemu-monitor-command CentOS-7-x86_64 --hmp --cmd info balloon <- 查看当前内存 ->
[root@linux-node1~]# virsh qemu-monitor-command CentOS-7-x86_64 --hmp --cmd balloon 512 <- 修改内存:512 ->
默认情况下是NAT,但是在生产环境,使用的更多的是桥接模式,更改虚拟机为网桥模式
网桥的基本原理就是创建一个桥接接口br0,在屋里网卡和虚拟网络接口之间传递数据。
[root@linux-node1~]# brctl addbr br0 <- 添加网桥br0 ->
[root@linux-node1~]# brctl addif br0 eth0 <- 桥接br0和eth0 ->
注:此时会断网如果是远程操作服务器不在身边,建议写成脚本来执行
[root@linux-node1 ~]# ip addr del dev eth0192.168.56.11/24 <- 删除eth0的IP ->
[root@linux-node1 ~]# ifconfig br0192.168.56.11/24 up <- 给br0设置IP ->
[root@linux-node1 ~]# route add default gw192.168.56.2 <- 给br0设置网关 ->
为了避免断网,直接写成脚本即可:
#!/bin/bash
brctl addbr br0
brctl addif br0 eth0
ip addr del dev eth0192.168.56.11/24
ifconfig br0192.168.56.11/24 up
route add default gw192.168.56.2
[root@linux-node1 ~]#virsh edit CentOS-7-x86_64 <- 修改虚拟机配置 ->
将:
<interfacetype='network' <- 虚拟机网络连接方式->
<mac address='52:54:00:0b:f8:a5'/>
<source network='default'/> <- 当前主机网络名称 ->
修改为:
<interfacetype='bridge'>
<mac address='52:54:00:0b:f8:a5'/>
<source bridge='br0'/>
[root@linux-node1 ~]#virsh shutdown CentOS-7-x86_64 <- 关闭虚拟机 ->
Domain CentOS-7-x86_64 isbeing shutdown
[root@linux-node1 ~]#virsh start CentOS-7-x86_64 <- 启动虚拟机 ->
Domain CentOS-7-x86_64started
[root@linux-node1~]# ifconfig <- 查看网卡信息 ->
br0:flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.56.11 netmask 255.255.255.0 broadcast 192.168.56.255
inet6 fe80::20c:29ff:fefe:1620 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:fe:16:20 txqueuelen 0 (Ethernet)
RX packets 74 bytes 8909 (8.7 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 63 bytes 11462 (11.1 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
eth0:flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::20c:29ff:fefe:1620 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:fe:16:20 txqueuelen 1000 (Ethernet)
RX packets 26401 bytes 26066467 (24.8 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 8582 bytes 1939240 (1.8 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo:flags=73<UP,LOOPBACK,RUNNING> mtu65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 0 (Local Loopback)
RX packets 4 bytes 216 (216.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 4 bytes 216 (216.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
virbr0:flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 192.168.122.1 netmask 255.255.255.0 broadcast 192.168.122.255
ether 00:00:00:00:00:00 txqueuelen 0 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2 bytes 84 (84.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
vnet0:flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether fe:54:00:0b:f8:a5 txqueuelen 500 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
l Inter的cpi的运行级别,按权限级别高低Ring3 -> Ring2 -> Ring0,(Ring1和Ring2暂时没什么用)Ring3位用户态,Ring0为内核态。
Ring3的用户态是没有权限管理硬件的,需要切换到内核态Ring0,这样的切换(系统调用)称之为上下文切换,物理机到虚拟机多次的上下文切换,势必会导致性能出现问题,对于全虚拟机化,inter实现了技术VT-x在cpu硬件商实现了加速转换,CentOS7默认是不需要开启的。
l Cpu的缓存绑定cpu的优化
[root@linux-node1~]# lscpu|grep cache
L1dcache: 32K
L1icache: 32K
L2cache: 256K
L3cache: 3072K
l L1、L2、L3三级缓存和cpu绑定
L1是静态缓存,造价高,L2,L3是动态缓存,通过脉冲的方式写入0和1,造价较低。Cache解决了cpu处理快,内存处理慢的问题,类似于memcache和数据库,如果cpu调度器吧进程随便调度到其它cpu上,而不是当前L1、L2、L3的缓存cpu上,缓存就不生效了,就会产生miss为了减少cache miss,需要把KVM进程绑定到固定的cpu上,可以使用taskset把某一个进程绑定(cpu亲和力绑定可以提高20%的性能)在某一个cpu上,例如:taskset -cp 1 25718(1指的是cpu1,也可以绑定到多个cpu上,25718指的进程pid)
Cpu绑定的优点:提高性能,20%以上
Cpu绑定的缺点:不方便迁移,灵活性差
l 内存寻址:宿主机虚拟内存 -> 宿主机物理内存
虚拟机的虚拟内存 -> 虚拟机的物理内存
以前VMM通过影子页表决解内存转换的问题,影子页表是一种成熟的纯软件的虚拟化方式,但影子页表固有局限性,影响了VMM的性能,例如,客户机中有多个CPU,多个虚拟CPU之间同步页面数据将导致影子页表更新次数幅度增加,测试页表将带来异常严重的性能损失。如下图为影子页表原理:
在此之际,Inter在最新的coreI7系列处理器上集成了EPT技术(对应AMD的RVI技术),以硬件辅助的方式完成客户物理内存到机器物理内存的转换,完成内存虚拟化,并以有效的方式弥补了影子页表的缺陷,该技术默认是开启的。
l KMS内存合并
宿主机上默认会开启ksmd进程,该进程作为内核中的守护进程存在,它定期执行页面扫描,识别副本页面并合并副本,释放这些页面以供它用,CentOS7是默认开启的。
[root@chuck~]# ps aux|grep ksmd|grep -v grep
root 286 0.0 0.0 0 0 ? SN 12:32 0:00 [ksmd]
大页内存CentOS7默认开启
[root@chuck~]# cat /sys/kernel/mm/transparent_hugepage/enabled
[always]madvise never
[root@chuck~]# ps aux |grep khugepage|grep -v grep
root 287 0.2 0.0 0 0 ? SN 12:32 0:21 [khugepaged]
Linux平台默认的内存页面大小都是4K,HugePage进程会将默认的的每个内存页面可以调整为2M。
IO调度算法,也叫电梯算法
① Noop Scheduler:简单的FIFO队列,最简单的调度算法,由于会产生读IO的阻塞,一般使用在SSD硬盘,此时不需要调度,IO效果非常好
② Anticipatory IO Scheduler(as scheduler)适合大数据顺序顺序存储的文件服务器,如ftp server和web server,不适合数据库环境,DB服务器不要使用这种算法。
③ Deadline Schedler:按照截止时间的调度算法,为了防止出现读取被饿死的现象,按照截止时间进行调整,默认的是读期限短于写期限,就不会产生饿死的状况,一般应用在数据库
④ Complete Fair Queueing Schedule:完全公平的排队的IO调度算法,保证每个进程相对特别公平的使用IO
查看本机Centos7默认所支持的调度算法
[root@chuck~]# dmesg|grep -i "scheduler"
[ 11.312549] io scheduler noop registered
[ 11.312555] io scheduler deadline registered(default)
[ 11.312606] io scheduler cfq registered
临时更改某个磁盘的IO调度算法,将deadling模式改为cfq模式
[root@chuck~]# cat /sys/block/sda/queue/scheduler
noop[deadline] cfq
[root@chuck~]# echo cfq >/sys/block/sda/queue/scheduler
[root@chuck~]# cat /sys/block/sda/queue/scheduler
noopdeadline [cfq]
使更改的IO调度算法永久生效,需要更改内核参数
[root@chuck~]# vim /boot/grub/menu.lst
kernel/boot/vmlinuz-3.10.0-229.el7 ro root=LABEL=/ elevator=deadline rhgb quiet
关于write through和write back,默认write through即可
Write-back
在这种策略下,当数据被写到raid卡的cache中,控制器就向IO调度器返回了写操作完成信号; 双刃剑,它虽然带来了IO性能的提升,但是随之而来的风险:因为cache是ROM,假设服务器突然断电,则cache中的数据可能丢失; 为了解决这个问题,raid卡加加装一块锂电池(BBU),即当服务器断电时,能把cache中的数据刷到磁盘上;同样的道理,BBU又成为一个风险点,因为锂电池需要保证始终有足够的电量来保证能将cache中的数据写到磁盘上,raid卡会加入一个BBU的管理策略,learn cycle(充放电周期,一般有30/90天,让电池充放电一次,持续约6小时),那么这6小时又称为一个风险点;所以raid卡又会增加一个策略:No WB when bad bbu,即当BBU坏掉,或者BBU正在充放电时,禁用write-back,此时Write policy就会变成:write-through。
Write through
只有当数据被写到物理磁盘中,控制器才向IO调度器返回了写操作完成信号; 这种策略以牺牲IO性能,来保证数据安全性,淘宝这边的策略:因为Write-Through的io性能无法满足业务的需求,所以我们这边会采用另一个模式:WB when bad bbu,即不管bbu状态是否正常,我们都会采用write-back,那数据安全怎么办?服务器异常断电的情况,在我们这边概率极低;即便很不幸的我们IDC局部断电了,我们也有主备模式来保证数据的相对安全;我们会监控BBU的状态,一旦发生了BBU failed,我们会将安排停机更换
由于在一开始创建了虚拟磁盘,并命名为CentOS-7-x86_64.raw,这就是虚拟机的镜像喽。
[root@chuck~]# cd /opt/
[root@chuckopt]# ls
CentOS-7.1-x86_64.iso CentOS-7.1-x86_64.raw rh
分区的时候,只分一个/根分区,并不需要swap分区,由于虚拟机的磁盘性能就不好,如果设置了swap分区,当swap工作的时候,性能会更差。例如阿里云主机,就没有交换分区。
镜像制作需要删除网卡(eth0)中的UUID,如果有udev(/etc/udev/rules.d/70-persistent-ipoib.rules)的规则也要删除
关闭selinux,关闭iptables
安装基础软件的包:net-tools lrzsz screen tree vim wget
本文出自 “good cook” 博客,转载请与作者联系!
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。