该场景为企业互联网出口新建/改造场景,主要针对服务器保护和内部终端上网。企业出口一般使用多条运营商线路以实现链路高可用,同时都会有web服务器、企业办公OA服务器、ERP系统服务器等不同类型的服务器,这些服务器经常需要对公网开放服务,而且企业内部人员也需要通过公网访问互联网资源。

[scode type="share"]全屏查看,浏览效果更佳,回复评论下载附件[/scode]

众所周知,VMware的认证VCP培训一门12800,这是固定价格,培训5天,然后考试,通过以后拿证。对于虚拟从业者来说VMware的VCP不是必需品,但是加分项。如果公司报销,学一下系统性的知识挺好的。但是对于这个价格来说,很多自费工程师都望而却步,无法下手。现在我找到了别人已经实践过的花最少的钱,拿最多的证的路径。
[scode type="yellow"]以下内容仅适用于有耐心,有英文基础,有网络基础,对VMware网络、桌面、数据中心虚拟化熟悉的人且要有VISA信用卡。[/scode]

第一步:花4天时间看CCNA考试资料和考试范围,如果你有网络基础一看就会,如果你英文好,看这个得心应手。

17808-aez957kacdc.png

时间轨迹:第一周的周六到周二看CCNA考试范围,周二在VUE官网用VISA信用卡报名,周三早上考试,通过以后,周四下午五点发证,然后把CCNA证书提交给VMware,周五早上VMware审核通过。然后就可以免培训考VMware网络方向即NSX-T。

第二步:周三考完CCNA之后,周三到周日看NSX-T 数据中心虚拟化和云桌面horizon的资料和考试范围,你如果熟悉这些产品,再者英文好,那么看这些资料就得心应手。周五下午报名VCP-NV考试,用VISA信用卡200美元。周五下午报名只能选择下周一早上考试,早上考完,周二下午五点拿证。

26614-obmttjnd93a.png

第三步,周二下午报名,周三上午考VCP-DCV,下午考VCP-DTM,总共400美元,周四下午五点拿证

10262-0uzdh6jy307b.png

54176-5f33ixmpj8.png

顺手考的VCAP-DCV

99752-gpkwlxyn8qi.png

VMware官网证书获取时间线

74105-jxy30dlo8h.png

证书展示:

72671-fveyvgdlicj.png

19304-l21h5py87of.png

49042-ova3vo297fb.png

70353-5etg5h8gmla.png

[scode type="green"]以上,在两周内拿到证书,对于加薪或者跳槽来说都是加分项,如果你有任何需求或帮助,请加我微信联系。如果你目前没任何基础,也请联系我,互相学习提高。[/scode]

2020年底至今,因工作需要,考了深信服的SCSA、SCSP、SCCP认证,深信服在5月初就要改革整个认证体系架构,目前政策还没出来,现在我把SCSA、SCSP的原版PPT和实验手册分享一下,有需要的回复下载即可

1,SCSA前置课程PPT,网络、Windows、Linux基础知识

27871-ey84dfihlk9.png

2,SCSA课程PPT及实验手册

32625-tvb96nsd7s8.png

31171-332qv4ht15x.png

3,SCSP课程PPT及实验手册

43308-kzfydakccc.png

89820-ii4ubkpj09s.png

回复即可看到百度网盘连接,有其他需求,可以加我微信交流

高速.jpg

用到的路由交换有:

1,单臂路由
2,OSPF
3,Trunk,Access,vlan间路由
4,GRE over IPSEC 加密备份链路数据
5,GRE引入OSPF,cost 给到1000,做备份链路
6,4G路由器做NAT,访问北京交通部

最近,发现联想DM存储的ONTAP系统更新到9.7了,就想升级体验下,毕竟实验室的设备还是比较全的。
在support.lenovo.com网站中,通过存储的序列号下载好镜像之后,上传到存储中。

正在上传,一切正常

03717-cvu6v33dqz.png

忽然报错

65104-nuqrac6aw9.png

联系netapp原厂工程师,得到如下解决方案
通过ssh登录管理IP,先进入诊断模式

set diag

分别对两个节点都执行

system services web file-uploads config modify -node node名称 -size 4GB

比如我的

38646-wap766byql.png

然后再退出诊断模式

set admin

重新登录管理界面,继续上传,上传成功!

31512-3s4va4wsuv4.png

升级成功

49530-d6gic0j48j.png

分布式存储的定义

分布式存储系统,是将数据分散存储在多台独立的X86服务器上,通过通用的存储协议对外提供FC、ISCSI、RBD、NAS、S3等存储接口,每个存储服务器节点既能够进行数据存放和性能加速,也同时提供数据控制和存储接口对接,没有单点故障,每个节点都可以对外提供数据吞吐,性能随着存储节点的增多会线性上升,分布式存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,它不但提高了系统的可靠性、可用性和存取效率,并且易于扩展。

拓扑架构:

75356-q5gg0kvsptf.png

集中式存储的定义

集中式存储系统指由一台或多台主控制器组成中心节点,各数据设备级联部署,数据集中存储于这个中心节点中,并且整个系统的所有业务单元都集中部署在这个中心节点上,系统所有的功能均由其集中处理,中心节点统一对外提供FC、ISCSI、NAS存储接口。也就是说,集中式系统中,每个终端或客户端及其仅仅负责数据的录入和输出,而数据的存储与控制处理完全交由主机来完成。集中式系统最大的特点就是部署结构简单。

拓扑架构:

40865-69mjqlkfpgq.png

集中式存储与分布式存储的对比

传统集中式存储架构的局限性主要体现在以下几个方面:

  1. 横向扩展性较差
    受限于前端控制器的对外服务能力,纵向扩展磁盘数量无法有效提升存储设备对外提供服务的能力。同时,前端控制器横向扩展能力非常有限,业界最多仅能实现几个控制器的横向。因此,前端控制器成为整个存储性能的瓶颈。
  2. 不同厂家传统存储之间的差异性带来的管理问题
    不同厂商设备的管理和使用方式各有不同,由于软硬件紧耦合、管理接口不统一等限制因素无法做到资源的统一管理和弹性调度,也会带来存储利用率较低的现象。因此,不同存储的存在影响了存储使用的便利性和利用率。
  3. 数据安全
    传统存储采用RAID安全技术,RAID安全技术已经无法满足现有数据安全需求,且不能保障跨盘柜的数据安全。而且一旦硬盘或机柜损坏,等待维修时间较长,有些专用存储设备必须等厂家人员维修,不仅耗时而且成本较高。
  4. 信息孤岛
    传统存储针对各个应用系统提供分散的存储解决方案,它们相互之间相互独立,毫无关联,不能实现数据的共享和互通。
  5. 存储扩容和数据迁移
    传统存储多采用集中式专用存储设备,初次购买的机头就限制了存储的性能和容量,如果需要扩容,必须重新购买。一旦寿命将近,还面临大规模数据迁移工作,耗费管理人员大量精力,还有数据丢失的风险。
  6. 管理问题
    分散的存储系统,同样给系统管理人员带来更大的管理难度和更多的工作量。
  7. 传统存储设备升级、维护成本高昂
    EMC、NETAPP、IBM、华为等在传统存储时代是非常成功的产品,当然也有着不菲的价格,后期的升级、维护、配件更换的成本也一直被人诟病,客户也一直有一种被绑架的感觉,完全没有给予到消费者应有的自由选择权利。而且,传统存储的扩容受限于机头性能,无法实现线性的无限扩容,无法满足现有存储每年激增的需求。

分布式存储优势:

分布式存储往往采用分布式的系统结构,利用多台存储服务器分担存储负荷,利用元数据定位存储信息。它不但提高了系统的可靠性、可用性和存取效率,还易于扩展,将通用硬件引入的不稳定因素降到最低。优点如下:

  1. 高可靠性
    分布式存储整个系统无任何的单点故障,数据安全和业务连续性得到保障。每个节点设备之间有专门的数据保护策略,可实现系统的设备级冗余,并且可在线更换损坏的硬盘或者节点设备。
    采用副本模式对数据形成保护,数据在写入后会按需生成多份副本,并根据设置将数据主从副本存储在不同的硬盘、服务器、机柜、 机房中,以此保证在硬盘损坏、服务器损坏、机柜损坏、机房故障情况下,数据的安全性以及业务的连续性,支持用户数据按照设定的1到6副本进行冗余存储。布式存储系统可按需设置存储池的保护策略(数据副本数量)以及硬盘离线超时时间,最大可支持 6 副本。与传统存储 RAID 机制比较,数据副本策略可屏蔽由于硬盘损坏而造成的数据恢复缓慢、恢复过程中存储卷不可用、多块硬盘同时损坏的数据丢失风险,单点故障系统不会丢失数据,带来更高的数据安全。
    通过强一致性复制协议来保证数据多个副本的一致性。正常情况下保证每个副本上的数据都是完全一致的,从任意副本读到的数据都是相同的。如果系统中的某个硬盘出现短暂故障,存储系统会暂时不写这个硬盘上的数据,通过日志记录的方式,记录此硬盘上数据的变化,等硬盘恢复后通过日志信息恢复该硬盘上的数据,如果硬盘长时间或者永久故障,存储系统会将硬盘从存储系统中移除掉,并统计出此硬盘上所有数据的副本位置,将这些丢失数据恢复到其它服务器的硬盘中。
    副本技术优势如下:
    文件多副本同时写入物理硬盘后返回前端数据写入完成,可增强数据整 体安全性,避免由于机房断电造成的数据丢失。
    可自由设置硬盘离线超时时间,避免硬盘更换后的大量数据迁移,保证 业务系统的优先性。
    数据恢复效率高,可一小时内完成 4TB 硬盘的恢复。
    对于容量需求较大的应用我们采取纠删码的磁盘保护技术,EC(Erasure Coding,纠删码)技术是将一份数据切分成 N 块原始数据, 基于 N 块原始数据计算获得 M 块冗余数据,并将 N+M 块数据分别存放在存储 系统中的不同存储节点上,当其中任意M块数据(N+M 块数据中任意的M块数据)丢失时,存储系统可通过数据恢复算法将丢失的 M 块数据恢复,实现冗余和容错的目的。
    分布式存储系统支持 N+M 格式的纠删码,用户可根据需求自定义 N 和 M 的数量,N 代表原始数据块数量,M 代表在不发生数据丢失的前提下,存储系统所允许发生的同时故障的数据块数量,即同时故障的节点数量。技术优势如下:
    纠删码的存储空间利用率高,最高可达到 90%以上
    纠删码数据保护机制不对 N+M 做任何限制(服务器数量满足的情况下),可确保更高的存储得盘率和灵活度。
  2. 高性能
    高性能,相比传统存储而言提供高出数倍的聚合IOPS和吞吐量,另外可以随着存储节点的扩容而线性的增长,每个存储节点都可以对外提供业务吞吐,专用的元数据模块可以提供非常快速精准的数据检索和定位,满足前端业务快速响应的需求;
    提供高性能的缓存技术,缓存管理基于SSD Cache 而非Cache Tier模式,可灵活定义每个HDD与SSD的缓存关系,精确到具体某一个SSD磁盘和对应的容量。
    提供KVM及XEN虚拟化平台的专用RBD高速存储接口,其中RBD能提供更为优异的低延迟、高IOPS带宽,确保虚拟化平台的高性能,对虚拟化架构的RBD接口进行优化设计,性能更高。
  3. 高可用
    从控制层面、数据层面和访问层面提供高可用保障,确保没有单点故障,为iSCSI、FC传统企业接口设计了MPIO功能,为ISCSI提供VIP功能,提升数据链路可用性,当其中一条路径发生故障时,数据自动切换到另一条路径上,链路恢复时自动切换回来,切换过程中业务不感知存储的但路径故障。
    集群硬件异常时,或者进行硬件更换维护时,分布式存储进入recovery 状态,分布式存储能对Recovery IO进行控制,并制定策略,根据用户需求保证业务IO或Recovery IO正常进行。
  4. 高可扩展
    得益于合理的分布式架构,分布式存储可预估并且弹性扩展计算、存储容量和性能。分布式存储的水平扩展有以下几个特性:
    1) 节点扩展后,旧数据会自动迁移到新节点,实现负载均衡,避免单点过热的情况出现;
    2) 水平扩展只需要将新节点和原有集群连接到同一网络,整个过程不会对业务造成影响;
    3) 当节点被添加到集群,集群系统的整体容量和性能也随之线性扩展,此后新节点的资源就会被管理平台接管,被用于分配或者回收。
  5. 易扩展
    系统可以支持在线无缝动态横向扩展,在采用冗余策略的情况下任何一个存储节点的上线和下线对前端的业务没有任何的影响,完全是透明的,并且系统在扩充新的存储节点后可以选择自动负载均衡,所有数据的压力均匀分配在各存储节点上。
    可以支持在线扩容,不仅可以垂直纵向扩容,更换高性能磁盘或者大容量,来纵向提升性能和容量;还可以不断增加节点,线性提升集群性能和容量。分布式存储架构具有良好的可扩展性,支持超大容量的存储:
    扩容存储节点后不需要做大量的数据搬迁,系统可以快速达到负载均衡状态。
    灵活的扩容方式,可以独立扩容计算节点、硬盘、存储节点,或者同时进行扩容。
    机头、存储带宽和Cache都均匀分布到各个节点上,系统IOPS、吞吐量和Cache随着节点的扩容而线性增加。
    系统自动将每个卷的数据块打散存储在不同服务器的不同硬盘上,冷热不均的数据会均匀分布在不同的服务器上,不会出现集中的热点。扩容节点或者故障减容节点时,数据恢复重建算法保证了重建后系统中各节点负载的均衡性。
  6. 开放兼容
    遵循软硬件解耦的基本原则,服务器可以采用任意品牌,兼容各种服务器品牌,采用硬件无关设计,对SSD、NVMe等硬盘全兼容,兼容主流RAID、HBA卡。底层支持主流Linux系统,RHEL、CentOS、中标麒麟等。支持VMware、Xen和Hyper等主流虚拟化技术,并支持OpenStack、CloudStack等云平台技术。
  7. 多应用接口
    分布式存储可提供统一存储架构,在一套存储系统中实现按需提供块、文件和对象融合存储服务能力。块存储:提供RBD、SCSI、iSCSI以及FC标准接口,支持广泛的虚拟化平台和数据库应用,提供高性能、高扩展能力,满足基础设施、数据库以及开发测试等场景对SAN的需求;非结构化存储:提供CIFS、NFS、FTP、S3标准接口,以高性能、大规模横向扩展能为用户提供非结构化数据共享存储资源,应用于海量视频存储、备份归档等场景。
  8. 存储系统标准化
    随着分布式存储的发展,存储行业的标准化进程也不断推进,分布式存储针对私有云虚拟化架构可采用行业标准接口(RBD Cinder)进行存储接入。在平台层面,通过将异构存储资源进行抽象化,将传统的存储设备级的操作封装成面向存储资源的操作,从而简化异构存储基础架构的操作,以实现存储资源的集中管理,并能够自动执行创建、变更、回收等整个存储生命周期流程。

  在安装完VMware虚拟化以后,虚拟化系统会自带证书,对于vshpere web client来说,凡是新的WEB环境,都会提示接受自带的签名证书。并且,这些证书由VMware自带的证书颁发机构VMCA来颁发和续期。而VMCA颁发的证书用来加密VMware各组件之间通信流量,保证数据传输的安全。大部分企业的虚拟化环境,都是内部局域网,vsphere 的通信流量安全对于当前企业的其他安全(数据,网络,门户,等等)来说,可谓是不值一提。而我忽然来了性趣,想从头到尾摸摸这个vsphere的证书。百度上用遍了各种关键词,没搜到我想要的内容,要么是千篇一律的复制,要么就是复制VMware官方KB,看的我云里雾里,毫无头绪。高潮依然很远,那种欲罢不能的感觉,谁人理解。最后求助谷歌,阅篇无数,最终摸清了前后门路。一番折腾,热血沸腾的我,心也渐渐的静了下来。现在我把过程逐一记录,便于回味。

此教程基于嵌入式 Platform Services Controller(PSC)模式的 VCSA6.7 U3,ESXi 6.7 U3,Windows 2016 CA服务器。也适用于Windows Platform Services Controller模式的VCenter!且适用于vSphere 6.x系列。

一,安装配置CA服务器

1,安装Windows CA服务器,具体过程参考这里Horizon系列之替换各组件自签名SSL证书,只看第一章节即可。

2,在CA服务器上,运行对话框或者命令提示符中输入certtmpl.msc,打开证书模板控制台。

24581-2za601wvgqb.png

3,右键单击从属证书颁发机构,点击复制模板。在兼容性标签里,证书颁发机构选择Windows server 2016,证书接收人,根据自己的客户端环境选择。

92620-k3pa67at2ed.png

4,点击常规标签,输入模板显示名称:vSphere 6.x VMCA,并勾选在 Active Directory 中发布证书

28062-cnp2673h3fn.png

5,点击扩展标签,单击密钥用法,然后单击编辑。勾选数字签名证书签名CRL 签名使这个扩展成为关键扩展

90282-wjbnst9p4ig.png

6,点击安全标签,选中Authenticated UsersAdministrator,确保勾选写入注册权限

05841-9zvqtzqm83.png

7,在运行对话框或者命令提示符中输入certsrv.msc,右键单击证书模板,然后单击新建-要发布的证书模板

34467-epdk0i6rvgr.png

8,选择新建的vSphere 6.x VMCA模板。单击确定

06488-jj6hjkxkbks.png

二,配置自定义VMCA

1,通过5480或者DCUI开启VCSA的ssh访问,然后登录ssh,输入下面的命令

shell.set --enable True
shell
chsh -s /bin/bash root
mkdir /tmp/certs

启用 Bash shell:shell.set --enable True #这一步不输入也可以。
访问 Bash shell:shell
将默认的Appliance Shell更改为 Bash Shell:chsh -s /bin/bash root
生成csr文件使用的临时目录:mkdir /tmp/certs

85187-gpuiz1vs96h.png

2,输入/usr/lib/vmware-vmca/bin/certificate-manager,打开证书管理界面。

如果是Windows Platform Services Controller模式的VC,则路径为:C:\Program Files\VMware\vCenter Server\vmcad\certificate-manager,后续步骤中需要的路径,输入Windows的绝对路径即可。

93925-srj8fu0w0jf.png

3,输入2,以选择(Replace VMCA Root certificate with Custom Signing Certificate and replace all Certificates)

88142-qnzse7dq0bq.png

参数具体说明:

#输入n,然后输入VC的SSO用户名和密码
Do you wish to generate all certificates using configuration file : Option[Y/N] ? : n
Please provide valid SSO and VC privileged user credential to perform certificate operations.
Enter username [Administrator@vsphere.local]:administrator@vdi.com
Enter password:
Please configure certool.cfg with proper values before proceeding to next step.
Press Enter key to skip optional parameters or use Default value.
#这里自定义,国家,省,市,组织等信息
Enter proper value for 'Country' [Default value : US] : CN
#这里输入VC的FQDN
Enter proper value for 'Name' [Default value : CA] : vcenter.lzuvdi.com
Enter proper value for 'Organization' [Default value : VMware] : lzuvdi
Enter proper value for 'OrgUnit' [Default value : VMware Engineering] : lzuvdi
Enter proper value for 'State' [Default value : California] : gansu
Enter proper value for 'Locality' [Default value : Palo Alto] : lanzhou
#输入VC的IP
Enter proper value for 'IPAddress' (Provide comma separated values for multiple IP addresses) [optional] : 192.168.80.105
#这里自定义邮箱,格式必须是邮箱格式
Enter proper value for 'Email' [Default value : email@acme.com] : mail@lzuvdi.com
#下面两个对话都输入VC的FQDN
Enter proper value for 'Hostname' (Provide comma separated values for multiple Hostname entries) [Enter valid Fully Qualified Domain Name(FQDN), For Example : example.domain.com] : vcenter.lzuvdi.com
Enter proper value for VMCA 'Name' :vcenter.lzuvdi.com

4,输入1,以选择Generate Certificate Signing Request(s) and Key(s) for VMCA Root Signing certificate,输入第一步新建的临时目录/tmp/certs,回车,会生成csr文件,此时,停留在这个界面即可。

Windows Platform Services Controller下注意路径的书写格式,比如 D:\vmca\customssl

70856-avjiga7qmtr.png

5,用ftp工具登录VCSA,导航到证书存放的临时目录,已经生成csr和key。vmca_issued_csr.csrvmca_issued_key.key

12802-lp20twq9bg.png

6,下载vmca_issued_csr.csr到本地,并改名为vmca.csr,用记事本打开vmca.csr,全选并复制里面的内容

04851-xd1qbgdoqu.png

7,浏览器输入http://CA服务器IP/certsrv,回车,如我的:http://192.168.80.115/certsrv,输入域管理员用户名和密码,注意用户名的书写格式。

72505-sciragfnunh.png

8,点击申请证书,单击高级证书申请,在Base-64 编码的证书申请输入框中粘贴第6步复制的csr内容,证书模板选择vSphere 6.x VMCA,点击提交

35798-zzyg8n2ew1j.png

9,选择Base 64 编码,单击下载证书,保存文件名称为vmca.cer

10,返回到证书申请主页,点击下载 CA 证书、证书链或 CRL,选择Base 64,单击下载 CA 证书,保存文件名称为root.cer,用记事本打开root.cer,全选并复制里面的内容

87731-cyg9qgmbzvp.png

11,用记事本打开第9步保存的vmca.cer,在-----END CERTIFICATE-----下面粘贴上一步复制的内容,并保存

84647-3rq91zjsry6.png

三,更换VMCA证书

1,把vmca.cer上传到/tmp/certs,返回到ssh界面,输入1,以选择Continue to importing Custom certificate(s) and key(s) for VMCA Root Signing certificate

2,输入证书和key的路径,证书是我们合成的vmca.cer,key是请求生成csr文件时生成的key文件,

Please provide valid custom certificate for Root.
File : /tmp/certs/vmca.cer

Please provide valid custom key for Root.
File : /tmp/certs/vmca_issued_key.key

Windows Platform Services Controller下注意证书路径的书写格式,比如 D:\vmca\customssl\vmca.cer

44805-3vgsqgr03lb.png

3,输入y ,进行更换操作,整个更换过程,大概需要10分钟左右,在这个过程中VC无法访问,Windows Platform Services Controller模式的VC可能会更慢,需耐心等待。

47225-a8kwxsgl2on.png

4,更换成功提示

88904-vgdbb6unmm.png

5,域终端(加域客户端成员)中测试证书

浏览器中打开VC的IP地址,小绿锁出现,且状态正常

40260-oeeolhuqzmq.png

再来试试用FQDN,小绿锁出现,且状态正常

11340-ovjgsr2wgo.png

6,独立终端(独立工作组)中测试证书

提示链接不安全

02734-f06yjuhx3n7.png

试试用FQDN,一样会警告

21577-8zdraihmzff.png

这是怎么回事呢,域客户端会自动从域证书服务器中接收并安装当前环境中CA的根证书,这样,VMCA就有了归属的颁发机构,而独立工作站不会有这个根证书,如何解决,安装根证书即可。

7,在独立工作站中安装第三章节第10步保存的root.cer证书,双击打开证书,点击安装证书,选择本地计算机,单击下一步,选择将所有的证书都放入下列存储,在证书存储中选择受信任的根证书颁发机构,下一步,直至完成。

89737-yaw5uxv9zc.png

8,在浏览器中输入VC的IP

23677-p95unofx53.png

输入FQDN

89752-zweriik91hs.png

让人欣慰的小绿锁又回来了!

9,如果需要安装VC的VMCA证书,则直接安装第二章节第11步保存的vmca.cer证书即可。这里可以通过域控的GPO来给客户端安装。

编辑GPO并浏览到计算机管理--策略--Windows设置--安全设置--公钥策略-受信任的根证书颁发机构,右键单击导入。导入上面的CA证书,然后执行gpupdate /force刷新策略,域客户端重启即可。

31881-brbrnnagu4u.png

独立工作站双击CA证书,安装到受信任的根证书颁发机构即可。

这一步操作是为了让客户端用FQDN登录VCSA的5480的证书不报错,如果VC是基于Windows的,则这些操作可省略。

08329-1yq90p21y4s.png

四,VC组件证书续期

1,登录VC,打开证书管理界面

计算机 SSL 证书

64756-pgd9iurlta.png

解决方案证书

13262-cd0hp7v1lyr.png

篇幅关系,我只演示续期vsphere-webclient证书,当前证书有效期至:2022/5/7 上午11:07

38316-gycg5epfcvj.png

点击续订

44497-9tshlvfeqf.png

提示续订成功

49443-vc3ipqvcqf.png

五,ESXi主机证书续期

1,在VC管理界面,右键单击主机,选择证书,点击续订证书,有可能会报如下错误

44347-35hun0ty5fe.png

2,点击VC的FQDN名称,单击设置,点击高级设置,单击编辑设置,搜索vpxd.certmgmt.certs.minutesBefore,把值1440改为10,然后保存。

43461-o6jgsnuklz.png

根据第1步操作,依次为集群内所有主机续订证书,续期后的证书状态

04657-9idrm4wrjqw.png

3,登录ESXi主机测试证书,证书正常

79698-hpc6monlufi.png

因为这个证书没有ESXi主机的IP信息,所以用IP登录还是会提示证书不可信。如果想用IP登录,那么VC中加入主机的时候就要用IP。

92573-pcsin3cl21r.png

参考链接:

https://kb.vmware.com/articleview?docid=2111219&lang=zh_CN
https://kb.vmware.com/s/article/2112009
https://kb.vmware.com/s/article/2112016
https://kb.vmware.com/s/article/2107727
https://kb.vmware.com/s/article/2123386
https://communities.vmware.com/thread/613940

  NIC Teaming是指将服务器上的几个网络端口组合在一起,无论是基于Windows的服务器,Linux服务器,还是VMware vSphere ESXi主机,做网卡绑定的主要目都是为了增加链路带宽、实现冗余以及实现负载均衡。在VMware vSphere环境中,通过NIC Teaming可以在所有成员之间实现共享物理和虚拟网络之间的流量负载,并可在发生硬件故障或网络中断时提供被动故障转移。要使用网卡绑定,必须将两个或多个网络适配器上行链接到虚拟交换机。

此文转载自Kclouder

NIC Teaming的主要优点包括:
● 为托管的虚拟交换机提高网络容量。
● 网络冗余。当Teaming中的某个适配器发生故障时,可进行被动故障切换。服务器将能够幸免于网卡故障或链接故障,并继续通过流量。
● 负载平衡。服务器将能够通过多个网卡传输流量。不会因为某个服务器繁忙或者某个网络接口流量拥堵而影响虚拟机运行。

vSphere中所有三种类型的网络都支持NIC Teaming,包括VMKernel、Service Console和Port Group。Uplink连接到物理交换机的端口必须在同一个广播域中,也就是必须在同一个VLAN中,不能跨路由。如果Uplink要配置VLAN,则每个Uplink必须都配置成VLAN Trunk并且具有相同的VLAN配置。另外,VMware的负载均衡只是出站方向的负载均衡(Outbound Load Balancing)。VMware NIC Teaming的Load Balancing和路由算法中的Load Balancing不同,它不是按照Teaming中网卡通过的数据流量来做负载均衡的,而是根据网卡上的连接来进行负载均衡。

负载均衡的分类:
VMWare NIC Teaming的负载均衡有以下几种:

●  基于IP哈希的路由
●  基于源MAC哈希的路由
●  基于源虚拟端口ID的路由  默认选项
●  使用明确故障切换顺序
●  基于物理NIC负载的路由,采用分布式虚拟交换机时的选项

15527-x3semk8e6ls.png

使用明确故障切换顺序

首先,我们来看一下:使用明确故障切换顺序,这个是在标准虚拟交换机(Standard vSwitch)中最简单的一个故障转移选项,即使用明确的故障转移顺序。使用此选项,不执行任何负载平衡,vSphere将首先使用活动列表中的第一个适配器(VMNIC)进行流量传输,如果此适配器失败,则将流量切换到备用的适配器上。这种方法配置最简单,但同时也不会提供任何的高级功能,也不支持负载均衡。通这这种故障切换的方法可以实现Port Group的冗余,比如对于管理网络的Potr Group,可以使用vmnic1作为活动端口,vmnic2作为备用端口。而对于vMotion端口组,则可以使用vmnic2作为活动端口,vmnic1作为备用端口。这样,如果一个NIC或link失败,仍然可以在ESXi主机上同时运行管理和vMotion流量。

71907-9uk4j1gwoyd.png

基于源虚拟端口ID的路由

默认的负载平衡算法称为“基于源虚拟端口ID的路由”,这种模式下VMware vSphere将把虚拟机的虚拟端口按顺序分配给每一个上行链路,如下图所示,VM A连接到上行链路1,VM B连接到上行链路2,VM C再次连接到上行链路1,VM D再次连接到上行链路2,如此循环,如果新创建一个VM E,它就会连接到上行链路1。使用这种模式可以将虚拟机平均的分配到上行链路上。

29275-wm2jrzfyrvr.png

基于IP哈希的路由

基于IP哈希负载均衡算法的路由是最复杂的。需要在VMware vSphere环境之外进行额外的配置。在这种模式下,负载均衡的实现是根据源IP地址和目的地IP地址的,因此同一台VM(源IP地址是固定的)到不同目的地的数据流量就会因为目的地IP地址的不同,而走不同的上行链路,也只有在这种模式下,虚拟机对外的流量的负载均衡才能够真正的实现。注意,VMware是不关心对端物理交换机的配置的,VMware的负载均衡只负责从ESXi主机出站的流量,因此要做到Inbound的负载均衡,必须在物理交换机上做同样的IP Hash配置,此时,上行链路必须连接到同一个物理交换机上。需要注意的是,VMware不支持动态链路聚合协议(例如802.3ad LACP或者Cisco的PAgP),因此只能实现静态的链路聚合。不仅如此,对端的交换机设置静态链路聚合的时候也要设置成IP Hash的算法。否则这种方式的负载均衡将无法实现。 比如Cisco交换机上的默认Etherchannel的算法是源MAC,因此需要将其修改成源和目的IP。IP哈希通过源IP和目标IP的最后八位完成,这个运作法则叫作XOR。在执行完XOR之后,在XOR的运作结果和Teaming的网卡数量之间执行另一个称为modulo或mod的计算。由于Teaming中的NIC从0开始,所以最终结果总是介于0和N-1之间。
VMware KB: ESXi和交换机的EtherChannel/链路聚合控制协议 (LACP) 的配置示例

18349-43apos80xsn.png

基于源MAC哈希的路由

这种方式下,负载均衡的实现是基于源MAC地址的。因为每个vNIC总是具有一个固定的MAC地址,因此这种方式的负载均衡同基于端口的负载均衡具有同样的缺点。同样是要求vPort数量大于pNIC的时候才会有效。同样是vNIC的速率不会大于单个pNIC的速率。与基于IP哈希的路由类似,基于源MAC哈希的路由计算每个包的上行链路。 与基于IP哈希的路由不同的是,基于源MAC哈希的路由不需要VMware vSphere环境之外的任何额外配置。 同样,基于源MAC的哈希算法使用虚拟机的MAC地址和NIC Teaming中的上行链路数量之间执行mod来计算应该使用哪个上行链路。

基于源MAC哈希的路由与基于IP哈希的路由具有相似的优点。由于我们在vSwitch中使用的是MAC地址和上行链路的数量,因此从这些负载平衡算法的使用中获益最多的虚拟机是那些具有多个虚拟nic的虚拟机。由于只需要进行一个数学运算来确定要使用的vSwitch上行链路,因此它的开销确实比基于IP哈希的路由要小,但比其他负载平衡机制要大。

40462-x79zbmuto3.png

基于物理NIC负载的路由

正如我们前面提到的,在使用分布式虚拟交换机时有一个额外的负载平衡算法,称为“基于物理NIC负载的路由”,通常称为LBT。使用分布式虚拟交换机时,可以使用基于负载的Teaming。它也非常简单,因为它采用和默认负载平衡算法相同的方式开始工作。如果一个上行端口在30秒内达到75%的利用率,繁忙的VM将被移动到另一个上行端口。虽然使用基于负载的Teaming确实需要在虚拟交换机上进行最少的配置(只需选择“基于phyiscal NIC负载的路由”),但它仍然非常简单,因为它提供了负载平衡,不需要配置任何上游组件。一旦它被选中,虚拟机将在上行端口之间均衡,如果它们很忙,VM将被移动到另一个上行端口。基于负载的Teaming以及基于源虚拟端口的路由是VMware中最简单的NIC Teaming方法,因为它们不需要任何额外的配置。流量将在NIC之间得到平衡。

24557-247djhqpf1l.png

  SFP、SFP+、SFP28、QSFP+和QSFP28是不同的光收发器类型。它们都是可热插拔的网络接口模块,用于连接网络交换机和其他网络设备(如服务器或媒体转换器)进行数据传输。那么,在面对这些不同类型的模块时,比如SFP vs SFP+, SFP28 vs SFP+, QSFP vs QSFP28,它们之间有什么区别呢?你可能常常会听到这样的问题:QSFP28与QSFP+兼容吗?我可以在SFP+端口使用SFP28收发机吗?本文我们就来对这些不同类型的模块做一些介绍,并对这些疑问作出解释。

本文转载自KClouder

Transceiver类型介绍
广义的收发器组合通常包括以下几种类型,客户可以根据特定的使用环境和速度需求来选择合适的类型。
● SFP:广泛的协议和速率(快速以太网、千兆以太网、光纤通道、Sonet/SDH),可在商业或扩展温度环境下运行。
● SFP+:专为10g以太网和10g光纤通道。
● XFP:支持各种10gbps协议(以太网,Sonet/SDH光纤通道)。
● X2: 10g以太网标准在不同的距离。
● SFP28:专为25g以太网。
● QSFP+: 40Gbps 40g以太网和OTN标准接口支持多模和单模光纤。
● QSFP28: 100 Gbps 1000g以太网和OTN标准接口支持多模和单模光纤。

在找出SFP与SFP+, SFP28与SFP+,或QSFP与QSFP28的区别之前,我们有必要先知道SFP, SFP+, SFP28, QSFP和QSFP28是什么。

95941-jxk5ecjkh58.png

SFP

SFP (small form-factor pluggable)是GBIC (Gigabit interface converter)的升级版。其体积仅为GBIC模块的1/2,大大增加了网络设备的端口密度。SFP的数据速率从100mbps到4gbit/s不等。

SFP+

SFP+ (small form-factor pluggable plus)是SFP的增强版。它支持8Gbit/s光纤通道,10千兆以太网和光传输网络标准OTU2。SFP+还引入了直接连接来连接两个SFP+端口,而不需要额外的光纤收发器,包括DAC(直接连接电缆)和AOC(主动光缆),这是两个相邻网络交换机之间的短距离直接连接的非常出色的解决方案。

SFP28

SFP28 (small form-factor pluggable 28)是SFP+的一个增强版本。SFP28具有与SFP+相同的常见形式,但在单车道上支持25Gb/s。SFP28提供了一种新的网络升级方式:10G-25G-40G-100G,这是一种节能的解决方案,以满足下一代数据中心网络不断增长的需求。

QSFP+

QSFP+是QSFP (quad small form-factor pluggable)的演化。QSFP可以同时携带4个通道,每个通道可以处理1Gbit/s的数据速率,因此得名Quad SFP。与QSFP不同,QSFP+支持4x 10 Gbit/s通道。这4个通道可以合并成一个40千兆以太网链路。QSFP+收发器可以取代4个标准的SFP+收发器,从而比传统的SFP+产品具有更高的端口密度和整体系统成本节约。

QSFP28

QSFP28 (quad small form-factor pluggable 28)适用于100G的应用程序。它提供了4个高速差分信号通道,数据速率从25Gbps到可能的40 Gbps不等,最后满足100 Gbps以太网(4×25Gbps)和100 Gbps无限带宽增强数据速率(EDR)的要求。请注意,QSFP28可以实现4x25G和2x50G的叉分连接,也可以实现1x100G的连接,具体取决于所使用的收发器类型。

比较SFP vs SFP+ vs SFP28 vs QSFP+ vs QSFP28

在搞清楚SFP/SFP+/SFP28/QSFP+/QSFP28是什么之后,下面我们来详细比较SFP与SFP+, SFP28与SFP+,QSFP与QSFP28, SFP28与QSFP28。

SFP vs SFP+: 相同的尺寸,不同的速度和兼容性

SFP和SFP+收发器,两者在大小和外观上几乎相同。这使得设备制造商可以重用现有的SFP物理设计,用于带有SFP+端口的网络交换机。至于区别,很明显的一点是他们支持不同的传输速度,SFP高达4Gbit/s,而SFP+是10Gbit/s。此外,它们符合不同的规格。SFP基于SFF-8472协议,SFP+符合SFF-8431和SFF-8432。在SFP与SFP+的兼容性方面,SFP+端口通常接受SFP光学,但速度降低了1 Gbit/s。SFP+收发机不能插入SFP端口,否则会损坏产品或端口。

SFP28 vs SFP+: 我可以在SFP+端口中使用SFP28收发器吗?

答案是肯定的。从上面可以看出,SFP28是SFP+的升级版本,SFP28已经升级到每个lane处理25Gbit/s。它们使用相同的形状因子,并且SFP28和SFP+连接器的pinouts是匹配兼容的。所以SFP28将与SFP+光学系统一起工作,但是速度会降低10Gbit/s。如果SFP+模块的SFP28端口可以设置为10G传输,则SFP+模块可以很好地与网络交换机上的SFP28端口配合使用,否则SFP+模块无法工作。在铜缆方面,与SFP+版本相比,SFP28铜缆具有更大的带宽和更低的损耗。

SFP28 vs QSFP28: 根据不同的原则工作

虽然它们的名字中有一个数字“28”,但是SFP28和QSFP28收发器实际上采用了不同的尺寸和工作原理。SFP28只支持一个25Gbit/s的信道,而QSFP28支持4个独立的25Gbit/s的信道。它们都可以用于100G网络,但是SFP28是以QSFP28的形式应用于SFP28的breakout电缆。下面显示了100G QSFP28到4xSFP28 DAC的直接连接。

87026-jngplz6bhsb.png

QSFP+ vs QSFP28: 不同的速度有不同的用途

QSFP+和QSFP28收发器集成了4个发射和4个接收通道,大小相同。此外,QSFP+和QSFP28的产品系列都包括收发模块和DAC/AOC电缆,但速度不同。QSFP+模块支持1x40gbit/s, QSFP+ DAC/AOC电缆支持4x10Gbit/s。QSFP28模块可以传输100 Gbit/s的数据,QSFP28 DAC/AOC电缆可以运行在4x25Gbit/s或2x 50 Gbit/s。请注意,通常QSFP28模块不能突破成10G链接。但是在QSFP28端口中插入QSFP+模块是另一种情况,如果开关支持(如何在QSFP28 100G端口上实现4x10G模式,请访问QSFP28 100G端口播放40G,25G和10G)。在这种情况下,QSFP28可以像QSFP+收发模块一样突破4x10G。

总结:

SFP与SFP+、SFP28与SFP+、QSFP+与QSFP28在不同类型的收发机上的差异在本文中都有明确的阐述。尽管其中一些共享相同的设计,但它们是为不同的数据速率而设计的。从比较中可以看出,光收发器发展的主要驱动力是需要用较小的形状(form-factor)获得更高的带宽速率。例如,在相同的形状(form-factor)中,QSFP28比QSFP+提供更多的带宽。