l|ne软件搜服务器打开

拒绝访问 | www.niupr.com | 百度云加速
请打开cookies.
此网站 (www.niupr.com) 的管理员禁止了您的访问。原因是您的访问包含了非浏览器特征(44dc241ef43a439a-ua98).
重新安装浏览器,或使用别的浏览器下载客户端X
& 服务器机箱
服务器机箱报价
已选条件:
机箱样式:刀片式
机箱结构:12U
散热系统:最大10个散热风扇模块
电源类型:前置0V全电网 AC热插拔电源模块,支持N+N或N+M电源冗余模式
支持电源数量:2个
机箱尺寸:528×447×839mm
其它特性:刀片支持:最
机箱样式:塔式
机箱结构:4U
适用主板:12英寸x13英寸E-ATX
硬盘位:Hot-swap:8个3.5英寸SAS/SATA Hot-swap Drive Bays;SAS or enterprise SATA HDD only recommended
Peripheral Bay:3个5.25英寸Peripheral Drive Bay;Drive Bays are 90°Rotatable
支持热插拔系统:支持
散热系统:2×超静音PWM风扇
1×超静音后排气风扇
电源类型:1200W
前置接口:2*USB 3.0
机箱样式:机架式
机箱结构:2U
适用主板:支持Extended ATX/ATX/micro ATX/EEB/CEB主板
硬盘位:8*3.5寸热插拔托盘
支持热插拔系统:支持
散热系统:支持4个80*80*38滚轴风扇
电源类型:支持2U标准电源,2U冗余电源
前置接口:1*USB2.0,1*
¥720[厂商指导价]
机箱样式:机架式
机箱结构:ATX架构
适用主板:12×9.6(305×245MM)
硬盘位:8个3.5寸硬盘和4个2.5寸硬盘
光驱位:3个5.25光驱
支持热插拔系统:支持
硬盘防震系统:无
散热系统:1个12025风扇
¥255[市场零售价]
机箱样式:上架式
机箱结构:2U
适用主板:ATX 12×13及以下尺寸的主板
硬盘位:9个标准3.5硬盘位
散热系统:3个8038热插拔风扇
支持电源数量:1个
前置接口:2个USB
机箱尺寸:650×430×88
机箱样式:机架式
机箱结构:1U
适用主板:CEB(12x10.5)/EEB(12x13)
硬盘位:4个SAS或4个SATA
光驱位:1个笔记本
支持热插拔系统:支持
散热系统:标配5个4028双滚珠风扇
电源类型:1U电源或加长
机箱样式:机架式
机箱结构:2U
适用主板:12英寸x13英寸,13.68英寸x13英寸E-ATX 12英寸x10英寸ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位
光驱位:Slim DVD-ROM(可选)
支持热插拔系统:支持
散热系统:3×80×38mm 43针PWM风扇
电源类型:720W 高效率
机箱样式:塔式
机箱结构:4U(转换为机架式机箱)
适用主板:12英寸x13英寸E-ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位
支持热插拔系统:支持
散热系统:4×机箱散热风扇
电源类型:865W 超静音高效能电源
前置接口:2*前置USB
机箱样式:机架式
机箱结构:4U
适用主板:15.2英寸x13.2英寸E-ATX,ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位
支持热插拔系统:支持
散热系统:2×5000转热插拔冷却风扇
2×5000转热交换后排气风扇
电源类型:1400W(1+1)冗余电源(93%)
前置接口:2*USB
机箱样式:塔式
机箱结构:4U
适用主板:12英寸x13英寸E-ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位2个5.25英寸驱动器托架 1个5.25英寸驱动器托架(安装3.5英寸驱动器)
支持热插拔系统:支持
散热系统:4×5000转PWM冷却热插拔风扇
电源类型:865W 高效率超静音电源
前置接口:2*USB
机箱样式:塔式
机箱结构:4U
适用主板:12英寸x13英寸E-ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位2个5.25英寸驱动器托架 1个5.25英寸驱动器托架(安装3.5英寸驱动器)
支持热插拔系统:支持
散热系统:2×超静音PWM风扇
1×超静音后排气风扇
电源类型:865W 高效率超静音电源
前置接口:2*USB
机箱样式:塔式
机箱结构:4U
适用主板:13.68英寸x13英寸E-ATX,ATX
硬盘位:8个3.5英寸SAS/SATA硬盘位 2个5.25英寸驱动器托架 1个5.25英寸软盘驱动器托架
支持热插拔系统:支持
散热系统:3×5000转PWM冷却热插拔风扇
2×5000转后排气热插拔风扇
电源类型:1200W 黄金级高效率电源
前置接口:2*USB
机箱样式:塔式
适用主板:12英寸x13英寸E-ATX
硬盘位:4个3.5英寸SAS/SATA硬盘位
支持热插拔系统:支持
散热系统:1×120mm PWM后方排气扇
1×90mm PWM气扇
电源类型:665W电源,80PLUS供电
前置接口:2*USB 2.0
机箱尺寸:427*178*531m
机箱样式:机架式
机箱结构:4U
适用主板:13.68英寸x13英寸ATX,E-ATX
硬盘位:36个3.5英寸HDD硬盘位(24块前置,12快后置)
支持热插拔系统:支持
散热系统:7×80mm热插拔冗余冷却风扇
电源类型:1400W高效率(1+1)冗余电源,80PLUS供电
机箱尺寸:178*437*699m
机箱样式:机架式
机箱结构:1U
适用主板:9.6英寸x9.6英寸
硬盘位:1个3.5英寸SAS/SATA内部硬盘位 或:2个2.5英寸SAS/SATA内部硬盘位(可选)
电源类型:200W 低噪声电源
机箱尺寸:43*437*249mm
其它特性:1×全高半长PCI扩展槽(可选)
5×LED指示灯
电源开关/Reset开关
机箱重量:4.5kg
机箱样式:上架式
适用主板:ATX 12×9.6及以下尺寸的主板
硬盘位:7个标准3.5硬盘位
光驱位:1个标准5.25光驱位
散热系统:4个8025风扇
支持电源数量:1个
前置接口:1个USB
机箱尺寸:530×427×88
机箱样式:机架式
机箱结构:1U
适用主板:12英寸x13英寸13.68英寸x13英寸
硬盘位:4个3.5英寸SAS/SATA硬盘位
光驱位:1*迷您 DVD光驱位(可选)
支持热插拔系统:支持
散热系统:4×机箱散热风扇
电源类型:560W 高效能
机箱样式:机架式
机箱结构:2U
光驱位:光驱位可选
散热系统:可热插拨
电源类型:560W
机箱尺寸:主板尺寸:主
机箱样式:刀片式
电源类型:冗余电源
支持电源数量:2个
特殊功能:4个内部交换模块槽位,最多可支持2个千兆以太网交换模块和2个Infiniband交换模块
其它特性:系统管理:2个管理模块支持管理冗余;支持基于IPMI2.0的高级管理特性;支持KVM over IP和存储重定向;1+1个冗余管理模块,可实现远程管理功能和高级KVM功能
20个半高刀片或10个全高刀片、1个以太网交换模块,对内20千兆,对外4个万兆,4个千兆
产品特性1:软驱:标配U盘软驱
电源功率:1350W
机箱样式:机架式
机箱结构:4U
适用主板:13.68英寸x13英寸E-ATX
硬盘位:24个3.5英寸SAS/SATA硬盘位 2个3.5英寸硬盘位或2个2.5英寸硬盘位(可选)
光驱位:DVD
支持热插拔系统:支持
散热系统:3×5000转热插拔冷却PWM风扇
2×5000转热交换后排气PWM风扇
电源类型:1200W高效率
机箱样式:机架式
机箱结构:2U
适用主板:12×13&及以下尺寸的主板,兼容E-ATX/ATX/Micro-ATX/Mini-ITX等规格
硬盘位:8个前置3.5英寸HDD(兼容2.5英寸HDD/SSD),3个内置2.5英寸 HDD/SSD;
硬盘抽取盒采用防EMI设计,带导光柱,能指示硬盘工作状态;滑轨式设计,抽取顺畅
光驱位:选配1个超薄笔记本光驱位
支持热插拔系统:支持
硬盘防震系统:EMI弹片,防震风扇能够降低风扇和硬盘之间的振动
散热系统:4个8公分风扇
机箱样式:上架式
机箱结构:1U
适用主板:ATX 12×13及以下尺寸的主板
硬盘位:4个标准3.5硬盘位
散热系统:标配5个4028热插拔双滚珠风扇,前面板和侧面开有散热孔,能形成良好的散热风道
支持电源数量:1个
前置接口:2个USB
机箱尺寸:650×430×44
机箱样式:机架式
机箱结构:2U
适用主板:12×13寸主板及以下
硬盘位:6个3.5寸硬盘位,额外3个2.5寸内置硬盘位的选配
光驱位:1个5.25寸光驱位或1HDD
支持热插拔系统:支持
硬盘防震系统:防震风扇能够降低风扇和硬盘之间的振动
散热系统:标配3个热插
机箱样式:机架式
机箱结构:2U
适用主板:12×10.5寸主板及以下
硬盘位:6个3.5寸硬盘位,额外3个2.5寸内置硬盘位的选配
光驱位:1个5.25寸光驱位或1HDD
支持热插拔系统:不支持
硬盘防震系统:防震风扇能够降低风扇和硬盘之间的振动
散热系统:标配4个热插
还有款服务器机箱&&
服务器相关子类
网络设备相关子类
网络安全相关子类
机房布线相关子类
相关类别:
热门类别:check-circle-line
exclamation-circle-line
close-line
ESXi 6.5 Update 1 | 2017 年 7 月 27 日 | ISO 内部版本 5969303 请查看发行说明以了解新增内容及更新。
发行说明内容
本发行说明包含以下主题:
ESXi 6.5 Update 1 版本包含下列新增功能。
如果更喜欢使用 Update Manager 升级 ESXi 和 vSAN 堆栈,现在可以通过与 vSphere Update Manager 集成来实现 vSAN 软件升级。这提供了一个统一的通用工作流。有关详细信息,请参见。
驱动程序更新:
Cavium qlnativefc 驱动程序
VMware nvme 驱动程序
支持 Lewisburg 10G 网卡的 Intel i40en 驱动程序
支持 Lewisburg 1G 网卡的 Intel ne1000 驱动程序
Intel igbn 驱动程序
Intel ixgben 驱动程序
Broadcom ntg3 驱动程序
ESXi 6.5 的早期版本
各个版本的发行说明中均描述了 ESXi 6.5 的功能和已知问题。ESXi 6.5 的早期版本的发行说明包括:
有关兼容性、安装、升级、产品支持注意事项和功能的说明,请参见 。
VMware vSphere 6.5 提供以下语言的版本:
VMware vSphere 6.5 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。
ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性
详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 以了解有关受支持的管理和备份代理的信息。
vSphere Web Client 及 vSphere Client 与 vCenter Server 打包在一起。
ESXi 的硬件兼容性
要查看与 vSphere 6.5 Update 1 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看中关于 ESXi 6.5 的信息。
ESXi 的设备兼容性
要确定哪些设备与 ESXi 6.5 兼容,请查看中关于 ESXi 6.5 的信息。
ESXi 的客户机操作系统兼容性
要确定哪些客户机操作系统与 vSphere 6.5 兼容,请查看中关于 ESXi 6.5 的信息。
ESXi 的虚拟机兼容性
ESXi 6.5 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.5 上使用此类虚拟机,请升级虚拟机兼容性。 请参见文档。
产品和支持注意事项
提供了有关所有受支持和不受支持产品的详细信息。此外,查看 也可以了解有关“标准技术支持有效期”、“技术指导有效期”和“可用性有效期”的更多信息。
VMware 宣布停止使用第三方虚拟交换机 (vSwitch) 程序,并计划在 vSphere 6.5 Update 1 之后的版本中弃用第三方交换机使用的 VMware vSphere API。后续的 vSphere 版本将完全移除第三方 vSwitch API,第三方 vSwitch 将不再运行。有关详细信息,请参见。
本版本中包含的修补程序
本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见
包含以下各公告:
更新版本 包含以下各公告:
包含以下映像配置文件:
更新版本 包含以下映像配置文件:
已解决的问题
已解决的问题分为以下几组。
Auto Deploy
ESXi 主机从 Auto Deploy 执行无状态引导时会断开网络连接如果管理 vmkernel 网卡具有静态 IP 并且连接到分布式虚拟交换机,从 Auto Deploy 执行无状态引导时,ESXi 主机可能会断开网络连接。& 本版本已解决该问题。
CIM 和 API 问题
13G DDR4 内存模块在 vCenter Server 中的“硬件运行状况”页面显示,状态为“未知”&Dell 13G 服务器使用 DDR4 内存模块。这些模块在 vCenter Server 中的“硬件运行状况”页面显示,状态为“未知”& 本版本已解决该问题。
为新连接的 USB 键盘分配美式默认布局 当键盘配置了美式默认布局以外的其他布局,并且稍后从 ESXi 主机上拔下再重新插上时,将为新连接的键盘分配美式默认布局而不是用户选定的布局。& 本版本已解决该问题。&
vmswapcleanup 插件无法启动vmswapcleanup jumpstart 插件无法启动。syslog 包含以下行:& jumpstart[XXXX]: execution of '--plugin-dir /usr/lib/vmware/esxcli/int/ systemInternal vmswapcleanup cleanup' failed : Host Local Swap Location has not been enabled& 本版本已解决该问题。
SNMP 代理报告的 ifOutErrors 和 ifOutOctets 计数器值有误简单网络管理协议 (SNMP) 代理报告的 ifOutErrors 和 ifOutOctets 计数器值相同,但这两个值本应不同。& 本版本已解决该问题。
注册具有硬件版本 3 的虚拟机时,ESXi 会断开与 vCenter Server 的连接尽管 ESXi 主机不再支持运行硬件版本 3 的虚拟机,但它允许注册这些旧版虚拟机,以便将其升级到更新的受支持版本。近期回归导致 ESXi hostd 服务在注册过程中断开与 vCenter Server 的连接。这会阻止虚拟机成功注册。& 本版本已解决该问题。
虚拟机自动关闭,并显示“MXUserAllocSerialNumber: 锁定太多 (MXUserAllocSerialNumber: too many locks)”错误在正常的虚拟机操作中,VMware Tools(版本 9.10.0 和更高版本)服务创建 vSocket 连接,以便与 ESXi 主机交换数据。当建立了大量此类连接时,ESXi 主机可能会用尽锁定序列号,导致虚拟机自动关闭并显示 MXUserAllocSerialNumber: 锁定太多 (MXUserAllocSerialNumber: too many locks) 错误。如果已经采用了知识库文章 中的解决方法,请移除以下行,重新启用通过 vSockets 建立的 Guest RPC 通信:guest_rpc.rpci.usevsocket = "FALSE"& 本版本已解决该问题。
当多个用户登录到 Windows 终端服务器虚拟机时,ESXi 6.5 上的虚拟机会崩溃当有许多用户登录时,在 ESXi 6.5 上运行 VMware Tools 10.1.0 的 Windows 2012 终端服务器会停止响应。& vmware.log 将显示类似以下内容的消息& T02:03:24.921Z| vmx| I125: GuestRpc: Too many RPCI vsocket channels opened. T02:03:24.921Z| vmx| E105: PANIC: ASSERT bora/lib/asyncsocket/asyncsocket.c:5217 T02:03:28.920Z| vmx| W115: A core file is available in "/vmfs/volumes/515c94fa-d9ff4c34-ecd3-001b210c52a3/h8- ubuntu12.04x64/vmx-debug-zdump.001" T02:03:28.921Z| mks| W115: Panic in progress... ungrabbing& 本版本已解决该问题。
vSphere Web Client 无法更改 Syslog.global.logDirUnique 选项 当使用 vSphere Web Client 尝试更改 Syslog.global.logDirUnique 选项的值时,此选项灰显,无法修改。& 本版本已解决该问题。
激活 iodm 和 vmci jumpstart 插件可能会在 ESXi 引导期间失败ESXi 主机引导期间,jumpstart 日志中会显示与执行 jumpstart 插件 iodm 和 vmci 有关的错误消息。& 本版本已解决该问题。
EnterMaintenanceMode 任务会忽略大于 30 分钟的超时值进入维护模式会在 30 分钟后超时,即使指定的超时值大于 30 分钟。 本版本已解决该问题。
即使在主机配置文件文档中禁用所有 NAS 存储,主机配置文件合规性也会失败,并且会移除现有数据存储或者添加新数据存储在从引用主机提取的主机配置文件文档中禁用所有 NFS 数据存储时,主机配置文件的修复可能会失败并显示合规性错误,而且修复期间会移除现有数据存储或者添加新数据存储。 本版本已解决该问题。
收集性能快照时,ESXi 主机可能会失败并显示紫色诊断屏幕已释放数据结构后,通过 vm-support 收集性能快照时,由于需要调用内存访问,ESXi 主机可能会失败并显示紫色诊断屏幕。 将显示类似于以下内容的错误消息: @BlueScreen: #PF Exception 14 in world 75561:Default-drai IP 0xxxxxxxxxxxxaddr 0xxxxxxxxxxxx
PTEs:0xXXXXXXXXXXXXX;0xYYYYYYYYYYYYYY;0xZZZZZZZZZZZZZZ;0x0;
[0xxxxxxxxxxxx]SPLockIRQWork@vmkernel#nover+0x26 stack: 0xxxxxxxxxxxx
[0xxxxxxxxxxxx]VMKStatsDrainWorldLoop@vmkernel#nover+0x90 stack: 0x17
本版本已解决该问题。
网络连接问题
配置为使用 EFI 固件的虚拟机无法在某些 DHCP 环境中进行 PXE 引导。 如果 DHCP 环境通过 IP 单播来做出响应,则尝试进行 PXE 引导时配置为使用 EFI 固件的虚拟机将无法获取 IP 地址。EFI 固件无法接收 IP 单播发送的 DHCP 回复。 本版本已解决该问题。
为客户机 VLAN 配置禁用 VLAN 卸载(提取 VLAN 标记)时,VLAN 接口之间的 ping 命令可能会失败如果数据包转发到多个端口(例如,广播数据包),原始数据包缓冲区则可以在多个目标端口之间共享。如果 VLAN 卸载已禁用且您修改了原始数据包缓冲区,那么 VLAN 标记将首先插入到数据包缓冲区,然后再转发到客户机 VLAN。另一个端口将检测到数据包损坏并丢弃数据包。& 本版本已解决该问题。&
将 ESXi 6.5 主机加入 Active Directory 域失败并显示“操作已超时 (Operation timed out)”错误如果 ESXi 6.5 主机仅使用 IPv4 地址,但 Active Directory 域具有 IPv6 设置或 IPv6 和 IPv4 混合设置,那么该主机加入该域将失败,且在返回操作已超时 (Operation timed out) 错误之前,进程可能有一小时不响应。& 本版本已解决该问题。&
由于 igb 本机 Linux 驱动程序对网卡速度/双工设置只支持自动协商模式,在物理交换机上配置全双工会引发双工不匹配问题 如果在 ESXi 主机上使用 igb 本机驱动程序,此驱动程序始终以自动协商速度和双工模式工作。连接的这一端无论设置什么配置,都不会应用到 ESXi 端。如果手动将物理交换机设置为全双工模式,自动协商支持会引发全双工不匹配问题。 本版本已解决该问题。
如果执行全新 ESXi 主机安装,当第一个物理网卡链路状态为关闭时,可能没有网络连接默认情况下,每个 ESXi 主机都有一个虚拟交换机,即 vSwitch0。在安装 ESXi 期间,选择第一个物理网卡作为 vSwitch0 的默认上行链路。如果网卡链接状态为关闭,ESXi 主机可能没有网络连接,尽管其他网卡链路状态为打开并且可以访问网络。& 本版本已解决该问题。
使用即时克隆技术的虚拟桌面基础架构 (VDI) 池中的虚拟机 (VM) 失去与 Guest Introspection 服务的连接使用即时克隆的现有虚拟机和新虚拟机(无论是否使用即时克隆创建)都将失去与 Guest Introspection 主机模块的连接。因此,虚拟机将不受保护且新的 Guest Introspection 配置无法转发到 ESXi 主机。此外,vCenter Server UI 中也会显示客户机 introspection 未就绪 (Guest introspection not ready) 警告。& 本版本已解决该问题。
使用 IPv6 mld 时,ESXi 主机可能会失败并在关机时显示紫色屏幕使用 IPv6 mld 时,由于 tcpip 堆栈中存在争用情况,ESXi 主机可能会失败并显示紫色屏幕。& 本版本已解决该问题。
ESXi 主机重新连接到 vCenter Server 时可能会停止响应如果将 ESXi 主机从 vCenter Server 断开连接且该主机上的部分虚拟机使用 LAG,则在 vCenter Server 端上重新创建相同 LAG 后将 ESXi 主机重新连接到 vCenter Server 时可能会停止响应,您可能会看到类似于以下内容的错误:& 0xaeb0:[0xc]LACPScheduler@ # +0x3c stack: 0x417fcfa116e1aed0:[0xa26]Net_TeamScheduler@vmkernel#nover+0x7a stack: 0xc 0xaf30:[0x4]TeamES_Output@#+0x410 stack: 0x 0xafb0:[0xa7]EtherswitchPortDispatch@#+0x633 stack: 0x0& 本版本已解决该问题。
ESXi 主机可能会失败并显示紫色屏幕和“自旋锁计数已超出 (refCount) - PCPU 可能出现死锁 (Spin count exceeded (refCount) - possible deadlock with PCPU)”错误当您在以下情况下重新引导 ESXi 主机时,ESXi 主机可能会失败并显示紫色屏幕和自旋锁计数已超出 (refCount) - PCPU 可能出现死锁 (Spin count exceeded (refCount) - possible deadlock with PCPU) 错误:&
在 NSX 环境中使用 vSphere Network Appliance (DVFilter)
在 DVFilter 控制下使用 vMotion 迁移虚拟机
本版本已解决该问题。
使用 ee 虚拟网卡的虚拟机 (VM) 可能存在网络连接问题对于使用 ee 虚拟网卡的虚拟机,ee 驱动程序指示 ee vmkernel 模拟跳过描述符(传输描述符地址和长度为 0),而这可能会失去网络连接。 本版本已解决该问题。&
VMkernel 日志包括一个或多个“Couldn't enable keep alive”警告 在 VMware NSX 和合作伙伴解决方案通过 VMCI 套接字 (vsock) 进行通信期间,出现 Couldn't enable keep alive 警告。VMkernel 日志会立即忽略这些重复的警告,因为可以将其放心地忽略。& 本版本已解决该问题。
具有准虚拟 RDMA 设备的虚拟机在生成快照操作或 vMotion 迁移期间变得无法访问具有准虚拟 RDMA (PVRDMA) 设备的虚拟机运行 RDMA 应用程序与对等队列对通信。如果 RDMA 应用程序试图与不存在的对等队列编号通信,PVRDMA 设备可能会无限期地等待对等队列的响应。因此,如果生成快照操作或迁移期间 RDMA 应用程序仍在运行,其结果是虚拟机将变得无法访问。 本版本已解决该问题。
客户机 VMkernel 应用程序可能会收到未发信号的快速注册工作请求的意外完成条目具有活动 RDMA 上行链路的主机上的两个虚拟机之间的 RDMA 通信有时会在客户机 VMkernel 应用程序中触发伪完成条目。客户机的内核级 RDMA 上层协议 (ULP) 发出的未发信号的快速注册工作请求会错误地触发完成条目。这可能会导致完成队列在内核 ULP 中溢出。& 本版本已解决该问题。
使用准虚拟 RDMA (PVRDMA) 设备时,您可能会因为不可用设备处于链路关闭状态而一直等待,直到客户机操作系统重新加载 PVRDMA 客户机驱动程序为止如果在支持 PVRDMA 设备的客户机操作系统上安装 PVRDMA 驱动程序,PVRDMA 驱动程序可能会在打开客户机操作系统的电源时无法正确加载。您可能会因为不可用设备处于链路关闭状态而一直等待,直到手动重新加载 PVRDMA 驱动程序为止。& 本版本已解决该问题。
VMware NetQueue 负载平衡器中的 pNIC 断开连接和连接事件可能会导致出现紫色屏幕如果 pNIC 断开连接后又连接到虚拟交换机,VMware NetQueue 负载平衡器必须标识此情况,并暂停正在进行的平衡工作。在某些情况下,负载平衡器可能不会检测此情况,而访问错误的数据结构。因此,可能会显示紫色屏幕。& 本版本已解决该问题。
netqueue 负载平衡器可能会导致 ESXi 主机停止响应 对于延迟敏感型虚拟机,netqueue 负载平衡器会尝试预留独占 Rx 队列。如果驱动程序提供队列抢占机制,netqueue 负载平衡器则使用此机制为延迟敏感型虚拟机获取独占队列。随后 netqueue 负载平衡器一直持有锁定并对驱动程序执行队列抢占回调。使用某些驱动程序时,这可能会导致 ESXi 主机显示紫色屏幕,尤其是在驱动程序实现涉及休眠模式时。& 本版本已解决该问题。
如果重新引导集成式管理模块 (Integrated Management Module, IMM),在某些服务器上在 IMM 中集成的 USB 网络设备可能会停止响应在某些服务器上,USB 网络设备集成到 IMM 或 iLO 中,以便管理服务器。使用 vSphere Web Client、IMM 或 iLO 命令重新引导 IMM 时,USB 网络设备上的事务会丢失。& 本版本已解决该问题。
vmnic 的链路状态输出不反映实际物理状态更改 vminc 的物理链路状态时,例如拔下线缆或关闭交换机端口,则 esxcli 命令生成的输出可能会在基于 Intel 82574L 的网卡 (Intel Gigabit Desktop CT/CT2) 上显示错误的链路状态。您必须手动重新启动网卡,才能获取真实的链路状态。& 本版本已解决该问题。
如果 ntg3 驱动程序用于 Broadcom NetXtreme I 网卡,网络连接可能会丢失&使用 ntg3 驱动程序的网卡可能会意外失去连接。网络连接无法还原,直到您重新引导 ESXi 主机为止。受影响的设备包括 Broadcom NetXtreme I 、、5725 和 5727 以太网适配器。此问题与虚拟机(例如(但不限于)F5 BIG-IP 虚拟设备)发送的某些格式错误的 TSO 数据包有关。 ntg3 4.1.2.0 驱动程序可以解决该问题。& 本版本已解决该问题。
当您关闭 IPv6 支持时,ESXi 主机可能会失败并显示紫色屏幕当您全局关闭 IPv6 支持并重新引导 ESXi 主机时,主机可能会失败并显示紫色屏幕。 本版本已解决该问题。
当您在 ESXi 6.0 和 ESXi 6.5 主机之间通过 Storage vMotion 迁移虚拟机时,ESXi 主机可能会停止响应 通过 Storage vMotion 迁移虚拟机期间,如果客户机内存预分配正在进行,vmxnet3 设备会尝试访问客户机操作系统的内存。这会造成无效的内存存取和 ESXi 6.5 主机失败。 本版本已解决该问题。
libcurl 库更新 ESXi userworld libcurl 库已更新至 7.53.1 版本。
NTP 软件包更新 ESXi NTP 软件包已更新至 4.2.8p10 版本。
OpenSSH 版本更新 OpenSSH 版本已更新至 7.5p1 版本。
ESXi 上的 Likewise 堆栈不支持 SMBv2 Windows 2012 域控制器支持 SMBv2,而 ESXi 上的 Likewise 堆栈仅支持 SMBv1。在此版本中,已使 ESXi 上的 Likewise 堆栈支持 SMBv2。& 本版本已解决该问题。
不能使用密钥超过 2048 位的自定义 ESXi SSL 证书 在 vSphere 6.5 中,安全检测信号功能支持添加密钥恰好为 2048 位的 ESXi 主机证书。如果尝试添加 ESXi 主机证书或将 ESXi 主机证书替换为密钥超过 2048 位的自定义证书,主机会断开与 vCenter Server 的连接。vpxd.log 中的日志消息类似于以下内容: error vpxd[7FB5BFF7E700] [Originator@6876 sub=vpxCrypt opID=HeartbeatModuleStart-4b63962d] [bool VpxPublicKey::Verify(const EVP_MD*, const unsigned char*, size_t, const unsigned char*, size_t)] ERR error::rsa routines:INT_RSA_VERIFY:wrong signature length
warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Failed host: host-42, cert: (**THUMBPRINT_REMOVED**), signature : (**RSA_SIGNATURE_REMOVED**)
warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Received incorrect size for heartbeat Expected size (334) Received size (590) Host host-87 本版本已修复该问题。
libPNG 库更新libPNG 库已更新到 libpng-1.6.29。
OpenSSL 更新OpenSSL 软件包已更新到版本 openssl-1.0.2k。
Xorg 驱动程序升级Xorg 驱动程序升级包括以下更新:
libXfont 软件包已更新到 libxfont - 1.5.1
pixman 库已更新到 pixman - 0.35.1
libarchive 库更新libarchive 库已更新到 libarchive - 3.3.1。
SQLlite3 库更新SQLlite3 库已更新到 SQLlite3 - 3.17.0。
服务器配置
PCI 直通不支持 MMIO 超过 16 TB 且 MPN 超过 32 位的设备&PCI 直通不支持 MMIO 超过 16 TB 且 MPN 超过 32 位的设备。& 本版本已解决该问题。
使用 SSH 登录到 ESXi 主机要求重新输入密码如果将属于某个域的 ESXi 主机从 vSphere 5.5 升级到 6.5,则通过 SSH 连接到 ESXi 主机时,系统将提示您输入密码两次。 本版本已解决该问题。
主机配置文件部分发生有关 Security.PasswordQualityControl 的合规性错误当 PAM 密码配置文件中的 PAM 密码设置不同于高级配置选项 Security.PasswordQualityControl 时,在主机配置文件部分会显示有关 Security.PasswordQualityControl 的合规性错误。由于高级配置选项 Security.PasswordQualityControl 在本版本中对主机配置文件不可用,请使用密码 PAM 配置中的 Requisite 选项更改密码策略。& 本版本已解决该问题。
vpxd 服务可能会崩溃,阻止 vSphere Web Client 用户界面连接和更新 vCenter Server如果配置文件路径的 VMODL 对象中的必填字段未设置,在验证网络配置的应答文件期间可能会发生序列化问题,从而导致 vpxd 服务失败。 本版本已解决该问题。
/Power/PerfBias 的配置无法编辑无法设置 /Power/PerfBias 高级配置选项。任何将其设置为某个值的尝试都会返回一个错误。& 本版本已解决该问题。
将任何主机(ESXi 或 vCenter Server)加入 vSphere 6.5 域中的 Active Directory 都会导致服务失败vSphere 6.5 不支持非连续 Active Directory 域。在非连续命名空间中,计算机的主域名系统 (DNS) 后缀与该计算机所在的 DNS 域名不匹配。& 本版本已解决该问题。
在 ESXi VMKernel 日志中报告 XHCI 相关平台错误 在 ESXi VMkernel 日志中报告 XHCI 相关平台错误消息,例如 xHCI Host Controller USB 2.0 Control Transfer may cause IN Data to be dropped and xHCI controller Parity Error response bit set to avoid parity error on poison packet。& 本版本已解决该问题。&
ESXi 主机可能会停止响应,且无检测信号 NMI 状态 ESXi 主机可能会变得无响应,并在具有 OHCI USB 主机控制器的 AMD 计算机上显示 no heartbeat NMI 状态。& 本版本已解决该问题。&
修改已启用变更数据块跟踪 (Changed Block Tracking, CBT) 的虚拟磁盘的 IOPS 限制失败,并在日志文件中显示错误要为虚拟机定义存储 I/O 调度策略,可以通过修改 IOPS 限制为每个虚拟机磁盘配置 I/O 吞吐量。编辑 IOPS 限制时,如果已为虚拟机启用了 CBT,操作将失败并显示错误:调度参数更改失败 (The scheduling parameter change failed)。由于存在此问题,无法更改虚拟机的调度策略。“vSphere 近期任务”窗格中将显示错误消息。
您可以在 /var/log/vmkernel.log 文件中看到以下错误:
T21:01:56.788Z cpu0:136101)VSCSI: 273: handle 8194(vscsi0:0):Input values: res=0 limit=-2 bw=-1 Shares=1000
T21:01:56.788Z cpu0:136101)ScsiSched: 2760: Invalid Bandwidth Cap Configuration
T21:01:56.788Z cpu0:136101)WARNING: VSCSI: 337: handle 8194(vscsi0:0):Failed to invert policy
本版本已解决该问题。
在单个操作中热添加多个 VMware 准虚拟 SCSI (PVSCSI) 硬盘时,只有一个硬盘对客户机操作系统可见在单个操作中将两个或更多硬盘热添加到 VMware PVSCSI 控制器时,客户机操作系统只能看到其中一个硬盘。 本版本已解决该问题。
ESXi 主机可能会失败并显示紫色屏幕ESXi 主机可能会失败并显示紫色屏幕,因为多个多路径插件 (multipathing plugin, MPP) 尝试声明路径时出现争用情况。 本版本已解决该问题。
存储配置文件更改操作期间,从错误中恢复会导致配置文件 ID 损坏在存储配置文件更改操作期间,如果虚拟卷 VASA 提供程序返回错误,vSphere 会尝试撤消该操作,但在此过程中配置文件 ID 会遭到损坏。& 本版本已解决该问题。
vSphere Web Client 中为 VVol 数据存储显示的读或写延迟不正确vSphere Web Client 中为 VVol 数据存储显示的每台主机的读或写延迟不正确。& 本版本已解决该问题。
在 NFSCacheGetFreeEntry 期间,ESXi 主机可能会失败并显示紫色屏幕NFS v3 客户机不能适当地处理 NFS 服务器在文件属性中返回无效文件类型这一情况,从而导致 ESXi 主机失败并显示紫色屏幕。& 本版本已解决该问题。
您需要手动为新的纯存储 FlashArray 配置 SATP 规则对于纯存储 FlashArray 设备,您必须手动添加 SATP 规则以设置 SATP、PSP 和 IOPS。ESXi 中添加了新的 SATP 规则,针对所有纯存储 FlashArray 型号将 SATP 设置为 VMW_SATP_ALUA、将 PSP 设置为 VMW_PSP_RR 并将 IOPS 设置为 1。& 注意:对于无状态 ESXi 安装,如果应用了旧主机配置文件,则在升级后会覆盖新规则。 本版本已解决该问题。
由于 ESXi 6.5 中的内存分配故障,lsi_mr3 驱动程序和 hostd 进程可能会停止响应lsi_mr3 驱动程序从低于 4 GB 的地址空间分配内存。vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plugin 与 lsi_mr3 驱动程序相互通信。处理 storelib 中的 IOCTL 事件时,驱动程序可能会在内存分配期间停止响应。因此,lsu-lsi-lsi-mr3-plugin 可能会停止响应,而且 hostd 进程可能也会失败,甚至在重新启动 hostd 后也是如此。& 本版本已解决该问题,做法是更改了 lsi_mr3 驱动程序的 lsu-lsi-lsi-mr3-plugin 插件中的代码,将超时值设为 3 秒,以便获取设备信息来避免插件和 hostd 故障。
将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT(变更数据块跟踪)的虚拟机 (VM) 时,客户机操作系统可能会停止响应将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT 的虚拟机时,客户机操作系统可能会停止响应,直到热添加过程完成。虚拟机停止响应的时间取决于要添加的虚拟磁盘的大小。热添加完成后虚拟机将自动恢复。& 本版本已解决该问题。
使用 vSphere Storage vMotion 时,虚拟磁盘的 UUID 可能会更改在 vSphere Virtual Volumes 存储上使用 vSphere Storage vMotion 时,虚拟磁盘的 UUID 可能会更改。UUID 可标识虚拟磁盘,而更改的 UUID 会让虚拟磁盘显示为一个全新的不同磁盘。UUID 还对客户机操作系统可见,可能会导致驱动器会被错误地识别。& 本版本已解决该问题。
如果 LUN 取消映射在存储阵列端完成,ESXi 可能会停止响应 如果在存储阵列端对那些通过 Broadcom/Emulex 光纤通道适配器(驱动程序是 Ipfc)连接到 ESXi 主机的 LUN 执行 LUN 取消映射,ESXi 主机可能会停止响应,并让 I/O 一直运行。 本版本已解决该问题。
如果 VMFS-6 卷没有日志空间,ESXi 主机可能会变得不响应 打开 VMFS-6 卷时,它会分配一个日志块。成功分配后,系统会启动后台线程。如果卷上没有日志空间,则会在只读模式下打开,并且不启动后台线程。任何关闭该卷的意图都会导致系统尝试唤醒非共存线程。这会导致 ESXi 主机失败。 本版本已解决该问题。
如果在 ESXi 主机上运行的虚拟机有大容量 vRDM 且使用 SPC4 功能,ESXi 主机可能会失败并显示紫色屏幕当虚拟机通过 Get LBA Status 命令使用 SCP4 功能查询已连接的大容量 vRDM 的精简置备功能时,此命令的处理可能会在 ESXi 内核中运行很长时间,但不释放 CPU。较高的 CPU 使用率会导致 CPU 检测信号监视程序进程将该处理视为一个挂起进程,而且 ESXi 主机可能会停止响应。& 本版本已解决该问题。
如果 VMFS6 数据存储挂载在多个 ESXi 主机上,同时 disk.vmdk 具有从同一数据存储上的增加部分分配的文件块,ESXi 主机可能会失败并显示紫色屏幕VMDK 文件可能驻留在已挂载在多个 ESXi 主机(例如,2 个主机,ESXi host1 和 ESXi host2)上的 VMFS6 数据存储上。当 VMFS6 数据存储容量从 ESXi host1 增加,同时 VMFS6 数据存储又挂载在 ESXi host2 上时,disk.vmdk 具有从 ESXi host1 的 VMFS6 数据存储的增加部分分配的文件块。现在,如果从 ESXi host2 访问 disk.vmdk 文件,而且文件块从 ESXi host2 分配到 disk.vmdk 文件,ESXi host2 可能会失败并显示紫色屏幕。 本版本已解决该问题。
安装或升级后,某些多路径 LUN 将不可见如果 LUN 的路径在多路径情况下有不同的 LUN ID,那么 LUN 不会被 PSA 注册,而且最终用户不会看到它们。& 本版本已解决该问题。
驻留在 NFS 数据存储上的虚拟机可能会导致通过 Horizon View 执行的重构操作失败 受虚拟磁盘描述符写入到 NFS 数据存储的写入方式影响,Horizon View 中的重构操作可能因为驻留在 NFS 数据存储上的桌面虚拟机而失败并显示过时的 NFS 文件句柄 (stale NFS file handle) 错误。& 本版本已解决该问题。
由于 CPU 检测信号故障,ESXi 主机可能会失败并显示紫色屏幕&仅在 SEsparse 用于创建虚拟机快照和克隆的情况下,由于 CPU 检测信号故障,ESXi 主机可能会失败并显示紫色屏幕。使用 SEsparse 可能会导致 CPU 锁闭,并且在 VMkernel 日志中显示以下警告消息,随后显示紫色屏幕:& PCPU &cpu-num&&
didn't have a heartbeat for &seconds&&
*may* be locked up.
本版本已解决该问题。
禁用对虚拟卷数据存储上的内部 vSAN 元数据目录 (.upit) 的频繁查找。此元数据文件夹不适用于虚拟卷 对虚拟卷数据存储上的 vSAN 元数据目录 (.upit) 的频繁查找会影响其性能。.upit 目录不适用于虚拟卷数据存储。此更改会禁用对 .upit 目录的查找。& 本版本已解决该问题。
升级到 VMware ESXi 6.5.0 P01 或 6.5 EP2 后,Windows 虚拟机 (VM) 上可能会出现性能问题&在某些情况下,从客户机操作系统接收未对齐的取消映射请求时,可能会出现性能问题。根据未对齐的取消映射的大小和数量,当从客户机操作系统删除大量小文件(大小小于 1 MB)时可能会出现这种情况。& 本版本已解决该问题。
ESXi 5.5 和 6.x 主机运行 85 天后会停止响应ESXi 5.5 和 6.x 主机运行 85 天后会停止响应。在 /var/log/vmkernel 日志文件中,您会看到类似以下内容的条目:& YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB. YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful. YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet YYYY-MM-DDTHH:MM:SS.833Z cpu58: 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)-------------------------------------------------------------- YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 00 00 00 04 00 01 00 00 10 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)-------------------------------------------------------------- YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 80 00 00 00 01 00 00 00 04 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 04 00 00 01 00 02 00 00 00 1c 00 00 00 01 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 00 00 00 00 00 00 00 00 00 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 40 00 00 00 00 01 00 03 00 00 00 10 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f 这是一个固件问题,而且当光纤通道 (Fibre Channel, FC) 交换机和热总线适配器 (Hot Bus Adapter, HDA) 之间的读取诊断参数 (Read Diagnostic Parameters, RDP) 失败 2048 次时,就会出现这种问题。HBA 适配器停止响应,而且虚拟机和/或 ESXi 主机可能会因此而失败。默认情况下,RDP 例行程序由 FC 交换机启动,且这种情况每小时发生一次,而这会导致在大约 85 天内达到 2048 次限制。& 本版本已解决该问题。
解决具有条带大小限制的 Intel 设备中的性能下降问题& 有些 Intel 设备(例如 P3700、P3600 等)对其固件或硬件有特定于供应商的限制。受此限制影响,跨条带大小(或边界)提供给 NVMe 设备的所有 IO 的性能都会受到严重影响。此问题可以通过驱动程序解决,方法是检查所有 IO,并在命令跨设备上的条带时拆分命令。 本版本已解决该问题。
移除启动控制器时的冗余控制器重置当控制器启动时,驱动程序可能会重置控制器两次(禁用、启用、禁用并最终启用)。此解决方法适用于早期版本的 QEMU 仿真器,但是它可能会使某些控制器的显示延迟。根据 NVMe 规范,只需一次重置,即禁用再启用控制器。本次升级可以移除启动控制器时的冗余控制器重置。& 本版本已解决该问题。
如果具有大型虚拟磁盘的虚拟机使用 SPC-4 功能,ESXi 主机可能会失败并显示紫色屏幕由于 CPU 锁定,ESXi 主机可能会停止响应和失败,并显示紫色屏幕和类似以下内容的条目。& 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]@BlueScreen: PCPU x: no heartbeat (x/x IPIs received) 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Code start: 0xxxxx VMK uptime: x:xx:xx:xx.xxx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Saved backtrace from: pcpu x Heartbeat NMI 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]MCSLockWithFlagsWork@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_Read@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_AccessPBVMFS5@esx#nover+00xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3FileOffsetToBlockAddrCommonVMFS5@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ResolveFileOffsetAndGetBlockTypeVMFS5@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_GetExtentDescriptorVMFS5@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ScanExtentsBounded@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3GetFileMappingAndLabelInt@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_FileIoctl@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSSVec_Ioctl@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSS_IoctlByFH@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFsEmulateCommand@vmkernel#nover+0xx stack: 0x0 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_FSCommand@vmkernel#nover+0xx stack: 0x1 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_IssueCommandBE@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIExecuteCommandInt@vmkernel#nover+0xx stack: 0xb298e000 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessCmd@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessRequestRing@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSI_ProcessRing@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMMVMKCall_Call@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMKVMM_ArchEnterVMKernel@vmkernel#nover+0xe stack: 0x0 如果您的虚拟机的硬件版本为 13 并且将 SPC-4 功能用于大型虚拟磁盘,就会出现此问题。& 本版本已解决该问题。
Marvell 9230 ACHI 控制器上的 Marvell Console 设备不可用 根据内核日志,ATAPI 设备在 Marvell 9230 控制器的一个 AHCI 端口上公开。此 Marvel Console 设备是配置 Marvell 9230 AHCI 控制器的 RAID 的接口,可通过某些 Marvell CLI 工具使用。& 运行 esxcfg-scsidevs -l 命令后,配有 Marvell 9230 控制器的主机无法通过 Local Marvell Processor 显示名称检测 SCSI 设备。& 内核日志中的信息为: WARNING: vmw_ahci[XXXXXXXX]: scsiDiscover:the ATAPI device is not CD/DVD device& 本版本已解决该问题。&
SSD 拥堵可能导致多个虚拟机变得无响应根据工作负载和虚拟机数量,主机上的磁盘组可能会进入永久设备丢失 (PDL) 状态。这会导致磁盘组不接受更多 IO,导致其不可用,直至进行人工干预。 本版本已解决该问题。
在支持取消映射的数据存储上运行 HBR + CBT 时,ESXi 主机可能会失败并显示紫色屏幕允许未对齐取消映射请求的 ESXi 功能无法解释为何取消映射请求可能会在非阻塞环境中发生。如果取消映射请求未对齐,而且请求环境是非阻塞环境,则可能会导致紫色屏幕。非阻塞环境中的常见未对齐取消映射请求通常发生在 HBR 环境中。& 本版本已解决该问题。
ESXi 主机可能会断开与 VMFS 数据存储的连接由于 LVM 模块中的内存泄漏,您可以会看到 LVM 驱动程序在某些情况下会用尽内存,导致 ESXi 主机无法访问 VMFS 数据存储。 本版本已解决该问题。
受支持硬件问题
Intel I218 网卡在流量比较大的场景中频繁重置 在 NE1000 驱动程序中启用 TSO 功能时,由于 I218 硬件问题,I218 网卡会在流量比较大的场景中频繁重置。I218 网卡的 NE1000 TSO 功能应当禁用。& 本版本已解决该问题。
升级和安装问题
使用 vSphere Update Manager 将 dd 映像引导的 ESXi 主机升级到版本 6.5 的主要升级会失败&使用 vSphere Update Manager 将 dd 映像引导的 ESXi 主机升级到版本 6.5 的主要升级会失败,并显示无法在主机上执行升级脚本 (Cannot execute upgrade script on host) 错误。& 本版本已解决该问题。
在软件配置文件更新后,显示 ESXi 主机的先前软件配置文件版本,而且在 ISO 升级后,软件配置文件名称不会被标记为“已更新”在执行 esxcli software profile update 命令后,ESXi 主机的先前软件配置文件版本显示在 esxcli software profile get 命令输出中。此外,在 ISO 升级后,软件配置文件名称在 esxcli software profile get 命令输出中未被标记为已更新。& 本版本已解决该问题。
无法从 ESXi 6.5 主机收集 vm-support 包无法从 ESXi 6.5 主机收集 vm-support 包,因为使用 vSphere Web Client 在 ESXi 6.5 中生成日志时,选择要导出的特定日志文本框为空白。网络、存储、容错、硬件等选项也为空白。出现此问题是因为 /cgi-bin 的 rhttpproxy 端口有不同于 8303 的值。 本版本已解决该问题。
TPM 1.2 计算机上的安装在引导过程的早期挂起 在采用 TPM 1.2 芯片的系统上 ESXi 6.5 安装停止响应。如果 tbootdebug 被指定为命令行参数,最后的日志消息是:& Relocating modules and starting up the kernel... TBOOT: **************TBOOT ****************** TBOOT: TPM family: 1.2 本版本已解决该问题。
vSphere Update Manager 失败并显示 RuntimeError&如果 ImageProfile 模块包含适用于特定硬件组合的 VIB,那么主机扫描操作会失败并在 ImageProfile 模块中显示 RuntimeError。造成这种失败的原因是 Python 2 和 Python 3 之间的代码转换问题。& 本版本已解决该问题。
由于系统无法识别 USB 设备或为 USB 设备预留资源,ESXi 主机可能会失败并显示紫色屏幕在 X6-2、X5-2 和 X4-2 Oracle 服务器上引导 ESXi 主机时,ESXi 主机可能会失败并显示紫色屏幕,同时回溯追踪显示这是由 pcidrv_alloc_resource 故障造成的。出现此问题是因为系统无法识别 USB 设备或为 USB 设备预留资源。& 本版本已解决该问题。
vCenter Server、vSphere Web Client 和 vSphere Client 问题
安装适用于 Windows 的桌面 vSphere Client 并尝试连接到 ESXi 主机后,显示一条警告消息&桌面 vSphere Client 在 vSphere 6.5 中已被弃用且不再受支持。尝试连接到 ESXi 6.5 主机时,将显示以下警告消息:必需的客户端支持文件需要从服务器 "0.0.0.0" 检索并安装。单击运行安装程序或者保存安装程序。(The required client support files need to be retrieved from the server "0.0.0.0" and installed. Click Run the installer or Save the installer.) 在此情况下,请使用 VMware Host Client 执行主机管理操作。&
虚拟机管理问题
性能计数器 cpu.system 错误地显示 0(零)值系统错误地计算虚拟机的性能计数器 cpu.system。计数器值始终为 0(零)且从不改变,因此无法对它执行任何类型的数据分析。 本版本已解决该问题。
虚拟机由于活动内存下降可能变得无响应 如果在 ESXi 主机上运行的虚拟机活动内存降到 1% 以下并降至为零,则该主机可能开始回收内存,即便主机具有足够可用内存也是如此。 本版本已解决该问题。
虚拟机在快照整合期间停止响应快照整合期间可能会执行精确计算以确定执行整合所需要的存储空间。此精确计算需要很长时间才能完成,因此可能导致虚拟机停止响应。& 本版本已解决该问题。
预先分配的虚拟机的错误 NUMA 放置位置导致性能欠佳预先分配的虚拟机将在打开电源时分配其所有内存。然而,调度程序会为这种初始分配挑选错误的 NUMA 节点。特别是,NUMA 放置位置可能与 numa.nodeAffinity vmx 选项不一致。因此,客户机操作系统可能会遇到性能降级。& 配置了高延迟敏感度或直通设备的虚拟机通常预先分配。& 本版本已解决该问题。
虚拟机可能变得无响应生成虚拟机快照时,虚拟机可能变得无响应。& 本版本已解决该问题。
如果用时超过 5 分钟,vSphere Storage vMotion 可能会失败并显示一条错误消息 vSphere Storage vMotion 的目标虚拟机被虚拟机的定期配置验证错误地停止。用时超过 5 分钟的 vSphere Storage vMotion 会失败,并显示消息源检测到目标未能恢复 (The source detected that the destination failed to resume)。 ESXi 主机中的 VMkernel 日志包含消息 D: Migration cleanup initiated, the VMX has exited unexpectedly.Check the VMX log for more details.& 本版本已解决该问题。&
虚拟机管理堆栈不能正确地处理被指定为一般 FileBackingInfo 的备用文件,导致虚拟机无法被正确地重新配置如果直接使用 vSphere API 和使用一般 vim.vm.Device.VirtualDevice.FileBackingInfo 类而非磁盘类型特定备用类(例如 vim.vm.Device.VirtualDisk.FlatVer2BackingInfo、vim.vm.Device.VirtualDisk.SeSparseBackingInfo)指定磁盘备用文件的 ConfigSpec 启动虚拟机,那么在打开电源时在不同于虚拟机文件夹的文件夹中附加磁盘可能会失败。 本版本已解决该问题。
虚拟机 (VM) 的 vMotion 迁移将挂起一段时间随后失败,并显示超时 如果虚拟机含有占用过多内存的驱动程序(尤其是图形驱动程序)或应用程序,则会在虚拟机中创建粘滞页。当此类虚拟机将要通过 vMotion 迁移到另一台主机时,由于 I/O 计算挂起不正确,迁移过程将挂起并在随后失败。& 本版本已解决该问题。
使用整数值设置 extraConfig 选项的电源已打开虚拟机的重新配置操作可能会失败并显示 SystemError在下列情况下,重新配置操作会停止响应并显示 SystemError:&
已打开虚拟机的电源&
ConfigSpec 包含具有整数值的 extraConfig 选项&
SystemError 由 TypeMismatchException 触发,可在 ESXi 主机上的 hostd 日志中查看并显示以下消息:& Unexpected exception during reconfigure: (vim.vm.ConfigSpec) {
} Type Mismatch: expected:
N5Vmomi9PrimitiveISsEE, found: N5Vmomi9PrimitiveIiEE.&
本版本已解决该问题。&
删除虚拟机时不会从虚拟机文件夹中删除摘要 VMDK 文件 基于摘要 VMDK 文件创建链接克隆时,vCenter Server 会将摘要磁盘文件标记为不可删除。由于描述符文件中存在 ddb.deletable = FALSE 条目,因此当您删除相应的虚拟机时,不会从虚拟机文件夹中删除摘要 VMDK 文件。 本版本已解决该问题。
Virtual Volumes 问题
虚拟机存储配置文件名称中的非拉丁字符可能显示不正确 在传递到虚拟卷 VASA 提供程序之前,UTF-8 字符处理不当。因此,VASA 提供程序未识别或未正确处理或显示使用国际字符的虚拟机存储配置文件。& 本版本已解决该问题。
VMware HA 和 Fault Tolerance 问题
对于已启用 vSphere Fault Tolerance 的虚拟机,vSphere 客户机应用程序监控 SDK 失败在安装了 vSphere Guest Application Monitor 且受 vSphere HA 保护的虚拟机上启用 vSphere FT 后,vSphere 客户机应用程序监控 SDK 可能会失败。 本版本已解决该问题。
当容错辅助虚拟机 (VM) 无法打开电源且主机用尽内存时,ESXi 主机可能会失败并显示紫色屏幕当您为虚拟机启用容错且虚拟机的辅助虚拟机正在从内存不足的 ESXi 主机打开电源时,则辅助虚拟机电源无法打开,ESXi 主机可能会失败并显示紫色屏幕。& 本版本已解决该问题。
VMware Tools
安装 VMware Tools 时,客户机操作系统重新引导时无法清除 guestinfo.toolsInstallErrCode 变量如果安装 VMware Tools 要求完成重新引导,客户机变量 guestinfo.toolsInstallErrCode 将被设置为 1603。重新引导客户机操作系统无法清除该变量。 本版本已解决该问题。
包含 VMware Tools 版本 10.1.7本版本包含 VMware Tools 版本 10.1.7。有关更多详细信息,请参考 。
挂载 vSAN 磁盘组时,ESXi 主机失败并显示紫色诊断屏幕由于 vSAN 中存在内部争用情况,尝试挂载 vSAN 磁盘组时 ESXi 主机可能失败并显示紫色诊断屏幕。 本版本已解决该问题。
在 vSAN 见证主机上使用 objtool 会导致 ESXi 主机失败并显示紫色诊断屏幕如果您在 vSAN 见证主机上使用 objtool,它将执行 I/O control (ioctl) 调用,导致 ESXi 主机中出现空指针且主机崩溃。 本版本已解决该问题。
vSAN 群集中主机的拥堵程度较高,导致主机断开连接如果在引导 ESXi 主机时遇到具有无效元数据的 vSAN 组件,则指向 SSD 块的引用计数可能会发生泄漏。如果通过策略更改、磁盘停用或其他方法移除这些组件,则泄漏的引用计数会导致指向 SSD 块的下一个 I/O 阻塞。日志文件会累积,这会导致出现较高的拥堵且主机断开连接。& 本版本已解决该问题。
由于磁盘损坏,无法启用 vSAN 或将 ESXi 主机添加到 vSAN 群集中启用 vSAN 或将主机添加到 vSAN 群集时,如果主机上存在损坏的存储设备,则操作可能会失败。执行操作后,主机上会出现 Python zdump,且 vdq -q 命令失败,受影响主机上出现核心转储。 本版本已解决该问题。
将 LAG 配置为活动上行链路时,vSAN 配置帮助会因缺乏冗余而发出物理网卡警告当上行链路端口是链路聚合组 (LAG) 的成员时,LAG 将提供冗余。如果上行链路端口号为 1,则 vSAN 配置帮助将发出物理网卡缺乏冗余的警告。& 本版本已解决该问题。
成员主机和 vCenter Server 重新引导后,vSAN 群集会进行分区如果同时重新引导单播 vSAN 群集中的主机和 vCenter Server,则群集可能会进行分区。同时重新引导主机和 vCenter Server 的过程中,vCenter Server 未正确处理不稳定的 vpxd 属性更新。& 本版本已解决该问题。
由于读取缓存配额调整不正确,ESXi 主机失败并显示紫色诊断屏幕控制读取缓存配额的 vSAN 机制可能会进行不正确的调整,从而导致主机失败并显示紫色诊断屏幕。 本版本已解决该问题。
vSAN 容量监控报告大型文件系统开销在 vSAN 群集上启用去重和压缩后,“已用容量明细”(监控 & vSAN & 容量)显示了错误的用于文件系统开销的存储容量百分比。此数值未反映用于文件系统活动的实际容量。显示应正确地反映启用去重和压缩后 vSAN 群集的文件系统开销。 本版本已解决该问题。
由于交换对象的大小为 0 字节而导致 vSAN 运行状况检查报告 CLOMD 活跃度问题如果 vSAN 群集具有大小为 0 字节的对象,并且这些对象具有需要修复的组件,则 CLOMD 可能会崩溃。/var/run/log/clomd.log 中的 CLOMD 日志可能会显示类似于以下内容的日志:& T03:59:32.403Z )(opID:)CLOMProcessWorkItem: Op REPAIR starts: T03:59:32.403Z )(opID:)CLOMReconfigure: Reconfiguring ae9cf658-cd5e-dbd4-668d-c75 workItem type REPAIR
T03:59:32.408Z )(opID:)CLOMReplacementPreWorkRepair: Repair needed.1 absent/degraded data components for ae9cf658-cd5e-dbd4-668d-c75 found
vSAN 运行状况检查会报告 CLOMD 活跃度问题。重新启动 CLOMD 后尝试修复受影响的对象时会崩溃。交换对象是唯一可以具有 0 字节大小的 vSAN 对象。 本版本已解决该问题。
vSphere API FileManager.DeleteDatastoreFile_Task 无法删除 vSAN 中的 DOM 对象如果通过文件浏览器或 SDK 脚本使用 FileManager.DeleteDatastoreFile_Task API 从 vSAN 数据存储中删除 vmdks,则不会删除基础 DOM 对象。
这些对象可以随时间累积并占用 vSAN 数据存储上的空间。 本版本已解决该问题。
由于内部争用情况,vSAN 群集中的主机失败并显示紫色诊断屏幕vSAN 群集中的主机重新引导时,PLOG 重新记录代码和 vSAN 设备发现代码之间可能出现争用情况。此争用情况会损坏内存表,导致 ESXi 主机失败并显示紫色诊断屏幕。 & 本版本已解决该问题。
vSphere Command-Line Interface
您不能通过 vSphere Web Client 或 esxcli 命令更改某些 ESXi 高级设置 由于默认值错误,您不能更改某些 ESXi 高级设置,例如 /Net/NetPktSlabFreePercentThreshold。更改默认值可以解决此问题。& 本版本已解决该问题。
已知问题分为如下类别。
在启用了安全引导的 ESXi 主机上通过 --no-sig 检查选项安装未签名的 VIB 可能会失败 将禁止在启用了安全引导的 ESXi 主机上安装未签名的 VIB,因为未签名的 vib 会阻止系统引导。在安全引导的 ESXi 主机上,VIB 签名检查是必需的。 解决办法:在安全引导的 ESXi 主机上仅使用签名 VIB。
尝试使用 ESXCLI 或 vSphere PowerCLI 命令安装或升级 ESXi 主机可能会因 esx-base、vsan 和 vsanhealth VIB 而失败在 ESXi 6.5 Update 1 和更高版本中,esx-tboot VIB 和 esx-base VIB 之间存在依赖关系,您还必须在 vib update 命令中包括 esx-tboot VIB,才能成功安装或升级 ESXi 主机。
解决办法:在 vib update 命令中包括 esx-tboot VIB。例如: esxcli software vib update -n esx-base -n vsan -n vsanhealth -n esx-tboot -d /vmfs/volumes/datastore1/update-from-esxi6.5-6.5_update01.zip
在启用了安全引导的 ESXi 主机上根据 ESX 6.5 Update 1 基准进行修复可能会失败使用 vSphere Update Manager 根据包含 ESXi 6.5 Update 1 映像的升级基准来升级 ESXi 主机时,如果主机启用了安全引导,则升级可能会失败。
解决办法:可以使用 vSphere Update Manager 修补程序基准,而不是主机升级基准。
BIOS、BMC 和 PLSA 固件版本中的更改不会显示在直接控制台用户界面 (Direct Console User Interface, DCUI) 上DCUI 提供有关硬件版本的信息,但当版本发生更改时,DCUI 一直显示空白。& 解决办法:通过以下命令启动 WBEM 服务:esxcli system wbem set --enabled
VMware Tools ISO 映像读取负载高可能会导致闪存介质出现损坏在 VDI 环境中,VMware Tools 映像的高读取负载可能会导致闪存介质出现损坏。& 解决办法:& 可以将所有 VMware Tools 数据复制到其自己的 ramdisk。这样,每次引导时可以只从闪存介质读取一次数据。所有其他读取将转至 ramdisk。vCenter Server Agent (vpxa) 通过 /vmimages 目录访问此数据,该目录具有指向 productLocker 的 symlink。 要激活此功能,请执行以下步骤:
使用以下命令将 ToolsRamdisk 高级选项设置为 1: esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1
重新引导主机。&
网络连接问题
受剥离 RX VLAN 标记功能的影响,通过 Intel i40en 驱动程序无法禁用硬件 对于 Intel i40en 驱动程序,硬件始终剥离 RX VLAN 标记,而且您无法使用以下 vsish 命令禁用硬件: vsish -e set /net/pNics/vmnicX/hwCapabilities/CAP_VLAN_RX 0 解决办法:无。
将物理上行链路添加到 VMware Host Client 中的虚拟交换机可能失败如果您选择网络 & 虚拟交换机 & 添加上行链路,将物理网络适配器或上行链路添加到 VMware Host Client 中的虚拟交换机可能会失败。 解决办法:
右键单击要编辑的虚拟交换机,然后单击编辑设置。
单击添加上行链路,向该虚拟交换机添加新的物理上行链路。
单击保存。
重新引导 ESXi 主机后,VMFS 数据存储对纯 ATS 阵列设备不可用如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,则设备将获得注册,但与介质访问有关的设备属性将不被填充。如果在注册后添加活动路径,刷新 VAAI 属性最多需要 5 分钟。结果是配置了纯 ATS 的 VMFS 卷可能无法挂载,直到 VAAI 更新为止。 解决办法:如果目标仅支持备用路径且只有隐式 ALUA,请使用以下 ESXi CLI 命令,在主机上启用 FailDiskRegistration config 选项:esxcli system settings advanced set -o /Disk/FailDiskRegistration -i 1 要使其生效,必须设置 config 选项并重新引导主机。这将延迟设备注册,直到您看到活动路径为止。 注意:如果在隐式和显式 ALUA 目标设备都连接到 ESXi 主机的环境中启用此 config 选项,显式 ALUA 备用路径设备的注册也可能延迟。& &
当您在 HBA 模式下打开或关闭 LED 管理命令时,它们可能会失败当您打开或关闭以下 LED 命令时 esxcli storage core device set -l locator -d &device id& esxcli storage core device set -l error -d &device id& esxcli storage core device set -l off -d &device id&, 它们在某些 HP Smart Array 控制器(例如,P440ar 和 HP H240)的 HBA 模式下可能会失败。此外,控制器可能会停止响应,导致下列管理命令失败:& LED 管理: esxcli storage core device set -l locator -d &device id& esxcli storage core device set -l error -d &device id& esxcli storage core device set -l off -d &device id& Get disk location:esxcli storage core device physical get -d &device id& 此问题是固件特有的,且仅由 HBA 模式中的 LED 管理命令触发。RAID 模式中不存在该问题。
解决办法:重试管理命令直到成功为止。&
面向 lsi_mr3 驱动程序的 vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plugin 可能发生故障并显示“无法获取设备信息...或格式错误 (Can not get device info ... or not well-formed ...)”错误 vSAN 磁盘可维护性插件可以为磁盘提供扩展管理和信息支持。在 vSphere 6.5 Update 1 中,命令为:
获取磁盘位置: 对于 JBOD 模式磁盘:esxcli storage core device physical get -d &device UID&。 对于 RAID 模式磁盘:esxcli storage core device raid list -d &device UID&。
LED 管理: esxcli storage core device set --led-state=locator --led-duration=&seconds&&--device=&device UID& esxcli storage core device set --led-state=error --led-duration=&seconds& --device=&device UID& esxcli storage core device set --led-state=off -device=&device UID&
可能会失败并显示以下错误之一: Plugin lsu-lsi-mr3-plugin cannot get information for device with name &NAA ID&. 错误为:Can not get device info ...或者 not well-formed (invalid token): ...
解决办法: 1.在遇到此问题的服务器上使用 localcli 而不是 esxcli 命令。 localcli 命令会生成正确的消息,而 esxcli 可能会随机失败。
虚拟机管理问题
VMware Host Client 对 ESXi 主机上的所有虚拟机(而不是使用“搜索”选择的范围)运行操作 当您使用“搜索”选择 VMware Host Client 中某个范围的虚拟机时,如果选中相应的框以选择全部,并运行关闭电源、打开电源或删除等操作,则该操作可能会影响主机上的所有虚拟机,而不仅仅是选定虚拟机。 解决办法:必须分别选择每个虚拟机。
早期版本的已知问题
要查看以前的已知问题列表,请单击。
早期的已知问题分为如下类别。
Auto Deploy 和 Image Builder
无法将 ESXi 6.0 主机配置文件中的 SSH root 用户密钥应用到 ESXi 6.5 在 ESXi 6.5 中,已弃用用于管理 root 用户 SSH 密钥的授权密钥主机配置文件功能。但是,已弃用的版本设置为 6.0 而不是 6.5。因此,无法将主机配置文件 6.0 的 root 用户 SSH 密钥应用到 6.5 版本的主机。
解决办法:要使用主机配置文件配置 root 用户的 SSH 密钥,您必须创建新的 6.5 主机配置文件。
通过重新引导目标无状态 ESXi 主机应用主机配置文件时显示无效文件路径错误消息 从无状态主机提取主机配置文件后,对文件进行编辑以创建新角色,使用用户输入的密码策略并启用无状态缓存,然后将配置文件连接到该主机,并更新配置中的用户密码和角色,则重新引导主机以应用主机配置文件将失败,并显示以下错误:
错误: EngineModule::ApplyHostConfig。异常: 文件路径无效 (ERROR: EngineModule::ApplyHostConfig. Exception: Invalid file path)
解决办法:必须将主机配置文件直接应用到主机:
停止 Auto Deploy 服务,然后重新引导主机。
引导主机后,确认主机上存在本地用户和角色。
使用配置中提供的凭据进行登录。
使用 Auto Deploy 引导无状态主机可能导致失败 出现以下情况时,getnameinfo 请求处理延迟约 11-16 秒并导致通过 Auto Deploy 引导无状态主机失败:
通过在主机项中添加 resolve 参数 (hosts: files resolve dns) 为无状态主机启用本地 DNS 缓存。hosts: files resolve dns 属于 Photon /etc/nsswitch.conf 配置文件。
主机上的网卡从 DHCP 获取其 IP,而 DNS 服务器中没有相同的 IP。
解决办法:在从 DHCP 获取 IP 的 vCenter Server 的网卡配置文件中,将 UseDNS 键设置为 false:
[DHCP] UseDNS=false
使用 vSphere Auto Deploy 部署无状态 ESXi 主机并在主机配置文件中指定 vSphere Distributed Switch 属性时,该主机可能会保持维护模式
使用 vSphere Auto Deploy 部署无状态 ESXi 主机并在主机配置文件中指定 vSphere Distributed Switch 属性时,该主机会在应用主机配置文件时进入维护模式。如果该过程失败,则可能不会应用主机配置文件,并且主机可能不会退出维护模式。 解决办法:在“主机配置文件”页面上,手动使已部署的主机退出维护模式并对其进行修复。
执行修复以便在启用了 iSCSI 的群集上应用主机配置文件设置导致在 vSphere Web Client 中出错 在将从配置了大量 LUN 的主机中所提取的主机配置文件连接到由启用了 iSCSI 的主机所组成的群集后,当您修复该群集时,修复过程导致在 vSphere Web Client 界面中显示以下错误消息:
批量应用主机配置文件操作失败。 com.vmware.vim.vmomi.client.exception.TransportProtocolException:org.apache.http.client.ClientProtocolException (Apply host profile operation in batch failed. com.vmware.vim.vmomi.client.exception.TransportProtocolException:org.apache.http.client.ClientProtocolException)
您还可以在 vpxd.log 文件中看到以下错误:
T12:06:01.214Z error vpxd[7FF1FE8FB700] [Originator@6876 sub=SoapAdapter] length of HTTP request body exceeds configured maximum
修复某个群集时,vSphere Web Client 会发出一个 API 请求,要求提供该群集中所有主机的数据。此请求超出了 VPXD 支持的最大 HTTP 请求大小。 解决办法:执行下列步骤:
在“修复”向导中选择更少的主机。
只有在修复完成后,才能启动其他向导处理剩余主机。
将 vCenter Server 系统从 5.5 或 6.0 升级或迁移到版本 6.5 后,vSphere Web Client 中不存在 Auto Deploy 选项 将 vCenter Server 系统从版本 5.5 和 6.0 升级或迁移到 6.5 后,vSphere Web Client 的配置 & 设置屏幕中不存在 Auto Deploy 选项。vSphere Auto Deploy 服务与 Image Builder 服务一起安装,但不会自动启动。 解决办法:执行下列步骤:
手动启动 Image Builder 服务。
从 vSphere Web Client 注销并重新登录。
在 vSphere Web Client 主页上,导航到 vCenter Server 系统,然后选择配置 & 设置以找到 Auto Deploy 服务。
将超过 63 个主机附加到一个主机配置文件后,主机自定义页面加载时会出错 从引用主机提取主机配置文件并将超过 63 个主机附加到此配置文件后,vCenter Server 系统过载且生成主机特定应答文件的时间超出 120 秒的时间限制。主机自定义页面加载时会出错:
查询执行超时,因为后端属性提供程序所用时间超过 120 秒 (The query execution timed out because the backend property provider took more than 120 seconds)
解决办法:将主机配置文件附加到群集或主机,但不生成自定义数据:
右键单击群集或主机,然后选择主机配置文件 & 附加主机配置文件。
选择要附加的配置文件。
选择跳过自定义复选框。vSphere Web Client 界面将不调用 RetrieveHostCustomizationsForProfile 来生成自定义数据。
填充自定义数据:
右键单击附加到群集或主机的主机配置文件,然后选择导出主机自定义。此操作将生成包含每个主机自定义条目的 CSV 文件。
在 CSV 文件中填写自定义数据。
右键单击主机配置文件,选择编辑主机自定义,然后导入 CSV 文件。
单击完成以保存自定义数据。
在 Intel XL710 (40GB) 网络适配器上对 ESXi 安装程序执行采用 PXE 引导的 Auto Deploy 导致失败 使用预引导执行环境将 ESXi 安装程序从 Intel XL710 网络设备引导到主机时,在控制转移到 ESXi 内核之前 ESXi 映像复制过程失败。您会看到以下错误:
Decompressed MD5:
Fatal error: 34(Unexpected EOF)
serial log: ****************************************************************** * Booting through VMware AutoDeploy... * * Machine attributes: * . asset= * . domain=eng.vmware.com * . hostname=prme-hwe-drv-8-dhcp173 * . ipv4=10.24.87.173 * . ipv6=fe80::6a05:caff:fe2d:5608 * . mac=68:05:ca:2d:56:08 * . model=PowerEdge R730 * . oemstring=Dell System * . oemstring=5[0000] * . oemstring=14[1] * . oemstring=17[04C4B7E] * . oemstring=17[5F90B9D0CECE3B5A] * . oemstring=18[0] * . oemstring=19[1] * . oemstring=19[1] * . serial=3XJRR52 * . uuid=4c4ca10-f523532 * . vendor=Dell Inc. * * Image Profile: ESXi-6.5.0-4067802-standard * VC Host: None * * Bootloader VIB version: 6.5.0-0.0.4067802 ****************************************************************** /vmw/cache/d6/b46ccd62ab4d636bc7f749/mboot.c32.f70fd55f332ccf77edd9fbff... ok
Scanning the local disk for cached image. If no image is found, the system will reboot in 20 seconds...... &3&The system on the disk is not stateless cached. &3&Rebooting...
解决办法:无。
备份和还原问题
在将 vCenter Server Appliance 基于文件还原到 vCenter Server 实例之后,vSphere Web Client 中的操作(例如配置高可用性群集或启用对设备的 SSH 访问等)可能会失败 在还原 vCenter Server 实例的过程中,将部署新的 vCenter Server Appliance,并使用自签名证书启动设备 HTTP 服务器。还原过程结束后,备份的证书已恢复但设备 HTTP 服务器未重新启动。因此,所有需要对设备 HTTP 服务器进行内部 API 调用的操作都将失败。
解决办法:将 vCenter Server Appliance 还原到 vCenter Server 实例后,必须登录到该设备,然后通过运行 service vami-lighttp restart 命令重新启动其 HTTP 服务器。
如果更改了 vCPU 的数量或设备的磁盘大小,则尝试从基于文件的备份还原 Platform Services Controller 设备会失败 在 vSphere 6.5 中,Platform Services Controller 设备部署了 2 个 vCPU 和 60 GB 磁盘大小。不支持增加 vCPU 的数量和磁盘大小。如果尝试对 CPU 超过 2 个或磁盘大小超过 60 GB 的 Platform Services Controller 设备执行基于文件的还原,vCenter Server Appliance 安装程序将出现故障并显示错误:大小可能与您设置的要求不匹配 (No possible size matches your set of requirements)。 解决办法:将处理器数量减少到不超过 2 个 vCPU,并将磁盘大小减少到不超过 60 GB。
通过基于映像的备份还原具有外部 Platform Services Controller 部署的 vCenter Server Appliance 不会启动所有 vCenter Server 服务 在使用 vSphere Data Protection 还原具有外部 Platform Services Controller 部署的 vCenter Server Appliance 后,必须运行 vcenter-restore 脚本以完成还原操作并启动 vCenter Server 服务。vcenter-restore 执行可能会失败,并出现以下错误消息:操作失败。请确保 SSO 用户名和密码正确并重新运行该脚本。如果问题仍然存在,请联系 VMware 技术支持 (Operation Failed.Please make sure the SSO username and password are correct and rerun the script.If problem persists, contact VMware support)。 解决办法:在 vcenter-restore 执行失败后,运行 service-control --start --all 命令以启动所有服务。 如果 service-control --start --all 执行失败,请确认输入正确的 vCenter Single Sign-On 用户名和密码。您也可以联系 VMware 技术支持。
从 SAN 引导问题
不支持在光纤通道或 LUN ID 大于 255 的 iSCSI LUN 上安装 ESXi 6.5 vSphere 6.5 支持介于 0 到 16383 之间的 LUN ID。不过,由于适配器 BIOS 的限制,不能使用 ID 大于 255 的 LUN 从 SAN 引导安装。 解决办法:对于 ESXi 安装,请使用 ID 等于或小于 255 的 LUN。
iSCSI 问题
在 vSphere 6.5 中,分配给 iSCSI 软件适配器的名称与先前版本不同 升级到 vSphere 6.5 版本后,现有软件 iSCSI 适配器的名称 vmhbaXX 会发生更改。这一更改会影响对适配器名称使用硬编码值的所有脚本。由于 VMware 不保证适配器名称在各个版本间保持不变,因此您不应在脚本中对名称进行硬编码。名称更改不影响 iSCSI 软件适配器的行为。 解决办法:无。
如果源 Windows 安装设置了静态 IPv4 和静态 IPv6 配置,则尝试将 Windows 上安装的 vCenter Server 或 Platform Services Controller 迁移到某个设备可能会失败,并显示有关 DNS 配置设置的错误消息 迁移配置了 IPv4 和 IPv6 静态地址的 Windows 安装可能会失败,并且显示错误消息:设置 DNS 配置时出现错误。详细信息: 操作失败。代码: com.vmware.applmgmt.err_operation_failed (Error setting DNS configuration. Details: Operation Failed. Code: com.vmware.applmgmt.err_operation_failed)。 新部署设备的日志文件 /var/log/vmware/applmgmt/vami.log 包含以下条目: INFO:vmware.appliance.networking.utils:Running command: ['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] INFO:vmware.appliance.networking.utils:output: error:
returncode: 17 ERROR:vmware.appliance.networking.impl:['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] error , rc=17 解决办法:
删除新部署的设备并还原源 Windows 安装。
在源 Windows 安装上,禁用 IPv6 或 IPv4 配置。
从 DNS 服务器中删除已禁用的 IPv6 或 IPv4 地址条目。
重试迁移。
(可选)迁移完成后,重新添加该 DNS 条目,然后在已迁移设备上设置已禁用的 IPv6 或 IPv4 地址。
在 Windows 集成身份验证模式下迁移具有外部 SQL 的 vCenter Server 6.0 时,VMware Migration Assistant 初始化失败 作为一个没有“更换进程级令牌”特权的用户,当您从具有配置了“集成 Windows 身份验证”的外部 Microsoft SQL Server 数据库的 Windows 上迁移 vCenter Server 时,VMware Migration Assistant 初始化将失败,并显示一条并不十分明确的错误消息,其中未指出失败原因。 例如:无法运行迁移前检查 (Failed to run pre-migration checks) vCenter Server 数据库在日志(位于
%temp/vcsMigration/CollectRequirements_com.vmware.vcdb__17_50.log)中收集要求。
日志包含以下条目: T12:20:47.868Z ERROR vcdb.const Error while validating source vCenter Server database: "[Error 1314] CreateProcessAsUser: 'A required privilege is not held by the client.'" 解决办法:验证是否已为运行迁移的用户设置了“更换进程级令牌”特权。在 Microsoft 联机文档中可以找到有关如何自定义设置的指南。您可在确认权限正确无误后重新运行迁移。
Lsu-hpsa 插件无法在本机 hpsa 驱动程序 (nhpsa) 上使用 Lsu-hpsa 插件无法在本机 hpsa 驱动程序 (nhpsa) 上使用,因为 nhpsa 驱动程序与 lsu-hpsa 插件所使用的最新 HPSA 管理工具 (hpssacli) 不兼容。您可能收到以下错误消息: # esxcli storage core device set -d naa.1c7dce62fb -l=locator 无法将设备的 LED 状态设置为定位符。错误为: HPSAPlugin_SetLedState 中的 HPSSACLI 调用退出并显示代码 127! (from lsu-hpsa-plugin) (Unable to set device's LED state to locator. Error was: HPSSACLI call in HPSAPlugin_SetLedState exited with code 127! (from lsu-hpsa-plugin)) # esxcli storage core device physical get -d naa.56a7 插件 lsu-hpsa-plugin 无法获取名为 naa.56a7 的设备的信息。错误为: Cache_Update 中的 HPSSACLI 调用退出并显示代码 127 (Plugin lsu-hpsa-plugin cannot get information for device with name naa.56a7. Error was: HPSSACLI call in Cache_Update exited with code 127)! # esxcli storage core device raid list -d naa.1c7dce62fb 插件 lsu-hpsa-plugin 无法获取名为 naa.1c7dce62fb 的设备的信息。错误为: Cache_Update 中的 HPSSACLI 调用退出并显示代码 127 (Plugin lsu-hpsa-plugin cannot get information for device with name naa.1c7dce62fb. Error was: HPSSACLI call in Cache_Update exited with code 127)! 解决办法:将本机 hpsa 驱动程序 (nhpsa) 替换为 vmklinux 驱动程序。
其他存储问题
如果使用 SESparse VMDK,格式化采用 Windows 或 Linux 文件系统的虚拟机需要的时间较长
格式化运行 Windows 或 Linux 文件系统的虚拟机时,格式化过程需要比平常更长的时间。如果虚拟磁盘为 SESparse,就会出现此问题。 解决办法:格式化前,在客户机操作系统上禁用 UNMAP 操作。您可以在完成格式化过程之后重新启用该操作。
尝试对共享远程 SAS 设备使用 VMW_SATP_LOCAL 插件可能会触发问题和故障 在 ESX 6.5 之前的版本中,被 VMW_SATP_LOCAL 插件声明的 SAS 设备也被标记为远程。在 ESX 6.5 中,被 VMW_SATP_LOCAL 声明的所有设备即使为外部设备,也都被标记为本地。因此,当您从早期版本升级到 ESXi 6.5 时,任何先前被标记为远程的所有现有远程 SAS 设备的状态均更改为本地。此更改会影响这些设备上部署的共享数据存储,可能会导致出现问题和不可预知的行为。 另外,如果错误地使用现在标记为本地设备但实际上为外部共享设备实现某些功能,将会发生问题。例如,当您允许创建 VFAT 文件系统或将设备用于 Virtual SAN 时。
解决办法:不要对远程外部 SAS 设备使用 VMW_SATP_LOCAL 插件。确保使用支持列表中的其他适用 SATP 或供应商的唯一 SATP。
在向数据存储上载文件期间从 vSphere Web Client 注销会取消上载并留下不完整的文件 向数据存储上载大文件需要一些时间。如果在上载文件的同时注销,上载将取消且不发出警告。部分上载的文件将保留在数据存储中。
解决办法:在文件上载期间不要注销。如果数据存储包含不完整的文件,请手动从数据存储中将其删除。
网络连接问题
当虚拟网卡连接到禁用了 Network I/O Control 的 vSphere 标准交换机或 vSphere Distributed Switch 时,连接失败 如果将虚拟网卡配置为预留大于 0,并将其连接到禁用了 Network I/O Control 的 vSphere 标准交换机或 vSphere Distributed Switch,则连接失败,并显示以下错误消息:指定的参数不正确: spec.deviceChange.device.backing (A specified parameter was not correct: spec.deviceChange.device.backing)。 解决办法:无。
完全直通设备的网络不可用 如果在直通 Broadcom 千兆以太网适配器上使用本机 ntg3 驱动程序,网络连接将不可用。 解决办法:
以旧版模式运行 ntg3 驱动程序:
运行 esxcli system module parameters set -m ntg3 -p intrMode=0 命令。
重新引导主机。
使用 tg3 vmklinux 驱动程序作为默认驱动程序,不使用本机的 ntg3 驱动程序。
虚拟机的用户空间 RDMA 应用程序无法发送或接收数据 如果客户机用户空间 RDMA 应用程序使用不可靠的数据报队列对和基于 IP 的组 ID 与其他虚拟机通信,则 RDMA 应用程序将无法发送或接收任何数据或工作完成条目。排入队列对的任何工作请求都会被删除并且不会完成。 解决办法:无。
如果使用的 IBM 系统服务器配有连接到通用主机控制器接口 (UHCI) 的 USB 网卡设备,数据包会丢失
某些旧的 IBM 系统服务器(如 IBM BladeCenter HS22)配有连接到 UHCI 的USB 网卡设备,在运行 USB 本机驱动程序 vmkusb 时会遇到网络连接问题。如果对连接到 UHCI 的 USB 网卡使用了 vmkusb 驱动程序,数据包在到达该 USB 网卡设备时会丢失。 解决办法:禁用 USB 本机 vmkusb 驱动程序,切换到旧版 vmklinux USB 驱动程序:
运行 esxcli system module set -m=vmkusb -e=FALSE 命令禁用 USB 本机驱动程序 vmkusb。
重新引导主机。重新引导时,将加载旧的 USB 驱动程序。
客户机内核应用程序收到未发信号的快速注册工作请求的意外完成条目
具有活动 RDMA 上行链路的主机上的两个虚拟机之间的 RDMA 通信有时会在客户机内核应用程序中触发伪完成条目。客户机的内核级 RDMA 上层协议 (ULP) 发出的未发信号的快速注册工作请求会错误地触发完成条目。这可能会导致完成队列在内核 ULP 中溢出。 解决办法:为避免触发外部完成,请将要使用快速注册工作请求的虚拟机置于单独的主机上。
具有准虚拟 RDMA 设备的虚拟机在生成快照操作或 vMotion 迁移期间变得无法访问 具有准虚拟 RDMA (PVRDMA) 设备的虚拟机运行 RDMA 应用程序与对等队列对通信。如果 RDMA 应用程序试图与不存在的对等队列编号通信,PVRDMA 设备可能会无限期地等待对等队列的响应。如果生成快照操作或迁移期间 RDMA 应用程序仍在运行,其结果是虚拟机将变得无法访问。 解决办法:使用 PVRDMA 设备生成快照或执行 vMotion 迁移前,关闭正在使用不存在的对等队列对编号的 RDMA 应用程序。
ESXi 核心的 Netdump 传输耗费数小时才完成 在使用 Intel X710 或 Intel X710L 网卡的主机上,将 ESXi 核心传输到 Netdump 服务器用了几个小时。此操作可以成功执行,但是使用其他网卡执行 Netdump 传输时要快得多。 解决办法:无。
在具有准虚拟 RDMA 设备的客户机虚拟机中,内核级 RDMA 上层协议无法正确工作 内核级 RDMA 上层协议(如 NFS 或 iSER)尝试创建的资源超出了准虚拟 RDMA (PVRDMA) 设备所能提供的资源。其结果是,内核模块加载失败。但是,RDMA 连接管理器 (RDMA Connection Manager, RDMACM) 会继续工作。 解决办法:无。
超过 60 秒后,Down/Up 命令才能启动网卡
设置虚拟可扩展 LAN (VXLAN) 并通过使用 nmlx4_en 驱动程序的网卡传输 VXLAN 流量时,esxcli network nic up 命令可能无法在 60 秒内启动网卡。网卡的启}

我要回帖

更多关于 lⅰne 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信