Harvester 是 SUSE Rancher 生态的重要组成部分,已于 2021 年 12 月正式 GA。Harvester 作为 100% 开源的新一代超融合基础设施(Hyper-Converged Infrastructure,HCI)解决方案,不仅能够提供集存储、计算和网络为一体的软件定义解决方案,还完美继承了K8s 平台的诸多强大特性,例如高冗余、高可用、自动恢复和弹性伸缩等。除此之外,Harvester 还与 Rancher Manager 进行了紧密的产品线整合,提供了包括多集群和多租户在内的管理功能,可以对部署在数据中心、分支机构以及边缘场景的 Harvester 集群进行统一纳管,从而实现虚拟机与容器的无缝切换管理。
Harvester v1.1.0 功能特性包括:
GPU和PCI设备直通
首先,GPU 和 PCI 设备直通(实验性)是今年最受欢迎的功能之一,现已正式上线。这使 Harvester 用户能够在需要利用物理主机上的 PCI 设备的 VM 中运行相关的应用程序。最值得注意的是,GPU 是一个不断增长的用例,用以支持对机器学习、人工智能和数据分析等不断增长的需求。此功能还可以支持各种其他需要 PCI 的用例;例如,启用 SR-IOV 的网卡并将虚拟功能公开为 PCI 设备,然后 Harvester 可以将其连接到 VM 中供用户使用。未来将继续扩展该功能,以支持更多高级形式的设备直通,例如 vGPU 技术。
虚拟机导入控制器
许多 Harvester 用户之前也在使用各种各样的 HCI 解决方案来承载不同工作负载的需求。对于其中一些用例,他们希望将这些虚拟机迁移到 Harvester 上来。为了简化这一过程, Harvester v1.1.0创建了 VM Import Controller,可以自动将 VM 从现有用户的 HCI 上迁移到 Harvester。目前它支持两种流行的平台:OpenStack 和 VMware vSphere。管理员可以通过 YAML 方式定义连接到这些系统中的任何一个,并通过创建 VirtualMachineImport 对象来逐步将这些虚拟机和虚拟的磁盘数据复制到 Harvester 的数据存储中,同时它会将其它平台的 VM 的元数据转换为 Harvester 中的可类比的配置,例如 VLAN 网络。
存储网络
Harvester 可以在不同配置的硬件上运行,一些集群的计算优化程度很高,而另一些则需要针对存储性能进行优化。对于那些需要高性能存储的工作负载,提高效率的一种方法是为 Harvester 的 Longhorn 存储复制提供专属的高速网络。出于这一考虑,Harvester v1.1.0 创建了存储网络功能。专用存储网络可以消除工作负载流量(Pod 到 Pod 通信、VM 到 VM 等)和存储流量之间的 I/O 争用。此外,用户也可以选择为存储网络选购更高 I/O 性能的网卡,例如 40 或 100 GB 的 Ethernet。
存储分层
在支持需要不同类型存储的工作负载时,能够允许用户在配置 VM 时选择不同的存储类别或分层非常重要。存储分层可以用简单的术语进行标记,例如 fast 或 archival,从而对用户更加友好。管理员可以将这些分层映射到裸机系统上的特定磁盘,Harvester 同时支持节点和磁盘标签的映射,因此用户可以在指定节点中选择指定磁盘的特有组合,并将虚拟机的应用运行在这些特定的存储分层上。例如,一些 Harvester 用户希望通过该功能将较慢的存储类别应用于不关心 IOPS 且首选低成本存储的应用程序。
不可变基础设施
从 Harvester v1.0.3 版本开始,已经将操作系统 Kernel 从 OpenSUSE Leap 15.3 切换到了 SLE Micro 5.2。SLE Micro 作为 SUSE 推出的一款针对边缘优化的操作系统,提供了更加精简、安全和高效的操作系统支持,也更符合 Harvester 作为不可变基础(Immutable)设施的理念。Harvester v1.1.0 做出了更多的优化和安全更新,例如增加了节点 Ksmtuned 等特性的支持,以保障用户的工作负载能够运行在更稳定、更安全的基础设施上。
2022 年是 Harvester 发展的重要篇章。未来,Harvester 在增加更多功能的同时也将保持易用性和稳定性。明年,Harvester 将发布两个功能版本,以便更快地按照产品路线图迭代。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。