ZD至顶网软件频道消息: 最近,有些用户在尝试安装微软Windows 7和Windows Server 2008 R2的累计补丁包时发现,其步骤并不是那么便利。
本文中谈到的一些小技巧可能对有些人会有帮助,这些小技巧源自微软的“首要前线工程(PFE)问答平台”博客。
微软从5月17日起提供Convenience rollup的下载,这是Windows 7 SP1和Windows Server 2008 R2的一堆安全补丁和非安全补丁。
PFE问答平台团队也在5月20日发表过一篇博文,给出了这些补丁包的更多细节。博文中提到的一些技巧对下列用户会有帮助:有些用户安装了补丁包后出现Windows Update扫描时间过长的情况,特别是在新的安装上;还有些用户利用PPE的Robert M. Smith在博文末尾的说法以减少获得Windows 7镜像的整体时间。
Smith建议用户在安装累计补丁包后禁用网络连接,重新启动后才启动网络连接。他指出,用户还可以将电源选项设为“高性能”,这对控制主机有帮助。用户在安装汇总时在Windows更新选项里不要选“自动安装”,应该选“以后再问我“(Ask Me Later)。用户重启网络连接后,再将Windows Update设改为“检查更新但让我选择是否下载和安装它们”(check for updates but let me choose whether to download and install them),然后检查更新。
Smith表示,使用了这些步骤后,用户在安装了便利更新后只需一小时就可完成第一次更新扫描。
Smith也为那些需要重新安装Windows 7或是需要多次为企业客户安装Windows 7的人提供了一个技巧。用户在安装了累计补丁包对镜像完全修复后,可以将其清理干净,运行Sysprep,再用dism.exe将操作系统保存为.WIM文件,Sysprep和dism.exe二者都是Windows 7自带的。.WIM用户文件约为5 GB,所以如果用户用了虚拟机,他们应该通过SCSI接口增加一个额外的磁盘,或是将.WIM存在外部USB(最好是USB 3)里。用户针对.WIM运行了Sysprep后,过后可以将其存在新的空白磁盘里。Sysprep用到的开关参数为“sysprep /generalize /oobe /shutdown”。即是说,.WIM被写到一个空白盘里后,.WIM启动时就会运行至OOBE,会像在新的安装时一样询问用户区域设置、时区和其他问题。
Smith还表示,他选择性地建议客户使用免费的微软评估和部署工具包(ADK)。走这条路的话,用户需导入他们以前保存的.WIM文件,用户可以进行定制,如添加驱动程序和任务序列(安装防病毒、Office等),提供OOBE答案(以后就可以跳过OOBE这步),完成后即可利用ADK创建可引导.ISO诸如此类的。他表示,用户从.ISO可以很容易地创建一个可启动的USB盘。他还称,还有其他更多的部署方法,用户也可以将所有这些导出到Windows部署服务里或SCCM里。
Smith在评论中指出,即便是对于那些经过完全修补的SP1系统,安装这个累计补丁包也是值得的,因为这里包含了最新的修补程序。
Smith 表示,“由于Windows 7的SP1后并别的服务包,SP1后公开发布的修补程序只可以通过相应的KB文章才能找到,而且只能一个一个地下载,是个相当痛苦的过程。也有些补丁未在Windows更新里,别的地方也找不到这些补丁,对于那些关注这些补丁所针对的性能、可靠性和数据完整性的客户,我建议他们安装这些修补程序。在主动修复方面,本人曾有过很好的成功体验,特别是我们部署了一个修补后,比如说蓝屏,有关客户就不会再经历蓝屏了。”
这个累计补丁包并不是Windows 7 SP2,也不会不延长Windows 7 SP1支持期(支持期2020年1月到期)。不过这东西也凑合算个SP2吧。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。