ZDNet至顶网服务器频道 6月10日 新闻消息(文/姜玮玮): 今天下午一场雨如期而至,主播泡了一壶茶看了会儿瓢泼大雨~文艺青年的忧伤你永远不懂~~
主播虽然得以休息片刻(我不会告诉你是因为老大被困在餐厅回不来……哦耶~),不过漏洞可不休息。这不,主播资讯平台娱乐中心CCZV最新消息显示:OpenSSL又被发现6个新漏洞,其中一个还甚至可能导致信息泄露!
OpenSSL今日再度发布针对六项安全漏洞的修复方案——其中包括一个允许中间人(简称MITM)窃取加密连接的漏洞,外加一个可能允许攻击者向存在风险的系统投放恶意软件的漏洞。
一项DTLS无效片段漏洞(CVE-2014-0195,受影响的版本包括0.9.8、1.0.0以及1.0.1)可被用于向漏洞软件所在的应用程序或者服务器注入恶意代码。DTLS基本上属于UDP(而非TCP)上的经典TLS加密机制,主要被用于保护视频以及语音聊天等实时流媒体安全。
不过另一项SSL/TLS中间人漏洞(CVE-2014-0224,潜在影响到所有运行1.0.1以及1.0.2-beta1版本的客户端及服务器)引发的后果可能更为严重,OpenSSL官方给出的咨询解释为:
攻击者可以利用经过精心制作的握手活动强制使用OpenSSL SSL/TLS客户端及服务器中的薄弱键入机制。这项漏洞可能会被中间人攻击所利用,攻击者可以借此对受攻击的客户端及服务器流量进行解密与修改。
这一攻击活动只适用于存在漏洞的客户端和服务器。OpenSSL全部版本的客户端都存在这项安全漏洞。目前已知存在该漏洞的服务器端版本为OpenSSL 1.0.1与1.0.2-beta1。使用OpenSSL 1.0.1乃至更早版本的服务器用户建议升级至新版本以预防此类安全问题的发生。
建议用户和管理员检查和更新他们的系统,针对OpenSSL的补丁可用在例如主要发行版的Linux上。
哎……话说回来,主播我刚想下班途径阿根廷去趟西班牙,就得到京港地铁公司取消活动,地铁各站不再张贴世界杯参赛队命名铭牌的噩耗!真是小(sang)心(xin)谨(bing)慎(kuang)啊!
还好……今天还有一条好消息T^T:
惠普于本周一推出一系列高性能计算(High-performance computing,缩写为HPC)系统,旨在扩大旗下产品在企业的使用。惠普同时还在旗下的Helion云平台上推出了HPC即服务。
新推出的系统系列均为惠普的名牌阿波罗系统。惠普认为,这些系统的性能是标准机架式服务器的四倍。阿波罗系列采用模块化设计,便于企业消费。惠普在美国拉斯维加斯召开的Discover会议上宣布了推出此产品线的消息。
惠普的阿波罗系列与旗下的机架片式(Rack blade)服务器、基于ARM和英特尔Atom的Moonshot服务器互补。根据惠普提供的资料,阿波罗系列包括风冷式6000系统(6000 System)和水冷式8000系统(8000 System)。8000系统为一款超级计算机。惠普还将以这些HPC系统为基础提供不同的服务。
阿波罗6000系统每个机架的服务器可达160个,空间的使用和能源的使用较少。阿波罗8000系统使用液体冷却,每个机架含14个服务器。
在针对云发展的高性能计算策略方面,惠普推出了Helion自助服务,这项服务于2014年6月启用,属于私有云的范畴。阿波罗6000和8000即日起接受订购。
简单总结今日看点:
(PS:想听ZDNet IT女主播语音播报新闻?请关注ZDNet官方微信:通讯录搜索“ZDNetChina” or扫描下面滴二维码。每周五,不见不散~!)
好文章,需要你的鼓励
谷歌CEO皮查伊在AI竞赛低谷期坚持"信号降噪"原则,顶住压力加倍投入,最终带领谷歌凭借Gemini系列重夺领先。他坚信AI将超越火与电的革命性影响,通过递归自我改进极大降低创意实现门槛,这场"创造力民主化"浪潮或将解锁80亿人的认知潜能。
浙江大学和吉利汽车研究院联合团队提出的FreeTimeGS是一种创新的动态3D场景重建方法。不同于传统方法,它允许高斯基元在任意时空位置自由出现,并赋予每个基元运动功能,使其能够随时间移动到相邻区域。研究通过4D正则化策略解决了高不透明度基元阻碍优化的问题。在多个数据集测试中,该方法在渲染质量和速度上均大幅超越现有技术,特别是在处理复杂动态场景时,使用单个RTX 4090 GPU能以467 FPS的速度实现1080p实时渲染,为电影制作、游戏和虚拟现实等应用提供了新可能。
李飞飞的World Labs以"空间智能"重新定义AI,专注3D物理世界理解,4个月估值飙至10亿美元,获科技巨头集体押注。她揭示语言无法编码物理世界,而DNA双螺旋等突破性发现都源于三维空间的深度认知。
这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。