至顶网软件频道消息: 大数据管理公司Hortonworks今天宣布推出其核心Hortonworks Data Platform的第三代版本,并与包括谷歌、微软和IBM等云计算领导厂商扩大合作伙伴关系。
Hortonworks在加州圣何塞举行的DataWorks峰会上宣布推出了HDP 3.0,让企业能够跨不同计算环境更轻松地运行应用,无论是在云中还是在本地数据中心。
HDP 3.0计划在第三季度上市,它是基于最新版本的开源Apache Hadoop平台,Hortonworks称这将让自己的Hadoop发行版与其他公司的区分开。
Hortonworks首席技术官Scott Gnau表示:“我们看到向现代数据架构的巨大迁移,这种架构中包含了比以往更多的云相关的内容。这意味着客户的数据将在数据中心、云端和这时间的任何地方。所以,要打造一种无缝的体验。”
特别是HDP 3.0增加了几项新功能。首先,是能够使用容器跨不同计算环境快速部署应用,打包应用使其可以在云中或各种数据中心中运行。Gnau说:“如果你在Google、AWS或Azure上运行HDP 3.0,那么应用运行的方式也是一样的。”
其次是对深度学习应用的支持,这些应用采用人工神经网络来识别图像和语音,以及其他数据密集型人工智能任务。HDP 3.0让数据科学家能够使用GPU共享对服务器的访问,GPU作为一种高度并行的芯片已经广泛用于训练和运行机器学习模型。
Hortonworks表示,新平台还通过使用一种实时数据库提供改进的查询优化,因此无论是在云端还是在本地,都可以获得更多数据并加快处理速度。这项功能可由开源Hadoop数据仓库Apache Hive启用。
此外,HDP 3.0还支持所有主要的云数据存储库,包括AWS S3、微软Azure Storage Blob和Google Cloud Storage。Gnau表示,这让企业能够将数据迁移到使用效率最高的地方,例如将数据从S3迁移回Hadoop分布式文件系统,以为某些应用实现更高的性能。
此外,Hortonworks还宣布扩大与多家云提供商的合作关系,包括优化HDP和针对Google Cloud Platform(GCP)的Hortonworks DataFlow(HDF)分析平台。“我们与Hortonworks的合作伙伴关系将使客户能够在GCP中快速运行数据分析、机器学习和流式分析工作负载,同时实现与混合或云本地数据架构的桥接”,Google Cloud产品管理总
监Sudhir Hasbe在声明中表示。
与微软扩大合作伙伴关系将让客户能够部署HDP、HDF和Hortonworks DataPlane Service(DPS),从而可以在Azure云平台上本地管理不同类型和来源的数据。这些都已经在AWS上提供。
IBM宣布将提供一个名为IBM Hosted Analytics with Hortonworks的新服务,作为IBM Cloud上的一项集成服务。更具体地说,它结合了HDP、IBM Db2 Big SQL数据库和IBM数据科学体验。IBM Analytics总经理Rob Thomas在一篇博客文章中将IBM对数据的使用比喻为州际公路系统的演变。
而且,HDP 3.0改进了安全性和治理,以符合欧盟最近实施的“通用数据保护条例”和其他数据治理规则,这意味着正在使用中的数据可以追溯到最初所驻留的数据湖。
由于一些广为人知的数据泄露事件和数据滥用问题(如Cambridge Analytica公司未经授权使用2016年美国总统大选期间的Facebook数据),导致最近那些能够使用大量数据的公司处于被严密监管的状态。Gnau提出,Hortonworks可以在其平台上提供集中式控制,让企业能够避免这类问题。
“我们可以提供共同的数据治理。我们知道数据在哪里,谁在复制数据,以及数据到达这个位置都发生了什么。21世纪数据是财富的创造者,”如果不对数据加以控制的话那就是“疯了”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
时尚零售巨头维多利亚的秘密因安全事件导致网站和线上订单服务中断,已立即启动应急响应、邀请第三方专家协助恢复运营,实体店仍正常营业。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。