至顶网软件与服务频道消息: 12月27日,华为宣布HMS Core的服务之一——华为钱包服务(Wallet Kit)首次在海外开放,通过集成Wallet Kit SDK,全球开发者可以轻松地将会员卡,门票,登机牌,礼品卡和优惠券推送至华为钱包APP,为终端用户提供智慧化数字生活方式。
Wallet Kit:助力开发者实现流量变现
历经5年的发展,华为钱包服务在国内的应用场景趋于成熟,2014年起步于生活服务,随后全面向出行、园区、酒店等使用场景横向发展,凭借优质服务吸引了大量忠实的用户。如今,其覆盖范围已经全面延伸到海外,将终端“芯-端-云”全栈技术能力开放给全球合作伙伴、开发者,实现行业应用的卡、证、券、票等各类凭证电子化放入钱包,为传统行业变革注入新的创造元素,帮助开发者利用跨行业场景能力,为终端用户打造All in One Wallet的数字生活方式。具体而言,开发者接入Wallet kit将会获得如下益处:
提升服务体验:对于开发者而言,为用户打造极致的用户体验是应用持续发展的基础。接入Wallet Kit的应用可以让终端用户快速实现便捷式支付、一站式卡证票券统一管理等功能,从而获得更优的用户体验。
助力商业变现:当然,实现应用高效的变现对开发者也至关重要。华为钱包APP为开发者提供巨大的流量入口,支持帮助商户进行会员卡、商品销售及衍生业务的导流。同时,即将支持基于地理位置、人物画像等信息的精准推送功能,开发者即可实现与目标用户的实时互动与精准营销,助力开发者实现快速变现。
享受便捷接入:HMS Core的所有开放能力一切以为开发者“减负”为出发点,接入流程非常便捷。接入Wallet Kit仅需集成1个SDK即可覆盖多数场景,享有从线上注册到服务测试的1站式服务,通过少量开发即可迅速集成。此外,Wallet kit只归集卡片本身,不介入开发者业务,开发者可灵活自定义卡片内容,发挥自己的创意。
Wallet Kit:为用户打造all in one wallet的数字生活方式
对华为用户来说,华为钱包并不陌生。借助华为钱包强大的功能,用户能够轻松地将各类卡、证、券、票保存在手机中,以便在适当的时间使用。以球票为例,用户在APP购买球票后,可选择将该球票添加到华为钱包的卡包查看赛事相关信息。当球赛即将开始,手机将智能提醒用户,给用户带来更好的观赛体验。
目前,在国内,华为钱包的使用场景已覆盖人们的衣食住行,在智慧金融、智慧园区、智慧出行、智慧生活和智慧酒店五大应用场景落地,致力于为用户提供便捷的生活支付服务。
华为深知,智慧化数字生活场景的构建与丰富离不开全球行业合作伙伴及开发者的支持。在2019年8月的华为开发者大会上,华为宣布打造HMS(HUAWEI Mobile Services)生态系统,向开发者全面开放Wallet Kit能力,致力于与开发者、合作伙伴一起,直击用户需求,用创造性的解决方法,共同构建华为钱包智慧新生态。
在华为决心打造属于自己生态系统的背景下, Wallet Kit不负众望,首次在海外登场,与其他华为移动服务共同向全球5.7亿华为用户与130万开发者开放,携手合作伙伴、开发者共建华为全场景智慧新生态。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。