ZDNet至顶网软件频道消息:根据Net Applications的最新数据,在过去两个月中,Firefox浏览器在桌面和移动两大平台的用户份额均大幅下跌。Firefox的整体用户份额在6月份仅为12.9%,比两个月前减少了1.2%,这是五年前开始追踪这个数据以来的最低值。
Mozilla的问题仍然在于无法吸引移动用户。在桌面浏览器市场整体不景气的今日,Firefox浏览器仍未能吸引到足够的智能手机用户。虽然该公司一直在Android及其Firefox OS平台上提供Firefox浏览器,虽然吸引了一部分移动用户,但其移动份额仍只有0.7%,是排在倒数第二的微软IE的三分之一。
一直以来,Firefox的表现都不尽人意。桌面用户份额下降已持续了八个月之久,在6月份下降了1.3%,为15.54%。在过去的一年中,Firefox的桌面用户份额共下降了3.6%,降幅为19%。自从今年3月Chrome取代Firefox成为桌面第二大浏览器以来,两者的差距已经越拉越大,6月Chrome领先Firefox 3.8%个百分点。
需要注意的是,这个时间点是很可怕的,因为Mozilla与谷歌的现有合约将在11月终止。这个合约,将谷歌的搜索引擎作为大多数Firefox用户的默认搜索引擎,凭借该合约Mozilla赚到了不少银子。例如,在2012年,谷歌给Mozilla带来了约2.72亿美元的收入,占Mozilla全部收入的88%。在今年的续约谈判中,Mozilla将处于更弱势的地位。
自4月以来,苹果的Safari的表现也一样糟糕,主要是因为移动平台份额的持续下降,以及桌面领域的突然减少。在桌面和移动浏览器用户份额方面,苹果仍排在Mozilla后面,整体份额为12.3%,而两个月前为13.1%,其中的三分之二归功于iOS上的Safari。
Safari在6月份受到了冲击,iOS上的Safari用户份额继续下降,在过去90天中,桌面版本下降了0.4%,移动份额下降了7.8%,跌幅高达14%。Firefox和Safari之间的差距在过去两个月中已经缩小,尽管后者失去了用户份额,但前者表现更糟。
谷歌再次成为Mozilla和苹果在浏览器领域遭受损失的主要受益者,6月该公司桌面和移动平台的浏览器总份额为22.6%,比4月份提高了1.5%。桌面领域的Chrome部署保证了谷歌在整体用户份额的增长。该浏览器在桌面部署方面增加了1.6%,月平均为19.3%。
Android浏览器和较新的Chrome浏览器占所有移动浏览器的39.4%。随着Safari逐渐下降以及谷歌的上升趋势,谷歌有望在10月问鼎移动浏览器宝座。
微软的IE浏览器继续主导桌面领域,其6月份用户份额为58.4%,这是自2011年2月以来的最高值。但在移动方面,IE仍然停留在个位数:2%。这让IE的总份额与4月份持平,保持在48.4%,。
总体而言,IE浏览器仍然比Firefox有着更大的用户份额,因为微软已经成功扭转了IE桌面份额长期下降的趋势。但微软面临着与Mozilla同样的困境:如果没有平板电脑和智能手机的牵引力,IE将会慢慢失去影响力,因为移动设备正在逐渐抢夺PC作为浏览器使用第一平台的地位。
Opera在6月份的用户份额为2.2%,4月份为1.8%。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。