ZDNet至顶网软件频道消息:上次我们分析了《积极性不高和安全性成为用户使用移动面临的主要问题》,今天我们分析一下移动OA已被过度炒作,使用的企业主要集中在10万以上的中小企业。
主要是原因,一是来自于企业用户需求的推动成为主要驱动力,同时另外一方面日益成熟的产业基础环境,包括国产软件的开发和研究能力、相关的政策推动也对OA产业的发展起到了关键作用。但整体而言移动OA在整个OA市场中所占有的规模比重并不突出,移动OA市场呈现出一定的虚假繁荣趋势,造成这一现象,移动信息化研究中心认为主要来自于两个方面:
(1)移动OA的过度炒作
伴随移动互联网的大力发展,企业级移动应用和信息化开始集中迸发,在此背景下移动OA厂商纷纷加入到这一市场的争夺,并为此在市场推广和产品宣传上大力投入。但是在产品成熟度不足、企业用户使用习惯并不具备、相对整个OA市场仅有少量企业用户开始实践移动OA、整个移动信息化产业还处于初始化发展阶段的背景下,这种推广和投入不可避免的走上了过度炒作的途径。
(2)企业用户保持谨慎的状态下试水移动OA
可以想象投入市场的移动OA如果不够成熟,即使企业用户拥有很强的应用需求在驱动,也很难调动起他们的实施欲望。同时目前市场品牌众多,各自宣称不一样的特点,这就造成企业用户在对待移动OA时不得不采取较为谨慎的态度,一般会采取小规模试点的方式或者在行业内已经有较为成功的实践案例之后才会跟进。
从市场规模上看来,随着国内企业移动信息化的不断深入发展,企业用户对移动OA的需求特点也逐步清晰,众多厂商也逐步回归到理性发展阶段,市场的参与者既包括向移动OA开拓的传统厂商如通达、万户、蓝凌、泛微等厂商,也包括一批新兴的专门从事移动化应用研发和推广的厂商如烽火等。
2013年移动OA市场规模达到0.87亿元人民币,较2012年增长了74.0%,2014年的市场规模预计能够突破1.41亿,保持较好的发展态势。
目前大多数企业用户对移动OA的投入和部署保持谨慎态度,一般采取在有限范围内部署移动OA,例如仅仅针对管理层或者某一个业务部门,或仅在部分分支机构中进行尝试性应用。企业用户平均投入金额规模较小,部署的终端数量规模一般在20-50个用户之间。
移动信息化研究中心调查数据显示,62.5%的企业用户希望在移动OA相关的应用投入方面,每年的金额小于10万;20.5%的企业用户,希望每年投入的金额在10万-20万之间;11.7%的企业用户,希望每年的投入在20-30万之间,仅有5.3%的企业用户投入金额超过30万。
因此,我们可以判断移动OA还末完全进入大规模布署阶段,由于厂商们的过度消费,已经让移动OA在价格上越压越低,移动OA已经变成了一个买一赠一的工具,这也造成了移动OA目前所面临的困境,全厂商都在跟进,能够赢利者却甚少,特别是一些标准化的OA产品,虽然在企业中占有绝大多数的比例,但是随着用户对移动OA协同办公需求的越来越多,企业对于移动一体化的解决方案的需求日益加强,标准化移动OA将逐步被一些企业所抛弃。而可以对接多业务系统的移动OA,能够定制化开发的移动办公平台将会成为未来的主流。
这一类的产品基本会在20万以上,以烽火星空,数字天堂为主的移动办公解决方案,以及以部分定制化部分标准化的慧点和蓝凌等厂商在未来的移动OA中将更具有优势和想象空间。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。