ZDNet至顶网软件频道消息:碧生源控股有限公司(简称“碧控”)及其子公司(统称“碧生源”或“集团”)为中国保健功能茶产品的领先企业。公司成立以来, 碧生源以正派经营及务实管理为理念,事业发展迅速,营业规模持续壮大,获得保健品行业首批出口认证资格。作为一家集研发、生产、销售于一体,且专注于生产与经营中国保健功能茶的企业,碧生源也非常重视信息化的建设,已经上线了财务系统与oa系统,人力资源管理一直用传统的方法,生产中心独立进行管理。碧生源总部在北京,除了各个职能部门,还有工厂、品茶事业部和销售部,销售部在全国总共划分为13个片区。碧生源已经有一套HR系统,但是随着不断的发展,原有系统不适应集团管控。总部人力资源部在了解全公司本月同上月人力信息变化的时候都需要生产中心、各大区、集团总部各部门分别统计上来后再进行统计,往往要耗费一周的时间,不仅要耗费大量的人力,而且统计上来的数据也不是实时的,因此,借助一套能够进行集团管控的信息化工具进行人力资源管理的升级是碧生源立刻要落实的项目。
从前的系统中人员信息比较陈旧,而且没有统一的员工编号。但人员基本信息的精准是项目建设的基础,因此,项目建设伊始,首先要解决的就是人员统一编号问题。朗新根据碧生源不同大区、组织,设定不同的人员类别,并以此为依据进行员工编号,该编号是员工在系统中唯一编号。同时采用了二代身份证读卡器,员工入职时,读卡器直接读取身份证上的信息到系统中,避免了手工输入的错误机率。当人员进行了调整,无论是平级变动或是升迁,都可以在日志中通过历史回溯查到。
计算薪酬一直是碧生源每个月人力资源部最为耗时的一项工作。销售部门同职能部门不一样,每个月的奖金不与工资同时发放,而是单独计算。由于组织机构的特殊性,各职能部门及品茶、工厂及销售大区的绩效体系也各有差异。总部及职能部门是以公共指标,打分的形式进行绩效评估,由直属领导对下级进行打分;各销售大区负责商超、药店的销售,除了公共指标打分以外,还要计算业绩目标的完成率,通过将年度目标分解成半年度、季度、月度,将业绩与第一目标、第二目标比对计算完成率,按员工级别计算回款达成率从而计算奖金;品茶事业部主要进行线上网络的产品销售,按照线上打分和利润完成率计算奖金;工厂则以班组的工时、产量计算。各大区负责人以前通过excel填写相关信息后,然后email报送总部人力资源部,人力资源部薪酬绩效经理手工计算奖金,每次计算奖金都需要大概一周的时间,费事又费力。系统上线后,公共指标打分从系统中进行即可,各大区负责人登录系统,在系统中录入相关信息,提交后系统直接推送总部人力资源部,根据后台设定的目标数值系统自动进行比对计算,薪酬绩效经理只需简单校对,两天的时间就可以完成原来一周的工作,工作效率大大提升!
同时,eHR系统与OA系统进行了无缝链接,员工的请假、加班、公出等通过OA系统导入到eJR系统中,数据同步更新。员工通过自助平台可以进行考勤、工资、年假等个人信息的查询。
大区下属各人员在商场有驻店的促销人员,促销人员又分公司直属促销员和商场促销员,基础信息有变动时,只需通过系统及时进行修改,负责人审批通过以后,总部第一时间就可以获取。人力资源软件将总部与各大区、工厂紧密的结合在了一起,真正减掉了事务工作,减掉了繁琐的流程,节约了成本,实现了集团化管控!
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。