ZDNet至顶网软件频道 6月2日 奥斯汀报道 (文/张晓楠 摄影、摄像/张晓楠): “数据使用的底线是不能侵犯个人、企业隐私”,这是在美国奥斯汀举行的DWEN数据经济论坛上,企业家们的共识。这也是在大数据使用领域首次提出数据使用道德底线。具体10个要点如下:
1、企业家们认为大数据分析不是想像得那么遥远和神秘,每个企业都可以做到;
2、尤其是人力、物力、财力、资源少的中小企业,对大数据的使用更有机会;
3、对一些垂直的数据例如考勤、业绩等数据,应该建立关联的关系;
4、各层次的数据要尽快整合才有价值;
5、越低(来自于越基层的)档的数据越有价值;
6、无论多高价值的数据,在索取、使用、公开时要以尊重个人隐私为底线;
7、数据本身没有好坏,只有利用的有效和无效;
8、整个论坛过程中,大会使用大屏幕进行互动,互动人群发言频率、含金量高。上有小论坛、下有大论坛呼应。戴尔CM0 karen Quntos也参与其中,她提出不选择创新就没有选项;
9、互动中有企业家问是否现在就要设立首席数据官?
10、互动中也有人认为数据是死的,人是活的,最终决定要靠人。
论坛主持人:CNET主编Connie Guglielmo。
论坛嘉宾:Kym Houden,Task创办人和执行主席;Nuala o'Connor,Center for Democracy@Technology总裁兼首席执行官;Matt
Wolken,戴尔软件信息管理副总裁兼总经理;Zeyuep Young,Doubleline Partners公司合伙人。
会场设在奥斯汀Moody剧院。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。