微软首席技术官办公室属下增设了新的“数据尊严”的团队,已开始扩员。数据尊严团队的工作是研究如何让用户更好地掌控自己的个人数据,或许未来的某一天,用户甚至可以购买个人数据或将其出售给第三方机构。
微软近端时间来在隐私领域里摇旗呐喊,微软希望能将自己和谷歌、Facebook等科技公司区分开来,这些公司由于其数据收集方法而陷入法律和政治问题泥潭。微软在隐私行家眼里也曾犯过大忌,尤其是微软利用Windows 10利用遥测功能收集姓名数据一事,最近又被曝出使用人类承包商将Skype通话做成文字记录(https://www.zdnet.com/article/microsoft-contractors-are- listening-to-some-skype-translation-calls-report/)。数据尊严之举或许可以令微软让自己表面上看起来是用户隐私倡导者(至少在理论上是这样)。
笔者今年早些时候曾发过关于微软 “巴厘岛项目”的文章,我知道微软在研究如何让用户能对自己的数据有更多的控制权。巴厘岛项目是微软研究院的一个孵化项目,今年1月时似乎还在私下测试,据项目资料的介绍,巴厘岛项目是一个“新的个人资料库,可以令用户控制被收集的自己的所有数据。” (https://www.zdnet.com/article/microsoft-is-privately-testing-bali-a-way-to- give-users-control-of-data-collected-about-them/ )项目的基本想法是为用户提供关于存储、可视化、管理、控制、共享和货币化数据等各方面的方式。不过介绍资料的网页已经被微软隐藏起来了。
今天(9月23日)的纽约时报上有一篇Jaron Lanier的互动专题报道文章,重点讨论数据隐私, https://www.nytimes.com/interactive/2019/09/23/opinion/data-privacy-jaron-lanier.html)。Lanier是个虚拟现实开拓者及微软的首席科学家。
Lanier纽约时报文章的核心论点是,用户被糊弄了,已经放弃了他们最宝贵的资产(数据);用户的个人资料应该是需付费后才能使用。他描述了他的计划称可以纠正这种错误,他用了“数据尊严”一词。
稍微搜一下“数据尊严”( data dignity)即可找到一个theartofresearch.org网站(https://theartofresearch.org/contact-us/)。该网站称“研究的艺术”部门“嵌在”在Lanier领导的微软CTO办公室属下。网站的关于页还表示,“微软这有个由Christian Liensberger带领的全新数据尊严团队(现正招聘!)”
Liensberger身兼高级产品管理经理及微软首席技术官Kevin Scott.的顾问两职。他的LinkedIn个人资料(https://www.linkedin.com/in/christian-liensberger-476a952/)称自己的现职是管理“一个多学科团队,团队里含项目经理、设计师和开发人员,团队的目标是孵化颠覆性ML/AI产品,这些ML/AI产品直接由微软高级领导团队倡议,其中包括一组关键跨公司的举措及项目,用于发展微软和整个行业数据的ML/AI方法“。
猛料十足。貌似数据尊严要火了。
而首席技术官办公室(OCTO)这边则在三个重叠的领域下功夫,微软在旧金山设计研究员的招聘启事(https://careers.microsoft.com/us/en/job/690434/Senior-Design-Researcher)含以下内容:令深度学习“清晰可辨”,运用混合现实,用于实际应用的深度学习和数据尊严。
相关的边注:OCTO更广泛的使命是与公司的工程师一起共同探索“技术发展趋势,如智能边缘、智能汽车、AI/ML、OSS、数据安全和隐私以及区块链。我们助力将最好的创意点子转化成业务策略和产品。”
可能相关的边注:微软CTO办公室今年年初聘了Bill Stasior,他是苹果前AI副总裁和Siri团队负责人(https://www.zdnet.com/article/microsoft-nabs-former-apple-siri-chief- william-stasior/)。
笔者询问过微软,想知道微软是否会分享关于数据尊严的详细信息,我收到发言人的回复是“无可分享”。但微软的公关机器已经开动,笔者觉得我们可能很快会听到一些相关的消息。也许在未来几个月里会听到一些关于巴厘岛项目的消息?
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。