ZD至顶网软件频道消息:国际顶级数据挖掘会议KDD2016日前在美国旧金山开幕,包括Google、Facebook、微软、Amazon、阿里巴巴、腾讯、百度及滴滴出行等在内的科技公司参加了本次会议,滴滴出行研究院副院长叶杰平在该会议上发表了如何利用大数据进行智能调度和供需预测的演讲。
图:滴滴出行在KDD会议现场
KDD 大会(国际数据挖掘与知识发现大会, ACM SIGKDD Conference on Knowledge Discovery and Data Mining, 简称 KDD )是数据挖掘领域的顶级国际会议,由 ACM ( Association of Computing Machinery ,计算机学会)的数据挖掘及知识发现专委会( SIGKDD )负责协调筹办。
图:滴滴研究院副院长叶杰平
“交通拥堵是一个大问题,中国也不例外,全球车辆密度最高的十个城市,前8个来自中国,后面紧随东京和纽约,不仅如此,在北京高峰时段打到一辆出租车也不容易,要解决这一问题,就是将私家车共享,这也将改善交通拥堵、减少碳排放。”
叶杰平在KDD演讲时表示:“滴滴出行成立于2012年,目前提供出租车、专车、快车、顺风车等业务,2016年3月,我们实现了新的里程碑,即日出行订单量超过1000万,相当于美国单日分享出行订单总量的5到6倍。”
“滴滴最大资产是每天产生的大量出行大数据,我们每日处理超过70TB数据,90亿次路径规划请求,90亿次地图定位以及10亿次派单,这还是我们收购Uber中国之前的数据。对我们来说,如何利用总量如此庞大的交通出行数据是个重大挑战。”
图:如何实现智能派单
“智能派单是滴滴运营的核心技术之一。每一秒,我们都要匹配成千上万的乘客和司机。乘客和司机之间的距离或车程时间是衡量派单质量的主要指标。我们需要用到两项关键的地图技术,即路径规划划和ETA(预估任意起终点所需的行驶时间),来完成派单。”叶杰平说。
滴滴出行是国内第一家把机器学习成功应用到ETA的公司,这是解决“订单高效匹配”和“司机运力调度”的关键技术。
传统方法一般通过路况和每段路的平均速度计算出时间,然后加上可能的等待时间,得到整体所需时间,而滴滴则是利用机器学习来计算时间,大幅提升了用户体验。根据这一技术,目前滴滴出行平台上已经可以实时更新所剩余的距离以及到达终点的时间。
叶杰平介绍:“我们用机器学习模型从海量的出行数据中寻找规律。最核心是找到解决ETA问题最有效的机器学习模型以及特征挖掘,刚开始为ETA建模的时候我们花了很多时间去找特征,现在我们准备不断优化我们的模型,将预估的精度不断提高,更好的服务用户。”
对于供需平衡问题,叶杰平表示:“人们可能很难在高峰时段打到车,这就是供需不平衡导致的,对于供需不平衡,可能更好的解决方案是对供需情况进行预测,以便提前对司机进行智能调度,比如我们预测到某个区域将会有很大供需不平衡,我们将会派司机到这一区域,避免用户乘车需求无法满足。实现供需预测将带来三大好处,供需得到平衡、乘客用车体验提升,以及司机收入增加。”
针对打车难的另一种解决办法是拼车。“拼车降低了人们的出行成本和汽车燃油成本,但关键问题是,需要将所有乘客多耗费的时间最小化。很明显,乘客之间的路线越相似,多出的时间就越少。此外,如何进行拼车定价也是个问题,关键是计算每单的预期利润,如果预期利润很高,我们将给予较高的折扣。这实际上也是个机器学习的问题。”
本次KDD会议上,叶杰平还透露公司正在研发一款名为“九霄”的可视化系统,“该系统可以呈现过去发生了什么以及正在发生什么,比如告诉我们哪里有交通拥堵以及当前的供需情况等。”
图:如何实现智能调度
据悉,滴滴研究院是滴滴出行全新的创新性研究机构,也是滴滴出行的“大脑”。未来一切有助于提高移动出行效率的技术创新,都将在这里孵化出来。
目前,滴滴研究院的研究方向包括:机器学习、计算机视觉、人工智能、数据挖掘、最优化理论、分布式计算等。滴滴研究院与业务线紧密结合,每一项研究成果都能以最快的速度应用到相应的产品上,给千万用户带去便捷。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。