2019年1月8日,全球科技圈的开年盛会——CES国际消费电子展如期在美国拉斯维加斯盛大开幕。作为世界上最大、影响最为广泛的消费类电子技术展,CES 2019 吸引到全球 4400 余家企业以及逾 18 万名观众见证未来科技的最新发展方向。而人工智能企业旷视科技,今年也再携多项AI创新产品登陆CES,在必将到来的智能未来,旷视正努力让智能终端更聪明!
科技,只有被应用且能够变成普及大众的消费品,才算是真正体现自身价值、造福人类世界。在CES上,小到一只宠物碗,大到一辆汽车,都因各种新潮技术的涌入而拥有前所未有的能力,所以当人们在亲身体验到时,对科技赋能的未来也变得更加向往。
作为一家专注于人工智能领域的科技企业,旷视也期待并坚信AI在未来会应用到人类世界的每个角落。为推动AI普世的进程,旷视探索出构建智能物联网的发展路径,在个人IoT领域,旷视以最接近大众的手机和汽车终端为起始点,打造出一系列创新性智能终端解决方案。在 CES 2019,旷视展示了其中最具代表性和引领性的原创技术,受到业界的广泛关注。
谈及创新科技的落地,过去一年手机行业是频次最多、变化最显著的领域之一,而其中最大的科技应用需求便是AI。如手机人脸识别解锁及支付技术,几乎已成为当前新出手机的标配能力,而旷视更是这项新标配技术背后的强大推动力。在 CES 2019,旷视展示了应用在 OPPO Find X、vivo NEX 双屏版、联想Z5 pro 中的不同类型人脸识别解锁及支付方案。对比旷视在 CES 2018 的展示,旷视当前的人脸识别解锁及支付方案拥有更高的效率和安全性,且能够适配高、中、低端手机芯片和单摄、双摄、3D摄像头模组,为客户提供了多样化的方案选择。
除了手机解锁和支付之外,旷视也在CES 2019带来了在手机影像处理功能上打造的最新产品——AI微整形和AI美体。以往在手机端上的照片美化只是针对2D照片的处理,而旷视AI微整形和AI美体技术,则引入了旷视自研的人脸三维重建、3D人体骨骼关键点检测等算法,可实时重建人脸和人体的3D模型,继而进行全方位、细致的美型和美体处理。3D视觉形态,可让 AI 发挥更多强大的能力,除孕育出移动端的AI美型和AI美体产品外,旷视也在积极研发更加完整的移动端3D视觉感知方案。
移动端实时3D人体姿态识别技术,是旷视在 CES 2019 上展示的业内最前沿的底层技术之一。实时的3D人体姿态识别技术,基于旷视研发的3D人体骨骼关键点追踪算法和联发科技推出的Helio P90平台而实现,这是业内首次将3D人体姿态识别技术精准、流畅的运行在移动端上,为今后在手机上运行体感游戏、进行3D试衣等提供了坚实基础。
与此同时,旷视也在不断进行 3D sensing 解决方案的研发,以适配当前手机市场流行的3D结构光、双目结构光、ToF等模组。
在汽车场景的AI赋能上,旷视推出了一整套车载AI视觉解决方案。基于自主研发的人脸识别、视线跟踪、手势识别、表情识别、车辆检测、车道线检测,旷视车载AI视觉解决方案包含人脸识别账户切换、人脸解锁与启动、驾驶员疲劳检测、手势切歌等多种功能,可为驾驶者提供安全、便捷、舒适的驾乘体验。在CES 2019,旷视也展示了全套的车载AI视觉技术。
作为AI赋能移动终端浪潮中的领跑者,旷视拥有原创的核心技术及过硬的产品落地能力,同时也与行业上下游的佼佼者开展多种形式的合作共塑行业的未来。目前,旷视与传感器厂商ams(艾迈斯半导体)、3D传感和面部扫描企业Bellus3D、芯片企业高通和联发科技、电子设计自动化企业Cadence(楷登电子)等建立起深度合作关系,在3D人脸识别传感技术、3D人体识别传感技术及AI芯片领域开展联合研发工作。此次在 CES 2019 上,旷视的Super IQ超画质技术和3D人体姿态识别技术也分别在高通和联发科技的展台进行了联合展示;在Cadence展台,旷视也与其联合展示手机端的人脸识别解锁技术。
在科技创新层出不穷的当下,AI依然是CES乃至全球各地重点关注的科技领域,并且伴随5G、物联技术的发展,AI将继续在更多终端设备上衍生令人惊叹的能力。为了全民可享的智能未来,旷视的AI创新将永不停歇。
好文章,需要你的鼓励
Jabra 推出 PanaCast 40 VBS:首款专为小会议室设计的 180° Android 智能音视频一体机
这是一项关于计算机视觉技术突破的研究,由多家知名院校联合完成。研究团队开发了LINO-UniPS系统,能让计算机像人眼一样从不同光照下的照片中准确识别物体真实的表面细节,解决了传统方法只能在特定光照条件下工作的局限性,为虚拟现实、文物保护、工业检测等领域带来重要应用前景。
字节跳动智能创作实验室发布革命性AI视频数据集Phantom-Data,解决视频生成中的"复制粘贴"问题。该数据集包含100万个跨场景身份一致配对,通过三阶段构建流程实现主体检测、多元化检索和身份验证,显著提升文本遵循能力和视频质量。
这篇文章介绍了北京人工智能研究院开发的OmniGen2模型,一个能够同时处理文字转图像、图像编辑和情境生成的全能AI系统。该模型采用双轨制架构,分别处理文本和图像任务,并具备独特的自我反思机制,能够自动检查和改进生成结果。研究团队还开发了专门的数据构建流程和OmniContext评测基准,展现了开源模型的强大潜力。