ZDNet至顶网软件频道消息:今年3月,无网络、免流量聊天应用FireChat一经推出就迅速占领了网络通讯资费高昂的印度和地震频发的日本。上周,FireChat和其母公司来自硅谷的Open Garden亮相TechCrunch北京峰会,Open Garden带着两款应用,同名OpenGarden和FireChat正式进驻中国市场。
利用蓝牙和P2P点对点网状网络技术,FireChat可以在无网的情况下向附近的群组或单独好友发送文字或照片。由于蓝牙技术的限制,使用FireChat的两台设备间的距离最高为80米(8—15米效果最佳)。目前,FireChat已登录iOS和Android两大系统,跻身包括澳大利亚、巴西、香港、印度、日本、俄罗斯、西班牙、英国等全球115个国家和地区的十大社交网络应用程序。
无网络、免流量聊天应用FireChat
就社交功能来看,FireChat与各方面都很成熟的微信、QQ相比有很大差距,然而,Open Garden推出FireChat的初衷并不是占领社交应用市场,而是通过具象化的应用,以更直观的方式让我们去认识网状网络技术带来的各种可能性和商业前景。
以微信为例,FireChat与它并不构成竞争关系,正相反,Open Garden有意与微信合作,通过网状网络技术使微信在无网条件下也能使用。TextMe就是Open Garden的盟友之一。通过Open Garden,TextMe的Android平板用户可以在没有WiFi的情况下,用平板发短信、通话、视频聊天。与传统蓝牙技术相比,Open Garden非常省电,用户无需进行配对,也无需启动WiFi并搜索热点,只需安装App,并打开蓝牙即可。
Open Garden公司联合创始人兼CEO Micha Benolie
更长的用户使用时间就意味着更多的收益,数据显示,OpenGarden使每个用户每天增加了平均44分钟的连接。Open Garden公司联合创始人兼CEO Micha Benolie表示,“Open Garden期望将网状网络技术提供给电信运营商、广告网络商,应用和游戏开发商和终端设备生产商,增加网络接入的覆盖面、可靠性和速度,同时延长网络连接的时间。”对于终端用户来说,Open Garden是完全免费的,而那些使用Open Garden SDK的开发商则需要把收益的一部分交给Open Garden。
需要注意的是,Open Garden是以网状网络技术支撑的解决方案,是100%的软件,它利用现有的互联网基础设施,无需增加硬件设施成本。
据介绍,目前Open Garden正在与中国的三大互联网巨头——百度、阿里巴巴和腾讯,以及电信运营商进行沟通,探讨合作的可能与方式。
无网接入互联网,对于卖流量的电信运营商来说能有什么好处呢?Micha Benolie给出了三个答案:第一,帮助手机网络运营商增加网络覆盖面,运营商可以通过网状网络技术,把服务带到信号塔不足的偏远地区;第二,改善网络传输信息的质量,Open Garden网状网络技术会在多个网络中选择最有效、最安全、质量最好的网络。第三,没有额外的硬件投资,并减少运营商未来的硬件设施建设投入。
平心而论,中国的电信运营商提供的网络服务不管是服务质量还是资费制定都是比较靠谱的,但即使在美国这种网络超级发达的国家,手机用户仍在10%的时间里无法接入到网络,平板无法接入的时间更是高达50%。IDC预计,在未来3年将有大约50亿新的智能手机、平板电脑、笔记本电脑在全球市场卖出,其中还不包括物联网产品。网状网络技术不仅在通讯行业拥有广阔的发展前景,在物联网、智慧城市和智能家居这些领域同样大有可为。
Open Garden直译就是开放花园的意思,Open Garden希望通过网状网络技术,通过开放、共赢的合作伙伴生态将互联网无限延展下去。正如Micha Benoliel在TechCrunch北京创新峰会上说道的:“毫无疑问,你就是互联网,开放的网络将能连接全世界。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。