ZDNet至顶网软件频道消息:今年3月,无网络、免流量聊天应用FireChat一经推出就迅速占领了网络通讯资费高昂的印度和地震频发的日本。上周,FireChat和其母公司来自硅谷的Open Garden亮相TechCrunch北京峰会,Open Garden带着两款应用,同名OpenGarden和FireChat正式进驻中国市场。
利用蓝牙和P2P点对点网状网络技术,FireChat可以在无网的情况下向附近的群组或单独好友发送文字或照片。由于蓝牙技术的限制,使用FireChat的两台设备间的距离最高为80米(8—15米效果最佳)。目前,FireChat已登录iOS和Android两大系统,跻身包括澳大利亚、巴西、香港、印度、日本、俄罗斯、西班牙、英国等全球115个国家和地区的十大社交网络应用程序。
无网络、免流量聊天应用FireChat
就社交功能来看,FireChat与各方面都很成熟的微信、QQ相比有很大差距,然而,Open Garden推出FireChat的初衷并不是占领社交应用市场,而是通过具象化的应用,以更直观的方式让我们去认识网状网络技术带来的各种可能性和商业前景。
以微信为例,FireChat与它并不构成竞争关系,正相反,Open Garden有意与微信合作,通过网状网络技术使微信在无网条件下也能使用。TextMe就是Open Garden的盟友之一。通过Open Garden,TextMe的Android平板用户可以在没有WiFi的情况下,用平板发短信、通话、视频聊天。与传统蓝牙技术相比,Open Garden非常省电,用户无需进行配对,也无需启动WiFi并搜索热点,只需安装App,并打开蓝牙即可。
Open Garden公司联合创始人兼CEO Micha Benolie
更长的用户使用时间就意味着更多的收益,数据显示,OpenGarden使每个用户每天增加了平均44分钟的连接。Open Garden公司联合创始人兼CEO Micha Benolie表示,“Open Garden期望将网状网络技术提供给电信运营商、广告网络商,应用和游戏开发商和终端设备生产商,增加网络接入的覆盖面、可靠性和速度,同时延长网络连接的时间。”对于终端用户来说,Open Garden是完全免费的,而那些使用Open Garden SDK的开发商则需要把收益的一部分交给Open Garden。
需要注意的是,Open Garden是以网状网络技术支撑的解决方案,是100%的软件,它利用现有的互联网基础设施,无需增加硬件设施成本。
据介绍,目前Open Garden正在与中国的三大互联网巨头——百度、阿里巴巴和腾讯,以及电信运营商进行沟通,探讨合作的可能与方式。
无网接入互联网,对于卖流量的电信运营商来说能有什么好处呢?Micha Benolie给出了三个答案:第一,帮助手机网络运营商增加网络覆盖面,运营商可以通过网状网络技术,把服务带到信号塔不足的偏远地区;第二,改善网络传输信息的质量,Open Garden网状网络技术会在多个网络中选择最有效、最安全、质量最好的网络。第三,没有额外的硬件投资,并减少运营商未来的硬件设施建设投入。
平心而论,中国的电信运营商提供的网络服务不管是服务质量还是资费制定都是比较靠谱的,但即使在美国这种网络超级发达的国家,手机用户仍在10%的时间里无法接入到网络,平板无法接入的时间更是高达50%。IDC预计,在未来3年将有大约50亿新的智能手机、平板电脑、笔记本电脑在全球市场卖出,其中还不包括物联网产品。网状网络技术不仅在通讯行业拥有广阔的发展前景,在物联网、智慧城市和智能家居这些领域同样大有可为。
Open Garden直译就是开放花园的意思,Open Garden希望通过网状网络技术,通过开放、共赢的合作伙伴生态将互联网无限延展下去。正如Micha Benoliel在TechCrunch北京创新峰会上说道的:“毫无疑问,你就是互联网,开放的网络将能连接全世界。”
好文章,需要你的鼓励
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。