AWS近日布推出一项名为AWS AppFabric的新无代码服务,旨在缓解SaaS应用蔓延带来的复杂性。
AWS在近日举行的AWS应用创新日活动上发布了该服务,企业借助AWS AppFabric可以把多个SaaS应用连接到单个控制台,以提高安全性、管理和生产力,它有助于集成多个SaaS应用,提供应用使用的统一视图,从而无需构建自定义集成。
AWS解释说,企业使用数十个、甚至是数百个不同的SaaS应用来执行通信、内容管理、财务和客户关系等无数任务已经变得很常见,问题是,这些SaaS应用很少相互兼容,这导致了安全性和生产力方面的许多挑战,例如,每个SaaS应用都有自己独特的控件、日志和界面。
为了解决这个问题,许多企业团队为他们使用的每个SaaS应用构建点对点的集成,但这项工作可能需要几个月的时间。集成方面的挑战包括,每个应用使用的应用编程接口和数据格式是混乱的,所有这些都使得分析SaaS数据跟踪应用的使用方式变得更加困难。
AWS希望通过AppFabric改变这一现状。AppFabric推出时支持连接12个第三方SaaS应用,包括Asana、Atlassian、Dropbox、Okta、Slack、Smartsheet、Webex和Zoom等热门产品,让企业能够从AWS Management Console中的一个位置对其进行管理。AWS表示,随着时间的推移,支持的应用数量将会不断增加。
好处是AppFabric可以为每个连接的SaaS应用创建一组标准化的安全和操作数据,从而提高对这些应用使用方式的可见性。AWS表示,通过这种方式,企业组织就可以获取洞察来提高生产力、降低运营成本、并增强安全性。
AppFabric今天推出之后,很快就会受益于Amazon Bedrock提供的额外生成式AI功能,后者可通过API提供主流的基础模型并进行自定义。
这样生成式AI就可以帮助减少员工在不同应用之间切换以获取信息或完成某些任务所需的时间,例如,员工经常发现自己要在多个应用之间切换,以复制和粘贴来自不同来源的数据来编写报告。AppFabric的生成式AI让你可以更轻松地生成会议记录、起草更新的电子邮件、编写项目更新等任务。
然后,它生成的内容可以以用特定应用的恰当格式进行交付。例如,AWS表示,用户可以提示AI在Asana中创建一项任务,从电子邮件线程、Slack对话和文字处理文档等来源中提取详细信息。然后,AppFabric的AI助手就会利用其与这些应用的集成来为用户完成任务。
AppFabric还可以通过开放网络安全架构框架聚合和标准化SaaS应用的数据,并使其可供Logz.io、Netskope、Netwitness、Rapid7和Splunk等安全工具使用。
Constellation Research分析师Holger Mueller表示,AppFabric可以被视为一种“跨SaaS域的服务”,实现SaaS软件产品之间更紧密的集成,为用户带来一些有趣的新功能。
“它让用户能够以有趣的方式自动化SaaS产品的使用和管理方式,而且它是低代码的,所以做到这一点是非常简单的。AWS正在帮助更多企业掌控他们自己的自动化,今年AWS很快就会推出基于生成式AI的助手,让用户的生活变得更加轻松。”
AWS应用副总裁Dilip Kumar表示,AppFabric将解决IT和安全团队的一个主要痛点。他表示:“通过AppFabric,客户和合作伙伴现在拥有了一个简单的解决方案来部署和扩展全球使用最广泛的应用,从而帮助组织节省资金、提高生产力并提高安全性。”
AWS AppFabric目前已在Amazon位于美国东部(弗吉尼亚北部)、欧洲(爱尔兰)和亚太地区(东京)的区域全面上线,并将很快在其他地点推出。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。