至顶网软件频道消息: 亚马逊推出了其最新的GPU计算产品实例线G3。有三种配置:g3.4xlarge(1 GPU)、g3.8xlarge(2 GPU)和g3.16xlarge(4GPU)。该产品线适用于3D建模、可视化、视频编码和其他图形密集型应用程序。

亚马逊的G2系列于2013年首次亮相。2015年年底高调推出的是g2.8xlarge,有四个Nvidia Grid GPU,每个GPU的视频内存为4GB,CUDA内核为1536个。亚马逊在一篇博文中表示,您可以编码4个1080p视频流或8个实时720p视频流。
新G3系列中的GPU具备8GB的GPU内存、2,048个并行处理核心、多显示器支持、增强的图形呈现效果、Nvidia GRID Virtual Workstation功能和增强型网络。亚马逊在另一篇博客文章中表示,您可以录制10个H.265(HVEC)1080p30流以及高达18 H.264 1080p30流。
和以前拥有60GiB内存和32 vCPU的g2.8xlarge对比,新的g3.16xlarge实例配备了488 GiB的主内存和64 vCPU。
根据亚马逊目前的价格表,Linux上的g2.8xlarge在爱尔兰根据使用量计费的价格是每小时2.808美元,而g3.16xlarge的价格为4.84美元。因此,价格还是有些贵的。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。