谷歌今日正式发布了人工智能平台预测(AI Platform Prediction)服务,以便开发者在云端筹备、构建、运行和分享机器学习模型。 其基于该公司的容器引擎(Kubernetes Engine)后端,旨在实现高可靠性、灵活性、以及低延时开销的架构。IDC 预测,到 2022 念安的时候,全球认知与人工智能系统领域的开支将达到 776 亿美元,较去年的 240 亿美元翻几番。

  (来自: Google Cloud )

Gartner 也给出了同样的观点,面向全球数千家企业高端的新调查发现,AI 实施已于过去四年增长了 270%,仅过去一年就增长了 37% 。

随着 AI Platform Prediction 的正式发布,谷歌在其产品组合中添加了又一项 AI 托管服务,有望在该领域维持较亚马逊、 微软 、IBM 等竞争对手更大的领先优势。

从表面上来看,谷歌 AI 平台预测服务借助了 XGBoost 和 Scikit 等框架,可让模型的训练和部署变得更加轻松,这点要归功于自动选择的兼容云硬件引擎(比如 AI 加速器芯片)。

在受支持的虚拟机上,该平台还可显示 GPU、CPU、RAM、网络使用率之类的性能数据,以及随时间推移的模型副本指标。

安全方面,AI Platform Prediction 附带了允许用户定义的参数和模型部署工具,其被限定只能访问在定义的网络范围内的资源和服务。

此外该平台提供了有关模型预测的信息和可视化工具,有助于阐明相关预测。并可根据发送到模型的请求的真实标签,以不断评估实时模型,从而提供了通过重新培训来提高性能的机会。

据悉,AI Platform Prediction 的所有功能都可在完全托管、无集群的环境中使用,并具有专门的企业支持。若客户发送的流量过多,谷歌还提供了运算资源的配额管理,以防止模型过载。

有趣的是,谷歌旗下的 Waze 也正在使用这项服务来为自家 Carpool 顺风车服务提供助力。Waze 高级数据科学家 Philippe Adjiman 表示,其能够在短短几周时间内在生产环境中完成一个模型的部署。