本篇文章1475字,读完约4分钟
经济日报-中国经济网北京4月10日,2020年4月9日,云数据中心合作伙伴会议(ipf2020)在网上举行。Inspur发布了新的aistation人工智能推理服务平台,这是业界首款智能计算中心计算能力调度软件产品。它是一个专门为企业级人工智能生产环境设计的人工智能推理服务平台,可以实现推理服务资源的敏捷部署。支持多源模型的统一调度,将模型部署从几天缩短到几分钟,将有效地帮助企业轻松部署人工智能推理服务,从而大大提高人工智能的交付和生产效率。
目前,ai模型开发在进入生产部署阶段时面临多重困难和挑战:ai模型需要大量的调试和测试才能在线部署,通常需要2-3天;Ai在线服务的计算资源一般是固定的,对突发需求资源的响应缓慢,业务拓展困难;人工智能模型来自不同的来源,因此很难统一管理它们。企业希望将人工智能模型培训开发和推理部署无缝连接,进行高效的资源调度和模型管理,缩短业务在线周期。
新发布的Inspur aistation推理平台是一个企业级人工智能推理服务平台,通过灵活可扩展的体系结构、低延迟的轻量级设计、a/b测试的滚动发布和多模型加权评估等重要技术创新,帮助企业高效利用人工智能计算资源,快速部署推理服务。Aistaion推理平台具有一键式部署、快速响应、日志监控、资源管控、数据处理等功能。这是一个全面而强大的人工智能资源平台。
aistation推理平台支持本地内部部署和云部署,保证了服务的可用性和业务的连续性,实现了ai模型从开发环境到生产部署的复杂过程的自动快速操作,将模型的部署时间从两三天减少到几分钟。
在资源调度方面,人工智能推理平台可以灵活分配服务资源。通过创新的灵活可扩展的体系结构,可以根据推理服务资源需求的变化及时调整资源分配,响应突发需求的实例部署时间可以从几个小时缩短到几分钟。它还支持新模型发布前的a/b测试,验证了模型在实际业务场景中的有效性,保证了推理业务的安全性和可靠性,避免了流量切换带来的集群负载压力。
在模型管理方面,aistation推理平台实现了多源模型的统一调度。多源多场景模型的推理服务通过统一平台管理,全局资源实时控制,实现模型服务的综合调度和动态部署。同一个资源池可以同时支持多个模型服务,将资源利用率从40%提高到80%。此外,可以实现多模型加权评估。通过为不同预训练模型的计算结果设置自定义权重,可以有效提高预测结果在实际业务场景中的可靠性,构建可靠可信的智能系统,有效降低误判率。
Inspur推出的aistation培训平台已经得到广泛应用。该平台通过对计算资源的细粒度调度、加速训练数据缓存、自动调度分布式训练等策略,将用户的人工智能计算资源利用率提高到90%以上,大大缩短了模型开发周期。随着这一检验推理平台的出现,检验资源平台完全支持训练和推理两种场景,实现了从模型开发、训练、部署、测试、发布和服务全过程的一站式高效交付。
Inspur ai&hpc总经理刘军表示:“智能计算中心是人工智能的新基础设施,它生产和提供人工智能的计算能力,是社会和经济运行的智能基础设施。为了使智能计算中心充分释放计算能力,有必要根据需要灵活地调度计算能力。智能计算中心新基础设施的意义等同于发电厂和电网的核心调度系统。它可以根据人工智能应用需求高效调度人工智能计算资源,帮助企业加快人工智能R&D创新,加快人工智能产品交付,使企业更加专注。人工智能开发本身,从而赋予更多的创新可能性,加速人工智能登陆应用。”
Inspur是人工智能计算的领先品牌,中国人工智能服务器的市场份额保持在50%以上。它还在系统和应用方面与领先的人工智能技术公司保持密切合作,并帮助人工智能客户在语音、语义、图像、视频、搜索和网络方面实现应用性能的大幅度提升。Inspur及其合作伙伴构建了一个元大脑生态系统,共享人工智能计算、资源和算法这三个核心平台功能,帮助行业用户开发和部署他们自己的“行业大脑”,并加速基于人工智能的行业发展。
来源:搜狐微门户
标题:业界首款智算中心算力调度软件!浪潮重磅发布AIStation推理平台
地址:http://www.shwmhw.com/shxw/5763.html