计世网

解析UCloud人工智能与英特尔背后的技术故事(下)
作者:UCloud技术市场团队 | 来源:UCloud博客
2018-05-26
在上一篇中,我们介绍了UAI-Inference借力英特尔技术如何让使用AI服务像使用云主机一样便捷等技术问题。在这一篇中,我们将继续就UAI-Inference如何以低TCO获取高效AI服务等问题展开讨论。

 

  在上一篇中,我们介绍了UAI-Inference借力英特尔技术如何让使用AI服务像使用云主机一样便捷等技术问题。在这一篇中,我们将继续就UAI-Inference如何以低TCO获取高效AI服务等问题展开讨论。

  UAI-Service另一个重要优势是平台内数据的安全性:

  1.首先,由于UAI-Inference在每个虚拟机上只部署一个AI节点,因此做到了各个AI任务之间的隔离;

  2.其次,由于平台本身并不涉及AI训练数据以及训练方法,在运行时仅需模型文件及接口代码,杜绝了数据外泄的可能;

  3.最后,UCloud基于SDN技术实现了网络链路层的隔离,使每个客户的UAI- Inference项目子网之间相互隔离,提升了网络安全性。

  在UAI-Inference中,用户之间的AI模型和接口代码是安全隔离的,全自动化的部署过程使运维人员无权访问敏感数据,进一步提升了数据的安全性。

  UAI-Inference的通用性优势,解决了企业面对不同AI框架时的“选择障碍症”。UAI-Inference对主流的AI框架,包括TensorFlow*、Keras*、Caffe* 和MXNet* 等都提供良好的支持,企业可以根据自己的业务需求来选择不同的AI框架进行接入。
 


  UAI-Inference 框架示意图

  在传统的AI框架以外,UAI-Inference还与英特尔一起,引入了性能更佳的AI框架:面向英特尔架构优化的Caffe框架。这一版本的Caffe框架与传统AI框架相比,能更好地支持英特尔至强处理器产品家族和英特尔至强融核处理器产品家族,并集成了最新版本的英特尔数学核心函数库2017,能更高效地利用英特尔AVX的处理能力。

  源自UCloud的一系列测试结果表明,借助面向英特尔架构优化的Caffe框架,测试系统同时运行的线程数量可以得到显著增加。基于该框架,测试系统的执行时间也能从最初未修改前的37秒缩短至优化后的3.6秒,整体执行性能提高了10倍以上。事实证明,通过采用这一框架,UAI-Inference的AI在线服务效率得到了极大的跃升。

  以低TCO获取高效AI服务

  现阶段,致力于AI开发和创新的企业,多为初创型企业,或者是正在谋求业务转型和升级的传统企业,因此对TCO的控制尤为敏感。如何获取高性价比的在线AI能力是企业用户们普遍关心的热点话题。

  由于在图像识别、自然语言处理等AI正在发挥重要作用的领域中,往往需要用到大量的浮点运算,因此在人们的传统观念里,只针对浮点计算提供加速的GPU平台,似乎更适于AI系统的构建。但在AI模型的部署实践中,GPU动辄高达数万元人民币的售价极其昂贵,而且由于其扩展性不足,一旦部署,通常就只能固定执行单一的计算工作,难以随时根据工作任务的调整和变化实现及时的适配。

  这样一来,UCloud就盯上了数据中心内大量部署的、每台服务器都会配备的通用处理器。“通过技术分析,我们发现虚拟云主机中的处理器,处于工作状态的主要都是简单指令集,而英特尔至强处理器集成的英特尔AVX则并没有被充分利用。”UCloud叶理灯表示:“这意味着以浮点计算性能著称的英特尔AVX的能力,或许可以为我们提供更适用的解决方案。”

  英特尔AVX是一套完整的单指令多数据(Single Instruction Multiple Data,SIMD)指令集规范,其最大的优势在于支持256位矢量计算,大大提升了处理器的浮点计算性能。其具备的增强数据重排能力,也能更有效地存储、读取数据。在充分认识到了英特尔AVX及其处理单元的特性和优势之后,UCloud的工程师们开始了一项大胆的创新:利用各个虚拟机中此前未能“物尽其用”的英特尔AVX能力,来满足AI在线服务的计算需求。

  为了实现这一创举,UCloud与英特尔的工程师们携手优化了英特尔AVX在AI在线服务中的应用表现,经过反复的优化与验证,AI在线服务的重要技术指标——时延被成功降低到了数百毫秒,完全能够满足UCloud用户的实际应用需求。

  在时延这一性能指标达标的同时,英特尔至强处理器产品家族出色的可扩展性也开始释放其强大的应用潜力。在数据中心内、服务器中配备的无数英特尔处理器都可以被扩展到系统中,来进一步强化AI在线服务所需的浮点计算能力,这是一种远比GPU方案经济高效得多的解决方案,毕竟,这些处理器节点已经是UCloud的既有投资,无需再为此多支出一分钱。

  “这就是英特尔至强处理器强大的可扩展性带来的力量。在云计算平台上,处理器资源能够迅速地进行海量扩容,按我们目前的解决方案,即在每一个虚拟机上都部署一个AI在线服务计算节点,这意味着我们的AI在线服务未来可以根据用户需求得到迅速且海量的扩容能力,同时还不需要额外支付太多成本。”UCloud叶理灯满意地说。

  为了对这一创新成果进行验证,UAI-Inference已在200多个基于英特尔至强处理器产品家族的虚拟机节点上部署了AI在线服务计算节点,验证测试的结果表明:基于英特尔至强处理器的AI在线服务计算节点完全能满足用户对性能的要求,在帮助用户有效降低TCO的同时,也顺应了数据中心环保节能的发展方向。

  最新进展:让机器更快识别”喜怒哀乐”

  在前期成功开发和测试的基础上,UAI-Inference最近又在人脸识别技术的应用上实现最新进展。人脸识别一直是人工智能的一个重要研究方向,而基于英特尔至强服务器平台,利用英特尔AVX来支持的UAI-Inference,已在人脸表情识别的一系列测试中达成了优异的表现,验证了其能帮助零基础用户获得强大AI能力的潜能。

  在测试中,UCloud选用了Tensorflow提供的TF-Slim实验库以及人脸表情识别公开数据库fer2013,其中共包含35887张人脸图片,各测试样本在年龄、面部等方面有较大差异性,这使该项技术测试具备了巨大的挑战性。

  而测试结果表明:在有并发的前提下,UAI-Inference(AI在线服务)的性能普遍高于8核8G云主机的性能,刚刚得到的测评数据表明,目前并发数为8-16个节点时,AI在线服务在性能上基本与基于GPU的方案相仿,这不仅说明在UAI-Inference (AI在线服务)上部署人脸表情识别应用可以带来出色的成效,还证明基于英特尔AVX支持的UAI-Inference在人工智能应用中完全具备了与传统方案相媲美的能力。

  结论

  以此前在UAI-Inference上的成功协作为基础,UCloud未来还计划进一步深化与英特尔的创新协作,包括将最新的、面向英特尔至强处理器优化的AI框架引入UAI-Inference在线服务平台,并将充分发掘新一代英特尔至强可扩展处理器的能力,特别是其集成的全新英特尔AVX-512带来的更为强悍的浮点运算能力,来进一步优化AI在线服务,让专注于AI创新和应用的企业用户,能继续在合理的成本条件下,获取更强的AI计算能力支持。

  经验

  AI在线服务的普及,不仅需要在技术上予以突破,其部署的便捷性、与现有云计算能力的结合程度以及在分布式集群上部署的可行性,也在深刻影响着企业用户的AI研发和应用进程。正是因为准确捕捉到了用户的痛点和具体需求,UCloud的UAI-Inference才赢得了用户的青睐。

  受数据中心内普遍存在的处理器计算资源闲置现象的启发,创造性地将其空闲的浮点计算能力投入到AI在线服务中,这不仅是技术上的创新,也是AI处理工作模式上的全新探索和尝试,它既能有效帮助企业用户降低TCO,也顺应了数据中心环保节能的发展趋势。

责任编辑:刘沙