微软亚洲研究院公布高性能MoE库Tutel
据微软亚洲研究院发布,作为目前唯一被证明能够将深度学习模型扩展到万亿以上参数的方法,MoE 能让模型学习更多信息,并为计算机视觉、语音识别、自然语言处理和机器翻译系统等提供支持。近期,微软亚洲研究院发布了一个高性能 MoE 库 Tutel,并在 8x 80GB
微软推出高性能MoE函数库Tutel
微软发布了高性能MoE(Mixture of Experts)函数库Tutel,可用来促进大规模深度神经网络(DNN)模型的开发,Tutel借由支持多样化灵活的MoE算法,使得跨人工智能领域的开发人员,可以更高效地执行MoE。 MoE是一种深度学习模型架构,可以让不同专家网络,来处