AWS G4旨在减少GPU功率AI推论的成本
发布时间:2022-01-06 09:20:57 所属栏目:要闻 来源:互联网
导读:亚马逊Web服务(AWS)公共云似乎已经削弱了其主要竞争对手,并引入了名为G4的新GPU(图形处理单元)EC2实例,该实例使用NVIDA V100 GPU。 AWS表示,新的G4实例旨在帮助加速机器学习推断和图形 - 密集型工作负载,这两者都是计算要求从额外的GPU加速度受益的任
亚马逊Web服务(AWS)公共云似乎已经削弱了其主要竞争对手,并引入了名为G4的新GPU(图形处理单元)EC2实例,该实例使用NVIDA V100 GPU。 AWS表示,新的G4实例旨在帮助加速机器学习推断和图形 - 密集型工作负载,这两者都是计算要求从额外的GPU加速度受益的任务。应用领域包括将元数据添加到图像,对象检测,推荐系统,自动语音识别和语言翻译。 AWS表示,G4实例可以用于训练人工智能(AI)算法,并为AI供电的应用运行推理引擎。它称GPU使其客户能够将机器学习培训从天到几小时减少,但AI中的实际成本正在运行AI算法。“推论是实际占绝大多数机器学习的成本,”它说。“根据客户,机器学习推断可以代表运行机器学习工作负载的总体运营成本的高达90%。” G4dn.xlarge的按需定价,四个虚拟核心实例,一个GPU和16GB内存,从每小时0.526美元开始。八个虚拟核心实例,32GB的RAM,费用为0.752美元。相比之下,Google的一个GPU V100实例,拥有16GB的内存,目前在Google“Pre-Havive GPU价格”使用模型下定价为0.74美元。同时,Microsoft的NC6S V3在Azure上有6个V100核心和112GB的内存成本$ 2.2807每小时按需。 在AWS公共云上使用G4进行机器学习,通过Amazon Sagemaker或AWS深度学习AMIS(亚马逊机器图像)支持。AWS表示,它支持机器学习框架,如Tensorflow,Tensorrt,MXNet,Pytorch,Caffe2,CNTK和Chainer。 ![]() (编辑:常州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |