跳过内容

AI嵌入式开发

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • 数据中心
    • 服务器
    • 网络
    • 存储
  • 操作系统
    • Linux
    • VxWorks

标签: A100

2020年12月3日 人工智能

亚马逊EC2将用Intel的Habana Labs Gaudi加速器

12月3日消息,亚马逊(Amazon)云计算业务部门AWS与英特尔官网的信息显示,亚马逊弹性计算云(EC2)实例将采用英特尔旗下Habana Labs的Gaudi加速器。

继续阅读
2020年10月16日 人工智能

NVIDIA推出80GB的A100

新的NVIDIA A100 80GB将NVIDIA A100的内存容量增加了一倍,这儿,80GB的容量将使我们获得5个16GB HBMe栈。NVIDIA表示,由于产量原因,他们并没有使用你在下图中看到的第六点。

继续阅读
2020年10月16日 人工智能

AMD发布了Instinct MI100 32GB CDNA GPU

前几天,NVIDIA A100 GPU已从40GB升级至80GB,今天,我们已经得到了其主要(当前)竞争对手AMD对NVIDIA A100 GPU的回应:Instinct MI100 32GB CDNA GPU。

继续阅读
2020年8月21日 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
2020年7月29日 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

近期文章

  • Ubuntu Core 20带来更好的工业物联网控制
  • 在Linux中使用dmidecode命令获取硬件信息
  • 25GbE的Cisco Catalyst 9300X系列产品
  • 如何设置Nginx反向代理
  • Arm在2021愿景日上推出了Armv9架构

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

5G 10Gbase-T 100GbE A100 AI AMD BIOS Boost C++ CXL Dell EMC Fedora FPGA Gigabyte Google HPE Infiniband Intel linux Marvell Mellanox Microchip Milan MLPerf Training NASA NVIDIA NVLink NVMe NXP PCIe PCIe Gen3 PCIe Gen4 PCIe Gen5 PowerEdge R7525 python Samsung SSD ubuntu vRAN VxWorks VxWorks 5.5 VxWorks 6.8 VxWorks 7 X710-T4 Xeon Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2021 AI嵌入式开发 by GAITPU.
京ICP备20017225号-2