跳过内容

AI嵌入式开发

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • 数据中心
    • 服务器
    • 网络
    • 存储
  • 操作系统
    • Linux
    • VxWorks

标签: A100

NVIDIA A30 Data Center GPU
04/16/2021 服务器

NVIDIA推出用于数据中心的GPU A30

在GTC 2021上,有很多与GPU相关的公告,我们的测评还没有涵盖最新的NVIDIA A30,我们发现A30是我们特别感兴趣的产品,本文我们来讨论一下NVIDIA A30。

继续阅读
12/03/2020 人工智能

亚马逊EC2将用Intel的Habana Labs Gaudi加速器

12月3日消息,亚马逊(Amazon)云计算业务部门AWS与英特尔官网的信息显示,亚马逊弹性计算云(EC2)实例将采用英特尔旗下Habana Labs的Gaudi加速器。

继续阅读
10/16/2020 人工智能

NVIDIA推出80GB的A100

新的NVIDIA A100 80GB将NVIDIA A100的内存容量增加了一倍,这儿,80GB的容量将使我们获得5个16GB HBMe栈。NVIDIA表示,由于产量原因,他们并没有使用你在下图中看到的第六点。

继续阅读
10/16/2020 人工智能

AMD发布了Instinct MI100 32GB CDNA GPU

前几天,NVIDIA A100 GPU已从40GB升级至80GB,今天,我们已经得到了其主要(当前)竞争对手AMD对NVIDIA A100 GPU的回应:Instinct MI100 32GB CDNA GPU。

继续阅读
08/21/2020 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
07/29/2020 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

近期文章

  • VxWorks下Telnet客户端的C语言实现代码
  • VxWorks下基于UDP的网络通信源码
  • PCI-SIG 发布了 256GBps 的 PCIe 6.0 x16 规范
  • 9款最小的轻量级的Linux发行版
  • 实时操作系统对IEEE 802.3 卷45 PHY的支持

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

5G 10Gbase-T 100GbE A100 AI AMD BIOS Boost C++ CXL Dell EMC Fedora FPGA Gigabyte Google GPU HPE Infiniband Intel linux Marvell Mellanox Microchip Milan MLPerf Training NVIDIA NVLink NVMe PCIe PCIe Gen3 PCIe Gen4 PCIe Gen5 PowerEdge R7525 python Samsung SSD ubuntu UDP vRAN VxWorks VxWorks 5.5 VxWorks 6.8 VxWorks 7 X710-T4 Xeon Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2021 AI嵌入式开发 by GAITPU.
京ICP备20017225号-2