跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络

分类: 人工智能

随着时代快速发展的人工智能,已然成为引领新一轮科技革命和产业变革的核心驱动力,并全面深刻地改变着人类的生产和生活方式。

12/03/2020 人工智能

亚马逊EC2将用Intel的Habana Labs Gaudi加速器

12月3日消息,亚马逊(Amazon)云计算业务部门AWS与英特尔官网的信息显示,亚马逊弹性计算云(EC2)实例将采用英特尔旗下Habana Labs的Gaudi加速器。

继续阅读
10/16/2020 人工智能

NVIDIA推出80GB的A100

新的NVIDIA A100 80GB将NVIDIA A100的内存容量增加了一倍,这儿,80GB的容量将使我们获得5个16GB HBMe栈。NVIDIA表示,由于产量原因,他们并没有使用你在下图中看到的第六点。

继续阅读
10/16/2020 人工智能

NVIDIA推出了DGX A100 640GB版本

NVIDIA DGX A100成为顶级GPU计算解决方案已有几个月了,在这一代中,NVIDIA的8块GPU的解决方案从2

继续阅读
10/16/2020 人工智能

AMD发布了Instinct MI100 32GB CDNA GPU

前几天,NVIDIA A100 GPU已从40GB升级至80GB,今天,我们已经得到了其主要(当前)竞争对手AMD对NVIDIA A100 GPU的回应:Instinct MI100 32GB CDNA GPU。

继续阅读
技嘉E251 U70
09/10/2020 人工智能

边缘服务器头条-Gigabyte E251-U70

Gigabyte(技嘉)E251-U70是专为零售和电信机架设计的短深度2U服务器。

继续阅读
08/21/2020 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
07/29/2020 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

文章分页

«旧文章 1 … 6 7 8

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
转到手机版