跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络
11/06/2020 Linux

如何在ubuntu上安装最新版本的Handbrake

本快速教程介绍了如何使用官方的PPA在基于Ubuntu的发行版上安装最新版本的HandBrake。

继续阅读
10/26/2020 服务器

Super Computing 2020上的Intel Ice Lake Xeon处理器

在2020年超级计算机(SC20)峰会上,英特尔大力宣扬了其即将推出的代号为”Ice Lake”的英特尔至强CPU的优点。除了新的CPU,英特尔还介绍了下一代Xeon将如何成为整体XPU战略的一部分。

继续阅读
10/16/2020 人工智能

NVIDIA推出80GB的A100

新的NVIDIA A100 80GB将NVIDIA A100的内存容量增加了一倍,这儿,80GB的容量将使我们获得5个16GB HBMe栈。NVIDIA表示,由于产量原因,他们并没有使用你在下图中看到的第六点。

继续阅读
10/16/2020 人工智能

NVIDIA推出了DGX A100 640GB版本

NVIDIA DGX A100成为顶级GPU计算解决方案已有几个月了,在这一代中,NVIDIA的8块GPU的解决方案从2

继续阅读
10/16/2020 人工智能

AMD发布了Instinct MI100 32GB CDNA GPU

前几天,NVIDIA A100 GPU已从40GB升级至80GB,今天,我们已经得到了其主要(当前)竞争对手AMD对NVIDIA A100 GPU的回应:Instinct MI100 32GB CDNA GPU。

继续阅读
10/14/2020 服务器

Dell和AMD展示服务器的未来-160 PCIe通道设计

在2020年,Dell EMC和AMD展示了EPYC的灵活性,这在英特尔至强服务器甚至在即将到来的2020/2021 Ice Lake新一代中也只能是幻想。

继续阅读
09/10/2020 人工智能

边缘服务器头条-Gigabyte E251-U70

Gigabyte(技嘉)E251-U70是专为零售和电信机架设计的短深度2U服务器。

继续阅读
08/21/2020 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
07/29/2020 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

文章分页

&laquo旧文章 1 … 32 33 34

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
退出移动版