跳过内容

AI嵌入式开发

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • 数据中心
    • 服务器
    • 网络
    • 存储
  • 操作系统
    • Linux
    • VxWorks

标签: NVIDIA

Gigabyte E251 U70 Front View
2021年2月8日 人工智能

Gigabyte E251-U70评论 – 2U短深度Edge Server

技嘉(Gigabyte) E251-U70是一款2U短深度的服务器,其设计旨在提供一个单Socket的边缘AI和网络平台。

继续阅读
NVIDIA Tesla A100 In HGX A100 Board
2021年1月27日 人工智能

NVIDIA认证服务器增加了新的营收途径

NVIDIA认证服务器产品背后的基本思想是原始设备制造商可以在大量采用NVIDIA组件的系统配置上运行验证脚本,如果测试通过,OEM便可以宣称其系统是NVIDIA认证的

继续阅读
2020年12月3日 人工智能

亚马逊EC2将用Intel的Habana Labs Gaudi加速器

12月3日消息,亚马逊(Amazon)云计算业务部门AWS与英特尔官网的信息显示,亚马逊弹性计算云(EC2)实例将采用英特尔旗下Habana Labs的Gaudi加速器。

继续阅读
2020年12月3日 服务器

Intel在2020 Labs Day上展示集成光电技术的未来

作为一种未来的新兴技术,我们一直在追踪的领域之一是硅集成光技术。在2020年Intel Labs Day上,Intel展示了其下一代硅光技术研究的方向。

继续阅读
2020年10月16日 人工智能

NVIDIA推出80GB的A100

新的NVIDIA A100 80GB将NVIDIA A100的内存容量增加了一倍,这儿,80GB的容量将使我们获得5个16GB HBMe栈。NVIDIA表示,由于产量原因,他们并没有使用你在下图中看到的第六点。

继续阅读
2020年10月16日 人工智能

NVIDIA推出了DGX A100 640GB版本

NVIDIA DGX A100成为顶级GPU计算解决方案已有几个月了,在这一代中,NVIDIA的8块GPU的解决方案从2

继续阅读
2020年10月16日 人工智能

AMD发布了Instinct MI100 32GB CDNA GPU

前几天,NVIDIA A100 GPU已从40GB升级至80GB,今天,我们已经得到了其主要(当前)竞争对手AMD对NVIDIA A100 GPU的回应:Instinct MI100 32GB CDNA GPU。

继续阅读
2020年8月21日 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
2020年7月29日 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

近期文章

  • Ubuntu Core 20带来更好的工业物联网控制
  • 在Linux中使用dmidecode命令获取硬件信息
  • 25GbE的Cisco Catalyst 9300X系列产品
  • 如何设置Nginx反向代理
  • Arm在2021愿景日上推出了Armv9架构

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

5G 10Gbase-T 100GbE A100 AI AMD BIOS Boost C++ CXL Dell EMC Fedora FPGA Gigabyte Google HPE Infiniband Intel linux Marvell Mellanox Microchip Milan MLPerf Training NASA NVIDIA NVLink NVMe NXP PCIe PCIe Gen3 PCIe Gen4 PCIe Gen5 PowerEdge R7525 python Samsung SSD ubuntu vRAN VxWorks VxWorks 5.5 VxWorks 6.8 VxWorks 7 X710-T4 Xeon Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2021 AI嵌入式开发 by GAITPU.
京ICP备20017225号-2