跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络

标签: A100

03/21/2025 服务器

服务器市场全年规模突破 17052亿

根据IDC的《全球服务器季度追踪报告》,2024年第四季度全球服务器市场收入创下新高,达到773亿美元(约合5595亿元人民币),同比增长91%,成为2019年以来增速第二高的季度。

继续阅读
01/25/2024 人工智能

英伟达A100、H100、L40S和H200简要对比

2024年,数据中心市场,英伟达显卡依然一卡难求,已发布的A100、H100,L40S,还有即将发布的H200都是市场上的香饽饽。

继续阅读
12/15/2023 人工智能

选择适合LLM推理和训练的GPU

加速深度学习模型的训练和推理过程对于充分发挥其潜力至关重要,而NVIDIA GPU在这方面已经成为改变游戏规则的技术。

继续阅读
11/29/2023 人工智能

GPU与CPU的区别

OpenAI公司的ChatGPT在短短一个月内快速风靡全球,人工智能的快速发展,离不开高性能、高算力的硬件支持。

继续阅读
11/02/2023 人工智能

晶圆之争:解读AI与芯片制造最新限制

美国政府对21世纪的“冷战”发动了最新的回击,涵盖了AI芯片和晶圆制造设备。

继续阅读
10/02/2023 人工智能

谷歌仍大力投资GPU计算

在Google I/O 2023活动中,Google软件产品组合中的生成式AI功能成为焦点,这一点毫不奇怪。

继续阅读
09/21/2023 人工智能

NVLink 之GPU 互连

NVLink的目标是突破PCIe接口的带宽瓶颈,提高GPU之间交换数据的效率。2016年发布的P100搭载了第一代NVLink,提供160GB/s的带宽,相当于当时PCIe 3.0 x16带宽的5倍。

继续阅读
09/02/2023 人工智能

AI时代的数据战略:跨越数据湖,迎接数据海洋

展望2023,企业AI应用蓬勃兴起,数据海洋正逐渐涌现而出

继续阅读
NVIDIA A30 Data Center GPU
04/16/2021 服务器

NVIDIA推出用于数据中心的GPU A30

在GTC 2021上,有很多与GPU相关的公告,我们的测评还没有涵盖最新的NVIDIA A30,我们发现A30是我们特别感兴趣的产品,本文我们来讨论一下NVIDIA A30。

继续阅读
12/03/2020 人工智能

亚马逊EC2将用Intel的Habana Labs Gaudi加速器

12月3日消息,亚马逊(Amazon)云计算业务部门AWS与英特尔官网的信息显示,亚马逊弹性计算云(EC2)实例将采用英特尔旗下Habana Labs的Gaudi加速器。

继续阅读

文章分页

1 2 新文章»

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
转到手机版