跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络

标签: GPU

12/15/2023 人工智能

选择适合LLM推理和训练的GPU

加速深度学习模型的训练和推理过程对于充分发挥其潜力至关重要,而NVIDIA GPU在这方面已经成为改变游戏规则的技术。

继续阅读
12/12/2023 存储

超越计算与存储边界,迈向第六数据平台

我认为下一波数据平台就像一个操作系统。它不再只是一个数据分析机器。它是一个在新硬件顶部提供基础设施层的平台,使非技术企业和云提供商能够轻松利用这些新的人工智能能力。

继续阅读
12/11/2023 人工智能

GPU最强”辅助”HBM是什么

HBM全称为High Bandwidth Memory,直接翻译即是高带宽内存,是一款新型的CPU/GPU内存芯片。

继续阅读
12/09/2023 人工智能

AMD 宣布推出 MI300 GPU 加速器

AMD 今天宣布推出期待已久的 MI300X 加速器芯片,AMD 打算成为 NVIDIA 旗舰 H100 GPU 的有力竞争对手。

继续阅读
12/09/2023 人工智能

AMD的AI故事

AMD正式推出了先前宣布的Instinct MI300系列基于GPU的数据中心AI加速器。

继续阅读
12/02/2023 存储

CXL协议是如何解决缓存一致性问题的

关于CPU缓存的由来,最早是在1964年IBM公司推出的一款大型老古董计算机–360/85中首次使用,就是下图这个大家伙。

继续阅读
12/02/2023 人工智能

GPU互联技术:NVLink、IB、ROCE

AI 时代 GPU 成为核心处理器,分布式训练诉求提升。GPU 采用并行计算方式,擅长处理大量、简单的运算,因此多适用于图像图形处理和 AI 推理。

继续阅读
11/29/2023 人工智能

GPU与CPU的区别

OpenAI公司的ChatGPT在短短一个月内快速风靡全球,人工智能的快速发展,离不开高性能、高算力的硬件支持。

继续阅读
11/25/2023 人工智能

通俗理解数据中心的第三个关键芯片“DPU”

DPU 最直接的作用是作为 CPU 的卸载引擎,接管网络虚拟化、硬件资源池化等基础设施层服务,释放 CPU 的算力到上层应用。

继续阅读
11/18/2023 人工智能

GPU架构与CUDA基础

CUDA是一个崭新的硬件和编程模型,它直接答复了这些问题并且展示了GPU 如何成 为一个真正的通用并行数据计算设备。

继续阅读

文章分页

«旧文章 1 2 3 4 5 新文章»

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
转到手机版