跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络

标签: HPC

12/11/2023 存储

DAOS在仿真和深度学习HPC工作负载中的分析

DAOS是一种先进的分布式存储系统,它是专门为现代硬件重新设计的存储堆栈。

继续阅读
12/03/2023 存储

谁能拥有HBM的未来

基于HBM3E,H200带宽可达4.8TB/s(比H100的3.35TB/s提升43%),并且内存容量从80GB提升至141GB,这使得H200成为高性能计算(HPC)和人工智能等领域的理想选择。

继续阅读
11/29/2023 服务器

超大规模数据中心与HPC的网络融合

本文探讨了这两种工作负载类型和技术之间的差异和共性,概述了在多个层面实现整合的途径。并预测新兴的智能网络解决方案将加速这种整合的过程。

继续阅读
11/16/2023 人工智能

多卡GPU是如何互联通信的

在单个GPU性能有限的情况下,将两个或多个GPU连接起来这种在当时看起来非常荒谬的想法竟然渐渐成为提升系统GPU性能的主流方法。

继续阅读
10/22/2023 存储

基于NVMe存储的高性能存储引擎的设计与实现

基于闪存的NVMe SSD具有低廉的价格并提供高吞吐量。将多个这些设备整合到单个服务器中,可以实现高达1000万IOPS。

继续阅读
10/03/2023 服务器

后E级HPC系统需求建议书

橡树岭国家实验室(ORNL)将发布一份关于下一代高性能计算(HPC)系统,即计划于2027年交付的OLCF-6的需求建议书(RFP)。

继续阅读
10/01/2023 人工智能

NSF支持的网络基础设施上的AI和HPC融合

随着AI不断演进,成为一个具有统计和数学严密性的计算范式,显而易见的是,对于科学设施产生的数据,单一GPU解决方案已不再足以满足训练、验证和测试的需求。

继续阅读
09/30/2023 人工智能

HPC与AI的完美融合

HPC指的是在多台服务器上以高速并行方式执行复杂计算的能力。这些服务器的集合被称为集群,由数百甚至数千台计算服务器通过网络连接而成。

继续阅读
09/24/2023 人工智能

针对AI/ML的高性能文件系统

随着AI/ML解决方案在企业中崭露头角,我们的许多客户发现传统的存储系统和文件系统可能无法满足与新的AI/ML工作负载相关的新需求。

继续阅读
09/23/2023 网络

为AI数据中心选择网络方案

RDMA技术涵盖了四种实现方式:InfiniBand、RoCEv1、RoCEv2以及iWARP。在这其中,RoCEv1已经过时,iWARP并不常见。目前,业界普遍采用的网络解决方案主要集中在InfiniBand和RoCEv2两个选项之间。

继续阅读

文章分页

1 2 新文章»

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
转到手机版