跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络
12/09/2023 Linux

深入理解 Linux 的 I/O 系统

在 Linux 系统中,传统的访问方式是通过 write() 和 read() 两个系统调用实现的,通过 read() 函数读取文件到到缓存区中,然后通过 write() 方法把缓存中的数据输出到网络端口。

继续阅读
12/09/2023 人工智能

AMD 宣布推出 MI300 GPU 加速器

AMD 今天宣布推出期待已久的 MI300X 加速器芯片,AMD 打算成为 NVIDIA 旗舰 H100 GPU 的有力竞争对手。

继续阅读
12/09/2023 人工智能

AMD的AI故事

AMD正式推出了先前宣布的Instinct MI300系列基于GPU的数据中心AI加速器。

继续阅读
12/05/2023 人工智能

大数据浪潮与企业技术重塑

AI/ML正在如何重塑企业内部的技术权力结构。

继续阅读
12/03/2023 存储

DDR基础知识

内存是计算机中重要的组成部分,主要为CPU计算时提供一个数据的临时存储的场所。

继续阅读
12/03/2023 存储

谁能拥有HBM的未来

基于HBM3E,H200带宽可达4.8TB/s(比H100的3.35TB/s提升43%),并且内存容量从80GB提升至141GB,这使得H200成为高性能计算(HPC)和人工智能等领域的理想选择。

继续阅读
12/03/2023 存储

CXL将成为数据中心行业的首选

数据中心工作负载变得越来越复杂,需要越来越多的内存。内存是一种非常昂贵的资源,预计到 2025 年将达到服务器价值的 40% 以上。

继续阅读
12/03/2023 存储

随着 NVMe 的到来,SAS 路线图遭遇减速

随着NVMe技术迅速发展成为高速存储驱动接口的新标准,SAS将在未来的多年中继续保持其存在,因为其拥有庞大的已安装基础。

继续阅读
12/02/2023 存储

LPDDR5和DDR5的区别

LPDDR的特点很明显,低功耗、体积小。它主要的应用场合是各种智能手机、平板电脑、电视盒子、嵌入式设备等。

继续阅读
12/02/2023 存储

CXL协议是如何解决缓存一致性问题的

关于CPU缓存的由来,最早是在1964年IBM公司推出的一款大型老古董计算机–360/85中首次使用,就是下图这个大家伙。

继续阅读

文章分页

&laquo旧文章 1 … 8 9 10 11 12 … 34 新文章»

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
退出移动版