跳过内容

Embedded AI Data Center

Google AI TPU

  • 首页
  • 人工智能
  • 嵌入式
  • VxWorks
  • Linux
  • 存储
  • 服务器
  • 网络
  • 04/04/2025 vxbus

    数据中心中 QLC SSD 的案例

    HDD的每TB带宽一直在下降。这迫使数据中心工程师通过将热(频繁访问的)数据转移到TLC闪存层或过度配置存储来满足其存储性能需求。

    继续阅读
  • 04/04/2025 vxbus

    硅、碳化硅、氮化镓联手打造人工智能新型电源单元

    科技巨头和人工智能初创公司为了在AI竞赛中保持竞争力,正在消耗巨大的电力,这为全球数据中心脱碳目标带来了新的挑战。

    继续阅读
  • 03/31/2025 vxbus

    CXL因AI工作负载对内存的瓶颈而获得巨大推动

    计算快速链接(CXL)互连技术的出现早于近期人工智能(AI)热潮,但正是AI可能加速其在数据中心的采用。

    继续阅读
  • 03/21/2025 vxbus

    CXL在AI时代已死

    CXL曾被寄予厚望,但其在人工智能时代的适用性正受质疑。带宽瓶颈与芯片设计权衡限制了其潜力,而专用互连更契合AI需求。

    继续阅读
  • 03/21/2025 vxbus

    IDC发布最新大模型应用市场报告

    IDC最新发布的《中国大模型应用市场份额,2024:格局巨变》报告显示,2024年是中国大模型应用市场的转折之年。AI大模型技术在这一年实现快速发展,市场规模达到47.9亿元人民币,技术突破与商业化应用齐头并进,深刻改变了产业格局。

    继续阅读
  • 03/21/2025 vxbus

    服务器市场全年规模突破 17052亿

    根据IDC的《全球服务器季度追踪报告》,2024年第四季度全球服务器市场收入创下新高,达到773亿美元(约合5595亿元人民币),同比增长91%,成为2019年以来增速第二高的季度。

    继续阅读
08/21/2020 人工智能

Google TPU v3在Hot Chips 32(2020)上的讨论

Google是AI训练的主要力量,设计了自己的加速芯片和系统,既可以用于内部目的,也可以通过Google Cloud平台租用给外部客户使用。

继续阅读
07/29/2020 人工智能

基于Google TPU v4的最快AI超算计算机

Google长期以来一直在开发自己的用于机器学习的加速器:早在2017年,我们描述了首批能够快速进行256×256矩阵乘法的TPU模型。

继续阅读

文章分页

«旧文章 1 … 33 34 35

近期文章

  • 数据中心中 QLC SSD 的案例
  • 硅、碳化硅、氮化镓联手打造人工智能新型电源单元
  • CXL因AI工作负载对内存的瓶颈而获得巨大推动
  • CXL在AI时代已死
  • IDC发布最新大模型应用市场报告

分类

  • Linux
  • VxWorks
  • 人工智能
  • 存储
  • 嵌入式
  • 服务器
  • 网络

热门标签

10Gbase-T A100 AI AMD ARM ChatGPT CPU CXL DDR DDR5 Dell EMC Device Driver DPU DRAM EPYC Fedora FPGA Gigabyte Google GPU H100 HBM HDD HPC Infiniband Intel linux Marvell Micron ML NAND NFS NVIDIA NVLink NVMe PCIe RDMA Samsung SSD Storage ubuntu USB VxWorks VxWorks 7 Xilinx

关注公众号

北南南北
北南南北
Copyright © 2009-2025 AI嵌入式开发 by GAITPU.
Powered by VxWorks7
转到手机版