News

Qualcomm Luncurkan Accelerator AI200 dan AI250 untuk Data Center Generasi Berikutnya

San Diego, California — Qualcomm Technologies, Inc. resmi memperkenalkan AI200 dan AI250, solusi akselerator AI berbasis chip terbaru yang dioptimalkan khusus untuk AI inference di pusat data. Kedua lini ini mencakup kartu akselerator dan sistem rak penuh (AI racks), dirancang untuk menghadirkan kinerja generatif AI berskala besar dengan efisiensi daya dan biaya terbaik di kelasnya.


⚙️ AI200: Inference Rack-Level yang Siap Skalabilitas

Qualcomm AI200 menghadirkan solusi AI rack-level yang ditujukan untuk beban kerja seperti Large Language Models (LLM) dan multimodal models (LMM).
Dengan kapasitas LPDDR hingga 768 GB per kartu, AI200 menawarkan memori besar dengan biaya lebih rendah, memungkinkan skalabilitas tinggi dan fleksibilitas luar biasa untuk inferensi AI.

Keunggulan utama AI200:

  • Dirancang khusus untuk AI inference berskala besar
  • Kapasitas memori besar (768 GB LPDDR per kartu)
  • Efisiensi TCO (Total Cost of Ownership) yang optimal
  • Mendukung model generatif AI lintas industri dengan konsumsi daya rendah

🧠 AI250: Lompatan Besar lewat Arsitektur Near-Memory Computing

Qualcomm AI250 menghadirkan inovasi arsitektur baru berbasis near-memory computing, yang meningkatkan efisiensi dan performa generasi berikutnya untuk beban kerja inferensi AI.
Solusi ini menjanjikan:

  • >10x bandwidth memori efektif lebih tinggi dibanding generasi sebelumnya
  • Konsumsi daya jauh lebih rendah
  • Disaggregated AI inference, memungkinkan pemanfaatan hardware lebih efisien sesuai kebutuhan performa dan biaya pelanggan

🌡️ Desain Rack Efisien dan Aman

Kedua solusi — AI200 dan AI250 — memiliki fitur kelas pusat data tingkat lanjut:

  • Direct liquid cooling untuk efisiensi termal maksimal
  • PCIe untuk scale-up dan Ethernet untuk scale-out
  • Confidential computing untuk keamanan beban kerja AI sensitif
  • Konsumsi daya hingga 160 kW per rack

💬 Pernyataan dari Qualcomm

“Dengan Qualcomm AI200 dan AI250, kami mendefinisikan ulang apa yang mungkin dilakukan dalam AI inference skala rak,” ujar Durga Malladi, SVP & GM, Technology Planning, Edge Solutions & Data Center, Qualcomm Technologies, Inc.
“Solusi ini memungkinkan pelanggan mengimplementasikan AI generatif dengan efisiensi biaya luar biasa, tanpa mengorbankan fleksibilitas dan keamanan yang dibutuhkan pusat data modern.”

Malladi menambahkan bahwa ekosistem perangkat lunak Qualcomm yang kaya menjadikan integrasi dan deployment model AI menjadi lebih mudah dan cepat, lengkap dengan kompatibilitas penuh terhadap framework AI populer dan dukungan one-click deployment untuk model dari Hugging Face.


🧰 Software Stack & Ekosistem

Qualcomm menghadirkan hyperscaler-grade AI software stack yang dioptimalkan penuh untuk AI inference, mencakup:

  • Dukungan untuk framework populer seperti TensorFlow, PyTorch, dan ONNX
  • Qualcomm AI Inference Suite dan Efficient Transformers Library untuk efisiensi LLM/LMM
  • Integrasi model siap pakai dari Hugging Face
  • API, library, dan toolchain untuk operasionalisasi AI secara menyeluruh

Dengan pendekatan end-to-end, developer dapat melakukan model onboarding dan deployment hanya dengan satu klik.


🗓️ Ketersediaan dan Roadmap

  • Qualcomm AI200 dijadwalkan hadir secara komersial pada 2026
  • Qualcomm AI250 menyusul pada 2027
  • Qualcomm menegaskan komitmennya terhadap roadmap tahunan pusat data AI, berfokus pada performa inferensi terbaik, efisiensi energi, dan TCO terendah di industri

Kesimpulan:
Dengan peluncuran AI200 dan AI250, Qualcomm semakin mempertegas posisinya sebagai pemain utama dalam akselerator AI pusat data, menantang dominasi NVIDIA dan memperkenalkan pendekatan cost-efficient inference yang dapat diadopsi lintas industri — dari cloud hyperscaler hingga edge AI.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button