
MLCommons baru saja merilis hasil benchmark MLPerf Inference v5.1, dan Intel tampil menonjol lewat kombinasi GPU Arc Pro B-Series serta CPU Xeon 6 dengan P-cores. Sistem inferensi Intel, yang diberi nama kode Project Battlematrix, berhasil mencatat keunggulan performa signifikan, khususnya pada beban kerja Llama 8B, dengan rasio performa per dolar hingga 1,25x dibanding NVIDIA RTX Pro 6000 dan 4x dibanding NVIDIA L40S.
Validasi Strategi GPU dan AI Intel
Lisa Pearce, Corporate VP sekaligus GM Software, GPU, dan NPU IP Group Intel, menyebutkan bahwa hasil MLPerf ini menjadi bukti kuat atas strategi AI perusahaan:
“GPU Arc Pro B-Series dengan software stack yang dioptimalkan untuk inferensi memungkinkan pengembang dan perusahaan membangun serta menerapkan aplikasi AI yang powerful, mudah digunakan, harga terjangkau, dan skalabel.”
Sebelumnya, profesional yang membutuhkan performa inferensi tinggi kerap dihadapkan pada pilihan terbatas—baik karena risiko privasi data maupun biaya lisensi tinggi dari model AI komersial. Kehadiran platform all-Intel ini diharapkan menjadi solusi lengkap untuk menjalankan Large Language Models (LLMs) tanpa kompromi.
Project Battlematrix: Platform Inferensi All-in-One
Sistem GPU Intel yang dijuluki Project Battlematrix dirancang untuk menyederhanakan adopsi AI modern dengan solusi containerized berbasis Linux. Fitur utamanya meliputi:
- Multi-GPU scaling dan transfer data PCIe P2P.
- Dukungan enterprise-class seperti ECC, SR-IOV, telemetry, dan pembaruan firmware jarak jauh.
- Validasi penuh hardware dan software untuk memastikan keandalan serta kemudahan integrasi.
Peran Penting CPU Xeon 6
Selain GPU, prosesor masih menjadi pusat orkestrasi dalam sistem AI, menangani preprocessing, transmisi data, hingga koordinasi kerja akselerator. Intel menegaskan peningkatan berkelanjutan performa AI berbasis CPU selama empat tahun terakhir telah menempatkan Xeon sebagai CPU pilihan untuk sistem inferensi berbasis GPU.
Yang menarik, Intel juga menjadi satu-satunya vendor yang mengirimkan hasil benchmark CPU server di MLPerf, menunjukkan komitmen terhadap percepatan AI lintas arsitektur. Intel Xeon 6 dengan P-cores bahkan mencatat peningkatan performa 1,9x dibanding generasi sebelumnya dalam MLPerf Inference v5.1.
Dengan kombinasi GPU Arc Pro B-Series dan CPU Xeon 6, Intel semakin menegaskan posisinya sebagai penyedia platform komputasi lengkap untuk inference AI, baik di workstation performa tinggi maupun aplikasi edge.
Sumber: Intel, MLCommons








