12 Agustus 2025 – Intel merilis pembaruan besar untuk Project BattleMatrix, inisiatif mereka dalam mempercepat komputasi AI berskala besar. Dalam pembaruan ini, Intel resmi meluncurkan LLM Scaler 1.0, sebuah perangkat lunak optimasi yang dirancang untuk meningkatkan efisiensi pelatihan dan inferensi Large Language Model (LLM) di berbagai platform komputasi.
LLM Scaler 1.0: Optimasi Kinerja AI
LLM Scaler 1.0 hadir sebagai alat untuk memaksimalkan performa model bahasa besar dengan:
- Manajemen memori cerdas untuk mengurangi bottleneck saat pemrosesan data berukuran besar
- Optimasi alokasi beban kerja di CPU, GPU, dan akselerator AI khusus
- Peningkatan throughput pelatihan tanpa mengorbankan akurasi model
- Dukungan untuk berbagai arsitektur perangkat keras, termasuk Intel Xeon, Gaudi AI, dan GPU pihak ketiga
Dengan teknologi ini, pengembang dan peneliti dapat mengurangi waktu pelatihan model AI dari hitungan minggu menjadi hari, sekaligus menekan konsumsi energi pusat data.
Project BattleMatrix: Misi Mempercepat AI Generasi Berikutnya
Project BattleMatrix adalah platform riset dan pengembangan Intel yang berfokus pada integrasi perangkat keras dan perangkat lunak untuk beban kerja AI. Dengan pembaruan ini, Intel menegaskan komitmennya untuk menghadirkan solusi AI yang:
- Skalabel untuk beban kerja kecil hingga superkomputer AI
- Efisien secara energi, mendukung target keberlanjutan pusat data
- Mudah diintegrasikan dengan pipeline AI yang sudah ada
Dampak bagi Ekosistem AI
Peluncuran LLM Scaler 1.0 dapat membantu perusahaan teknologi, lembaga riset, dan penyedia layanan cloud memaksimalkan infrastruktur AI mereka. Hal ini menjadi penting di tengah meningkatnya permintaan untuk AI generasi terbaru seperti model multimodal dan AI generatif berparameter ratusan miliar.
Dengan kombinasi perangkat keras kuat dan perangkat lunak optimasi yang matang, Intel berharap Project BattleMatrix dapat menjadi fondasi bagi ekosistem AI masa depan yang lebih cepat, hemat energi, dan fleksibel.
Sumber: TechPowerUp








