Skip to content
  • Jakarta - Indonesia
  • [email protected]
  • 021-53660861
  • Jakarta - Indonesia
  • Beranda
  • Produk
  • Jasa Instalasi
  • Youtube Channel
  • PROMO
  • Blog
  • Tentang Kami
  • Kontak Kami
placeholder-661-1-1.png
  • Beranda
  • Produk
  • Jasa Instalasi
  • Youtube Channel
  • PROMO
  • Blog
  • Tentang Kami
  • Kontak Kami
qstorage.png

Month: November 2025

November 14, 2025November 14, 2025

Dell Storage Engines: Mempercepat AI Inferencing dengan PowerScale dan ObjectScale

Poin Penting: Solusi KV Cache offloading dari Dell yang menggunakan PowerScale dan ObjectScale mampu memberikan kinerja hingga 19x lebih cepat untuk Time to First Token (TTFT) dibandingkan vLLM standar. Ini berarti proses inferensi AI bisa berjalan lebih cepat dan respons kueri lebih singkat. Dengan memindahkan KV Cache ke penyimpanan berperforma tinggi, solusi Dell dapat mengurangi beban GPU, mengatasi bottleneck memori, dan meningkatkan efisiensi sistem. Selain inferensi, Dell AI Data Platform (AIDP) menyederhanakan seluruh siklus data AI — mulai dari data mentah hingga pembuatan pengetahuan — sehingga organisasi bisa menjalankan AI dalam skala besar dengan lebih mudah. Mengapa Performa AI Menjadi Tantangan Besar? Model bahasa besar atau LLM (Large Language Models) kini digunakan untuk berbagai kebutuhan bisnis — mulai dari chatbot, asisten digital, hingga pembuatan konten. Namun, semakin canggih modelnya, semakin besar pula sumber daya komputasi yang dibutuhkan. Salah satu tantangan utamanya adalah performance bottleneck yang sering membuat sistem lambat dan biaya meningkat. Banyak perusahaan mengira solusinya adalah membeli lebih banyak GPU — yang mahal dan boros daya. Namun ternyata ada cara yang lebih cerdas dan lebih hemat biaya: optimasi KV Cache. Apa itu KV Cache dan Mengapa Penting? Dalam inferensi LLM, Key-Value Cache menyimpan hasil perhitungan sementara, sehingga model tidak perlu menghitung ulang setiap kali menghasilkan token baru. Ini sangat memengaruhi respons pertama model yang disebut: Time to First Token (TTFT) — seberapa cepat model memberikan respons awal. Masalahnya, ukuran KV Cache dapat mencapai gigabyte hingga terabyte. Ini bisa membuat memori GPU cepat penuh dan menyebabkan: Performa melambat, sehingga respons AI menjadi lebih lama. Pekerjaan gagal, karena memori tidak cukup untuk menjalankan model. Solusi tradisional biasanya menambah GPU atau memori — tetapi ini mahal, tidak efisien, dan tidak mengatasi akar masalah. Solusi Cerdas dari Dell: Offload KV Cache ke Penyimpanan AI Berperforma Tinggi Dell menawarkan pendekatan baru yang jauh lebih efisien: memindahkan (offload) KV Cache dari GPU ke penyimpanan PowerScale atau ObjectScale. Alih-alih memaksa GPU menyimpan semuanya, KV Cache disimpan di storage yang cepat dan scalable, lalu diambil kembali secara efisien tanpa perlu dihitung ulang. Ini memberikan tiga keuntungan utama: Mengurangi beban GPU GPU hanya fokus pada tugas inferensi inti. Menghilangkan batasan memori GPU KV Cache bisa diperluas jauh melebihi kapasitas GPU. Mengurangi biaya dan meningkatkan efisiensi Tidak perlu menambah GPU baru untuk menangani workload besar. Solusi ini didukung oleh stack perangkat lunak yang telah divalidasi Dell: vLLM inference engine LMCache dengan Dell connector NVIDIA NIXL (dengan plugin S3-over-RDMA untuk ObjectScale) Stack ini terintegrasi langsung dengan PowerScale dan ObjectScale, baik untuk file maupun objek. Hasil Benchmark: Performa yang Mengagumkan Dell menguji kinerja vLLM + LMCache + NVIDIA NIXL untuk mengukur TTFT dengan KV Cache yang sudah disiapkan penuh. Hasilnya: PowerScale dan ObjectScale hanya membutuhkan 1 detik untuk menghasilkan token pertama pada context window penuh 131K. vLLM standar memerlukan lebih dari 17 detik untuk jumlah token yang sama. Ini berarti solusi Dell memberikan peningkatan performa 19x lebih cepat. Bahkan pada context kecil (1K token), Dell Storage Engine tetap lebih cepat daripada GPU menghitung KV Cache secara langsung. Ini menunjukkan penyimpanan Dell memiliki latensi sangat rendah dan performa tinggi. Perbandingan Dell dengan Kompetitor Dell juga melakukan pengujian menggunakan model Qwen3-32B dan membandingkannya dengan solusi dari VAST. Hasilnya: PowerScale: 0.82 detik TTFT ObjectScale: 0.86 detik TTFT VAST: 1.5 detik TTFT Dalam uji ini, Dell jauh lebih cepat — dan memberikan hingga 14x akselerasi dibandingkan vLLM standar tanpa KV Cache offloading. Mengapa Ini Penting untuk Masa Depan AI? KV Cache offloading bukan hanya solusi untuk masalah performa hari ini. Ini adalah fondasi untuk infrastruktur AI masa depan. Dengan menggunakan PowerScale atau ObjectScale sebagai mesin penyimpanan yang mempercepat AI, organisasi dapat: Menjalankan model lebih besar tanpa menambah GPU Mengurangi biaya operasional Meningkatkan throughput inferensi Mendapatkan respons AI lebih cepat dan lebih stabil Dell AI Data Platform: Lebih dari Sekadar Percepatan Inferensi Dell tidak hanya menyediakan solusi penyimpanan cepat. AIDP (Dell AI Data Platform) menyediakan satu platform terpadu yang mencakup seluruh siklus hidup data AI: Pengambilan data Transformasi data Penyimpanan dan analisis Pelatihan model Inferensi dan deployment Aplikasi berbasis agen AI (agentic AI) Dengan arsitektur modular dan terbuka, AIDP dapat bekerja bersama NVIDIA dan ekosistem AI lainnya. Ini membantu organisasi membangun dan menjalankan AI dalam skala besar dengan lebih cepat dan efisien.   Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, merupakan bagian dari PT. iLogo Indonesia, yang merupakan mitra terpercaya dalam solusi Infrastruktur IT dan Cybersecurity terbaik di Indonesia. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
November 3, 2025November 3, 2025

Menembus Batas AI dengan Data

Tujuan utama penggunaan kecerdasan buatan (AI) sangat jelas: membuat produk yang lebih pintar, menemukan efisiensi baru, dan menghasilkan hasil bisnis yang lebih baik. Namun, kenyataannya banyak proyek AI terhambat di tengah jalan. GPU (prosesor untuk pelatihan AI) sering kekurangan data, menyebabkan pemborosan biaya dan waktu pelatihan yang panjang. Data yang terpisah-pisah membuat hasil AI tidak akurat, dan ketergantungan pada satu vendor memperlambat adopsi teknologi baru. Solusinya adalah menghilangkan hambatan data (data bottleneck) agar proyek AI bisa berjalan cepat dan efisien. Di acara Dell AI Data Platform Event, Dell memperkenalkan sejumlah inovasi untuk membantu organisasi beralih dari tahap percobaan AI ke tahap produksi dengan lebih cepat dan aman — serta menggunakan data dalam skala besar (hingga petabyte). Dengan menggabungkan penyimpanan berkecepatan tinggi dan mesin data terbuka, perusahaan bisa memangkas waktu pelatihan model AI dan menurunkan biaya infrastruktur secara keseluruhan. Fondasi Data yang Terbuka, Modular, dan Aman Dell AI Data Platform adalah solusi komprehensif yang dirancang untuk mengubah data terdistribusi menjadi aset strategis. Platform ini dibangun dengan empat komponen utama yang menyediakan pondasi tangguh dan berkinerja tinggi untuk beban kerja AI modern: Storage Engines – Menggunakan Dell PowerScale dan Dell ObjectScale untuk menyediakan akses data cepat dan fleksibel, sangat penting untuk pelatihan, penyempurnaan model (fine-tuning), dan proses AI seperti retrieval-augmented generation (RAG). Data Engines – Terdiri dari Dell Data Analytics Engine, Data Processing Engine, dan Data Search Engine. Ketiganya membantu organisasi mengatur, memperkaya metadata, dan menggabungkan berbagai sumber data — termasuk data IoT dan data tidak terstruktur — menjadi informasi siap pakai untuk AI. Cyber Resiliency – Dengan deteksi ancaman real-time dan keamanan terintegrasi, platform ini menjaga integritas data agar hasil AI dapat dipercaya. Professional Services – Dell membantu memastikan data selalu siap digunakan untuk AI, dari proses pengumpulan hingga penyimpanan jangka panjang. PowerScale: Mempercepat Kinerja AI Agar AI bisa berjalan dari tahap uji coba ke produksi, penyimpanan data harus mampu mengikuti kecepatan GPU. Dell PowerScale hadir dengan efisiensi luar biasa dan kini telah tersedia sertifikasi dari NVIDIA Cloud Partner Program (NCP) untuk platform GPU terbaru seperti GB200 dan GB300. Dalam pengujian, PowerScale mampu mendukung lebih dari 16.000 GPU hanya dengan menggunakan 168 unit rak. Ini berarti konsumsi daya dan kebutuhan jaringan backend bisa berkurang drastis—hingga 88% lebih sedikit switch dan 72% lebih hemat daya dibanding solusi lain. Hasilnya: infrastruktur lebih sederhana, biaya lebih rendah, dan kinerja GPU maksimal. Dengan PowerScale, perusahaan dapat mempercepat inovasi AI, menurunkan biaya, dan menyederhanakan operasional tanpa mengorbankan performa. ObjectScale: Kecepatan Ekstrem untuk Data Tak Terstruktur Untuk menangani data berukuran besar dan tidak terstruktur (seperti gambar, video, dan hasil sensor), Dell menghadirkan ObjectScale—platform penyimpanan objek generasi baru. Versi terbaru ObjectScale dilengkapi teknologi S3-over-RDMA, yang mampu meningkatkan kecepatan hingga 230%, menurunkan latensi 80%, dan mengurangi penggunaan CPU hingga 98% dibanding penyimpanan S3 biasa. Ini sangat membantu untuk mempercepat proses seperti RAG indexing (menghubungkan data dengan model AI) dan menekan biaya komputasi. Dengan kemampuan hingga 40 GiB/detik per node, ObjectScale siap menghadapi dataset besar seperti model AI atau arsip media. Dukungan untuk drive generasi baru hingga 122 TB memungkinkan penyimpanan multi-petabyte dalam ruang yang lebih kecil—hemat tempat dan hemat energi. Data Engines: Mengubah Data Mentah Menjadi Kecerdasan Nyata Dell Data Engines dirancang untuk mengubah data mentah menjadi hasil AI yang nyata dan real-time. Dell Data Search Engine, dikembangkan bersama Elastic, memungkinkan tim mencari dan menganalisis data secara cepat dan alami—cukup seperti bertanya. Mesin ini mendukung semantic search dan terintegrasi dengan MetadataIQ, sehingga dapat mencari miliaran file yang tersimpan di PowerScale dan ObjectScale. Integrasi dengan NVIDIA cuVS memberikan performa pencarian berbasis GPU yang jauh lebih cepat, dengan tetap menjaga keamanan dan kendali penuh di lingkungan on-premises. Dell Data Analytics Engine (dengan teknologi Starburst) memungkinkan analisis lintas sumber data tanpa perlu memindahkan datanya. Format terbuka seperti Apache Iceberg dan Delta Lake membantu menjaga tata kelola data secara konsisten. Dengan integrasi ini, organisasi bisa melakukan analisis data terdistribusi, mempercepat pengambilan keputusan, dan memberi makan model AI dengan data yang selalu terbaru. Keunggulan Pendekatan Dell Pendekatan Dell berbeda dari vendor lain karena: Terbuka dan Modular – Dapat diperluas sesuai kebutuhan, tanpa terikat vendor. Efisien untuk GPU – Menghilangkan hambatan I/O agar GPU bekerja optimal. Akses Data Terpadu Tanpa Duplikasi – Analisis langsung di sumber data, tanpa menambah kompleksitas. Keamanan Kelas Enterprise – Dirancang dengan perlindungan data dan keandalan tinggi untuk aplikasi AI penting. Banyak platform lain menggabungkan layanan AI langsung ke dalam perangkat penyimpanan, tapi cara ini sering menimbulkan masalah seperti persaingan CPU, pembaruan lambat, dan ketergantungan pada satu sistem. Dell justru memilih pendekatan terbuka dan fleksibel, agar perusahaan dapat berkembang lebih cepat seiring kemajuan AI. Kesimpulan: AI yang Hebat Dimulai dari Data Jika Anda serius ingin mengembangkan AI, lapisan data tidak boleh diabaikan. Dell AI Data Platform memberikan kecepatan, pencarian, dan kemampuan analisis yang dibutuhkan pipeline AI Anda—dengan kebebasan untuk memilih alat terbaik sesuai kebutuhan bisnis. Dengan fondasi data yang kuat, Anda bisa memberi makan GPU lebih cepat, membuat model AI lebih cerdas, dan mengembangkan bisnis dengan percaya diri. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, merupakan bagian dari PT. iLogo Infralogy Indonesia, yang merupakan mitra terpercaya dalam solusi Infrastruktur IT dan Cybersecurity terbaik di Indonesia. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More

Recent Posts

  • HPE Alletra Storage MP X10000 Jadi Storage Objek Pertama yang Bersertifikasi NVIDIA
  • Mengindeks Data Vektor Skala Terabyte dalam Waktu Kurang dari Satu Jam dengan HPE dan NVIDIA
  • Visi Keamanan dan Ketahanan Terintegrasi dari HPE di RSA Conference 2026
  • Bagaimana AI Mengubah Serangan Siber dan Mengapa Ketahanan Siber Itu Penting
  • Mengapa Penting Melakukan Backup Virtual Machine di Era Ransomware Berbasis AI

Categories

  • Blog
  • Uncategorized

Popular Tags

AI Azure backup botnet cara storage sehat Centralized Discovery Controller cloud Das data data storage DeepSeek Dell Technologies HDD infinidat jaringan IT koneksi jaringan NAS netapp netapp NAS netapp San NVMe NVMe/TCP NVMe IP SAN penyimpanan pure storage Qnap ransomware San serangan siber server server kantor SFSS softwatre synology storage storage AWS Storage Indonesia storage microsoft storage net app Surveillance Station synology Synology Cameras synology dsm 7.2 Synology NAS Veeam VM Ware
November 2025
M T W T F S S
 12
3456789
10111213141516
17181920212223
24252627282930
« Oct   Dec »

Archives

  • April 2026
  • March 2026
  • February 2026
  • January 2026
  • December 2025
  • November 2025
  • October 2025
  • September 2025
  • August 2025
  • July 2025
  • June 2025
  • May 2025
  • April 2025
  • March 2025
  • February 2025
  • January 2025
  • December 2024
  • November 2024
  • August 2024
  • July 2024
  • May 2024
  • April 2024
  • October 2023
  • August 2023
  • March 2023
  • February 2023
  • January 2023
  • December 2022
  • November 2022
  • October 2022
  • August 2022
  • July 2022
  • February 2022
  • November 2021
  • September 2021
  • June 2021
  • March 2021
  • December 2020

Meta

  • Log in
  • Entries feed
  • Comments feed
  • WordPress.org

qStorage menyediakan berbagai macam produk storage original dengan harga sesuai kebutuhan dari berbagai Brand ternama seperti: Asus, Dell, NetApp, Synology, Qnap, Lenovo dan lain sebagainya. 

Kontak Kami

PT iLogo Indonesia

Sales & Marketing

  • Jl. Kebon Jeruk Raya
  • Villa Kebon Jeruk Office F1
    Jakarta, 11530 – Indonesia

8:30 – 17:00 (Mon – Fri)
 (+62) 21 53660861
[email protected]

Support Center
  • Jl. Panjang no. 5,
  • AKR Tower – 9th Floor
    Jakarta Barat 11530