Skip to content
  • Jakarta - Indonesia
  • [email protected]
  • 021-53660861
  • Jakarta - Indonesia
  • Beranda
  • Produk
  • Jasa Instalasi
  • Youtube Channel
  • PROMO
  • Blog
  • Tentang Kami
  • Kontak Kami
placeholder-661-1-1.png
  • Beranda
  • Produk
  • Jasa Instalasi
  • Youtube Channel
  • PROMO
  • Blog
  • Tentang Kami
  • Kontak Kami
qstorage.png

Category: Blog

December 3, 2025December 3, 2025

Cloud Native Identity dengan Azure Files: Akses Aman Berbasis Entra untuk Perusahaan Modern

Saat banyak organisasi mempercepat perjalanan menuju cloud-first, kebutuhan untuk menyediakan identitas dan akses yang aman ke storage berbasis cloud menjadi semakin penting. Microsoft kini merilis Public Preview untuk fitur Entra-only identities pada Azure Files SMB. Dengan autentikasi native menggunakan Microsoft Entra ID (identitas yang dibuat dan dikelola sepenuhnya di cloud, tanpa Active Directory lokal), pelanggan kini bisa mengakses file share secara aman dari mana saja tanpa memerlukan domain controller atau sinkronisasi hybrid. Ini membuka era baru bagi perusahaan untuk memodernisasi storage, sistem komputasi, dan manajemen identitas mereka langsung di Azure. Hasilnya adalah keamanan yang lebih kuat, proses onboarding lebih cepat, manajemen lebih sederhana, serta pengurangan biaya dari infrastruktur lama. Manfaat Utama 1. Akses Aman Melalui Admin Roles Sebelumnya, admin harus menggunakan storage account key untuk mengelola share SMB. Kini Azure Files mendukung RBAC khusus admin, sehingga pengelolaan bisa dilakukan dengan cara yang lebih aman dan sederhana. 2. Pengalaman Manajemen Identitas yang Lebih Modern Semua pengaturan izin file dan folder kini bisa dilakukan langsung melalui Azure Portal tanpa perlu melakukan mount terlebih dahulu. Ini membuat pengalaman konfigurasi lebih cepat dan terpusat. 3. Mengurangi Beban Operasional Tidak perlu lagi VPN, domain controller, atau setup hybrid yang rumit. Tim IT tidak perlu repot mengelola GPO, replikasi, atau kesehatan Active Directory. 4. Tanpa Ketergantungan Infrastruktur Lokal Perusahaan yang ingin meninggalkan domain controller on-premises kini bisa melakukannya sepenuhnya. Identitas cloud-only dapat mengakses Azure Files langsung dengan aman. 5. Dukungan Login Jarak Jauh untuk Thin Clients Pekerja remote yang menggunakan thin-client cukup memiliki koneksi internet—tanpa perlu koneksi ke server Active Directory. Modernisasi Arsitektur Nyata 1. Virtual Desktop (VDI/AVD) Lebih Optimal dengan Entra-only Identity Azure Files sering digunakan untuk penyimpanan profil pengguna pada lingkungan Azure Virtual Desktop (AVD). Azure Files mendukung integrasi FSLogix sehingga profil pengguna bisa “dibawa” ke berbagai sesi atau host pool. Dengan dukungan Entra Kerberos dan identitas cloud-only, session host AVD bisa langsung mengakses file share tanpa domain controller. Ini sangat ideal untuk perusahaan dengan strategi cloud penuh, karena: tidak memerlukan domain controller, tetap mendapat keamanan tingkat enterprise, dan lebih mudah dikelola. “Akses Entra-only dengan Azure Files mengubah cara kami membangun solusi VDI. Tanpa domain controller on-premises, deployment lebih sederhana dan keamanan lebih kuat.” — Jacques Theron, Cloud Solutions Architect, Netsurit 2. Mendukung Kolaborasi Remote untuk Industri seperti Oil & Gas Sektor seperti minyak & gas sering bekerja di lokasi terpencil, dengan data besar untuk analisis reservoir dan visualisasi. Biasanya, mereka membutuhkan komputer tebal (thick client) yang selalu terhubung ke domain controller. Dengan Azure Files dan identitas Entra-only: tidak perlu domain controller di setiap lokasi, tidak perlu VPN atau infrastruktur hybrid yang rumit, pengguna cukup memakai thin client dengan koneksi internet biasa, tetap bisa mengakses file SMB untuk kolaborasi real-time. Ini mempercepat kerja tim global, menurunkan biaya IT, dan membuat arsitektur identitas lebih sederhana dan modern. “Entra-only identities membantu kami menghilangkan ketergantungan pada domain controller on-premises dan menyederhanakan manajemen identitas untuk tim global.” — Swapnil Daga, Storage Architect, SLB 3. Transformasi Produktivitas Information Worker (IW) Untuk perusahaan dengan banyak karyawan dari berbagai lokasi, Entra-only dengan Azure Files membawa banyak keuntungan: Karyawan cukup login sekali dengan akun Entra. Akses ke folder proyek dan folder departemen langsung tersedia. Tidak ada lagi masalah domain join atau password sync. Onboarding sangat cepat—akses file otomatis diberikan berdasarkan grup Entra. Untuk pekerjaan seperti membuat dokumen, analisis, dan kolaborasi tim, model cloud-native ini: mempercepat produktivitas, mengurangi gangguan akses, membuat kebijakan keamanan mengikuti pengguna di mana pun mereka bekerja. Mulai Menggunakan MS Entra Kerberos dengan Entra-only Identity Anda bisa mulai memakai Entra-only identity untuk Azure Files tanpa biaya tambahan. Lihat dokumentasi Microsoft untuk langkah detail konfigurasi. Baik untuk membuat storage baru atau meningkatkan deployment yang sudah ada, fitur ini membantu Anda memodernisasi infrastruktur storage dan identitas dengan lebih mudah dan cepat. Bangun arsitektur yang siap masa depan—sepenuhnya berbasis cloud, aman, dan efisien. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, merupakan bagian dari PT. iLogo Indonesia, yang merupakan mitra terpercaya dalam solusi Infrastruktur IT dan Cybersecurity terbaik di Indonesia. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
November 14, 2025November 14, 2025

Dell Storage Engines: Mempercepat AI Inferencing dengan PowerScale dan ObjectScale

Poin Penting: Solusi KV Cache offloading dari Dell yang menggunakan PowerScale dan ObjectScale mampu memberikan kinerja hingga 19x lebih cepat untuk Time to First Token (TTFT) dibandingkan vLLM standar. Ini berarti proses inferensi AI bisa berjalan lebih cepat dan respons kueri lebih singkat. Dengan memindahkan KV Cache ke penyimpanan berperforma tinggi, solusi Dell dapat mengurangi beban GPU, mengatasi bottleneck memori, dan meningkatkan efisiensi sistem. Selain inferensi, Dell AI Data Platform (AIDP) menyederhanakan seluruh siklus data AI — mulai dari data mentah hingga pembuatan pengetahuan — sehingga organisasi bisa menjalankan AI dalam skala besar dengan lebih mudah. Mengapa Performa AI Menjadi Tantangan Besar? Model bahasa besar atau LLM (Large Language Models) kini digunakan untuk berbagai kebutuhan bisnis — mulai dari chatbot, asisten digital, hingga pembuatan konten. Namun, semakin canggih modelnya, semakin besar pula sumber daya komputasi yang dibutuhkan. Salah satu tantangan utamanya adalah performance bottleneck yang sering membuat sistem lambat dan biaya meningkat. Banyak perusahaan mengira solusinya adalah membeli lebih banyak GPU — yang mahal dan boros daya. Namun ternyata ada cara yang lebih cerdas dan lebih hemat biaya: optimasi KV Cache. Apa itu KV Cache dan Mengapa Penting? Dalam inferensi LLM, Key-Value Cache menyimpan hasil perhitungan sementara, sehingga model tidak perlu menghitung ulang setiap kali menghasilkan token baru. Ini sangat memengaruhi respons pertama model yang disebut: Time to First Token (TTFT) — seberapa cepat model memberikan respons awal. Masalahnya, ukuran KV Cache dapat mencapai gigabyte hingga terabyte. Ini bisa membuat memori GPU cepat penuh dan menyebabkan: Performa melambat, sehingga respons AI menjadi lebih lama. Pekerjaan gagal, karena memori tidak cukup untuk menjalankan model. Solusi tradisional biasanya menambah GPU atau memori — tetapi ini mahal, tidak efisien, dan tidak mengatasi akar masalah. Solusi Cerdas dari Dell: Offload KV Cache ke Penyimpanan AI Berperforma Tinggi Dell menawarkan pendekatan baru yang jauh lebih efisien: memindahkan (offload) KV Cache dari GPU ke penyimpanan PowerScale atau ObjectScale. Alih-alih memaksa GPU menyimpan semuanya, KV Cache disimpan di storage yang cepat dan scalable, lalu diambil kembali secara efisien tanpa perlu dihitung ulang. Ini memberikan tiga keuntungan utama: Mengurangi beban GPU GPU hanya fokus pada tugas inferensi inti. Menghilangkan batasan memori GPU KV Cache bisa diperluas jauh melebihi kapasitas GPU. Mengurangi biaya dan meningkatkan efisiensi Tidak perlu menambah GPU baru untuk menangani workload besar. Solusi ini didukung oleh stack perangkat lunak yang telah divalidasi Dell: vLLM inference engine LMCache dengan Dell connector NVIDIA NIXL (dengan plugin S3-over-RDMA untuk ObjectScale) Stack ini terintegrasi langsung dengan PowerScale dan ObjectScale, baik untuk file maupun objek. Hasil Benchmark: Performa yang Mengagumkan Dell menguji kinerja vLLM + LMCache + NVIDIA NIXL untuk mengukur TTFT dengan KV Cache yang sudah disiapkan penuh. Hasilnya: PowerScale dan ObjectScale hanya membutuhkan 1 detik untuk menghasilkan token pertama pada context window penuh 131K. vLLM standar memerlukan lebih dari 17 detik untuk jumlah token yang sama. Ini berarti solusi Dell memberikan peningkatan performa 19x lebih cepat. Bahkan pada context kecil (1K token), Dell Storage Engine tetap lebih cepat daripada GPU menghitung KV Cache secara langsung. Ini menunjukkan penyimpanan Dell memiliki latensi sangat rendah dan performa tinggi. Perbandingan Dell dengan Kompetitor Dell juga melakukan pengujian menggunakan model Qwen3-32B dan membandingkannya dengan solusi dari VAST. Hasilnya: PowerScale: 0.82 detik TTFT ObjectScale: 0.86 detik TTFT VAST: 1.5 detik TTFT Dalam uji ini, Dell jauh lebih cepat — dan memberikan hingga 14x akselerasi dibandingkan vLLM standar tanpa KV Cache offloading. Mengapa Ini Penting untuk Masa Depan AI? KV Cache offloading bukan hanya solusi untuk masalah performa hari ini. Ini adalah fondasi untuk infrastruktur AI masa depan. Dengan menggunakan PowerScale atau ObjectScale sebagai mesin penyimpanan yang mempercepat AI, organisasi dapat: Menjalankan model lebih besar tanpa menambah GPU Mengurangi biaya operasional Meningkatkan throughput inferensi Mendapatkan respons AI lebih cepat dan lebih stabil Dell AI Data Platform: Lebih dari Sekadar Percepatan Inferensi Dell tidak hanya menyediakan solusi penyimpanan cepat. AIDP (Dell AI Data Platform) menyediakan satu platform terpadu yang mencakup seluruh siklus hidup data AI: Pengambilan data Transformasi data Penyimpanan dan analisis Pelatihan model Inferensi dan deployment Aplikasi berbasis agen AI (agentic AI) Dengan arsitektur modular dan terbuka, AIDP dapat bekerja bersama NVIDIA dan ekosistem AI lainnya. Ini membantu organisasi membangun dan menjalankan AI dalam skala besar dengan lebih cepat dan efisien.   Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, merupakan bagian dari PT. iLogo Indonesia, yang merupakan mitra terpercaya dalam solusi Infrastruktur IT dan Cybersecurity terbaik di Indonesia. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
November 3, 2025November 3, 2025

Menembus Batas AI dengan Data

Tujuan utama penggunaan kecerdasan buatan (AI) sangat jelas: membuat produk yang lebih pintar, menemukan efisiensi baru, dan menghasilkan hasil bisnis yang lebih baik. Namun, kenyataannya banyak proyek AI terhambat di tengah jalan. GPU (prosesor untuk pelatihan AI) sering kekurangan data, menyebabkan pemborosan biaya dan waktu pelatihan yang panjang. Data yang terpisah-pisah membuat hasil AI tidak akurat, dan ketergantungan pada satu vendor memperlambat adopsi teknologi baru. Solusinya adalah menghilangkan hambatan data (data bottleneck) agar proyek AI bisa berjalan cepat dan efisien. Di acara Dell AI Data Platform Event, Dell memperkenalkan sejumlah inovasi untuk membantu organisasi beralih dari tahap percobaan AI ke tahap produksi dengan lebih cepat dan aman — serta menggunakan data dalam skala besar (hingga petabyte). Dengan menggabungkan penyimpanan berkecepatan tinggi dan mesin data terbuka, perusahaan bisa memangkas waktu pelatihan model AI dan menurunkan biaya infrastruktur secara keseluruhan. Fondasi Data yang Terbuka, Modular, dan Aman Dell AI Data Platform adalah solusi komprehensif yang dirancang untuk mengubah data terdistribusi menjadi aset strategis. Platform ini dibangun dengan empat komponen utama yang menyediakan pondasi tangguh dan berkinerja tinggi untuk beban kerja AI modern: Storage Engines – Menggunakan Dell PowerScale dan Dell ObjectScale untuk menyediakan akses data cepat dan fleksibel, sangat penting untuk pelatihan, penyempurnaan model (fine-tuning), dan proses AI seperti retrieval-augmented generation (RAG). Data Engines – Terdiri dari Dell Data Analytics Engine, Data Processing Engine, dan Data Search Engine. Ketiganya membantu organisasi mengatur, memperkaya metadata, dan menggabungkan berbagai sumber data — termasuk data IoT dan data tidak terstruktur — menjadi informasi siap pakai untuk AI. Cyber Resiliency – Dengan deteksi ancaman real-time dan keamanan terintegrasi, platform ini menjaga integritas data agar hasil AI dapat dipercaya. Professional Services – Dell membantu memastikan data selalu siap digunakan untuk AI, dari proses pengumpulan hingga penyimpanan jangka panjang. PowerScale: Mempercepat Kinerja AI Agar AI bisa berjalan dari tahap uji coba ke produksi, penyimpanan data harus mampu mengikuti kecepatan GPU. Dell PowerScale hadir dengan efisiensi luar biasa dan kini telah tersedia sertifikasi dari NVIDIA Cloud Partner Program (NCP) untuk platform GPU terbaru seperti GB200 dan GB300. Dalam pengujian, PowerScale mampu mendukung lebih dari 16.000 GPU hanya dengan menggunakan 168 unit rak. Ini berarti konsumsi daya dan kebutuhan jaringan backend bisa berkurang drastis—hingga 88% lebih sedikit switch dan 72% lebih hemat daya dibanding solusi lain. Hasilnya: infrastruktur lebih sederhana, biaya lebih rendah, dan kinerja GPU maksimal. Dengan PowerScale, perusahaan dapat mempercepat inovasi AI, menurunkan biaya, dan menyederhanakan operasional tanpa mengorbankan performa. ObjectScale: Kecepatan Ekstrem untuk Data Tak Terstruktur Untuk menangani data berukuran besar dan tidak terstruktur (seperti gambar, video, dan hasil sensor), Dell menghadirkan ObjectScale—platform penyimpanan objek generasi baru. Versi terbaru ObjectScale dilengkapi teknologi S3-over-RDMA, yang mampu meningkatkan kecepatan hingga 230%, menurunkan latensi 80%, dan mengurangi penggunaan CPU hingga 98% dibanding penyimpanan S3 biasa. Ini sangat membantu untuk mempercepat proses seperti RAG indexing (menghubungkan data dengan model AI) dan menekan biaya komputasi. Dengan kemampuan hingga 40 GiB/detik per node, ObjectScale siap menghadapi dataset besar seperti model AI atau arsip media. Dukungan untuk drive generasi baru hingga 122 TB memungkinkan penyimpanan multi-petabyte dalam ruang yang lebih kecil—hemat tempat dan hemat energi. Data Engines: Mengubah Data Mentah Menjadi Kecerdasan Nyata Dell Data Engines dirancang untuk mengubah data mentah menjadi hasil AI yang nyata dan real-time. Dell Data Search Engine, dikembangkan bersama Elastic, memungkinkan tim mencari dan menganalisis data secara cepat dan alami—cukup seperti bertanya. Mesin ini mendukung semantic search dan terintegrasi dengan MetadataIQ, sehingga dapat mencari miliaran file yang tersimpan di PowerScale dan ObjectScale. Integrasi dengan NVIDIA cuVS memberikan performa pencarian berbasis GPU yang jauh lebih cepat, dengan tetap menjaga keamanan dan kendali penuh di lingkungan on-premises. Dell Data Analytics Engine (dengan teknologi Starburst) memungkinkan analisis lintas sumber data tanpa perlu memindahkan datanya. Format terbuka seperti Apache Iceberg dan Delta Lake membantu menjaga tata kelola data secara konsisten. Dengan integrasi ini, organisasi bisa melakukan analisis data terdistribusi, mempercepat pengambilan keputusan, dan memberi makan model AI dengan data yang selalu terbaru. Keunggulan Pendekatan Dell Pendekatan Dell berbeda dari vendor lain karena: Terbuka dan Modular – Dapat diperluas sesuai kebutuhan, tanpa terikat vendor. Efisien untuk GPU – Menghilangkan hambatan I/O agar GPU bekerja optimal. Akses Data Terpadu Tanpa Duplikasi – Analisis langsung di sumber data, tanpa menambah kompleksitas. Keamanan Kelas Enterprise – Dirancang dengan perlindungan data dan keandalan tinggi untuk aplikasi AI penting. Banyak platform lain menggabungkan layanan AI langsung ke dalam perangkat penyimpanan, tapi cara ini sering menimbulkan masalah seperti persaingan CPU, pembaruan lambat, dan ketergantungan pada satu sistem. Dell justru memilih pendekatan terbuka dan fleksibel, agar perusahaan dapat berkembang lebih cepat seiring kemajuan AI. Kesimpulan: AI yang Hebat Dimulai dari Data Jika Anda serius ingin mengembangkan AI, lapisan data tidak boleh diabaikan. Dell AI Data Platform memberikan kecepatan, pencarian, dan kemampuan analisis yang dibutuhkan pipeline AI Anda—dengan kebebasan untuk memilih alat terbaik sesuai kebutuhan bisnis. Dengan fondasi data yang kuat, Anda bisa memberi makan GPU lebih cepat, membuat model AI lebih cerdas, dan mengembangkan bisnis dengan percaya diri. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, merupakan bagian dari PT. iLogo Infralogy Indonesia, yang merupakan mitra terpercaya dalam solusi Infrastruktur IT dan Cybersecurity terbaik di Indonesia. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
October 17, 2025October 17, 2025

Membawa AI Perusahaan dari Uji Coba ke Produksi dengan Percaya Diri

Saya dengan senang hati memperkenalkan NetApp® AI Data Engine (AIDE) — layanan data AI end-to-end terbaru dari NetApp yang terintegrasi langsung dengan perangkat lunak NetApp ONTAP®. AIDE dirancang untuk membuat penerapan AI di perusahaan menjadi lebih mudah, terjangkau, dan aman — mulai dari menemukan dan menyiapkan data hingga menyajikannya ke aplikasi Generative AI (GenAI). Peluncuran ini datang pada waktu yang tepat. Saat ini, banyak proyek AI perusahaan berhenti di tahap uji coba (proof of concept) dan gagal masuk ke produksi karena tidak memiliki data yang siap untuk AI (AI-ready data). AIDE hadir untuk mengatasi masalah tersebut secara menyeluruh. Tantangan Umum: Data Jadi Penghambat Utama AI Banyak tim data dan ilmuwan AI (data scientist) di perusahaan besar menghadapi situasi yang sama. Misalnya, seorang data scientist di perusahaan keuangan besar sudah membuat tiga model AI yang bisa meningkatkan layanan pelanggan. Namun semua proyek itu berhenti di tengah jalan karena tim tidak bisa mengakses data yang dibutuhkan dengan aman — dan saat akses akhirnya diperoleh, tim kepatuhan (compliance) menolak karena risiko keamanan data. Situasi seperti ini ternyata sangat umum. Para analis memprediksi bahwa hingga tahun 2026, 60% proyek AI akan ditinggalkan karena tidak didukung oleh data yang siap digunakan untuk AI. Masalah utamanya bukan pada model AI-nya, tapi pada data yang memberi “makan” model tersebut. Hambatan Tersembunyi dalam Implementasi AI Sulit menemukan data (data discovery). Data biasanya tersebar di banyak tempat — sistem lokal, multi-cloud, atau antar departemen. Tim data menghabiskan waktu lama hanya untuk mencari dan menggabungkan data. Ketika data akhirnya siap, kebutuhan bisnis sudah berubah. Terlalu banyak alat yang tidak terintegrasi. Perusahaan sering menggunakan banyak tool berbeda untuk eksperimen AI. Akibatnya, waktu lebih banyak dihabiskan untuk mengatasi masalah integrasi, bukan mengembangkan model AI. Banyak salinan data dibuat. Untuk menyiapkan data agar siap digunakan AI, tim biasanya membuat banyak versi: data mentah, data bersih, data yang diubah, versi untuk model berbeda, dan lain-lain. Setiap salinan butuh ruang penyimpanan dan pengawasan tambahan. Masalah keamanan dan kepatuhan. Tanpa sistem tata kelola (governance) yang jelas, tim keamanan dan kepatuhan sering menghentikan proyek AI karena takut melanggar aturan seperti GDPR atau HIPAA. Data vektor membengkak. Saat data diubah menjadi format vektor untuk GenAI, ukuran penyimpanan bisa membengkak hingga 10–20 kali lipat. Ini membuat biaya dan performa menjadi masalah besar. Hasilnya: banyak proyek AI yang menjanjikan di laboratorium gagal masuk ke tahap produksi. Solusi NetApp: AI Data Engine (AIDE) Masalahnya bukan karena AI terlalu sulit, tetapi karena kita masih menggunakan infrastruktur data lama untuk beban kerja AI modern. AI memerlukan infrastruktur data yang dirancang khusus untuk menangani tantangan AI sejak awal. Di sinilah NetApp AI Data Engine (AIDE) berperan. AIDE adalah solusi terpadu untuk mengelola seluruh siklus data AI — dari data discovery, persiapan, tata kelola, hingga penyajian data untuk GenAI, RAG (retrieval-augmented generation), dan sistem AI agent. Dengan AIDE, perusahaan tidak perlu menggabungkan banyak alat berbeda. Semuanya sudah tersedia dalam satu platform terpadu yang siap digunakan. Cara Kerja AIDE Global data discovery: AIDE membuat tampilan terstruktur dan dapat dicari untuk semua data NetApp Anda, di mana pun lokasinya (on-prem atau cloud). Ini menghilangkan “perburuan data” dan memberikan visibilitas instan bagi tim data scientist. Sinkronisasi otomatis: AIDE secara otomatis mendeteksi perubahan dan memperbarui data di seluruh sistem, sehingga tim hanya bekerja dengan satu sumber data utama yang selalu terbaru. Tata kelola dan keamanan bawaan: AIDE memiliki policy-based guardrails yang tertanam di setiap alur kerja AI. Artinya, data tetap berpindah dengan aman sesuai izin akses dan kebijakan yang berlaku. Tim kepatuhan memiliki visibilitas penuh tanpa memperlambat proyek. Efisiensi data vektor: Dengan teknologi NVIDIA NIMs dan kompresi serta deduplikasi canggih dari NetApp, ukuran data vektor dapat dikurangi hingga 10 kali lebih kecil, membuat proyek AI berskala besar menjadi lebih hemat biaya dan cepat. Setelah data diubah menjadi vektor embedding, AIDE menyediakan endpoint RAG yang aman dan siap dipakai oleh tim pengembang hanya dengan copy-paste ke aplikasi GenAI mereka. Ekosistem Terbuka dan Fleksibel NetApp menyadari bahwa tidak ada satu vendor pun yang bisa menyediakan semua kebutuhan AI perusahaan. Karena itu, AIDE dirancang terbuka dan mudah diintegrasikan dengan berbagai platform AI populer seperti Amazon Bedrock, Google Vertex AI, dan Azure AI. AIDE juga bekerja mulus dengan berbagai alat MLOps dan mitra industri seperti Domino Data Lab, LangChain, Starburst, dan Informatica. Semua integrasi ini bertujuan untuk mempercepat waktu implementasi dan memanfaatkan alat yang sudah dikenal oleh tim data. Langkah ke Depan Perusahaan yang sukses menjalankan AI bukanlah yang memiliki algoritma paling canggih, melainkan yang lebih dulu menyelesaikan masalah infrastruktur data. Bagi admin storage, ini berarti memahami kebutuhan baru seperti efisiensi data vektor dan sinkronisasi real-time. Bagi engineer data, infrastruktur yang menyederhanakan pergerakan dan persiapan data. Bagi data scientist, waktu lebih banyak untuk riset model daripada mengurus pipeline. Dan bagi manajemen eksekutif, keyakinan bahwa investasi AI benar-benar bisa masuk ke tahap produksi dan memberikan nilai bisnis nyata. AI kini bukan lagi masa depan — AI sudah terjadi sekarang. Dan fondasi keberhasilannya dibangun di atas infrastruktur data yang kuat dan cerdas seperti NetApp AIDE. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
October 3, 2025October 3, 2025

Pure Storage Dukung vSphere Virtual Volumes Generasi Terbaru dengan VMware Cloud Foundation 9

Dalam dunia teknologi yang terus berkembang, organisasi dituntut untuk bisa bergerak cepat, tetap efisien, dan menjaga biaya tetap terkendali. Salah satu tantangan terbesar bagi tim IT adalah bagaimana mengelola infrastruktur penyimpanan data (storage) agar selaras dengan kebutuhan aplikasi modern. Di sinilah kolaborasi antara Pure Storage dan VMware kembali menjadi sorotan. Pure Storage mengumumkan dukungannya untuk VMware vSphere Virtual Volumes (vVols) generasi terbaru yang akan terintegrasi dengan VMware Cloud Foundation (VCF) 9. Dukungan ini tidak hanya menambah fleksibilitas bagi pengguna VMware, tetapi juga membuka jalan menuju arsitektur cloud yang lebih sederhana, otomatis, dan siap menghadapi masa depan. Apa Itu VMware vVols? VMware vVols adalah teknologi yang dirancang untuk menyederhanakan cara penyimpanan data diatur dan digunakan dalam lingkungan virtualisasi. Jika sebelumnya penyimpanan berbasis VM (virtual machine) memerlukan proses yang rumit, vVols memungkinkan setiap VM mendapatkan layanan storage secara langsung dan terpisah. Dengan kata lain, vVols membuat setiap VM memiliki kontrol penuh atas penyimpanan yang dipakainya. Hasilnya, tim IT tidak lagi dipusingkan dengan manajemen LUN (Logical Unit Number) atau volume besar yang sulit dikustomisasi. Peran VMware Cloud Foundation (VCF) 9 VMware Cloud Foundation (VCF) adalah platform hybrid cloud yang mengintegrasikan komputasi, penyimpanan, jaringan, dan manajemen cloud ke dalam satu paket. Versi terbaru, VCF 9, membawa peningkatan performa, keamanan, dan fleksibilitas untuk mendukung modernisasi data center maupun adopsi cloud hybrid. Integrasi vVols dengan VCF 9 memungkinkan pengguna mendapatkan manfaat berikut: Otomatisasi penuh dalam penyediaan storage untuk VM. Konsistensi kebijakan di seluruh lingkungan on-premises maupun cloud. Fleksibilitas tinggi untuk aplikasi tradisional dan aplikasi cloud-native. Pure Storage + VMware: Kombinasi Kuat Sebagai salah satu vendor penyimpanan terdepan, Pure Storage menghadirkan solusi all-flash storage yang terkenal cepat, efisien, dan mudah dikelola. Dengan dukungan vVols di VCF 9, Pure Storage memberikan keunggulan tambahan: Sederhana dan Efisien Tidak perlu lagi repot mengelola volume besar. Tim IT dapat langsung memberikan kebijakan storage khusus untuk setiap VM. Otomatisasi Modern Pure Storage mendukung API dan integrasi native dengan VMware, sehingga banyak pekerjaan manual bisa dihilangkan. Performa Tinggi Infrastruktur Pure Storage berbasis all-flash memastikan aplikasi berjalan lebih cepat dan stabil, baik untuk workload tradisional maupun modern. Skalabilitas Fleksibel Seiring pertumbuhan data, kapasitas dan kinerja dapat ditingkatkan tanpa downtime yang merepotkan. Dampak bagi Organisasi Bagi perusahaan, dukungan Pure Storage terhadap vVols di VCF 9 ini membawa beberapa dampak nyata: Lebih cepat go-to-market: Proses deployment aplikasi lebih singkat berkat otomatisasi. Penghematan biaya: Infrastruktur lebih sederhana dan efisien, sehingga biaya operasional IT dapat ditekan. Resiliensi data lebih kuat: Dengan kemampuan manajemen storage yang granular, risiko kehilangan data dapat diminimalisir. Siap untuk masa depan: Infrastruktur yang fleksibel membuat organisasi siap menghadapi transformasi digital maupun migrasi ke cloud. Mengapa Ini Penting Sekarang? Banyak perusahaan sedang berada di persimpangan jalan antara mempertahankan data center tradisional atau sepenuhnya pindah ke cloud. Fakta di lapangan menunjukkan, model hybrid cloud menjadi pilihan paling realistis. Dengan adanya dukungan Pure Storage terhadap vVols di VCF 9, perusahaan bisa mendapatkan best of both worlds: kontrol penuh seperti di data center tradisional, dengan fleksibilitas dan otomatisasi layaknya di cloud. Kesimpulan Kolaborasi Pure Storage dan VMware kembali membuktikan bahwa inovasi di bidang infrastruktur IT tidak pernah berhenti. Dukungan untuk vSphere vVols generasi terbaru dengan VCF 9 membuka jalan bagi organisasi untuk: Menyederhanakan operasional IT. Meningkatkan efisiensi biaya. Memberikan performa aplikasi yang lebih konsisten. Siap menghadapi masa depan dengan arsitektur cloud modern. Bagi para profesional IT, ini adalah langkah penting menuju infrastruktur yang lebih adaptif, sederhana, dan berorientasi pada aplikasi. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
September 8, 2025September 8, 2025

Otomatisasi Ketahanan Data dalam Skala Besar dengan Eon dan Google Cloud Backup

Dulu, backup data di cloud sering dianggap hanya sebagai polis asuransi—disiapkan untuk keadaan darurat saja. Namun sekarang, backup seharusnya bisa memberikan lebih banyak manfaat. Backup modern harus otomatis, hemat biaya, dan siap untuk analitik sejak awal. Itulah alasan Eon membangun platform yang selaras dengan Google Cloud. Tujuannya: menghilangkan blind spot dalam backup, menyederhanakan proses pemulihan, dan membuka nilai yang terkandung dalam data backup tanpa perlu tim IT menjadi “ahli kebijakan” atau sibuk mengelola infrastruktur secara manual. Tetapi, apa pun platform yang Anda gunakan, penting untuk memahami terlebih dahulu: seperti apa backup cloud yang benar-benar tangguh (resilient) dan bagaimana memaksimalkannya dengan kapabilitas native dari Google Cloud. Apa itu backup cloud yang tangguh? Dari pengalaman Eon bekerja dengan pengguna Google Cloud di berbagai industri, ada 5 tanda umum jika strategi backup Anda berisiko: Anda tidak tahu dengan jelas data mana yang sudah di-backup (atau belum). Kebijakan retensi berbeda-beda di tiap proyek dan tim. Data duplikat atau disimpan secara tidak efisien sehingga biaya meningkat. Perlindungan dari ransomware masih reaktif, bukan berbasis kebijakan otomatis. Proses recovery mengharuskan full restore, padahal Anda hanya butuh satu objek saja. Kalau salah satu tanda ini ada di perusahaan Anda, artinya strategi backup masih perlu diperkuat. Praktik terbaik melindungi data di Google Cloud Google Cloud menyediakan kapabilitas dasar untuk melindungi data. Kuncinya adalah mengonfigurasi dan menggunakannya secara konsisten. Berikut beberapa cara untuk memaksimalkan proteksi: 1. Versioning dan Retention: Garis Pertahanan Pertama Aktifkan Object Versioning di Cloud Storage untuk menyimpan beberapa versi objek, sehingga memudahkan pemulihan jika ada penghapusan tidak sengaja. Pasangkan dengan Retention Policies untuk memastikan data penting tetap tersimpan sesuai kebutuhan regulasi. 💡 Tip: Gunakan Bucket Lock untuk perlindungan write-once-read-many (WORM) di area yang membutuhkan kepatuhan tinggi. 2. Monitor Celah Perlindungan Manfaatkan layanan native seperti Cloud SQL backups, GKE snapshots, dan Persistent Disk images. Namun, hati-hati—tanggung jawab backup sering tersebar di beberapa tim. Tanpa visibilitas terpusat, akan sulit memastikan semuanya terlindungi. 💡 Tip: Gunakan Cloud Asset Inventory atau query terjadwal di BigQuery untuk mengaudit cakupan backup. 3. Rancang Recovery yang Granular Tidak semua situasi butuh rollback penuh. Kadang hanya perlu memulihkan satu tabel BigQuery atau satu objek di Cloud Storage. Dengan granular recovery, pemulihan jadi lebih cepat dan hemat biaya. 💡 Tip: Gunakan Object Lifecycle Management untuk memindahkan objek lama ke cold storage yang lebih murah. Otomatisasi Kompleksitas Backup Mengelola backup cloud dalam skala besar secara manual sangat sulit. Mulai dari onboarding workload baru hingga menjaga kebijakan tetap konsisten, pendekatan manual tidak bisa mengikuti skala kebutuhan. Inilah mengapa banyak tim beralih ke solusi Cloud Backup Posture Management (CBPM) otomatis seperti Eon. Platform ini bisa: Mendeteksi aset baru secara real time, Menerapkan aturan backup pintar secara otomatis, Menegakkan perlindungan konsisten di seluruh lingkungan. Dengan Eon, Anda tidak perlu menandai resource satu per satu atau menulis skrip khusus. Platform ini otomatis mengklasifikasikan dan melindungi aset Google Cloud—mulai dari GKE, Cloud SQL, BigQuery, hingga layanan lainnya. Dari Backup ke Business Insights Selama ini, data backup sering dianggap “terkunci” dan hanya dipakai saat darurat. Tapi sekarang, semakin banyak tim yang mengubah data backup menjadi sumber nilai baru, misalnya: Menjalankan analitik langsung dari backup menggunakan BigQuery atau Dataproc. Memasok data ke pipeline AI/ML di Vertex AI untuk training maupun monitoring. Membuat dashboard audit-ready dengan Looker, berbasis snapshot backup. Dengan Eon, semua ini sudah built-in. Backup diubah menjadi data lake tanpa ETL, sehingga pipeline lebih hemat biaya dan data bisa langsung diakses tanpa perlu reprocessing. Seperti apa backup yang “matang”? Tujuan akhir tim cloud-native bukan hanya “punya backup,” tapi punya strategi backup cerdas dan tangguh yang bisa beradaptasi dengan skala dan risiko. Ciri-cirinya antara lain: Penemuan resource baru otomatis. Perlindungan berbasis kebijakan sesuai tipe dan tingkat kritikal data. Backup immutable dengan retensi yang terkunci waktu. Pemulihan berbasis pencarian, bukan full restore. Tiering penyimpanan yang sadar biaya, plus deduplikasi data. Eon membantu pengguna Google Cloud mencapai level ini lebih cepat, tanpa beban skrip kustom atau update kebijakan yang melelahkan. Siap Sederhanakan Backup Anda? Kalau tim Anda masih menghabiskan waktu mengelola skrip, tiering storage, atau backup tags di berbagai lingkungan cloud, mungkin saatnya ubah pendekatan. Eon hadir untuk membuat backup cloud lebih resilien, otomatis, dan benar-benar bermanfaat. Dari perlindungan ransomware, recovery objek instan, hingga akses analitik tanpa ETL—semua bisa dicapai dengan satu platform. 👉 Ingin tahu lebih jauh? Book demo dengan tim Eon untuk melihat bagaimana strategi backup Google Cloud Anda bisa dimodernisasi. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
August 26, 2025

Bagaimana Anuttacon Menskalakan Beban Kerja Game Berbasis AI untuk “Whispers from the Star”

Industri game saat ini sedang berkembang pesat, terutama dengan hadirnya pengalaman interaktif berbasis AI yang menjadi standar baru. Anuttacon, sebuah laboratorium riset independen, punya misi membangun humanistic general intelligence—AI multimodal yang bisa memahami emosi dan berkomunikasi secara ekspresif melalui teks, suara, maupun visual. Saat bersiap meluncurkan game baru mereka, “Whispers from the Star”, Anuttacon menghadapi tantangan besar: lonjakan trafik yang tidak terduga, kebutuhan performa tinggi lintas berbagai wilayah Amazon Web Services (AWS), serta keterbatasan kapasitas GPU. Artikel ini membahas bagaimana Anuttacon merancang arsitektur cloud yang dapat diskalakan secara fleksibel menggunakan layanan AWS. Solusi ini sangat relevan untuk perusahaan game lain yang menghadapi masalah serupa. Tantangan: di luar skema scaling tradisional Pendekatan tradisional tidak cukup untuk menangani kebutuhan unik game modern berbasis AI. Whispers from the Star menghadapi tiga tantangan besar: Pola trafik dinamis Saat peluncuran, trafik melonjak hingga 10–50 kali lipat dari normal. Menyediakan server cadangan sebanyak itu sejak awal akan sangat mahal. Selain itu, pola penggunaan pemain berbeda-beda sepanjang hari, membuat alokasi kapasitas statis jadi boros. Keterbatasan sumber daya GPU Fitur berbasis AI butuh GPU, yang ketersediaannya bervariasi di tiap Region AWS. Tim butuh cara untuk menambah kapasitas hanya dalam hitungan menit saat trafik melonjak, sekaligus menghindari kelebihan sumber daya saat sepi. Kebutuhan teknis performa konsisten Pemain di seluruh dunia harus merasakan pengalaman yang mulus tanpa jeda, meski infrastruktur di tiap wilayah berbeda. Solusi: Arsitektur Multi-Region Stateless Anuttacon menerapkan arsitektur multi-Region dengan layanan stateless agar bisa fleksibel berpindah antar-Region tanpa hambatan. Komponen utama layanan game Game ini dibangun dengan tiga komponen: Core Game Service Mengelola login, pembayaran, dan progres game. Bagian ini bersifat stateful karena menyimpan data pemain. Renderer Service Mengolah grafis dan visual. Dibuat stateless sehingga bisa berjalan di server mana pun tanpa perlu konfigurasi khusus. Inference Service Menjalankan model AI untuk respons cerdas dalam game. Juga dibuat stateless agar mudah dipindahkan antar-Region. Desain stateless memungkinkan layanan dipindahkan ke cluster Amazon EKS di Region mana pun jika kapasitas di suatu Region penuh. Komponen arsitektur pendukung Regional EKS Clusters Tiap Region AWS memiliki cluster EKS independen yang bisa menyesuaikan kapasitas berdasarkan permintaan lokal. Dengan Karpenter, node GPU bisa otomatis dipilih dan dijalankan dalam hitungan menit. Gateway Service Menjadi “penjaga pintu” yang membagi trafik ke Region yang sehat dan punya kapasitas cukup. Jika ada Region bermasalah, gateway segera mengalihkan trafik ke Region lain. Global Manager Mengatur kapasitas lintas Region dan Availability Zone (AZ). Ia memastikan distribusi beban merata dan membuat keputusan scaling yang lebih presisi. Mengatasi Masalah Cold Start pada Inference Salah satu tantangan besar ada di inference service. Model AI biasanya berukuran ratusan gigabyte. Saat server baru diluncurkan, butuh waktu lama (20–30 menit) untuk mengunduh dan memuat model sebelum bisa melayani pemain. Anuttacon menyiasati hal ini dengan pendekatan berlapis: Custom Bottlerocket AMI: Container sudah dipaketkan dalam image, jadi tidak perlu mengunduh lagi dari ECR saat server baru jalan. Amazon EBS Provisioned Rate Initialization: Mempercepat inisialisasi volume EBS, sehingga kontainer siap digunakan dalam hitungan menit. Amazon EFS: Menyimpan model AI besar agar bisa dibaca cepat oleh banyak server sekaligus. Dengan kombinasi ini, waktu cold start bisa dipangkas dari 20–30 menit menjadi kurang dari 7 menit—krusial saat trafik tiba-tiba melonjak. Praktik Terbaik untuk Cross-Region Scaling Selain desain arsitektur, Anuttacon menerapkan sejumlah praktik yang terbukti efektif: Multi-Region Deployment: Menyebarkan beban kerja ke banyak Region untuk toleransi gangguan dan ketersediaan kapasitas. Diversifikasi Instance Families: Memanfaatkan berbagai tipe EC2 agar tidak bergantung pada satu jenis GPU saja. Warm Pool Buffer: Menyediakan instance “siaga” yang sudah setengah jalan sehingga bisa melayani lebih cepat saat lonjakan. Retry & Backpressure: Otomatis mencoba ulang jika provisioning gagal, dan mengelola antrian trafik agar sistem tidak tumbang saat beban melonjak. Pelajaran Penting dari Arsitektur Ini Ada beberapa prinsip yang bisa ditarik untuk membangun infrastruktur game modern: Desain Stateless Membuat layanan stateless memungkinkan scaling cepat dan fleksibel tanpa repot migrasi data. Optimisasi Penyimpanan Model AI Dengan memuat kontainer dan model AI lebih awal melalui AMI, EBS, dan EFS, masalah cold start bisa ditekan drastis. Balancing Multi-Region Distribusi trafik berbasis kapasitas nyata memastikan pengalaman pemain tetap mulus di mana pun mereka berada. Kesimpulan Keberhasilan Anuttacon dengan “Whispers from the Star” menunjukkan bahwa desain arsitektur yang matang bisa mengatasi tantangan unik game modern berbasis AI. Dengan pendekatan stateless multi-Region dan optimisasi AWS (seperti EBS Provisioned Rate Initialization), mereka mampu: Meningkatkan skalabilitas, Mengontrol biaya, Memberikan pengalaman bermain yang konsisten dan lancar. Bagi industri game yang semakin bergerak ke arah AI-enhanced gaming dan basis pemain global, pola arsitektur ini bisa menjadi blueprint terbukti untuk mengelola lonjakan trafik dan keterbatasan GPU. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
August 11, 2025

Pola Pikir “Recovery-First” – Dari Opsional Menjadi Wajib: Mengapa Cyber Resiliency Tidak Bisa Ditawar

Di tengah ancaman siber yang terus berkembang, fokus pada keamanan siber menjadi lebih penting dari sebelumnya. Serangan seperti ransomware, ancaman dari orang dalam (insider threats), dan serangan berkelanjutan (advanced persistent threats) terus meningkat setiap tahun. Karena itu, perusahaan harus beralih dari pola pikir reaktif menjadi proaktif, dengan menempatkan recovery-first (pemulihan sebagai prioritas utama) di garis depan strategi mereka. Pendekatan ini menekankan pemulihan cepat dan kelanjutan operasional bisnis tanpa gangguan — hal yang sangat penting untuk membangun cyber resiliency. Mengintegrasikan teknologi canggih membantu perusahaan mengoptimalkan strategi perlindungan dan pemulihan data generasi berikutnya, sekaligus selalu selangkah di depan ancaman. Mengapa Pemulihan Siber Itu Penting Model perlindungan data tradisional biasanya lebih fokus pada pencegahan, dengan asumsi bahwa pelanggaran bisa sepenuhnya dicegah. Padahal, kenyataannya, bahkan sistem pertahanan terbaik pun bisa ditembus. Rata-rata, sebuah perusahaan menghadapi lebih dari 1.250 serangan setiap minggu. Kunci bertahan hidup ada pada seberapa cepat dan efisien organisasi dapat pulih. Pola pikir recovery-first menempatkan pemulihan di pusat strategi keamanan siber, sehingga bisa mengurangi dampak operasional dan finansial. Pendekatan ini selaras dengan kerangka kerja seperti NIST Cybersecurity Framework 2.0, yang menempatkan pemulihan sebagai komponen penting dari resiliency. Dengan memprioritaskan pemulihan, perusahaan dapat meminimalkan downtime, menjaga reputasi, dan mempertahankan kepercayaan pemangku kepentingan. Peran Cyber Resiliency dalam Tren Perlindungan Data Menjelang 2025, tren penyimpanan data menyoroti pentingnya cyber storage resiliency dan cyber storage recovery. Strategi yang banyak digunakan antara lain: Penyimpanan immutable (tidak bisa diubah/dihapus) Lingkungan forensik terisolasi (fenced forensic environments) Target waktu pemulihan (RTO) yang terjamin Verifikasi data otomatis Analitik berbasis AI Tujuannya adalah memastikan ketahanan data dan pemulihan yang cepat, tanpa mengorbankan kinerja maupun skalabilitas. Teknologi Canggih untuk Mendukung Cyber Resiliency Kemampuan pengindeksan dan pengelolaan data yang canggih sangat berperan. Teknologi ini membantu organisasi mengenali dan memulihkan data penting lebih cepat, sekaligus mengoptimalkan proses backup. Manfaat utama: Identifikasi & Prioritas Data Penting → Data bernilai tinggi dipulihkan terlebih dahulu untuk mengurangi gangguan bisnis. Pemulihan Lebih Cepat dari Ransomware/Malware → Analitik canggih dapat mengisolasi file yang terinfeksi dan memulihkan data bersih. Optimalisasi Strategi Backup & Arsip → Mengurangi biaya penyimpanan tanpa kehilangan aksesibilitas. 4 Elemen Kunci Recovery-First Penyimpanan Immutable – Data tidak bisa dihapus/diubah oleh pihak yang tidak berwenang, tanpa celah (backdoor) untuk penghapusan. AI & Machine Learning – Prediksi ancaman dan deteksi anomali sebelum berkembang menjadi masalah besar. Otomasi/Orkestrasi – Mempercepat proses pemulihan dan mengurangi kesalahan manusia. Skalabilitas – Solusi yang tumbuh mengikuti kebutuhan organisasi tanpa menurunkan kinerja, serta terintegrasi ke ekosistem keamanan yang lebih luas. Dengan menerapkan strategi ini, perusahaan dapat bersikap proaktif dan memiliki kekuatan cyber resiliency yang tangguh tanpa mengorbankan efisiensi operasional. Tujuannya jelas: memastikan sistem siap pulih dari gangguan dengan cepat dan efektif. Menghadapi ancaman siber saat ini, mengadopsi pola pikir recovery-first bukan lagi pilihan — ini adalah kebutuhan mutlak untuk menjaga integritas data, kelangsungan bisnis, dan kepercayaan pelanggan. Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
August 11, 2025August 11, 2025

Hari Backup Dunia 2025: Lindungi Data Perusahaan dengan Backup Generasi Terbaru yang Aman dari Serangan Siber

Bagi perusahaan, membangun cyber resilience (ketahanan terhadap serangan siber) pada penyimpanan sekunder sangat penting untuk melindungi salinan backup data. Peringatan World Backup Day 2025 menjadi momen tepat untuk mengingatkan kita akan pentingnya mencadangkan dan melindungi data. Bagi pemimpin keamanan siber seperti CISO, langkah ini wajib dilakukan — idealnya sebagai bagian dari kerangka perlindungan data generasi terbaru. Backup generasi baru tidak hanya sekadar backup, restore, dan disaster recovery biasa. Menyimpan data di tempat yang benar-benar aman secara siber berbeda dengan sekadar memindahkan data ke repositori online. Backup tradisional sering menjadi target empuk serangan siber. Backup tradisional biasanya dirancang untuk mempercepat proses penyimpanan (ingest) data menggunakan teknik inline deduplication, tetapi kelemahannya adalah proses pemulihan yang lambat. Saat ini, dengan ransomware, malware, dan serangan lain yang menargetkan penyimpanan sekunder, perusahaan butuh storage yang tahan serangan (cyber resilient) dengan kemampuan deteksi dan pemulihan cepat hampir seketika. Perusahaan harus punya strategi cyber-focused, recovery-first — fokus pada pemulihan, dengan deteksi cepat, dan pemulihan instan jika terjadi serangan. Sebelum menentukan langkah, tanyakan pada diri sendiri: Data apa saja yang harus dipulihkan? Di mana data itu disimpan? Bagaimana cara melindunginya saat ini? Seberapa cepat harus dipulihkan? Berapa kerugian yang akan dialami setiap menit/jam jika data penting belum dipulihkan? Apakah tujuan pemulihan (business recovery objectives) sudah menjadi bagian dari strategi siber perusahaan? Seberapa besar risiko yang siap ditanggung? Tanpa backup yang aman secara siber, risiko akan jauh lebih tinggi. Ransomware dapat merusak atau menghapus salinan backup, membuat bisnis kehilangan pelanggan, berhenti beroperasi, bahkan merusak reputasi selamanya. Solusi dari Infinidat InfiniBox® dan InfiniGuard® dilengkapi teknologi InfiniSafe® yang membuat pemulihan data hampir instan. InfiniGuard: perangkat backup khusus dengan kinerja cepat, skala besar, dan kompatibel dengan backup software populer (Commvault, Veritas, Veeam, IBM Protect, dll.). InfiniBox: penyimpanan utama dengan ketersediaan 100% dan performa tinggi berkat arsitektur triple-active redundant. Keduanya dirancang untuk memudahkan backup, pemulihan cepat, dan analisis forensik. Fitur Keamanan Utama: Immutable snapshots (salinan yang tidak bisa diubah atau dihapus) Air-gapping logis dan jarak jauh (memisahkan data dari jaringan utama) Lingkungan forensik tertutup untuk investigasi Pemulihan instan (1 menit atau kurang untuk InfiniBox, 20 menit atau kurang untuk InfiniGuard, tanpa memandang ukuran data) Bahkan dalam demo, InfiniBox memulihkan 2PB data hanya dalam 4 detik, dan InfiniGuard memulihkan repository 25,5PB dalam 13 menit. Fitur Lanjutan InfiniSafe Automated Cyber Protection (ACP): memantau dan memicu pembuatan immutable snapshot otomatis saat ada indikasi serangan (terintegrasi dengan SIEM, SOAR, SOC, dll.). InfiniSafe Cyber Detection: menggunakan AI & ML untuk mendeteksi kerusakan atau tanda serangan dengan akurasi hingga 99,99%, dan menemukan salinan terakhir yang aman untuk dipulihkan. Dengan fitur ini, Anda bisa tahu kondisi pasti data, menemukan backup yang sehat terakhir, dan memulihkannya dalam sekali klik. Kesimpulan: Jika cara backup data perusahaan Anda sekarang masih konvensional, bisa jadi itu titik lemah. World Backup Day 2025 adalah pengingat bahwa sudah saatnya beralih ke cyber secure backup generasi terbaru. Untuk informasi lebih lanjut atau demo, hubungi Infinidat atau partner resmi, atau kunjungi booth Infinidat di RSA 2025, Moscone Center, San Francisco (28 April – 1 Mei 2025). Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
July 22, 2025July 22, 2025

Relokasi Bucket Cloud Storage: Fitur Pertama di Industri untuk Migrasi Tanpa Gangguan

Seiring berkembangnya kebutuhan operasional, kadang Anda perlu memindahkan data dari bucket Cloud Storage milik Google ke lokasi baru. Tujuannya bisa untuk meningkatkan ketahanan sistem, mengoptimalkan performa, memenuhi regulasi, atau sekadar menata ulang infrastruktur. Namun, proses ini biasanya rumit, berisiko, dan bisa menyebabkan downtime atau bahkan kehilangan data. Akibatnya, banyak organisasi enggan melakukan perubahan penting ini. Nah, kini Google Cloud memperkenalkan fitur relokasi bucket, sebuah terobosan yang memudahkan Anda memindahkan bucket ke lokasi baru tanpa ribet. Fitur ini menghilangkan kebutuhan skrip manual yang kompleks dan meminimalisir downtime serta gangguan ke aplikasi. Nama bucket dan semua metadata objek tetap sama, jadi tidak ada perubahan path dan aplikasi Anda bisa terus berjalan normal. Bahkan, kelas penyimpanan objek (seperti Standard, Nearline, Coldline, Archive) dan waktu penyimpanannya tetap utuh setelah dipindah. Ini penting untuk efisiensi biaya dan memastikan fitur seperti Autoclass tetap berfungsi dengan baik. Apa Itu Bucket Relocation? Bucket relocation adalah bagian dari Storage Intelligence, sebuah rangkaian fitur canggih Google Cloud. Di dalamnya juga ada Storage Insights yang memberikan analisis dan saran untuk optimasi penyimpanan. Setelah mendapat insight, Anda bisa langsung bertindak dengan memindahkan bucket ke lokasi regional, dual-region, atau multi-region — sesuai kebutuhan bisnis, performa, atau kepatuhan. Bagaimana Cara Kerjanya? Fitur ini bekerja dengan dua teknik utama: 1. Asynchronous Data Copy (Salin Data Secara Asinkron) Data disalin di latar belakang tanpa mengganggu aktivitas di bucket. Anda tetap bisa membaca, menulis, dan memperbarui data selama proses berlangsung. 2. Metadata Tetap Terjaga Tidak seperti metode lama (misalnya Storage Transfer Service) yang hanya menyalin objek lalu menghapusnya, bucket relocation memindahkan semua metadata juga, seperti: Kelas penyimpanan: Tetap sama, tidak berubah. Nama bucket dan objek: Tidak berubah. Timestamp pembuatan dan pembaruan: Tetap utuh agar aturan lifecycle management tetap berfungsi. ACL & IAM: Pengaturan izin juga ikut dipindahkan. Metadata buatan pengguna: Ikut dibawa seluruhnya. Karena nama bucket tidak berubah, aplikasi Anda tidak perlu disesuaikan setelah migrasi. Cara Relokasi Bucket: 3 Langkah Mudah Langkah 1: Simulasi dengan Dry Run Lakukan percobaan dulu tanpa benar-benar memindahkan data, untuk mengecek potensi masalah (misalnya, bucket dengan CMEK, data yang dikunci, dsb). gcloud storage buckets relocate gs://BUCKET_NAME –location=LOCATION –dry-run Ganti BUCKET_NAME dengan nama bucket Anda, dan LOCATION dengan lokasi tujuan. Langkah 2: Mulai Relokasi Hapus flag –dry-run untuk mulai proses pemindahan sebenarnya. Anda masih bisa membaca dan menulis objek, tapi metadata bucket akan dikunci agar tidak berubah selama migrasi. gcloud storage buckets relocate gs://BUCKET_NAME –location=LOCATION Langkah 3: Finalisasi Setelah proses hampir selesai (~99%), jalankan finalisasi. Pada tahap ini, semua perubahan terakhir disalin ke lokasi baru, lalu sistem akan secara otomatis mengarahkan semua permintaan ke bucket baru. Catatan: Saat finalisasi berlangsung, proses write ke bucket akan diblokir sebentar (akan menghasilkan error HTTP 412). Untuk relokasi dari multi-region ke dual-region dalam region yang sama, tidak perlu finalisasi manual. gcloud storage buckets relocate –finalize –operation=projects/_/buckets/BUCKET_NAME/operations/OPERATION_ID Ganti OPERATION_ID dengan ID dari hasil perintah sebelumnya di langkah 2. Apa Kata Pengguna Awal? “Dengan Storage Intelligence dan bucket relocation, kami pindah ke dual-region tanpa gangguan. Prosesnya mulus, downtime minim, dan data tetap aman.” — Adam Steele, Product Manager, Spotify “Kami sukses memigrasi sekitar 300 bucket dan petabyte data dari multi-region ke regional, demi efisiensi biaya jaringan. Tanpa bucket relocation, ini akan memakan waktu dan banyak skrip otomatis.” — Deepak Mahato, Data Platform Infrastructure Manager, GroupOn Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan storage indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman. Hubungi kami sekarang atau kunjungi storage.ilogoindonesia.id untuk informasi lebih lanjut!

Read More
  • 1
  • 2
  • 3
  • 4
  • …
  • 6
  • Next

Recent Posts

  • Cloud Native Identity dengan Azure Files: Akses Aman Berbasis Entra untuk Perusahaan Modern
  • Dell Storage Engines: Mempercepat AI Inferencing dengan PowerScale dan ObjectScale
  • Menembus Batas AI dengan Data
  • Membawa AI Perusahaan dari Uji Coba ke Produksi dengan Percaya Diri
  • Pure Storage Dukung vSphere Virtual Volumes Generasi Terbaru dengan VMware Cloud Foundation 9

Categories

  • Blog
  • Uncategorized

Popular Tags

AI Azure backup botnet cara storage sehat Centralized Discovery Controller cloud Das data data storage DeepSeek Dell Technologies HDD infinidat jaringan IT koneksi jaringan NAS netapp netapp NAS netapp San NVMe NVMe/TCP NVMe IP SAN penyimpanan pure storage Qnap ransomware San serangan siber server server kantor SFSS softwatre synology storage storage AWS Storage Indonesia storage microsoft storage net app Surveillance Station synology Synology Cameras synology dsm 7.2 Synology NAS Veeam VM Ware
December 2025
M T W T F S S
1234567
891011121314
15161718192021
22232425262728
293031  
« Nov    

Archives

  • December 2025
  • November 2025
  • October 2025
  • September 2025
  • August 2025
  • July 2025
  • June 2025
  • May 2025
  • April 2025
  • March 2025
  • February 2025
  • January 2025
  • December 2024
  • November 2024
  • August 2024
  • July 2024
  • May 2024
  • April 2024
  • October 2023
  • August 2023
  • March 2023
  • February 2023
  • January 2023
  • December 2022
  • November 2022
  • October 2022
  • August 2022
  • July 2022
  • February 2022
  • November 2021
  • September 2021
  • June 2021
  • March 2021
  • December 2020

Meta

  • Log in
  • Entries feed
  • Comments feed
  • WordPress.org

Tentang Kami

qStorage menyediakan berbagai macam produk storage original dengan harga sesuai kebutuhan dari berbagai Brand ternama seperti: Asus, Dell, NetApp, Synology, Qnap, Lenovo dan lain sebagainya. 

Kontak Kami

PT iLogo Indonesia

Sales & Marketing

  • Jl. Kebon Jeruk Raya
  • Villa Kebon Jeruk Office F1
    Jakarta, 11530 – Indonesia

8:30 – 17:00 (Mon – Fri)
 (+62) 21 53660861
[email protected]

Support Center
  • Jl. Panjang no. 5,
  • AKR Tower – 9th Floor
    Jakarta Barat 11530