“AA, kemarin kan aku testing bikin ceph cluster di single machine ngikutin tutorial yang ini “Panduan Setup Ceph Cluster di Single Node“. Nah abis itu, aku kepikiran gini. Kira-kira bisa ngga ya kalo diterapin di Proxmox yang hanya 1 mesin. Karena saat ini aku cuma punya 1 mesin Proxmox aja. Tapi pengen coba juga testing Ceph cluster di Proxmox. Pas dicoba, eh ternyata bisa dan sukses” kata si Dia
“Wow, mangstabs. Bisa ketrigger buat bikin di Proxmox. Tapi buat apa juga install ceph cluster di 1 mesin Proxmox? ngapain?” kataku menimpali
“Iiiiih AA mah. Kan bisa aja buat testing-testing, AA. Misalnya nih AA pengen nyobain fitur Ceph RBD Mirroring di Proxmox. Kalo sesuai kaidah mah kan harus 2 cluster yang beda. 1 cluster minimum 3 host. Kalo 2 cluster, jadinya minimum 6 host. Belum lagi disknya minimum masing-masing 2 disk per host. Meskipun bisa diakalin pakai partisi sih.”
“Wah bener juga ya”
“Nih AA. Kalo pake single node, AA cuma cukup 2 host Proxmox aja. Harddisknya tapi dibanyakin tiap host. Idealnya 4 disk per host. 1 disk buat OS, 3 disk minimum buat OSD. Meskipun ya tadi. Bisa pakai partisi buat OSD kalo disknya 1 atau terbatas. Kalo cuma punya 1 disk buat OS sama OSD, bisa diatur partisinya pas install Proxmoxnya. Ikuti aja panduan ini: Mengatur dan Mengoptimalkan Kapasitas Harddisk Saat Instalasi Proxmox VE”
“Menarik-menarik. Terus gimana caranya konfigurasi Ceph cluster di 1 mesin Proxmox?”
“Gini nih caranya AA”
# Install dan konfigurasi Ceph
Pilih Datacenter | PVE Host | Ceph | Install/Configure Ceph. Untuk versi Ceph, bisa gunakan versi reef atau versi squid (terbaru). Next lalu Finish
# Add OSD
Pilih Datacenter | PVE Host | Ceph | OSD | Create: OSD
Pilih disk satu per satu untuk membuat OSD hingga terkonfigurasi semuanya
# Monitor Ceph
Abis bikin OSD, coba cek status Ceph-nya
Pilih Datacenter | PVE Host | Ceph. Akan kelihatan status Ceph dalam keadaan HEALTH_WARN
# Reconfigure crush map
Dari CLI, lakukan proses berikut agar Ceph dapat digunakan pada single cluster
Ekstrak crush map:
ceph osd getcrushmap -o crushmap.cm
Decompile crushmap untuk memudahkan modifikasi
crushtool --decompile crushmap.cm -o crushmap.txt
Modifikasi crush map pada file crushmap.txt dan ganti tulisan host menjadi osd pada bagian rules
# rules rule replicated_rule { id 0 type replicated step take default step chooseleaf firstn 0 type osd # <- bagian ini yang diganti step emit } # end crush map
Recompile crush map:
crushtool --compile crushmap.txt -o new_crushmap.cm
Update Ceph cluster dengan crush map baru :
ceph osd setcrushmap -i new_crushmap.cm
Coba cek kembali status CEPH via dashboard atau via CLI
ceph -s
root@pve1:~# ceph -s cluster: id: c638916b-9ad8-4739-bebe-c9037f31eb26 health: HEALTH_OK
Sekarang statusnya sudah jadi HEALTH_OK
Langkah berikutnya membuat pool untuk digunakan VM sebagai tempat penyimpanan disknya
# Add Pool
Pilih Datacenter | PVE Host | Ceph | Pools | Create
# Menempatkan VM pada RBD Pool
Ketika membuat VM, pilih RBD Pool yang sudah dibuat di atas
“Gitu kira-kira prosesnya AA”
“Waah. Mangstabs-mangstabs. Makasih ya. Nanti AA coba”
“Sama-sama AA 😊. Semoga membantu. Jangan malas buat upgrade knowledge dan skill-nya ya”
Silakan dicoba dan semoga bermanfaat 🙂
Source: https://www.redhat.com/en/blog/ceph-cluster-single-machine