Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 17.0

Assalamualaikum…

Pada postingan kali ini, kita masuk ke lab membuat dan menjalankan sebuah instance atau vm di openstack, di part ini saya tidak menggunakan dashboard untuk membuat vm, melainkan menggunakan cli di node controller, untuk part sebelumnya silakan cek link dibawah ini.

Part Sebelumnya:

Oke untuk itu kita langsung saja lanjut nge-lab nya, sekarang kita sudah sampai hingga lab 63 dengan pembahasan instalasi instance.

LAB 63 – Menjalankan Instance di Public Network – Node Controller

Lakukan langkah-langkah dibawah ini pada node controller, kita akan mencoba menjalankan sebuah instance pada lab kali ini, sebelum itu kita akan mengkonfigurasi kebutuhan flavor, nama image, network, security group, key, dan nama instance.

petama kita load admin-openrc.sh

$ source admin-openrc.sh

kemudian kita check flavor nya

$ nova flavor-list

kita akan menggunakan m1.tiny untuk instance-nya, jadi m1.tiny ini adalah spesifikasi untuk instance-nya, untuk m1.tiny prosessor hanya 1core, 1GB RAM, 1GBStorage. ini bisa kita konfigurasi sesuai kemauan kita.
setelah kita sudah check flavor-nya, sekarang kita check image yang tersedia

$ nova image-list

kita akan menggunakan image cirros
lalu check juga network-nya

$ neutron net-list

setelah itu kita check list security groups nya

$ nova secgroup-list

sekarang kita buat instance-nya

$ nova boot –flavor m1.tiny –image cirros –nic net-id=PUBLIC_NET_ID \
  –security-group default –key-name vschoolkey vschool-instance

> ganti PUBLIC_NET_ID dengan ID dari public network
> ganti juga vschoolkey dengan keypair yang anda buat
setelah itu check status instance-nya

$ nova list

maka kalian akan melihat status nya berubah jadi ACTIVE dari BUILD. itu menandakan bahwa prosess-nya behasil

kemudian kita akan mengakses instance-nya menggunakan virtual console, disini kita mengunakan VNC (Virtual Network Computing), silahkan ikuti perintah berikut

pertama kita minta sesi VNC untuk instance yang dipublic dulu
$ nova get-vnc-console public-instance novnc


lalu kita copy-kan url nya, dan buka di web browser.

setelah itu kita masukan username dan password instance yang sudah dibuat
login dengan username cirros dan password nya cubswin;)
kemudian lakukan ping untuk mengetahui jika instance sudah terhubung internet

$ ping 192.168.55.1

sekarang kita akan meremote instance yang ada di public network
pertama kita verifikasi koneksi dari node controller ke instance.

$ ping -c 4 192.168.55.100

lalu kita akses instance tersebut dengan menggunakan SSH dari node controller

$ ssh cirros@192.168.55.100

LAB 64 – Menjalankan Instance di Private Network – Node Controller

Lakukan langkah-langkah dibawah ini pada node controller, kita akan mencoba menjalankan sebuah instance pada lab kali ini, sebelum itu kita akan mengkonfigurasi kebutuhan flavor, nama image, network, security group, key, dan nama instance.

pertama kita load demo-openrc.sh

$ source demo-openrc.sh 

lalu kita litah list flavor-nya

$ nova flavor-list

kita akan menggunakan m1.tiny untuk instance-nya, jadi m1.tiny ini adalah spesifikasi untuk instance-nya, untuk m1.tiny prosessor hanya 1core, 2GB RAM, 30GBStorage.
setelah kita sudah check flavor-nya, sekarang kita check image yang tersedia

$ nova image-list

kita akan menggunakan image cirros
lalu check juga network-nya

$ neutron net-list

setelah itu kita check list security groups nya

$ nova secgroup-list

sekarang kita buat instance-nya

$ nova boot –flavor m1.tiny –image cirros –nic net-id=PRIVATE_NET_ID \  –security-group default –key-name mykey private-instance

> ganti PRIVATE_NET_ID dengan ID dari private network
> ganti vschoolkey dengan keypair yang dibuat tadi
setelah itu check status instance-nya

$ nova list

maka kalian akan melihat status nya berubah jadi ACTIVE dari BUILD. itu menandakan bahwa prosess-nya behasil

kemudian kita akan mengakses instance-nya menggunakan virtual console, disini kita mengunakan VNC (Virtual Network Computing), silahkan ikuti perintah berikut
pertama kita minta sesi VNC untuk instance yang dipublic dulu

$ nova get-vnc-console private-instance novnc

lalu kita copy-kan url nya, dan buka di web browser.

setelah itu kita masukan username dan password instance yang sudah dibuat
login dengan username cirros dan password nya cubswin;)
kemudian lakukan ping untuk mengetahui jika instance sudah terhubung internet

$ ping 192.168.55.1

sekarang kita akan meremote instance yang ada di private network,
pertama kita buat floating IP address terlebih dahulu. berikut perintahnya

$ neutron floatingip-create public

kemudian kita tambahkan floating IP tersebuh kedalam instance yang ada di private network

$ nova floating-ip-associate private-instance 192.168.55.167

192.168.55.167 adalah ip public
setelah itu kita check status penambahan floating IP-nya telah berhasil

$ nova list

lalu kita verifikasi koneksi dari node controller ke instance.

$ ping -c 4 192.168.55.167

lalu kita akses instance tersebut dengan menggunakan SSH dari node controller

$ ssh cirros@192.168.55.167

pada part kali ini cukup sampai di membuat instace pada public network dan private network. kita lanjut di part selanjutnya tentang cara memasukan cinder atau block storage ke dalam instance yang sudah jadi.

Nun walqalami wama yasthurun
Wassalamualaikum…

Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 17.0

Assalamualaikum…

Pada postingan kali ini, kita masuk ke lab membuat dan menjalankan sebuah instance atau vm di openstack, di part ini saya tidak menggunakan dashboard untuk membuat vm, melainkan menggunakan cli di node controller, untuk part sebelumnya silakan cek link dibawah ini.

Part Sebelumnya:

Oke untuk itu kita langsung saja lanjut nge-lab nya, sekarang kita sudah sampai hingga lab 63 dengan pembahasan instalasi instance.

LAB 63 – Menjalankan Instance di Public Network – Node Controller

Lakukan langkah-langkah dibawah ini pada node controller, kita akan mencoba menjalankan sebuah instance pada lab kali ini, sebelum itu kita akan mengkonfigurasi kebutuhan flavor, nama image, network, security group, key, dan nama instance.

petama kita load admin-openrc.sh

$ source admin-openrc.sh

kemudian kita check flavor nya

$ nova flavor-list

kita akan menggunakan m1.tiny untuk instance-nya, jadi m1.tiny ini adalah spesifikasi untuk instance-nya, untuk m1.tiny prosessor hanya 1core, 1GB RAM, 1GBStorage. ini bisa kita konfigurasi sesuai kemauan kita.
setelah kita sudah check flavor-nya, sekarang kita check image yang tersedia

$ nova image-list

kita akan menggunakan image cirros
lalu check juga network-nya

$ neutron net-list

setelah itu kita check list security groups nya

$ nova secgroup-list

sekarang kita buat instance-nya

$ nova boot –flavor m1.tiny –image cirros –nic net-id=PUBLIC_NET_ID \
  –security-group default –key-name vschoolkey vschool-instance

> ganti PUBLIC_NET_ID dengan ID dari public network
> ganti juga vschoolkey dengan keypair yang anda buat
setelah itu check status instance-nya

$ nova list

maka kalian akan melihat status nya berubah jadi ACTIVE dari BUILD. itu menandakan bahwa prosess-nya behasil

kemudian kita akan mengakses instance-nya menggunakan virtual console, disini kita mengunakan VNC (Virtual Network Computing), silahkan ikuti perintah berikut

pertama kita minta sesi VNC untuk instance yang dipublic dulu
$ nova get-vnc-console public-instance novnc


lalu kita copy-kan url nya, dan buka di web browser.

setelah itu kita masukan username dan password instance yang sudah dibuat
login dengan username cirros dan password nya cubswin;)
kemudian lakukan ping untuk mengetahui jika instance sudah terhubung internet

$ ping 192.168.55.1

sekarang kita akan meremote instance yang ada di public network
pertama kita verifikasi koneksi dari node controller ke instance.

$ ping -c 4 192.168.55.100

lalu kita akses instance tersebut dengan menggunakan SSH dari node controller

$ ssh cirros@192.168.55.100

LAB 64 – Menjalankan Instance di Private Network – Node Controller

Lakukan langkah-langkah dibawah ini pada node controller, kita akan mencoba menjalankan sebuah instance pada lab kali ini, sebelum itu kita akan mengkonfigurasi kebutuhan flavor, nama image, network, security group, key, dan nama instance.

pertama kita load demo-openrc.sh

$ source demo-openrc.sh 

lalu kita litah list flavor-nya

$ nova flavor-list

kita akan menggunakan m1.tiny untuk instance-nya, jadi m1.tiny ini adalah spesifikasi untuk instance-nya, untuk m1.tiny prosessor hanya 1core, 2GB RAM, 30GBStorage.
setelah kita sudah check flavor-nya, sekarang kita check image yang tersedia

$ nova image-list

kita akan menggunakan image cirros
lalu check juga network-nya

$ neutron net-list

setelah itu kita check list security groups nya

$ nova secgroup-list

sekarang kita buat instance-nya

$ nova boot –flavor m1.tiny –image cirros –nic net-id=PRIVATE_NET_ID \  –security-group default –key-name mykey private-instance

> ganti PRIVATE_NET_ID dengan ID dari private network
> ganti vschoolkey dengan keypair yang dibuat tadi
setelah itu check status instance-nya

$ nova list

maka kalian akan melihat status nya berubah jadi ACTIVE dari BUILD. itu menandakan bahwa prosess-nya behasil

kemudian kita akan mengakses instance-nya menggunakan virtual console, disini kita mengunakan VNC (Virtual Network Computing), silahkan ikuti perintah berikut
pertama kita minta sesi VNC untuk instance yang dipublic dulu

$ nova get-vnc-console private-instance novnc

lalu kita copy-kan url nya, dan buka di web browser.

setelah itu kita masukan username dan password instance yang sudah dibuat
login dengan username cirros dan password nya cubswin;)
kemudian lakukan ping untuk mengetahui jika instance sudah terhubung internet

$ ping 192.168.55.1

sekarang kita akan meremote instance yang ada di private network,
pertama kita buat floating IP address terlebih dahulu. berikut perintahnya

$ neutron floatingip-create public

kemudian kita tambahkan floating IP tersebuh kedalam instance yang ada di private network

$ nova floating-ip-associate private-instance 192.168.55.167

192.168.55.167 adalah ip public
setelah itu kita check status penambahan floating IP-nya telah berhasil

$ nova list

lalu kita verifikasi koneksi dari node controller ke instance.

$ ping -c 4 192.168.55.167

lalu kita akses instance tersebut dengan menggunakan SSH dari node controller

$ ssh cirros@192.168.55.167

pada part kali ini cukup sampai di membuat instace pada public network dan private network. kita lanjut di part selanjutnya tentang cara memasukan cinder atau block storage ke dalam instance yang sudah jadi.

Nun walqalami wama yasthurun
Wassalamualaikum…

Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 16.0

Assalamualaikum…

kita hampir mendekati akhir dari instalasi openstack ini. pada postingan kali ini saya akan memberikan tutorial untuk membuat VM di openstack. untuk part sebelumnya silakan cek link dibawah ini.

Part Sebelumnya:

pada lab sebelumnya kita sudah menyelesaikan instalasi ceilometer, sekarang kita akan belajar cara membuat instance atau virtual mechine.

Di postingan kali ini kita akan membuat Virtual Network, karena saat menginstall neutron kita menggunakan Opsi 2 – Self-Service Networks, lihat di Part 6.0 “Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 6.0” kita akan membuat Public dan Private Network

langsung saja kita lanjut nge-lab

LAB 59 – Membuat Public Network – Node Controller

petama kita membuat public network yang akan digunakan oleh Intance (Virtual Mechine) untuk memproleh IP Address secara DHCP.

Sebelum membuat networknya, load terlebih dahulu admin-openrc.sh

$ source admin-openrc.sh

lalu kita buat network-nya

$ neutron net-create public –shared –provider:physical_network public –provider:network_type flat

> –sharedberfungsi men-share network untuk digunakan oleh semua project.
> –provider:pysical_network public dan –provider:network_type flatdigunakan untuk menghubungkan flat virtual network dengan flat native public physical network pada eth1

lalu kita buat subnet pada network-nya yang tadi sudah dibuat

$ neutron subnet-create public PUBLIC_NETWORK_CIDR –name public \  –allocation-pool start=START_IP_ADDRESS,end=END_IP_ADDRESS \  –dns-nameserver DNS_RESOLVER –gateway PUBLIC_NETWORK_GATEWAY

PUBLIC_NETWORK_CIDR ganti dengan ip pada interface yang terhubung public
START_IP_ADDRESS dan END_IP_ADDRESS ganti dengan first dan last IP address dari range ip yang di inginkan untuk digunakan oleh intances.
> DNS_RESOLVER ganti dengan ip address dari DNS resolver
PUBLIC_NETWORK_GATEWAY ganti dengan ip gatway dari ip public
contohnya seperti dibawah

public network menggunakan 192.168.55.0/24 dengan gateway 192.168.55.1. Range ip yang akan digunakan oleh intances adalah dari 192.168.55.100 sampai 192.168.55.200. Dan semua intances menggunakan ip 8.8.8.8 sebagai DNS resolver.

LAB 60 – Membuat Private Project Network – Node Controller
jika memilih opsi 2, kita bisa membuat privare project virtual network untuk bisa terhubung dengan physical network infrastructure lewat layer-3 (routing) dan NAT. Network ini sudah termasuk DHCP server yang memberikan IP Address kepada intances.
Sebelum membuat networknya, load terlebih dahulu demo-openrc.sh

$ source demo-openrc.sh

lalu kita buat network-nya

$ neutron net-create private

lalu kita buat subnet pada network-nya yang tadi sudah dibuat

$ neutron subnet-create private PRIVATE_NETWORK_CIDR –name private \  –dns-nameserver DNS_RESOLVER –gateway PRIVATE_NETWORK_GATEWAY

PRIVATE_NETWORK_CIDR ganti dengan ip yang akan digunakan untuk private network
> DNS_RESOLVER ganti dengan ip address dari DNS resolves
> PRIVATE_NETWORK_GATEWAY ganti dengan ip gatway yang akan digunakan di private network

contohnya seperti dibawah ini

privarte network menggunakan 10.10.10.0/24 dengan gateway 10.10.10.1. Range ip yang akan digunakan oleh intances adalah dari 10.10.10.2 sampai 10.10.10.254. Dan semua intances menggunakan ip 8.8.8.8 sebagai DNS resolver.
LAB 60 – Membuat Vitrual Router – Node Controller
agar private network dapat terhubung dengan public network, kita menggunakan router virtual, interface pada router ini akan terhubung dengan network private namun, gateway yang dipakai adalah gatway dari network public, jadi kedua network ini dapat saling terhubung.
langsung saja kita konfigurasi network-nya
pertama kita load terlebih dahulu admin-openrc.sh

$ source admin-openrc.sh

lalu kita tambahkan vitual router external pada network public

$ neutron net-update public –router:external

setelah itu kita buat router-nya

$ neutron router-create router

kemudian kita tambahkan subnet private network pada interface di router

$ neutron router-interface-add router private

lalu kita set gateway public network pada router

$ neutron router-gateway-set router public

terakhir kita verifikasi di node controller
pertama kita lihat list network-nya terlebih dahulu

$ ip netns

lalu kita lihat port pada router yang tadi sudah dibuat

$ neutron router-port-list router

kemudian kita coba ping ke interface public physical network

$ ping -c 4 192.168.77.113

LAB 61 – Membuat Generate a Key Pair – Node Controller
kebanyakan cloud images mendukung public key authentication daripada conventional password authentication. sebelum menjalankan intances, kalian harus menambahkan public key ke nova
pertama load terlebih dahulu demo-openrc,sh

$ source demo-openrc.sh

kemudian kita generate dan tambahkan key pairnya

$ ssh-keygen -q -N “” 

$ nova keypair-add –pub-key ~/.ssh/id_rsa.pub mykey

lalu kita verifikasi key pair yang tadi sudah dibuat

$ nova keypair-list

LAB 62 – Menambahkan Aturan Security Group Default – Node Controller
secara default, security group mengizinkan semua intances termasuk aturan firewall yang menolak untuk meremote intances. untuk linux seperti cirros, disarankan untuk mengizinkan ICMP (ping) dan secure shell (SSH)
pertama kita izinkan ICMP kedalam aturan default-nya

$ nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0

kemudian izinkan akses SSH

$ nova secgroup-add-rule default tcp 22 22 0.0.0.0/0

oke kita akan lanjutkan di part selanjutnya, pada Part 17.0 kita akan menjalankan instance nya.
Nun walqalami wama yasthurun
Wassalamualaikum…

Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 16.0

Assalamualaikum…

kita hampir mendekati akhir dari instalasi openstack ini. pada postingan kali ini saya akan memberikan tutorial untuk membuat VM di openstack. untuk part sebelumnya silakan cek link dibawah ini.

Part Sebelumnya:

pada lab sebelumnya kita sudah menyelesaikan instalasi ceilometer, sekarang kita akan belajar cara membuat instance atau virtual mechine.

Di postingan kali ini kita akan membuat Virtual Network, karena saat menginstall neutron kita menggunakan Opsi 2 – Self-Service Networks, lihat di Part 6.0 “Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 6.0” kita akan membuat Public dan Private Network

langsung saja kita lanjut nge-lab

LAB 59 – Membuat Public Network – Node Controller

petama kita membuat public network yang akan digunakan oleh Intance (Virtual Mechine) untuk memproleh IP Address secara DHCP.

Sebelum membuat networknya, load terlebih dahulu admin-openrc.sh

$ source admin-openrc.sh

lalu kita buat network-nya

$ neutron net-create public –shared –provider:physical_network public –provider:network_type flat

> –sharedberfungsi men-share network untuk digunakan oleh semua project.
> –provider:pysical_network public dan –provider:network_type flatdigunakan untuk menghubungkan flat virtual network dengan flat native public physical network pada eth1

lalu kita buat subnet pada network-nya yang tadi sudah dibuat

$ neutron subnet-create public PUBLIC_NETWORK_CIDR –name public \  –allocation-pool start=START_IP_ADDRESS,end=END_IP_ADDRESS \  –dns-nameserver DNS_RESOLVER –gateway PUBLIC_NETWORK_GATEWAY

PUBLIC_NETWORK_CIDR ganti dengan ip pada interface yang terhubung public
START_IP_ADDRESS dan END_IP_ADDRESS ganti dengan first dan last IP address dari range ip yang di inginkan untuk digunakan oleh intances.
> DNS_RESOLVER ganti dengan ip address dari DNS resolver
PUBLIC_NETWORK_GATEWAY ganti dengan ip gatway dari ip public
contohnya seperti dibawah

public network menggunakan 192.168.55.0/24 dengan gateway 192.168.55.1. Range ip yang akan digunakan oleh intances adalah dari 192.168.55.100 sampai 192.168.55.200. Dan semua intances menggunakan ip 8.8.8.8 sebagai DNS resolver.

LAB 60 – Membuat Private Project Network – Node Controller
jika memilih opsi 2, kita bisa membuat privare project virtual network untuk bisa terhubung dengan physical network infrastructure lewat layer-3 (routing) dan NAT. Network ini sudah termasuk DHCP server yang memberikan IP Address kepada intances.
Sebelum membuat networknya, load terlebih dahulu demo-openrc.sh

$ source demo-openrc.sh

lalu kita buat network-nya

$ neutron net-create private

lalu kita buat subnet pada network-nya yang tadi sudah dibuat

$ neutron subnet-create private PRIVATE_NETWORK_CIDR –name private \  –dns-nameserver DNS_RESOLVER –gateway PRIVATE_NETWORK_GATEWAY

PRIVATE_NETWORK_CIDR ganti dengan ip yang akan digunakan untuk private network
> DNS_RESOLVER ganti dengan ip address dari DNS resolves
> PRIVATE_NETWORK_GATEWAY ganti dengan ip gatway yang akan digunakan di private network

contohnya seperti dibawah ini

privarte network menggunakan 10.10.10.0/24 dengan gateway 10.10.10.1. Range ip yang akan digunakan oleh intances adalah dari 10.10.10.2 sampai 10.10.10.254. Dan semua intances menggunakan ip 8.8.8.8 sebagai DNS resolver.
LAB 60 – Membuat Vitrual Router – Node Controller
agar private network dapat terhubung dengan public network, kita menggunakan router virtual, interface pada router ini akan terhubung dengan network private namun, gateway yang dipakai adalah gatway dari network public, jadi kedua network ini dapat saling terhubung.
langsung saja kita konfigurasi network-nya
pertama kita load terlebih dahulu admin-openrc.sh

$ source admin-openrc.sh

lalu kita tambahkan vitual router external pada network public

$ neutron net-update public –router:external

setelah itu kita buat router-nya

$ neutron router-create router

kemudian kita tambahkan subnet private network pada interface di router

$ neutron router-interface-add router private

lalu kita set gateway public network pada router

$ neutron router-gateway-set router public

terakhir kita verifikasi di node controller
pertama kita lihat list network-nya terlebih dahulu

$ ip netns

lalu kita lihat port pada router yang tadi sudah dibuat

$ neutron router-port-list router

kemudian kita coba ping ke interface public physical network

$ ping -c 4 192.168.77.113

LAB 61 – Membuat Generate a Key Pair – Node Controller
kebanyakan cloud images mendukung public key authentication daripada conventional password authentication. sebelum menjalankan intances, kalian harus menambahkan public key ke nova
pertama load terlebih dahulu demo-openrc,sh

$ source demo-openrc.sh

kemudian kita generate dan tambahkan key pairnya

$ ssh-keygen -q -N “” 

$ nova keypair-add –pub-key ~/.ssh/id_rsa.pub mykey

lalu kita verifikasi key pair yang tadi sudah dibuat

$ nova keypair-list

LAB 62 – Menambahkan Aturan Security Group Default – Node Controller
secara default, security group mengizinkan semua intances termasuk aturan firewall yang menolak untuk meremote intances. untuk linux seperti cirros, disarankan untuk mengizinkan ICMP (ping) dan secure shell (SSH)
pertama kita izinkan ICMP kedalam aturan default-nya

$ nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0

kemudian izinkan akses SSH

$ nova secgroup-add-rule default tcp 22 22 0.0.0.0/0

oke kita akan lanjutkan di part selanjutnya, pada Part 17.0 kita akan menjalankan instance nya.
Nun walqalami wama yasthurun
Wassalamualaikum…

Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 15.0


Assalamualaikum…

sekarang kita lanjut menginstall ceilometer di swift, untuk part sebelumnya silakan cek link dibawah ini.

Part Sebelumnya:

LAB 56 – Mengaktifkan Object Storage Meters – Node Controller

Ceilometer membutuhkan akses ke Swift dengan menggunkanan role ResellerAdmin. untuk itu berikut langkahnya untuk menambahkan role ResellerAdmin

pertama load admin.openrc.sh

$ source admin-openrc.sh

lalu buat role ResellerAdmin-nya

$ openstack role create ResellerAdmin

kemudian tambahkan role ResellerAdmin ke role user ceilometer

$ openstack role add –project service –user ceilometer ResellerAdmin

sekarang kita install package nya, lakukan instalasi berikut di node controller

# apt-get install python-ceilometermiddleware

LAB 57 – Konfigurasi Swift untuk menggunakan Ceilometer – Node Controller

lakukan instalasi berikut pada node controller

STEP 1 – Konfigurasi
pertama kita edit file /etc/swift/proxy-server.conf dan tambahkan konfigurasi berikut

[filter:keystoneauth]operator_roles = admin, user, ResellerAdmin 

 note: tambahkan ReselllerAdmin-nya

[pipeline:main]pipeline = catch_errors gatekeeper healthcheck proxy-logging cachecontainer_sync bulk ratelimit authtoken keystoneauth container-quotasaccount-quotas slo dlo versioned_writes proxy-logging ceilometerproxy-server 

note: pada [pipeline:main] ini hapus pipeline yang sebelumnya, dan ganti dengan konfigurasi pipeline diatas

[filter:ceilometer]paste.filter_factory = ceilometermiddleware.swift:filter_factorycontrol_exchange = swifturl = rabbit://openstack:vschool@10.10.10.11:5672/driver = messagingv2topic = notificationslog_level = WARN

note: 10.10.10.11 adalah ip node controller dan vschool adalah password rabbitmq

STEP 2 – Restart Service
setelah selesai konfigurasi, kita restart service swift-proxy

# service swift-proxy restart

LAB 58 – Verifikasi Ceilometer – Node Controller

sekarang kita akan memverifikasi Ceilometer, lakukan langkah berikut di node controller

pertama kita load admin-openrc.sh

$ source admin-openrc.sh

lalu lihat list meters-nya

$ ceilometer meter-list

setelah itu kita download image cirros dari glance

$ IMAGE_ID=$(glance image-list | grep ‘cirros’ | awk ‘{ print $2 }’)$ glance image-download $IMAGE_ID > /tmp/cirros.img

kemudian kita lihat list meters nya lagi untuk memastikan bawah image yang tadi sudah didownload

$ ceilometer meter-list

Dan kita lihat statistic dari image.download meter

$ ceilometer statistics -m image.download -p 60

Dan jika ingin menghapus file download tersebut bisa dengan cara seperti ini

$ rm /tmp/cirros.img

kita lanjut di part berikutnya

Nun walqalami wama yasthurun
Wassalamualaikum…

Instalasi Openstack Liberty – Ubuntu 14.04 LTS – Part 14.0

Assalamualaikum…

sekarang kita lanjut untuk mengkonfigurasi Glance (Image Service) untuk menggunakan Ceilometer (Telemetry Service)

Part Sebelumnya:

LAB 53 – Konfigurasi Glance Untuk Menggunakan Ceilometer – Node Controller
STEP 1 – Konfigurasi
pertama kita edit file /etc/glance/glance-api.conf dan /etc/glance/glance-registry.conf dan tambahkan konfugurasi berikut

konfigurasi nofiikasi dan RabbitMQ message broker access

[DEFAULT]
notification_driver = messagingv2
rpc_backend = rabbit

[oslo_messaging_rabbit]
rabbit_host = 10.10.10.11
rabbit_userid = openstack
rabbit_password = vschool

note: 10.10.10.11 adalah ip node controller dan vschool adalah password rabbitmq
kemudian keluar dan save

STEP 2 – Restart Service
sekarang kita restart service glance-nya

# service glance-registry restart 

# service glance-api restart

LAB 54 – Mengaktifkan Compute Service Meters – Node Compute

STEP 1 – Instalasi
pertama kita install package nya terlebih dahulu

# apt-get install ceilometer-agent-compute

STEP 2 – Konfigurasi
setelah selesai menginstall package nya, lalu kita konfigurasi file /etc/ceilometer/ceilometer.conf dan tambahkan konfigurasi berikut

[DEFAULT]
rpc_backend = rabbit
auth_strategy = keystone
verbose = True
 

[oslo_messaging_rabbit]
rabbit_host = 10.10.10.11
rabbit_userid = openstack
rabbit_password = vschool

[keystone_authtoken]
auth_uri = http://10.10.10.11:5000
auth_url = http://10.10.10.11:35357
auth_plugin = password
project_domain_id = default
user_domain_id = default
project_name = service
username = ceilometer
password = vschool

[service_credentials]
os_auth_url = http://10.10.10.11:5000/v2.0
os_username = ceilometer
os_tenant_name = service
os_password = vschool
os_endpoint_type = internalURL
os_region_name = RegionOne

lalu sekarang kita konfigurasi node compute untuk menggunakan ceilometer. pertama kita edit file /etc/nova/nova.conf dan tambahkan beberapa konfigurasi dibawah ini

[DEFAULT]instance_usage_audit = Trueinstance_usage_audit_period = hournotify_on_state_change = vm_and_task_statenotification_driver = messagingv2

lalu exit dan save.

STEP 3 – Restart Service
setelah konfigurasi sudah selesai, sekarang kita restart service ceilometer dan nova nya

# service ceilometer-agent-compute restart
# service nova-compute restart

LAB 55 – Konfigurasi Cinder untuk menggunakan Ceilometer – Node Cinder dan Controller

Telemetry service menggunakan notifikasi untuk mengambil block storage service meters. lakukan konfigurasi langkah berikut di node controller dan node cinder

STEP 1 – Konfigurasi
pertama kita edit file /etc/cinder/cinder.conf dan tambahkan konfigurasi berikut di bagian [DEFAULT]

[DEFAULT]
notification_driver = messagingv2

STEP 2 – Restart Service

restart block storage service di node controller

# service cinder-api restart
# service cinder-scheduler restart

restart block storage service di node cinder

# service cinder-volume restart

sampai sini dulu untuk part 13. kita lanjut di part selanjutnya yaa :3

Nun walqalami wama yasthurum
Wassalamualaikum…