Algoritma Jaringan Syaraf Tiruan Propagasi Balik (Artificial Neural Networks Backpropagation)


JST propagasi balik adalah JST dengan topologi multi-lapis (multilayer) dengan satu lapis masukan (lapis X), satu atau lebih lapis hidden atau tersembunyi (lapis Z) dan satu lapis keluaran (lapis Y). Setiap lapis memiliki neuron-neuron (unit-unit) yang dimodelkan dengan lingkaran (lihat Gambar 1). Di antara neuron pada satu lapis dengan neuron pada lapis berikutnya dihubungkan dengan model koneksi yang memiliki bobot-bobot (weights), w dan v. Lapis tersembunyi dapat memiliki bias, yang memiliki bobot sama dengan satu [1].


Algoritma

Algoritma pelatihan JST Propagasi balik pada dasarnya terbagi menjadi 2 langkah, yaitu: langkah maju (feedforward)) dan propagasi balik (back propagation). Pada langkah maju, perhitungan bobot-bobot neuron hanya didasarkan pada vektor masukan, sedangkan pada propagasi balik, bobot-bobot diperhalus dengan memperhitungkan nilai target atau keluaran. Algoritma pelatihan maju dan propagasi balik ini ditunjukkan pada Algoritma 1 [1].

Nilai mean square error (MSE) pada satu siklus pelatihan (langkah 2 – 10, dimana seluruh rekord dipresentasikan satu kali) adalah nilai kesalahan (error = nilai keluaran – nilai masukan) rata-rata dari seluruh rekord (tupple) yang dipresentasikan ke JST dan dirumuskan sebagai:


Semakin kecil MSE, JST semakin kecil kesalahannya dalam memprediksi kelas dari rekord yang baru. Maka, pelatihan JST ditujukan untuk memperkecil MSE dari satu siklus ke siklus berikutnya sampai selisih nilai MSE pada siklus ini dengan siklus sebelumnya lebih kecil atau sama dengan batas minimal yang diberikan (epsilon).

Pengembangan Algoritma Pelatihan dengan Menggunakan Momentum

Salah satu pengembangan algoritma pelatihan propagasi balik dilakukan dengan penggunaan momentum pada perhitungan perubahan bobot-bobot. Tujuan dari pengembangan ini adalah untuk melancarkan pelatihan dan mencegah agar bobot tidak “berhenti” di sebuah nilai yang belum optimal. Perubahan bobot pada Algoritma 1 diubah menjadi [1]:

μ merupakan konstanta dari momentum dengan rentang [0,1].

Keterangan Notasi untuk Algoritma 1:

x = vektor masukan = (x1, …, xi, …, xn),

t = vektor keluaran= (t1, …, tk, …, tm)

δk
= nilai koreksi bobot error untuk wjk yang disebabkan oleh error pada unit keluaran Yk .


δj= nilai koreksi bobot error untuk yang disebabkan oleh informasi propagasi balik dari error pada lapis keluaran ke unit tersembunyi Zj .

α= konstanta laju pembelajaran (learning rate).

Xi = unit masukan i.

v0j = bias pada unit tersembunyi j.

Zj = unit tersembunyi j.

w0k=bias pada unit keluaran k.

Yk = unit keluaran k.

Fungsi aktivasi yang dapat digunakan pada propagasi balik antara lain adalah: Binary sigmoid:
arc tangen: , dan radial basis:

Sumber : Giri Dhaneswara1) dan Veronica S. Moertini. JARINGAN SARAF TIRUAN PROPAGASI BALIK UNTUK KLASIFIKASI DATA. Integral Vol. 9, No 3. 2004. Bandung.

8 Responses

  1. bagaimana jika target output berupa kategori (baik, cukup, kurang). ? karena pada saat propagasi balik akan dihitung outputnya. apakah harus dikonversi terlebih dahulu ke dalam 1, 2, 3 atau bagaimana? penentuan nilai [‘baik, cukupm kurang’] menjadi nilai numerik ada tidak ketentuannya? terimakasih.

  2. om budi,,,minta alamat YM nya dunk,,saya mau tanya2 tentang backprop ni,,bole ya,,,

  3. apakah ada contoh perhitungan manualnya.?

  4. makasih info tentang jstnya ya. jadi lebih ngerti

  5. ada yang bisa jawab?
    bagaimana kalo yang menjadi data latih dan uji JST Backpropagation adalah string?mesti dikonversi ke bit kah?
    terima kasih banyak

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: