Traffine I/O

Bahasa Indonesia

2022-06-01

Perseptron

Apa itu Perseptron

Perseptron adalah model sederhana namun kuat yang terinspirasi oleh perilaku neuron biologis dalam otak. Ini adalah blok dasar untuk jaringan saraf buatan dan berfungsi sebagai dasar untuk memahami arsitektur deep learning yang lebih kompleks.

Perseptron terdiri dari beberapa komponen utama, termasuk node input, bobot, bias, dan fungsi aktivasi. Node input menerima nilai input, dan bobot dan bias menentukan kekuatan dan arah koneksi. Fungsi aktivasi bertanggung jawab untuk mentransformasikan jumlah berbobot dari input menjadi output.

  • Node Input
    Node input mewakili fitur atau variabel dari data input. Pada perseptron sederhana, setiap node input sesuai dengan satu fitur. Node input mengirimkan nilai mereka ke lapisan berikutnya dalam jaringan, dikalikan dengan bobot yang sesuai.

  • Bobot
    Bobot adalah nilai numerik yang menunjukkan kekuatan dan arah koneksi antara node input dan keluaran perseptron. Selama proses pembelajaran, bobot disesuaikan untuk meminimalkan kesalahan antara keluaran yang diprediksi dan sebenarnya.

  • Bias
    Bias adalah parameter tambahan yang memungkinkan perseptron menggeser batas keputusan. Ini bertindak sebagai offset, memungkinkan perseptron untuk mempelajari hubungan yang lebih kompleks antara fitur input dan keluaran.

  • Fungsi Aktivasi
    Fungsi aktivasi memproses jumlah berbobot dari input, menghasilkan nilai output. Pilihan fungsi aktivasi berpengaruh signifikan pada perilaku dan kemampuan pembelajaran perseptron.

Perceptron components
Difference between perceptron and neuron?

Algoritma Pembelajaran Perceptron

Algoritma pembelajaran perceptron menyesuaikan bobot dan bias berdasarkan kesalahan antara keluaran aktual dan diprediksi. Algoritma dapat dirangkum sebagai berikut:

  1. Inisialisasi bobot dan bias dengan nilai acak.
  2. Untuk setiap input dalam dataset pelatihan, hitung jumlah berbobot dari input dan lewatkan melalui fungsi aktivasi untuk memperoleh keluaran yang diprediksi.
  3. Hitung kesalahan antara keluaran yang diprediksi dan aktual.
  4. Perbarui bobot dan bias menggunakan kesalahan dan tingkat pembelajaran.
  5. Ulangi langkah 2-4 sampai perseptron konvergen ke solusi atau kriteria berhenti yang telah ditentukan tercapai.

Algoritma pembelajaran perceptron adalah contoh dari pembelajaran terawasi, karena memerlukan dataset dengan contoh yang diberi label untuk melatih model. Ini juga merupakan contoh dari pembelajaran online, karena bobot dan bias diperbarui secara bertahap setelah setiap contoh input.

Perseptron dalam Deep Learning

Perseptron memainkan peran dasar dalam deep learning, berfungsi sebagai blok bangunan untuk arsitektur yang lebih canggih. Dalam bab ini, saya akan menjelajahi bagaimana perseptron diorganisir dalam model deep learning, membahas perseptron multi-layer (MLP), dan menguji proses pelatihan deep MLP menggunakan backpropagation.

Lapisan Perseptron

Dalam deep learning, perseptron diorganisir menjadi lapisan. Setiap lapisan dapat mengandung beberapa perseptron, dan ada tiga jenis lapisan utama:

  • Lapisan Input
    Lapisan input menerima data mentah dan terdiri dari node input sebanyak fitur dalam dataset. Lapisan ini tidak melakukan perhitungan apa pun; hanya mentransmisikan nilai input ke lapisan berikutnya.

  • Lapisan Tersembunyi
    Lapisan tersembunyi memproses dan mentransformasikan informasi dari lapisan input. Model deep learning dapat memiliki beberapa lapisan tersembunyi, memungkinkan model untuk mempelajari representasi yang semakin kompleks dan abstrak dari data input. Setiap lapisan tersembunyi berisi beberapa perseptron, yang dapat bervariasi tergantung pada arsitektur dan masalah yang sedang dipecahkan.

  • Lapisan Output
    Lapisan output menghasilkan prediksi atau klasifikasi akhir. Jumlah node output tergantung pada tugas. Untuk klasifikasi biner, satu node output sudah cukup, sementara tugas klasifikasi atau regresi multikelas mungkin memerlukan beberapa node output.

Lapisan Perseptron

Perceptron layers
Difference between perceptron and neuron?

Perseptron Multi-Layer (MLP)

MLP adalah jaringan saraf maju yang terdiri dari beberapa lapisan perseptron. Istilah "majukan" menunjukkan bahwa informasi mengalir dalam satu arah melalui jaringan, dari lapisan input ke lapisan output, tanpa ada loop.

Fitur utama MLP adalah kemampuannya untuk mempelajari dan merepresentasikan hubungan non-linear yang kompleks antara input dan output. Berbeda dengan perseptron satu lapisan, yang hanya dapat mempelajari batas keputusan linier, MLP dapat mendekati fungsi kontinu apa pun, dengan asumsi jumlah lapisan tersembunyi dan perseptron yang cukup.

Melatih Deep MLP

Melatih deep MLP melibatkan penyesuaian bobot dan bias melalui proses yang disebut backpropagation. Algoritma backpropagation menghitung gradien kesalahan terhadap setiap bobot dan bias, yang kemudian digunakan untuk memperbarui parameter model. Algoritma dapat dirangkum sebagai berikut:

  1. Inisialisasi bobot dan bias dengan nilai acak.
  2. Lakukan penerusan melalui jaringan, menghitung jumlah berbobot dari input dan menerapkan fungsi aktivasi pada setiap lapisan untuk mendapatkan prediksi akhir.
  3. Hitung kesalahan antara keluaran yang diprediksi dan aktual.
  4. Lakukan langkah mundur melalui jaringan, menghitung gradien kesalahan terhadap setiap bobot dan bias menggunakan aturan rantai.
  5. Perbarui bobot dan bias menggunakan gradien yang dihitung dan tingkat pembelajaran.
  6. Ulangi langkah 2-5 selama jumlah epoch yang telah ditentukan atau hingga kriteria berhenti tercapai.

Backpropagation adalah contoh dari pembelajaran terawasi, karena memerlukan dataset dengan contoh yang diberi label untuk melatih model. Ini juga merupakan bentuk pembelajaran batch, karena bobot dan bias diperbarui setelah memproses seluruh dataset.

Referensi

https://www.nomidl.com/deep-learning/difference-between-perceptron-and-neuron/

Ryusei Kakujo

researchgatelinkedingithub

Focusing on data science for mobility

Bench Press 100kg!