Neural network adalah model matematika yang mengubah input menjadi output dengan melewatkan angka melalui lapisan-lapisan operasi sederhana. Setiap layer mengambil nilai sebelumnya, membentuk jumlah berbobot, menambahkan bias, menerapkan fungsi aktivasi nonlinier, lalu meneruskan hasilnya ke depan.
Deskripsi itu terdengar abstrak, tetapi ide intinya sederhana: sebuah jaringan mempelajari banyak bobot yang bisa disesuaikan sehingga pola yang berguna pada input menghasilkan prediksi yang berguna pada output.
Apa Itu Neural Network
Untuk satu neuron dengan input , perhitungan dasarnya adalah
diikuti oleh aktivasi:
Di sini adalah bobot, adalah bias, dan adalah fungsi aktivasi seperti ReLU, sigmoid, atau tanh.
Sebuah feedforward neural network penuh mengulangi pola itu di seluruh layer. Dalam bentuk ringkas, satu layer sering ditulis sebagai
dengan sebagai output layer sebelumnya.
Intuisi yang Biasanya Membuatnya Mudah Dipahami
Setiap neuron mengajukan pertanyaan berbobot tentang input yang dilihatnya. Bobot positif yang besar membuat beberapa fitur menjadi lebih penting. Bobot negatif bisa melawan suatu pola. Bias menggeser ambang batas. Fungsi aktivasi kemudian menentukan seberapa kuat neuron itu harus merespons.
Menumpuk layer memungkinkan jaringan membangun fitur secara bertahap. Layer awal mendeteksi pola sederhana. Layer berikutnya menggabungkannya menjadi sinyal internal yang lebih berguna untuk tugas akhir.
Inilah alasan neural network lebih dari sekadar "banyak rumus sekaligus." Neural network adalah komposisi dari fungsi-fungsi sederhana, dan komposisi itulah yang memberinya fleksibilitas.
Satu Contoh yang Dikerjakan
Pertimbangkan jaringan kecil dengan dua input, satu hidden layer, dan satu output. Misalkan inputnya adalah
Anggap hidden layer memiliki dua neuron dan menggunakan ReLU, dengan
Ambil perhitungan hidden layer berikut:
Sekarang kirim nilai hidden tersebut ke neuron output:
Jika aturannya adalah "prediksi kelas 1 ketika ," maka input ini diklasifikasikan sebagai kelas 1.
Poin pentingnya bukan angka-angka spesifiknya. Yang penting adalah strukturnya:
- ambil input
- bentuk jumlah berbobot
- terapkan aktivasi nonlinier
- ulangi
- baca skor akhir
Itulah neural network yang sedang melakukan forward pass.
Bagaimana Neural Network Belajar
Menggunakan jaringan adalah satu persoalan. Melatihnya adalah persoalan lain.
Dalam supervised learning standar, jaringan pertama-tama membuat prediksi. Fungsi loss kemudian mengukur seberapa jauh prediksi itu dari target. Pelatihan berbasis gradien menghitung bagaimana loss berubah terhadap setiap bobot dan bias, lalu memperbaruinya untuk mengurangi loss.
Dalam praktik modern, ini biasanya berarti backpropagation ditambah gradient descent atau optimizer terkait. Pengaturan ini bergantung pada model dan loss yang dapat didiferensialkan, atau setidaknya cukup piecewise differentiable agar metode gradien bisa bekerja.
Versi singkatnya adalah:
Di banyak contoh, bobot akan bergeser menuju pola-pola yang membantu tugas tersebut.
Kesalahan Umum
Mengira Lebih Banyak Layer Otomatis Berarti Hasil Lebih Baik
Tidak selalu. Lebih banyak layer memang meningkatkan kapasitas, tetapi juga membuat optimisasi, kebutuhan data, dan pengendalian overfitting menjadi lebih menuntut.
Lupa Mengapa Nonlinearitas Itu Penting
Jika setiap layer hanya linear, seluruh jaringan tetap hanya satu pemetaan linear. Fungsi aktivasilah yang memungkinkan jaringan dalam merepresentasikan hubungan yang lebih kompleks.
Menganggap Output Sebagai Kepastian yang Dijamin
Output jaringan hanya seberguna model, data, dan pengaturan pelatihan di baliknya. Skor tinggi tidak sama dengan bukti.
Mengabaikan Representasi Input
Jaringan tidak belajar dari makna mentah. Jaringan belajar dari representasi numerik yang diterimanya. Jika input buruk, tidak konsisten, atau kehilangan struktur penting, performa jaringan biasanya akan menurun.
Kapan Neural Network Digunakan
Neural network digunakan ketika hubungan antara input dan output cukup rumit sehingga aturan buatan tangan menjadi rapuh atau tidak lengkap. Contoh umum meliputi pengenalan gambar, ucapan, language modeling, sistem rekomendasi, dan beberapa tugas peramalan.
Neural network tidak otomatis menjadi pilihan terbaik untuk setiap masalah. Pada dataset kecil yang terstruktur, model yang lebih sederhana bisa lebih mudah dilatih, lebih mudah diinterpretasikan, dan kadang sama efektifnya.
Model Mental yang Baik
Bayangkan neural network sebagai fungsi berlapis dengan banyak kenop yang bisa disesuaikan. Forward pass mengubah satu input menjadi satu output. Training mengubah kenop-kenop itu agar output berikutnya menjadi lebih berguna untuk tugas yang dihadapi.
Itulah cara paling bersih untuk memegang kedua ide sekaligus: neural network menghitung melalui komposisi, dan neural network belajar dengan menyesuaikan parameter untuk mengurangi error.
Coba Versi Anda Sendiri
Gunakan jaringan kecil yang sama, tetapi ubah input dari menjadi . Hitung ulang , , , , dan skor akhir . Lalu ubah satu bobot dan lihat bagian mana dari output yang ikut berubah. Latihan kecil itu membuat gagasan forward pass jauh lebih konkret daripada sekadar menghafal definisi.
Butuh bantuan mengerjakan soal?
Unggah pertanyaanmu dan dapatkan solusi terverifikasi langkah demi langkah dalam hitungan detik.
Buka GPAI Solver →