Geriye Yayılım Algoritması (Back-Propagation Algorithm)

Slides:



Advertisements
Benzer bir sunumlar
Unsupervised Learning (Kümeleme)
Advertisements

MIT563 Yapay Zeka ve Makine Öğrenmesi
Çok Katmanlı Yapay Sinir Ağı Modelleri
JEODEZİ I Doç.Dr. Ersoy ARSLAN.
Kümeleme Modeli (Clustering)
10. OPTİMİZASYON OPTİMİZASYON NEDİR?
Support Vector Machines
MIT503 Veri Yapıları ve algoritmalar Algoritmalara giriş
META SEZGİSEL YÖNTEMLER
TÜREV UYGULAMALARI.
Fırat Fehmi Aygün Aybars Moralı Dokuz Eylül Üniversitesi
Lokal Arama Algoritmaları
Yapay Sinir Ağları Artificial Neural Networks (ANN)
MIT563 Yapay Zeka ve Makine Öğrenmesi
VEKTÖR-KUVVET-LAMİ TEOREMİ
2. BÖLÜM VEKTÖR-KUVVET Nicelik Kavramı Skaler Nicelikler
Enerji Sistemlerinde Yapay Arı Kolonisi (YAK) Algoritması Kullanarak Yük Akışı Optimizasyonu Nihat Pamuk.
5 KONUM VEKTÖRÜ M.Feridun Dengizek.
MODERN PORTFÖY TEORİSİ
KOORDİNAT SİSTEMİ.
Mükemmel İletken Yüzeyler Üzerindeki Hedeflerin Yapay Sinir Ağı İle Sınıflandırılması SENEM MAKAL
Abdulkerim Karabiber Ozan Gül
Bölüm 3: Sayısal Türev BirinciTürev: Bir f(x) fonksiyonunun [a,b] tanım aralığında bir x noktasındaki türevi, Limit ifadesiyle tanımlanır. Eğer f(x)’in.
NEURAL NETWORK TOOLBOX VE UYGULAMALARI
Bölüm5 :Kök Bulma Sayısal bilgisayarlar çıkmadan önce, cebirsel denklemlerin köklerini çözmek için çeşitli yollar vardı. Bazı durumlarda, eşitliğinde olduğu.
PORTFÖY OPTİMİZASYONU
YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI
Yrd.Doç.Dr. Mustafa Akkol
Ölçme Sonuçlarının Değerlendirilmesi
Algoritmalar ve Programlama I Ders 2: Akış Diyagramları
1 FİZİK VEKTÖRLER Öğr. Grv. MEHMET ALİ ZENGİN. VEKTÖREL SKALER FİZİKSEL BÜYÜKLÜKLER 2 BÜYÜKLÜKLER.
Yapay Sinir Ağları (YSA)
Veri Madenciliği Kümeleme Analizi: Temel Tanımlar ve Algoritmalar
Bulanık Mantık Kavramlar:
Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest.
END 457 Sezgisel Arama ve Yapay Zeka
Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. EK BİLGİ.
YAPAY SİNİR AĞLARI.
Elektrik Devrelerinin Temelleri dersinde ne yapacağız? Amaç: Fiziksel devrelerin elektriksel davranışlarını öngörme akım ve gerilim Hatırlatma Teori oluşturken.
Hatırlatma: Durum Denklemleri
Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA.
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Bu derste ders notundan 57,58,59 ve 67,68,69,70,71 nolu sayfalar kullanılacak.
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß.
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı Kullanılan Hücre Modeli: McCulloch-Pitts Eksik birşey var!! Örüntüler: 1. Aşama: Belleğin Oluşturulması.
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.
Elektrik Devrelerinin Temelleri dersinde ne yapacağız? Amaç: Fiziksel devrelerin elektriksel davranışlarını öngörme akım ve gerilim Hatırlatma Teori oluşturken.
Geriye Yayılım Algoritması
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
Yapay Bağışıklık Tabanlı Bulanık Mantık ile TENS Modellenmesi
Kümeleme Modeli (Clustering)
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
Geçen hafta ne yapmıştık
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Teorem 2: Lineer zamanla değişmeyen sistemi
Sinir Hücresi McCulloch-Pitts x1 w1 x2 w2 v y wm xm wm+1 1 '
Teorem NU4 Lineer Kombinasyonlar ‘de lineer bağımsız bir küme Tanıt
Hopfield Ağı Ayrık zaman Sürekli zaman
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik
EK BİLGİ Bazı Eniyileme (Optimizasyon) Teknikleri Eniyileme problemi
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik ve Kararlılık
Banach Sabit Nokta Teoremi (Büzülme Teoremi)
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
Uzay ve Uzay Çalışmaları.
JEODEZİK AĞLARIN İSTATİSTİK ANALİZİ
Yapay Zeka Nadir Can KAVKAS
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

Geriye Yayılım Algoritması (Back-Propagation Algorithm) Hatırlatma Verilenler: Eğitim Kümesi Hesaplananlar: Eğitim Kümesindeki l. çifte ilişkin çıkış katmanındaki j. nörondaki hata Nöron j için ani hata: Toplam ani hata: Neden sadece çıkış katmanı? Ortalama karesel hata: Ağdaki hangi büyüklüklere bağlı?

ölçütünü enazlayan parametreleri belirle. Hatırlatma Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. EK BİLGİ Bazı Eniyileme (Optimizasyon) Teknikleri Eniyileme problemi Kısıtlar: Kısıtsız Eniyileme Problemi

‘in ekstremum noktası ise Teorem: Hatırlatma 1. Mertebeden gerek koşul ‘in ekstremum noktası ise Teorem: 2. Mertebeden yeter koşul kesin pozitif Nasıl hesaplanır? ‘in minimum noktasıdır. Doğrultu Belirleme (Line Search) Algoritması başlangıç noktasını belirle doğrultusunu belirle ‘yı ‘ya göre enazlayan ‘yı belirle doğrultusunu belirle

Algoritma fonksiyonu enazlayan ‘a yakınsayacak Hatırlatma Amaç: Beklenti: Algoritma fonksiyonu enazlayan ‘a yakınsayacak Ne zaman sona erdilecek? doğrultusunu belirle Nasıl ? “en dik iniş “ (steepest descent) Newton Metodu Gauss-Newton Metodu Bu doğrultuların işe yaradığını nasıl gösterebiliriz?

Gauss-Newton Metodu ile sağlanır mı? Kısıtlama:

Gauss-Newton Metodu’nun amacı özel bir için Hessian matrisini kullanmadan 2. mertebe yöntem kadar iyi sonuç elde etmek. Bu ifade aslında nedir?

varsa Sonuç: ‘a yakınsayacak EK BİLGİNİN SONU Amaç: Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. Toplam ani hata: Ortalama karesel hata:

Yapılan: yerine ‘yi en azlamak Eğitim kümesindeki k. veri için ileri yolda hesaplananı yazalım: 1. Gizli Katman Çıkışı 2. Gizli Katman Çıkışı

Eğitim kümesindeki k. veri için hesaplanan toplam ani hata

Ağırlığın güncellenmesi “en dik iniş “ (steepest descent) Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Hangi yöntem? Ağırlığın güncellenmesi “en dik iniş “ (steepest descent)

Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Çıkış katmanı Yeni notasyon Gizli katmanın sayısı

Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: Hatırlatma Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor Yerel gradyen

Çıkış katmanındaki tüm ağırlıkların güncellenmesi

gizli katman (gks-1)’deki j. nöron ile gizli katman (o)’daki i. nörona ilişkin ağırlığın güncellenmesi

Tanıdık birşeyler arayalım ilgilenilen ağırlığının toplam ani hataya etkisi Tanıdık birşeyler arayalım

Yerel gradyen

Herhangi bir gizli katmandaki yerel gradyen Gizli katmanındaki tüm ağırlıkların güncellenmesi Herhangi bir gizli katmandaki yerel gradyen

Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyük öğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?