Geriye Yayılım Algoritması

Slides:



Advertisements
Benzer bir sunumlar
Unsupervised Learning (Kümeleme)
Advertisements

Deprem Muhendisliği Yrd. Doç. Dr. AHMET UTKU YAZGAN
Çok Katmanlı Yapay Sinir Ağı Modelleri
Yapay Sinir Ağları Artificial Neural Networks (ANN)
Projemizin İçeriği: Anahtarlanmış Doğrusal Sistemler
Bölüm6:Diferansiyel Denklemler: Başlangıç Değer Problemleri
Yrd. Doç. Dr. Ayhan Demiriz
SONLU ELEMANLAR YÖNTEMİ
Yrd.Doç.Dr. Mustafa Akkol
Giriş Dikkat Altsistemi Yönlendirme Altsistemi Kısa Süreli Bellek Uzun Süreli Bellek Kontrol Birimi Kontrol Birimi F1 F2 ART nasıl çalışıyor? Mete Balcı,
Yapay Sinir Ağları (YSA)
Bulanık Mantık Kavramlar:
YAPI DİNAMİĞİ Prof. Dr. Erkan ÇELEBİ
Yapay Sinir Ağları (YSA)
Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,
Biyomedikal Sistemlerin Modellenmesi ve Kontrolü Neslihan Serap Şengör İ.T.Ü. Elektronik ve Haberleşme Bölümü, oda no:1107 tel no:
Enerji Sistemlerinde Akıllı Sistem Uygulamaları Akademik Yılı Bahar yarıyılı Doç.Dr. Raşit ATA
V2’nin q1 doğrultusunda ki bileşenine
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest.
BİYOMEDİKAL MÜHENDİSLİĞİNDE İLERİ KONULAR Neslihan Serap Şengör Oda no: 1107 Tel:
Devre ve Sistem Analizi
Devre ve Sistem Analizi Neslihan Serap Şengör Devreler ve Sistemler A.B.D. oda no:1107 tel no:
YAPAY SİNİR AĞLARI.
(Competitive Learning)
A1 sistemi A2 sistemi Hangisi daha hızlı sıfıra yaklaşıyor ? Hatırlatma.
Dinamik Yapay Sinir Ağı Modelleri Yinelemeli Ağlar (recurrent networks) İleri yolGeri besleme.
Uyarlanabilir Yankılaşım Teorisi (Adaptive Resonance Theory- Grossberg ) A crucial metatheoretical.
Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA.
Ortam Özdüzenlemeli Öğrenme Eğitilen Sistem Hatırlatma.
Biyomedikal Sistemlerin Modellenmesi ve Kontrolü Neslihan Serap Şengör İ.T.Ü. Elektronik ve Haberleşme Bölümü, oda no:1107 tel no:
Doğrusal Olmayan Devreler, Sistemler ve Kaos
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Doğrusal Olmayan Devreler, Sistemler ve Kaos Neslihan Serap Şengör oda no:1107 tel no: Müştak Erhan Yalçın oda no:2304.
Bu derste ders notundan 57,58,59 ve 67,68,69,70,71 nolu sayfalar kullanılacak.
2- Jordan Kanonik Yapısı
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß.
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı Kullanılan Hücre Modeli: McCulloch-Pitts Eksik birşey var!! Örüntüler: 1. Aşama: Belleğin Oluşturulması.
Doğrusal Olmayan Devreler, Sistemler ve Kaos
Biz şimdiye kadar hangi uzaylar ile uğraştık:
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Öğrenme nasıl gerçekleşiyor? Ağırlıklar hatayı en azlıyacak şekilde güncelleniyor Öğrenme.
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
Doğrusal Olmayan Devreler, Sistemler ve Kaos
(Self-Organizing Map- Kohonen )
Dinamik Sistem Dinamik sistem: (T, X, φt ) φt : X X a1) φ0=I
Doğrusal Olmayan Devreler, Sistemler ve Kaos
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
h homeomorfizm h homeomorfizm h 1-e-1 ve üstüne h sürekli h
Poincare Dönüşümü
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Özdeğerler, Sıfırlar ve Kutuplar
Dinamik Yapay Sinir Ağı Modelleri
İlk olarak geçen hafta farklı a değerleri için incelediğiniz lineer sisteme bakalım: MATLAB ile elde ettiğiniz sonuçları analitik ifade ile elde edilen.
ART nasıl çalışıyor? Giriş Dikkat Altsistemi Yönlendirme Altsistemi F2
Geçen hafta ne yapmıştık
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Bazı sorular: Topolojik eşdeğerlilik ne işimize yarayacak, topolojik
Teorem 2: Lineer zamanla değişmeyen sistemi
Sinir Hücresi McCulloch-Pitts x1 w1 x2 w2 v y wm xm wm+1 1 '
Hopfield Ağı Ayrık zaman Sürekli zaman
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik
Hatırlatma Yörünge: Or(xo)
EK BİLGİ Bazı Eniyileme (Optimizasyon) Teknikleri Eniyileme problemi
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik ve Kararlılık
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
SONLU ELEMANLAR YÖNTEMİ
Yapay Zeka Nadir Can KAVKAS
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyük öğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?

Momentum Terimi HATIRLATMA Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA

Bu sistemin çözümü nereye gidiyor? A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım

Ardışık iterasyonlarda aynı işaretli ise ‘nın genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.

Adaptif Öğrenme Hızı

Grup-Veri Uyarlamalı Eğitim “sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor

Grup Uyarlamalı Veri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözün sağlanması

Geriye Yayılım Algoritmasının Yakınsaması Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.

Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß

Talvar Fonksiyonu ß ß

Verilerin Ölçeklenmesi YSA Eğitilmiş modeli Eğitim Kümesi Ölçekleme Geri Ölçeklenmiş Veri Verilerin Ölçeklenmesi Doğrusal Ölçekleme: Logaritmik Ölçekleme:

Son İpuçları ‘ler büyük ise ağırlıkların değişim aralığı küçülür; fiziksel gerçeklemeye uygun olur. Ancak girişlerdeki gürültüye tolerans azalır. Ağırlıklar başlangıçta aynı seçilirse, değişimleri de aynı olabilir. Dolayısıyla ağırlıklar yenilendiğinde aynı kalabilirler. Bunu engellemek için başlangıç ağırlıkları sıfıra yakın sayılardan rastgele seçilmeli. Her katman eklendiğinde geriye yayılım algoritması yavaşlar. Bunu engellemek için girişten çıkışa doğrudan bağlantılar yapılabilir.

Geriye yayılım algoritması “en dik iniş” ve gradyen yönteme dayalı olduğundan, bu yöntemi iyileştirici tüm teknikler geriye yayılım algoritmasını da iyileştirmek için kullanılabilir. İkinci türevleri kullanan lineer olmayan eniyileme yöntemlerinden herhangi biri de kullanılabilir. SONLU ADIMDA GLOBAL MİNİMUMA YAKINSAMASI GARANTİ DEĞİLDİR.

T ve L harfini ayırt eden bir ağ Bu harfleri ağa nasıl sunacağız? 25X1 boyutlu vektörler ile

Bu verilerin yanı sıra bozuk veriler de verelim....

Bir de test kümesi oluşturalım... Test kümesinde sağlam veriler ve eğitim kümesindekilerden farklı bozuk veriler olsun

Giriş-Çıkış Eşleme Fonksiyonu Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış NARX (nonlinear autoregressive with exogenous inputs) modeli

Çok Katmanlı Ağ F(.) Mahmut Meral, Lisans Bitirme Ödevi, 2003 z-1 Giriş u(n) Çıkış y(n+1) u(n-1) u(n-m) y(n) y(n-1) y(n-k)

ŷ(n+1) Mahmut Meral, Lisans Bitirme Ödevi, 2003 Nonlineer Sistem Giriş F(.) z-1 Çok Katmanlı Ağ + y(n+1) ŷ(n+1) e(n)=y(n+1)- ŷ(n+1) Giriş u(n) z-1

Billings sistemi test sonuçları o- gerçek değer *- ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003 Billings sistemi test sonuçları o- gerçek değer *- ağın çıkışı  

Mahmut Meral, Lisans Bitirme Ödevi, 2003 Feigenhoum sistemi için bir adım sonrasının öngörümü o- gerçek değer *- ağın çıkışı

Feigenhoum sisteminin otonom davranışı o- gerçek değer *- ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003 Feigenhoum sisteminin otonom davranışı o- gerçek değer *- ağın çıkışı

Çok katmanlı ağın çekicisi Mahmut Meral, Lisans Bitirme Ödevi, 2003 Çok katmanlı ağın çekicisi Gerçek sistemin çekicisi

Çok katmanlı ağın çekicisi Mahmut Meral, Lisans Bitirme Ödevi, 2003 Çok katmanlı ağın çekicisi Çok katmanlı ağın çıkışı

CS (Conditioned Stimulus) şartlı uyaran Bu yapı farklı bir öğrenme kuralı ile korku şartlanması için kullanılmıştır.... Armony, Servan-Schreiber, Cohen & LeDoux (1997) CS (Conditioned Stimulus) şartlı uyaran US (Unconditioned Stimulus) şartsız uyaran CS-US eşleştirilmesi tipik davranışlar fizyolojik tepkiler

Korku Şartlanması Şartlanma sırasında: CS İşitme alanı Talamus MGB Amygdala korteks

Serkan Çapkan, Lisans Bitirme Ödevi, 2007 Yapılan Nedir? Bir ses tonu ile birlikte, rahatsız edici bir etki uygulayarak beynin-deneğin-modelin o sese karşı şartlanmasını modellemek…

Yapılan Nedir? Örnek; Bir insana, çok sayıda farklı ses veriliyor. Bu seslerin herhangi biri ile birlikte, bu insanın ayağına küçük bir elektrik şoku uygulanıyor. Daha sonra yine sesler dinletilirken “o” ses verildiğinde, kişinin korkması bekleniyor

Yapılan Nedir? Bu çalışmada; Modele, 15 farklı ses veriliyor, bu seslere tepkisi ölçülüyor. Sonra, bu seslerden herhangi biri ile birlikte, modele rahatsız edici bir uyaran uygulanıyor. Daha sonra yine sesler aynı verilirken “o ses” verildiğinde, modelin beklenmeyen bir tepki vermesi bekleniyor

Ses Nasıl Modelleniyor? (15 farklı frekansta ses) 16 boyutlu bir vektör ……….

Ses Nasıl Modelleniyor? (15 farklı frekansta ses) Bu seslerin birbiriyle benzerliği… ………. 1. sesin belirleyeni 1 2 3 15

Seslerin Uygulanması, tepkilerin ölçülmesi İşlem Basamakları Seslerin Uygulanması, tepkilerin ölçülmesi Yine seslerin uygulanması, 5. seste rahatsız edici uyaranın uygulanması Gözlem

Model

Örnek Bir İşlem (auditory cortex -> amygdala için) * = Hücreye gelen girişin ağırlıklandırılması

Örnek Bir İşlem (auditory cortex -> amygdala için) Kazanan hücre çıkışının aktivasyon fonksiyonunda geçirilmesi

Örnek Bir İşlem (auditory cortex -> amygdala için) Diğer hücre çıkışlarının aktivasyon fonksiyonundan geçirilmesi = - μ * Tüm aktive edilmiş hücre çıkışları = +

Örnek Bir İşlem (auditory cortex -> amygdala için) Ağırlıkların Yenilenmesi Yalnızca değeri o bölgenin çıkışlarının ortalamasından büyük olan çıkışlara ilişkin ağırlıklar yenilenir , ,

Sesler ile birlikte rahatsız edici uyaranın uygulanması İşlem Basamakları Seslerin Uygulanması Sesler ile birlikte rahatsız edici uyaranın uygulanması Gözlem

Sonuçların İncelenmesi (Seslerin İlk Uygulanması )

Sonuçların İncelenmesi (Seslerin İlk Uygulanması )

Sonuçların İncelenmesi (Seslerin İlk Uygulanması )

Sonuçların İncelenmesi (Seslerin İlk Uygulanması )

Sonuçların İncelenmesi (Şartlanmadan sonra ve öncekiler)

Sonuçların İncelenmesi (Şartlanmadan sonra ve öncekiler)

Sonuçların İncelenmesi (Şartlanmadan sonra ve öncekiler)

Sonuçların İncelenmesi (Şartlanmadan sonra ve öncekiler)

Sonuçların İncel. (Şartlanma öncesi ve sonrası çıkışların farkları)

Sonuçların İncel. (Şartlanma öncesi ve sonrası çıkışların farkları)

Sonuçların İncel. (Şartlanma öncesi ve sonrası çıkışların farkları)

Sonuçların İncel. (Şartlanma öncesi ve sonrası çıkışların farkları)