Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı.

Benzer bir sunumlar


... konulu sunumlar: "Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı."— Sunum transkripti:

1 Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyüköğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?

2 Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA

3 Bu sistemin çözümü nereye gidiyor? A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım

4 Ardışık iterasyonlarda aynı işaretli ise ‘nın genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.

5 S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

6 S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

7 S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

8 Adaptif Öğrenme Hızı

9 Grup-Veri Uyarlamalı Eğitim Veri Uyarlamalı Eğitim “sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor

10 Grup UyarlamalıVeri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözün sağlanması

11 Geriye Yayılım Algoritmasının Yakınsaması Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)

12 S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

13 Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß

14 Talvar Fonksiyonu ß ß

15 YSA Eğitilmiş YSA modeli Eğitim Kümesi Ölçekleme Geri Ölçekleme Ölçeklenmiş Veri Verilerin Ölçeklenmesi Doğrusal Ölçekleme: Logaritmik Ölçekleme:

16 Son İpuçları ‘ler büyük ise ağırlıkların değişim aralığı küçülür; fiziksel gerçeklemeye uygun olur. Ancak girişlerdeki gürültüye tolerans azalır. Ağırlıklar başlangıçta aynı seçilirse, değişimleri de aynı olabilir. Dolayısıyla ağırlıklar yenilendiğinde aynı kalabilirler. Bunu engellemek için başlangıç ağırlıkları sıfıra yakın sayılardan rastgele seçilmeli. Her katman eklendiğinde geriye yayılım algoritması yavaşlar. Bunu engellemek için girişten çıkışa doğrudan bağlantılar yapılabilir.

17 Geriye yayılım algoritması “en dik iniş” ve gradyen yönteme dayalı olduğundan, bu yöntemi iyileştirici tüm teknikler geriye yayılım algoritmasını da iyileştirmek için kullanılabilir. İkinci türevleri kullanan lineer olmayan eniyileme yöntemlerinden herhangi biri de kullanılabilir. SONLU ADIMDA GLOBAL MİNİMUMA YAKINSAMASI GARANTİ DEĞİLDİR.

18 T ve L harfini ayırt eden bir ağ Bu harfleri ağa nasıl sunacağız?25X1 boyutlu vektörler ile

19 Bu verilerin yanı sıra bozuk veriler de verelim....

20 Bir de test kümesi oluşturalım... Test kümesinde sağlam veriler ve eğitim kümesindekilerden farklı bozuk veriler olsun

21 F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma NARX (nonlinear autoregressive with exogenous inputs) modeli

22 Çok Katmanlı Ağ F(.) z -1 Giriş u(n) Çıkış y(n+1) u(n-1) u(n-m) y(n) y(n-1) y(n-k) Mahmut Meral, Lisans Bitirme Ödevi, 2003

23 Nonlineer Sistem F(.) z -1 Çok Katmanlı Ağ z y(n+1) ŷ(n+1) e(n)=y(n+1)- ŷ(n+1) Giriş u(n) z -1 Mahmut Meral, Lisans Bitirme Ödevi, 2003

24 Billings sistemi test sonuçları o- gerçek değer *- ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003

25 Feigenhoum sistemi için bir adım sonrasının öngörümü o- gerçek değer *- ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003

26 Feigenhoum sisteminin otonom davranışı o- gerçek değer *- ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003

27 Çok katmanlı ağın çekicisi Gerçek sistemin çekicisi Mahmut Meral, Lisans Bitirme Ödevi, 2003

28 Çok katmanlı ağın çekicisi Çok katmanlı ağın çıkışı Mahmut Meral, Lisans Bitirme Ödevi, 2003

29 Bu yapı farklı bir öğrenme kuralı ile korku şartlanması için kullanılmıştır.... Armony, Servan-Schreiber, Cohen & LeDoux (1997) CS (Conditioned Stimulus) şartlı uyaran US (Unconditioned Stimulus) şartsız uyaran CS-US eşleştirilmesi tipik davranışlar fizyolojik tepkiler

30 Korku Şartlanması Şartlanma sırasında: CSİşitme alanı Talamus MGB CS Amygdala korteks

31 Yapılan Nedir? Bir ses tonu ile birlikte, rahatsız edici bir etki uygulayarak beynin-deneğin-modelin o sese karşı şartlanmasını modellemek… Serkan Çapkan, Lisans Bitirme Ödevi, 2007

32 Yapılan Nedir? Örnek; Bir insana, çok sayıda farklı ses veriliyor. Bu seslerin herhangi biri ile birlikte, bu insanın ayağına küçük bir elektrik şoku uygulanıyor. Daha sonra yine sesler dinletilirken “o” ses verildiğinde, kişinin korkması bekleniyor

33 Yapılan Nedir? Bu çalışmada; Modele, 15 farklı ses veriliyor, bu seslere tepkisi ölçülüyor. Sonra, bu seslerden herhangi biri ile birlikte, modele rahatsız edici bir uyaran uygulanıyor. Daha sonra yine sesler aynı verilirken “o ses” verildiğinde, modelin beklenmeyen bir tepki vermesi bekleniyor

34 Ses Nasıl Modelleniyor? (15 farklı frekansta ses) ………. 16 boyutlu bir vektör

35 Ses Nasıl Modelleniyor? (15 farklı frekansta ses) ………. Bu seslerin birbiriyle benzerliği… 12315

36 İşlem Basamakları Seslerin Uygulanması, tepkilerin ölçülmesi Yine seslerin uygulanması, 5. seste rahatsız edici uyaranın uygulanması Gözlem

37 Model

38 Örnek Bir İşlem (auditory cortex -> amygdala için) Auditory Cortex Amygdala * = Hücreye gelen girişin ağırlıklandırılması

39 Örnek Bir İşlem (auditory cortex -> amygdala için) Kazanan hücre çıkışının aktivasyon fonksiyonunda geçirilmesi

40 Örnek Bir İşlem (auditory cortex -> amygdala için) Diğer hücre çıkışlarının aktivasyon fonksiyonundan geçirilmesi =- μ * Tüm aktive edilmiş hücre çıkışları =+

41 Örnek Bir İşlem (auditory cortex -> amygdala için) Ağırlıkların Yenilenmesi Yalnızca değeri o bölgenin çıkışlarının ortalamasından büyük olan çıkışlara ilişkin ağırlıklar yenilenir Örnek Bir İşlem (auditory cortex -> amygdala için),,

42 İşlem Basamakları Seslerin Uygulanması Sesler ile birlikte rahatsız edici uyaranın uygulanması Gözlem

43 Sonuçların İncelenmesi (Seslerin İlk Uygulanması )

44

45

46

47 Sonuçların İncelenmesi (Şartlanmadan sonra ve öncekiler)

48

49

50

51 Sonuçların İncel. (Şartlanma öncesi ve sonrası çıkışların farkları)

52

53

54


"Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı." indir ppt

Benzer bir sunumlar


Google Reklamları