Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest.

Slides:



Advertisements
Benzer bir sunumlar
ÖĞRETİM İLKE VE YÖNTEMLERİ
Advertisements

YAPAY SİNİR AĞLARI.
Algoritma.  Algoritma, belirli bir görevi yerine getiren sonlu sayıdaki işlemler dizisidir.  Başka bir deyişle; bir sorunu çözebilmek için gerekli olan.
Dinamik sistemin kararlılığını incelemenin kolay bir yolu var mı? niye böyle bir soru sorduk? Teorem 1: (ayrık zaman sisteminin sabit noktasının kararlılığı.

İŞLE 524 – İŞLE 531 Yönetim Muhasebesi
Hatırlatma Ortogonal bazlar, ortogonal matrisler ve Gram-Schmidt yöntemi ile ortogonaleştirme vektörleri aşağıdaki özeliği sağlıyorsa ortonormaldir: ortogonallik.
Determinant Bir kare matrisin tersinir olup olmadığına dair bilgi veriyor n- boyutlu uzayda matrisin satırlarından oluşmuş bir paralel kenarın hacmine.
Devre ve Sistem Analizi Neslihan Serap Şengör Elektronik ve Haberleşme Bölümü, oda no:1107 tel no:
Devre ve Sistem Analizi
Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. EK BİLGİ.
Bir örnek : Sarkaç. Gradyen Sistemler E(x)’in zamana göre türevi çözümler boyunca Gradyen sistemlere ilişkin özellikler Teorem 6: (Hirsh-Smale-Devaney,
Metrik koşullarını sağlıyor mu?
A1 sistemi A2 sistemi Hangisi daha hızlı sıfıra yaklaşıyor ? Hatırlatma.
Ağ Anahtarı (Switch) Çeşitleri
Makine Öğrenmesinde Yeni Problemler YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ.
Kararlılık Sıfır giriş kararlılığı Tanım: (Denge noktası) sisteminin sabit çözümleri, sistemin denge noktalarıdır. nasıl belirlenir? Cebrik denkleminin.
Çapraz Tablolar Tek ve İki Değişkenli Grafikler.  Çapraz Tablo ve Diğer Tabloları Oluşturabilmek  Bu Tablolara Uygun Grafikleri Çizebilmek Amaç:
Hopfield Ağı Ayrık zamanSürekli zaman Denge noktasının kararlılığı Lyapunov Anlamında kararlılık Lineer olmayan sistemin kararlılığı Tam Kararlılık Dinamik.
Bu durumda lineer sistemin çözümleri neler olabilir? Tüm bu durum portrelerinde ortak bir şey var, ne? S. Haykin, “Neural Networks- A Comprehensive Foundation”2.
DEPREME DAYANIKLI BETONARME YAPI TASARIMI
Öğretim  Öğrenci gelişimini amaçlayan, öğrenmenin başlatılması, sürdürülmesi ve gerçekleştirilmesi için düzenlenen planlı etkinliklerden oluşan bir süreçtir.
Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA.
Dinamik Yapay Sinir Ağı Modelleri Yinelemeli Ağlar (recurrent networks) İleri yolGeri besleme.
Kaos’a varmanın yolları DüzenKaos Nasıl? Umulmadık yapısal değişiklikler ile Bu nasıl oluşabilir? Ardışıl bir dizi dallanma ile, peryod katlanmasına yol.
Bazı kelimeler Pivot: that upon or around which something turns or depends; the central, cardinal or crucial factor, member, part, etc. Orthogonal: right-angled,
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ x1x1 x2x2 xmxm 1 w1w1 w2w2 wmwm w m+1 v y Hatırlatma.
Doğrusal Olmayan Devreler, Sistemler ve Kaos Neslihan Serap Şengör oda no:1107 tel no: Özkan Karabacak oda no:2307 tel.
Yazılım Mühendisliği1[ 3.hft ]. Yazılım Mühendisliği2 Yazılım İ sterlerinin Çözümlemesi Yazılım Yaşam Çevrimi “ Yazılım Yaşam çevrimin herhangi bir yazılım.
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß.
ÖZEL TANIMLI FONKSİYONLAR
ÇOK BOYUTLU SİNYAL İŞLEME
Bölüm 3 : Yapay Sinir Ağları (MatLab) Artificial Neural Network
Geriye Yayılım Algoritması
Devre ve Sistem Analizi
Ders notlarına nasıl ulaşabilirim
x* denge noktası olmak üzere x* sabit nokta olmak üzere
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı
Bölüm 2: Bir Boyutta Hareket. Bölüm 2: Bir Boyutta Hareket.
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Hatırlatma: Durum Denklemleri
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik
İlk olarak geçen hafta farklı a değerleri için incelediğiniz lineer sisteme bakalım: MATLAB ile elde ettiğiniz sonuçları analitik ifade ile elde edilen.
Bazı sorular: Topolojik eşdeğerlilik ne işimize yarayacak, topolojik
Teorem 2: Lineer zamanla değişmeyen sistemi
Yapay Sinir Ağı Modeli (öğretmenli öğrenme) Çok Katmanlı Algılayıcı
MODEL YETERSİZLİKLERİNİ DÜZELTMEK İÇİN DÖNÜŞÜMLER VE AĞIRLIKLANDIRMA
Spektral Teori ters dönüşümler bunların genel özellikleri ve asıl
X=(X,d) metrik uzayında bazı özel alt kümeler
Bölüm 4 İKİ BOYUTTA HAREKET
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme
Diferansiyel denklem takımı
• EDVAC (Electronic Discrete Variable Automatic Computer)
TUTUM VE ALGILAR.
Swİtch çeşİtlerİ – GÖKÇE TENEKECİ.
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
Eğiticisiz Öğrenme Hatırlatma
SİSMİK PROSPEKSİYON DERS-3
Meriç ÇETİN Pamukkale Üniversitesi Bilgisayar Mühendisliği Bölümü
Self Organizing Map-SOM
BÖLÜM X FİYATLANDIRMA.
MAK212-SAYISAL YÖNTEMLER Sayısal Türev ve İntegral
NİŞANTAŞI ÜNİVERSİTESİ
Ölçmede Hata Kavramı ve Hata Türleri
İleri Algoritma Analizi
Bilimsel Araştırma Yöntemleri
Bellek içi raporlama sistemleri için denormalizasyon uygulaması
Sunum transkripti:

Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest descent) Hatırlatma

Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Yeni notasyon Çıkış katmanı Gizli katmanın sayısı Hatırlatma

Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor Hatırlatma Yerel gradyen

Çıkış katmanındaki tüm ağırlıkların güncellenmesi

gizli katman (gks-1)’deki j. nöron ile gizli katman (o)’daki i. nörona ilişkin ağırlığın güncellenmesi

ilgilenilen ağırlığının toplam ani hataya etkisi Tanıdık birşeyler arayalım

Yerel gradyen

Gizli katmanındaki tüm ağırlıkların güncellenmesi Herhangi bir gizli katmandaki yerel gradyen

Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyüköğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?

Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA

Bu sistemin çözümü nereye gidiyor? A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım

Ardışık iterasyonlarda aynı işaretli ise ‘nın genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

Adaptif Öğrenme Hızı

Grup-Veri Uyarlamalı Eğitim Veri Uyarlamalı Eğitim “sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor

Grup UyarlamalıVeri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözün sağlanması

Geriye Yayılım Algoritmasının Yakınsaması Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)

S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.

Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß

Talvar Fonksiyonu ß ß

YSA Eğitilmiş YSA modeli Eğitim Kümesi Ölçekleme Geri Ölçekleme Ölçeklenmiş Veri Verilerin Ölçeklenmesi Doğrusal Ölçekleme: Logaritmik Ölçekleme:

Son İpuçları ‘ler büyük ise ağırlıkların değişim aralığı küçülür; fiziksel gerçeklemeye uygun olur. Ancak girişlerdeki gürültüye tolerans azalır. Ağırlıklar başlangıçta aynı seçilirse, değişimleri de aynı olabilir. Dolayısıyla ağırlıklar yenilendiğinde aynı kalabilirler. Bunu engellemek için başlangıç ağırlıkları sıfıra yakın sayılardan rastgele seçilmeli. Her katman eklendiğinde geriye yayılım algoritması yavaşlar. Bunu engellemek için girişten çıkışa doğrudan bağlantılar yapılabilir.

Geriye yayılım algoritması “en dik iniş” ve gradyen yönteme dayalı olduğundan, bu yöntemi iyileştirici tüm teknikler geriye yayılım algoritmasını da iyileştirmek için kullanılabilir. İkinci türevleri kullanan lineer olmayan eniyileme yöntemlerinden herhangi biri de kullanılabilir. SONLU ADIMDA GLOBAL MİNİMUMA YAKINSAMASI GARANTİ DEĞİLDİR.

T ve L harfini ayırt eden bir ağ Bu harfleri ağa nasıl sunacağız?25X1 boyutlu vektörler ile

Bu verilerin yanı sıra bozuk veriler de verelim....

Bir de test kümesi oluşturalım... Test kümesinde sağlam veriler ve eğitim kümesindekilerden farklı bozuk veriler olsun