Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok

Slides:



Advertisements
Benzer bir sunumlar
Unsupervised Learning (Kümeleme)
Advertisements

ALTIN FİYATININ VE İŞLEM HACMİNİN TAHMİNİ
MIT563 Yapay Zeka ve Makine Öğrenmesi
Çok Katmanlı Yapay Sinir Ağı Modelleri
Yapay Sinir Ağı (YSA).
Fırat Fehmi Aygün Aybars Moralı Dokuz Eylül Üniversitesi
Yapay Sinir Ağları Artificial Neural Networks (ANN)
Mükemmel İletken Yüzeyler Üzerindeki Hedeflerin Yapay Sinir Ağı İle Sınıflandırılması SENEM MAKAL
Yrd. Doç. Dr. Ayhan Demiriz
NEURAL NETWORK TOOLBOX VE UYGULAMALARI
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI
Yapay Sinir Ağları (YSA)
Bulanık Mantık Kavramlar:
Yapay Sinir Ağları (YSA)
Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,
Geçen hafta anlatılanlar Değişmez küme Değişmez kümelerin kararlılığı Bildiğimiz diğer kararlılık tanımları ve değişmez kümenin kararlılığı ile ilgileri.
V2’nin q1 doğrultusunda ki bileşenine
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest.
n bilinmeyenli m denklem
Davranış durum Eğitilen sistem Değer Atama Ortam Kritik Ödül r δ Eğiticisiz Öğrenme Pekiştirmeli Öğrenme (reinforcement learning) Öğrenme işleminin her.
Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. EK BİLGİ.
YAPAY SİNİR AĞLARI.
Elektrik Devrelerinin Temelleri dersinde ne yapacağız? Amaç: Fiziksel devrelerin elektriksel davranışlarını öngörme akım ve gerilim Hatırlatma Teori oluşturken.
Bazı Sorular Gerçekten de belirlenen ağırlıklar ile istenilen kararlı denge noktalarına erişmemizi sağlayacak dinamik sistem yaratıldı mı? Eğer evet ise,
Hatırlatma: Durum Denklemleri
Hopfield Ağı Ayrık zamanSürekli zaman Denge noktasının kararlılığı Lyapunov Anlamında kararlılık Lineer olmayan sistemin kararlılığı Tam Kararlılık Dinamik.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Hesaplamalı Sinirbilim Modeller farklı zamansal ve konumsal ölçeklerde süreçleri ele.
ISIS IRIR ITIT Z=10e -j45, 3-fazlı ve kaynak 220 V. I R, I S, I T akımları ile her empedansa ilişkin akımları belirleyin.
Devre Denklemleri: Genelleştirilmiş Çevre Akımları Yöntemi
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Bu derste ders notundan 57,58,59 ve 67,68,69,70,71 nolu sayfalar kullanılacak.
2- Jordan Kanonik Yapısı Elemanter işlemler: (1) Satır (Sütun) değiştirme (2) Satır (Sütun)’u bir sabit ile çarpma (3) Satır (Sütun ) toplama Elemanter.
2- Jordan Kanonik Yapısı
GrafTeorisine İlişkin Bazı Tanımlar
Tanım: ( Temel Çevreler Kümesi)
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı Kullanılan Hücre Modeli: McCulloch-Pitts Eksik birşey var!! Örüntüler: 1. Aşama: Belleğin Oluşturulması.
Wisconsin Kart Sıralama Testi WCST
Izhikevich Sinir Hücresinin davranışı Deneysel sonuçModelden elde edilen sonuç E.M. Izhikevich, “Dynamical Systems in Neuroscience”, MIT Press, 2007.
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Öğrenme nasıl gerçekleşiyor? Ağırlıklar hatayı en azlıyacak şekilde güncelleniyor Öğrenme.
Geriye Yayılım Algoritması
Lineer cebrin temel teoremi-kısım 1
Lineer Vektör Uzayı ‘de iki
Dinamik Sistem Dinamik sistem: (T, X, φt ) φt : X X a1) φ0=I
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Özdeğerler, Sıfırlar ve Kutuplar
Yapay Sinir Ağlarına Giriş
Yapay Sinir Ağlarına Giriş
Geçen hafta ne yapmıştık
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Teorem 2: Lineer zamanla değişmeyen sistemi
Sinir Hücresi McCulloch-Pitts x1 w1 x2 w2 v y wm xm wm+1 1 '
Teorem NU4 Lineer Kombinasyonlar ‘de lineer bağımsız bir küme Tanıt
Hopfield Ağı Ayrık zaman Sürekli zaman
G grafının aşağıdaki özellikleri sağlayan Ga alt grafına çevre denir:
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik
EK BİLGİ Bazı Eniyileme (Optimizasyon) Teknikleri Eniyileme problemi
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik ve Kararlılık
Banach Sabit Nokta Teoremi (Büzülme Teoremi)
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme
Bir ağaç seçip temel kesitlemeleri belirleyelim Hatırlatma
• EDVAC (Electronic Discrete Variable Automatic Computer)
Teorem: (Tellegen Teoremi) ne elemanlı bir G grafında KAY’sını
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
Yapay Zeka Nadir Can KAVKAS
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok Hatırlatma Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok yoğun, parallel ve dağılmış düzende çalışan bir işlemcidir. Deneysel bilgiyi depolama ve kullanıma sunma özelliğine sahiptir. Beyni iki şekilde andırır: 1) Ağ, bilgiyi ortamdan öğrenme yolu ile elde eder. 2) Gerekli bilgiyi depolama için basit işlemci ünitelerin arasındaki bağlantıları kullanır. Sinir hücresi Kenetleyici ağırlıklar ağırlık matrisi girişler İnsan beyni yaklaşık 100 milyar sinir hücresinin karmaşık ağlar ve kenetleyiciler ile bağlantılandığı dinamik bir sistemdir, ve sürekli elektriksel ve kimyasal bir etkinlik süregider.Basit üniteler sinir hücreleri, ama bunların nasıl bir organizasyon icinde olacagi ag yapıları ile belirlenecek. Ve bir diğer önemli bileşen öğrenme nasıl gerçeklenecek Bilindiği kadarıyla beynin fiziksel yapısından ve işleyiş ilkelerinden esinlenerek tasarlanan yapay sinir ağları farklı mimarilere (yapılara) ve farklı öğrenme kurallarına sahiptirler. http://filipinovoices.com/wp-content/uploads/2009/06/neurons.jpg

Ağ Yapıları İleri yol Tam bağlaşımlı Karma Hatırlatma girişler ağırlık matrisi gizli katman çıkış katmanı çıkışlar İleri yol ağırlık matrisi girişler Tam bağlaşımlı ağırlık matrisi öznitelik dönüşümü girişler Karma http://fbim.fh-regensburg.de/~saj39122/jfroehl/diplom/e-12-text.html

parametrelerin nasıl değiştirildiği ile belirlenir. Ağın içinde bulunduğu ortamdan etkilenerek parametrelerini değiştirmesi işlemi öğrenmedir. Öğrenme şekli, parametrelerin nasıl değiştirildiği ile belirlenir. Hatırlatma Öğrenme Süreçleri Öğrenme Süreçleri Eğiticili Öğrenme Eğiticisiz Öğrenme Pekiştirmeli Öğrenme Özdüzenlemeli Öğrenme

Hatırlatma Eğiticili Öğrenme Ortam Eğitici + - Eğitilen Sistem

Özdüzenlemeli Öğrenme Hatırlatma Özdüzenlemeli Öğrenme Ortam Eğitilen Sistem

Pekiştirmeli Öğrenme Eğitilen Sistem δ Kritik davranış Değer Atama Hatırlatma Pekiştirmeli Öğrenme Eğitilen Sistem davranış Kritik Ödül r δ Değer Atama Ortam

“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Nasıl anlayacağız? Nasıl gösterimi oluşturacağız? Kurallar: (1) Benzer sınıflardan benzer girişler ağda benzer gösterimler oluşturmalı ve böylece aynı kategoriye ait olarak sınıflanmalı, (2) Farklı sınıflara ayrılacak nesnelere, ağda çok farklı gösterimler atanmalı, (3) Belirli bir özellik önemli ise ağda onun gösterimi ile görevlendirilen hücre sayısı daha fazla olmalı,

Benzerliğin bir ölçütü - Norm V vektör uzayı olmak üzere, aşağıdaki dört özelliği sağlayan fonksiyon : normdur

Gösterim için bir yol Bir T harfi Bir L harfi İşlem uygulayacağımıza göre nasıl ifade edebiliriz? Bir T harfi Bir L harfi

İleri Yol Ağı ve Eğiticili Öğrenme Giriş vektörü Çıkış vektörü Gizli katmanlar Çıkış katmanı

Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron) Teorem: (Kolmogorov 1957) ‘e bağlı olmayan monoton artan sürekli tek değişkenli fonksiyon sürekli tek değişkenli fonksiyon

Teoremin sonuçları..... Kolmogorov Teoremi bir varlık teoremi ‘i özel bir şekilde ifade edebileceğimizi söylüyor. ve ‘nin ne yapıda olduklarını ve kaç tanesinin yeterli olacağını söylüyor. Kolmogorov Teoremi bir varlık teoremi olduğundan nasıl belirlenir söylemiyor. Kolmogorov Teoreminde bazı şeylerden vazgeçelim, tam olmasın yaklaşık olsun ama fonksiyonları bilelim. Teorem: (Cybenko 1989) yeterince büyük herhangi bir sürekli sigmoid fonksiyon

işlem yapan gizli katmanlar işlem yapan çıkış katmanı Nöron ve sigmoid Ağ yapısı Giriş Gizli katman 1 Gizli katman 2 Çıkış giriş katmanı işlem yapan gizli katmanlar işlem yapan çıkış katmanı Nöron sürekli türetilebilir, lineer olmayan aktivasyon fonksiyonu var Eğitim eğiticili öğrenme Öğrenme algoritması geriye yayılım http://www.oscarkilo.net/wiki/images/8/84/Ffperceptron.png

- + Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor

Eğitim Kümesi Giriş vektörü İstenilen Çıkış vektörü

Eğitim Kümesindeki q. çifte ilişkin çıkış katmanındaki j. nörondaki hata: Nöron j için ani hata: Toplam ani hata: Ortalama karesel hata:

Eğiticili Öğrenme Amaç Ölçütü Toplam ani hata: veya Ortalama karesel hata: olan bir eniyileme problemi Öğrenme kuralı:

Yerel gradyen