Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,

Slides:



Advertisements
Benzer bir sunumlar
Çok Katmanlı Yapay Sinir Ağı Modelleri
Advertisements

Yapay Sinir Ağı (YSA).
İlk Yapay Sinir Ağları.
DOĞRU GRAFİKLERİ EĞİM.
Yrd. Doç. Dr. Ayhan Demiriz
NEURAL NETWORK TOOLBOX VE UYGULAMALARI
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
1.4 Analitik Düzlemde Vektörler YÖNLÜ DOĞRU PARÇASI :
YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI
10-14 Şubat Fonksiyonların Grafiği
DOĞRUSAL EŞİTSİZLİK SİSTEMLERİ
Giriş Dikkat Altsistemi Yönlendirme Altsistemi Kısa Süreli Bellek Uzun Süreli Bellek Kontrol Birimi Kontrol Birimi F1 F2 ART nasıl çalışıyor? Mete Balcı,
DOĞRUSAL EŞİTSİZLİKLER
Kim korkar matematikten?
MATEMATİK EŞİTSİZLİKLER.
FONKSİYONLAR.
Yapay Sinir Ağları (YSA)
Bulanık Mantık Kavramlar:
ÇIKARMA İŞLEMİ EKSİLENİ BULALIM
Yapay Sinir Ağları (YSA)
V2’nin q1 doğrultusunda ki bileşenine
Davranış durum Eğitilen sistem Değer Atama Ortam Kritik Ödül r δ Eğiticisiz Öğrenme Pekiştirmeli Öğrenme (reinforcement learning) Öğrenme işleminin her.
YAPAY SİNİR AĞLARI.
Bazı Sorular Gerçekten de belirlenen ağırlıklar ile istenilen kararlı denge noktalarına erişmemizi sağlayacak dinamik sistem yaratıldı mı? Eğer evet ise,
Hatırlatma: Durum Denklemleri
Dinamik Yapay Sinir Ağı Modelleri Yinelemeli Ağlar (recurrent networks) İleri yolGeri besleme.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ x1x1 x2x2 xmxm 1 w1w1 w2w2 wmwm w m+1 v y Hatırlatma.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Hesaplamalı Sinirbilim Modeller farklı zamansal ve konumsal ölçeklerde süreçleri ele.
Toplamsallık ve Çarpımsallık Özelliği
Devre Denklemleri: Genelleştirilmiş Çevre Akımları Yöntemi
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Bu derste ders notundan 57,58,59 ve 67,68,69,70,71 nolu sayfalar kullanılacak.
2- Jordan Kanonik Yapısı
GrafTeorisine İlişkin Bazı Tanımlar
Tanım: ( Temel Çevreler Kümesi)
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı Kullanılan Hücre Modeli: McCulloch-Pitts Eksik birşey var!! Örüntüler: 1. Aşama: Belleğin Oluşturulması.
Genelleştirilmiş Çevre Akımları Yöntemi
Izhikevich Sinir Hücresinin davranışı Deneysel sonuçModelden elde edilen sonuç E.M. Izhikevich, “Dynamical Systems in Neuroscience”, MIT Press, 2007.
Biz şimdiye kadar hangi uzaylar ile uğraştık:
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Öğrenme nasıl gerçekleşiyor? Ağırlıklar hatayı en azlıyacak şekilde güncelleniyor Öğrenme.
Geriye Yayılım Algoritması
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
dim(R(A))+dim(N(A))=n
Ders notlarına nasıl ulaşabilirim
Dinamik Sistem Dinamik sistem: (T, X, φt ) φt : X X a1) φ0=I
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
h homeomorfizm h homeomorfizm h 1-e-1 ve üstüne h sürekli h
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Özdeğerler, Sıfırlar ve Kutuplar
Dinamik Sistem T=R sürekli zaman Dinamik sistem: (T, X, φt ) T zaman
Yapay Sinir Ağlarına Giriş
Yapay Sinir Ağlarına Giriş
Geçen hafta ne yapmıştık
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Teorem 2: Lineer zamanla değişmeyen sistemi
Sinir Hücresi McCulloch-Pitts x1 w1 x2 w2 v y wm xm wm+1 1 '
Teorem NU4 Lineer Kombinasyonlar ‘de lineer bağımsız bir küme Tanıt
Hopfield Ağı Ayrık zaman Sürekli zaman
G grafının aşağıdaki özellikleri sağlayan Ga alt grafına çevre denir:
Hatırlatma Yörünge: Or(xo)
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik ve Kararlılık
Banach Sabit Nokta Teoremi (Büzülme Teoremi)
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme
• EDVAC (Electronic Discrete Variable Automatic Computer)
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
NİŞANTAŞI ÜNİVERSİTESİ
Yapay Zeka Nadir Can KAVKAS
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok yoğun, parallel ve dağılmış düzende çalışan bir işlemcidir. Deneysel bilgiyi depolama ve kullanıma sunma özelliğine sahiptir. Beyni iki şekilde andırır: 1) Ağ, bilgiyi ortamdan öğrenme yolu ile elde eder. 2) Gerekli bilgiyi depolama için basit işlemci ünitelerin arasındaki bağlantıları kullanır. Sinir hücresi Sinaptik ağırlıklar Hatırlatma

Öğrenme Süreçleri Ağın içinde bulunduğu ortamdan etkilenerek parametrelerini değiştirmesi işlemi öğrenmedir. Öğrenme şekli, parametrelerin nasıl değiştirildiği ile belirlenir. Öğrenme Süreçleri Eğiticili ÖğrenmeEğiticisiz Öğrenme Pekiştirmeli Öğrenme Özdüzenlemeli Öğrenme Hatırlatma

OrtamEğitici Eğitilen Sistem Eğiticili Öğrenme + - Hatırlatma

Eğitici ortam hakkında bilgiye sahip Eğitilen sistem ortam hakkında bilgiye sahip değil Eğitilen sisteme ilişkin eğitim kümesinde içerilen bilgi ve aracılığı ile değiştiriliyor ağırlıklar hata Eğiticinin ortam hakkında sahip olduğu bilgi, eğitilen sisteme aktarılıyor Burada rahatsız edici bir şey var, ne? Hatırlatma

davranış Kritik Ödül r δ Pekiştirmeli Öğrenme Eğitilen Sistem Ortam Değer Atama Öğrenme işleminin her adımında istenilen yanıtı sağlayan bir eğitici yok Eğitilen sistem, sonuçta elde edilecek yanıta erişmek için gerekli davranışı eleştiriyi gözönünde tutarak bulmak bulmak zorunda

Ortam Özdüzenlemeli Öğrenme Eğitilen Sistem Bilgiye sahip ya da eleştiride bulunan bir eğitici yok Eğitilen sistem girişlerin istatiksel dağılımını belirledikten sonra sınıflamayı oluşturuyor.

x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 v Genlikte Ayrık Algılayıcı-GAA (Perceptron) y x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 y

Ancak Rosenblatt’ın 1954’de önerdiği yapı bundan farklı Giriş Katmanı Çıkış Katmanı y x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 y w1w1 w2w2 wmwm x1x1 x2x2 xnxn Giriş Katmanı Çıkış Katmanı Birinci Katman Sabit ağırlıklar, sabit fonksiyonlar Bağlantı ağırlıkları, eğitim kümesi ile belirlenen tek bir nöron

Genlikte Ayrık Algılayıcı aslında Girişlere doğrudan bağlı tek bir nöron değil Birinci katman değişmeyen bir yapıya sahip Çıkış katmanı, tek bir nörondan oluşan eğitilebilir bir yapı. Peki Rosenblatt neden birinci katmana gerek duymuş? Birinci katmanda farklı fonksiyonları oluşturup, öğrenme ile bunlar cinsinden çıkışta istenilen fonksiyonu ifade etmek Tanım: Doğrusal ayrıştırılabilir küme (Linearly separable set) X kümesi R tane X i alt kümesinden oluşsun. g i ‘ler x’in doğrusal fonksiyonu olmak üzere ise X i kümeleri doğrusal ayrıştırılabilir kümelerdir.

Tanımı anlamaya çalışalım... (-1,1)(1,1) (-1,-1) (1,-1) R=? g’leri yazalım Bu iki kümenin doğrusal ayrıştırılabilir olduğunu göstermek için ne yapmalıyız? ve sağlayan a,b ve c’ler bulunmalı bir çözüm:

Tanım: Karar Düzlemi (Decision Surface) Kümeleri ayıran düzlem. Özellikle, örüntüleri farklı sınıflara ayıran düzlem olarak kullanılıyor. Tek bir nöron ile neler yapılabilir? Nöron sayısını artırarak ne yapılabilir ne yapılamaz?

Rosenblatt’ın Genlikte Ayrık Algılayıcısında neler oluyor? Girişler n-boyutlu bir vektör bir örüntüyü temsil ediyor (pattern) Örüntü uzayı (pattern space) Katman1’in çıkışı Ne oldu? Bu dönüşüm genel olarak doğrusal değil Genlikte Ayrık Algılayıcı için karar düzlemi: y w1w1 w2w2 wmwm x1x1 x2x2 xnxn Genlikte Ayrık Algılayıcı ancak katman 1’in görüntü uzayındaki örüntüleri ise iki sınıfa ayırır. Doğrusal Ayrıştırılabilir ??????

Soru: Katman 1’de m işlem birimine sahip bir GAA, katman 1 görüntü uzayınındaki P tane örüntüyü 2 sınıfa kaç türlü ayırabilir? Yanıt: Burada işi ne? Hatırlatma: Soru: Herhangi bir doğrusal karar düzleminin GAA ile hesaplanabilme olasılığı nedir? Yanıt: m büyük bir sayı ise 2(m+1)’den daha az sayıdaki örüntüyü doğru şekilde sınıflayabilir. 0 < P <2(m+1)

Katman 1 örüntüleri doğrusal ayrıştırılabilecekleri görüntü uzayına taşır. Doğrusal ayrıştırılamayan örüntüleri doğrusal ayrıştırılabilir kılmak iki türlü olasıdır: (i) m (ii) P XOR Genlikte Ayrık Algılayıcı ile ifade etmek: P=4, n=2 İki girişli, tek nöronun kapasitesi: 2*3=6 Kapasite açısından uygun ama doğrusal ayrıştırılabilir değiller m mi P mi değişti? (0,1)(1,1) (0,0) (1,0) (0,1)(1,1) (0,0) (1,0) (0,1,1)(1,1,1) (0,0,0) (1,0,1)

m mi P mi değişti? Şimdi Genlikte Ayrık Algılayıcı ile biraz iş yapalım Verilenler: Eğitim Kümesi Amaç: İki sınıfa ayırmak y x1x1 x2x2 xmxm 1 w1w1 w2w2 wmwm w m+1 Gerçeklenebilme Koşulu: Eğitim kümesi doğrusal ayrıştırılabilir Eğitim kümesi doğrusal ayrıştırılabilir ise:

Eğitim kümesi doğrusal ayrıştırılabilir değil ise: Öğrenme Kuralı: öğrenme hızı <1 olan pozitif bir sayı

Genlikte Ayrık Algılayıcı Yakınsama Teoremi Eğitim kümesi doğrusal ayrıştırılabilir ise genlikte ayrık algılayıcı için verilen öğrenme kuralı sonlu adımda bir çözüm verir. Tanıt: c=1 X eğitim kümesindeki tüm girişler olsun Bu eğitim kümesine karşı düşen ağırlık vektörleri olan adımlarda eğitim kümesindeki örüntüler ve ağırlık vektörleri yukarıdaki dizilerden çıkarılsın Geriye hangileri kaldı? Ağırlıkların güncellenmesi gereken her adımda ne oluyor?

Güncelleme sırasında neler olacak Burada tuhaf olan birşey var. öğrenme kuralı