“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.

Slides:



Advertisements
Benzer bir sunumlar
FONKSİYONLAR Hazırlayan:Ogün İçel.
Advertisements

ERÜNAL SOSYAL BİLİMLER LİSESİ
Çok Katmanlı Yapay Sinir Ağı Modelleri
UGUR KOCA Konu : OLASILIK
DOĞRU GRAFİKLERİ EĞİM.
BENZETİM Prof.Dr.Berna Dengiz 5. Ders.
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
1.4 Analitik Düzlemde Vektörler YÖNLÜ DOĞRU PARÇASI :
YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI
EŞİTLİK ve DENKLEM.
KENAN ZİBEK.
FONKSİYON TARİHİ FONKSİYON
Yrd. Doç. Dr. Mustafa Akkol
10-14 Şubat Fonksiyonların Grafiği
DOĞRUSAL EŞİTSİZLİK SİSTEMLERİ
SONLU ELEMANLAR DERS 6.
DOĞRUSAL EŞİTSİZLİKLER
BAĞINTI & FONKSİYONLAR.
Kim korkar matematikten?
FONKSİYONLAR.
Yapay Sinir Ağları (YSA)
Sayısal Analiz 7. Hafta SAÜ YYurtaY.
Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,
V2’nin q1 doğrultusunda ki bileşenine
n bilinmeyenli m denklem
Davranış durum Eğitilen sistem Değer Atama Ortam Kritik Ödül r δ Eğiticisiz Öğrenme Pekiştirmeli Öğrenme (reinforcement learning) Öğrenme işleminin her.
YAPAY SİNİR AĞLARI.
Bazı Sorular Gerçekten de belirlenen ağırlıklar ile istenilen kararlı denge noktalarına erişmemizi sağlayacak dinamik sistem yaratıldı mı? Eğer evet ise,
BİL551 – YAPAY ZEKA Kümeleme
Hatırlatma: Durum Denklemleri
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ x1x1 x2x2 xmxm 1 w1w1 w2w2 wmwm w m+1 v y Hatırlatma.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Hesaplamalı Sinirbilim Modeller farklı zamansal ve konumsal ölçeklerde süreçleri ele.
Toplamsallık ve Çarpımsallık Özelliği
Devre Denklemleri: Genelleştirilmiş Çevre Akımları Yöntemi
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Bu derste ders notundan 57,58,59 ve 67,68,69,70,71 nolu sayfalar kullanılacak.
2- Jordan Kanonik Yapısı
GrafTeorisine İlişkin Bazı Tanımlar
Tanım: ( Temel Çevreler Kümesi)
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı Kullanılan Hücre Modeli: McCulloch-Pitts Eksik birşey var!! Örüntüler: 1. Aşama: Belleğin Oluşturulması.
Izhikevich Sinir Hücresinin davranışı Deneysel sonuçModelden elde edilen sonuç E.M. Izhikevich, “Dynamical Systems in Neuroscience”, MIT Press, 2007.
Biz şimdiye kadar hangi uzaylar ile uğraştık:
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Öğrenme nasıl gerçekleşiyor? Ağırlıklar hatayı en azlıyacak şekilde güncelleniyor Öğrenme.
Geriye Yayılım Algoritması
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
dim(R(A))+dim(N(A))=n
Ders notlarına nasıl ulaşabilirim
Lineer Vektör Uzayı ‘de iki
Dinamik Sistem Dinamik sistem: (T, X, φt ) φt : X X a1) φ0=I
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Özdeğerler, Sıfırlar ve Kutuplar
Geçen hafta ne yapmıştık
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Teorem 2: Lineer zamanla değişmeyen sistemi
Sinir Hücresi McCulloch-Pitts x1 w1 x2 w2 v y wm xm wm+1 1 '
Teorem NU4 Lineer Kombinasyonlar ‘de lineer bağımsız bir küme Tanıt
Hopfield Ağı Ayrık zaman Sürekli zaman
G grafının aşağıdaki özellikleri sağlayan Ga alt grafına çevre denir:
Hatırlatma Yörünge: Or(xo)
Sistem Özellikleri: Yönetilebilirlik, Gözlenebilirlik ve Kararlılık
Banach Sabit Nokta Teoremi (Büzülme Teoremi)
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme
• EDVAC (Electronic Discrete Variable Automatic Computer)
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
NİŞANTAŞI ÜNİVERSİTESİ
NİŞANTAŞI ÜNİVERSİTESİ
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan benzer girişler ağda benzer gösterimler oluşturmalı ve böylece aynı kategoriye ait olarak sınıflanmalı, (2) Farklı sınıflara ayrılacak nesnelere, ağda çok farklı gösterimler atanmalı, (3) Belirli bir özellik önemli ise ağda onun gösterimi ile görevlendirilen hücre sayısı daha fazla olmalı, Nasıl anlayacağız? Nasıl gösterimi oluşturacağız? Hatırlatma

Benzerliğin bir ölçütü - Norm V vektör uzayı olmak üzere, aşağıdaki dört özelliği sağlayan fonksiyon : normdur Hatırlatma

Gösterim için bir yol Bir T harfi İşlem uygulayacağımıza göre nasıl ifade edebiliriz? Bir L harfi

Öğrenme Süreçleri Ağın içinde bulunduğu ortamdan etkilenerek parametrelerini değiştirmesi işlemi öğrenmedir. Öğrenme şekli, parametrelerin nasıl değiştirildiği ile belirlenir. Öğrenme Süreçleri Eğiticili ÖğrenmeEğiticisiz Öğrenme Pekiştirmeli Öğrenme Özdüzenlemeli Öğrenme

OrtamEğitici Eğitilen Sistem Eğiticili Öğrenme + -

Eğitici ortam hakkında bilgiye sahip Eğitilen sistem ortam hakkında bilgiye sahip değil Eğitilen sisteme ilişkin eğitim kümesinde içerilen bilgi ve aracılığı ile değiştiriliyor ağırlıklar hata Eğiticinin ortam hakkında sahip olduğu bilgi, eğitilen sisteme aktarılıyor Burada rahatsız edici bir şey var, ne?

davranış Kritik Ödül r δ Pekiştirmeli Öğrenme Eğitilen Sistem Ortam Değer Atama Öğrenme işleminin her adımında istenilen yanıtı sağlayan bir eğitici yok Eğitilen sistem, sonuçta elde edilecek yanıta erişmek için gerekli davranışı eleştiriyi gözönünde tutarak bulmak bulmak zorunda

Ortam Özdüzenlemeli Öğrenme Eğitilen Sistem Bilgiye sahip ya da eleştiride bulunan bir eğitici yok Eğitilen sistem girişlerin istatiksel dağılımını belirledikten sonra sınıflamayı oluşturuyor.

x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 v Genlikte Ayrık Algılayıcı-GAA (Perceptron) y x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 y

Ancak Rosenblatt’ın 1954’de önerdiği yapı bundan farklı Giriş Katmanı Çıkış Katmanı y x1x1 x2x2 xnxn 1 w1w1 w2w2 wnwn w n+1 y w1w1 w2w2 wmwm x1x1 x2x2 xnxn Giriş Katmanı Çıkış Katmanı Birinci Katman Sabit ağırlıklar, sabit fonksiyonlar Bağlantı ağırlıkları, eğitim kümesi ile belirlenen tek bir nöron

Genlikte Ayrık Algılayıcı aslında Girişlere doğrudan bağlı tek bir nöron değil Birinci katman değişmeyen bir yapıya sahip Çıkış katmanı, tek bir nörondan oluşan eğitilebilir bir yapı. Peki Rosenblatt neden birinci katmana gerek duymuş? Birinci katmanda farklı fonksiyonları oluşturup, öğrenme ile bunlar cinsinden çıkışta istenilen fonksiyonu ifade etmek Tanım: Doğrusal ayrıştırılabilir küme (Linearly separable set) X kümesi R tane X i alt kümesinden oluşsun. g i ‘ler x’in doğrusal fonksiyonu olmak üzere ise X i kümeleri doğrusal ayrıştırılabilir kümelerdir.

Tanımı anlamaya çalışalım... (-1,1)(1,1) (-1,-1) (1,-1) R=? g’leri yazalım Bu iki kümenin doğrusal ayrıştırılabilir olduğunu göstermek için ne yapmalıyız? ve sağlayan a,b ve c’ler bulunmalı bir çözüm:

Tanım: Karar Düzlemi (Decision Surface) Kümeleri ayıran düzlem. Özellikle, örüntüleri farklı sınıflara ayıran düzlem olarak kullanılıyor. Tek bir nöron ile neler yapılabilir? Nöron sayısını artırarak ne yapılabilir ne yapılamaz?

Rosenblatt’ın Genlikte Ayrık Algılayıcısında neler oluyor? Girişler n-boyutlu bir vektör bir örüntüyü temsil ediyor (pattern) Örüntü uzayı (pattern space) Katman1’in çıkışı Ne oldu? Bu dönüşüm genel olarak doğrusal değil Genlikte Ayrık Algılayıcı için karar düzlemi: y w1w1 w2w2 wmwm x1x1 x2x2 xnxn Genlikte Ayrık Algılayıcı ancak katman 1’in görüntü uzayındaki örüntüleri ise iki sınıfa ayırır. Doğrusal Ayrıştırılabilir ??????

Soru: Katman 1’de m işlem birimine sahip bir GAA, katman 1 görüntü uzayınındaki P tane örüntüyü 2 sınıfa kaç türlü ayırabilir? Yanıt: Burada işi ne? Hatırlatma: Soru: Herhangi bir doğrusal karar düzleminin GAA ile hesaplanabilme olasılığı nedir? Yanıt: m büyük bir sayı ise 2(m+1)’den daha az sayıdaki örüntüyü doğru şekilde sınıflayabilir. 0 < P <2(m+1)

Katman 1 örüntüleri doğrusal ayrıştırılabilecekleri görüntü uzayına taşır. Doğrusal ayrıştırılamayan örüntüleri doğrusal ayrıştırılabilir kılmak iki türlü olasıdır: (i) m (ii) P XOR Genlikte Ayrık Algılayıcı ile ifade etmek: P=4, n=2 İki girişli, tek nöronun kapasitesi: 2*3=6 Kapasite açısından uygun ama doğrusal ayrıştırılabilir değiller m mi P mi değişti? (0,1)(1,1) (0,0) (1,0) (0,1)(1,1) (0,0) (1,0) (0,1,1)(1,1,1) (0,0,0) (1,0,1)

m mi P mi değişti? Şimdi Genlikte Ayrık Algılayıcı ile biraz iş yapalım Verilenler: Eğitim Kümesi Amaç: İki sınıfa ayırmak y x1x1 x2x2 xmxm 1 w1w1 w2w2 wmwm w m+1 Gerçeklenebilme Koşulu: Eğitim kümesi doğrusal ayrıştırılabilir Eğitim kümesi doğrusal ayrıştırılabilir ise:

Eğitim kümesi doğrusal ayrıştırılabilir değil ise: Öğrenme Kuralı: öğrenme hızı <1 olan pozitif bir sayı

Genlikte Ayrık Algılayıcı Yakınsama Teoremi Eğitim kümesi doğrusal ayrıştırılabilir ise genlikte ayrık algılayıcı için verilen öğrenme kuralı sonlu adımda bir çözüm verir. Tanıt: c=1 X eğitim kümesindeki tüm girişler olsun Bu eğitim kümesine karşı düşen ağırlık vektörleri olan adımlarda eğitim kümesindeki örüntüler ve ağırlık vektörleri yukarıdaki dizilerden çıkarılsın Geriye hangileri kaldı? Ağırlıkların güncellenmesi gereken her adımda ne oluyor?

Güncelleme sırasında neler olacak Burada tuhaf olan birşey var. öğrenme kuralı

Eğitim kümesi doğrusal ayrıştırılabilir çözüm kümesi Burada da tuhaf olan birşey var. Bir seçilsin Alt sınır

Neden? Nasıl geldik? Üst sınır

Büyük k’lar için bu sınırlara dikkat edin!!!! Alt sınır Üst sınır en büyük adım sayısı yukarıdaki eşitliğin belirlediği k m ‘den büyük olamaz