YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI

Slides:



Advertisements
Benzer bir sunumlar
Unsupervised Learning (Kümeleme)
Advertisements

Zeki Veri Madenciliği Ethem Alpaydın Bilgisayar Mühendisliği Bölümü
U.Mahir YILDIRIM Bülent ÇATAY
ALTIN FİYATININ VE İŞLEM HACMİNİN TAHMİNİ
BENZETİM Prof.Dr.Berna Dengiz 8. Ders.
FONKSİYONLAR Hazırlayan:Ogün İçel.
İLİŞKİLERİ İNCELEMEYE YÖNELİK ANALİZ TEKNİKLERİ
Uludağ Üniversitesi Fizik Bölümü
İstatistik Tahmin ve Güven aralıkları
Çok Katmanlı Yapay Sinir Ağı Modelleri
YAPAY ZEKA ÖDEV - 2 Kenan KILIÇASLAN Trakya Üniversitesi Fen Bilimleri Enstitüsü Makina Mühendisliği Doktora Programı.
Yapay Sinir Ağı (YSA).
Çok Katmanlı Ağın Çalışma Şekli
İlk Yapay Sinir Ağları.
Kümeleme Modeli (Clustering)
Yapay Sinir Ağları.
Support Vector Machines
MC-CDMA (Çok Taşıyıcılı-Kod Bölmeli Çoklu Erişim ) Alıcılarda Yakın-Uzak Problemine Yönelik Yapay Zekâ Uygulamaları Metin ÇİÇEK, Bilgi Teknolojileri ve.
İçerik Ön Tanımlar En Kısa Yol Problemi Yol, Cevrim(çember)
MIT503 Veri Yapıları ve algoritmalar En önemli graf problemleri
Fırat Fehmi Aygün Aybars Moralı Dokuz Eylül Üniversitesi
Yapay Sinir Ağları Artificial Neural Networks (ANN)
FONKSİYONLAR ve GRAFİKLER
Karar Ağaçları.
MIT563 Yapay Zeka ve Makine Öğrenmesi
Türkçe Dokümanlarda Yapay Sinir Ağları ile Yazar Tanıma
İstatistiksel Sınıflandırma
Mükemmel İletken Yüzeyler Üzerindeki Hedeflerin Yapay Sinir Ağı İle Sınıflandırılması SENEM MAKAL
Bilgisayar Programlama
TEST – 1.
Abdulkerim Karabiber Ozan Gül
MAKİNE ÖĞRENİMİ-Machine learning
SİU 2009 Sınıflandırıcılarda Hata Ölçülmesi ve Karşılaştırılması için İstatistiksel Yöntemler Ethem Alpaydın Boğaziçi Üniversitesi
Yrd. Doç. Dr. Ayhan Demiriz
NEURAL NETWORK TOOLBOX VE UYGULAMALARI
İleri Sayısal Haberleşme
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
YAPAY SİNİR AĞLARI.
SONLU ELEMANLAR YÖNTEMİ
SONLU ELEMANLAR YÖNTEMİ
SONLU ELEMANLAR YÖNTEMİ
Makine Öğrenmesinde Yeni Problemler
Yapay Sinir Ağları (YSA)
Bulanık Mantık Kavramlar:
ÖRNEK Tank Sıvı Seviye Bulanık Kontrolü
MKM 311 Sistem Dinamiği ve Kontrol
Yapay Zeka Desteği ile Parfüm Öneri Sistemi
Yapay Sinir Ağları (YSA)
Yapay Sinir Ağları (Artificial Neural Networks) Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990) Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş,
YAPAY SİNİR AĞLARI.
BİL551 – YAPAY ZEKA Kümeleme
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
F(.) y[n+1] Giriş Vektörü Giriş-Çıkış Eşleme Fonksiyonu Çıkış Mahmut Meral, Lisans Bitirme Ödevi, 2003 Giriş – Çıkış Modeline göre Dinamik Sistem Tanıma.
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme Uygun yanıt verme Depolanmış enformasyon veya model Kurallar: (1) Benzer sınıflardan.
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
Makine Öğrenmesinde Yeni Problemler YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ.
Engin Kaya Kontrol Mühendisliği İstanbul Teknik Üniversitesi
Engin Kaya Kontrol Mühendisliği İstanbul Teknik Üniversitesi
Kümeleme Modeli (Clustering)
YAPAY SİNİR AĞLARININ YAPISI VE TEMEL ELEMANLARI
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
Makine Öğrenmesinde Yeni Problemler
Yapay Zeka Nadir Can KAVKAS
ÖĞRENCİ AD SOYAD, ÖĞRENCİ AD SOYAD, ÖĞRENCİ AD SOYAD
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Sunum transkripti:

YAPAY SİNİR AĞLARI VE BAYES SINIFLAYICI Yrd.Doç.Dr.Lale Özyılmaz

YAPAY SİNİR AĞLARI (YSA) Genel olarak insan beyninin ya da merkezi sinir sisteminin çalışma prensiplerini taklit eden bilgi işleme sistemleridir. YSA yapay sinir hücrelerinden meydana gelir ve katmanlar halinde oluşturulur.

BİYOLOJİK VE YAPAY SİNİR SİSTEMİ Biyolojik Sinir Sistemi YSA Sistemi Nöron İşlem Elemanı Dendrit Birleştirme Fonksiyonu Hücre Gövdesi Transfer Fonksiyonu Akson İşlem Elemanı Çıkışı Sinapslar Ağırlıklar

İŞLEM ELEMANININ YAPISI

YAPAY SİNİR AĞLARININ YAPISI-1

YAPAY SİNİR AĞLARININ YAPISI-2 Yapay sinir ağları, yapay sinir hücrelerinin birbirine bağlanmasıyla oluşan yapılardır. Yapay sinir ağları üç ana bölümde incelenir: giriş, ara (gizli) ve çıkış katmanları.

YAPAY SİNİR AĞLARININ YAPISI-3 Giriş Katmanı: Yapay sinir ağına dış dünyadan girişlerin geldiği katmandır. Genelde girişler herhangi bir işleme uğramadan ara katmanlara iletilmektedir.

YAPAY SİNİR AĞLARININ YAPISI-4 Ara (Gizli) Katman: Giriş katmanından çıkan bilgiler bu katmana gelir. Ara katman sayısı ağdan ağa değişebilir. Bazı yapay sinir ağlarında ara katman bulunmadığı gibi bazı yapay sinir ağlarında ise birden fazla ara katman bulunmaktadır. Ara katmanlardaki nöron sayıları giriş ve çıkış sayısından bağımsızdır.

YAPAY SİNİR AĞLARININ YAPISI-5 Çıkış Katmanı: Ara katmanlardan gelen bilgiyi işleyerek, giriş katmanından gelen verilere karşılık olan çıkışları üreten katmandır. Bu katmanda üretilen çıkışlar dış dünyaya gönderilir.

YSA’NIN TEMEL BAZI ÖZELLİKLERİ Öğrenme: İstenen çıkış(lar)ı elde etmek için bağlantı ağırlıklarının ayarlanmasıdır. Genelleme: YSA’nın eğitim sırasında karşılaşmadığı test örnekleri için de istenen çıkışı üretmesidir. Adaptiflik: Ele alınan problemdeki değişikliklere göre ağırlıkların tekrar ayarlanmasıdır.

YSA’LARIN YAPILARINA GÖRE SINIFLANDIRILMASI-1 İleri Beslemeli Ağ:

YSA’LARIN YAPILARINA GÖRE SINIFLANDIRILMASI-2 Geri Beslemeli Ağ: Çıkışlar Z-1 : gecikme operatörü Girişler

YSA’LARIN ÖĞRENME ALGORİTMALARINA GÖRE SINIFLANDIRILMASI Eğiticili (Denetimli) Öğrenme: Çıkış katmanında ağın üretmesi gereken sonuçlar yani hedef (istenen, beklenen) çıkışlar YSA’ya verilir. Eğiticisiz (Denetimsiz) Öğrenme: Örneklerden elde edilen çıkış bilgisine göre YSA, girişleri kümelere ayırır.

YAPAY SİNİR AĞININ EĞİTİMİNDE ÖNEMLİ BAZI KRİTERLER Eğitme örneklerinin seçilmesi Ağ yapısının belirlenmesi Durdurma kriterlerinin seçimi

TEK KATMANLI ALGILAYICI (TKA) ÖĞRENME KURALI-1 Adım 1: Ağa giriş verileri  ve girişlere karşılık gelen beklenen (hedef) çıkışlar uygulanır. Hedef çıkış, 1 ve 0 değerlerinden birisini alır. Adım 2: Net  giriş şu şekilde hesaplanır: NET=∑(wi*xi) Adım 3: Ağın çıkış değeri hesaplanır. Net girişin eşik değerinden büyük veya küçük olmasına  göre ağın çıkış değeri 1 ve 0 değerlerinden birisini alır.

TEK KATMANLI ALGILAYICI (TKA) ÖĞRENME KURALI-2 Ç: Ağ çıkışı (gerçekleşen çıkış) olmak üzere, Ç=1 Eğer NET > EŞİK DEĞERİ Ç=0 Eğer NET < = EŞİK DEĞERİ Eğer gerçekleşen çıkış ile beklenen (hedef) çıkış aynı olursa ağırlıklarda herhangi bir değişiklik yapılmaz. Gerçekleşen çıkış ile beklenen çıkış farklı olursa iki durum söz konusudur:

TEK KATMANLI ALGILAYICI (TKA) ÖĞRENME KURALI-3 a) Ağın beklenen çıkışı 0 değerindedir. Fakat net giriş eşik değerinin üstündedir. Yani ağın gerçekleşen çıkışı 1 değerindedir. Bu durumda ağırlık değerleri azaltılır. Ağırlıkların değişimi Wn = W0 - λX ile hesaplanır. Burada λ öğrenme katsayısıdır. b) Beklenen çıkışın 1 olması ve ağın gerçek çıkışının 0 olması durumudur. Yani net giriş eşik değerine eşittir ya da eşik değerinden küçüktür. Bu durumda ağırlıkların değerlerinin arttırılması gerekmektedir. Yeni ağırlık değerleri Wn = W0 + λX ile hesaplanır.

TEK KATMANLI ALGILAYICI (TKA) ÖĞRENME KURALI-4 Adım 4: Önceki adımlar giriş setindeki (kümesindeki) bütün örnekler için doğru sınıflandırmalar yapılıncaya kadar tekrarlanır.

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-1 X : Ağa uygulanan örnekler H : Hedef (Beklenen) çıkışlar Ç : Gerçekleşen çıkışlar (Ağın çıkışı) 1. örnek : X1 = (x1, x2) = (1,0) ; H1 = 1 2. örnek : X2 = (x1, x2) = (0,1) ; H2 = 0 Ağırlıklar: W = (w1, w2) = (1,2) Eşik Değeri: θ = -1 Öğrenme Katsayısı: λ = 0.5

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-2 1. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + 2*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 2. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + 2*1 = 2 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = 2- 0.5*1 = 1.5

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-3 3. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + 1.5*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 4. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + 1.5*1 = 1.5 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = 1.5- 0.5*1 = 1

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-4 5. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + 1*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 6. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + 1*1 = 1 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = 1- 0.5*1 = 0.5

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-5 7. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + 0.5*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 8. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + 0.5*1 = 0.5 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = 0.5- 0.5*1 = 0

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-6 9. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + 0*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 10. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + 0*1 = 0 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = 0- 0.5*1 = -0.5

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-7 11. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + (-0.5)*0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 12. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + (-0.5)* 1 = -0.5 NET > θ olduğu için Ç2 = 1 olur. Ç2 >H2 olduğundan ağırlıklar Wn=W0-λX ile değiştirilir. w1 = w1-λx1 = 1- 0.5*0 = 1 w2 = w2-λx2 = (-0.5)- 0.5*1 = -1

TEK KATMANLI ALGILAYICI (TKA) İÇİN ÖRNEK PROBLEM-8 13. Eğitme Adımı (İterasyon) : 1. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*1 + (-1)* 0 = 1 NET > θ olduğu için Ç1 = 1 olur. Ç1 = H1 olduğundan ağırlıklar değiştirilmez. 14. Eğitme Adımı (İterasyon) : 2. örnek ağa uygulanır. NET = w1*x1 + w2*x2 = 1*0 + (-1)*1 = -1 NET = θ olduğu için Ç2 = 0 olur. Ç2 = H2 olduğundan ağırlıklar değiştirilmez. Ağırlıkların son durumu : W = (w1, w2) = (1,-1)

BAYES SINIFLAYICI İstatistiksel bir sınıflandırıcıdır. Sınıf üyelik olasılıklarını öngörür. İstatistikteki Bayes Teoremine dayanır. Basit bir yöntemdir.

BASİT BAYES SINIFLANDIRMA YÖNTEMİ Giriş : Öğrenme seti C1, C2, …, Cm adlı m sınıfımız olsun . Sınıflandırma maksimum posteriori olasılığını bulmaya dayanır. P(X) is bütün sınıflar için sabittir. olasılığının maksimum değeri bulunmalıdır. Yeni bir örnek X, maximum P(X|Ci)*P(Ci) değerine sahip olan sınıfa atanır.

P(xi|C) DEĞERLERİNİN BULUNMASI Özellik 1 P(1|A) = 3/5 P(1|B) = 2/9 P(2|A) = 0 P(2|B) = 4/9 P(3|A) = 2/5 P(3|B) = 3/9 Özellik 2 P(1|A) = 2/5 P(2|A) = 2/5 P(3|A) = 1/5 Özellik 3 P(1|A) = 4/5 P(1|B) = 3/9 P(2|A) = 1/5 P(2|B) = 6/9 Özellik 4 P(1|B) = 6/9 P(2|A) = 3/5 P(2|B) = 3/9 P(A) = 5/14 P(B) = 9/14

YENİ X ÖRNEĞİNİN SINIFLANDIRILMASI Yeni örnek X = <özellik1, özellik2, özellik3, özellik4>=<3, 1, 1, 1> P(X|A)·P(A) = P(3|A)·P(1|A)·P(1|A)·P(1|A)·P(A) = 2/5·2/5·4/5·2/5·5/14 = 0.018286 P(X|B)·P(B) = P(3|B)·P(1|B)·P(1|B)·P(1|B)·P(B) = 3/9·2/9·3/9·6/9·9/14 = 0.010582 Örnek X’in sınıfı A olarak öngörülür.

TEŞEKKÜRLER ... Yrd.Doç.Dr. LALE ÖZYILMAZ YILDIZ TEKNİK ÜNİVERSİTESİ ELEKTRONİK ve HABERLEŞME MÜHENDİSLİĞİ BÖLÜMÜ www.yildiz.edu.tr/~ozyilmaz ozyilmaz@yildiz.edu.tr