Sunuyu indir
Sunum yükleniyor. Lütfen bekleyiniz
1
Yapay Sinir Ağları (Artificial Neural Networks)
2
Yapay Sinir Ağları Nedir?
Yapay Sinir Ağları lineer olmayan ilişkiler modelleme metodudur Bir kuralı veya algoritması olmayan problemlerin çözümünde kullanılan sistemlerdir. Yapay Sinir Ağları proses elemanları ve bağlantılardan oluşur. Verilen girdi setine karşılık çıktı seti verir. En temel görevi: Öğrenme yolu ile ilk kez karşılaşılan problemler karşısında yeni bilgiler türetmektir.
3
Yapay Sinir Ağları Nedir?
Yapay Sinir Ağları başından itibaren lineer olmayan modeller oluşturur. Genel durumda, lineer olmayan modellerin parametrelerini bulmak son derecede zordur, ama YSA’lar için verimli algoritmalar geliştirilmiştir. YSA bugünkü en güçlü ve en esnek makine öğrenme yaklaşımıdır.
4
Yapay Sinir Ağları Nedir?
Yapay sinir ağları, insan beyninin özelliklerinden olan öğrenme yolu ile yeni bilgiler türetebilme, yeni bilgiler oluşturabilme ve keşfedebilme gibi yetenekleri herhangi bir yardım almadan otomatik olarak gerçekleştirmek amacı ile geliştirilmişlerdir.
5
YSA’nın Temel İşlevleri
Öngörü (Prediction) veya tahminleme : İleriki satışlar, hava tahminleri, at yarışları, çevresel risk, … Sınıflandırma (Classification) : Müşteri profilleri, tıbbi teşhis, ses ve şekil tanıma, …
6
YSA Özellikleri Doğrusal olmama, Öğrenme, Genelleme, Uyarlanabilirlik,
Hata toleransı, Donanım ve hız, Analiz ve tasarım kolaylığı
7
YSA Uygulama Alanları Endüstriyel uygulamalar Finans uygulamaları
Askeri ve Savunma uygulamaları Tıp ve Sağlık uygulamaları Mühendislik uygulamaları Robotbilim Görüntü İşleme
8
YSA’nın uygulamaları konuşma tanıma karakter tanıma yapay görme robot navigasyonu otomatik sürme vb.
9
Yapay Sinir Ağları YSA’nin tarihi 1960 yıllarda başladı.
YSA başlangıcı beyin bilimindeki gelişmelere bağlıydı.
10
Yapay Sinir Ağları Beyin, bizim bilişsel işlevlerimiz için temel araçtır (biliş, düşünme, soyut düşünme, duygu) Beyin, özel biyolojik “nöron” hücrelerinden oluşmuştur. Beyindeki nöronlar yüksek derecede birbirlerine bağlıdır. Temel elektriksel seviyede, nöronlar lineer toplama cihazlarıdır.
11
Biyolojik Sinir Hücresi (NÖRON)
Sinir Hücreleri, sinir sisteminin temel işlem elemanıdır. Birbiriyle bağlantılı iki nöronun axon, dentrite, synapse ve soma olma üzere dört önemli bölümü bulunmaktadır. Dendritler Hücre Gövdesi (Soma) Axonlar Synapse
12
Biyolojik Sinir Hücresi (NÖRON)
Biyolojik nöronlarda birçok giriş (“dendrite” denir) ve bir çıkış (“akson” denir) var. Nöronlar, dendriteler yoluyla diğer nörondan elektriksel sinyalleri alıp içinde lineer şekilde toplar. Toplam sinyaline göre, aksonda çıkış olarak ikili elektriksel sinyal oluşturulabilir. Bu sinyal diğer nöronlara girdi olarak uygulanıp orada ikinci sinyali oluşturabilir.
13
Biyolojik Sinir Hücresi (NÖRON)
Dentrites : Nöronun ağaç köküne benzeyen, görevi hücreye girdilerin sağlanması olan uzantılardır.
14
Biyolojik Sinir Hücresi (NÖRON)
Hücre Gövdesi (Soma) : Bir nöronun gövdesine soma adı verilir. Soma nucleus adı verilen hücre çekirdeğini içermektedir. Hücrenin yaşamasını sağlayan işlevleri görür. Synapslar aracılığıyla dentriteslere geçirilen iletiler birleşerek axon üzerinde elektriksel bir çıktı oluştururlar. Bu çıktının olup olmayacağı veya çıktının elektriksel olarak yoğunluğu, synapsların etkileri sonucu hücreye gelen tüm girdilerin, toplam değeri tarafından belirlenmektedir. Somaya gelen girdilerin ağırlıklı toplamı axon üzerinde çıktı oluşturacak değere ulaştığında, bu değere "eşik değer" adı verilmektedir ve nöron ateşlendi (fired) olarak ifade edilmektedir. Bu şekilde girdiler nöron tarafından değerlendirilerek çıktıya dönüştürülmüş olur.
15
Biyolojik Sinir Hücresi (NÖRON)
Axon: Hücre çıktısını göndermeye yarayan uzantısıdır. Bir hücrenin tek bir axon uzantısı bulunur. Ancak bu axon uzantıdan çıkan çok sayıda uzantı ve bunların ucunda synapstik bağlantılar bulunur.
16
Biyolojik Sinir Hücresi (NÖRON)
Synapse: Synapslar, sinir hücrelerindeki axonlarının, diğer sinir hücreleri ve/veya onların dentriteleri üzerinde sonlanan özellemiş bağlantı noktalarıdır. Bu bağlantı noktalarının görevi axondaki elektriksel iletinin diğer hücrelere aktarılmasıdır. Bu bağlantı noktalarında iletiler elektro- kimyasal süreçlerle diğer hücrelere geçirilir. Synapslar bağlandıkları dentrite veya nöronda bölgesel olarak elektrik kuvvetini pozitif veya negatif yönde etkileyebilme yeteneğine sahiptirler. Böylelikle bir nöronun diğerini etkileyebilmesi söz konusu olmaktadır. İnsan beyninde yaklaşık 10 milyar sinir hücresi ve 60 trilyon synapse bulunmaktadır.
17
Bir sinir hücresinin çalışma şekli
Sinir hücresi, diğer sinir hücrelerinden gelen uyarıları (elektriksel sinyaller) snapsları üzerinden dentritlerine alır. Bu sırada gelen sinyaller snapslar tarafından güçlendirilir ya da zayıflatılır. Dentritler sinyalleri hücre gövdesine iletirler. Hücre gövdesi gelen sinyalleri birbirlerini kuvvetlendirme ve zayıflatma etkilerine göre işler. Eğer sonuçta sinyaller birbirlerini yeteri kadar kuvvetlendirerek bir eşik değerini aşabilirlerse, aksona sinyal gönderilir ve sinir aktif hale getirilir. Aksi halde, aksona sinyal gönderilmez ve sinir pasif durumda kalır.
18
Yapay Sinir Hücresi(Nöron)
YSA temel elemanı–nöron: x1 x2 x3 x0
19
Yapay Sinir Hücresi(Nöron)
f X1 X2 Xn net net = w1X1 + w2X w3X3 +… + wnXn y = f(net) w1 w2 . wn Dendrites Hücre Gövdesi Axon Bilgi akışının yönü
20
Yapay Sinir Hücresi(Nöron)
Özel olan sabit ek giriş genellikle tanımlanır – “bias-eşik” denir YSA temel elemanı: x1 x2 x3 x0 x0 her zaman 1 verir
21
Yapay Sinir Hücresi
22
Yapay Sinir Hücrelerinin Temel Elemanları
Girdiler Ağırlıklar Toplama fonksiyonu Aktivasyon fonksiyonu Çıktılar
23
Yapay Sinir Hücrelerinin Temel Elemanları
Girdiler : Yapay sinir ağlarına dışarıdan verilen bilgilerdir. Ağırlıklar : Yapay sinir hücreleri (nöron) arasındaki bağlantıların sayısal değeridir. Bir nöron’un üzerine gelen bilginin değerini ve hücre üzerindeki etkisini gösterir. x = [ x1 x2 x3 … xn]t w = [ w1 w2 w3 … wn ]t
24
Yapay Sinir Hücrelerinin Temel Elemanları
Toplama fonksiyonu (net): Nörona gelen net girdinin hesaplanmasını sağlayan fonksiyondur. En yaygın kullanım şekli her girdi değerinin kendi ağırlığıyla çarpılarak toplanmasıdır. Net = [(w1.x1)+(w2.x2)+…(.wn.xn)+(w .)] Aktivasyon fonksiyonu (f(net)) : Bu fonksiyon hücreye gelen net girdinin işlenmesiyle hücrenin bu girdiye karşılık üretileceği çıktıyı belirlemesini sağlar. En yaygın olarak sigmoid fonksiyonu kullanılmaktadır. Çıkış = y = f(net) = [(w1.x1)+(w2.x2)+…(.wn.xn)+(w .)]
25
YSA’nın Yapısı Sinir hücreleri bir grup halinde işlev gördüklerinde ağ (network) olarak adlandırılırlar ve böyle bir grupta binlerce nöron bulunur. Yapay nöronların birbirleriyle bağlantılar aracılığıyla bir araya gelmeleri yapay sinir ağını oluşturmaktadır. Yapay sinir ağıyla aslında biyolojik sinir ağının bir modeli oluşturulmak istenmektedir.
26
YSA’nın Yapısı Nöronların aynı doğrultu üzerinde bir araya gelmeleriyle katmanlar oluşmaktadır. Katmanların değişik şekilde bir birleriyle bağlanmaları değişik ağ mimarilerini doğurur. YSA’lar üç katmadan oluşur. Bu katmanlar sırasıyla; Girdi katmanı Ara Katman Çıktı Katmanıdır.
27
YSA’nın Genel Yapısı
28
YSA’nın Yapısı Girdi Katmanı
Bu katmandaki proses elemanları dış dünyadan bilgileri alarak ara katmanlara transfer ederler. Bazı ağlarda girdi katmanında herhangi bir bilgi işleme olmaz. Ara Katman (Gizli Katman) Girdi katmanından gelen bilgiler işlenerek çıktı katmanına gönderilirler. Bu bilgilerin işlenmesi ara katmanlarda gerçekleştirilir. Bir ağ içinde birden fazla ara katman olabilir. Çıktı Katmanı Bu katmandaki proses elemanları ara katmandan gelen bilgileri işleyerek ağın girdi katmanından sunulan girdi seti için üretmesi gereken çıktıyı üretirler. Üretilen çıktı dış dünyaya gönderilir.
29
YSA’ların Yapılarına Göre Sınıflandırılması
Yapay sinir ağları, yapılarına göre, ileri beslemeli (feedforward) ve geri beslemeli (feedback) ağlar olmak üzere iki şekilde sınıflandırılırlar.
30
YSA’ların Yapılarına Göre Sınıflandırılması
İleri Beslemeli Ağlar : İleri beslemeli bir ağda işlemci elemanlar genellikle katmanlara ayrılmışlardır. İşaretler, giriş katmanından çıkış katmanına doğru tek yönlü bağlantılarla iletilir. İşlemci elemanlar bir katmandan diğer bir katmana bağlantı kurarlarken, aynı katman içerisinde bağlantıları bulunmaz. İleri beslemeli ağlara örnek olarak çok katmanlı perseptron (Multi Layer Perseptron-MLP) ve LVQ (Learning Vector Quantization) ağları verilebilir.
31
YSA’ların Yapılarına Göre Sınıflandırılması
İleri Beslemeli Ağlar(Feedforward neural nets) : Çok katmanlı ileri beslemeli ağ modeli Tek katmanlı ileri beslemeli ağ modeli
32
YSA’ların Yapılarına Göre Sınıflandırılması
Geri Beslemeli Ağlar Bir geri beslemeli sinir ağı, çıkış ve ara katlardaki çıkışların, giriş birimlerine veya önceki ara katmanlara geri beslendiği bir ağ yapısıdır. Böylece, girişler hem ileri yönde hem de geri yönde aktarılmış olur. Bu çeşit sinir ağlarının dinamik hafızaları vardır ve bir andaki çıkış hem o andaki hem de önceki girişleri yansıtır. Bundan dolayı, özellikle önceden tahmin uygulamaları için uygundurlar. Geri beslemeli ağlar çeşitli tipteki zaman-serilerinin tahmininde oldukça başarı sağlamışlardır. Bu ağlara örnek olarak Hopfield, SOM (Self Organizing Map), Elman ve Jordan aları verilebilir.
33
Öğrenme Stratejileri Eğiticili (Supervised) Öğrenme: MLP, RBF..
Bu tip öğrenmede, YSA’ya örnek olarak bir doğru çıkış verilir. Bu öğrenmede ağın ürettiği çıktılar ile hedef çıktılar arasındaki fark hata olarak ele alınır ve bu hata minimize edilmeye çalışılır. Bunun için de balantıların ağırlıkları en uygun çıkışı verecek şekilde değiştirilir. Bu sebeple öğretmenli(danışmanlı) öğrenme algoritmasının bir “öğretmene” veya “danışmana” ihtiyacı vardır. Widrow-Hoff tarafından geliştirilen delta kuralı ve Rumelhart ve McClelland tarafından geliştirilen genelletirilmiş delta kuralı veya geri besleme (back propagation) algoritması danışmanlı öğrenme algoritmalarına örnek olarak verilebilir.
34
Öğrenme Stratejileri Eğiticisiz (Unsupervised) Öğrenme: Örn:ART, Kohonen(SOM) Bu tür öğrenmede ağa sadece girdiler verilir. Ağın ulaşması gereken hedef çıktılar verilmez. Girişe verilen örnekten elde edilen çıkış bilgisine göre ağ sınıflandırma kurallarını kendi kendine geliştirir. Ağ daha sonra bağlantı ağırlıklarını aynı özellikleri gösteren desenler(patterns) oluşturmak üzere ayarlar. Grossberg tarafından geliştirilen ART (Adaptive Resonance Theory) veya Kohonen tarafından geliştirilen SOM (Self Organizing Map) öğrenme kuralı danışmansız öğrenmeye örnek olarak verilebilir.
35
Öğrenme Stratejileri Destekleyici-Takviyeli (Reinforcement) Öğrenme: Örn:LVQ Takviyeli öğrenme algoritması, istenilen çıkışın bilinmesine gerek duymaz. Takviyeli öğrenme (reinforcement training) yöntemi öğreticili öğrenme yöntemine benzemekle birlikte, ağa hedef çıktılar yerine, ağın çıktılarının ne ölçüde doğru olduğunu belirten bir skor veya derece bildirilir. Optimizasyon problemlerini çözmek için Hinton ve Sejnowski’nin geliştirdiği Boltzmann kuralı veya GA takviyeli öğrenmeye örnek olarak verilebilirler.
36
Uygulamaya Göre Öğrenme Algoritmaları
Çevrim Dışı (Offline) Öğrenme Bu kurala dayalı sistemler, kullanıma alınmadan önce örnekler üzerinde eğitilirler. Bu kuralı kullanan sistemler eğitildikten sonra gerçek hayatta kullanıma alındığında artık öğrenme olmamaktadır. Delta öğrenme kuralı bu tür öğrenmeye örnek olarak verilebilir.
37
Uygulamaya Göre Öğrenme Algoritmaları
Çevrim içi (On-line) Öğrenme Bu kurala göre öğrenen sistemler, gerçek zamanda çalışırken bir taraftan fonksiyonlarını yerine getirmekte, bir taraftan da öğrenmeye devam etmektedirler. ART ve Kohonen öğrenme kuralı bu sınıfta bulunan öğrenme bu öğrenme kuralına örnek olarak verilebilir.
38
Basit Algılayıcı Modeli (Perceptron)
output input S W1 W2 Wn x1 y=f(net)=Çıkış Aktivasyon Fonksiyonu Bias x2 xn Girişler Ağırlıklar net
39
Aktivasyon Fonksiyonları
Hücre modellerinde, hücrenin gerçekleştireceği işleve göre çeşitli tipte aktivasyon fonksiyonları kullanılabilir. Aktivasyon fonksiyonları sabit parametreli yada uyarlanabilir parametreli seçilebilir. STEP TLU RAMP UNIPOLAR SIGMOID BIPOLAR
40
Doğrusal Aktivasyon Fonksiyonları
f(net) 1 net f(net) = 1 eğer net > = 0 eğer net < -1 f(net) = eğer net > = eğer net < Step Fonksiyonlar Unipolar step Bipolar step
41
Doğrusal Olmayan Aktivasyon Fonksiyonları
1 net f(net) f(net) = 1 + exp (-l.net) Sigmoid 2 f(net) = -1 l diklik veya eğim katsayısıdır. Genelde 1 alınır. Tanjant Hiperbolik Sigmoid
42
Aktivasyon Fonksiyonları LİSTE
43
Doğrusal ayrılabilir 2 1 50 Boy (m) Ağırlık (Kg) Hafif Ağır 120
44
Doğrusal Ayrılamaz XOR lojik fonksiyonu doğrusal ayrılamaz. o x x1 x2
Benzer bir sunumlar
© 2024 SlidePlayer.biz.tr Inc.
All rights reserved.