Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA)

Benzer bir sunumlar


... konulu sunumlar: "ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA)"— Sunum transkripti:

1 ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA)
BİRKAN BÜYÜKARIKAN

2 İÇERİK YAPAY SİNİR AĞLARI YAPAY SİNİR AĞI TÜRLERİ
MULTILAYER NETWORKS AND THE BACKPROPAGATION ALGORITHM BPN ÖRNEK YSA OLUŞTURULMASI YSA GÜÇLÜ VE ZAYIF YÖNLERİ

3 Yapay Sinir Ağları İnsan beyninin sinir ağlarını taklit eden, bilgisayar programlarıdır. Yapay sinir ağları bir anlamda paralel bilgi işleme sistemi olarak düşünülebilir. Öğrenme sürecinin matematiksel olarak modellenmesi temeline dayanmaktadır. YSA çalışmaları ilk olarak beynin biyolojik üniteleri olan nöronların modellenmesi ile başlamıştır. Yapay sinir ağlarına bu bilgiler ilgili olaya ait örnekler üzerinde eğitilerek verilir.

4 Yapay Sinir Ağları Düğümlerin bir kümesidir
Her bir düğümün giriş ve çıkışı vardır Her bir düğüm onun düğüm fonksiyonu tarafından basit bir hesaplama yerine getirir Düğümler arasında ağırlık yüklenmiş bağlantılar (Weighted connections) vardır. Bağlantı şekli (connectivity) ağın mimarisini/yapısını verir DÜĞÜM VEYA SİNİR İŞLEM ELEMANLARININ BİR ARAYA GELMESİ İLE OLUŞUR

5 Biyolojik sinir hücresi (nöron)
Her bir neuron bir gövde (body), bir akson (axon) ve çok sayıda sinir uçlarına (dendrites) sahiptir. Synapse: bir nöronun aksonu ile diğerinin sinir ucu arasındaki ince aralıktır. Dendrite Cell Body Axon Sinapslar Bağlantı Ağırlıkları Aksonlar Çıktılar Dendritler Girdiler Hücre Gövdesi Birleştirme Fonksiyonu

6 YSA Örnekleri Sınıflandırma, tahmin ve modelleme

7 Yapay Sinir Ağı Türleri
Single Layer Perceptron Multilayer Perceptrons (MLPs) Radial-Basis Function Networks (RBFs) Hopfield Network Boltzmann Machine Self-Organization Map (SOM) Hamming Ağı

8 1-Perceptronlar 1960’larda Rosentblatt tarafından sinir ağı olarak önerilmiştir. Perceptronlar sıradan makinelerin çözemedeği problemleri çözebilen «yeni tür bir bilgisayar» Perceptronlar, son derece sınırlı olmalarına karşın en eski sinir ağlarından biridir. Perceptron, bir sinir hücresinin birden fazla girdiyi alarak bir çıktı üretmesi prensibine dayanır.

9 1-Perceptronlar Basit bir perceptron yapısı
Perceptron, girişlerin ağırlıklı toplamı, eşik değeri ile karşılaştırılır. 𝑦 𝑖 = 1 𝑒ğ𝑒𝑟 𝑖=1 𝑛 𝑤 𝑖 𝑥 𝑖 ≥𝜃 0 𝑒ğ𝑒𝑟 𝑖=1 𝑛 𝑤 𝑖 𝑥 𝑖 <𝜃

10 1-Perceptronlar

11 XOR Problemi Perceptronlar XOR problemi gibi doğrusal olarak sınıflandırılamayan problemleri çözümünde başarısızdır. --1.5 0- - 0,5 1 1,5 2 ) a b y 1 Fakat XOR gibi bazı mantıksal fonksiyonlarda bu mümkün değildir. Nedeni ise, XOR probleminin doğrusal ayrılamayan bir problem olmasıdır. doğrusal olmayan problemleri çözemediğini meĢhur XOR problemi ile ispatlaması; çalıĢmaların verimsiz olduğunu söylemesi, araĢtırmacıları uzun yıllar maddi kaynak bulmakta zorlanmıĢ ve bu konudaki çalıĢmaları durma noktasına getirmiĢtir.

12 XOR Problemi XOR problemini çözmek için yapılan çalışmalar sonucu çok katmanlı algılayıcı modeli geliştirilmiştir. Rumelhart ve arkadaşları tarafından geliştirilen bu hata yayma modeli veya geriye yayılım modeli (back propogation) denilmektedir. Bunu özellikle sınıflandırma, tanıma ve genelleme yapmayı gerektiren problemler için çok önemli bir çözüm aracıdır. Bu model “Delta Öğrenme Kuralı” denilen bir öğrenme yöntemini kullanmaktadır.  sinir hücrelerini bağlayan sinapsisler üzerindeki ağırlık değerinin değişim miktarı delta kuralına göre hesaplanmıştır. Veriler doğrusal ayrılabilir değil ise basit algılayıcı eğitim kuralı yakınsayamaz. delta kuralı en iyi yaklaşmaya doğru yakınsar. Delta kuralı, “En Küçük Kareler (Least Mean Squares - LMS)” veya “Widrow-Hoff öğrenme kuralı“ olarak da bilinir

13 Delta Kuralı öğrenme kuralı en küçük kareler (LMS - Least Mean Square) kuralı olarak da adlandırılmaktadır. Buna göre, YSA’nın beklenen çıktısı ile mevcut çıktısı arasındaki farkın karesi, bağlantı ağırlıkları değiştirilerek minimize edilmeye çalışılır. Hata miktarını en aza indirmek için gerçek çıktılarla istenilen çıktılar karşılaştırılır. Tüm ağdaki hata değeri; E= ( 𝑣 𝑖 − 𝑧 𝑖 ) 2 𝑣 𝑖 𝑖𝑠𝑡𝑒𝑛𝑒𝑛 ç𝚤𝑘𝑡𝚤 𝑧 𝑖 gerçek çıktı

14 2-Multilayer Perceptrons (MLPs)
Çok katmanlı algılayıcı bazı zor ve farklı problemleri başarılı bir şekilde çözmek için uygulanır. Hatanın geriye yayılma mantığı Bir çok katmanlı ağ üç önemli özelliğe sahiptir: Ağdaki her nöron modeli çıkışta non-lineerlik içerir. Ağ, çıkış ya da girişe ait olmayan bir ya da daha fazla saklı nörona sahiptir. Bu saklı nöronlar ağın karmaşık işleri öğrenmesini sağlar. (3) Ağda, her nöron birbiriyle bağlıdır. Geriye yayılım algoritmasının gelişimi, nöron ağlarında bir dönüm noktasıdır.

15 3-Radyal Temelli Fonksiyon Ağları (Radial-Basis Function Networks)
output neurons RBF, çok boyutlu uzayda eğri uydurma problemini ortaya koyan farklı bir yaklaşımdır. RBF ağı, üç katmanı; Giriş katmanı, kaynak düğümlerinden oluşmaktadır. İkinci katman, çok katmanlı ağa göre farklı bir yapıdadır. Çıkış katmanı ise, giriş katmanına uygulanan aktivasyon paternlerinin cevabını verir. output of network: propagation function: Bu açıdan, öğrenme, istatistiksel olarak birden fazla boyutlu uzayda eğitme verisine en uygun yüzeyi bulmaya eşdeğerdir. input nodes

16 4-Hopfield Ağı (Hopfield Network)
Bu ağda ikili değerler kullanılır. Bu özgün ağ her bir elemanı işleyerek bir ikili sayı birimi oluşturur. Bu elemanlar girişlerin toplamı ve çıkış sayıları sıfır veya bir olarak hesaplanarak yüklenir. Hücreler açık (+1) ya da kapalı (-1) olarak ikili mantığa göre çalışır. nöronların birbirleriyle etkileşimi temeline dayanan yeni bir sinir ağı ortaya koydu

17 5-Boltzmann Makinesi (Boltzmann Machine)
Olasılıksal katılımlıdır ve geri besleme bağlantıları Hopfield ağına benzemektedir. Hopfield ağlarına ek olarak özgün modelleme tekniğinde benzer işlev ve işlevleri kullanılır.

18 6-Kendi Kendine Organize Olan Özellik Haritaları (Self-Organization Map (SOM))
Kohonen SOM ağları olarak da bilinir. SOM ağları, klasik istatistikteki K-Ortalama ile çok boyutlu ölçekleme yöntemlerinin her ikisinin de işlevlerini yerine getirebilir. Yani, veri setindeki elemanları hem kümelendirir hem de haritalandırır. Bu sebeple, bu ağlar son yıllarda oldukça popüler olmuştur. 1982

19 6-Kendi Kendine Organize Olan Özellik Haritaları (Self-Organization Map (SOM))
Tek katmanlı bir ağ olup giriş ve çıkış nöronlarından oluşur. Giriş nöronlarının sayısını veri setindeki değişken sayısı belirler. Çıkış nöronlarının her biri bir kümeyi temsil eder. Diğer yapay sinir ağlarından farklı olarak, çıkış katmanındaki nöronların dizilimi çok önemlidir. Bu dizilim doğrusal, dikdörtgensel, altıgen veya küp şeklinde olabilir. Ağ eğitilirken bağımlı değişken kullanılmaz.

20 7- Hamming Ağı Hamming ağı, Hopfield ağının bir genişletilmesidir.
Hamming ağı, giriş vektörleri için en az ikili sayı hatasının temel sınıflandırılmasını yerine getirmektedir, burada Hamming tarafından hata aralığı tanımlanmaktadır. Hamming ağı bir giriş katmanı ile birçok düğümler kullanır. Bunların ayrı binary özellikleri vardır.

21 MULTILAYER NETWORKS AND THE BACKPROPAGATION ALGORITHM
Ara Katman Girdi Katmanı Çıktı Katmanı G1 Ç1 G2 Ç2 G3 Ç3 Eşik Değeri Eşik Değeri

22 MULTILAYER NETWORKS Girdi Katmanı: Dış dünyadan gelen girdileri alarak ara katmana gönderir. Bu katmanda bilgi işleme olmaz. Gelen her bilgi geldiği gibi bir sonraki katmana gider. Ara Katmanı: Ara katmanlar girdi katmanından gelen bilgileri işleyerek bir sonraki katmana gönderir. Çıkış Katmanı: Ara katmandan gelen bilgileri işleyerek ağa girdi katmanından verilen girdilere karşılık ağın ürettiği çıkışları belirleyerek dış dünyaya gönderir. Çok katmanlı ağın öğrenme kuralı en küçük kareler yöntemine dayalı “Delta Öğrenme Kuralı”nın genelleştirilmiş halidir. Bu yüzden “Genelleştirilmiş Delta Kuralı” olarak da isimlendirilmektedir. “Genelleştirilmiş Delta Kuralı” iki aşamadan oluşur: • İleri doğru hesaplama(Feed Forward) • Geri doğru hesaplama (Back Propogation)

23 YAPAY SİNİR AĞININ TEMEL BİLEŞENLERİ
Mimari Yapı Öğrenme Algoritması Aktivasyon Fonksiyonu

24 1-Mimari Yapısı *Bir geri beslemeli sinir ağı, çıkış ve ara katlardaki çıkışların, giriş birimlerine veya önceki ara katmanlara geri beslendiği bir ağ yapısıdır. *Girişler hem ileri yönde hem de geri yönde aktarılmış olur. Geri Beslemeli YSA Modeli İleri Beslemeli YSA Modeli *Tek yönlü bilgi akışı söz konusudur. *Bu ağ modelinde Girdi tabakasından alınan bilgiler Gizli katmana iletilir. *Gizli ve Çıktı tabakalarından bilginin işlenmesi ile çıkış değeri belirlenir.

25 2-Öğrenme Algoritması Öğrenme en önemli YSA en önemli özelliği
Tüm ağdaki ağırlıklar optimal değerler almalıdır. Bu ağırlıklara ulaşılabilmesi için yapılan isleme “ağın eğitilmesi” denir. Kısaca ifade edecek olursak; “Öğrenme işlemi, ağırlıkların en iyi değerinin bulunması” olarak tanımlayabiliriz. Yapay sinir ağlarında bilgi, ağdaki sinirlerin bağlantılarının ağırlıklarında tutulur. Bu nedenle ağırlıkların nasıl belirleneceği önemlidir. Bilgi tüm ağda saklandığı için bir düğümün sahip olduğu ağırlık değeri tek başına bir şey ifade etmez.

26 3-Aktivasyon Fonksiyonu
Aktivasyon fonksiyonu girdi ve çıktı birimleri (katmanları) arasındaki eğrisel eşleşmeyi sağlar. Aktivasyon fonksiyonunun doğru seçilmesi ağın performansın önemli derecede etkiler. Threshold Step Yani yapay nöron çıktısının büyüklüğünü sınırlandıran fonksiyondur. B Sigmoid Gaussian

27 Aktivasyon Fonksiyon Toplama işleminin sonucu etkinlik işlevinden geçirilir. Amaç: zaman söz konusu olduğunda toplama işlevinin çıkışının değişmesine izin vermektir. Davranışını belirleyen önemli faktörlerden birisi, kullanılan etkinlik fonksiyonlarıdır.

28 Backpropagation Algoritması

29 Backpropagation Algoritması
Hesaplama karmaşıklığı ağdaki ağırlık sayısına göre doğrusal olarak değiştiği için hesaplama yönünden etkindir. BP, ağın çıkış değerleri ile hedef çıktı değerleri arasındaki karesel hatayı en aza indirgemek İki aşamalı öğrenme ileri adım: girdi verileri ile çıktı hesaplanır geri adım: delta hesaplanarak ağ güncellenir Çok katmanlı ağlarda ağırlıkları öğrenmek için kullanılır. Geri yayılım öğrenme yöntemi, türev alınabilir etkinlik işlevini çok katmanlı herhangi bir ağa uygulanabilir. Delta kuralı gibi, bu da sistem hatasını veya maliyet işlevini azaltma esasına dayanan bir en iyileme işlemidir.

30 Backpropagation Algoritması Notasyonlar
Giriş örüntüsü: Çıkış örüntüsü: Beklenen çıktı: Hata: xp uygulandığı zaman çıktı j için hataların kareleri toplamı

31 Backpropagation Algoritması
hatanın minimize edilmesi demek, hatanın türevinin 0 olması anlamına gelmektedir.

32 Backpropagation Algoritması
Yerel minimuma yakalanma olasılığı yüzünden YSA eğitiminde momentum katsayısı kullanılır. Bunun için eğim azaltma yönteminin önceki adımlardaki değişim değerlerinin belirli oranda ( ) katkısını sağlayan momentum etkisi kullanılır.

33 Backpropagation Algoritması
Beklenen değer alınan çıktıya eşit değilse, geriye doğru hesaplama yapılarak ağırlık değerleri değiştirilir. En küçük karelerle yapılmıĢ hata fonksiyonun yerine mutlak hatalar toplam fonksiyonu da kullanılabilir. Mutlak hataların toplam fonksiyonunun amaç fonksiyonu olarak kullanılması, optimum sonucu değiĢtirmemekle birlikte, amaç fonksiyonunun doğrusal bir forma dönüĢtürülmesi bakımından bir avantaj olarak görülebilir Momentum etkisi yok Momentum etkisi var

34 Backpropagation Algoritması Türetilemesi

35 Backpropagation Algoritması Türetilemesi
Error measure: Gradient descent: Chain rule:

36 Case 1: Rule for Output Unit Weights
Step 1: Step 2: Step 3: All together:

37 Case 2: Rule for Hidden Unit Weights
Step 1: Thus:

38 Eğitimin Durdurulması
Hatanın belli bir değerin altına düşmesi sonucunda eğitim sonlandırılır ya da belirli sayıda iterasyondan sonra eğitim durdurulur. Örneğin başta belirlenen iterasyon sayısı yüksek ise ağ hatayı minimize etse dahi boşuna öğrenmeye çalışmaya devam eder. Ağın gereğinden fazla eğitilmesiyle, problemi öğrenmek yerine verileri ezberlemeye başlamasıdır.

39 Backpropagation Adımları

40 Backpropagation Adımları

41 Backpropagation Adımları-1

42 Backpropagation Adımları-1

43 Backpropagation Adımları-1

44 Backpropagation Adımları-2

45 Backpropagation Adımları-2

46 Backpropagation Adımları-3

47 Backpropagation Adımları-4

48 Backpropagation Adımları-5

49 Backpropagation Adımları-5

50 Backpropagation Adımları-6

51 Backpropagation Adımları-6

52 Backpropagation Adımları-6

53 Backpropagation Adımları-7

54 Backpropagation Adımları-7

55 Backpropagation Adımları-7

56 Backpropagation Adımları-8

57 Backpropagation Adımları-8

58 Backpropagation Adımları-9

59 ÖRNEK; W13=0.62 W14=0.42 W23=0.55 W24=-017 W35=0.35 W45=0.81 Learning rate=0.25 Giriş değeri U1 U2 Input layer W14 w13 W24 W23 U4 U3 hidden layer Toplam hata E= 𝐸0 2 + 𝐸1 2 w35 w45 Ei=vi-zi E0=vo-z0 U5 output layer Input Target 1 Çıkış değeri

60 ÖRNEK; hata E0=Q1-z1 =0 - 0.6439=-0.6439 U3= 𝑤 ∗𝑦 = 0*0.62 + 1*0.55
=0.55 Y3=1/(1+ 𝑒 −𝑢3 ) =0.6341 Giriş değeri U1 U2 Input layer U4= 𝑤 ∗𝑦 = 0* *(-0.17) =-0.17 W14 Y4=1/(1+ 𝑒 −𝑢4 ) =0.4576 w13 W24 W23 U4 U3 hidden layer U5= 𝑤 ∗𝑦 = * *0.81 =0.5926 Y5=1/(1+ 𝑒 −𝑢5 ) =0.6439 w35 w45 Ei=vi-zi E0=vo-z0 U5 output layer hata E0=Q1-z1 = = Çıkış değeri

61 AĞIRLIKLAR NASIL DEĞİŞECEK?

62 ÖRNEK; deltaw35=0.25* -0.6439* 0.6341* (1-0.6439)*0.6439 =-0.023
Giriş değeri deltaw45=0.25* * * ( )*0.6439 =-0.016 W45=0.81+(-0.016)=0.79 U1 U2 Input layer W14 w13 W24 deltaw13=0.25* * 0* ( )*0.6341=0 W13=0.62+(0)=0.62 W23 U4 U3 hidden layer deltaw14=0.25* * 0* (1-4576)*0.4576=0 W13=0.42+(0)=0.42 w35 w45 Ei=vi-zi E0=vo-z0 U5 deltaw23=0.25* * 1* ( )*0.6341=-0.037 W23=0.55+(-0.037)=0.51 output layer deltaw24=0.25* * 1* (1-4576)*0.4576=-0.039 W24=-0.17+(-0.039)=-0.20 Çıkış değeri

63 Yapay Sinir Ağlarının Oluşturulması

64 Yapay Sinir Ağlarının Oluşturulması
Ağ mimarisinin seçilmesi ve yapı özelliklerinin belirlenmesi (katman sayısı, katmandaki nöron sayısı gibi) Nörondaki fonksiyonların karakteristik özelliklerinin belirlenmesi, Öğrenme algoritmasının seçilmesi ve parametrelerinin belirlenmesi, Eğitim ve test verisinin oluşturulması Performans Fonksiyonun Seçimi Normalizasyon Nöron Sayısının Belirlenmesi Ara Katman Sayısını Belirleme Öğrenme Algoritmasının Seçimi Ağ Yapısının Seçimi

65 YSA’nın Seçimi YSA’ nın tasarımı sürecinde ağ yapısının seçilmesi, uygulama problemine bağlı olarak seçilmelidir. Hangi problem için hangi ağın daha uygun olduğunun bilinmesi önemlidir. Uygun YSA yapısının seçimi, büyük ölçüde ağda kullanılması düşünülen öğrenme algoritmasına da bağlıdır. Ağda kullanılacak öğrenme algoritması seçildiğinde, bu algoritmanın gerektirdiği mimaride zorunlu olarak seçilmiş olacaktır.

66 YSA’da Ara Katman Sayısını Belirleme
YSA’nın tasarımı sürecinde ağdaki katman sayısına karar vermek gerekmektedir. Genellikle 2 veya 3 katmanlı bir ağlar iyi sonuçlar vermektedirler Katmanların değişik şekilde bir birleriyle bağlanmaları değişik ağ yapılarını oluşturur. Girdi ve çıktı katmanlarının sayısı, problemin yapısına göre değişir. Katman sayısını belirlemenin en iyi yolu, birkaç deneme yaparak en uygun yapının ve yapının ne olduğuna karar vermektir.

67 Nöron Sayısının Belirlenmesi
Ağın yapısal özelliklerinden birisi her bir katmandaki nöron sayısıdır. Katmandaki nöron sayısının tespitinde de genellikle deneme- yanılma yöntemi kullanılır. Bunun için başlangıçtaki nöron sayısını istenilen performansa ulaşıncaya kadar arttırmak veya tersi şekilde istenen performansın altına inmeden azaltmaktır. Bir katmanda kullanılacak nöron sayısı olabildiğince az olmalıdır. Eğer ağın bir modelin ortalama davranışını öğrenmesi isteniyorsa sigmoid fonksiyon, eğer ortalamadan sapmanın öğrenilmesi isteniyorsa hiperbolik tanjant fonksiyon kullanılması önerilmektedir.

68 YSA GÜÇLÜ VE ZAYIF YÖNLERİ

69 Yapay Sinir Ağlarının Güçlü Yönleri
Öğrenme; Yapay sinir ağları, güçlü bir öğrenme yeteneğine sahiptir. Girdi örnekleri ve bunlara karşılık beklenen çıktılar verildiğinde, her bir eğitim girdisi için doğru çıktıyı oluşturacak şekilde, ağırlıkları değiştiren algoritmalar mevcuttur. Bu konuda geri yayılım (backpropagation) algoritması en yaygın olarak kullanılan algoritmadır

70 Yapay Sinir Ağlarının Güçlü Yönleri
Genelleme; Doğru bir eğitimin sonucunda ağ sadece eğitim gözlemlerini öğrenmekle kalmaz, aynı zamanda eğitim kümesinde yer almayan gözlemler verildiğinde doğru çıktıyı oluşturacak şekilde girdiler ile çıktılar arasındaki ilişkiyi öğrenir.

71 Yapay Sinir Ağlarının Güçlü Yönleri
Doğrusal Olmama; YSA “evrensel yaklaşma (universal approximating)” yeteneğini kullanarak problemleri çözmeyi amaçlar. Problem hakkında detaylı bilgi sahibi olunması veya problemin yapısının analiz edilmesi gibi gereksinimler ortadan kalkmaktadır

72 Yapay Sinir Ağlarının Güçlü Yönleri
Kendi Kendini Organize Etme; Bazı yapay sinir ağları (örneğin kendini düzenleyen haritalar ve yarışmacı öğrenme tabanlı ağlar) kendi kendini organize etme özelliğine sahiptirler. Bu ağların eğitimi denetimsiz öğrenme algoritmaları kullanılarak başarılır

73 Yapay Sinir Ağlarının Güçlü Yönleri
Paralel Çalışma; Paralel yapı, YSA’nın yüksek derecede paralel çalışan yazılım ve donanım uygulamalarının gerçekleştirilebilmesine izin verir. Paralel yapının bir diğer yararı da çok hızlı hesaplama yapabilmeyi sağlamasıdır. Bir birimin zamanındaki çıktısı, sadece t-1 zamanındaki girdilere bağlıdır. Aynı katmandaki birimler birbirlerinden bağımsız olduklarından, bu birimler üzerinde aynı anda işlem yapılabilmektedir.

74 Yapay Sinir Ağlarının Güçlü Yönleri
Sağlamlık ve Hata Toleransı; Bir YSA bulanık, eksik, gürültülü ve olasılığa dayalı veri ile işlem yapabilir. Bilginin ağ yapısında dağılmış bir şekilde bulunmasından dolayı, dağıtık bir bilgi işleme sistemidir. Her bir birimin çıktısı oluşturulurken birçok girdi, sisteminin nihai çıktısını oluşturmak için ise birçok birim kullanıldığından sistem küçük bozulmalara karşı çok hassas değildir.

75 Yapay Sinir Ağlarının Zayıf Yönleri
Öğrenme süresi çok uzun olabilmektedir. Aşırı öğrenmeye düşerek genelleme yapamayabilir. Öğrenme algoritmalarının seçimi için açık tanımlanmış kurallar yok. Verilerin miktarına ve kalitesine aşırı bağımlı olabilmektedir. Eğitim sırasında yerel minimuma takılma riski bulunmaktadır. Halen gelişmekte olduğundan henüz güvenilir ve güçlü bir yöntem değildir. Klasik istatistikteki güven aralığı ve hipotez testi gibi özellikleri taşımamaktadır.

76 KAYNAKLAR T. M. Mitchell, Machine Learning, McGraw Hill, 1997.
E. Alpaydin, Introduction to Machine Learning, MIT Press, 2010. Daniel T. Larose, Discovering Knowledge in Data, Wiley, 2005. Ç.Elmas, Yapay Zeka Uygulamaları. Seçkin Yayıncılık, 2016. S. Haykin, “Neural Networks: A Comprehensive Foundation”, Macmillan College Publishing Company, H. Bircan, M. Zontul, A. G. Yüksel, SOM Tipinde Yapay Sinir Ağlarını Kullanarak Türkiye’nin İhracat Yaptığı Ülkelerin Kümelenmesi Üzerine Bir Çalışma, Atatürk Üniversitesi İktisadi ve İdari Bilimler Dergisi, 2006. Ş. Emir, Yapay Sinir Ağları ve Destek Vektör Makineleri Yöntemlerinin Sınıflandırma Performanslarının Karşılaştırılması: Borsa Endeks Yönünün Tahmini Üzerine Bir Uygulama, İstanbul Üniversitesi Doktora Tezi, diyagrami-c-kodlari

77 Ödev 10 Enine Boyuna «Derin Öğrenme - Deep Learning» Raporu hazırlanmalıdır. Tanımı Kullanım amaçları YSA=Deep Learning ? Farkları Kullanılabilecek Araçlar (Tool / Toolbox) … Vs.


"ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA)" indir ppt

Benzer bir sunumlar


Google Reklamları