ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA)

Slides:



Advertisements
Benzer bir sunumlar
DOÇ. DR.MEHMET ERDOĞAN AKDENİZ ÜNİVERSİTESİ
Advertisements

ODTÜ Bilgisayar Mühendisliği Tanıtım Günleri Temmuz 2005.
YAPAY SİNİR AĞLARI.
Algoritma.  Algoritma, belirli bir görevi yerine getiren sonlu sayıdaki işlemler dizisidir.  Başka bir deyişle; bir sorunu çözebilmek için gerekli olan.
YAPAY SİNİR AĞLARI (Artifical Neural Networks)
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest.
SEVDA GÜL Y MEME MR’ INDA KANSER TESPITI.
Bilimsel bilgi Diğer bilgi türlerinden farklı
BÖLÜM 1 TEMEL KAVRAMLAR. BÖLÜM 1 TEMEL KAVRAMLAR.
Hopfield Ağı Ayrık zamanSürekli zaman Denge noktasının kararlılığı Lyapunov Anlamında kararlılık Lineer olmayan sistemin kararlılığı Tam Kararlılık Dinamik.
YAPAY SİNİR AĞLARINA GİRİŞ. Yapay Sinir Ağlarının Genel Tanımı İnsan beyninin özelliklerinden olan öğrenme yoluyla yeni bilgiler türetebilme, yeni bilgiler.
Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA.
İSTANBUL TEKNİK ÜNİVERSİTESİ ♦ ELEKTRONİK & HABERLEŞME MÜHENDİSLİĞİ Hesaplamalı Sinirbilim Modeller farklı zamansal ve konumsal ölçeklerde süreçleri ele.
Program Tasarım Modelleri
Yazılım Mühendisliği1[ 3.hft ]. Yazılım Mühendisliği2 Yazılım İ sterlerinin Çözümlemesi Yazılım Yaşam Çevrimi “ Yazılım Yaşam çevrimin herhangi bir yazılım.
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß.
ÇOK BOYUTLU SİNYAL İŞLEME
Bölüm 3 : Yapay Sinir Ağları (MatLab) Artificial Neural Network
Çoklu Doğrusal Bağlantı X3X3 X2X2 r X 2 X 3 = 1 Tam Çoklu Doğrusal Bağlantı.
Ders notlarına nasıl ulaşabilirim
Ayrık Zaman Hopfield Ağı ile Çağrışımlı Bellek Tasarımı
Erken çocukluk döneminde fen ve matematik kavramlarının gelişimi
2.Hafta Transistörlü Yükselteçler 2
LINK LAYER PROTOCOLS (ARP/INARP)
BİLİMSEL ARAŞTIRMA YÖNTEMLERİ ÜNİTE 3
DENEYSEL TERTİPLER VE PAZAR DENEMESİ
Deneme Modelleri Neden-sonuç ilişkilerinin sorgulandığı araştırma türleridir. Deneme ve tarama modelleri arasındaki fark nedir? Deneme modellerinde amaçlar.
ÖRNEKLEME.
Problem Çözme ve Algoritmalar
Yapay Sinir Ağı Modeli (öğretmenli öğrenme) Çok Katmanlı Algılayıcı
MODEL YETERSİZLİKLERİNİ DÜZELTMEK İÇİN DÖNÜŞÜMLER VE AĞIRLIKLANDIRMA
Ünite 8: Olasılığa Giriş ve Temel Olasılık Hesaplamaları
YAPAY SİNİR AĞLARI Bölüm 1-Giriş
Program Tasarım Modelleri
BİYOİNFORMATİK NEDİR? BİYOİNFORMATİKTE KULLANILAN SINIFLAMA YÖNTEMLERİ
“Bilgi”’nin Gösterimi “Bilgi” İnsan veya Makina Yorumlama Öngörme
• EDVAC (Electronic Discrete Variable Automatic Computer)
STORAGE BÜŞRA KARADENİZ
PROBLEM ÇÖZME VE ALGORİTMALAR
İSTATİSTİK.
Bilgisayar Mühendisliğine Giriş
Yapay Sinir Ağları (Artificial Neural Networks)
PARAMETRİK HİPOTEZ TESTLERİ
BENZETİM Prof.Dr.Berna Dengiz 13. Ders Çıktı Analizi
Meriç ÇETİN Pamukkale Üniversitesi Bilgisayar Mühendisliği Bölümü
Self Organizing Map-SOM
BÖLÜM 2 BİLİŞSEL GELİŞİM.
Test Geliştirme Süreci
PROGRAM DEĞERLENDİRME
Evren-Örneklem, Örnekleme Yöntemleri 2
ÖĞRENME STİLLERİ.
ÖLÇME-DEĞERLENDİRME 1.DERS
Bilgisayar Bilimi Koşullu Durumlar.
Tezin Olası Bölümleri.
Birol Yüceoğlu Migros T.A.Ş.
Evren-Örneklem, Örnekleme Yöntemleri 1
Araştırma Önerisi ve Hazırlanması
NİŞANTAŞI ÜNİVERSİTESİ
Gerçek Yaşama Dayalı Durum Belirleme
Veri ve Türleri Araştırma amacına uygun gözlenen ve kaydedilen değişken ya da değişkenlere veri denir. Olgusal Veriler Yargısal Veriler.
Ölçmede Hata Kavramı ve Hata Türleri
NİŞANTAŞI ÜNİVERSİTESİ
Kesikli Olay benzetimi Bileşenleri
ARAŞTIMALARDA YÖNTEM.
BİLİMSEL ARAŞTIRMA YÖNTEMLERİ
Bilimsel Araştırma Yöntemleri
Bilimsel araştırma türleri (Deneysel Desenler)
2. HAFTA Bilimsel Araştırma Temel Kavramlar.
Medİkal görüntülerde doktor – hasta bİlgİ gİzlİlİğİnİn sağlanmasI
Sunum transkripti:

ARTIFICIAL NEURAL NETWORKS-ANN (YAPAY SİNİR AĞLARI-YSA) BİRKAN BÜYÜKARIKAN

İÇERİK YAPAY SİNİR AĞLARI YAPAY SİNİR AĞI TÜRLERİ MULTILAYER NETWORKS AND THE BACKPROPAGATION ALGORITHM BPN ÖRNEK YSA OLUŞTURULMASI YSA GÜÇLÜ VE ZAYIF YÖNLERİ

Yapay Sinir Ağları İnsan beyninin sinir ağlarını taklit eden, bilgisayar programlarıdır. Yapay sinir ağları bir anlamda paralel bilgi işleme sistemi olarak düşünülebilir. Öğrenme sürecinin matematiksel olarak modellenmesi temeline dayanmaktadır. YSA çalışmaları ilk olarak beynin biyolojik üniteleri olan nöronların modellenmesi ile başlamıştır. Yapay sinir ağlarına bu bilgiler ilgili olaya ait örnekler üzerinde eğitilerek verilir.

Yapay Sinir Ağları Düğümlerin bir kümesidir Her bir düğümün giriş ve çıkışı vardır Her bir düğüm onun düğüm fonksiyonu tarafından basit bir hesaplama yerine getirir Düğümler arasında ağırlık yüklenmiş bağlantılar (Weighted connections) vardır. Bağlantı şekli (connectivity) ağın mimarisini/yapısını verir DÜĞÜM VEYA SİNİR İŞLEM ELEMANLARININ BİR ARAYA GELMESİ İLE OLUŞUR

Biyolojik sinir hücresi (nöron) Her bir neuron bir gövde (body), bir akson (axon) ve çok sayıda sinir uçlarına (dendrites) sahiptir. Synapse: bir nöronun aksonu ile diğerinin sinir ucu arasındaki ince aralıktır. Dendrite Cell Body Axon Sinapslar Bağlantı Ağırlıkları Aksonlar Çıktılar Dendritler Girdiler Hücre Gövdesi Birleştirme Fonksiyonu

YSA Örnekleri Sınıflandırma, tahmin ve modelleme

Yapay Sinir Ağı Türleri Single Layer Perceptron Multilayer Perceptrons (MLPs) Radial-Basis Function Networks (RBFs) Hopfield Network Boltzmann Machine Self-Organization Map (SOM) Hamming Ağı

1-Perceptronlar 1960’larda Rosentblatt tarafından sinir ağı olarak önerilmiştir. Perceptronlar sıradan makinelerin çözemedeği problemleri çözebilen «yeni tür bir bilgisayar» Perceptronlar, son derece sınırlı olmalarına karşın en eski sinir ağlarından biridir. Perceptron, bir sinir hücresinin birden fazla girdiyi alarak bir çıktı üretmesi prensibine dayanır.

1-Perceptronlar Basit bir perceptron yapısı Perceptron, girişlerin ağırlıklı toplamı, eşik değeri ile karşılaştırılır. 𝑦 𝑖 = 1 𝑒ğ𝑒𝑟 𝑖=1 𝑛 𝑤 𝑖 𝑥 𝑖 ≥𝜃 0 𝑒ğ𝑒𝑟 𝑖=1 𝑛 𝑤 𝑖 𝑥 𝑖 <𝜃

1-Perceptronlar

XOR Problemi Perceptronlar XOR problemi gibi doğrusal olarak sınıflandırılamayan problemleri çözümünde başarısızdır. --1.5 0- - 0,5 1 1,5 2 ) a b y 1 Fakat XOR gibi bazı mantıksal fonksiyonlarda bu mümkün değildir. Nedeni ise, XOR probleminin doğrusal ayrılamayan bir problem olmasıdır. doğrusal olmayan problemleri çözemediğini meĢhur XOR problemi ile ispatlaması; çalıĢmaların verimsiz olduğunu söylemesi, araĢtırmacıları uzun yıllar maddi kaynak bulmakta zorlanmıĢ ve bu konudaki çalıĢmaları durma noktasına getirmiĢtir.

XOR Problemi XOR problemini çözmek için yapılan çalışmalar sonucu çok katmanlı algılayıcı modeli geliştirilmiştir. Rumelhart ve arkadaşları tarafından geliştirilen bu hata yayma modeli veya geriye yayılım modeli (back propogation) denilmektedir. Bunu özellikle sınıflandırma, tanıma ve genelleme yapmayı gerektiren problemler için çok önemli bir çözüm aracıdır. Bu model “Delta Öğrenme Kuralı” denilen bir öğrenme yöntemini kullanmaktadır.  sinir hücrelerini bağlayan sinapsisler üzerindeki ağırlık değerinin değişim miktarı delta kuralına göre hesaplanmıştır. Veriler doğrusal ayrılabilir değil ise basit algılayıcı eğitim kuralı yakınsayamaz. delta kuralı en iyi yaklaşmaya doğru yakınsar. Delta kuralı, “En Küçük Kareler (Least Mean Squares - LMS)” veya “Widrow-Hoff öğrenme kuralı“ olarak da bilinir

Delta Kuralı öğrenme kuralı en küçük kareler (LMS - Least Mean Square) kuralı olarak da adlandırılmaktadır. Buna göre, YSA’nın beklenen çıktısı ile mevcut çıktısı arasındaki farkın karesi, bağlantı ağırlıkları değiştirilerek minimize edilmeye çalışılır. Hata miktarını en aza indirmek için gerçek çıktılarla istenilen çıktılar karşılaştırılır. Tüm ağdaki hata değeri; E= 1 2 ( 𝑣 𝑖 − 𝑧 𝑖 ) 2 𝑣 𝑖 𝑖𝑠𝑡𝑒𝑛𝑒𝑛 ç𝚤𝑘𝑡𝚤 𝑧 𝑖 gerçek çıktı

2-Multilayer Perceptrons (MLPs) Çok katmanlı algılayıcı bazı zor ve farklı problemleri başarılı bir şekilde çözmek için uygulanır. Hatanın geriye yayılma mantığı Bir çok katmanlı ağ üç önemli özelliğe sahiptir: Ağdaki her nöron modeli çıkışta non-lineerlik içerir. Ağ, çıkış ya da girişe ait olmayan bir ya da daha fazla saklı nörona sahiptir. Bu saklı nöronlar ağın karmaşık işleri öğrenmesini sağlar. (3) Ağda, her nöron birbiriyle bağlıdır. Geriye yayılım algoritmasının gelişimi, nöron ağlarında bir dönüm noktasıdır.

3-Radyal Temelli Fonksiyon Ağları (Radial-Basis Function Networks) output neurons RBF, çok boyutlu uzayda eğri uydurma problemini ortaya koyan farklı bir yaklaşımdır. RBF ağı, üç katmanı; Giriş katmanı, kaynak düğümlerinden oluşmaktadır. İkinci katman, çok katmanlı ağa göre farklı bir yapıdadır. Çıkış katmanı ise, giriş katmanına uygulanan aktivasyon paternlerinin cevabını verir. output of network: propagation function: Bu açıdan, öğrenme, istatistiksel olarak birden fazla boyutlu uzayda eğitme verisine en uygun yüzeyi bulmaya eşdeğerdir. input nodes

4-Hopfield Ağı (Hopfield Network) Bu ağda ikili değerler kullanılır. Bu özgün ağ her bir elemanı işleyerek bir ikili sayı birimi oluşturur. Bu elemanlar girişlerin toplamı ve çıkış sayıları sıfır veya bir olarak hesaplanarak yüklenir. Hücreler açık (+1) ya da kapalı (-1) olarak ikili mantığa göre çalışır. nöronların birbirleriyle etkileşimi temeline dayanan yeni bir sinir ağı ortaya koydu

5-Boltzmann Makinesi (Boltzmann Machine) Olasılıksal katılımlıdır ve geri besleme bağlantıları Hopfield ağına benzemektedir. Hopfield ağlarına ek olarak özgün modelleme tekniğinde benzer işlev ve işlevleri kullanılır.

6-Kendi Kendine Organize Olan Özellik Haritaları (Self-Organization Map (SOM)) Kohonen SOM ağları olarak da bilinir. SOM ağları, klasik istatistikteki K-Ortalama ile çok boyutlu ölçekleme yöntemlerinin her ikisinin de işlevlerini yerine getirebilir. Yani, veri setindeki elemanları hem kümelendirir hem de haritalandırır. Bu sebeple, bu ağlar son yıllarda oldukça popüler olmuştur. 1982

6-Kendi Kendine Organize Olan Özellik Haritaları (Self-Organization Map (SOM)) Tek katmanlı bir ağ olup giriş ve çıkış nöronlarından oluşur. Giriş nöronlarının sayısını veri setindeki değişken sayısı belirler. Çıkış nöronlarının her biri bir kümeyi temsil eder. Diğer yapay sinir ağlarından farklı olarak, çıkış katmanındaki nöronların dizilimi çok önemlidir. Bu dizilim doğrusal, dikdörtgensel, altıgen veya küp şeklinde olabilir. Ağ eğitilirken bağımlı değişken kullanılmaz.

7- Hamming Ağı Hamming ağı, Hopfield ağının bir genişletilmesidir. Hamming ağı, giriş vektörleri için en az ikili sayı hatasının temel sınıflandırılmasını yerine getirmektedir, burada Hamming tarafından hata aralığı tanımlanmaktadır. Hamming ağı bir giriş katmanı ile birçok düğümler kullanır. Bunların ayrı binary özellikleri vardır.

MULTILAYER NETWORKS AND THE BACKPROPAGATION ALGORITHM Ara Katman Girdi Katmanı Çıktı Katmanı G1 Ç1 G2 Ç2 G3 Ç3 Eşik Değeri Eşik Değeri

MULTILAYER NETWORKS Girdi Katmanı: Dış dünyadan gelen girdileri alarak ara katmana gönderir. Bu katmanda bilgi işleme olmaz. Gelen her bilgi geldiği gibi bir sonraki katmana gider. Ara Katmanı: Ara katmanlar girdi katmanından gelen bilgileri işleyerek bir sonraki katmana gönderir. Çıkış Katmanı: Ara katmandan gelen bilgileri işleyerek ağa girdi katmanından verilen girdilere karşılık ağın ürettiği çıkışları belirleyerek dış dünyaya gönderir. Çok katmanlı ağın öğrenme kuralı en küçük kareler yöntemine dayalı “Delta Öğrenme Kuralı”nın genelleştirilmiş halidir. Bu yüzden “Genelleştirilmiş Delta Kuralı” olarak da isimlendirilmektedir. “Genelleştirilmiş Delta Kuralı” iki aşamadan oluşur: • İleri doğru hesaplama(Feed Forward) • Geri doğru hesaplama (Back Propogation)

YAPAY SİNİR AĞININ TEMEL BİLEŞENLERİ Mimari Yapı Öğrenme Algoritması Aktivasyon Fonksiyonu

1-Mimari Yapısı *Bir geri beslemeli sinir ağı, çıkış ve ara katlardaki çıkışların, giriş birimlerine veya önceki ara katmanlara geri beslendiği bir ağ yapısıdır. *Girişler hem ileri yönde hem de geri yönde aktarılmış olur. Geri Beslemeli YSA Modeli İleri Beslemeli YSA Modeli *Tek yönlü bilgi akışı söz konusudur. *Bu ağ modelinde Girdi tabakasından alınan bilgiler Gizli katmana iletilir. *Gizli ve Çıktı tabakalarından bilginin işlenmesi ile çıkış değeri belirlenir.

2-Öğrenme Algoritması Öğrenme en önemli YSA en önemli özelliği Tüm ağdaki ağırlıklar optimal değerler almalıdır. Bu ağırlıklara ulaşılabilmesi için yapılan isleme “ağın eğitilmesi” denir. Kısaca ifade edecek olursak; “Öğrenme işlemi, ağırlıkların en iyi değerinin bulunması” olarak tanımlayabiliriz. Yapay sinir ağlarında bilgi, ağdaki sinirlerin bağlantılarının ağırlıklarında tutulur. Bu nedenle ağırlıkların nasıl belirleneceği önemlidir. Bilgi tüm ağda saklandığı için bir düğümün sahip olduğu ağırlık değeri tek başına bir şey ifade etmez.

3-Aktivasyon Fonksiyonu Aktivasyon fonksiyonu girdi ve çıktı birimleri (katmanları) arasındaki eğrisel eşleşmeyi sağlar. Aktivasyon fonksiyonunun doğru seçilmesi ağın performansın önemli derecede etkiler. Threshold Step Yani yapay nöron çıktısının büyüklüğünü sınırlandıran fonksiyondur. B Sigmoid Gaussian

Aktivasyon Fonksiyon Toplama işleminin sonucu etkinlik işlevinden geçirilir. Amaç: zaman söz konusu olduğunda toplama işlevinin çıkışının değişmesine izin vermektir. Davranışını belirleyen önemli faktörlerden birisi, kullanılan etkinlik fonksiyonlarıdır.

Backpropagation Algoritması

Backpropagation Algoritması Hesaplama karmaşıklığı ağdaki ağırlık sayısına göre doğrusal olarak değiştiği için hesaplama yönünden etkindir. BP, ağın çıkış değerleri ile hedef çıktı değerleri arasındaki karesel hatayı en aza indirgemek İki aşamalı öğrenme ileri adım: girdi verileri ile çıktı hesaplanır geri adım: delta hesaplanarak ağ güncellenir Çok katmanlı ağlarda ağırlıkları öğrenmek için kullanılır. Geri yayılım öğrenme yöntemi, türev alınabilir etkinlik işlevini çok katmanlı herhangi bir ağa uygulanabilir. Delta kuralı gibi, bu da sistem hatasını veya maliyet işlevini azaltma esasına dayanan bir en iyileme işlemidir.

Backpropagation Algoritması Notasyonlar Giriş örüntüsü: Çıkış örüntüsü: Beklenen çıktı: Hata: xp uygulandığı zaman çıktı j için hataların kareleri toplamı

Backpropagation Algoritması hatanın minimize edilmesi demek, hatanın türevinin 0 olması anlamına gelmektedir.

Backpropagation Algoritması Yerel minimuma yakalanma olasılığı yüzünden YSA eğitiminde momentum katsayısı kullanılır. Bunun için eğim azaltma yönteminin önceki adımlardaki değişim değerlerinin belirli oranda ( ) katkısını sağlayan momentum etkisi kullanılır.

Backpropagation Algoritması Beklenen değer alınan çıktıya eşit değilse, geriye doğru hesaplama yapılarak ağırlık değerleri değiştirilir. En küçük karelerle yapılmıĢ hata fonksiyonun yerine mutlak hatalar toplam fonksiyonu da kullanılabilir. Mutlak hataların toplam fonksiyonunun amaç fonksiyonu olarak kullanılması, optimum sonucu değiĢtirmemekle birlikte, amaç fonksiyonunun doğrusal bir forma dönüĢtürülmesi bakımından bir avantaj olarak görülebilir Momentum etkisi yok Momentum etkisi var

Backpropagation Algoritması Türetilemesi

Backpropagation Algoritması Türetilemesi Error measure: Gradient descent: Chain rule:

Case 1: Rule for Output Unit Weights Step 1: Step 2: Step 3: All together:

Case 2: Rule for Hidden Unit Weights Step 1: Thus:

Eğitimin Durdurulması Hatanın belli bir değerin altına düşmesi sonucunda eğitim sonlandırılır ya da belirli sayıda iterasyondan sonra eğitim durdurulur. Örneğin başta belirlenen iterasyon sayısı yüksek ise ağ hatayı minimize etse dahi boşuna öğrenmeye çalışmaya devam eder. Ağın gereğinden fazla eğitilmesiyle, problemi öğrenmek yerine verileri ezberlemeye başlamasıdır.

Backpropagation Adımları

Backpropagation Adımları

Backpropagation Adımları-1

Backpropagation Adımları-1

Backpropagation Adımları-1

Backpropagation Adımları-2

Backpropagation Adımları-2

Backpropagation Adımları-3

Backpropagation Adımları-4

Backpropagation Adımları-5

Backpropagation Adımları-5

Backpropagation Adımları-6

Backpropagation Adımları-6

Backpropagation Adımları-6

Backpropagation Adımları-7

Backpropagation Adımları-7

Backpropagation Adımları-7

Backpropagation Adımları-8

Backpropagation Adımları-8

Backpropagation Adımları-9

ÖRNEK; W13=0.62 W14=0.42 W23=0.55 W24=-017 W35=0.35 W45=0.81 Learning rate=0.25 Giriş değeri U1 U2 Input layer W14 w13 W24 W23 U4 U3 hidden layer Toplam hata E= 𝐸0 2 + 𝐸1 2 w35 w45 Ei=vi-zi E0=vo-z0 U5 output layer Input Target 1 Çıkış değeri

ÖRNEK; hata E0=Q1-z1 =0 - 0.6439=-0.6439 U3= 𝑤 ∗𝑦 = 0*0.62 + 1*0.55 =0.55 Y3=1/(1+ 𝑒 −𝑢3 ) =0.6341 Giriş değeri U1 U2 Input layer U4= 𝑤 ∗𝑦 = 0*0.42 + 1*(-0.17) =-0.17 W14 Y4=1/(1+ 𝑒 −𝑢4 ) =0.4576 w13 W24 W23 U4 U3 hidden layer U5= 𝑤 ∗𝑦 = 0.6341*0.35 + 0.4576*0.81 =0.5926 Y5=1/(1+ 𝑒 −𝑢5 ) =0.6439 w35 w45 Ei=vi-zi E0=vo-z0 U5 output layer hata E0=Q1-z1 =0 - 0.6439=-0.6439 Çıkış değeri

AĞIRLIKLAR NASIL DEĞİŞECEK?

ÖRNEK; deltaw35=0.25* -0.6439* 0.6341* (1-0.6439)*0.6439 =-0.023 Giriş değeri deltaw45=0.25* -0.6439* 0.4576* (1-0.6439)*0.6439 =-0.016 W45=0.81+(-0.016)=0.79 U1 U2 Input layer W14 w13 W24 deltaw13=0.25* -0.6439* 0* (1-0.6341)*0.6341=0 W13=0.62+(0)=0.62 W23 U4 U3 hidden layer deltaw14=0.25* -0.6439* 0* (1-4576)*0.4576=0 W13=0.42+(0)=0.42 w35 w45 Ei=vi-zi E0=vo-z0 U5 deltaw23=0.25* -0.6439* 1* (1-0.6341)*0.6341=-0.037 W23=0.55+(-0.037)=0.51 output layer deltaw24=0.25* -0.6439* 1* (1-4576)*0.4576=-0.039 W24=-0.17+(-0.039)=-0.20 Çıkış değeri

Yapay Sinir Ağlarının Oluşturulması

Yapay Sinir Ağlarının Oluşturulması Ağ mimarisinin seçilmesi ve yapı özelliklerinin belirlenmesi (katman sayısı, katmandaki nöron sayısı gibi) Nörondaki fonksiyonların karakteristik özelliklerinin belirlenmesi, Öğrenme algoritmasının seçilmesi ve parametrelerinin belirlenmesi, Eğitim ve test verisinin oluşturulması Performans Fonksiyonun Seçimi Normalizasyon Nöron Sayısının Belirlenmesi Ara Katman Sayısını Belirleme Öğrenme Algoritmasının Seçimi Ağ Yapısının Seçimi

YSA’nın Seçimi YSA’ nın tasarımı sürecinde ağ yapısının seçilmesi, uygulama problemine bağlı olarak seçilmelidir. Hangi problem için hangi ağın daha uygun olduğunun bilinmesi önemlidir. Uygun YSA yapısının seçimi, büyük ölçüde ağda kullanılması düşünülen öğrenme algoritmasına da bağlıdır. Ağda kullanılacak öğrenme algoritması seçildiğinde, bu algoritmanın gerektirdiği mimaride zorunlu olarak seçilmiş olacaktır.

YSA’da Ara Katman Sayısını Belirleme YSA’nın tasarımı sürecinde ağdaki katman sayısına karar vermek gerekmektedir. Genellikle 2 veya 3 katmanlı bir ağlar iyi sonuçlar vermektedirler Katmanların değişik şekilde bir birleriyle bağlanmaları değişik ağ yapılarını oluşturur. Girdi ve çıktı katmanlarının sayısı, problemin yapısına göre değişir. Katman sayısını belirlemenin en iyi yolu, birkaç deneme yaparak en uygun yapının ve yapının ne olduğuna karar vermektir.

Nöron Sayısının Belirlenmesi Ağın yapısal özelliklerinden birisi her bir katmandaki nöron sayısıdır. Katmandaki nöron sayısının tespitinde de genellikle deneme- yanılma yöntemi kullanılır. Bunun için başlangıçtaki nöron sayısını istenilen performansa ulaşıncaya kadar arttırmak veya tersi şekilde istenen performansın altına inmeden azaltmaktır. Bir katmanda kullanılacak nöron sayısı olabildiğince az olmalıdır. Eğer ağın bir modelin ortalama davranışını öğrenmesi isteniyorsa sigmoid fonksiyon, eğer ortalamadan sapmanın öğrenilmesi isteniyorsa hiperbolik tanjant fonksiyon kullanılması önerilmektedir.

YSA GÜÇLÜ VE ZAYIF YÖNLERİ

Yapay Sinir Ağlarının Güçlü Yönleri Öğrenme; Yapay sinir ağları, güçlü bir öğrenme yeteneğine sahiptir. Girdi örnekleri ve bunlara karşılık beklenen çıktılar verildiğinde, her bir eğitim girdisi için doğru çıktıyı oluşturacak şekilde, ağırlıkları değiştiren algoritmalar mevcuttur. Bu konuda geri yayılım (backpropagation) algoritması en yaygın olarak kullanılan algoritmadır

Yapay Sinir Ağlarının Güçlü Yönleri Genelleme; Doğru bir eğitimin sonucunda ağ sadece eğitim gözlemlerini öğrenmekle kalmaz, aynı zamanda eğitim kümesinde yer almayan gözlemler verildiğinde doğru çıktıyı oluşturacak şekilde girdiler ile çıktılar arasındaki ilişkiyi öğrenir.

Yapay Sinir Ağlarının Güçlü Yönleri Doğrusal Olmama; YSA “evrensel yaklaşma (universal approximating)” yeteneğini kullanarak problemleri çözmeyi amaçlar. Problem hakkında detaylı bilgi sahibi olunması veya problemin yapısının analiz edilmesi gibi gereksinimler ortadan kalkmaktadır

Yapay Sinir Ağlarının Güçlü Yönleri Kendi Kendini Organize Etme; Bazı yapay sinir ağları (örneğin kendini düzenleyen haritalar ve yarışmacı öğrenme tabanlı ağlar) kendi kendini organize etme özelliğine sahiptirler. Bu ağların eğitimi denetimsiz öğrenme algoritmaları kullanılarak başarılır

Yapay Sinir Ağlarının Güçlü Yönleri Paralel Çalışma; Paralel yapı, YSA’nın yüksek derecede paralel çalışan yazılım ve donanım uygulamalarının gerçekleştirilebilmesine izin verir. Paralel yapının bir diğer yararı da çok hızlı hesaplama yapabilmeyi sağlamasıdır. Bir birimin zamanındaki çıktısı, sadece t-1 zamanındaki girdilere bağlıdır. Aynı katmandaki birimler birbirlerinden bağımsız olduklarından, bu birimler üzerinde aynı anda işlem yapılabilmektedir.

Yapay Sinir Ağlarının Güçlü Yönleri Sağlamlık ve Hata Toleransı; Bir YSA bulanık, eksik, gürültülü ve olasılığa dayalı veri ile işlem yapabilir. Bilginin ağ yapısında dağılmış bir şekilde bulunmasından dolayı, dağıtık bir bilgi işleme sistemidir. Her bir birimin çıktısı oluşturulurken birçok girdi, sisteminin nihai çıktısını oluşturmak için ise birçok birim kullanıldığından sistem küçük bozulmalara karşı çok hassas değildir.

Yapay Sinir Ağlarının Zayıf Yönleri Öğrenme süresi çok uzun olabilmektedir. Aşırı öğrenmeye düşerek genelleme yapamayabilir. Öğrenme algoritmalarının seçimi için açık tanımlanmış kurallar yok. Verilerin miktarına ve kalitesine aşırı bağımlı olabilmektedir. Eğitim sırasında yerel minimuma takılma riski bulunmaktadır. Halen gelişmekte olduğundan henüz güvenilir ve güçlü bir yöntem değildir. Klasik istatistikteki güven aralığı ve hipotez testi gibi özellikleri taşımamaktadır.

KAYNAKLAR T. M. Mitchell, Machine Learning, McGraw Hill, 1997. E. Alpaydin, Introduction to Machine Learning, MIT Press, 2010. Daniel T. Larose, Discovering Knowledge in Data, Wiley, 2005. Ç.Elmas, Yapay Zeka Uygulamaları. Seçkin Yayıncılık, 2016. S. Haykin, “Neural Networks: A Comprehensive Foundation”, Macmillan College Publishing Company, 1994. H. Bircan, M. Zontul, A. G. Yüksel, SOM Tipinde Yapay Sinir Ağlarını Kullanarak Türkiye’nin İhracat Yaptığı Ülkelerin Kümelenmesi Üzerine Bir Çalışma, Atatürk Üniversitesi İktisadi ve İdari Bilimler Dergisi, 2006. Ş. Emir, Yapay Sinir Ağları ve Destek Vektör Makineleri Yöntemlerinin Sınıflandırma Performanslarının Karşılaştırılması: Borsa Endeks Yönünün Tahmini Üzerine Bir Uygulama, İstanbul Üniversitesi Doktora Tezi, 2013. http://kod5.org/yapay-sinir-aglari-ysa-nedir/ http://www.pcbilisim.com/yazi/yapay-sinir-aglari-YSA-adaline-ogrenme-kurali-algoritmasi-akis- diyagrami-c-kodlari http://ube.ege.edu.tr/~cinsdiki/UBI521/Chapter-1/cinsdikici-neural-net-giris.pdf http://www.atasoyweb.net/Geri-Yayilimli-Yapay-Sinir-Aglari

Ödev 10 Enine Boyuna «Derin Öğrenme - Deep Learning» Raporu hazırlanmalıdır. Tanımı Kullanım amaçları YSA=Deep Learning ? Farkları Kullanılabilecek Araçlar (Tool / Toolbox) … Vs.