Gelişmiş Arama

Basit öğe kaydını göster

dc.contributor.authorÜnal, Tayfun
dc.date.accessioned2020-01-07T11:19:15Z
dc.date.available2020-01-07T11:19:15Z
dc.date.issued2019
dc.identifier.urihttps://hdl.handle.net/20.500.11776/3391
dc.description.abstractBu tezde lojistik regresyon ve yapay sinir ağlarından bahsedilmiş, özellikle bir ve iki gizli katmanlı yapay sinir ağlarının mimarileri incelenmiştir. Bu mimariler XOR veri kümesi üzerinde kullanılmıştır. Lojistik regresyonun sınıflandıramadığı XOR veri kümesi bir ve iki gizli katmanlı yapay sinir ağı mimarileriyle sınıflandırılmıştır. Daha sonra matematiksel temellerinin araştırılması için baskı maliyet fonksiyonu tanımlanmıştır. Bu fonksiyon, bir gizli katmanlı yapay sinir ağının gizli katmanındaki sonuncu nöronunun parametrelerini sıfır yapacak şekilde tasarlanmıştır. Yani sonuncu nöron baskılanmıştır. Böylece r ideal nöron sayısı ve istenilen maliyet değeri olduğu varsayılırsa r için hesaplanan maliyet değeri, r için hesaplanan baskı maliyet değeri arasındaki fark çok küçük ve aralarındaki ilişki olduğu gözlenmiş ve ispatlanmıştır. Tanımlanan baskı maliyet fonksiyonu kullanılarak bir deney yapılmış ve bu deneyin sonucunda XOR veri kümesi için bir gizli katmanlı yapay sinir ağının ideal nöron sayısı tespit edilmiştir. Daha sonra iki gizli katmanlı yapay sinir ağları için baskı maliyet fonksiyonu tanımlanmıştır. Bu baskı maliyet fonksiyonu birinci ve ikinci gizli katmandaki nöron sayılarını eşit tutup bu mimarinin birinci ve ikinci gizli katmanındaki son nöronlar baskılanmıştır. Bu fonksiyon kullanılarak bir gizli katmanlı yapay sinir ağları için yapılan deney, iki gizli katmanlı yapay sinir ağları için de yapılmıştır. Bu deneyle XOR veri kümesi için iki gizli katmanlı yapay sinir ağının ideal nöron sayısı tespit edilmiştir. Sonuç bölümünde elde edilen yöntemin genelleştirilmesi incelenmiştiren_US
dc.description.abstractIn this study, logistic regression and artificial neural networks were mentioned. Especially, architectures of one and two hidden layer artificial neural networks were analyzed. These architectures were used for XOR problem. XOR problem which logistic regression couldn’t classify was classified with one and two hidden layer architectures. Then, in order to investigate the mathematical foundations, the supressed cost function was defined. This function makes last neuron’s parameters in the hidden layer of one neural networks zero. So, suppose that r is the ideal number of neurons and is the desired value for cost function, then the connection of cost function, supressed cost function and is . By using this function, an experiment have been done and the ideal number of neuron was detected for XOR dataset with this experiment. Then, supressed cost function was defined for the two hidden layer artificial neural Networks. For this supressed cost function’s first and second hidden layers were kept equal. So, the experiment which is done for one hidden layer artificial neural network was done for two hidden layer artificial neural networks. With this experiment, the ideal number of neuron was detected for XOR dataset. In the conclusion section, the generalization of obtained method is observed.en_US
dc.language.isoturen_US
dc.publisherNamık Kemal Üniversitesien_US
dc.rightsinfo:eu-repo/semantics/embargoedAccessen_US
dc.subjectDerin öğrenmeen_US
dc.subjectyapay sinir ağlarıen_US
dc.subjectgizli katman sayısıen_US
dc.subjectXOR problemien_US
dc.subjectDeep learningen_US
dc.subjectartificial neural networksen_US
dc.subjectthe number of hidden layersen_US
dc.subjectXOR problemen_US
dc.titleBir ve iki gizli katmanlı yapay sinir ağlarının matematiğien_US
dc.title.alternativeMATHEMATICS OF NEURAL NETWORKS WİTH ONE AND TWO HİDDEN LAYERSen_US
dc.typemasterThesisen_US
dc.departmentEnstitüler, Fen Bilimleri Enstitüsü, Matematik Ana Bilim Dalıen_US
dc.relation.publicationcategoryTezen_US


Bu öğenin dosyaları:

Thumbnail

Bu öğe aşağıdaki koleksiyon(lar)da görünmektedir.

Basit öğe kaydını göster