Browsing by Author "Lim, Long Ang"
Now showing 1 - 2 of 2
Results Per Page
Sort Options
Item Learning Dense Contextual Features For Semantic Segmentation(Ankara Üniversitesi Fen Fakültesi, 2020-06-30) Keleş, Hacer Yalim; Lim, Long Ang; Bilgisayar Mühendisliği; Mühendislik FakültesiSemantic segmentation, which is one of the key problems in computer vision, has been applied in various application domains such as autonomous driving, robot navigation, or medical imagery, to name a few. Recently, deep learning, especially deep neural networks, have shown significant performance improvement over conventional semantic segmentation methods. In this paper, we present a novel encoder-decoder type deep neural network-based method, namely XSeNet, that can be trained end-to-end in a supervised manner. We adapt ResNet-50 layers as the encoder and design a cascaded decoder that composes of the stack of the X-Modules, which enables the network to learning dense contextual information and having wider field-of-view. We evaluate our method using CamVid dataset, and experimental results reveal that our method can segment most part of the scene accurately and even outperforms previous state-of-the art methods.Item Ön plan bölütlenmesinde denetimli çok ölçekli konvolüsyonel sinir ağları yaklaşımının kullanımı(Ankara Üniversitesi : Fen Bilimleri Enstitüsü : Bilgisayar Mühendisliği Anabilim Dalı, 2018) Lim, Long Ang; Keleş , Hacer Yalım; Fen Bilimleri EnstitüsüÖn plan segmentasyonu alanında birkaç yöntem önerilmiştir; ancak, bu yöntemler aydınlatma değişiklikleri, arka plan veya kamera hareketi, kamuflaj etkisi, gölge gibi çeşitli zor senaryolarla başa çıkamamaktadır. Bu sorunları çözmek amacıyla, az sayıda eğitim örneğini kullanarak uçtan uca eğitilebilen üç farklı güçlü enkoder-dekoder tipi derin sinir ağı önerilmiştir. İlk olarak bu çalışmada, bir görüntüyü, çoklu ölçekte öznitelik uzayına dönüştürmek için kodlayıcı kısımında üçlü bir yapı altında önceden eğitilmiş bir konvolüsyonel (evrişimsel) ağı (VGG-16 Net) veriye uyarlanarak kullanılmıştır; öznitelik uzayındaki ifadeden görüntü uzayına projeksiyonu öğrenmek için, dekoder kısmında, dönüştürülmüş bir konvolüsyonel sinir ağı kullanılmıştır. İkinci olarak, çoklu ölçek özniteliklerini çıkarmak için tek bir giriş kodlayıcının üstüne takılabilen bir Feature Pooling Module (FPM) önerilmiştir ve görüntü uzayına projeksiyonu öğrenmek için bu özniteliklerin üstüne aynı dekoder yerleştirilmiştir. Üçüncü olarak FPM modülün yapısına öznitelikler füzyonu eklenerek bu modül genişletilmiştir ve sonuç olarak kamera hareketlerine karşı gürbüz bir modül oluşturulmuştur. Daha ileri performans iyileştirmesi için genişletilmiş FPM'in üzerine yeni bir dekoder ağı önerilmiştir. Önerilen FgSegNet_M, FgSegNet_S ve FgSegNet_v2 olarak adlandırılan yöntemlerle geliştirilmiş modeller, Change Detection 2014 Challenge (changedetection.net)'de, sırasıyla 0.9770, 0.9804 ve 0.9847 ortalama F-Measure ile, mevcut tüm yöntemlerinden daha iyi performansla çalıştırmaktadır. Modellerimiz SBI2015 ve UCSD Background Subtraction veri setlerinde de değerlendirilmiştir. Tez çalışması kapsamında, yukarıda özetlenen çalışmalara ek olarak ön plan nesnelerinin segmantasyonu alanında yama-tabanlı (patch-wise) öğrenme hakkında yürüttğümüz çalışmalar da sunulmaktadır. Ek olarak, ön plan segmentasyon kapsamında geliştirdiğimiz yöntemlerin anlamsal (semantik) segmentasyon alanındaki etkinliğini değerlendirmek için yürüttüğümüz iki yöntem çalışması da detaylı olarak tartışılmaktadır.