Nesne tanıma genellikle renk, şekil ve malzeme tipleriniiçerir. Bu çalışma, robotik uygulamalarda kullanılmak amacıyla üzerinde çeşitlisensörler bulunduran kontrollü bir araçla birleştirilmiş yüzey materyali tanımayöntemi sunmaktadır. Yüzey tiplerini sınıflandırmak için, otomatik robothareketleri ile hızlanma, kuvvet, yansıma, görüntü ve ses gibi birçok farklısensör kullanılmıştır. Çalışmada taş, ahşap yüzey, kumaş, plastik, metal ve kâğıtgibi farklı yapıdaki malzemeleri içeren 28 yüzey malzemesi kullanılmıştır.Matlab Sınıflandırıcı Uygulaması kullanılarak bu yüzeylerle 22 farklısınıflandırıcı eğitilmiş ve sonuçlar analiz edilmiştir. Veriler sensörlerdenfarklı zamanlarda ve farklı kombinasyonlarda toplanmıştır. İlk olarak, görüntüve ses verileri hariç tüm veriler (hızlanma, kuvvet ve yansıtma kombinasyonu)gözlemlenmiş; daha sonra sadece görüntü, sadece ses ve bu verilerin ikilikombinasyonları değerlendirilmiştir. Sonuçta, tüm sensörler dâhil olmak üzerebirleştirilmiş verilerin sınıflandırma doğruluğu, sonuçların geri kalanıylakarşılaştırılmıştır. Tüm özelliklerin önerilen birleşimi ve Torbalı Ağaçsınıflandırıcısı yöntemi kullanıldığında 98.2% oranında bir sınıflandırmadoğruluğu elde edilmiştir.
Object recognition usually includes colour, shape andmaterial types. This paper presents a methodology for surface materialrecognition by a tool which is tapped on an object for robotic applications.Recognition of a surface material can be explored by scratching the tip of thetool over the surface. To classify surface types, many different sensors suchas acceleration, force, reflectance, image and audio were used via automatedrobot movements. For this purpose, 28 different surface materials includingsuch as metals and papers were used. It should be emphasized that theproperties of surface materials are also different. 22 different classifierswere trained with these surfaces using Matlab Classification LearnerApplication. The data which is collected ten times from sensors were examinedalso in different combinations. First, all data (combination of acceleration,force and reflectance) except image and audio data was observed. Then; onlyimage, only audio and dual combinations of all data subsets were evaluated. Inthe end, classification accuracy of fused data including all sensors wascompared to the rest of the results. The proposed fusion of all featuresprovides a classification accuracy of 98.2% in our experiments when combinedwith a Bagged Trees classifier.