DSpace Repository

Görüntü tabanlı verilerde yapay zekanın manipülasyonu : Düşmancıl örnek teknikleri = Manipulation of artificial intelligence in image based data: Adversarial examples techniques /

Show simple item record

dc.creator Aynacı, Emsal, 1995- author 228646
dc.creator Köse, Utku, 1985- thesis advisor 198651
dc.creator Süleyman Demirel Üniversitesi. Fen Bilimleri Enstitüsü. Bilgisayar Mühendisliği Anabilim Dalı. 24579 issuing body
dc.date 2021.
dc.identifier http://tez.sdu.edu.tr/Tezler/TF04905.pdf
dc.description Yapay zeka teknolojilerinin hızlı ilerleyişiyle hayatın her alanında yapay zeka sistemlerinin yoğun kullanımını görmek mümkündür. Yapay Zekanın çözümleri olağanüstü bir başarı göstermiş olsa da yapay zeka ve alt alanı olan makine öğrenimine saldırıya yönelik teknikler tasarlamak için çaba harcayan tehlikeli bir taraf da vardır. Bu tür teknikler sayesinde, çıktılar için yanlış sınıflandırılmış sonuçlara neden olan akıllı sistemleri kandırmak mümkündür. Yapay zeka insanlığın geleceğini zeki sistemler üzerine inşa ederken aynı zamanda sürücüsüz arabalar, hastalık tespiti ve güvenliğe kadar çeşitli uygulamalar insansız otonom akıllı sistemlerle yapılacağı için de gelecek endişeleri taşımaktadır. Açıklamalardan hareketle bu tez çalışmasında, görüntü tabanlı verilerde düşmancıl örnek teknikleri kullanmak suretiyle, yapay zekanın manipülasyonu gerçekleştirilmiştir. Düşmancıl örnekler, bir makine öğrenimi tekniğini hedef problem hakkında yanlış bir şekilde öğrenmesi için kandırabilen ve sonunda başarısız veya kötü niyetli olarak yönlendirilmiş bir akıllı sisteme neden olabilecek eğitim verileri olarak tanımlanmaktadır. Çalışma yapay zekayı yanıltan düşmancıl örnekler oluşturmak için güncel tekniklerin uygulanmasına ayrılmıştır. Elde edilen sonuçlar, uygulanan tekniklerin yeter düzeyde saldırı başarı oranları sağladığını göstermektedir. Anahtar Kelimeler: Yapay zeka, makine öğrenimi, düşmancıl örnekler, yapay zeka güvenliği.
dc.description With the rapid progress of artificial intelligence technologies, artificial intelligence systems are widely used in all fields of life. While the solutions of artificial intelligence have had phenomenal success, there is also a dangerous side employing efforts to design attack techniques against Artificial Intelligence and its sub-field, machine learning. Thanks to such techniques, intelligent systems can be fooled to cause misclassified output results. While artificial intelligence builds the future of humanity on intelligent systems, it also has future concerns as various applications from self-driving cars, disease detection to security will be done with autonomous intelligent systems without human beings. Moving from explanations, in this thesis study, artificial intelligence is manipulated by using adversarial examples techniques in image-based data. Adversarial examples are defined as training data that can deceive a machine learning technique into misleading it about the target problem, resulting in a failed or malicious intelligent system. The study is devoted to the application of current techniques to create adversarial examples that deceive artificial intelligence. Obtained results show that the applied techniques provide sufficient attack success rates. Keywords: Artificial intelligence, machine learning, adversarial examples, artificial intelligence safety.
dc.description Tez (Yüksek Lisans) - Süleyman Demirel Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Anabilim Dalı, 2021.
dc.description Kaynakça var.
dc.description Yapay zeka teknolojilerinin hızlı ilerleyişiyle hayatın her alanında yapay zeka sistemlerinin yoğun kullanımını görmek mümkündür. Yapay Zekanın çözümleri olağanüstü bir başarı göstermiş olsa da yapay zeka ve alt alanı olan makine öğrenimine saldırıya yönelik teknikler tasarlamak için çaba harcayan tehlikeli bir taraf da vardır. Bu tür teknikler sayesinde, çıktılar için yanlış sınıflandırılmış sonuçlara neden olan akıllı sistemleri kandırmak mümkündür. Yapay zeka insanlığın geleceğini zeki sistemler üzerine inşa ederken aynı zamanda sürücüsüz arabalar, hastalık tespiti ve güvenliğe kadar çeşitli uygulamalar insansız otonom akıllı sistemlerle yapılacağı için de gelecek endişeleri taşımaktadır. Açıklamalardan hareketle bu tez çalışmasında, görüntü tabanlı verilerde düşmancıl örnek teknikleri kullanmak suretiyle, yapay zekanın manipülasyonu gerçekleştirilmiştir. Düşmancıl örnekler, bir makine öğrenimi tekniğini hedef problem hakkında yanlış bir şekilde öğrenmesi için kandırabilen ve sonunda başarısız veya kötü niyetli olarak yönlendirilmiş bir akıllı sisteme neden olabilecek eğitim verileri olarak tanımlanmaktadır. Çalışma yapay zekayı yanıltan düşmancıl örnekler oluşturmak için güncel tekniklerin uygulanmasına ayrılmıştır. Elde edilen sonuçlar, uygulanan tekniklerin yeter düzeyde saldırı başarı oranları sağladığını göstermektedir. Anahtar Kelimeler: Yapay zeka, makine öğrenimi, düşmancıl örnekler, yapay zeka güvenliği.
dc.description With the rapid progress of artificial intelligence technologies, artificial intelligence systems are widely used in all fields of life. While the solutions of artificial intelligence have had phenomenal success, there is also a dangerous side employing efforts to design attack techniques against Artificial Intelligence and its sub-field, machine learning. Thanks to such techniques, intelligent systems can be fooled to cause misclassified output results. While artificial intelligence builds the future of humanity on intelligent systems, it also has future concerns as various applications from self-driving cars, disease detection to security will be done with autonomous intelligent systems without human beings. Moving from explanations, in this thesis study, artificial intelligence is manipulated by using adversarial examples techniques in image-based data. Adversarial examples are defined as training data that can deceive a machine learning technique into misleading it about the target problem, resulting in a failed or malicious intelligent system. The study is devoted to the application of current techniques to create adversarial examples that deceive artificial intelligence. Obtained results show that the applied techniques provide sufficient attack success rates. Keywords: Artificial intelligence, machine learning, adversarial examples, artificial intelligence safety.
dc.language tur
dc.publisher Isparta : Süleyman Demirel Üniversitesi Fen Bilimleri Enstitüsü,
dc.subject Süleyman Demirel Üniversitesi
dc.title Görüntü tabanlı verilerde yapay zekanın manipülasyonu : Düşmancıl örnek teknikleri = Manipulation of artificial intelligence in image based data: Adversarial examples techniques /
dc.type text


Files in this item

Files Size Format View

There are no files associated with this item.

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Advanced Search

Browse

My Account