Yapay zeka teknolojilerinin hızlı ilerleyişiyle hayatın her alanında yapay zeka sistemlerinin yoğun kullanımını görmek mümkündür. Yapay Zekanın çözümleri olağanüstü bir başarı göstermiş olsa da yapay zeka ve alt alanı olan makine öğrenimine saldırıya yönelik teknikler tasarlamak için çaba harcayan tehlikeli bir taraf da vardır. Bu tür teknikler sayesinde, çıktılar için yanlış sınıflandırılmış sonuçlara neden olan akıllı sistemleri kandırmak mümkündür. Yapay zeka insanlığın geleceğini zeki sistemler üzerine inşa ederken aynı zamanda sürücüsüz arabalar, hastalık tespiti ve güvenliğe kadar çeşitli uygulamalar insansız otonom akıllı sistemlerle yapılacağı için de gelecek endişeleri taşımaktadır. Açıklamalardan hareketle bu tez çalışmasında, görüntü tabanlı verilerde düşmancıl örnek teknikleri kullanmak suretiyle, yapay zekanın manipülasyonu gerçekleştirilmiştir. Düşmancıl örnekler, bir makine öğrenimi tekniğini hedef problem hakkında yanlış bir şekilde öğrenmesi için kandırabilen ve sonunda başarısız veya kötü niyetli olarak yönlendirilmiş bir akıllı sisteme neden olabilecek eğitim verileri olarak tanımlanmaktadır. Çalışma yapay zekayı yanıltan düşmancıl örnekler oluşturmak için güncel tekniklerin uygulanmasına ayrılmıştır. Elde edilen sonuçlar, uygulanan tekniklerin yeter düzeyde saldırı başarı oranları sağladığını göstermektedir. Anahtar Kelimeler: Yapay zeka, makine öğrenimi, düşmancıl örnekler, yapay zeka güvenliği.
With the rapid progress of artificial intelligence technologies, artificial intelligence systems are widely used in all fields of life. While the solutions of artificial intelligence have had phenomenal success, there is also a dangerous side employing efforts to design attack techniques against Artificial Intelligence and its sub-field, machine learning. Thanks to such techniques, intelligent systems can be fooled to cause misclassified output results. While artificial intelligence builds the future of humanity on intelligent systems, it also has future concerns as various applications from self-driving cars, disease detection to security will be done with autonomous intelligent systems without human beings. Moving from explanations, in this thesis study, artificial intelligence is manipulated by using adversarial examples techniques in image-based data. Adversarial examples are defined as training data that can deceive a machine learning technique into misleading it about the target problem, resulting in a failed or malicious intelligent system. The study is devoted to the application of current techniques to create adversarial examples that deceive artificial intelligence. Obtained results show that the applied techniques provide sufficient attack success rates. Keywords: Artificial intelligence, machine learning, adversarial examples, artificial intelligence safety.
Tez (Yüksek Lisans) - Süleyman Demirel Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Anabilim Dalı, 2021.
Kaynakça var.
Yapay zeka teknolojilerinin hızlı ilerleyişiyle hayatın her alanında yapay zeka sistemlerinin yoğun kullanımını görmek mümkündür. Yapay Zekanın çözümleri olağanüstü bir başarı göstermiş olsa da yapay zeka ve alt alanı olan makine öğrenimine saldırıya yönelik teknikler tasarlamak için çaba harcayan tehlikeli bir taraf da vardır. Bu tür teknikler sayesinde, çıktılar için yanlış sınıflandırılmış sonuçlara neden olan akıllı sistemleri kandırmak mümkündür. Yapay zeka insanlığın geleceğini zeki sistemler üzerine inşa ederken aynı zamanda sürücüsüz arabalar, hastalık tespiti ve güvenliğe kadar çeşitli uygulamalar insansız otonom akıllı sistemlerle yapılacağı için de gelecek endişeleri taşımaktadır. Açıklamalardan hareketle bu tez çalışmasında, görüntü tabanlı verilerde düşmancıl örnek teknikleri kullanmak suretiyle, yapay zekanın manipülasyonu gerçekleştirilmiştir. Düşmancıl örnekler, bir makine öğrenimi tekniğini hedef problem hakkında yanlış bir şekilde öğrenmesi için kandırabilen ve sonunda başarısız veya kötü niyetli olarak yönlendirilmiş bir akıllı sisteme neden olabilecek eğitim verileri olarak tanımlanmaktadır. Çalışma yapay zekayı yanıltan düşmancıl örnekler oluşturmak için güncel tekniklerin uygulanmasına ayrılmıştır. Elde edilen sonuçlar, uygulanan tekniklerin yeter düzeyde saldırı başarı oranları sağladığını göstermektedir. Anahtar Kelimeler: Yapay zeka, makine öğrenimi, düşmancıl örnekler, yapay zeka güvenliği.
With the rapid progress of artificial intelligence technologies, artificial intelligence systems are widely used in all fields of life. While the solutions of artificial intelligence have had phenomenal success, there is also a dangerous side employing efforts to design attack techniques against Artificial Intelligence and its sub-field, machine learning. Thanks to such techniques, intelligent systems can be fooled to cause misclassified output results. While artificial intelligence builds the future of humanity on intelligent systems, it also has future concerns as various applications from self-driving cars, disease detection to security will be done with autonomous intelligent systems without human beings. Moving from explanations, in this thesis study, artificial intelligence is manipulated by using adversarial examples techniques in image-based data. Adversarial examples are defined as training data that can deceive a machine learning technique into misleading it about the target problem, resulting in a failed or malicious intelligent system. The study is devoted to the application of current techniques to create adversarial examples that deceive artificial intelligence. Obtained results show that the applied techniques provide sufficient attack success rates. Keywords: Artificial intelligence, machine learning, adversarial examples, artificial intelligence safety.