Kullanıma ba şlandığı alanlarda insandan kaynakl ı hataları olabildiğine azaltmay ı hedefleyerek geliştirilen, karmaşık hesaplama süreçlerini ihtiva eden algoritmalar ın kendileri de yeni bir risk potansiyelidir. Nitekim yapay zekân ın kullanımı insanların ölümü ile sonuçlanan kazalara sebebiyet vermi ş ve bireylerin şeref ve sayg ınlığını sarsıcı nitelikte ifadelere muhatap olmasına yol açmıştır. Cezai sorumluluk bakımından kullanıcı, üretici ve programlayıcı ile yapay zekânın kendisinin de cezai sorumluluğu tartışılmaktadır. Bu bak ımdan insanın gerçekleştirdiği cezaya de ğer haksızlıklardan sorumluluğunun tespiti için geli ştirilmiş hali haz ırda savunulan hareket teorileri açısından yapay zekan ın fail olarak de ğerlendirilip de ğerlendirilemeyeceği sorusu önemlidir.
In terms of cr iminal liability for the use of art ificial intelligence, the user, producer and programmer come to the agenda as potential subjects of liability, but the artificial intelligence itself, wh ich has autonomy in the d igital sense, is also d iscussed in terms of whether it will be criminally liable. In this respect, the study focuses on the question of whether art ificial intelligence can be cons idered as the perpetrator in terms of the theor ies regarding the determ ination of the concept of act ion su itable for the evaluat ion to be made in terms of cr iminal law, which is currently defended in the cr iminal doctr ine developed for the determ ination of the responsibility of human be ings for the cr iminally pun ishable wrongs comm itted by the ir act ions. In this direction, the concept of fault and other concepts related to the criminal doctrine will be mentioned to the extent necessary to explain the evaluations on the subject.