Yasaklı Yapay Zeka Uygulamaları: AB Yapay Zeka Tüzüğü Madde 5 Kapsamında İnceleme
- 31 Eki 2025
- 10 dakikada okunur
Avrupa Birliği Yapay Zeka Tüzüğü’nün (AI Act) 5. maddesi, bazı yapay zeka uygulamalarını temel insan haklarına yönelik ciddi tehditler oluşturduğu gerekçesiyle yasaklamaktadır. Bu yasaklar, bireylerin iradesini manipüle eden, savunmasız grupları istismar eden, ayrımcılığa neden olan veya kitlesel gözetim ve mahremiyet ihlali riski taşıyan sistemleri kapsamaktadır.
Yasaklı Yapay Zeka Uygulamaları
Bilinç Ötesi ve Manipülatif Sistemler (Madde 5(a))
Avrupa Birliği Yapay Zeka Yasası’nın 5(a) maddesi, bireylerin bilinç düzeyinin ötesinde ya da kasıtlı olarak manipülatif ve aldatıcı yöntemler kullanan yapay zeka sistemlerini yasaklamaktadır. Bu uygulamalar sonucunda kişi farkında olmadan davranışlarını etkileyerek karar alma yetisini zayıflatabilir ve özellikle fiziksel ve psikolojik sağlık veya maddi çıkarlar üzerinde önemli olumsuz etkiler doğurabilir.
Bu tür sistemler, insan algısının ötesinde olduğu için algılanamayan, ses, görüntü, video uyaranları gibi subliminal bileşenler veya kişilerin bilinçli olarak farkında olmadığı veya farkında olsalar dahi aldatılabildikleri, kontrol edemedikleri veya direnemedikleri şekillerde bireyin özerkliğini, karar alma sürecini veya özgür seçimini baltalayan veya zayıflatan aldatıcı teknikler kullanır.
Madde ile istenen, bireyin özerkliğini ve iradesini korumaktır. Bireyin karar verme özgürlüğünü yapay yollarla bozan sistemlerin önüne geçmeyi amaçlamaktadır. Çünkü kişi istemediği bir eyleme yönlendirilebilir ve sonucunda fiziksel, psikolojik ya da ekonomik zarar doğabilir. Örneğin, subliminal mesajlar içeren yapay zeka içerikli bir müzik ya da video kullanılması, kullanıcının algısına gizli uyarıcılar yerleştirerek davranışını değiştirebilir. Benzer biçimde, yapay zekalı bir mobil oyun veya alışveriş uygulaması, kullanıcının zaaflarını analiz ederek “daha fazla harcama yap” dürtüsünü bilinçdışı biçimde tetikleyebilir.
Uygulama Örneği: Bir yapay zeka asistanı, kullanıcının kişisel geçmişini ve psikolojik eğilimlerini analiz ederek agresif satış taktikleri geliştirebilir. Örneğin bir diyet uygulaması, “Bu ürünü almazsan kilo vermen imkansız” mesajını veren alt metinler ile kullanıcıyı besleyerek kullanıcı iradesini etkileyebilir.
Sosyal medya platformları, hem subliminal teknikleri hem de yapay zeka destekli duygu analizini (sentiment analysis) kullanarak kullanıcının üzüntü veya kaygı gibi duygusal durumlarını tespit ederek, onu anlık olarak kumar veya alışveriş sitelerine yönlendiren alt metinler içeren reklamlar gösterebilir.
Türk hukuku bakımından bu tür manipülatif davranışlar henüz doğrudan “yapay zeka” temelli bir düzenlemeye tabi değildir. Ancak Tüketicinin Korunması Hakkında Kanun ve Ticari Reklam Ve Haksız Ticari Uygulamalar Yönetmeliği uyarınca haksız ticari uygulamalar kapsamındadır ve yasaktır.
Türkiye’de bu ölçekte bilinç ötesi manipülasyon örneği henüz tespit edilmemiş olsa da, özellikle hedefli davranışsal reklamcılıkta kullanıcı davranışını fark ettirmeden yönlendiren algoritmalar bu yasağın kapsamına girebilecek niteliktedir. Avrupa Birliği’nin bu maddeyle çizdiği sınır, gelecekte Türkiye’de dijital pazarlama ve yapay zeka uygulamaları açısından da önemli bir referans oluşturacaktır.
Kişisel Zayıflıkların Sömürülmesi (Madde 5(b))
Avrupa Birliği Yapay Zeka Yasası’nın 5(b) maddesinde, belirli savunmasız grupların zayıflıklarını istismar edilmesi, yasaklı yapay zeka uygulamalarındandır. Bu hüküm, özellikle yaş, engellilik, sosyal veya ekonomik kırılganlık gibi durumların kötüye kullanılmasını önlemeyi hedeflemektedir. Çünkü yapay zeka sistemleri, bireylerin bilişsel veya duygusal zaaflarını kolaylıkla analiz ederek onları rasyonel olmayan kararlar almaya yönlendirebilir.
Uygulama Örneği: Bir yapay zeka destekli mobil oyun, çocuğun yaşı dolayısıyla tecrübesiz oluşundan faydalanarak heyecan düzeyini etkiler ve ona göre “ekstra ödüller” verir. Bu ödüller, çocuğun oyuna daha uzun süre bağlı kalmasına neden olur ve farkında olmadan oyun bağımlılığını pekiştir. Çocuğun ekrana daha çok bağlı kalması, daha çok reklam görmesi ve uygulamanın daha çok para kazanması anlamına gelir. Bu durum yaşı sebebiyle kırılgan konumda olan çocuğun bilişsel gelişimini olumsuz etkileyebilecek bir tasarım örneğidir.
Uygulama Örneği: Bir finansal ürün tanıtım sistemi, ekonomik zorluk yaşayan bireyleri tespit ederek, yüksek faizli veya riskli kredi tekliflerini özellikle ödeme yapılması gereken zamanlarda bu gruba yöneltebilir. Böylece, kırılgan ekonomik durumdaki kişilerin çaresizlik sebebiyle zayıflayan karar mekanizmalarından faydalanan bir dijital sömürü mekanizması oluşur.
Avrupa Komisyonu’nun rehberleri, çocukların, yaşlıların ve engelli bireylerin bilişsel sınırlılıklarının bu tür manipülasyonlara karşı özel koruma gerektirdiğini vurgulamaktadır. Çünkü bu gruplar, yapay zekanın ikna veya yönlendirme gücünü fark etmeden etkilenme riski altındadır.
Türk hukukunda, bu alana ilişkin özel bir yapay zeka temelli istismar yasağı henüz bulunmamaktadır. Ancak çocuklara ve engellilere yönelik özel düzenlemeler ve Tüketicinin Korunması Hakkında Kanun gibi genel düzenlemeler kıyasen uygulama alanı bulabilir. Ayrıca, Kişisel Verilerin Korunması Kanunu kapsamında sağlık bilgileri veya sosyo-ekonomik veriler “özel nitelikli veri” olarak korunur.
Dolayısıyla, bir yapay zeka sistemi örneğin engelli bireylerin sağlık verilerini işleyerek belirli ilaçları veya hizmetleri agresif biçimde pazarlayamaz. Benzer şekilde, düşük gelirli kişilere yönelik yüksek riskli finansal teklifler de Türk hukukunda dolaylı biçimde haksız ticari uygulama olarak değerlendirilebilir. Ancak Avrupa Birliği’nin Madde 5(b) hükmü, bu konuda çok daha açık ve koruyucu bir çerçeve sunmaktadır. Türkiye’de benzer risklerin önlenebilmesi için, özellikle kırılgan grupları hedef alan yapay zeka uygulamalarına ilişkin daha özel düzenlemelere ihtiyaç duyulmaktadır.
Sosyal Puanlama (Madde 5(c))
Avrupa Birliği Yapay Zeka Tüzüğü’nün 5(c) maddesi, sosyal puanlama uygulamalarını yasaklamaktadır. Sosyal puanlama, bir bireyin sosyal davranışları, alışkanlıkları veya kişisel özelliklerine göre puanlandırılarak, bu puanlar üzerinden farklı sosyal bağlamlarda avantaj veya dezavantajlarla muhatap olmasını ifade eder. Örneğin puanı belirlenen sınırın altındaki kişiler eğitim, istihdam, kredi kullanımı veya kamu hizmetlerine erişim gibi alanlardan dışlanabilir. AB, bu uygulamaları temel insan haklarına müdahale ve ayrımcılık riski nedeniyle kabul etmemektedir. Çin’in sosyal kredi sistemi, bu yasağın karşı örneği olarak sıklıkla eleştirilmektedir. Burada vatandaşlar gelir, sabıka kaydı, sözleşme geçmişi gibi kriterlerle puanlanmakta ve bu puanlar çeşitli sosyal imkanları doğrudan etkileyebilmektedir.
AB Komisyonu, sosyal puanlama uygulamalarının özel hayata müdahale niteliği ve ayrımcılık riski taşıdığını vurgulamaktadır. Türkiye’de devlet veya özel sektörde benzer çapta bir sosyal puanlama sistemi mevcut değildir. Türkiye’de kredi notu ve finansal risk değerlendirmeleri yapılmakla birlikte, bunlar yalnızca finansal verilere dayanmaktadır.
Suç İşleme Riski Tahmini (Madde 5(d))
Avrupa Birliği Yapay Zeka Tüzüğünün 5(d) maddesi, sadece profilleme yoluyla bir kişinin gelecekte suç işleyip işlemeyeceğini tahmin etmeye yarayan yapay zeka sistemlerini yasaklamaktadır. Bu tür sistemlerin, bireyin kişilik özellikleri, geçmiş ilişkileri, sosyal çevresi veya çevrim içi davranışları üzerinden suç işleme potansiyelini belirlemeye çalışması, masumiyet karinesinin ve kişisel hakların ihlalidir. Yani yalnızca bir kişinin kişilik özellikleri veya geçmiş bağlantıları gibi bilgiler temel alınarak kişinin suç işleme riskinin olduğu çıkarımı yapılamaz.
Örneğin ABD’de kullanılan COMPAS adlı suç riski skorlama sistemi, siyahi bireyleri sistematik olarak daha yüksek riskli skorlaması nedeniyle etik ve hukuki eleştirilere maruz kalmıştır. Almanya’da ise Palantir gibi yazılımların polis teşkilatınca kullanımı, Federal Anayasa Mahkemesine taşınmıştır.
Yasa yalnızca soyut tahminleri değil, birey bazında yapılan suç işleme riskine dair etiketlemelerini de kapsar. Ancak istisnai olarak, yapay zeka somut bir delile dayanan bir soruşturmayı desteklemek için kullanılıyorsa (örneğin, olay yerindeki parmak izlerinin veya kamera kayıtlarının analizinde kullanılıyorsa), bu yasak kapsamında değerlendirilmez.
Uygulama Örneği:Bir emniyet birimi, yüksek suç riski taşıyan bireyleri belirlemek için yapay zeka tabanlı bir sistem kurar. Sistemin, sabıka kaydı olmayan kişileri bile sosyal medya geçmişi, arkadaş çevresi gibi veriler üzerinden analiz edip “yüksek riskli” olarak etiketlemesi yasağa aykırıdır.
Uygulama Örneği:Bir yapay zeka sistemi, şehir genelindeki suç oranlarını haritalandırarak belirli bölgeleri “yüksek riskli alan” olarak işaretliyorsa bu uygulama yasak değildir. Ancak aynı sistemi birey düzeyine indirip, kişilere özel suç işleme potansiyeli belirlemesi yapmak ihlaldir.
Türkiye’de halihazırda birey temelli suç riski tahmini yapan bir yapay zeka sistemi bulunmamaktadır. Emniyet birimlerinin sosyal profil analizleri ise sınırlı düzeydedir. Ancak böyle bir sistemin kullanılması hukuken, Anayasa’daki kişilik hakları, masumiyet karinesi ve KVKK’nın veri işleme sınırlarıyla bağdaşmayacaktır.
Biyometrik Veritabanı Oluşturma Yasağı (Madde 5(e))
Avrupa Birliği Yapay Zeka Tüzüğünün 5(e) maddesi, bireylerin açık rızası olmaksızın toplu şekilde internetten veya CCTV (güvenlik kameraları) aracılığıyla yüz görüntüleri toplanarak biyometrik veritabanı oluşturulmasını kesin biçimde yasaklamaktadır. Bu yasak, toplum genelinde gizli gözetleme ve kimlik takibi yapılmasını engellemeye yöneliktir.
Yani, Google, sosyal medya platformları veya güvenlik kameralarındaki milyonlarca yüz görüntüsünü otomatik olarak tarayıp bir veritabanına kaydeden sistemler (Örneğin Clearview AI’nin tipi yüz tanıma uygulamaları) bu madde kapsamında yasaktır. Bu tür uygulamalar, bireylerin rızası olmadan biyometrik verilerini, yani kimliği belirleyici yüz özelliklerini, topladığı için özel hayatın gizliliği ve veri korumaya ilişkin hükümleri ihlal eder. Bu kapsamda yapılmış Clearview AI şikayetine ilişkin yazımızı buraya tıklayarak okuyabilirsiniz.
Uygulama Örneği:Bir teknoloji şirketi, web tarayıcı botları aracılığıyla Facebook, Instagram veya okul güvenlik kameralarındaki milyonlarca kişinin fotoğrafını toplar. Bu görüntülerden bir yüz tanıma veritabanı oluşturur ve bu sistemi özel güvenlik şirketlerine veya kamu otoritelerine satar. Bu tür bir uygulama, madde 5(e) kapsamında ihlaldir.
Uygulama Örneği:Bir belediye, kayıp kişileri bulmak amacıyla yüz tanıma sistemleri kullanmak isteyemektedir. Ancak bunun için şehir genelinde herkesi kayda alan, sürekli görüntü toplayan bir kamera ağı kurup, bunlardan bir veri tabanı oluşturamaz. Yalnızca belirli, hedeflenmiş ve yasal olarak tanımlanmış arama faaliyetleri, istisna kapsamında değerlendirilebilir.
Türkiye’de bu kapsamda ülke çapında bir yüz tanıma veritabanı projesi resmi olarak bulunmamaktadır. Ancak son yıllarda, güvenlik birimlerinin toplumsal olaylardaki görüntülerden kimlik tespiti amacıyla yapay zekâ destekli yüz tanıma sistemleri kullandığına dair haberlerin basına yansıdığı görülmektedir.
Türk hukukuna göre, yüz görüntüsü biyometrik veri sayılır ve bu verinin kişinin açık rızası olmadan işlenmesi KVKK’ya aykırıdır. Nitekim, bir kamu hastanesinde kullanılan “yüz tanıma sistemi ile mesai takibi” uygulaması şu gerekçe ile iptal edilmiştir:
“Personelin fotoğrafını çekip öncesinde sistemde kayıtlı fotoğrafı ile eşleştirme yaparak ilgililerden kişisel veri alınması niteliği taşıyan 'yüz tanıma sisteminin', 'özel hayatın gizliliği' ilkesi kapsamında bulunması karşısında, 'uygulamanın sınırlarını, usul ve esaslarını' gösteren bir yasal dayanağının bulunmaması, toplanan verilerin ileride başka bir şekilde kullanılmayacağına dair bir güvencenin mevcut olmaması göz önüne alındığında, temel haklar ve Anayasal ilkeler ile uluslararası sözleşme kuralları ile bağdaşmayan dava konusu işlemde hukuka uygunluk bulunmadığı sonucuna varılmıştır."
Sonuç olarak, Türkiye’de de yüz görüntülerinin topluca taranması, saklanması veya veritabanı oluşturulması mevcut mevzuat çerçevesinde hukuken mümkün değildir. Tüzüğün bu yasağı, hem AB’de hem de Türkiye’de mahremiyetin korunması açısından benzer bir yönelim ortaya koymaktadır.
Duygu Analizi (Madde 5(f))
Avrupa Birliği Yapay Zeka Tüzüğünün 5(f) maddesi, iş ve eğitim ortamlarında kişilerin yüz ifadeleri, ses tonu veya beden dili gibi veriler üzerinden duygularını (örneğin öfke, stres, dikkat, neşe ya da yorgunluk) tespit etmeye çalışan yapay zeka sistemlerini yasaklamaktadır. Bu yasak, yalnızca tıbbi teşhis veya kamu güvenliği (örneğin emniyet soruşturması) amacıyla kullanılan sistemler için istisna tanımaktadır.
Bu tür teknolojiler genellikle “duygusal yapay zekâ” (affective AI) adıyla pazarlansa da, bilimsel güvenilirliği son derece tartışmalıdır. Duygular, kültürel, sosyal ve bireysel farklılıklara göre değişen, yüz ifadeleriyle tam olarak ölçülemeyen karmaşık psikolojik durumlardır. Bu nedenle, bireylerin rızası olmadan duygu tespiti yapmak, hem mahremiyet ihlali hem de bilimsel temelin sağlam olmaması açısından ciddi sorunlar doğurabilir.
Avrupa Komisyonu, bu tür uygulamaların özellikle işveren-çalışan veya öğretmen-öğrenci ilişkilerinde güç dengesizliği yaratabileceğini, bireylerin davranışlarını baskı altına alabileceğini vurgulamaktadır.
Örneğin, Amazon’un eski Rekognition yazılımı yüz ifadelerinden duygu tespiti yaptığını iddia etmiş, HireVue adlı platform ise işe alım süreçlerinde adayların mimiklerini değerlendirerek uygunluk puanı vermiştir. Ancak bu sistemlerin doğruluğu ve etikliği yoğun eleştirilere maruz kalmıştır.
Uygulama Örneği:Bir çağrı merkezi, çalışanlarının yüz ifadelerini ve göz hareketlerini izleyerek “dikkat seviyesi” veya “motivasyon puanı” hesaplar. Sistem, çalışanlara “yorgun görünüyorsun, mola al” ya da “gülümsemiyorsun, müşteri memnuniyeti düşer” gibi yönlendirmelerde bulunursa, bu uygulama madde 5(f) kapsamında yasaktır.
Uygulama Örneği:Bir okul, sınıf kameraları aracılığıyla öğrencilerin yüz ifadelerini analiz ederek “derse ilgisiz” veya “dikkati dağılmış” öğrencileri tespit eder ve bu verilere göre disiplin puanlaması yaparsa, bu da aynı yasağın kapsamına girer.
Bu yasaklayıcı düzenlemenin temelinde, duyguların yüz ifadelerinden ölçülebilirliğine dair bilimsel kuşkular ve bu teknolojilerin bireyler üzerinde yaratabileceği psikolojik baskı yer almaktadır. Türkiye’de şu anda iş yerlerinde veya okullarda çalışanların ya da öğrencilerin duygularını analiz eden bilinen bir sistem bulunmamaktadır.
Biyometrik Veriye Dayalı Hassas Özel Nitelikli Kategorizasyon (Madde 5(g))
AB Yapay Zeka Tüzüğü, bireylerin biyometrik verilerinden (örneğin yüz görüntüsü, ses, yürüme biçimi gibi veriler) ırk, dini inanç, siyasi görüş veya cinsel yönelim gibi hassas özel nitelikli kişisel bilgilerin tahmin edilmesini kesin olarak yasaklamaktadır. Bu yasak, hem bilimsel olarak hatalı sonuçlar doğuran hem de ayrımcılık riskini derinleştiren sistemleri önlemeyi amaçlar.
Örneğin, bir yapay zeka sisteminin yüz hatlarından “bu kişi X etnik kökene mensuptur” ya da “bu kişinin dini Y’dir” şeklinde çıkarım yapması, bireyin özerkliğini ihlal eden ve toplumda damgalama yaratabilecek bir uygulamadır. Avrupa Komisyonu’nun rehberleri, yüz tanıma yoluyla cinsel yönelimi tahmin etmeye yönelik deneysel çalışmaların dahi ağır ayrımcılık riski taşıdığını belirtmektedir.
Türkiye’de de benzer bir koruma yapısı mevcuttur. KVKK Madde 6, ırk, din, sağlık bilgisi veya cinsel hayat gibi verileri özel nitelikli kişisel veri olarak tanımlar ve yalnızca istisnai durumlarda işlenmesine izin verir. Dolayısıyla, Türkiye’de de bir kişinin yüzünden cinsel yönelimini, dini inancını veya siyasi görüşünü yapay zeka yoluyla tahmin etmeye çalışmak, hem KVKK’ya hem de insan haklarına aykırıdır.
Gerçek Zamanlı Uzaktan Biyometrik Tanımlama (Madde 5(h))
AB Yapay Zeka Tüzüğü’nün 5(h) maddesi, gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin (özellikle yüz tanıma teknolojilerinin) halka açık alanlarda kullanılmasını kural olarak yasaklamaktadır. Bu tür sistemler, bireylerin rızası olmaksızın kamusal alanlarda sürekli gözetim altında tutulmasına yol açabileceği için, Tüzük tarafından kabul edilemez bir yapay zeka pratiği olarak değerlendirilmiştir.
Kamuya açık alanlarda, kolluk kuvvetleri tarafından gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin kullanımı, yalnızca aşağıda belirtilen hedeflerden biri için kesin olarak gerekli olduğu ölçüde istisna teşkil eder:
İnsan kaçakçılığı, insan ticareti veya cinsel sömürü mağduru kişilerin hedefli şekilde aranması ya da kayıp kişilerin bulunması,
Kişilerin yaşamına veya fiziksel güvenliğine yönelik belirli, ciddi ve yakın bir tehdidin ya da mevcut veya öngörülebilir bir terör saldırısı tehdidinin önlenmesi,
İlgili Üye Devlet hukukuna göre en az dört yıl hapis cezası veya eşdeğer bir özgürlükten yoksun bırakma yaptırımı öngörülen suçlardan birini işlediğinden şüphelenilen kişinin yerinin tespiti veya kimliğinin belirlenmesi amacıyla yürütülen ceza soruşturması, kovuşturma veya ceza infazı.
Sayılan amaçlardan herhangi biri doğrultusunda, kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin kolluk amaçlı kullanımı yalnızca hedeflenen bireyin kimliğini doğrulamak amacıyla yapılabilir.
Bu durumda ise aşağıdaki unsurlar dikkate alınmalıdır:
Kullanımın gündeme geldiği durumun niteliği, özellikle sistem kullanılmadığı takdirde ortaya çıkabilecek zararın ciddiyeti, ortaya çıkma olasılığı ve kapsamı,
Sistem kullanımının ilgili kişilerin hak ve özgürlükleri üzerindeki etkileri, bu etkilerin ciddiyeti, olasılığı ve kapsamı.
Ayrıca, bu tür sistemlerin kullanımı ulusal hukukta öngörülen gerekli ve orantılı olmalıdır. Bu kapsamda özellikle zaman, coğrafi alan ve kişi bazlı sınırlamalar açıkça belirlenmelidir. Her bir kullanım, sistemin kullanılacağı Üye Devlet’teki bağlayıcı karar yetkisine sahip yargı mercii veya bağımsız idari otorite tarafından verilen önceden alınmış bir izne tabidir. Bu izin, gerekçelendirilmiş bir talep üzerine ve ulusal hukukta öngörülen usuller uyarınca verilebilir.
Ancak acil ve gerekçelendirilmiş hallerde, izin alınmadan sistem kullanılmaya başlanabilir. Bu durumda en geç 24 saat içinde izin talebinde bulunulmalıdır. İzin reddedilirse, sistemin kullanımı derhal durdurulur ve bu kullanımdan elde edilen tüm veriler, sonuçlar ve çıktılar derhal silinir.
Yetkili makam, sistemin kullanılmasının sunulan nesnel kanıtlar veya açık göstergelere dayanarak zorunlu ve orantılı olduğunu, ayrıca süre, yer ve kişi bakımından kesin sınırlara bağlı kaldığını tespit ettiğinde izni verebilir. Sadece sistem çıktısına dayanarak hiçbir kişi hakkında olumsuz hukuki sonuç doğuran bir karar alınamaz.
Uygulama örnekleri:
Polis, olası bir terör saldırısını önlemek amacıyla şehir merkezine yerleştirdiği kameralarla yalnızca belirli bir şüpheliyi tespit etmeye yönelik bir sistem kurarsa, bu istisna kapsamına girer. Ancak, aynı sistemin bütün vatandaşların yüzlerini sürekli taraması yasaktır.
Kayıp bir çocuğun bulunması için, güvenlik kameralarına o çocuğun yüz bilgisi yüklenerek yapılan hedefli arama kabul edilebilir. Buna karşılık, aynı sistemin sürekli şekilde şehirdeki herkesin yüzünü taraması yasaklanmıştır.
Bu düzenleme, “önleyici gözetim” ile “hedefli tanımlama” arasındaki farkı hukuki olarak netleştirmektedir. Tüzük, bireyin anonim kalma hakkını korurken, kamu güvenliği açısından zorunlu hallerde sınırlı bir kullanım alanı tanımaktadır.
Türkiye’de emniyet birimleri son yıllarda yapay zeka destekli yüz tanıma teknolojilerini giderek daha yaygın biçimde kullanmaktadır. Özellikle toplumsal olaylarda veya kamu güvenliği gerekçesiyle yapılan kimlik tespitlerinde bu teknolojilerden yararlanıldığı bilinmektedir. İçişleri Bakanlığı, 2025 yılına kadar polis ekipmanlarının büyük kısmında yüz tanıma yeteneği bulunan kameraların kullanılacağını açıklamıştır.
Ancak Türkiye’de, bu uygulamaları doğrudan düzenleyen açık bir yasal çerçeve bulunmamaktadır. Mevcut durumda yalnızca KVKK, Anayasa’nın kişilik haklarına ilişkin hükümleri ve yukarıda bir örneği verilen yargı kararları (örneğin çalışanların yüz tanıma yoluyla takip edilmesinin hukuka aykırı bulunduğu kararlar) dolaylı koruma sağlamaktadır.
Dolayısıyla, Türkiye’de gerçek zamanlı yüz tanıma teknolojilerinin geniş ölçekli kullanımı, hukuki belirsizlik içindedir ve temel haklar açısından ciddi tartışmalara yol açabilir. AB Yapay Zeka Tüzüğü, bu tartışmayı net kurallara bağlarken, Türkiye’de henüz bu konuda bir düzenleyici çerçeve oluşmamıştır.

.png)


