TBMM Yapay Zekâ Araştırma Komisyonu Raporu Işığında Türkiye'de Yapay Zekânın Mevcut Hukuki Çerçevesi
- 7 Nis
- 11 dakikada okunur
1.GİRİŞ
Türkiye Büyük Millet Meclisi, Ocak 2025'te faaliyete geçen ve dört ay boyunca 119 uzman, akademisyen ve kamu yetkilisinden görüş alan Yapay Zekâ Araştırma Komisyonu'nun çalışmaları sonucunda Mart 2026'da kapsamlı bir rapor yayımlamıştır. Bu raporun dördüncü bölümünün kalbinde, Türkiye'nin henüz yapay zekâya özgü bir mevzuata sahip olmadığı bir dönemde mevcut hukuki araçların ne ölçüde yeterli olduğunu sorgulayan bir analiz yer almaktadır.
Yapay zekânın kişisel verileri her an işleyen, telif hakkı belirsizlikleri yaratan, özerk karar mekanizmaları kuran ve hukuki sorumluluğun kime ait olduğunu muğlaklaştıran bir teknoloji olduğu düşünüldüğünde, bu sorunun yanıtı salt akademik bir egzersizin çok ötesine geçmektedir. Anayasa'dan başlayarak KVKK'ya, Türk Borçlar Kanunu'ndan FSEK'e uzanan geniş bir mevzuat yelpazesi, asıl amacı bu olmasa da yapay zekâ ekosistemini dolaylı biçimde çerçevelemektedir. Komisyon raporu bu gerçeği ayrıntılı biçimde ortaya koymakta; hangi düzenlemelerin işlevsel kaldığını, hangilerinin fiilen uygulanamaz olduğunu ifade etmektedir.
Bu blog yazısında, Komisyon raporunun 4.3 numaralı "Türkiye'de Yapay Zekâ Bağlamında Uygulanabilecek Mevcut Hukuki Çerçeve" başlığına kapsamlı bir hukuki perspektiften bakacağız.
2.Kişisel Verilerin Korunması ve Mahremiyet Boyutu
2.1 Mahremiyetin ve Kişisel Verilerin Korunmasının Tarihsel Gelişimi
Türk hukukunda mahremiyet kavramı; Anayasa'nın 17., 20. ve 22. maddelerinde temel bir insan hakkı olarak güvence altına alınmıştır. Kişisel verilerin korunması ise ilk kez anayasal düzeyde 2010 yılında yapılan değişiklikle 20. maddeye eklenmiştir. Bu tarihten yaklaşık altı yıl sonra yürürlüğe giren 6698 sayılı Kişisel Verilerin Korunması Kanunu (KVKK), Türkiye'nin bu alandaki temel yasal aracını oluşturmaktadır.
Komisyon raporu, KVKK'nın yapay zekâ teknolojileriyle etkileşimini incelerken mahremiyetin iki farklı boyutuna dikkat çekmektedir: bilişsel mahremiyet (düşünsel özerklik) ve veri mahremiyeti (kişisel bilgilerin kontrolü). Bu noktada yapay zekâ sistemlerinin her ikisine de eşzamanlı tehdit oluşturabildiğini belirtmek önemlidir.
2.2 Anayasal Çerçeve
Yapay zekâ sistemlerinin hukuk düzenine entegrasyonunda ilk ve en üst sınır, Türkiye Cumhuriyeti Anayasası’dır. Raporun, yapay zekâ uygulamalarının bireylerin temel hak ve özgürlüklerini ihlal etmemesi gerekliliğini anayasal bir zorunluluk olarak ortaya koymaktadır. Yapay zekâ sistemlerinin geliştirilmesi ve yayılımı, devletin "hukuk devleti" olma niteliğiyle doğrudan ilişkilidir.
Anayasa’nın 2. maddesinde yer alan hukuk devleti ilkesi, idarenin ve özel aktörlerin bireyler üzerindeki her türlü tasarrufunun öngörülebilir, denetlenebilir ve şeffaf olmasını gerektirir. Yapay zekâ algoritmalarının "kara kutu" (black box) olarak nitelendirilen karmaşık yapısı, bu anayasal ilkeyi tehdit etmektedir. Bir algoritmanın neden belirli bir sonucu ürettiğinin anlaşılamaması, bireylerin hak arama hürriyetini kısıtlamaktadır. Bu bağlamda, yapay zekâ sistemlerinin "açıklanabilir" olması, anayasal bir meşruiyet şartı olarak değerlendirilmektedir.
Anayasa’nın 10. maddesinde düzenlenen "Kanun Önünde Eşitlik" ilkesi, yapay zekâ bağlamında en kritik sınavlarından birini vermektedir. Algoritmaların eğitim verilerindeki önyargıları (bias) öğrenerek belirli gruplara yönelik ayrımcı sonuçlar üretmesi, anayasal bir ihlaldir. Rapor, algoritmik ayrımcılığın önlenmesinin sadece teknik bir sorun değil, anayasal bir yükümlülük olduğunu belirtmektedir.
Anayasa'nın 20. maddesinin 3. fıkrası, kişisel verilerin korunmasını doğrudan bir temel hak olarak tanımlamaktadır. Rapor, bu anayasal güvencenin yapay zekâ uygulamaları karşısındaki etkisini şu eksenler üzerinden incelemektedir:
Otomatik veri işleme ve profilleme süreçlerinde anayasal sınırların ne olduğu
Anayasa Mahkemesi'nin bireysel başvuru kararlarında ortaya çıkan standartlar
Kişisel veri ve mahremiyet kavramlarının yapay zekâ tabanlı sistemlerde nasıl yeniden tanımlandığı
Öte yandan Anayasa Mahkemesi kararları, kişisel veriler üzerindeki denetim hakkını yalnızca pasif bir "korunma" hakkı olarak değil, aktif bir öz belirleme hakkı olarak yorumlamaktadır. Bu yorumun yapay zekâ bağlamındaki yansıması, kullanıcıların algoritmik karar alma süreçleri üzerindeki kontrol haklarına dönüşmektedir.
2.3 KVKK'nın Yapay Zekâ Tabanlı Veri İşleme Faaliyetlerine Uygulanması
Rapor, yapay zekâ sistemlerinin veri toplama, işleme ve analiz süreçlerini KVKK çerçevesinde detaylandırmaktadır. Yapay zekâ modellerinin eğitilmesi için ihtiyaç duyulan devasa veri setleri ile bireyin mahremiyeti arasındaki gerilim, mevcut mevzuatın en yoğun biçimde uygulanması gereken alandır.
Komisyon raporu, KVKK'nın yapay zekâ bağlamındaki işlevselliğini dört temel eksen üzerinden değerlendirmektedir:
2.3.1 Amaç, Kapsam ve Veri İşleme İlkeleri
KVKK m.4'te düzenlenen genel işleme ilkeleri (hukuka uygunluk, dürüstlük, doğruluk, belirli/açık/meşru amaç, ölçülülük ve sınırlılık, saklama süresine uyum) yapay zekâ sistemleri tarafından işlenen verilere de uygulanmaktadır. Ancak raporun da altını çizdiği kritik sorun, derin öğrenme modellerinin işlediği veri kümelerinde bu ilkelerin izlenebilirliğinin son derece güç olmasıdır.
Amaç sınırlılığı ilkesi: Yapay zekâ modelleri büyük ölçekli veri setleriyle eğitilirken toplanan verilerin orijinal amacının çok ötesine geçen kullanım alanlarına hizmet edebilmektedir.
Ölçülülük ilkesi: Özellikle büyük dil modellerinin eğitiminde toplanan veri miktarı, ölçülülük denetimiyle büyük bir gerilim yaratmaktadır.
Doğruluk ve güncellik: Model çıktılarında hatalı veya güncel olmayan kişisel verilerin yer alması durumunda veri işleyenlerin yükümlülükleri belirsizleşmektedir.
2.3.2 Veri İşleme Şartları ve Rıza Mekanizmaları
KVKK m.5 ve m.6 çerçevesinde sıralanan veri işleme şartlarından açık rıza, yapay zekâ uygulamalarında özellikle sorunlu bir zemine dönüşmektedir. Komisyon raporu bu bağlamda üç temel sorunu tespit etmektedir:
Aydınlatılmış Rıza: Bir modelin verilerle nasıl öğrendiğinin kullanıcıya anlaşılır biçimde anlatılması teknik olarak son derece güçtür. "Informed consent" standardı fiilen karşılanamamaktadır.
Geri Çekme Hakkı: Eğitim verisine dahil edilen kişisel verinin eğitim sonrasında geri çekilmesi teknik açıdan neredeyse imkânsızdır. Modelden bu verinin "silinmesi" kavramsal bir yanılgıdır.
Özel Nitelikli Veriler: Sağlık, biyometri ve etnik köken gibi özel nitelikli verilerin sağlık uygulamaları veya yüz tanıma sistemleri tarafından işlenmesinde m.6 gereklilikleri fiilen karşılanabilir mi?
Otomatik Karar Alma: KVKK m.11/g bireylere münhasıran otomatik işlemeye itiraz hakkı tanımaktadır; ancak bu hakkın YZ tabanlı karar destek sistemlerine nasıl uygulanacağı hâlâ belirsizdir.
2.3.3 Aydınlatma Yükümlülüğü ve Şeffaflık Sorunu
KVKK m.10 uyarınca veri sorumlusu, kişisel verilerin işlendiğine ilişkin kapsamlı bir aydınlatma yükümlülüğü taşımaktadır. Yapay zekâ sistemleri söz konusu olduğunda bu yükümlülük çeşitli biçimlerde çökmektedir. Çok katmanlı yapay zekâ mimarisinde veri akışının başından sonuna izlenmesi mümkün olmayabilir. Modellerin kararlarını açıklamak için kullanılan XAI (açıklanabilir yapay zekâ) araçlarının hukuki geçerlilikteki statüsü belirsizdir. Aydınlatma metninin makul ve anlaşılır olması gereksinimi ile algoritmik işlemenin karmaşıklığı arasındaki gerilim pratik olarak çözüme kavuşturulamamıştır.
2.3.4 İlgili Kişi Hakları
Komisyon raporu, KVKK m.11'de sayılan ilgili kişi haklarının yapay zekâ karşısındaki durumunu ayrıca incelemektedir. "Unutulma hakkı" bağlamında özellikle şu sorun öne çıkmaktadır: Bir yapay zekâ modeli, belirli bir kişiye ait verilerle eğitildikten sonra o veriler model ağırlıklarına "gömülmüş" hale gelir. Bu noktada teknik olarak gerçek anlamda bir silme işlemi yapılması bugün hâlâ çözüme kavuşturulamamış bir güçlüktür.
KVKK, yapay zekânın eğitim aşamasındaki veri kullanımını kapsamayacak biçimde yorumlanabilmektedir. Veri sorumlusu ile veri işleyen arasında dağılmış sorumluluk yapısı, büyük dil modellerinin bulut tabanlı API olarak sunulduğu senaryolarda fiilen belirsizleşmektedir.
2.3.5 Veri Sorumlularının Olası Ek Yükümlülükleri
Raporun öneriler bölümünde Komisyon, mevcut KVKK çerçevesinin yapay zekâ bağlamında yetersiz kaldığı noktalarda veri sorumlularına ek yükümlülükler tanımlanması gerektiğinin altını çizmektedir. Bu yükümlülükler arasında algoritmik etki değerlendirmesi (Algorithmic Impact Assessment) zorunluluğu, insan denetimi güvencesi ve yüksek riskli yapay zekâ uygulamaları için sertifikasyon gereklilikleri sayılmaktadır.
3.Türkiye'de Veriye İlişkin Genel Hukuki Çerçeve
3.1 Yürürlükteki Veri Düzenlemeleri
Türkiye'de veri yönetimine ilişkin hukuki çerçeve, birbirinden bağımsız ve çoğunlukla farklı amaçlarla oluşturulmuş düzenlemelerden oluşan dağınık bir mimari görünümü sergilemektedir. Komisyon raporu bu mimariyi şu ana başlıklar altında incelemektedir:
Resmî İstatistik Verileri (5429 sayılı TİSTK): TÜİK'in topladığı istatistik verilerin yapay zekâ amaçlı kullanımında hukuki dayanak belirsizliğini korumaktadır.
Coğrafi Bilgi Sistemi Verileri: Kentsel dönüşüm, ulaşım planlaması ve acil müdahale sistemlerinde kritik öneme sahip CBS verilerinin YZ ile işlenmesi ayrı bir mevzuat gereksinimi doğurmaktadır.
Kamu Kurumları Arası Veri Paylaşımı: e-Devlet altyapısı üzerinden yürütülen kurumlar arası veri akışında merkezi bir yetkilendirme mekanizması bulunmamaktadır.
Sektörel Düzenlemeler: Elektronik haberleşme, e-ticaret ve bankacılık alanlarında veri işlemeye ilişkin özgü kurallar mevcuttur. Ancak bu kuralların yapay zekâ uygulamalarına ilişkin yorumu karanlık alanda kalmaktadır.
Veri Yerelleştirmesi: Bankacılık ve telekomünikasyon sektörlerinde uygulanan zorunlu yerel depolama yükümlülükleri, bulut tabanlı yapay zekâ servislerinin kullanımını kısıtlamaktadır.
3.2 Ulusal Veri Yönetişiminin Güçlendirilmesine Yönelik Politika Hedefleri
On İkinci Kalkınma Planı (2024-2028), ulusal veri stratejisini yapay zekâ altyapısının temel direği olarak konumlandırmaktadır. Plana göre 2028 yılına kadar gerçekleştirilmesi öngörülen başlıca hedefler şunlardır:
Ulusal Veri Stratejisi'nin hayata geçirilmesi ve tek bir veri yönetişim çatısı oluşturulması
Kamu verilerine makine tarafından okunabilir formatlarda erişimin genişletilmesi
Sektörler arası veri paylaşım protokollerinin standartlaştırılması
Veri yerelleştirme gerekliliklerinin yeniden değerlendirilmesi
Cumhurbaşkanlığı Dijital Dönüşüm Ofisi, 2024 ve 2025 yıllarına ait Cumhurbaşkanlığı Yıllık Programlarına yansıyan hedefler doğrultusunda merkezi bir veri yönetişim platformunun alt yapısını oluşturmak için çalışmalarını sürdürmektedir.
3.3 Açık Veri, Ulusal Veri Stratejisi ve Veri Yerelleştirme
Komisyon raporu, Türkiye'nin açık veri politikasının AB'nin Veri Tüzüğü ve Açık Veri Yönergesiyle karşılaştırıldığında henüz olgunlaşmış bir düzeyde olmadığını tespit etmektedir. Mevcut data.gov.tr platformunun makine öğrenmesi uygulamaları için gereken veri yoğunluğunu ve güncelleme döngüsünü karşılamadığı vurgulanmaktadır.
Bankacılık, telekomünikasyon ve sağlık sektörlerinde uygulamaya giren yerel depolama yükümlülükleri, bir yandan kişisel verilerin yurt dışına çıkmasını engellerken öte yandan küresel yapay zekâ ekosisteminden yararlanma kapasitesini kısıtlamaktadır. Komisyon, bu paradoksu "veri egemenliği ile teknolojik entegrasyon arasındaki gerilim" olarak tanımlamaktadır.
4.Yapay Zekâ ve Fikri Mülkiyet Hukuku
Komisyon raporu, telif hukuku ile yapay zekâ arasındaki gerilimi üç temel soruda ele almaktadır.
4.1 Fikri Eserlerin Yapay Zekâ Geliştirmek veya Çalıştırmak İçin Kullanılması
5846 sayılı Fikir ve Sanat Eserleri Kanunu (FSEK), yapay zekâ modellerinin eğitim amacıyla telif hakkı kapsamındaki eserleri işlemesi meselesine doğrudan bir yanıt vermemektedir.
Raporun işaret ettiği başlıca hukuki belirsizlikler şunlardır:
FSEK m.35'te düzenlenen serbest kullanım istisnalarının "text and data mining" (TDM) faaliyetlerini kapsayıp kapsamadığı tartışmalıdır. AB Telif Hakkı Direktifi'nin (2019/790) 4. maddesiyle getirilen TDM istisnasının Türk hukukunda bir karşılığı bulunmamaktadır.
Bir yapay zekâ modelinin bir romanı, bir müzik parçasını veya bir görüntüyü eğitim verisi olarak kullanması, eserin çoğaltılması anlamına gelir mi? İçtihat yokluğunda bu soru yanıtsız kalmaktadır.
Eğitim sürecinde eserin "özünün" modele aktarılıp aktarılmadığı, dolayısıyla kullanımın telif ihlaline yol açıp açmadığı belirlenememektedir.
4.2 Yapay Zekâ Çıktıları Üzerindeki Hak Sahipliği
FSEK sistemi eser yaratıcısının gerçek bir kişi olduğu varsayımına dayanmaktadır. Yapay zekânın ürettiği bir müzik parçası, görsel tasarım veya metin üzerinde kimin telif hakkına sahip olduğu sorusu Türk hukuku açısından çözümsüz kalmaktadır.
Komisyon raporu bu noktada şu üç teorik yaklaşımı analiz etmektedir:
Geliştirici teorisi: Yapay zekâ modelini geliştiren şirkete ya da kişiye hak sahipliği tanınması.
Kullanıcı teorisi: Yapay zekâya yönlendirme (prompt) giren ve çıktıyı şekillendiren kullanıcıya hak tanınması.
Kamu malı teorisi: Gerçek bir insan yaratıcılığı bulunmadığında çıktının özgün bir eser sayılmaması ve kamu malına dönüşmesi.
Türkiye'deki mevcut içtihat ve düzenleme eksikliğinde mahkemeler standart normlarla karar vermek durumunda kalacaktır. Bu durum hem hak sahipleri hem de geliştiriciler açısından ciddi bir hukuki belirsizlik ortamı yaratacaktır.
4.3 Yapay Zekâ Modelleri Üzerindeki Hak Sahipliği
Bir yapay zekâ modelinin kendisi fikri mülkiyet korumasından yararlanabilir mi? Model mimarisi, ağırlık parametreleri ve eğitim metodolojisi birer ticari sır olarak korunabilir. Peki FSEK'in bilgisayar programlarına ilişkin hükümleri, derin öğrenme mimarisine uygulanabilir mi? Komisyon raporu bu sorunun yanıtını açık uçlu bırakmakta, ancak bu alanda özel bir düzenleme yapılması gerektiğine ilişkin çağrısını yinelemektedir.
5.Yapay Zekâdan Kaynaklı Sorumluluk
Raporun en kapsamlı hukuki tartışma alanı kuşkusuz sorumluluk meselesidir. Rapor, hem özel hukuk hem de ceza hukuku boyutuyla detaylı bir inceleme sunmaktadır.
5.1 Özel Hukuk Sorumluluğu
Yapay zekâ sistemlerinin otonom veya yarı otonom hareketleri sonucunda bir zararın meydana gelmesi durumunda, bu zararın kime tazmin ettirileceği konusu raporda merkezi bir yer tutmaktadır. Mevcut Türk Borçlar Kanunu, genel olarak kusura dayalı sorumluluk üzerine inşa edilmiştir. Ancak yapay zekânın öngörülemezliği, "kusur" kavramının geleneksel tanımını aşmaktadır.
Türk özel hukukunda yapay zekâdan kaynaklı zararın tazminine ilişkin başvurulabilecek başlıca kaynaklar şunlardır:
Türk Borçlar Kanunu m.49 vd. (Haksız Fiil)
Yapay zekânın verdiği zarar için haksız fiil sorumluluğunun ileri sürülebilmesi, kusur ve illiyet bağı unsurlarının ispatını gerektirmektedir. Kara kutu özelliği taşıyan modellerde kusurun kime atfedileceği ve nedensellik bağının nasıl kurulacağı ciddi ispat sorunlarına yol açmaktadır. Yapay zekâ tarafından gerçekleştirilen bir eylemde, yazılımcının veya kullanıcının "kusurlu" olduğunu kanıtlamak, sistemin kendi kendine öğrenme yeteneği nedeniyle oldukça zordur. Algoritma, geliştiricisinin öngöremediği bir mantık silsilesiyle hata yapmışsa, "uygun illiyet bağı" kesilebilir. Rapor, bu durumun zarar görenin tazminat alma hakkını engellememesi için sorumluluk rejiminde güncellemeler yapılması gerektiğini analiz etmektedir.
Kusursuz Sorumluluk ve Tehlike Sorumluluğu:
Rapor, yapay zekâ sistemlerinin taşıdığı riskler nedeniyle "kusursuz sorumluluk" ve özellikle "tehlike sorumluluğu" kavramlarının uygulanabileceğini öngörmektedir. Eğer bir yapay zekâ sistemi, doğası gereği önemli ölçüde tehlike arz ediyorsa (örneğin otonom araçlar veya endüstriyel robotlar), işleten kişi kusuru olmasa dahi meydana gelen zarardan sorumlu tutulmalıdır. Bu yaklaşım, teknolojiden fayda sağlayan aktörün, bu teknolojinin yarattığı riskleri de üstlenmesi bakış açısında dayanmaktadır.
7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu (ÜGTDK): Yapay zekâ sistemlerinin "ürün" sayılması durumunda üretici sorumluluğu hükümleri devreye girebilir. Ancak yazılım tabanlı yapay zekânın ürün kavramı içine dahil edilip edilemeyeceği hukuki bir tartışma konusudur.
Komisyon raporu, mevcut özel hukuk araçlarının yapay zekâ kaynaklı zararların tazmini için yetersiz kaldığını, özellikle şu alanlarda ciddi boşluklar bulunduğunu tespit etmektedir:
Sorumluluk Zincirinin Kurulması Sorunu: Geliştirici → sağlayıcı → uygulayıcı → kullanıcı zincirinde hangi halkaya sorumluluk yükleneceği belirsizdir.
Algoritmanın Şeffaf Olmaması Sorunu: Yapay zekânın kararının neden o şekilde oluştuğu teknik açıdan izlenemediğinde hukuki ispat standartlarının karşılanması güçleşmektedir.
Kümülatif Zarar Sorunu: Tek bir sistem kararından değil, binlerce müşteriye verilen benzer kararlardan kaynaklanan kümülatif zarar için toplu dava mekanizmaları yetersizdir.
Sınır Ötesi Sorumluluk Sorunu: Yurt dışı kökenli yapay zekâ sistemlerinin Türkiye'de verdiği zararlarda yetkili mahkeme ve uygulanacak hukukun tespiti zorlaşmaktadır.
5.2 Yapay Zekâdan Kaynaklı Cezai Sorumluluk
Ceza hukukunun geleneksel ilkeleri, yapay zekânın aktör olarak yer aldığı suç senaryolarıyla karşılaştığında çeşitli kavramsal güçlükler doğmaktadır. Komisyon raporu bu güçlükleri beş başlık altında ele almaktadır.
5.2.1 Cezai Sonuç Doğurabilecek Yapay Zekâ Teknolojileri
Rapor, cezai sorumluluk açısından özellikle riskli beş uygulama alanını belirlemektedir:
Yüksek Risk- Otonom Araçlar: Örneğin, trafik kazasına yol açan bir otonom aracın yapay zekâ sisteminin cezai yaptırıma muhatap olup olamayacağı Türk Ceza Kanunu'nun mevcut hükümleriyle cevaplanamayan bir sorudur.
Yüksek Risk- Robotik Sistemler: Fabrika ortamında kullanılan endüstriyel robotların kaza yapması durumunda operatör, üretici ve yazılım geliştirici arasındaki ceza sorumluluğunun paylaştırılması sorunludur.
Yüksek Risk- Gözetim ve İzleme Teknolojileri: Yüz tanıma ve kalabalık analiz sistemlerinin özel hayatın gizliliğini ihlal eden kullanımlarında TCK m.134 vd. hükümlerinin uygulanabilirliği sorunludur.
Orta Risk- Finansal Teknoloji Uygulamaları: Algoritmik alım-satım sistemlerinin piyasa manipülasyonuna yol açması durumunda 6362 sayılı Sermaye Piyasası Kanunu'nun yeterliliği tartışmalıdır.
Orta Risk- Sağlık Uygulamaları: Yapay zekâ destekli teşhis sistemlerinin hatalı sonuç üretmesi nedeniyle hastanın zarar görmesi durumunda taksir sorumluluğunun doktorla mı, yazılım geliştiricisiyle mi, hastaneyle mi paylaşılacağı hususu sorunludur.
5.2.2 Ceza Hukukunun Temel İlkeleri Açısından Değerlendirme
Rapora göre kanunilik, şahsilik ve kusur ilkeleri yapay zekâ karşısında test edilmektedir:
Kanunilik İlkesi: Mevcut TCK suç tanımlarının yapay zekâ teknolojileriyle gerçekleştirilen eylemleri kapsayıp kapsamadığı, somut olayda hâkimin yorumuyla belirlenebilecektir. Bu durum hukuki belirlilik ve öngörülebilirlik standartlarıyla örtüşmemektedir.
Şahsilik İlkesi: Cezanın sadece suçu işleyen gerçek kişiye uygulanabileceğine ilişkin bu ilke, yapay zekânın "araç" olarak kullanıldığı dolaylı faillik senaryolarında tam anlamıyla uygulanamamaktadır.
Kusur İlkesi: Kasıt veya taksirin bir yapay zekâ sistemine atfedilmesi mümkün değildir. Ancak geliştirici ya da operatörün gerekli özeni gösterip göstermediği nesnel taksir ölçütüyle değerlendirilebilir.
5.2.3 Yapay Zekânın Hukuki Kişiliği Tartışması
Rapor, yapay zekâya "elektronik kişilik" tanınıp tanınmaması gerektiği sorusunu tartışmakta ve şu tespiti yapmaktadır: Türk hukukunda tüzel kişilerin cezai sorumluluğu zaten sınırlı tutulmuşken, yapay zekâ gibi bir "yarı özerk" aktöre kişilik tanımak mevcut hukuk felsefesiyle çelişmektedir. Komisyon bu konuda temkinli ve ölçülü bir yaklaşım benimsenmesini tavsiye etmektedir.
5.2.4 Üretken Yapay Zekâ İçeriklerinden Sorumluluk
Raporun ayrı bir başlıkla ele aldığı bu mesele günümüzün en güncel hukuki sorunlarından birini oluşturmaktadır.
Büyük dil modelleri aracılığıyla üretilen içerikler bağlamında şu sorunlar öne çıkmaktadır:
Deepfake ses ve video içeriklerinin kişilik haklarını ihlal etmesi durumunda platform, model geliştiricisi ve kullanan kişi arasındaki sorumluluk dağılımı,
Yapay zekânın ürettiği yanıltıcı tıbbi tavsiyeler veya hukuki bilgilerin verdiği zarar için kimin sorumlu tutulacağı,
Yapay zekâ destekli dezenformasyon kampanyalarında aracı sağlayıcıların sorumluluğunun sınırları.
6.GENEL BAKIŞ
Komisyon raporu, 4.3 kapsamındaki analizi tamamladıktan sonra, Türkiye'de yapay zekâya yönelik özgün bir hukuki çerçeve oluşturulması meselesine geçmektedir.
İnovasyonun hukuki engellere takılmaması için, yeni geliştirilen yapay zekâ modellerinin kontrollü bir ortamda ve denetleyici makamların gözetiminde test edilebileceği Sandbox uygulamaları raporun yenilikçi önerileri arasındadır. Bu sayede, mevzuatın yetersiz kaldığı alanlarda "deneme-yanılma" yoluyla en uygun hukuki çözümler üretilebilecektir.
Bu geçiş noktasında tespit edilen başlıca boşluklar ve önerilen müdahaleler şu şekilde özetlenebilir:
6.1 Tespit Edilen Kritik Hukuki Boşluklar
ACİL- Yapay zekâya özgü sorumluluk rejiminin yokluğu: Mevcut borçlar hukuku araçları yetersiz kalmaktadır.
ACİL- Yüksek riskli yapay zekâ uygulamaları için önceden değerlendirme (ex ante) mekanizmasının bulunmaması.
Orta Vadeli- KVKK'nın otomatik karar alma ve profillemeye ilişkin hükümlerinin yapay zekâya özgü biçimde güçlendirilmesi.
Orta Vadeli- Fikri mülkiyet mevzuatında yapay zekâ çıktıları ve eğitim verisi kullanımına ilişkin özel düzenleme.
Uzun Vadeli- Bağımsız bir yapay zekâ koordinasyon ve denetim kurumunun kurulması.
6.2 Türkiye Hangisine Daha Yakın: AB Modeli mi, Özgün Model mi?
Komisyon raporu, Türkiye'nin AB Yapay Zekâ Tüzüğü'ne uyum stratejisini ayrıca değerlendirmektedir. AB Yapay Zekâ Tüzüğü (YZT), risk tabanlı bir yaklaşım benimseyerek dört düzey risk kategorisi (kabul edilemez risk, yüksek risk, sınırlı risk, minimum risk) oluşturmuştur. Türkiye bu modeli doğrudan benimseyebilir ya da özgün koşullarını göz önünde bulundurarak uyarlanmış bir yaklaşım geliştirebilir.
Rapor, AB Tüzüğü'nün doğrudan kopyalanması yerine temel ilkeler açısından uyumlu, ancak Türkiye'nin ekonomik yapısına, yönetim kapasitesine ve teknolojik olgunluk düzeyine göre uyarlanmış bir çerçeve kanun modelini öngörmektedir. Bu model hem AB ile entegrasyonu kolaylaştıracak hem de aşırı bürokratik yük oluşmasının önüne geçecektir.
6.3 Önerilen Temel Düzenleme Başlıkları
Komisyon, raporda sekiz temel düzenleme alanı tespit etmektedir:
Genel Çerçeve Yapay Zekâ Kanunu: Risk sınıflandırması, şeffaflık yükümlülükleri, insan denetimi gereklilikleri ve yüksek riskli sistemler için ön onay mekanizması içeren kapsamlı bir kanun tasarısı.
Uluslararası Platformlara Aktif Katılım: Avrupa Konseyi Yapay Zekâ Çerçeve Sözleşmesi'ne taraf olunması, OECD yapay zekâ ilkelerine bağlılığın pekiştirilmesi.
Yapay Zekâ Koordinasyon Kurumu: Sektörel düzenleyicilerle koordineli çalışacak, bağımsız denetim ve rehberlik işlevini üstlenecek, kamu ve özel sektör arasında köprü kuracak bir kurumsal yapı.
Kamu Yapay Zekâ Politikaları: Her bakanlık için kurumsal YZ yol haritası zorunluluğu ve kamu alımlarında yapay zekâ denetim standartları.
Merkezi Veri Yönetişim Mekanizması: Türkiye Veri Kurumu'nun kurulması, veri merkezleri için yasal altyapı ve kişisel verilerin korunması mevzuatının güncellenmesi.
Fikri Haklar Reformu: Yapay zekâ eğitimi için TDM istisnası, yapay zekâ çıktıları üzerindeki hakların belirlenmesi ve kamu verilerine erişimin kolaylaştırılması.
Sorumluluk Çerçevesi: Hem özel hukuk hem ceza hukuku boyutunda yapay zekâya özgü sorumluluk kurallarının kodifikasyonu.
Vergi Reformu: Yapay zekâ girişimlerini destekleyici vergi teşvikleri, donanım altyapısına yönelik muafiyetler ve nitelikli insan kaynağı için özel istihdam teşvikleri.
7. SONUÇ
TBMM Yapay Zekâ Araştırma Komisyonu'nun Mart 2026'da yayımladığı rapor, bu normatif boşluğun artık görmezden gelinemeyeceğini açık bir dille ortaya koymaktadır.
Raporun 4.3 bölümünde sunulan analiz, mevcut hukuki araçların yapay zekânın yarattığı yeni hukuki gerçeklikleri karşılamakta ne kadar yetersiz kaldığını belgeler niteliktedir. Bununla birlikte rapor, mevcut araçlardan tamamen vazgeçilmesi gerektiğini değil; bu araçların teknolojiye uyarlanmış yorumlarla desteklenmesi ve üzerine inşa edilecek özgün bir çerçeve kanunla tamamlanması gerektiğini savunmaktadır.
Türkiye'nin önünde iki temel seçenek durmaktadır: bekleme stratejisi (AB düzenlemelerinin olgunlaşmasını beklemek ve ardından uyum sağlamak) ya da proaktif strateji (kendi koşullarına özgü bir model geliştirmek ve bunu uluslararası müzakere masasına taşımak). Komisyon raporunun ruhu, ikinci seçeneğe daha yakın görünmektedir.

.png)


