top of page

Yapay Zeka Düzenlemelerinde İngiltere Örneği: Yargı Mensupları İçin Yapay Zeka Rehberi (Ekim 2025)

  • 30 Ara 2025
  • 5 dakikada okunur

İngiltere Yargı Ofisi ("Judiciary UK") tarafından Ekim 2025 tarihinde yayımlanan "Yargı Mensupları İçin Yapay Zeka Rehberi", hukuk pratiğinde üretken yapay zeka ("Generative AI") araçlarının kullanımına ilişkin temel prensipleri ve riskleri ortaya koymaktadır. Söz konusu rehber, teknolojinin yargı süreçlerine entegrasyonunda dikkate alınması gereken asgari standartları belirlemesi bakımından uluslararası hukuk camiası için de emsal teşkil etmektedir.


Aşağıda, rehberde öne çıkan hususlar ve hukuki risk analizleri başlıklar halinde özetlenmiş, metnin sonunda görüş ve değerlendirmelerimize yer verilmiştir.


I. Veri Gizliliği ve Mahremiyetin Korunması Esasları

Rehberde üzerinde en çok durulan husus, gizlilik ve veri güvenliğidir. Halka açık yapay zeka platformlarına (ChatGPT, Gemini vb.) girilen verilerin, söz konusu modellerin eğitimi için kullanılabileceği ve bu verilerin gizliliğinin garanti edilemeyeceği belirtilmiştir.


Bu bağlamda; gizli verilerin, ticari sır niteliğindeki verilerin veya kişisel verilerin halka açık yapay zeka araçlarına girilmesi, bu bilgilerin tüm dünyaya ifşa edilmesiyle eşdeğer görülmektedir. Dolayısıyla kamuya açık alanlarda zaten yer almayan hiçbir bilginin yapay zeka araçlarıyla paylaşılmaması gerektiği belirtilmiştir.


Seçeneğin mevcut olması halinde, kamuya açık yapay zekâ sohbet botlarında sohbet geçmişinin kapatılması gerektiği, mümkün olması halinde verilerin sohbet botunu eğitmek amacıyla kullanılmasının engellenmesi ve 30 gün sonra konuşmaların kalıcı olarak silinmesi diğer gerekliliklerdendir. Bu seçenek halihazırda ChatGPT ve Google Gemini’de mevcuttur, ancak her sohbet botunda bulunmamaktadır.


Bazı yapay zekâ platformları, özellikle akıllı telefonlarda uygulama ("application") olarak kullanıldıklarında, ilgili cihazdaki bilgilere erişim sağlayan çeşitli izinler talep edebilir. Bu tür durumlarda bu izinlerin tamamı reddedilmelidir.


Hukuk profesyonellerinin, sohbet geçmişi silinse dahi girilen verilerin sistem tarafından işlenebileceği ve başka kullanıcıların sorularına yanıt vermek için kullanılabileceği varsayımıyla hareket etmeleri gerektiği vurgulanmıştır. Yapay zeka sistemlerine girilen verilerin sistem tarafından "unutulması" teknik olarak mümkün olmadığından, bu yaklaşımı son derece isabetli bulmaktayız.


Gizli veya özel bilgilerin istemeden ifşa edilmesi hâlinde ise, bağlı bulunulan kıdemli yargı mensubu ve yargı ofisi ile derhal iletişime geçilmelidir. İfşa edilen bilgiler kişisel veri içeriyorsa, bu durum bir veri ihlali olarak bildirilmelidir.


II. Ülkelerin Hukuk Sistemlerindeki Farklılıklar ve "Halüsinasyon" Riski

Yapay zeka modellerinin eğitim setlerinin ağırlıklı olarak Amerikan hukuku içtihatlarına ve literatürüne dayandığı tespit edilmiştir. Bu durumun, İngiliz hukuku veya Kıta Avrupası hukuk sistemine tabi davalarda, yanlış terminoloji kullanımına ve hatalı hukuki çıkarımlara yol açabileceği ifade edilmiştir. Bu noktada aynı durumun Türk yargısı bakımından da geçerli olduğu unutulmamalıdır.


Ayrıca, yapay zekanın gerçekte var olmayan davaları, kanun maddelerini veya içtihatları gerçekmiş gibi sunabildiği (halüsinasyon gördüğü), güncel olmayan mevzuata veya kararlara atıf yapabileceği gerçeği de unutulmamalıdır. Bu sebeple, yapay zeka tarafından üretilen her türlü bilgi teyit edilmeli ve hukuki kaynaklar doğrulanmadan kullanılmamalıdır.


III. Beyaz Metin ("White Text") ve Deepfake Tehdidi

Rehberde, teknolojik manipülasyon yöntemlerine karşı yargı mensuplarının farkındalığının artırılması hedeflenmiştir.


Özellikle şu iki tehdit unsuru ön plana çıkmaktadır:

  1. Beyaz Metin (White Text): Belgelerin içerisine, insan gözüyle görülemeyen (beyaz zemin üzerine beyaz yazı) ancak algoritmalar tarafından okunabilen komutlar yerleştirilmesi suretiyle, belge inceleme sistemlerinin manipüle edilebileceği uyarısında bulunulmuştur.

  2. Deepfake Deliller: Mahkemelere sunulan ses, görüntü ve video kayıtlarının yapay zeka marifetiyle üretilmiş veya tahrif edilmiş olabileceği ihtimaline karşı yargı mensuplarının ve avukatların dikkatli olmaları gerektiği belirtilmiştir.


IV. Şahsi Sorumluluk İlkesi ve Denetim Yükümlülüğü

Rehber bazı yapay zekâ araçlarının, uzun süredir hukuk alanında çalışan profesyoneller tarafından herhangi bir sorun yaşanmaksızın kullanıldığını, hatta hukuk alanı haricinde yapay zekânın birçok halinin de günlük hayatta yaygın olarak var olduğunu kabul etmektedir. Örnek olarak arama motorlarında soruların otomatik tamamlanması veya sosyal medyada kullanıcıya sunulacak içeriğin seçilmesi gösterilebilir. Ancak bu durum hukuk profesyonellerinin sorumluluğunu ve sorumlu yapay zeka kullanımı zorunluluğunu ortadan kaldırmamaktadır.


Tüm hukuki temsilcilerin, mahkeme veya yargı merciine sundukları materyallerden sorumlu olduğu ve sunulan materyallerin doğru ve hukuka uygun olmasını sağlamak bakımından mesleki yükümlülüklerinin olduğunun altı çizilmiştir. Yapay zekâ sorumlu bir şekilde kullanıldığı sürece, hukuki temsilcinin bu kullanıma atıfta bulunması beklenmemektedir, ancak bu durum bağlama göre değişkenlik gösterebilir.


Bununla birlikte, hukuk mesleği bu yeni teknolojilere yeterince aşina olana kadar, zaman zaman avukatlara yükümlülüklerinin hatırlatılması ve bir yapay zekâ sohbet botunun yardımıyla üretilmiş araştırma veya içtihat atıflarının doğruluğunu bağımsız olarak teyit ettiklerinin açıkça doğrulanması gerekebilir.


Özetle yapay zekanın yardımcı bir araç olarak kullanılabileceği kabul edilmekle birlikte, nihai karar vericinin insan olduğu vurgulanmaktadır. Hakimlerin veya avukatların, yapay zeka tarafından üretilen metinlerdeki hatalardan dolayı sorumluluğu teknolojiye yükleyemeyeceği açıkça ifade edilmiştir. Üretilen içeriğin doğruluğunun denetlenmesi ve hukuki analizinin yapılması, kullanıcının şahsi ve mesleki sorumluluğu altındadır.


V. Hukuki Temsilciden Yoksun Taraflar ("Litigants in Person")

Yapay zekâ sohbet botları artık avukat ile temsil edilmeyen kimseler tarafından da kullanılmaktadır. Bazı taraflar için bu araçlar, aldıkları tek danışmanlık veya yardım kaynağı olabilmektedir. Taraflar çoğu zaman yapay zekâ sohbet botları tarafından sağlanan hukuki bilgileri kendi başlarına doğrulayacak becerilere sahip değildir ve bu bilgilerin hataya açık olabileceğinin farkında olmayabilirler.


Bir yapay zekâ sohbet botunun dilekçe veya diğer belgelerin hazırlanmasında kullanılmış olabileceği izlenimi oluşursa, bunun sorulması, doğruluk için hangi kontrollerin yapıldığının sorgulanması ve tarafın mahkeme veya yargı merciine sunduğu her şeyden kendisinin sorumlu olduğunun hatırlatılması gerekmektedir.


VI. Mahkemelerde ve yargı mercilerinde üretken yapay zekânın olası kullanımları ve riskleri


A. Potansiyel olarak faydalı kullanım biçimleri

  • Yapay zekâ araçları, uzun metinleri özetleyebilir. Ancak her özette olduğu gibi, özetin doğru olduğundan emin olmak için dikkatli olunmalıdır.

  • Yapay zekâ araçları, sunumların hazırlanmasında kullanılabilir; örneğin ele alınacak başlıklara ilişkin öneriler sunabilir.

  • İdari görevler yapay zekâ tarafından yerine getirilebilir; buna e-postaların yazılması, özetlenmesi ve önceliklendirilmesi, toplantıların yazıya dökülmesi ve özetlenmesi ile not/memorandum hazırlanması dahildir.


B. Önerilmeyen kullanım biçimleri

Hukuki araştırma: Yapay zekâ araçları, doğruluğunu bağımsız olarak teyit edemeyeceğiniz yeni bilgileri bulmak için zayıf bir yöntemdir. Doğru olduğunu bildiğiniz materyalleri hatırlatma amacıyla sınırlı ölçüde faydalı olabilirler. Ancak nihai metin her zaman güncel hukuki kaynaklarla karşılaştırılarak kontrol edilmelidir.

Hukuki analiz: Mevcut kamuya açık yapay zekâ sohbet botları, ikna edici analiz veya muhakeme üretmemektedir.


C. Bir çalışmanın yapay zekâ tarafından üretilmiş olabileceğine işaret eden göstergeler

  • Tanıdık gelmeyen davalara atıf yapılması veya alışılmadık (bazen ABD kaynaklı) atıf biçimleri,

  • Aynı hukuki mesele bakımından tarafların farklı içtihatlara dayanması,

  • Çıktıların ilgili alandaki genel hukuk anlayışıyla örtüşmemesi,

  • Amerikan İngilizcesi kullanımı veya yabancı ülke içtihatlarına atıf yapılması,

  • Yüzeysel olarak son derece ikna edici ve iyi yazılmış görünen, ancak yakından incelendiğinde açık maddi hatalar içeren çıktılar,

  • Yapay zekâya verilen bir komutun ("promptun") yanlışlıkla metne dahil edilmesi veya “Bir yapay zekâ dil modeli olarak, … yapamam” gibi bir komut reddi ifadesinin metin içinde yer alması.


Sonuç - İngiltere Yargısında Yapay Zeka Kullanımı Rehberi

Söz konusu rehber, yapay zekanın hukuk alanında kullanımını yasaklamamakta, ancak sınırları çizilmiş ve insan denetimine tabi bir kullanım modelini teşvik etmektedir. Hukuk bürolarının ve yargı mensuplarının, teknolojinin getirdiği verimlilikten faydalanırken, meslek etik kurallarından ve veri güvenliği ilkelerinden taviz vermemeleri gerektiği sonucuna varılmıştır.


Rehber avukatlar bakımından bir çeşit yeni nesil özen yükümlülüğü standardı getirmektedir. Rehber incelendiğinde, mesleki sorumluluğumuzun artık sadece hukuki bilgiyi değil, teknolojik okuryazarlığı da kapsayacak şekilde genişlediği görülmektedir.


Rehberin en kritik tespitlerinden biri, yapay zekanın ürettiği metinlerin "ikna ediciliği" ile "doğruluğu" arasında ters orantı bulunabileceğidir. Yapay zeka modelleri, insanı hayrete düşüren bir dilbilgisi yeteneği ve akıcılıkla metin üretebilmektedir. Ancak rehberde vurgulanan "halüsinasyon" riski, bu akıcılığın bir illüzyon olabileceğini göstermektedir.


Kanımızca hukukçular için en büyük tehlikelerden biri, yapay zekanın ürettiği metnin profesyonel görünümüne aldanarak, içerik denetimini ("fact-checking") gevşetmek veya doğrudan yok saymaktır. Gelecekte, yapay zeka tarafından yanıltıldım savunması, mesleki ihmal kapsamında değerlendirilecektir.


Rehber, özellikle "Beyaz Metin" (White Text) ve Deepfake uyarılarıyla, hukuki deliller bağlamında da yeni bir döneme işaret etmektedir. Bir belgenin veya kaydın sadece görünür yüzüne itibar etme devri kapanmıştır. Bu durum, avukatların delil toplama ve sunma süreçlerinde standart prosedürlerini güncellemelerini zorunlu kılmaktadır. Mahkemeye sunulacak dijital verilerin, sadece hukuki açıdan değil, bilişim güvenliği açısından da (metaveri analizi, manipülasyon taraması vb.) incelenmesi çok yakın gelecekte bir zorunluluk haline gelecektir.


Rehberin veri gizliliği konusundaki katı tutumu, hukuk sektöründe herkese açık yapay zeka araçlarının kullanımını zorlaştırmaktadır. Müvekkil mahremiyetinin, avukatın en büyük yükümlülüklerinden biri olduğu ve Rehberin "Sisteme girilen veri dünyaya ifşa edilmiştir" yaklaşımı, hukukçuların üç yoldan birini seçmesini gerekli kılmaktadır:

  1. Yapay zeka kullanımını tamamen bırakmak

  2. Verilerin dışarı sızmadığı, kapalı devre yapay zeka sistemlerine yatırım yapmak

  3. Verilerin yeniden kimliklendirilmesi imkansız olacak şekilde anonimleştirilerek sisteme girilmesi.


Teknoloji ne kadar ilerlerse ilerlesin, adalet insan vicdanına ve muhakemesine muhtaçtır. Yapay zeka bir hukukçu değil, ancak yetkin bir hukukçunun elinde yetenekli bir katip olmalıdır. Yapay zekanın sağladığı hız ve verimlilik, ancak sıkı bir etik ve teknik denetim süzgecinden geçirildikten sonra müvekkil yararına dönüştürülebilir.


temsili yapay zeka

bottom of page