Adaletin Yeni Gücü, Teknoloji Çağında Yargı

  • GİRİŞ18.04.2026 08:54
  • GÜNCELLEME18.04.2026 08:54

Günümüzde devletler, güvenlik ve adalet adına milyarlarca veri topluyor. Kamera görüntüleri, HTS kayıtları, dijital izler, finansal hareketler, sosyal medya etkileşimleri, biyometrik veriler…

Ortaya çıkan şey sıradan bir arşiv değil, insan davranışlarının  devasa haritası.

Sorun, verinin varlığı değil, verinin artık geleceği tarif etmeye başlamasıdır.

‘’Bu noktada adalet, geçmişi tartışan bir mekanizma olmaktan çıkıp, geleceği tahmin eden bir güce dönüşüyor.”

Adaletin Yükü, Algoritmanın Cazibesi

Algoritmalar ise çoğu zaman insan iradesini tam olarak hesaba katmıyor. Ancak milyonlarca veriyi savcıların, hâkimlerin ya da kolluğun  tek tek incelemesi fiilen zor. İşte bu noktada yapay zekâ bir tercih değil, zorunluluk olarak devreye giriyor.

Algoritmalar;

    • Büyük veri kümelerini tarıyor,
    • Şüpheli örüntüleri işaretliyor,
    • Dosyaları önceliklendiriyor,
    • İnsan hatasını azaltıyor.

Teknoloji, adaletin yerine geçmiyor, sadece yükünü taşıyor. “Ancak her yük taşıyan sistem, bir süre sonra yön de tayin etmeye başlar. Kırılma noktası tam da burasıdır.

Algoritmalar Kime Ait?

Adalette kullanılan algoritmalar size ait değilse, milli değilse, entegre edilmemişse;
o sistemden alınan verim ve güvenilir bilgi ne kadar doğru olabilir?

    • Algoritması Milli Olmayan Adalet
    • Algoritma Egemenliği Olmadan 
    • Yabancı Algoritmayla Yerli Adalet Mümkün mü?

Algoritmalar tarafsız değildir.

Çünkü her algoritma, veri seçer, ağırlıklandırır, dışlar ve varsayım kurar.

Eğer adalet sisteminizde kullanılan algoritmalar size ait değilse,

hangi veriyi neden önemsediğini, hangi davranışı neden “Risk” saydığını bilmiyorsanız,

o sistemden çıkan sonuç hızlı olabilir ama güvenli değildir.

Kader Yanılsaması

“Teknoloji adaletin yardımcısı olabilir. Ama kaderin sahibi olamaz.”

Burada çok net bir ayrım yapmak gerekiyor.

İslam’da kader, Allah’ın ilmi.

İnsanı iradesiz bırakmaz, sorumluluğunu ortadan kaldırmaz.

Algoritma ise beşerîdir ve Hesap yapar. Tahmin üretir. Geçmişe bakarak geleceği yazanların amaçları doğrultusunda yönetmeye çalışır.

“Algoritma pişmanlığı ölçemez; tövbeyi tanımaz, değişimi sevmez.

Bu yüzden algoritmanın ürettiği şey kader değil Kaderin yanılsamasıdır. bu yanılsama adalet sistemine hâkim olmaya başladığında, sorunlar başlayabilir.

“Ne Oldu?”dan “Ne Olabilir?”e

Bugün adalet yalnızca “Ne oldu?” diye sormuyor. Ne olabilir?” sorusu da artık masada.
Gelişmiş Ülkelerde Uygulamalar: Fırsatlar ve Riskler

Birleşik Krallık:

Emniyet ve cezaevi sistemlerinde Risk Değerlendirme Sistemleri  OASys kullanılıyor, bu sistem, suç işleme veya yeniden suç işleme olasılığını sayısal risk skorlarına dönüştürüyor. 

Emniyet birimleri, yüzlerce sayıda yüz tanıma özellikli kamera sistemleri ile metropollerdeki insanların davranış analizi, yazılımları ve suç yoğunluğu algoritmalarını kullanarak önleyici güvenlik stratejileri geliştiriyor. 

Müdahaleler, olaydan önce planlanıyor. “Bu sistemde kararlar hâlâ insana aittir; ancak insanın önüne artık ‘önerilmiş’ bir gerçeklik konulmaktadır.”

Almanya ve Fransa:

AI destekli suç analiz araçlarıyla suçun nerede ve ne zaman olabileceğini tahmin etme üzerinde çalışıyor. Avrupa Birliği, aynı zamanda yapay zekâ kullanımında şeffaflık, ayrımcılık yapmama ve temel haklara saygı gibi etik ilkeleri öne çıkaran çerçeveler geliştiriyor. 

ABD:

Ceza adaletinde COMPAS gibi risk değerlendirme yazılımları kullanılıyor. Bu sistemler, tutukluluk ve yeniden suç işleme olasılıklarını tahmin etmek için geçmiş verilere dayanıyor. Ancak bu yazılımlar, verideki önyargıları olduğu gibi öğrenip pekiştirdiği gerekçesiyle eleştiriliyor. 

Her ülke bu teknolojiyi farklı şekilde kullanıyor, ama ortak bir eğilim var: risk değerlendirmesi ve öngörü modelleri, karar mekanizmalarının parçası hâline geliyor. Ancak adil kullanım nasıl olacak sorusunu tam cevaplayamıyor.

İnsan, Olasılığa Dönüştüğünde

Bugün teknoloji yalnızca suçları aydınlatmıyor; insanı da çözümlüyor.

Yazı dili, sosyal çevre, dijital alışkanlıklar, konum hareketleri…

Birey, adım adım davranışsal bir profile dönüşüyor.

Bu profillerden risk puanları üretiliyor.

Eğilimler hesaplanıyor.

Potansiyel tehdit skorları çıkarılıyor.

İnsan artık tekil bir varlık değil; istatistiksel bir ihtimal olarak değerlendiriliyor.

Tam bu noktada masumiyet karinesi sessizce aşınmaya başlıyor.

Çünkü sistem şunu fısıldıyor: “Suçlu olmayabilirsin ama risklisin.”

Güvenlik mi, Özgürlük mü?

Avrupa ülkeleri bu sistemleri aktif biçimde kullanırken yine aynı ülkelerde çok sert tartışmalarla birlikte yürütülüyor.

Özellikle İngiltere ve ABD’de;

    • Algoritmaların azınlıkları daha riskli göstermesi,
    • Geçmiş önyargıları yeniden üretmesi,
    • Masum bireyleri sürekli gözetim altında tutması

Ciddi biçimde eleştiriliyor. Yani mesele teknoloji değil teknolojinin sınırının net olmayışı.

Veriyi Toplamak Kolay, Adil Kullanmak Zor

Savcıların ve hâkimlerin önüne artık sadece tanık ifadeleri değil, grafikler, risk puanları ve algoritmalarla tahmin edilmiş eğilimler geliyor.

Yapay zekâ, bu verileri saniyeler içinde tarıyor, devasa örüntüler çıkarıyor. Bu teknoloji, adalet sistemi için bir lüks değil, gerçek bir ihtiyaç olarak tanımlanıyor. Ancak bu “yardımcı”nın tavsiyeleri hükme dönüşmeye başladığında işin rengi değişebilir.

Gizlilikten Daha Derin Bir Mesele

Bugün illegal “gizlilik bitti” deniyor. VPN’ler, anonimlik, araçları bile artık birer analiz başlığı. Ancak asıl mesele gizlilik değil.

Asıl mesele, sistemin kendini sınırsız görmesi. Devlet güçlü olabilir. Teknoloji güçlü olabilir ama gücü sınırlayan hukuk ve etik yoksa, adalet zarar görebilir. Sınırlandırılmadığı sürece, hızlanan adalet insanı ezen bir mekanizmaya da dönüşebilir.

Türkiye İçin Hayati Denge

Türkiye, kendi yapay zekâ altyapılarına ve kendi algoritmalarına sahip olmalıdır.

Dışa bağımlı sistemlerle adalet yürütmek kolay olmayabilir.

Ancak bu sistemler, Hukukla, Etikle, İnsan iradesine saygıyla gerçekleşebilir.

“Adalet, makinelere devredilemeyecek kadar insanîdir, ve  her zaman vicdana ait olmalıdır”

Ancak makineler yön göstermeye başladığında, insanın sesi ne kadar duyulacak?

Bir insan, suç işlemeden “riskli” olarak değerlendirilebilir mi? Güvenlik için özgürlükten ne kadar vazgeçilebilir? Ve en önemlisi: 

Adaletin son sözü İnsana mı? Yoksa algoritmalara mı? ait olmalıdır ?

Kaynakça:
    1. Harvard Law Review

The Use of Artificial Intelligence in Criminal Justice Systems
    2. Stanford University – Human-Centered AI Institute (HAI)
AI and the Future of the Justice System
    3. European Union Agency for Fundamental Rights (FRA)
Facial Recognition Technology: Fundamental Rights Considerations
    4. UK Home Office
Police Use of Live Facial Recognition Technology
    5. National Institute of Justice (NIJ) – USA
Predictive Policing and Risk Assessment Algorithms

Muzaffer Şafak / Haber7

 

Bu yazıya ilk yorum yapan sen ol

Haber7 Mobil Sayfa Banner'ı Kapat