Sözleşme hazırlamaktan dava dilekçesi yazımına hatta karşılaştırmalı içtihat analizlerine kadar pek çok alanda adalet sistemine verimlilik vaat eden yapay zeka, uzmanlara göre ciddi riskleri de beraberinde getiriyor. Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, "Yapay zekânın hukuk alanında büyük yardımları olabilir. Ama unutmayalım: Adaletin terazisini makineler değil, insanlar tutmalı" diyor.
Prof. Dr. Mehmet Rıfat Tınç'a göre yapay zekanın hukukta doğurabileceği 10 temel sorun ve çözüm önerileri şöyle:
1. Gerekçe Yoksa Adalet Yara Alır: Herhangi bir algoritma bir karara vardığında, bu sonuca sistemin hangi gerekçeyle ulaştığını çoğu zaman göremiyoruz. Oysa hukukta gerekçe esastır. Gerekçe yoksa, adalet de adalet duygusu da yara alır.
Çözüm: Bu doğrultuda alınabilecek en temel önlem, şeffaf ve denetlenebilir algoritmalar dışında başka düzeneklerin kullanılmamasıdır. Yargı mensupları ve bilişimcilerden oluşan ve Adalet Bakanlığı, Hakimler Savcılar Kurulu ya da Yüksek Mahkemelerin her birisine bağlı bir Denetleme Kurul ya da Komitesi, algoritmaların şeffaf şekilde işleyişini ve doğrulanabilir güncellemeleri sürekli inceleyerek sorunlu işlemleri Yapay Zeka Yargısı'ndan (YZY) ayıklamalıdır. Keza 2018'de kurulan Cumhurbaşkanlığı Dijital Dönüşüm Ofisi ve ona bağlı Büyük Veri ve Yapay Zekâ Uygulamaları Dairesi Başkanlığı genel olarak yapay zeka alanında önemli çalışmalar yürümekte. Ancak YZY'yi denetleyecek uzmanlaşmış bir organ ya da kuruluş Türkiye'de henüz yok. Böyle bir organa güzel bir örnek New York Eyaleti Yüksek Mahkemesi nezdinde 2024'te kurulan Mahkemeler ve Yapay Zekâ Görüş Komitesi'dir.

2. Algoritma Önyargıları Büyüterek Yeniden Üretiyor: Eğer yapay zekanın eğitim setlerinde toplumsal cinsiyet ya da etnik kökenle ilgili önyargılar varsa, algoritma bunları büyüterek yeniden üretir. Bu da eşitlik ilkesini zedeler.
Çözüm: Bu konuda da algoritmaları düzenli şekilde denetleyen bağımsız etik kurullar oluşturulmalı, bu kurulların tavsiyeleri YZY'nin eğitim setlerine entegre edilmelidir. Daha önce bahsettiğimiz yargı kurullarından farklı olarak bu "Etik" kurullarda yalnızca yargı mensupları ile bilişimciler değil, toplumun değişik kesimlerinden, çocuk hakları, kadın-erkek eşitliği, hasta hakları gibi kendi alanlarında yetki ve otoritelerini ispat etmiş temsilciler olmalıdır. Önyargılı kararlara karşı eleştiri getirebilecek, denetim yapacak ve tavsiye-kararlar alabilecek bir Yapay Zekâ Yargısı Etik Kurulu gereklidir.
3. Kişisel Verilerin İhlali: Dava dosyaları ve müvekkil bilgileri, yapay zeka ile işlendiğinde gizlilik riski artar. Müvekkilin bilgilerinin korunması, hukuk güvenliğinin temelidir.
Çözüm: Bu alanda Türkiye'de Kişisel Verilerin Korunması Kanunu (KVKK) ve Avrupa Birliği (AB)'de Genel Veri Koruma Tüzüğü (GDPR) gibi mevzuatlar gerekli normları ve standartları bir süredir zaten belirlemekteydi. AB Yapay Zekâ Tüzüğü de 2024 ve 2025'te aşamalı olarak kısmen yürürlüğe girdi ve 2026'da bütün hükümleriyle geçerli hale gelecek. Türkiye'de de KVKK'nın yapay zekâ ve özellikle de YZY açısından uygulanmasını sağlayacak kanun veya yönetmeliklere ihtiyaç vardır. Meta Veri sistemleri, Deep Web veya Dark Web gibi riskli ağ kanallarında, casus uygulamalar da desteklenebileceğinden, KVKK standartlarına uymayan yapay zeka uygulamalarının da yargı kurum, kuruluş ve mensupları ile avukatlar hatta dava taraflarınca bile kullanılması kesinlikle engellenmelidir.
4. Sorumluluk Belirsizliği: Bir hata olduğunda, sorumluluğu kime yükleyeceğiz? Yazılımcıya mı, avukata mı, hâkime mi? Hukukta belirsizlik olmamalı.
Çözüm: Kendi kendine kod geliştirme gücüne sahip süper yapay zekâlar için hukuki sorumluluk meselesine henüz belirli bir çözüm bulunmuş değil. Zincirleme sorumlulukların olduğu davalarda herkes zarara sebep olduğu oranda sorumlu tutulmalıdır. AB Yapay Zekâ Tüzüğü de zaten böyle bir sorumluluk paylaşımı öngörmektedir ki Türk hukuku için de kabaca bu değerlendirmeyi yapabiliriz.
5. Avukatların İş Kaybı Endişesi: Yapay zekâ sözleşme taslaklarını hızlı çıkarabilir. Ama strateji belirlemek, müvekkille iletişim kurmak, adalet duygusunu korumak insana aittir. Yapay zekâ rakip değil, yardımcıdır.
Çözüm: Yapay zeka, hukuk alanında avukatların yerini hiçbir zaman tamamen alamaz. Çünkü hukukun matematiği düz değildir, aritmetik değildir; hukuk yaratıcıdır. Duygu ve düşüncelerin, vicdan, sağduyu ve doğal zekâyla harmanlandığı, karmaşık ve güç sosyal durumlara dengeli ve adil çözümler üretme sanatıdır. Ancak elbette yargı emekçileri özellikle de avukatlar yapay zekayı çok iyi kullanıyor hale gelmeliler.
6. Danışmanlıkta Güven Sorunu: Müvekkiller, yapay zekânın önerilerine tek başına güvenmeyebilir. Hukuki danışmanlık sadece bilgi değil, güven ilişkisidir.
Çözüm: Yapay zekâ çıktılarının güvenilir kabul edilebilmesi için mutlaka bir hukukçunun onayına sunulmaları gerekir. Hatta bazı karmaşık davalarda yapay zekâya uygun soruları uygun şekilde sorabilmek bile en azından lisans seviyesinde hukuk bilgisi gerektirir.
7. Delil Niteliği Belirsizliği: Yapay zekâ analizleri mahkemede delil sayılacak mı? Bu büyük bir tartışma konusu. Delil hukuku, sadece doğrulanabilir ve denetlenebilir verilere izin vermeli.
Çözüm: Yalnızca güvenilir ve denetlenebilir çıktılar delil kabul edilmelidir. Elektronik deliller bugün artık neredeyse tamamen kabul edilseler de bazı durumlarda, özellikle yapay zekâ ile oluşturulmuş deliller doğrulama prosedürlerine tabii bırakılmıştır.
8. Uluslararası Hukukta Çelişkiler: Her ülkenin düzenlemesi farklı. Bir ülkede serbest olan yapay zekâ uygulaması, başka bir ülkede yasak olabilir. Bu, sınır ötesi davalarda karmaşa yaratır.
Çözüm: Yapay zekâ yargısı alanında, özel uluslararası standartlar ve iş birliği mekanizmaları geliştirilmelidir. Avrupa Birliği Yapay Zekâ Tüzüğü bu yönde güzel bir örnek teşkil etmektedir.
9. Etik İkilemler: Adaletin terazisi hassastır. Eğer bu teraziyi makinelere bırakırsak, sadece 'verimlilik' odaklı ama vicdandan uzak kararlar çıkabilir.
Çözüm: Adalet insanın doğrudan vicdan duygusuna bağlıdır. Bu nedenle, adaleti yapay zekâ mahkemelerine ya da makinelere bırakmak adaletin doğasına aykırı olur. Yargıyı ancak insan vicdanı ile güvenilir ve güçlü kılabiliriz. Hukuk için geliştirilen yapay zekâlar bir yandan etik komiteler tarafından denetlenmeli, bir yandan da mutlaka bir insan yönetiminde kalmalıdır. Bir robota vicdan unsurunun entegre edilmesi mümkün değildir.
10. Yanlış Bilgilendirme Riski: Yapay zekâ güncel olmayan verilerle yanlış tavsiyeler verebilir.
Çözüm: Hukuk sadece çok karmaşık değil aynı zamanda çok değişkendir. Bu nedenle özellikle hukuk alanında yapay zeka bilgileri düzenli olarak güncellenmeli ve elbette çıktıların güncelliği uzman hukukçular tarafından sürekli kontrol edilmelidir.