Öneriler

Salvador Wall-e (?)

Open AI, geçtiğimiz sene GPT-3’ü yayınlandıktan sonra bu sefer de cümleleri tasarımlara dönüştürebilen, DALL-e isimli bir dönüştürücü dil modeli yayınladı.

Algoritma Tarafından Verilen Kararların GDPR’da Yeri

GDPR, kontrolün gittikçe yitirildiği Büyük Veri ve Yapay Zekâ alanlarında veri kullanımını asgari düzeyde tutmayı hedeflese de, eksik kalan noktalar oldukça fazladır.

Makine Öğrenmesinin Hukuka Etkisi

Makine Öğrenimi ("ML") bir hukukçu için nedir? ML, deneyimlerinden öğrenebilen ve dolayısıyla her bir performansında kendini daha fazla geliştiren algoritmaları ifade eder. Bilgisayarların "öğreniyor" olduğu fikri...

XAI Nedir?

Açıklanabilir Yapay Zekâ (Explainable Artificial Intelligence “XAI”), otomatikleştirilmiş sistemlerde kullanılan yöntemleri veya tasarım seçimlerini ifade eder. Böylece Yapay Zeka; özellikle Makine Öğrenimi, insanlar tarafından...

XAI Nedir?

Date

Açıklanabilir Yapay Zekâ (Explainable Artificial Intelligence “XAI”), otomatikleştirilmiş sistemlerde kullanılan yöntemleri veya tasarım seçimlerini ifade eder. Böylece Yapay Zeka; özellikle Makine Öğrenimi, insanlar tarafından açıklanabilen ve anlaşılabilen bir mantığı takip eden çıktılar verir. Sosyal medya ortamlarında algoritmik olarak etkinleştirilmiş karar vermenin yaygın kullanımı, kararda yanlışlıkla kodlanan potansiyel ayrımcılık ve önyargılarla ilgili ciddi endişelere yol açmıştır. Dahası, tıp veya hukukta olduğu gibi yüksek düzeyde hesap verebilirlik ve dolayısıyla şeffaflık olan alanlarda makine öğreniminin kullanılması, çıktıların net bir şekilde yorumlanabilirliğine olan ihtiyacı artırmaktadır. Bir insan operatörünün otomatik karar vermede döngü dışında olabileceği gerçeği insan önyargısının makinenin verdiği sonucun bir parçası olamayacağı anlamına gelmez. Yasal sürecin ve insan muhakemesinin yokluğu, zaten sınırlı olan sorumluluğun kime yükleneceği olgusunu daha da belirsizliğe sürüklemektedir. Çünkü algoritmik olarak yönlendirilen süreçler o kadar karmaşıktır ki sonuçları mühendislik tasarımcıları tarafından bile açıklanamamakta veya öngörülememektedir: bu genellikle AI’da kara kutu (Black Box) sorunu olarak ifade edilmektedir.

Black Box sorunu:

Black Box, Yapay Zekâ’da kullanılan belirsiz sistem olgusunu ifade etmek için kullanılan bir metafordur. Sistem, izleyicinin Black Box’a hangi girdilerin girdiğini veya hangi çıktıların çıktığını gözlemlemesine izin verir. Ancak, matrislerin içindeki değerler açıklanamamakta veya bir izleyici tarafından takip edilememektedir. Bu süreç esasında biraz beyin anatomisinin incelenmesine benziyor. Bilim insanı beynin işlevlerini analiz etse bile düşünce kalıplarını veya bilinçaltının kendisini inceleyemez. Tabii tüm bu muğlaklıktan ve sistemin içinde gerçekte ne olduğunu anlamanın zorluğundan  fenomen Black Box ismini almıştır.

Yapay Zekâ tarafından verilecek kararlara neden güvenilsin ki?

XAI, Yapay Zekâ’ya güven açısından önemli bir adım olabilir. Zira,  karar verme sürecini anlamak, kontrol etmek ve hatta iyileştirmek için  kullanıcılarla mühendisler sistemin arkasındaki mantığı da anlamak zorundadır. Yapay Zekâ sistemlerinin can damarı “veri”dir. Eğer nüfus ırkçı ve ayrımcıysa, insanların sağlamış olduğu veriler de aynı oranda ayrımcı ve ırkçı olma eğilimindedir. Yapay Zekâ veya Otomatik Karar Verme sistemleri debu verilerle beslendiği için verdikleri kararlarda da bozulma tespit edilmektedir. Hukuken bu sistemler tarafından verilen kararların şeffaflığı, adaleti ve güvenilirliği literatürde birçok tartışmaya yol açmış ve tartışmanın nihai galibi belli olmasa da Yapay Zekâ’ların ayrımcı ve ırkçı kararlar alabildiği rahatça gözlemlenmiştir.

Örneğin,

Google’ın Çeviri Algoritmasının cinsiyet ayrımı bulunmayan bir dilde yazılmış bir cümleyi cinsiyet ayrımı olan bir dile çevirirken “doktor” mesleği için erkek cinsiyetini seçerken, “hemşire” mesleği için kadın cinsiyetini seçtiği tespit edilmiştir. Ayrıca, bir görüntü tanıma algoritması da bir Afro-Amerikan çifti “goril” olarak tanımlamıştır. Bir insan tarafından yapılmış olsun ya da olmasın Avrupa İnsan Hakları Sözleşmesi hem doğrudan hem de dolaylı ayrımcılığı yasakladığından, bunlar insan haklarına aykırı kabul edilen ihlallerdir.

Sonuçta:

Güvenilmez kararlar etrafındaki tartışmaları iyileştirmek için “açıklanabilirlik” ilkesi kurtarıcı rolünü benimseyecektir. Verilen kararların arkasındaki matematiksel nedenler açıklansa bile toplum için yeterli bir güvenilirlik ve anlaşılabilirlik sağlamaya yetmeyecektir. Oysa ki  XAI, verilen kararların arkasındaki matematiksel sebebi anlatmak yerine nihai kararı vermesinin arkasında yatan mantığı anlatacaktır. Çünkü toplumun bu sistemlere güvenmesi için mekanizmanın kendisine güvenmesi gerekmektedir.