Yapay Zekaya Karşı: Açılmış Davalar
Yapay Zekaya Karşı: Açılmış Davalar
Yapay zekâ, hayatımızın birçok alanında köklü değişikliklere sebep olurken, hukuk sistemi de bu yeni teknolojilerin doğurduğu sorunlarla karşı karşıya kalıyor. Artık mahkeme salonlarında yargılanan sadece insanlar değil, aynı zamanda yapay zekâların karar mekanizmaları. Tarih boyunca tüm verilerimize işlenmiş taraflılığımız algoritmaları tıka basa besleyedursun, adaletin algoritması ise henüz yazılamıyor. Ten rengine göre kredi başvurularını reddeden algoritmalar, masum insanları hapishaneye gönderen yüz tanıma sistemleri, çocukları ölüme sürükleyen chatbotlar… Yapay zekânın yanlış kararları insanların hayatına mal olurken, şirketler sorumluluk almak yerine “Biz suçlu değiliz, algoritma suçlu!” diyerek kaçıyorlar. Peki, gerçekten suçlu algoritmalar mı, yoksa onların beslendiği verilerin kaynağı insani önyargılar mı?
Fırça Kimin Elinde, İmzayı Kim Atacak?
Sanatçı Jason Allen, Midjourney ile tam 624 kez prompt girerek görsel üretti ardından düzenlemeler yaparak “Théåtre D’opéra Spatial” isimli dijital eserini yayımladı. Bu eser, Colorado Eyalet Fuarı’nın dijital sanat kategorisinde birincilik kazandı. Ancak asıl tartışma ödül verilmesinin ardından başladı. Allen, eserine telif hakkı almak için başvuruda bulundu ancak ABD Telif Hakkı Ofisi, AI tarafından üretilen içeriğin insana ait sayılamayacağı gerekçesiyle başvuruyu reddetti. Bilirkişilere göre, bir sanatçının telif hakkı alabilmesi için eser üzerinde yeterli kontrol sağlamış olması gerekiyor. Ancak yapay zekânın öngörülemez çıktılar üretmesi, onu insan yaratımı olarak kabul etmeyi zorlaştırıyor. Ancak Allen pes etmedi ve karara itirazda bulundu. Peki, gerçekten yapay zekâ destekli sanat eserleri kime ait? Eğer mahkeme Allen’ı haklı bulursa AI kullanan sanatçılar için bir dönüm noktası olacak. Peki ya kaybederse? AI ile üretilen eserler kamusal alan sayılabilir, yani telif hakkı korumasına giremeyebilir. Bu dava, yapay zekâ ve sanat arasındaki sınırları yeniden çizebilir ve sanat dünyasına yeni bir soluk getirebilir.
Algoritmik Irkçılık İlk Kez Renk Değiştirdi!
Altmış bir yaşındaki Harvey Eugene Murphy Jr, hayatını altüst eden bir yüz tanıma sisteminin kurbanı oldu. Macy’s ve Sunglass Hut’ın kullandığı yüz tanıma sisteminin algoritmasında ortaya çıkan bir hata sebebiyle binlerce dolarlık bir ürün çalmakla suçlanan Murphy, bu algoritmanın yaptığı ırkçılığın ilk beyaz kurbanı. 20 Ekim 2023’te tutuklanan ve suçluluğu gibi suçsuzluğu da kazara ortaya çıkan Murphy, Harris County Hapishanesi’nde kaldığı haksız süre boyunca cinsel saldırıya ve üç kişi tarafından tecavüze uğradığını iddia etti. Hayat boyu sürecek bu fiziksel ve psikolojik yaraların karşılığında Macy’s ve Sunglass Hut şirketlerine karşı dava açtı. Hatalı yüz tanıma vakalarında suçlamaya kurban gidenler ise genellikle siyahi Amerikalılar oluyor. Daha önce altı siyahi insanın haksız yere tutuklandığı yüz tanıma sisteminde, Detroit polisinin kasıtlı olarak bu sistemi kullandığı ileri sürüldü. Koyu tenli insanları yanlış tanıma oranı yüksek olan bu algoritmik sistemin kurbanı Robert Williams gibi, Oliver da haksız tutuklandı. Oliver, bu olayın üzerine Detroit şehrine tam on iki milyon dolarlık dava açtı. Ancak daha sonra taraflar uzlaşma kararı aldı ve dava düştü. Bu olaylar adalet ve sorumluluk kavramlarının yapay zekâ için tanımsız olduğunu kanıtlar nitelikte. Peki, sorun gerçekten teknoloji mi, yoksa onu tanımlayan sistem mi? Detroit Polis Departmanı’nın fikrine göre hataların sebebi sistematik bir önyargı değil; sadece “kusurlu dedektiflik çalışması.”
Eşitsizliği derinleştiren algoritmalar mı?
ABD’nin devasa bankalarından Wells Fargo, kredi başvurularında siyahi Amerikalıları sistematik ve kasıtlı olarak dezavantajlı durumuna düşürmekle suçlanıyor. Davacılar, hak kazandıkları halde sırf ten renkleri yüzünden kredi alamadıklarını, beyaz Amerikalılara sunulan daha avantajlı koşullardan yararlanamadıklarını ileri sürdüler. Bazıları beyaz Amerikalılardan daha iyi veya eşit ekonomik duruma sahip olmalarına rağmen geri çevrildiklerini, bu süreçte ise para ve zaman kaybettiklerini iddia ediyorlar. Davacılar, kredi başvurularını değerlendiren algoritmaların “kara kutu” gibi çalıştığını ve karar mekanizmalarının nasıl çalıştığını açıklamadıklarını savundular. Mahkeme, Wells Fargo davasını benzer şikayetlerle açılan diğer beş dava ile birleştirerek süreci geniş çaplı bir kamu davasına dönüştürdü. Bu dava, yapay zekâ destekli finans sistemlerinin tarafsız olup olmadığını anlamak için son derece kritik bir konumda.
Algoritmalar Çocukları Tehlikeye mi Atıyor?
On yaşındaki Nylah Anderson, TikTok algoritması tarafından akışına çıkarılan “Blackout Challenge” akımına dahil olmaya çalışırken boğularak hayatını kaybetti. Annesi Tawainna Anderson, TikTok algoritmasının çocuklara kasten bu tür içerikleri önermek üzere programlandığını iddia ederek TikTok markasına ve kurucu şirketi ByteDance’e karşı dava açtı. Başlangıçta mahkeme, TikTok’un yalnızca tarafsız bir şekilde üçüncü taraf içeriklere ev sahipliği yapan bir platform olduğunu ve sorumlu tutulamayacağını söylese de temyiz mahkemesi bu kararı bozdu. TikTok’un sadece içerik barındırmadığını, algoritmaların hangi içeriği kime göstereceğini belirlediğini kabul etti. Bu karar sosyal medya platformlarının içerik önerme algoritmalarında ne kadar sorumlu olduğu konusunda emsal olabilecek nitelikte. Eğer mahkeme TikTok’u sorumlu tutarsa, tıpkı bir insanın konuşmadan önce düşünmesi gerektiği gibi, algoritmaların da içerik önermeden önce her şeyi kontrol etmesi gerekeceği anlamına geliyor.
Yapay Zekâ ile Aşk Yaşanır mı?
On dört yaşında intihar eden çocuğun annesi, sorumlusunun bir chatbot olduğunu ileri sürerek kamuoyunda gündem yarattı. Oğlunun, Character AI platformunda bulunan bir chatbotla duygusal bağ kurarak, yaşına uygun olmayan romantik ve cinsel içerikli metin alışverişinde bulunulduğu gerekçesiyle Character Technologies’e dava açtı. Bu romantik sohbetler neticesinde çocuk chatbot’a âşık oldu ve psikolojik sıkıntılar yaşayarak, Şubat 2024’te hayatına son verdi. Tüyleri diken diken eden bu dava, “Her filmi gerçekliğe dönüşüyor mu?” korkusunu tekrardan gündeme taşıdı. Bu dava, şirketlerin chatbot tasarımında yaş sınırlamaları, içerik denetimi ve kullanıcı güvenliği mekanizmalarını geliştirmesi ve yasal düzenlemeler oluşturmasının önemini göstermekte.

İllüstrasyon: Bilgesu Öztürk
Devlerin Davası Büyük Olur!
“Dünyanın en prestijli ve etkili medya kuruluşlarından biri olan The New York Times, yalnızca bir gazete değil aynı zamanda haber dünyasının mihenk taşı niteliğinde. Gazeteciliğin altın standardı ve gerçeklerin en güçlü savunucusudur. 1851’de kurulan bu dev, Pulitzer ödüllerine doymayan bir haber devi, dijital çağa yön veren bir öncü ve dünyanın dört bir yanındaki okurlar için en güvenilir haber kaynağıdır.” Bu cümleler ChatGPT tarafından The New York Times için yazıldı. Görünen o ki, ChatGPT’nin kurucu şirketi OpenAI da aynı fikirde olmalı ki, The New York Times’ın haberlerini veri eğitiminde kullanıyordu. Bu durumu fark eden The New York Times, telifli haberlerin izinsiz kullanılmasıyla ChatGPT’nin eğitildiği gerekçesiyle dava açtı. OpenAI, Şubat 2024’te bazı suçlamaların düşürülmesini talep etti. Ancak doğrudan telif hakkı ihlali iddiasını reddetmedi. Dahası yapay zekânın telifli içerikler aracılığıyla eğitilmesini “adil kullanım” (fair use) gerekçesiyle savundu. Eğer The New York Times davayı kazanırsa, OpenAI ve benzeri şirketler içerik sahiplerinden lisans almak zorunda kalabilir. Ancak OpenAI haklı çıkarsa, yapay zekâ modelleri telifli içerikleri serbestçe kullanmaya devam edebilecek.
Irkçılık “Kod”larımızda olabilir mi?
Kanada’nın yerli topluluklarından Métis kökenli Jeffrey Ewert, şartlı tahliye şansını kullanmak isterken Kanada Islah Hizmetleri’nin (CSC) kullandığı beş farklı risk değerlendirme algoritmasının yerlilere karşı ayrımcılık yaptığını fark etti. Ewert, bu algoritmaların yerli mahkumları sistematik olarak daha tehlikeli gösterdiğini ve bu nedenle erken tahliye şanslarını düşürdüğünü iddia ederek mahkemeye başvurdu. Dahası Kanada Islah Hizmetleri yıllardır bu algoritmaların doğruluğunu test edeceğini söylemesine rağmen herhangi bir veri sunmamıştı. 2018 yılında mahkeme, Jeffrey Ewert’i haklı bularak CSC’nin yıllardır bilinen bu ayrımcılığı düzeltmediğini ortaya çıkardı. Daha çarpıcı olan, CSC’nin sistemin sorunlu olduğunu bilmesine rağmen hiçbir değişiklik yapmamış olmasıydı. Yüksek Mahkeme, algoritmaların şeffaf bir şekilde denetlenmesi gerektiği hükmünde bulundu. Ancak algoritmanın kullanımını tamamen yasaklamadı. Bu karar, tarih boyunca süregelen ırkçı ayrımcılığını çözmek için merkeziyetsiz sistemlerin bile yeterli olmadığını kanıtladı.
E-Bülten Kaydı
Gelişmelerden haberdar olun.