Birleşik Krallık’ta yaşanan Post Office Horizon skandalı, teknolojinin ürettiği verilere duyulan güvenin sınırlarını yeniden gündeme taşıdı. 1999 yılında devreye alınan Horizon muhasebe sistemi, yazılım hataları nedeniyle postane şubelerinde gerçekte var olmayan finansal açıklar oluşturdu. Bu kayıtlar esas alınarak 900’den fazla postane çalışanı hakkında hırsızlık ve sahte muhasebe suçlamalarıyla işlem yapıldı. Yıllar süren hukuki mücadelenin ardından 2019’da Yüksek Mahkeme, sistemin güvenilir olmadığına hükmetti; çok sayıda dosya yeniden değerlendirilmeye başlandı.
Skandal, bilgisayar çıktılarının sorgulanmadan doğru kabul edilmesinin kurumlar ve hukuk sistemi üzerindeki riskleri gözler önüne serdi.
Olayın ardından dikkatler, Birleşik Krallık hukukunda uzun süredir uygulanan, bilgisayar sistemlerinin düzgün çalıştığını, ürettikleri kayıtların doğru olduğunu varsayan hukuki yaklaşıma yöneldi. British Computer Society (BCS) ve Institute of Directors (IoD), özellikle yapay zekâ ile otomatik karar sistemlerinin yaygınlaştığı son dönemde bu varsayımın yeniden değerlendirilmesi gerektiğini açıkladı. Hazırlanan politika çalışmalarında, yazılımların doğası gereği hataya açık olduğu, veri ve model karmaşıklığı arttıkça bu risklerin de büyüyebileceği ifade edildi. Bu kapsamda dijital delillerin mahkemelerde nasıl ele alınması gerektiğinin Birleşik Krallık Hukuk Komisyonu tarafından incelenmesi önerildi.
Skandal, iş dünyasında da teknoloji kullanımına ilişkin yeni tartışmaları beraberinde getirdi. Institute of Directors, teknolojinin ve yapay zekânın, kurumların temel operasyonlarına giderek daha fazla entegre olması nedeniyle yönetim kurullarında teknoloji okuryazarlığının kritik bir yetkinlik haline geldiğini belirtti. Bazı değerlendirmelerde, özellikle kamu kurumlarında teknoloji risklerini değerlendirebilecek üst düzey teknik uzmanlığın yönetim yapılarında yer almasının önemine vurgu yapıldı.
Benzer bir tartışma, yapay zekâ ve otomasyonun yoğun biçimde kullanıldığı pazarlama alanında da gündemde. Artık algoritmalar; müşteri segmentasyonu, hedefleme, dinamik fiyatlandırma, medya optimizasyonu ve kampanya performans ölçümü gibi süreçlerde belirleyici rol oynuyor. Sektör raporlarında, hatalı veya eksik veri setlerinin yanlış hedefleme ile bütçe dağılımına yol açabileceği, otomatik ölçüm sistemlerindeki hataların ise kampanya sonuçlarının gerçeği yansıtmamasına neden olabileceği belirtiliyor. Ayrıca algoritmik kararların nasıl alındığının açıklanabilirliği, üçüncü taraf platformlara bağımlılık, yapay zekâ ile üretilen içeriklerin doğruluğu da kurumların risk yönetimi gündeminde yer alıyor.
Bu gelişmeler doğrultusunda birçok şirket, yapay zekâ kullanımına yönelik yönetişim politikaları oluşturuyor. İnsan denetiminin süreçte korunması, veri doğrulama mekanizmalarının kurulması, modellerin düzenli olarak test edilmesi öne çıkan uygulamalar arasında yer alıyor.
Horizon skandalı henüz yeni bir yapay zekâ yasası çıkmasına sebep olmadıysa da, dijital sistemlere ve algoritmik çıktılara duyulan güvenin nasıl yönetilmesi gerektiğine ilişkin tartışmaları alevlendirmiş durumda. Yapay zekâ kullanımının hızla arttığı bir dönemde, dijital delillerin değerlendirilmesi, teknoloji risklerinin yönetimi, kurumsal sorumluluk konuları hem hukuk hem iş dünyasının gündeminde yer almaya devam ediyor.

