artwork

Önemli ama göz ardı edilen bir konu: Veri Kalitesi

3 yıl önce

0

Organon Analytics COO’su Emrah Anayurt son zamanlarda kullanım alanı genişleyen yapay zeka ile elde edilen veri kalitesine ve doğru olmayan verilerin doğurabileceği sorunlara dikkat çekiyor.

Artık yapay zekânın kullanım alanının sadece iş problemlerinin çözümüyle sınırlı kalmadığını, sanat eserlerinin üretilmesinde de kullanıldığını görüyoruz. Yapay Zekâ ve sanatı birleştiren öncülerden birinin Refik Anadol olması ise bizim için gurur verici bir durum. 

Kullanım alanının yaygınlaşması ise bir konunun önemini daha fazla ortaya çıkarıyor: Veri kalitesi.

Yapay zekâ algoritmaları, öğrendikleri veri ne kadar doğruysa ancak o kadar iyi çalışabilirler, yanlış veri ile beslenen algoritmalar yanlış sonuçlar üretir; üretilen çıktının bir sanat eseri ya da bir iş kararı olması fark etmez. 

Nasıl bir şirketin doğru iş kararlarını üretmek için doğru veriye ihtiyacı varsa, eminim Refik Bey’in de değerli sanat eserlerini üretmek için doğru veriye ihtiyacı olmuştur. 

Toplanan verilerin büyüklüğü dikkate alındığında, yanlış verilerin üretilmesinin kurumlarda çok sık karşılaşılan bir durum olduğu görüyoruz. Yapılan araştırmalarda Amerika’daki şirketlerin %23’ünün, verilerinin doğruluğuna güvenmediği görülüyor. Bizim tarafımızdan yapılan bir çalışmada ise, eğer yanlış veriler tespit edilmezse, yapay zekâ algoritmaları ile verilen her 10 karardan 4’ünün yanlış olduğunu görüyoruz. 

Bu durumun yol açtığı problemleri ise aşağıdaki gibi özetleyebiliriz. 

  1. Veri ve yapay zekâ uygulamalarına olan güvenin azalması: Yanlış üretilen sonuçlar, yapay zekâ uygulamalarının hayata geçirilmesinin önündeki en önemli engellerden biri olarak görülüyor. Gartner tarafından yapılan bir araştırmada kurumların %34’ü veri kalitesi problemini, yapay zekâ uygulamalarını hayata geçirmenin önündeki engellerden biri olarak görüyor.
  2. Gelir kaybı: Yanlış veri sonucunda üretilen yanlış kararların firmalara yüksek maliyeti olabiliyor. Bir bankanın onaylamaması gereken bir krediyi onaylaması ya da bir e-ticaret sitesinin müşterisine hiç ilgisi olmayan ürünleri önermesini, gelir kaybı örnekleri olarak sayabiliriz. 
  3. İtibar kaybı: Yanlış veri dolayısıyla müşteri deneyiminde oluşacak eksiklikler, firmaların daha sonra düzeltmekte zorlanacakları itibar kayıplarına neden olabiliyor. Fatura süreçlerinde oluşan hatalar, müşterilerin bazı bilgilerinin kaybolması bunlara örnek olarak verilebilir. 
  4. Verimlilik kaybı: Yanlış veriler sonucunda oluşan kararların insanlar tarafından tekrar gözden geçirilmesi çok fazla zaman alabiliyor. Örneğin; üretilen bir raporda çıkan sonuçların yanlış olması durumunda sorumlu personelin hatayı anlaması ve düzeltilmesi gereken verileri tespit etmesi, zorlu ve zaman kaybı oluşturan bir süreç olarak değerlendirilebilir. 

Bütün bunları ele aldığımızda, Organon Analitik olarak veri kalitesi takibinin, yapay zekâ üretme sürecinin ayrılmaz bir parçası olduğunu düşünüyoruz. 

Kural yazarak verilerdeki hataların yakalanamadığını ve bu kuralların yazılmasının çok uzun zaman aldığını biliyoruz. Bu durumu değiştirmek için verileri otomatik olarak takip eden ve veride hata olduğunda uyaran yapay zekâ tabanlı bir veri kalitesi ürünü geliştirdik. Bu ürünle birlikte veri tabanında saklanan veriler otomatik olarak kontrol edilerek yanlış ya da anormal durumlar tespit ediliyor. Böylece artık verilerde oluşan problemlerin %99’unu tespit ederek ve verilerdeki problem tespit süresini günler mertebesinden dakikalar mertebesine indirebiliyoruz. 

Yapay zekâ uygulamalarını hayata geçirecek firmalara önerimiz ise veri kalitesinin takibinin çok önemli bir konu olduğu ve göz ardı edilmemesi gerektiğidir. Fakat çözümü bulunuyor, artık verinin doğruluğunu gözetleyen yapay zekâ algoritmaları var.

Bu yazı ilk kez Campaign Türkiye’nin 110. sayısında yayımlanmıştır.