Site icon Campaign Türkiye

Bir sonraki başkanı seçebilecek algoritmalar

AI chip intelligence technology, deep learning

Araştırmacı Jorge Gracia’nın kaleme aldığı makale, Obama ve Trump kampanyaları ve Macron’a yönelik büyük çaplı e-posta saldırısını örnek göstererek veri biliminin demokratik seçimleri nasıl etkileyebileceği hakkında fikir veriyor.

Franchise, Isaac Asimov’un ilk kez 1955’te bir bilim kurgu dergisinde yayınlanan kısa öyküsüdür. Hikaye ABD’nin, dünyanın en gelişmiş bilgisayarının (Multivac) bir soruyu cevaplandırmak için tek bir kişiyi seçtiği elektronik demokrasiye nasıl geçtiği hakkındadır (seçtiği kişiye birkaç soru sorar ve ardından yanıtları, gerçek bir seçim ihtiyacını ortadan kaldırarak oylamanın sonucunu belirlemek için kullanır).

Bu rahatsız edici geleceğe henüz ulaşmamış olsak da, yapay zeka ve veri biliminin demokratik seçimlerdeki rolü giderek daha önemli hale geliyor. Danimarka’nın Synthetic Party’si Barack Obama ve Donald Trump’ın seçim kampanyaları ve Macron kampanyasından kaynaklanan büyük çaplı veri hırsızlığı iyi örneklerdir.

Duygu analizi

Seçimlerde büyük veri ve sosyal ağ analizi tekniklerini kullanmanın ilk başarılı örneklerinden biri, Barack Obama’nın 2012’deki ABD başkanlık kampanyasıydı. Bu kampanya ve onu takip eden diğer pek çok kampanya, sosyal medya analiziyle desteklenen geleneksel oylama yöntemlerini kullandı.

Bu analitik teknikler, seçmen görüşünü ölçmek için ucuz ve neredeyse gerçek zamanlı yöntemler sunuyor. Duygu analizi gibi nörolinguistik programlama (NLP) teknikleri genellikle tweet’lerdeki, bloglardaki ve diğer çevrim içi gönderilerdeki mesajları analiz etmek ve ifade edilen fikirlerin belirli bir politikacı veya seçim mesajına göre olumlu veya olumsuz olup olmadığını ölçmek için kullanılıyor.

Bu yaklaşımla ilgili temel sorun, örneklemdeki ön yargıdır çünkü en aktif sosyal medya kullanıcıları genç ve teknoloji meraklısı olma eğilimindedir, haliyle bir bütün olarak nüfusu temsil etmez. Teknikler oylama eğilimlerini ve görüşlerini incelemek için çok yararlı olsa da bu ön yargı, seçim sonuçlarını doğru bir şekilde tahmin etme yeteneğini sınırlar.

2016 Trump kampanyası

Sosyal medya duyarlılık analizi rahatsız edici olabilirken, fikir ve oy sonuçlarını etkilemek için kullanıldığında daha da huzur kaçırabilir. En iyi bilinen örneklerden biri, Donald Trump’ın 2016 ABD başkanlığı kampanyasıdır. Büyük veri ve psikografik profil oluşturmanın, geleneksel anketlerin tahmin edemediği bir zaferle bağlantısı büyüktü.

Trump örneği, bir kitle manipülasyonu örneği değildi. Aksine bireysel seçmenler, çeşitli argümanlara duyarlılıkları hakkındaki tahminlere dayalı olarak farklı mesajlar aldı. Genellikle ön yargılı, eksik ve bazen aynı adaydan gelen diğer mesajlarla çelişen bilgiler aldılar. Trump kampanyası, milyonlarca Facebook kullanıcısına ait bilgileri toplarken yakalandıktan sonra dava edilen ve kapanmaya zorlanan Cambridge Analytica ile bunun için sözleşme imzaladı. Cambridge Analytica’nın yaklaşımı, az sayıda sosyal medya beğenisini analiz ederek kapsamlı bir kullanıcı profili geliştirebilen ve Dr. Michal Kosinski tarafından geliştirilen psikometrik yöntemlere dayanıyordu.

Bu yaklaşımdaki sorun, kullanılan teknoloji değil, kampanyaların onu nasıl gizlice savunmasız seçmenlerin duygularına hitap ederek ve botlar aracılığıyla kasıtlı olarak sahte haberler yayarak psikolojik manipülasyon için kullandığıdır. Bu, Emmanuel Macron’un 2017’de Fransa cumhurbaşkanlığı adaylığında, kampanyasının seçimden sadece iki gün önce büyük bir e-posta hırsızlığına maruz kalmasıyla gerçekleşti. E-postalarda açıklanan ve daha sonra yanlış olduğu kanıtlanan suçlara ilişkin iddia edilen kanıtları yaymak için çok sayıda bot kullanıldı.

Siyasi eylem ve hükûmet

Bir başka endişe verici düşünce ise yapay zeka (AI) tarafından yönetilen bir hükûmet olasılığı…

Danimarka’nın son genel seçimlerinde, ülkenin parlamentosunda sandalye arayan Lider Lars adlı bir yapay zeka sohbet robotunun liderliğinde Synthetic Party adlı yeni bir siyasi parti ortaya çıktı. Tabii ki sohbet robotunun arkasında gerçek insanlar var, özellikle MindFuture Vakfı. Lider Lars, ülke nüfusunun hiç oy kullanmayan %20’sine hitap eden bir platform geliştirmek amacıyla 1970’ten beri Danimarka’nın uç siyasi partilerinin tüm siyasi manifestoları konusunda makine eğitimi aldı.

Synthetic Party, ayda yaklaşık 15.000 dolarlık evrensel temel gelir gibi tuhaf fikirlere sahip olsa da, yapay zeka ile yönlendirilen hükûmetin potansiyeli hakkında tartışmayı ateşledi. İyi eğitimli ve kaynaklara sahip bir yapay zeka uygulaması, gerçekten insanları yönetebilir mi?

Şu anda yeni, basit bir ağ mimarisi olan Transformer’ın kullanıma sunulmasının ardından, özellikle doğal dil işleme alanında, baş döndürücü hızda birbiri ardına meydana gelen atılımlar görüyoruz. Metin oluşturmak için eğitilmiş dev yapay nöral ağlar, diğer birçok göreve de kolayca uyarlanabilirler. Bu ağlar, insan dilinin genel yapısını öğrenir ve “okudukları” aracılığıyla bir dünya anlayışı geliştirir.

En gelişmiş ve etkileyici örneklerden biri OpenAI tarafından geliştirilen ChatGPT’dir: Doğal dilde sorulan hemen hemen her soruyu tutarlı bir şekilde yanıtlayabilen bir sohbet robotu. Metin üretebilir ve kullanıcıdan gelen birkaç talimatla eksiksiz bilgisayar programları yazmak gibi karmaşık görevleri gerçekleştirebilir.

Yolsuzluktan etkilenmiyor

Yapay zeka uygulamalarını devlet yönetiminde kullanmanın çeşitli avantajları vardır. Karar verme için veri ve bilgiyi işleme yetenekleri, herhangi bir insanınkinden çok daha üstündür. Teorik olarak, yolsuzluğun etkisinden de etkilenmeyecek ve herhangi bir kişisel çıkarı olmayacak.

Şu anda sohbet robotları yalnızca birisinin onu beslediği bilgiler aracılığıyla tepki verebilir. Gerçekten kendiliğinden düşünemezler veya inisiyatif alamazlar. Günümüzün yapay zeka sistemleri daha çok “eğer şöyle olsaydı ne düşündürdün” sorularına yanıt verebilen araçlar olarak düşünülebilir ancak harekete geçebilme  veya kontrol edebilme yetileri yoktur.

Büyük nöral ağlara dayalı bu tür zekanın potansiyel sorunları ve tehlikeleri üzerine birçok bilimsel çalışma var. Temel sorun, şeffaf olmamaları; bir karara nasıl vardıklarını açıklamıyorlar. Bu sistemler kara kutu gibidir ve kutunun içinde neler olduğunu göremeyiz.

Bu makinelerin arkasında, sistemleri eğitmek için kullandıkları öğrenme metinleri aracılığıyla bilinçli veya bilinçsiz olarak belirli ön yargılar getirebilecek kişiler olduğunu unutmamalıyız. Ayrıca birçok ChatGPT kullanıcısının öğrendiği gibi, AI sohbet botları da yanlış bilgiler ve kötü tavsiyeler verebiliyor.

Son teknolojik gelişmeler bize, “yönetebilme” gibi gelecekteki yapay zeka yeteneklerine dair fikir veriyor. Bir süre sonra tartışma, teknoloji sorularından etik ve sosyal konulara kaymalı.

Jorge Gracia

Araştırmacı

 

Bu içerik ilk olarak Campaign Türkiye’nin 131. sayısında yayımlandı.

Exit mobile version