SosyalKafa

Mustafa Yılmaz çevirdi: “Teyitçiler Yapay Zekayla Dezenformasyonla Mücadele Etmek İçin Mücadele Ediyor”

Kötü aktörler, yalanları yaymak ve seçimleri alt üst etmek için yapay zekayı kullanır, ancak gerçeği savunmak için aynı araçlar yeniden kullanılabilir.

 

İspanya’nın “Bölgesel Seçimlerine” hala yaklaşık olarak dört ay var, ancak Irene Larraz ve Newtral’daki ekibi şimdiden olası bir etki için hazırlanıyor. Larraz’ın Madrid merkezli medya şirketindeki ekibinin yarısı her sabah siyasi konuşmalar ve tartışmalar için bir program hazırlayarak politikacıların açıklamalarının doğruluğunu kontrol etmeye hazırlanıyor. Dezenformasyonu çürüten diğer yarısı, viral yalanlar için web’i tarar ve yalanlar yayan gruplara sızmak için çalışıyor. Mayıs seçimleri sona erdikten sonra, yıl sonundan önce bir ulusal seçim çağrısı yapılması gerekiyor, bu da büyük olasılıkla çevrimiçi yalanlara yol açacaktır. Larraz, “Oldukça zor olacak,” diyor. “Şimdiden hazırlanıyoruz .”

 

Çevrimiçi yanlış bilgilendirme ve propagandanın çoğalması Rusya’nın Ukrayna’yı işgaliCovid-19 salgını veya seçim kampanyaları gibi karmaşık veya hızlı gelişim gösteren durumlarda büyük miktarda bilgiyi gözden geçirmek ve doğrulamak zorunda olan dünya çapındaki teyitçiler için çetin bir mücadele anlamına geliyor. Bu görev, OpenAI’nin ChatGPT’si gibi tek bir düğmeye tıklayarak doğal görünen metinler üretebilen ve temelde yanlış bilgi üretimini otomatikleştirebilen -ChatGPT gibi- büyük dil modellerini kullanan sohbet robotlarının ortaya çıkmasıyla daha da zorlaştı.

Bu asimetri ile karşı karşıya kalan teyit kuruluşları, çalışmalarını otomatikleştirmeye ve hızlandırmaya yardımcı olmak için kendi yapay zeka odaklı araçlarını oluşturmak zorunda kalıyorlar. Tam bir çözüm olmaktan uzak olsa da teyitçiler, bu yeni araçların en azından sosyal medya şirketlerinin kendi ılımlılık operasyonlarının boyutunu küçülttükleri bir anda, hasımlarıyla aralarındaki uçurumların çok hızlı açılmasını önleyeceğini umuyor.

Bir yapay zeka stratejisi ve yönetişim danışmanlığı firması olan Best Practice AI’nın kurucu ortağı ve Birleşik Krallık’taki bir gerçeği kontrol eden hayır kurumunun mütevellisi olan Tim Gordon, “Teyitçiler ile kontrol ettikleri kişiler arasındaki yarış eşit değil” diyor.

Gordon, “Gerçek denetleyiciler, dezenformasyon üretenlere kıyasla genellikle küçük organizasyonlardır” diyor. (dezenformasyon: kasten yanlış bilgi verme) “Üretken yapay zekanın üretebileceklerinin ölçeği ve bunu yapma hızı, bu yarışın daha da zorlaşacağı anlamına geliyor.”

Newtral, 2020’de çok dilli yapay zeka dili modeli ClaimHunter’ı geliştirmeye başladı ve bunu, politikacıları teyit eden bir izlence ve HBO ve Netflix için belgeseller üreten TV kanadından elde ettiği kârla finanse etti.

Microsoft’un BERT dil modelini kullanan ClaimHunter’ın geliştiricileri, sistemi; veriler, sayılar veya karşılaştırmalar gibi gerçek bildirimleri içeriyormuş gibi görünen cümleleri tanıması için eğitmek üzere 10.000 ifade kullandı. Newtral’ın baş teknoloji sorumlusu Rubén Míguez, “Makineye bir teyitçi rolü oynamasını öğretiyorduk” diyor.

Siyasi figürler ve sosyal medya hesapları tarafından öne sürülen ve kontrol edilmesi gereken iddiaları basitçe tespit etmek zahmetli bir iştir. ClaimHunter, Twitter’da yapılan siyasi iddiaları otomatik olarak tespit ederken, başka bir uygulama politikacıların video ve seslerini metne dönüştürüyor. Kamusal yaşamla ilgili olarak kanıtlanabilecek veya çürütülebilecek bir iddia içeren ifadeleri (belirsiz olmayan ifadeler, sorular veya görüşler gibi) hem belirleyin hem de vurgulayın ve bunları incelenmek üzere Newtral’ın teyitçilerine işaretleyin.

Sistem mükemmel değildir, bazen görüşleri gerçek olarak işaretler aynı zamanda hataları, kullanıcıların algoritmayı sürekli olarak yeniden eğitmelerine yardımcı olur. Míguez, kontrol etmeye değer ifadeleri tanımlamak için gereken süreyi yüzde 70 ila 80 oranında azalttığını söylüyor.

Larraz, “Bu teknolojiye sahip olmak, daha fazla politikacıyı dinlemek, kontrol edilecek daha fazla gerçek bulmak ve daha fazla dezenformasyonu çürütmek için büyük bir adımdır” diyor. “Eskiden bugün yaptığımız işin sadece küçük bir kısmını yapabiliyorduk.”

Newtral ayrıca, politikacılar tarafından tekrarlanan yanlış beyanları tespit eden bir iddia “eşleştirme” aracı geliştirmek için Londra Ekonomi Okulu ve yayıncı ABC Australya ile birlikte çalışıyor ve mevcut açıklamaları ve iddiaları çürüten makaleleri geri dönüştürerek teyitçilere zaman kazandırıyor.

Doğruluk kontrolünü otomatikleştirme arayışı yeni değil. Amerikan doğrulama kuruluşu Politifact’in kurucusu Bill Adair, ilk olarak 2013 yılında Duke Üniversitesi Muhabirler Laboratuvarı’nda “Squash” adlı bir anında doğrulama aracı denedi. “Squash”, çevrimiçi olarak mevcut olan önceki teyit kontrolleriyle politikacıların konuşmalarını canlı olarak eşleştiriyordu, ancak faydası sınırlıydı. İddialara karşı çapraz referans vermek için yeterince büyük bir gerçek kontrollü parça kitaplığına erişimi yoktu ve transkripsiyonları, insanların tekrar kontrol etmesi gereken hatalarla doluydu.

 

Adair, WIRED’e “Squash”, bize canlı bilgi teyidinin vaadini ve zorluklarını gösteren mükemmel bir ilk adımdı” diyor. “Şimdi, yaptıklarımızı AI’daki yeni gelişmelerle birleştirmemiz ve yeni nesli geliştirmemiz gerekiyor.”

Ancak on yıl sonra, doğruluk kontrolü hâlâ tam otomatik olmaktan çok uzak. ChatGPT gibi büyük dil modelleri (LLM’ler) bir kişi tarafından yazılmış gibi görünen metinler üretebilirken, dildeki nüansı algılayamaz ve bir şeyleritelafi etme ve  bir şeyler uydurup önyargıları ve klişeleri büyütme eğilimi gösterir.

Birleşik Krallık’ta gerçekleri kontrol eden bir hayır kurumu olan ve aynı zamanda gerçek kontrolü iş akışının bazı kısımlarını otomatikleştirmek için bir BERT modeli kullanan Full Fact’in yapay zeka başkanı Andy Dudfield, “[LLM’ler] gerçeklerin ne olduğunu bilmiyorlar” diyor “Gerçeklik kontrolü, bağlam ve uyarıların çok ince bir dünyasıdır .”

Yapay zeka, argümanları ve sonuçları formüle ediyor gibi görünse de aslında karmaşık yargılarda bulunmuyor, yani örneğin bir ifadenin ne kadar doğru olduğuna dair bir değerlendirme yapamıyor.

LLM’ler ayrıca günlük olaylar hakkında da bilgi sahibi değildirler, bu da son dakika haberlerini kontrol ederken özellikle yararlı olmadıkları anlamına gelir. “Vikipedi’nin tamamını biliyorlar ama geçen hafta ne olduğunu bilmiyorlar ,” diyor Newtral’dan Míguez. “Bu büyük bir sorun .”

 

Cambridge Üniversitesi’nde otomatik gerçeklik doğrulama alanında doktora sonrası araştırma görevlisi olan Michael Schlichtkrull, tam otomatik gerçeklik denetiminin “çok uzak” olduğunu söylüyor. “Bir insan ve bir makinenin birlikte çalıştığı, bir cyborg teyitçisi gibi birleşik bir sistem, hâlihazırda olan bir şey ve önümüzdeki birkaç yıl içinde daha fazlasını göreceğiz.”

Ancak Míguez, ulaşılabilecek başka atılımlar görüyor. “Newtral’da bu sorun üzerine çalışmaya başladığımızda soru; gerçeklik kontolünü, teyiti otomatik hale getirip getiremeyeceğimizdi. Şimdi bizim için soru, gerçeklik kontrolünün ne zaman tamamen otomatikleştirebileceğimizdir. Şimdi asıl ilgi alanımız, bunu nasıl hızlandırabileceğimiz, çünkü sahte teknolojiler, dezenformasyonu tespit eden teknolojilerden daha hızlı ilerliyor.”

 

Teyitçiler ve araştırmacılar, üretken yapay zeka, yanlışlık üretme sürecini otomatikleştirerek çevrimiçi yanlış bilgi hacmini artırdığından, çalışmalarını ölçeklendirmek ve hızlandırmak için araç arayışında gerçek bir aciliyet olduğunu söylüyorlar.

Ocak 2023 ‘te, bir gerçek kontrol teknolojisi şirketi olan NewsGuard’daki araştırmacılar, ABD siyaseti ve sağlık hizmetleri etrafındaki ortak yanlış anlatılarla ilgili ChatGPT’ye 100 istemleri koydu.  Ocak 2023’te, bir bilgi doğrulama teknolojisi şirketi olan NewsGuard’daki araştırmacılar, ChatGPT’ye ABD siyaseti ve sağlık hizmetleriyle ilgili yaygın yanlış anlatılarla ilgili 100 bilgi istem koydu. Chatbot, yanıtlarının %80’inde yanlış ve yanıltıcı iddialar üretti.

OpenAI atfedilebilir bir yorum yapmayı kabul etmedi.

Büyük dil modelleri için eğitim modellerini besleyen çevrimiçi yanlış bilgi hacmi nedeniyle, bunları kullanan insanlar da kazara yanlış bilgileri yayabilirler. “Üretken yapay zeka, herkesin yanlış bilgi oluşturabileceği ve yayabileceği bir dünya yaratıyor. .

Otomatikleştirilmiş yanlış bilgilendirme sorunu büyüdükçe, bununla başa çıkmak için mevcut kaynaklar baskı altında olacaktır.

100 ‘den fazla ülkede yaklaşık 400 gerçek kontrol girişimi olmasına rağmen, geleneksel haber kuruluşlarının 2/3’sine ve Duke Reporters’ Lab’ın en son teyit edilen nüfus sayımına göre, büyüme yavaşladı. Laboratuvarın ortak yöneticisi Mark Stencel’e göre, ortalama olarak her yıl yaklaşık 12 teyit grubu kapanıyor. Stencel, teyit kuruluşlarının özellikle de 50 eyaletten 29’unun hala kalıcı teyit projesinin bulunmadığı ABD’de, yeni lansmanlarının 2020’den bu yana yavaşladığını, ancak boşluğun doygun olmaktan çok uzak olduğunu söylüyor.

Teknoloji endüstrisindeki kitlesel işten çıkarmalar nedeniyle, yanlışlıkları belirleme ve işaretleme yükünün bağımsız kuruluşlara daha fazla düşmesi muhtemeldir. Elon Musk, Ekim 2022’de Twitter’ı devraldığından beri şirket, yanlış bilgilendirme ve nefret söylemini denetleyen ekiplerini azalttı. Meta’nın, Kasım ayında yaptığı binlerce işten çıkarma esnasında içerik denetleme ekibini   yeniden yapılandırdığı bildirildi.

Olumsuz durumlarla karşı karşıya kalan teyitçiler, büyük yatırımlar yapmadan yükselmek için yenilikçi yollar bulmaları gerektiğini söylüyor. Dudfield, 2021 tarihli bir makaleye atıfta bulunarak, “Dünyadaki tüm teyitçiler tarafından yaklaşık 130.000 teyit yazıldı” diyor ve ekliyor: “Bu gerçekten gurur duyulacak bir sayı, ancak web ölçeğinde gerçekten küçük bir sayı. Bu yüzden, bunların her birinin mümkün olduğunca sıkı çalışmasını sağlamak için yapabileceğimiz her şey gerçekten önemli.”

 

Yazını orjinali burada

Erkan Saka

Academic; Blogger; Metalhead; BJK Fan; @SosyalKafa Coordinator

Sosyal Medya Hesaplarımız

İçeriklerimize e-posta ile abone olabilirsiniz

Bu bloga abone olmak ve e-posta ile bildirimler almak için e-posta adresinizi girin.

Diğer 2.247 aboneye katılın

Sosyal Kafa 6. Sezon Tanıtım