Wikipedia Yapay Zekadan Kurtulacak
Stephen Harrison
24 Ağustos 2023
Orijinali Görüntüle
Wikipedia, bugüne kadar insanlık tarihinin en büyük ve en çok okunan referans çalışması oldu. Ancak Vikipedi’yi güncelleyen ve bakımını yapan editörler kesinlikle en önde gelen bilgi kaynağı olarak yerinden memnun değiller ve üretken yapay zeka tarafından nasıl yerinden edilebileceği konusunda endişeliler. Sitenin yıllık kullanıcı konferansı olan geçen haftaki Wikimania’da oturumlardan biri “ChatGPT vs. WikiGPT” idi ve etkinlikteki bir panelist, insanların bilgi ihtiyaçları için Vikipedi’yi ziyaret etmek yerine ChatGPT’ye gidiyor gibi göründüklerinden bahsetti. Deneyimli Wikipedi uzmanları ChatGPT’yi varoluşsal bir tehdit olarak nitelendirerek, yapay zeka sohbet robotlarının Wikipedia’nın 2005 yılında Britannica Ansiklopedisi’ni tahtından indirdiği gibi Wikipedia’nın yerini alacağını öngördüler.
Ancak bana öyle geliyor ki, üretken yapay zekanın ellerinde “Wikipedia’nın ölümünün” yakın olduğu söylentileri çok abartılı. Elbette, yapay zeka teknolojisinin uygulanması şüphesiz Wikipedia’nın kullanım şeklini değiştirecek ve kullanıcı deneyimini dönüştürecektir. Aynı zamanda, ChatGPT gibi büyük dil modellerinin veya LLM’lerin özellikleri ve hataları, Vikipedi’yi tehdit etmekten ziyade destekleyen şekillerde insan çıkarlarıyla kesişmektedir.
Bağlam açısından, 2002 yılından bu yana Vikipedi’de yapay zeka ve makine öğrenimi unsurları bulunmaktadır. Vikipedi’deki otomatik botlar, bot politikasında belirtildiği gibi onaylanmalı ve genellikle bir insan tarafından denetlenmelidir. İçerik incelemesi, küfürleri ve “!!!11” gibi ansiklopedik olmayan noktalama işaretlerini tanımlayan ClueBot NG gibi botlar tarafından desteklenmektedir. Bir diğer kullanım alanı ise ansiklopedinin 334 farklı dil versiyonu için içerik sağlamaya yardımcı olan makine çevirisi, yine genellikle insan gözetiminde. Projeyi destekleyen kar amacı gütmeyen kuruluş Wikimedia Vakfı’nda makine öğrenimi direktörü olan Chris Albon, “Günün sonunda, Wikipedi’liler gerçekten çok pratikler – temel özellik bu” dedi. “Vikipedistler 2002’den beri A.I. ve M.L.’yi kullanıyorlardı çünkü onlar için yararlı olacak şekilde zaman kazandırıyordu.”
Başka bir deyişle, botlar Vikipedi için eski bir haber; yeni zorlukları ortaya çıkaran ise site dışı LLM’ler. Bu yılın başlarında, Vikipedistlerin o zamanlar yeni olan ChatGPT ile nasıl boğuştuklarını ve chatbot tarafından oluşturulan içeriğin Vikipedi maddelerini oluşturma sürecinde kullanılıp kullanılmayacağına karar verdiklerini bildirmiştim. O dönemde editörler, LLM’lerin nasıl halüsinasyon gördükleri ve yönlendirmelere sahte alıntılarla tamamlanmış uydurmalarla yanıt verdikleri konusunda anlaşılır bir şekilde endişeliydiler. ChatGPT metnini Vikipedi’ye kopyalayan kullanıcıların projeyi yanlış bilgilerle kirletme riski vardır. Ancak üretken yapay zekanın tamamen yasaklanması hem çok sert hem de çok Luddite -yeni çalışma yöntemlerini tanımada bir başarısızlık- gibi görünüyordu. Bazı editörler ChatGPT cevaplarının bir başlangıç noktası veya iskelet taslağı olarak yararlı olduğunu bildirdiler. Üretken yapay zekanın yasaklanması düşük kaliteli ChatGPT içeriğini Vikipedi’den uzak tutabilirken, insan editörlerin üretkenliğini de azaltabilir.
Bugünlerde Vikipedistler, LLM’lerin projede nasıl kullanılabileceğine ilişkin bir politika taslağı hazırlama sürecindeler. Tartışılan şey esasen bir “dikkat et ve beyan et” çerçevesidir: İnsan editör, bir maddenin herkese açık düzenleme geçmişinde bir LLM kullanıldığını açıklamalı ve LLM içeriğini incelemek ve doğruluğunu sağlamak için kişisel sorumluluk almalıdır. LLM’ler için önerilen politikanın, çoğu Wikipedia botunun bir miktar insan denetimine ihtiyaç duymasına çok benzediğini belirtmek gerekir. Botlarınıza, köpeklerinize ve şimdi de LLM’lerinize tasma takın.
Açık olmak gerekirse, Vikipedi topluluğu, editör arkadaşlarının botları nasıl kullandıkları konusunda yetki sahibidir – ancak harici ajanların Vikipedi’yi nasıl kullandıkları konusunda değil. Bugünlerde, üretici yapay zeka şirketleri internet ansiklopedisinin açık lisansından yararlanıyor. Şimdiye kadar her LLM, Wikipedia’nın içeriği üzerinde eğitildi ve site neredeyse her zaman veri setleri içindeki en büyük eğitim verisi kaynağı oldu.
Wikipedia’nın tüm külliyatını yutmasına rağmen ChatGPT, yanıtlarından biri için bu bilgiyi kullandığında Wikipedia’ya nezaketle atıfta bulunan kibar bir robot türü değil. Tam tersine, chatbot genellikle kaynaklarını hiç açıklamıyor. Eleştirmenler daha fazla şeffaflığı ve chatbotlar açıklanabilir bir yapay zeka sistemi haline gelene kadar itidalli olunmasını savunuyor.
Elbette, LLM’lerin normalde kaynaklarını belirtmemelerinin korkutucu bir nedeni var: yapay zeka her zaman cevabına nasıl ulaştığını bilmiyor. Grotesk benzetmemi mazur görün ama tipik bir LLM’nin bilgi tabanı devasa bir kıl yumağı gibidir; LLM, Wikipedia, Tumblr, Reddit ve diğer çeşitli kaynaklardan aralarında ayrım yapmadan iplikçikler çekebilir. Ve LLM temelde yalnızca bir sonraki cümleyi tahmin etmek üzere programlanmıştır, hak edildiğinde kredi sağlamak için değil.
Özellikle gazeteciler ChatGPT’nin yanıtlarında Wikipedia’ya yer vermemesi konusunda oldukça endişeli görünüyor. New York Times Magazine geçen ay Wikipedia’daki bilgilerin yapay zeka tarafından yeniden kullanılmasının Wikipedia’nın sağlığını nasıl tehlikeye attığını ve insanlara Wikipedia’nın perde arkasındaki önemli rolünü nasıl unutturduğunu anlatan bir yazı yayınladı.
Ancak Vikipedi’ye katkıda bulunanların çoğunun kaynak gösterme konusunda ortalama bir muhabirden daha az endişeli olduğunu hissediyorum. Bir kere Vikipedistler buna alışık: Ne de olsa, LLM’lerden önce Vikipedi’yi kaynak göstermeden kazıyanlar Siri ve Alexa idi. (Yayın zamanı itibariyle, bu akıllı asistanlar “Wikipedia’dan” gibi bir şey söyleyecek şekilde güncellendi.) Daha da temelde, Wikipedia için bilgi derlemede her zaman özgeci bir unsur olmuştur: İnsanlar siteye bilgi eklerken, herkesin bu bilgiyi kendi istediği gibi kullanmasını beklemektedir.
Üretken yapay zeka, gönüllü insan Vikipedistlerin moralini bozmak yerine, onların motivasyon listesine yeni bir neden ekleyebilir: robotları eğitmek için samimi bir arzu. Bu aynı zamanda OpenAI gibi üretici yapay zeka şirketlerinin Vikipedi’nin ChatGPT’nin birincil eğitmeni olarak rolünü sürdürmesini önemsemeleri için bir nedendir. Wikipedia’nın insan eliyle yazılmış bir bilgi kaynağı olarak kalması önemlidir. Artık LLM tarafından oluşturulan içeriğin LLM’leri eğitmek için zehir gibi olduğunu biliyoruz: Eğitim verileri insan tarafından oluşturulmamışsa, LLM’ler ölçülebilir şekilde daha aptal hale gelir. Kendi yemeklerini çok fazla yiyen LLM’ler, özyineleme lanetinin bir belirtisi olan model çöküşüne eğilimlidir.
Wikimedia Vakfı’nın baş ürün ve teknoloji sorumlusu Selena Deckelmann’ın da belirttiği gibi, “dünyanın üretici YZ şirketlerinin, bilgi sistemimizin en kritik unsuru olan orijinal insan içeriği kaynaklarını nasıl sürdürülebilir kılacaklarını ve zaman içinde nasıl büyüteceklerini bulmaları gerekiyor.” Bu ortak ilgi belki de Google.org, Musk Vakfı, Facebook ve Amazon’un Wikimedia Endowment’a bir milyon dolardan fazla bağışta bulunan hayırseverler arasında yer almasının nedenidir – YZ şirketleri Wikipedia’yı insan eliyle yaratılmış bir proje olarak tutmanın kendi çıkarlarına olduğunu fark etmiş görünüyor. (Daha fazla bilgi için, vakıf öncelikle sıradan Wikipedia okuyucuları ve destekçileri tarafından yapılan çok sayıda küçük bağışla destekleniyor, bu da herhangi bir büyük teknoloji şirketinin kar amacı gütmeyen kuruluşun yönü üzerinde çok fazla etki kazanmasından endişe eden bizler için rahatlatıcı).
ChatGPT Wikipedia Maddelerini Yazmak İçin Kullanılmalı mı?
Yapay zeka sohbet robotlarının zayıf yönleri, Vikipedi için yeni kullanım alanlarını da yaygınlaştırabilir. Temmuz ayında Wikimedia Vakfı, ChatGPT’nin genel bilgi sorgularını yanıtlamak için Wikipedia’daki en güncel bilgileri aramasına ve özetlemesine olanak tanıyan yeni bir Wikipedia ChatGPT eklentisi yayınladı. Örneğin, ChatGPT 3.5’e standart haliyle Donald Trump’ın iddianamesini sorarsanız, chatbot bunu bilmediğini çünkü sadece Eylül 2021’e kadar internet üzerinde eğitildiğini söyler. Ancak yeni eklenti ile sohbet robotu güncel olayları doğru bir şekilde özetliyor. Bu örnekte Wikipedia’nın nasıl bir su filtresi gibi çalıştığına dikkat edin: ham LLM’nin musluğuna oturuyor, yanlışlıkları gideriyor ve içeriği hızlandırıyor.
Wikipedia ister eğitim verileri aracılığıyla ister bir eklenti olarak yapay zekaya dahil edilsin, insanların site için bilgi küratörlüğü yapmakla ilgilenmelerini sağlamanın önemli olduğu açıktır. Albon bana düzenleme sürecini daha eğlenceli hale getirmek için LLM’lerden yararlanmaya yönelik birkaç öneriden bahsetti. Topluluk tarafından önerilen bir fikir, LLM’lerin tartışma sayfalarındaki uzun tartışmaları özetlemesine izin vermek, editörlerin sitenin politikalarını araştırdığı makale dışı alanlar. Vikipedi 20 yıldan daha eski olduğu için, bu metin duvarlarından bazıları artık Savaş ve Barış’tan daha uzun. Çok az insanın, bırakın çok yıllık kaynakları, Vikipedi için neyin güvenilir kaynak olarak nitelendirileceği konusunda 2005’ten bu yana yapılan tüm tartışmaları gözden geçirecek zamanı var. LLM, yeni katılımcılardan konuyla ilgili çok yıllık tartışmaları gözden geçirmelerini beklemek yerine, bunları en üstte özetleyebilir. Albon, “Bunun önemli olmasının nedeni, yeni editörleri çekmek, bu kadar göz korkutucu olmamasını sağlamak,” dedi.
CPE Lyon’da bilgisayar bilimleri yardımcı doçenti olan John Samuel, işe aldığı Wikipedia editör adaylarının genellikle başlangıçta zorlandıklarını söyledi. Bir madde için kullanılacak güvenilir kaynaklar bulmak çok emek isteyen bir iş olabiliyor ve Z kuşağı Google arama sonuçları arasında gezinme zahmetine katlanmakta sabırsızlanıyor. Makine tarafından üretilen içerikle dolup taşan bir internet, kaliteli kaynak bulma sürecini daha da sancılı hale getirecektir.
Ancak Samuel, Wikipedia’nın insan editörlerin kaliteli kaynaklar bulmasına yardımcı olan ve altta yatan kaynakların aslında insanın iddia ettiği şeyi ifade ettiğinden emin olmak için iki kez kontrol eden bazı yapay zeka teknolojilerini entegre ettiği umut verici bir gelecek öngörüyor. “Bazı şeyleri erteleyemeyiz. Daha yeni yapay zeka tabanlı araçları entegre etmeyi düşünmeliyiz ki katkıda bulunanların zamanından tasarruf edelim,” diyor Samuel.
A.I.-gloom söyleminde ortak bir tema varsa, o da A.I.’nin insanların işlerini ellerinden alacağıdır. Peki ya gönüllü Wikipedia editörlerinin “işi” ne olacak? Cevap nüanslı. Bir yandan, pek çok tekrarlayan işin (madde kategorileri ekleme, temel biçimlendirme, kolay özetler) otomatikleştirilmesi muhtemel. Öte yandan, Vikipedi’yi düzenleyen insanların işi hiçbir zaman metin yazmak olmamıştır. Daha önemli olan iş her zaman topluluk üyeleri arasındaki tartışmaları, bir kaynağın mı yoksa diğerinin mi daha güvenilir olduğuna dair tartışmaları, ifadelerin temsili mi yoksa yanıltıcı mı olduğuna dair tartışmaları, ansiklopediyi geliştirmek için ortak bir hedefle işbirliği yapmaya çalışmayı içermiştir. Belki de Vikipedi’nin geleceği bu yöne doğru gidiyordur: kibar meşguliyetleri yapay zekaya bırakın, ama söylemi ve anlaşmazlığı – o dağınık, anlamlı, fikir birliği oluşturma işini – insanlara bırakın.