SosyalKafa

YAREN NAZ TALAY çevirdi: “Sosyal medya öneri algoritmaları nasıl nefret yaymaya yardım ediyor?

Sosyal medya öneri algoritmaları nasıl nefret yaymaya yardım ediyor?

 

 

Andrew Tarantola | 05.03.21

                                                  

 

Durum o kadar kötüleşti ki Senato dikkat etmeye başladı.

 

Geçen hafta, Amerika Birleşik Devletleri Senatosu algoritmik önyargı ve amplifikasyonun oluşturabileceği potansiyel tehlikeleri konu alan duruşmalar sırasında birkaç sosyal medya şirketinin genel müdür yardımcılarına ev sahipliği yaptı. Bu toplantı neredeyse hemen partizan eğilimli tribünü andıran ve şikâyet havasına dönüşürken, Demokrat senatörler bir şekilde bu öneri algoritmalarının nasıl çevrimiçi yanlış bilgilendirme ve radikal ideolojilerin yayılmasına yardım edebileceğine odaklanmayı başarabildiler. Sosyal algoritmalar tarafından sunulan sorunlar ve tuzaklar iyi bilinmektedir ve belgelenmiştir. Peki bu konuda ne yapacağız?

 

UC Berkeley CITRIS Politika Laboratuvarı Direktörü Dr. Brandie Nonnecke verdiği bir röportajda, ‘Bu sorunun cevaplanabilmesi için öncelikle kritik bir şeyin olması gerektiğini düşünüyorum: Platformları ve davranışlarını analiz edebilmek için daha fazla bağımsız araştırmacıya ihtiyacımız var. ’dedi. Sosyal medya şirketlerinin ‘platformlarında ne olduğu konusunda daha transparan olmaları gerektiğini bildiklerini düşünüyorum ancak bu şeffaflığın gerçek olması için bu platformların, bağımsız araştırmacılar ve ampirik araştırmalar arasında iş birliği sağlaması gerektiğine de kesin olarak inanıyorum.’

 

Ne yazık ki gerçekleştirebilmekten daha kolay hayal edilebilen bir başarıdan bahsediyorum. ‘Şu anda platformlar, GDPR ve Kaliforniya Tüketici Gizliliği Yasası gibi yeni ,veri gizliliği mevzuatının aşırı geniş bir yorumunu baz alan ve bağımsız araştırmacılara veri gizliliği güvenliğini koruma iddiası kapsamındaki verilere erişim izni verilmediği bir alanda olduklarından bazı sorunlar yaşıyor.’ dedi

 

Harvard Hukuk ve Teknoloji Dergisi’nden Yavar Bathaee’nin tanımladığı gibi, temel kara kutu sorununu – büyük miktarda veriyi içselleştirmiş bir yapay zekanın kararlarını nasıl verdiğini söylemek imkansız olabilir-görmezden gelsek bile bu algoritmaların iç işleyişi genellikle ticari sır olarak kabul edilir.

 

Bathaee, ‘Derin sinir ağları gibi makine öğrenimi algoritmalarına dayanan yapay zekayı anlamak insan beynini anlamak kadar zor olabilir. ’dedi. ‘Bu karmaşık yapay nöron ağlarının karar verme sürecini haritalamanın basit bir yolu yoktur.’

 

Örnek olarak 2016’daki Compas davasını ele alalım. Compas Al, sanığın hayatı ve suç geçmişiyle ilgili bir dizi faktöre ve değişkene dayanarak ceza davalarında hakimlere ceza sürelerini önermek için tasarlanmış bir algoritmadır.2016’da bu yapay zekâ bir Wisconsin mahkemesi yargıcına Eric L Loomis’in ‘bir polis memurundan kaçmak’ suçundan altı yıl hapis cezası ile cezalandırılmasını önerdi. Nedeniyse özel mülkiyet sebepleriydi. Loomis daha sonra, Compas AI’nın karar verme sürecinin opak doğasının anayasal süreç haklarını ihlal ettiğini, çünkü kararlarını ne gözden geçirebileceğini ne de itiraz edebileceğini savunarak devlete dava açtı. Wisconsin Yüksek Mahkemesi sonunda Loomis aleyhine karar verdi ve yapay zekanın yardımı olmasa bile aynı cezayı aldığını belirtti.

 

Ancak Facebook gruplarını öneren algoritmalar, özellikle modern sosyal medyayı istila eden yayılmacı aşırılık söz konusu olduğunda, minimum hapis cezalarını öneren algoritmalar kadar tehlikeli olabilir.

 

Milletvekili Chris Coons (D-Del.) duruşma öncesinde POLITICO’ya yaptığı açıklamada, ‘Sosyal medya platformları, her gün milyarlarca insanın ne okuduğunu, izlediğini, düşündüğünü şekillendiren algoritmalar kullanıyor, ancak bu sistemlerin nasıl çalıştığı ve toplumumuzu nasıl etkilediği hakkında çok az şey biliyoruz. Giderek, bu algoritmaların yanlış bilgilendirmeyi güçlendirdiğini, siyasi kutuplaşmayı beslediğini ve dikkatimizin dağılmasına yönlendirip bizleri izole ettiğini gözlemliyoruz.’dedi.

 

Facebook, nefret gruplarının gönderilerini kaldırmak ve platformunu kullanarak koordinasyonlarını çökertmek için devam eden çabalarını düzenli olarak yayınlarken, şirketin kendi iç raporlaması bile sitedeki aşırıcılığın gelgitini önlemek için neredeyse yeterli çabayı yapmadığını savunuyor.

 

Gazeteci ve Kültür Savaş Lordları yazarı Talia Lavin’in de belirttiği gibi, Facebook’un platformu, nefret gruplarının destekçi toplamasına olanak sağlamıştır. Lavin’in Engadget’a verdiği demeçte ‘Geçmişte bu nefret gruplarının destekçi toplaması, dergiler, silah gösterilerinde veya insanlarla fiziksel alanlara girmeleri gereken konferanslarda yapılan dağıtımla veya mesajlarıyla zaten ilgilenmeleri muhtemel olan insanların caddeleriyle sınırlıydı.” dedi.

 

Öte yandan, Facebook’un öneri algoritmalarının böyle bir sınırlaması yoktur- bilinmeyen anarşinin çekişmeli bir başkanlık seçimi sırasında gerçekleşmesini önlemek için aktif olarak devre dışı bırakıldığı durumlar dışında.

 

Lavin, ‘Kesinlikle son beş yıl içerisinde, aşırıcılıkta tamamen sosyal medya kullanımına bağlı olarak yaygın bir yükseliş gördük ve algoritmaların bu yaygın yükselişteki önemini biliyorum ancak tek etken  algoritmalar değil.’dedi.

 

Lavin, Harvard Üniversitesi Kennedy Hükümet Okulu Araştırma Direktörü Dr. Joan Donovan’ın ifadesini alıntılayarak yerel bağımsız haber ağlarının hızla dağılmasına ve Facebook gibi monolitik bir sosyal medya platformunun yükselişine katkıda bulunan bir faktör olduğuna işaret ediyor.

 

‘Öyle bir platformdan bahsediyoruz ki günlük olarak milyonlara yanlış bilgi verebilmesinin yanında komplo teorileri ve aşırılık yanlısı söylemler sunan bir platforma sahibiz.’diye devam etti. ‘Nerede olduğumuzu baz alan saf bir ölçek olması da aşikardır.’

 

Buna verilebilecek örnekler olarak; öncelikli olarak Facebook’un seçim sonrası ortaya çıkan ve Capitol Hill’in 6 Ocak’taki isyanını körükleyen çevrimiçi bir hareket olan Stop the Steal’e verdiği yanıta bakmak yeterlidir. İç incelemenin keşfedilmesiyle, şirket tehdidi yeterince tanıyamadı veya yanıt olarak uygun önlemleri alamadı. Lavin, Facebook’un yönergelerinin spam, sahte hesaplar, bu nitelikteki şeyler gibi sahte davranışları tespit etmek için yoğun bir şekilde yönlendirdiğini açıkladı.’ ‘Kendi adları altında aşırıcı ve zararlı davranışlarda bulunan insanların otantik faaliyetleri için kılavuzları yoktu.’

 

 

‘Stop the Steal, sosyal medyada aylarca yayılan tırmanışın gerçekten harika bir örneğidir.’ diye de ekledi. Bu komplo teorileri yayıldı, insanları alevlendirip, sonrasında birden fazla şehirde oradan geçenlere ve karşı protestoculara şiddet uygulanan öncül etkinlikler düzenlendi. Ağır silahlarla gelenler olduğu gibi aynı zamanda yine ağır silahlı olan kilitlenme karşıtı protestolar da vardı. Bu aşı karşıtı olan gruplardan beyaz milliyetçilere kadar farklı aşırılık yanlısı grupların çok gerçek bir çapraz tozlaşmasına yol açtı ve bu gruplar birbirleriyle ağ kurdu.

 

Bir Rolodex’ten,  modern teknoloji söz konusu olduğunda , daha gelişmişini aramak büyük ölçüde işe yaramaz olsa da Kongre’nin bazı üyeleri en azından girişimde bulunmaya kararlı.

 

 

Mart ayı sonlarında, bir çift tanınmış Temsilciler Meclisi Demokratı, Anna Eshoo (CA-18) ve Tom Malinowski (NJ-7), “büyük sosyal medya platformlarını çevrimdışı şiddete yol açan zararlı, radikalleştirici içerikleri algoritmik olarak büyütmelerinden sorumlu tutacak” ortak sponsorlu Amerikalıları Tehlikeli Algoritmalardan Koruma Yasası’nı yeniden yürürlüğe koydu.

 

Milletvekili Eshoo yaptığı bir basın açıklamasında; ‘Sosyal medya şirketleri platformlarındaki aşırı ve yanıltıcı içerikleri artırdıklarında, sonuçları 6 Ocak’ta gördüğümüz gibi ölümcül olabilir. Kongre’nin devreye girip bu platformları sorumlu tutmasının zamanı geldi.’ dedi. Bu nedenle, teknoloji şirketlerini kullanıcı tarafından oluşturulan içerikle ilişkili yasal sorumluluktan muaf eden yasa olan Communications Decency Act’in 230. bölümün’de değişiklik yapılmasında Milletvekili Malinowski ile ortak olmaktan gurur duyuyorum, böylece şirketlerin algoritmaları çevrimdışı şiddete yol açan yanlış bilgilere olanak sağlıyorsa şirketler sorumlu tutulabilsin.’

 

Aslında Yasa, algoritmasının “sivil haklara müdahale içeren bir davayla doğrudan ilgili içeriği yükseltmek veya önermek için kullanılması durumunda bir sosyal medya şirketini sorumlu tutacaktır (42 U.S.C.1985); sivil haklara müdahaleyi önlemeyi ihmal etme (42 U.S.C.1986); ve uluslararası terör eylemleri içeren davalarda (18 U.S.C.2333).”

 

 

Eğer bu yasa yürürlüğe girerse, sosyal medya CEO’larını şirketlerin tutumunu gözden geçirmeye zorunlu kılan bir uyarı konuma gelebilir ancak Dr. Nonnecke, bu algoritmaların gerçek dünyada nasıl işlediğini araştırmak için daha fazla araştırmanın yapılması gerektiği konusunda ısrar ediyor. Hatta bu durum gelecekte kanun koyucular için daha etkili teknoloji yasaları hazırlamalarına yardımcı olabilir.

 

 

 

‘Şeffaflık ve hesap verebilirliğe sahip olmanın sadece kamuya değil, platforma da fayda sağladığını düşünüyorum.’ diyor. ‘Platformlar sistemleri üzerine gerçekte neler olduğuna dair daha fazla araştırma olması durumda, bu araştırmalar uygun mevzuat düzenleme platformlarını bilgilendirmek için kullanılabileceği için, federal düzeyde önerilen ve hedefi tamamen ıskalayan bir mevzuat veya düzenlemenin olduğu bir konumda olmak istemezler.’

 

Nonnecke şu şekilde devam etti: ‘Bunun gibi bir iş birliğine örnek olarak, Facebook ve araştırmacılar arasında yapılan Social Science One verilebilir. Algoritmik amplifikasyonla ilgili sorunları ele alabilmek ve ne olup bittiğini daha iyi kavrayabilmek için, daha fazla güvenilir bağımsız araştırmaya ihtiyacımız var.’

 

 Orjinal kaynak

 

 

 

ÇEVİREN: YAREN NAZ TALAY

Erkan Saka

Lecturer @Bilgi_PR; Blogger; Metalhead; BJK Fan; @SosyalKafa Coordinator; Bilgi PRCC Director

Erkan Saka

Lecturer @Bilgi_PR; Blogger; Metalhead; BJK Fan; @SosyalKafa Coordinator; Bilgi PRCC Director

Sosyal Medya Hesaplarımız

İçeriklerimize e-posta ile abone olabilirsiniz

Bu bloga abone olmak ve e-posta ile bildirimler almak için e-posta adresinizi girin.

Diğer 7.474 aboneye katılın

Sosyal Kafa 6. Sezon Tanıtım