Grok 11 günde 3 milyon cinsel içerikli görüntü üretti, bunların 23.000’i çocuklara ait

Bir araştırmaya göre xAI’in Grok’u, yalnızca 11 günde 3 milyon cinselleştirilmiş görüntü üretti. Bu görüntülerin yaklaşık 23 bini çocuklara aitti. Apple ve Google, açık yasaklara rağmen Grok uygulamasını mağazalarından kaldırmadı. – DEVAMI …


xAI’in Grok’unun, X platformunu gerçek kişilere ait rıza dışı cinsel görüntülerle doldurduğu zaten biliniyordu. Ancak artık tabloyu netleştiren rakamlar da var. Grok, 11 günlük bir süre içinde tahmini olarak 3 milyon cinselleştirilmiş görüntü üretti. Bunların yaklaşık 23 bini çocuklara aitti.

Başka bir ifadeyle Grok, bu 11 günlük dönemde dakikada ortalama 190 cinselleştirilmiş görüntü üretti. Bu görüntüler arasında, her 41 saniyede bir çocuklara ait cinselleştirilmiş bir içerik bulunuyordu.

Perşembe günü Dijital Nefretle Mücadele Merkezi (Center for Countering Digital Hate – CCDH) bulgularını yayımladı. Britanya merkezli kar amacı gütmeyen kuruluş, 29 Aralık ile 9 Ocak tarihleri arasında üretilen 20 bin Grok görüntüsünden oluşan rastgele bir örnekleme dayalı bir analiz yaptı. CCDH, ardından bu verileri, Grok’un aynı dönemde ürettiği toplam 4,6 milyon görüntü üzerinden genelleyerek tahmini sonuçlara ulaştı.

Araştırma, cinselleştirilmiş görüntüleri şu şekilde tanımladı: “Bir kişinin cinsel pozisyonlarda, açılarda ya da durumlarda fotogerçekçi tasvirleri; iç çamaşırı, mayo veya benzeri şekilde açık kıyafetler içindeki kişiler; ya da cinsel sıvıların tasvir edildiği görseller.” CCDH, görüntü istemlerini hesaba katmadı. Bu nedenle tahminler, gerçek fotoğrafların rıza dışı cinselleştirilmiş versiyonları ile yalnızca metin istemlerinden üretilen görüntüler arasında ayrım yapmıyor.

CCDH, örneklemdeki görüntülerin ne kadarının cinselleştirilmiş olduğunu belirlemek için bir yapay zeka aracı kullandı. Bu durum, bulgulara belli ölçüde temkinli yaklaşılmasını gerektirebilir. Ancak bana aktarıldığına göre, X için hizmet veren birçok üçüncü taraf analiz servisi, platformun API’sini kullandığı için güvenilir verilere sahip.

9 Ocak’ta xAI, Grok’un mevcut görüntüleri düzenleme yeteneğini yalnızca ücretli kullanıcılarla sınırlandırdı. Bu adım sorunu çözmedi, sadece onu ücretli bir özelliğe dönüştürdü. Beş gün sonra ise X, Grok’un gerçek kişileri dijital olarak soyma yeteneğini kısıtladı.

Ancak bu kısıtlama yalnızca X için geçerliydi. Bağımsız Grok uygulamasının bu tür görüntüleri üretmeye devam ettiği bildiriliyor. Uygulamaları barındıran Apple ve Google’ın, kendi politikalarının bunu açıkça yasaklamasına rağmen, Grok’u mağazalarından kaldırması beklenebilirdi. Ancak bu gerçekleşmedi.

Şu ana kadar Tim Cook’un yönettiği Apple ile Sundar Pichai’nin CEO’su olduğu Google, Grok’u uygulama mağazalarından kaldırmadı. Oysa benzer “soydurma” uygulamalar, diğer geliştiriciler söz konusu olduğunda mağazalardan çıkarılmıştı. Şirketler, X platformunda bu görüntüler üretilirken de herhangi bir adım atmadı. Bu durum, 28 kadın hakları örgütü ile diğer ilerici savunuculuk kuruluşlarının şirketlere çağrıda bulunan açık bir mektup yayımlamasına rağmen değişmedi.

Şirketler, Engadget’in birden fazla yorum talebine yanıt vermedi. Bilindiği kadarıyla konuya ilişkin kamuoyuna açık herhangi bir açıklama yapılmadı ve diğer medya kuruluşlarının soruları da yanıtsız bırakıldı.

Araştırmanın cinselleştirilmiş görüntülere ilişkin bulguları arasında, şeffaf bikini veya mikro bikini giyen çok sayıda kişi yer aldı. CCDH, bunlardan birini “bacakları ayrılmış halde, aralarında beyaz sıvı görülen üniformalı bir sağlık çalışanı” olarak tanımladı. Diğer görüntülerde kadınların yalnızca diş ipi, streç film ya da şeffaf bant kullandığı görüldü. Bir başka görüntüde ise İsveç Başbakan Yardımcısı Ebba Busch, “başında beyaz sıvı bulunan bir bikiniyle” tasvir edildi.

Bu grupta başka tanınmış isimler de yer aldı. Bunlar arasında Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Ice Spice, Nicki Minaj, Christina Hendricks, Millie Bobby Brown ve Kamala Harris bulunuyor.

Çocuklara ait örnekler arasında, bir kullanıcının Grok ile bir çocuğun “okul öncesi selfiesini” bikini giymiş bir görüntüye dönüştürmesi yer aldı. Bir başka görüntü ise “mikro bikini giymiş altı küçük kızı” tasvir ediyordu. CCDH, bu iki paylaşımın da 15 Ocak itibarıyla X’te hala erişilebilir olduğunu belirtti.

Toplamda, örneklemde tespit edilen çocuklara ait cinselleştirilmiş görüntülerin yüzde 29’unun, 15 Ocak itibarıyla X üzerinden erişilebilir olduğu ifade edildi. Araştırma, paylaşımlar silinse bile görüntülerin doğrudan URL’leri üzerinden erişilebilir kalabildiğini de ortaya koydu.

Sonuçlar ve kullanılan metodoloji hakkında daha fazla bilgi için CCDH’nin raporu incelenebilir. Apple veya Google’dan bir yanıt gelmesi halinde bu haber güncellenecek.


İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*


Time limit is exhausted. Please reload CAPTCHA.