Yapay Zeka Eğitim Veri Setlerindeki İhlaller: Çocukların Mahremiyeti Tehlikede !
İnsan hakları örgütüne göre, popüler bir yapay zeka eğitim veri seti, yurt dışındaki çocukların yüzlerini habersiz ve izinsiz olarak kullanıyor.
İnsan Hakları İzleme örgütünün Pazartesi günü yayınladığı bir rapora göre, Yurt dışın’da 170’ten fazla çocuğun resmi ve kişisel bilgileri, habersiz ve izinsiz olarak bir veri setinde yeniden kullanıldı ve yapay zeka için eğitimde kullanıldı.
Rapora göre, bu resimler en son 2023’te ve 1990’ların ortalarında yayınlanmış içeriklerden kazındı. İnsan Hakları İzleme örgütü, kişisel detayların ve çocukların fotoğraflarının Common Crawl ( webdeki içeriği toplamak ve geniş bir veri seti oluşturmak için kullanılan bir girişimdir ) veri havuzundan toplandığını ve bunlara bağlantı veren URL’lerin LAION-5B adlı bir veri setine dahil edildiğini iddia ediyor. Bu veri seti, yapay zeka başlangıçlar için veri eğitimine yardımcı oluyor.
İnsan Hakları İzleme’de çocuk hakları ve teknoloji araştırmacısı, “Çocukların hakları, fotoğrafları kazındığında ilk olarak ihlal ediliyor ve sonra bu veriler üzerinde eğitilen yapay zeka araçları, gerçekçi görüntüler oluşturabiliyor” diyor. “Herhangi bir kötü niyetli aktör, çevrimiçi bir fotoğrafı veya videosu olan herhangi bir çocuğun fotoğrafını alabilir ve sonra bu araçları istedikleri gibi manipüle edebilir” diye ekliyor.
LAION-5B, Common Crawl’dan ( webdeki içeriği toplamak ve geniş bir veri seti oluşturmak için kullanılan bir girişimdir ) elde edilen ve Stabil Diffusion görüntü oluşturma aracı da dahil olmak üzere birkaç yapay zeka modelini eğitmek için kullanılan bir veri havuzuna dayanıyor. LAION tarafından oluşturulan veri seti, web sitesine göre artık 5.85 milyar çift görüntü ve başlığa bağlantıları içeriyor. LAION, İnsan Hakları İzleme tarafından işaretlenen resimlere bağlantıları kaldırdığını söylüyor.
Araştırmacıların bulduğu çocuk resimleri, anne blogları ve diğer kişisel, hamilelik veya ebeveynlik bloglarından geldi, ayrıca aile ve arkadaşlarla paylaşılmak üzere yüklenmiş gibi görünen YouTube videolarının karelerinden geldi.
“Hangi bağlamda yayınlandıklarına bakarak, bir ölçüde mahremiyet beklentisi vardı,” diyor İnsan Hakları İzleme örgütü. “Bu resimlerin çoğu ters görüntü aramasıyla çevrimiçi bulunamazdı.”
LAION, kuruluşun zaten harekete geçtiğini söylüyor. “LAION-5B, veri setindeki yasadışı içeriklere işaret eden bağlantılar bulduğunu bildiren bir rapora yanıt olarak kaldırıldı” diyor ve “İnternet İzleme Vakfı, Kanada Çocuk Koruma Merkezi, İnsan Hakları İzleme ile birlikte çalışıyoruz tüm bilinen yasadışı içerik referanslarını kaldırmak için.” diye ekliyor.
YouTube’un hizmet şartları, belirli durumlar dışında kazımayı izin vermez; bu durumlar bu politikalarla çelişmek gibi görünüyor. “YouTube içeriğinin izinsiz kazınması hizmet şartlarımızın ihlalidir,” diyor YouTube “ve bu tür kötüye kullanımlara karşı önlem almaya devam ediyoruz.” diye ekliyor.
Aralık ayında, yurt dışındaki araştırmacılar, LAION-5B tarafından toplanan yapay zeka eğitim verilerinin çocuk cinsel istismar materyali içerdiğini buldu. Açıkça deepfake’lerin yükselişte olduğunu, özellikle kızlar arasında sınıflarda kullanıldığını, sınıf arkadaşlarını taciz etmek için kullanıldığını belirtiyor. Araştırmacılar, çocukların fotoğraflarını CSAM oluşturmak için kullanıldığını ötesinde, veritabanının yerler veya tıbbi veriler gibi potansiyel olarak hassas bilgileri ortaya çıkarabileceğinden endişe duyuyor. Yurt dışındaki bir sanatçı, 2022’de kendi resmini LAION veri setinde buldu ve bu resmin özel tıbbi kayıtlarından olduğunu fark etti.
“Hangi bir çocuğun fotoğraflarının çalınarak ve karşılarına silah olarak kullanılabileceği korkusuyla yaşamamaları gerektiğini düşünüyoruz,” diyor araştırmacılar. Bulabildiği şeyin sadece başlangıç olduğundan endişe duyuyorlar. Ekibi incelediği verilerin çok küçük bir dilimiydi, yani LAION-5B’deki tüm verilerin .0001’inden azıydı. Benzer resimlerin dünyanın dört bir yanından bu veri setine ulaşabileceğini tahmin ediyoruz. Diye ekliyorlar.
Geçen yıl, Yurt dışında bir reklam kampanyası, ebeveynleri çocuklarının fotoğraflarını çevrimiçi paylaşmamaları konusunda uyardı ve çocuklarının görüntülerinin onları taciz etmek veya CSAM ( Çocuklara Cinsel İstismar İçeren Materyaller ) oluşturmak için kullanılabileceği konusunda uyardı. Ancak bu, zaten yayınlanmış olan veya onlarca yıl önce ancak hala çevrimiçi var olan görüntülerin sorununu ele almıyor.
“LAION veri setinden bağlantıları kaldırmak, bu içeriği webden kaldırmaz,” diyor. Bu resimler hala bulunabilir ve kullanılabilir, hatta LAION aracılığıyla değilse bile. “Bu daha büyük ve çok endişe verici bir konudur ve bir kar amacı gütmeyen gönüllü kuruluş olarak elimizden geleni yapacağız.” Diye ekliyor
İnsan Hakları İzleme örgütü, çocukları ve ailelerini bu tür istismarlardan koruma sorumluluğunun hükümetlere ve düzenleyicilere ait olduğunu söylüyor. Meclis şu anda deepfake oluşturmayı düzenlemeyi düşünüyor ve yurt dışındaki bir temsilci, bir deepfake’in kendi benzerliğinin izinsiz olarak oluşturulduğunu kanıtlayabilirse insanların dava açmasına izin verecek DEFIANCE Yasası’nı ( Hesap Verebilirlik Konusunda Sömürüyü Koruyarak Herkesi ve Her Şeyi Savunma ) önerdi.
“Çocuklar ve ailelerinin, korunması temelde imkansız bir teknolojiye karşı koruma sorumluluğunu almaları gerekmemelidir,” diyor İnsan Hakları İzleme örgütü. “Bu onların suçu değil.” Diye ekliyor.
Etiketlendi:
- Yapay Zeka
Ne düşünüyorsunuz?
Fikrini bilmek güzel. Yorum bırakın.