Apple: Çocuk Pornografisine Savaş Açan CSAM Tespit Sistemi Nedir?

 

Apple, kullanıcıları izlemek ve cihazlarında çocuk pornografisi bulunduranları belirlemek için yeni geliştirdiği CSAM tespit sistemini kullanmayı planlıyor. Bu yazımızda CSAM sisteminin ne olduğunu ve nasıl bir sistematiğe sahip olacağını ele aldık…


2021 Ağustos başında Apple, çocuk istismarı görüntüleri içeren fotoğrafları tanımlamaya ilişkin geliştirdiği yeni sistemini tanıttı. Apple’ın çocuk pornografisinin yayılmasıyla mücadele etmesi tartışmasız iyi niyetli bir amaç gibi görünse de, yapılan duyuru sonrası şirket eleştirilerin hedefi haline geldi.

Apple, kullanıcıların gözünde uzun süredir kullanıcı gizliliğine önem veren bir cihaz üreticisi imajı oluşturmuştu. iOS 15 ve iPadOS 15 için çıkması beklenen yeni özellikler şimdiden bu imaja ciddi bir darbe vursa da şirket bu konuda geri adım atmıyor. İşte yaşananlar ve bunların sıradan iPhone ve iPad kullanıcıları üzerindeki etkileri…

CSAM Tespit Sistemi Nedir?


Apple's new privacy ad is perfect (and Facebook will hate it) | Creative  BloqApple’ın planlarına ilişkin taslak, şirketin internet sitesinde yer alıyor. Şirket, CSAM olarak da bilinen “çocuklara yönelik cinsel istismar içeriği” (child sexual abuse material) için kullanıcıların cihazlarını tarayan “CSAM Tespit” adlı bir sistem geliştirdi.

CSAM, “çocuk pornografisi” anlamına gelse de, Amerika Birleşik Devletleri’nde kayıp ve istismar edilen çocukların bulunmasına ve kurtarılmasına yardımcı olan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC), “CSAM”ı kullanılması daha uygun bir terim olarak kabul ediyor. NCMEC, Apple ve diğer teknoloji firmalarına bilinen CSAM görüntüleri hakkında bilgi sağlıyor.

Apple, mobil cihazlarında ebeveyn denetimlerinin kapsamını genişleten diğer bazı özelliklerle birlikte, örneğin birisinin, çocuklarına Apple’ın Mesajlar uygulaması üzerinden müstehcen bir fotoğraf göndermesi halinde ebeveynlerin bildirim almasını sağlayan CSAM Tespit özelliğini de kullanıma sundu.

Birkaç teknolojinin aynı anda sunulması karışıklığa yol açtı ve birçok insan, Apple’ın artık sürekli olarak tüm kullanıcıları izleyeceği hissine kapıldı. Ancak durum tam olarak böyle değil…

CSAM Tespit Sistemi Nasıl Çalışıyor?


Apple Will Be Delaying The Rollout Of Their Controversial CSAM Scanning  Feature | Ubergizmo

CSAM Tespit sistemi yalnızca, akıllı telefon veya tabletten Apple sunucularına fotoğraf yükleyen ve bunları kullanıcının diğer cihazlarında erişilebilir hale getiren iCloud hizmetinin bir parçası olan iCloud Fotoğraflar uygulaması ile birlikte çalışıyor.

Bir kullanıcının cihaz ayarlarından fotoğraf senkronizasyonunu devre dışı bırakması halinde, CSAM Tespit sistemi de devre dışı kalıyor. Peki bu, yalnızca buluttaki fotoğrafların kriminal veri tabanlarındakilerle karşılaştırılacağı anlamına mı geliyor? Tam olarak öyle değil. Apple’ın ihtiyaç duyulan gizlilik düzeyini sağlamaya çalışması nedeniyle sistem, kasıtlı olarak karmaşık bir yapıya sahip.

Apple, yaptığı açıklamada CSAM Tespit sisteminin, NCMEC veya diğer benzer kuruluşların veri tabanlarındaki fotoğraflarla eşleşip eşleşmediğini belirlemek amacıyla cihazdaki fotoğrafları taradığını belirtiyor.

  • NeuralHash Teknolojisini Kullanıyor


Tespit yöntemi temel olarak, içeriklerine göre fotoğraflar için dijital tanımlayıcılar veya hesaba dayalı adreslemeler oluşturan NeuralHash teknolojisini kullanıyor. Bir hesaba dayalı adresleme, veri tabanındaki çocuk istismarı görüntülerinden biriyle eşleşirse, görüntü ve hesaba dayalı adresleme Apple’ın sunucularına yükleniyor. Apple, görüntüyü resmi olarak kaydetmeden önce başka bir kontrol daha gerçekleştiriyor.

  • Şifreleme Teknolojisi Kullanıyor


Sistemin diğer bir bileşeni olan özel küme kesişimi (private set intersection) adı verilen şifreleme teknolojisi, CSAM Tespit sistemi taramasının sonuçlarını şifreliyor ve bu şifrelemeyi Apple, yalnızca bir dizi kriterin karşılanması halinde çözebiliyor. Teorik olarak bunun, sistemin kötüye kullanılmasını — yani, bir şirket çalışanının sistemi kötüye kullanmasını veya devlet kurumlarının talebi üzerine görüntülerin teslim edilmesini — önlemesi gerekiyor.

Apple’ın yazılım mühendisliği kıdemli başkan yardımcısı Craig Federighi, 13 Ağustos’ta Wall Street Journal ile yaptığı röportajda, özel küme kesişim protokolünün ana koruma mekanizmasına ilişkin açıklamalarda bulundu. Buna göre Apple’a bir uyarı gelmesi için 30 fotoğrafın NCMEC veri tabanındaki görüntülerle eşleşmesi gerekiyor. Aşağıdaki şemanın da gösterdiği üzere özel küme kesişim sistemi, bu eşiğe ulaşılana kadar veri kümesinin (CSAM Tespit sisteminin çalışması ve fotoğraflarla ilgili bilgilerin) şifresinin çözülmesine izin vermiyor. Apple’a göre, bir görüntünün işaretlenmesine ilişkin eşik çok yüksek olduğundan, yanlış bir eşleşmenin gerçekleşme olasılığı trilyonda bir gibi çok düşük bir ihtimal.

CSAM Tespit sisteminin önemli bir özelliği: Verilerin şifresini çözmek için çok sayıda fotoğrafın eşleşmesi gerekiyor.

Peki sistem bir uyarı aldığında ne oluyor? Bir Apple çalışanı verileri manuel olarak kontrol ediyor, çocuk pornografisine ilişkin içeriğin varlığını doğruluyor ve yetkilileri bilgilendiriyor. Şimdilik sistem sadece Amerika Birleşik Devletleri’nde tam fonksiyonel şekilde çalışacak. Bu nedenle bildirim, ABD Adalet Bakanlığı tarafından desteklenen NCMEC’e yapılacak.

CSAM Tespit Sistemine İlişkin Sorunlar


German journalists appeal to EU Commission to stand against Apple's CSAM  detection

Apple’ın eylemlerine yönelik eleştiriler iki kategoriye ayrılıyor: Şirketin yaklaşımının sorgulanması ve protokolün güvenlik açıklarının irdelenmesi. Şu an çok sayıda genel şikayet olmasına rağmen, Apple’ın teknik bir hata yaptığına dair çok az somut kanıt bulunuyor.

Örneğin, Electronic Frontier Foundation (EFF) söz konusu sorunları çok ayrıntılı şekilde ifade ediyor. EFF’ye göre Apple, kullanıcı tarafına görüntü taraması ekleyerek aslında kullanıcıların cihazlarına bir arka kapı yerleştiriyor. Ayrıca EFF, söz konusu konsepte yönelik eleştirilerini 2019’dan beri dile getiriyor.

Peki bu neden kötü bir şey? Şimdi, verilerin tamamen şifrelendiği (Apple’ın iddia ettiği gibi) bir cihaza sahip olduğunuzu ve ardından bu cihazın verilerinizin içeriği hakkında başkalarına raporlama yapmaya başladığını düşünün. Şu an hedef çocuk pornografisi, ki bu da “Yanlış bir şey yapmıyorsanız endişelenecek bir şey de yoktur” gibi sıkça tekrarlanan ortak bir söyleme yol açıyor, ancak böyle bir mekanizma olduğu sürece, bunun diğer içerikler için uygulanmayacağını bilebilmemiz mümkün değil.

Sonuç olarak, bu eleştiri teknolojik açıdan yöneltilen bir eleştiriden çok politik bir eleştiridir. Sorunun nedeni, güvenlik ile mahremiyet arasındaki dengeyi sağlayacak sosyal bir sözleşmenin olmaması. Bürokratlardan cihaz üreticilerine, yazılım geliştiricilerinden insan hakları aktivistlerine ve sıradan kullanıcılara kadar hepimiz, şu an kurulacak bu dengeyi tanımlamaya çalışıyoruz.

Kolluk kuvvetleri, geniş kapsamlı şifrelemenin kanıt toplamayı ve suçluları yakalamayı zorlaştırdığından şikayet ediyor ve bu anlaşılabilir bir durum. Kitlesel dijital gözetim konusunda duyulan endişeler de ortada. Apple’ın politikaları ve eylemleri hakkındaki görüşler de dahil olmak üzere dile getirilen bir çok görüş söz konusu.

CSAM Tespit Sistemi Ne Zaman Hayata Geçirilecek?


Edward Snowden, Apple CSAM planlarını 'olmakta olan felaket' olarak  nitelendiriyor | atmhaber.com

CSAM Tespit sistemi, bu sonbaharda mevcut tüm iPhone ve iPad (iPhone 6S, beşinci nesil iPad ve sonrası) kullanıcılarına sunulacak olan iOS 15 ve iPadOS 15 mobil işletim sistemlerinin bir parçası olacak. Sistem teorik olarak dünyadaki tüm Apple mobil cihazlarında yer alacak olsa da, şimdilik sadece Amerika Birleşik Devletleri’nde tam fonksiyonel şekilde çalışacak.

Kaynak: Kaspersky

Yazımızı Nasıl Buldunuz?

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*