Apple'ın iki yıldır iCloud Mail’i taradığı ortaya çıktı

Yeni yayınlanan bir rapora göre Apple, çocuk istismarını tespit edebilmek için 2019’dan beri iCloud mail hizmetlerini bir yazılımla tarıyor ve e-posta eklerini inceliyor.

Apple'ın iki yıldır iCloud Mail’i taradığı ortaya çıktı
Apple'ın iki yıldır iCloud Mail’i taradığı ortaya çıktı
GİRİŞ 25.08.2021 15:19 GÜNCELLEME 25.08.2021 15:19

Apple'ın; çocuk istismarlarının tespiti için ürettiği iPhone model cep telefonlarına görüntüleri tarayan bir yazılım yüklemeyi amaçladığı geçtiğimiz haftalarda gündeme gelmişti.

Apple Watch iki defa hayatını kurtardıApple Watch iki defa hayatını kurtardı

Xiaomi’den Apple’a lansman misillemesiXiaomi’den Apple’a lansman misillemesi

Yapılan açıklamalara göre sistem, iCloud'a yüklenen fotoğrafları tarayarak istismarla ilgili içerikleri tespit edecek ve güvenlik güçlerine haber verecek.

iCloud'a yüklenecek tüm fotoğrafları gözden geçirecek yazılım, bunun özel hayatın gizliliğine müdahale anlamına geldiğini düşünen pek çok kişinin tepkisine neden olmuştu.

APPLE MAİLLERİ İZİNSİZ TARIYOR

Apple'a yönelik gizlilik endişeleri artarken, ABD'li şirketin zaten iCloud Mail'i 2019'dan bu yana taradığı ortaya çıktı.

Yıllardır bulut bağlantılı e-posta hesaplarını çocuk cinsel istismarı aracı (CSAM) ile tarayan şirket, giden ve gelen iCloud Mail eklerini inceliyor.

Söz konusu e-postalarda CSAM yazılımını kullandığını onaylayan Apple, ayrıca diğer verilerin sınırlı bir şekilde tarandığını da belirtti.

Öte yandan, Apple'ın e-postalar ek olarak yüklenen fotoğrafları da gelecek aylarda tarayacak olması oldukça tepki çekiyor.

Güvenlik araştırmacıları, hükümetlerin bu yöntemi kullanarak vatandaşların kişisel verilerine erişmesinden endişe duyuyor. Ancak Apple'a göre verilerin hükümetlerle paylaşılması söz konusu değil.

SİSTEM NASIL ÇALIŞACAK

Kolluk kuvvetlerinde, bilinen çocuk cinsel istismarı görüntülerinin sayısal kodlara dönüştürüldüğü arşivler var. Bu kodlarla herhangi bir fotoğrafın o arşivdeki görüntülerle eşleşip eşleşmediği anlaşılabiliyor.

Apple da NeuralHash adındaki benzer bir arşiv sistemini kullanarak iPhone'lardaki muhtemel çocuk istismarı fotoğraflarını yakalamayı planlıyor.

Bir kullanıcı, Apple'ın depolama servisi iCloud'a fotoğraf yüklediği an, o fotoğraf da kodlara dönüştürülerek arşivdekilerle karşılaştırılacak ve fotoğrafa çıplak gözle bakılmadan, istismar içerip içermediği tespit edilebilecek ve güvenlik güçlerine haber verecek.

SİBER GÜVENLİK UZMANLARI KARAR TEPKİLİ

Binlerce siber güvenlik ve BT uzmanı, Apple'ı bu kararından vazgeçirmek için dilekçe imzaladı.

90’dan fazla farklı politika grubu tarafından imzalanan açık mektupta, yeni araçların korunan konuşmayı sansürlemek, dünyanın her yerindeki insanların mahremiyetini ve güvenliğini tehdit etmek ve çocuklar için feci sonuçlar doğuracak eylemler için kullanılabileceği iddia edilmişti.

Tartışma, Apple’ın tüketici gizliliğine öncelik veren bir şirket olarak imajını sarstı. Yeni tarama yazılımının, bu yıl iOS 15 ve iPadOS 15’in piyasaya sürülmesiyle, yalnızca Amerika Birleşik Devletleri’nde kullanıma sunulması planlanıyor.

YORUMLAR İLK YORUM YAPAN SEN OL
DİĞER HABERLER
Facianın eşiğinden dönüldü: Yol kapatıldı evler boşaltıldı
Hababam Sınıfı'nın efsane sahnesi gerçek oldu!