Apple’dan Tartışmalı Karar!

apple
apple
Daha Fazla Göster

Apple Inc., diğer izleme biçimlerine zemin hazırlayabileceğinden korkan gizlilik savunucularından gelen şiddetli eleştirilerin ardından, müşterilerin fotoğraflarını çocuk cinsel istismarı belirtileri için tarayacak bir sistemi erteliyor.

Şirket, çocukları korumak ve yasadışı pornografiyi ortadan kaldırmak için kullanılan diğer araçlarla birlikte bu özelliği Ağustos ayının başlarında duyurmuştu ve şirketin çok değerli gizlilik önlemleri aracılığıyla bir arka kapı oluşturacağı endişeleriyle hızla karşı karşıya kaldı.

Apple, sistemi denetlemek için bağımsız bir denetçiye dokunacağını söyleyerek, önümüzdeki haftalarda tartışmayı kontrol altına almak için çabaladı, ancak isyan devam etti.

Apple, Cuma günü yaptığı açıklamada, “Geçen ay, çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya ve çocuklara yönelik cinsel istismar materyallerinin yayılmasını sınırlamaya yardımcı olmayı amaçlayan özellikler için planlar duyurduk” dedi.

Müşterilerden Savunma”

 Araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”

apple'ın başı fidyecilerle dertte, 50 milyon dolar istediler - teknolojiden  son dakika haberler

Geri tepme, son aylarda Apple’ın artan incelemesine katkıda bulundu.  Bu haftanın başlarında şirket, rekabete aykırı olduğu yönündeki eleştirileri ele almak için App Store politikalarını değiştirmeyi kabul etti.

Ve çalışanlar, ücret eşitliği eksikliği de dahil olmak üzere şirket içindeki sorunlar hakkında giderek daha fazla ses çıkarmaya başladılar.

ABD Ulusal Çalışma İlişkileri Kurulu şu anda, işyeri güvenliği ve ücret şeffaflığı konusundaki endişelerden kaynaklanan işçilerden gelen iki şikayeti inceliyor.

Apple, çocuk cinsel istismarı materyali veya CSAM ile mücadeleye yardımcı olmak için tasarlanmış bir üçlü yeni araç planlamıştı.

Çocuk istismarını bildirmek ve CSAM ile ilgili kaynaklara erişmek için Siri dijital asistanını kullanmanın yanı sıra, gelen veya giden müstehcen görüntüler için çocuklar tarafından çalıştırılan cihazları tarayan Mesajlar’daki bir özelliği içeriyorlardı.

Özellik En Tartışmalı Olanı

Çocukların müstehcen görüntüleri için bir kullanıcının iCloud Fotoğrafları’ndaki kitaplığını analiz edecekti.

Bir müşterinin kitaplığında bu tür resimler olduğu tespit edilirse, Apple uyarılır, içeriği doğrulamak için bir insan incelemesi yapar ve ardından kullanıcıyı kolluk kuvvetlerine bildirir.

Electronic Frontier Foundation gibi gizlilik savunucuları, teknolojinin çocuk pornografisi dışındaki şeyleri izlemek için kullanılabileceği ve “daha ​​geniş suistimallere” kapı açabileceği konusunda uyardı.

Apple’ın denetçiyi getirme ve sisteme ince ayar yapma planı, yaklaşımın kendisinin yardımcı olamayacağını ancak kullanıcıların gizliliğini koruyan şifrelemeyi baltaladığını söyleyerek ikna olmadılar.

Cuma günü, EFF, Apple’ın endişeleri dinlemesinden memnun olduğunu söyledi, ancak şirketi planı tamamen bırakmaya çağırdı.

İcra Direktörü Cindy Cohn yaptığı açıklamada, “Bu özellikler, otoriter hükümetlere vatandaşları gözetlemek için anahtar teslim bir toplu gözetim sistemi sunarak iPhone kullanıcılarının gizliliği ve güvenliği için büyük bir tehlike yaratacaktır.” Dedi.

“Sesini yükselten muazzam koalisyon, kullanıcı telefonlarının – hem mesajlarının hem de fotoğraflarının – korunmasını ve şirketin kullanıcılarına gerçek mahremiyet sağlama sözünü tutmasını talep etmeye devam edecek.”

Apple, yeni CSAM özelliğini savunma girişimlerinde, personele konuyla ilgili soruların nasıl cevaplanacağı konusunda koçluk yaptı.  Ayrıca, sistemin yalnızca kullanıcıların yaklaşık 30 veya daha fazla potansiyel olarak yasa dışı resme sahip olduğu durumları işaretleyeceğini söyledi.

Apple da bu tür adımları atma konusunda yalnız değil.  Facebook Inc., sosyal ağlarına yüklenen bu tür görüntüleri tespit etmek için uzun süredir algoritmalara sahiptir ve Google’ın YouTube’u, hizmetindeki videoları, çocukların karıştığı müstehcen veya taciz edici içerikler açısından analiz eder.  Adobe Inc., çevrimiçi hizmetleri için benzer korumalara sahiptir.

Apple’ın CSAM Özelliği kullanıcının resimlerinin her birine sözde bir karma anahtar atayarak ve bu anahtarları açık bir materyal veritabanındaki görüntülere atanan anahtarlarla karşılaştırarak çalışır.

apple'ın trilyon dolarlık sırrı : gizli talep

Bazı kullanıcılar, örneğin bebeklerinin bir küvette görüntülerini saklamakla suçlanabileceklerinden endişe duymaktadır.

Ancak, bir ebeveynin çocuklarına ilişkin kişisel görüntülerinin, Apple’ın sisteminin bir parçası olarak çapraz referans vereceği bilinen çocuk pornografisi veritabanında olması pek olası değildir.

Apple ayrıca, hükümetlerin kullanıcıları gözetlemesi veya çocuk pornografisi olmayan fotoğrafları izlemesiyle ilgili endişeleri gidermeye çalıştı.

Veritabanının, başlangıçta duyurulduğu gibi sadece Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’nden değil, birden fazla çocuk güvenliği kuruluşundan alınan görüntülerden oluşacağını söyledi.

Şirket ayrıca farklı hükümetler tarafından işletilen bölgelerdeki gruplardan gelen verileri kullanmayı planlıyor ve bağımsız denetçinin veritabanının içeriğini doğrulayacağını söyledi.

Ayrıca yalnızca müşterilerin iCloud hesaplarına yüklediği fotoğrafları da etkiler.  Apple, hükümetlerin teknolojisini müşterileri gözetlemek için bir araç olarak kullanma taleplerini reddedeceğini söyledi.

Özelliğin, yıl sonundan önce yürürlüğe girmesi planlanıyordu ve potansiyel olarak önümüzdeki haftalarda beklenen bir dizi Apple ürün duyurusunu gölgede bırakıyordu.

Konuya aşina olan kişiler, şirketin güncellenmiş iPhone’lar, iPad’ler, AirPod’lar ve Mac’lerin yanı sıra yeni ve daha büyük bir Apple Watch’ı piyasaya sürdüğünü söyledi.

EFF’den Cohn Cuma günü yaptığı açıklamada, “Apple müşterileri için gerçek mahremiyet ve güvenlikten fedakarlık gerektirmeyen çevrimiçi çocuk cinsel istismarı materyali belasıyla mücadele etmenin yollarını bulmak için” şirketle birlikte çalışmayı dört gözle beklediğini söyledi.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Giriş Yap

Tempo ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!