Apple’dan Çocuk İstismarına Karşı Tarama Planlarının Askıya Alınması
Amerika Birleşik Devletleri merkezli teknoloji devi Apple, iPhone kullanıcılarının cihazlarında çocuk istismarına yönelik hassas görselleri yapay zeka ile tarama planlarını, gelen yoğun eleştiriler üzerine askıya aldığını açıkladı. Şirket, bu kararını resmi internet sitesi üzerinden duyurdu.
Açıklamada, çocukların iletişim araçları aracılığıyla cinsel istismarını ve bu tür içeriklerin yayılmasını önlemek amacıyla geliştirdikleri özelliklerin etkinleştirilmesi için yapılan çalışmaların, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen geri bildirimler doğrultusunda ertelendiği belirtildi. Ancak, bu yeni özelliklerin ne zaman hayata geçirileceğine dair herhangi bir bilgi paylaşılmadığı da vurgulandı.
Tartışmalara Neden Olan Özellikler
Apple’ın geçen ay, kullanıcıların iCloud içeriklerini çocuk istismarı içeren görüntü ve videolar açısından tarayacağını duyurması, şirketin kişisel gizlilik politikalarıyla çelişmesi nedeniyle geniş çapta tartışmalara yol açtı. Bu durum, kullanıcılar arasında endişe yaratırken, gizlilik savunucuları tarafından da eleştirildi.
Apple, çocuk istismarına karşı aldıkları önlemlerin üç aşamalı bir sistem çerçevesinde uygulanacağını açıklamıştı. Bu sistemin ilk aşaması, yapay zeka teknolojileri kullanarak özel yazışmaları görüntülemeden yalnızca CSAM (Child Sexual Abuse Material) olarak adlandırılan hassas içeriklerin taranmasını kapsamaktadır. Bu süreçte, şüpheli görsellerin tespit edilmesi halinde, bu içeriklerin gerçek kişilere incelenmesi için sunulması ve gerektiğinde güvenlik güçlerinin bilgilendirilmesi sağlanacaktı.