Apple ka njoftuar detajet e një sistemi për të gjetur materialin e abuzimit seksual të fëmijëve (CSAM) në pajisjet e klientëve.
Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë përputhje të CSAM-it të njohur tashmë.
Apple tha se nëse gjendet një përputhje, një shqyrtues njerëzor do të vlerësojë dhe raportojë përdoruesin në zbatimin e ligjit.
Megjithatë, ka shqetësime për privatësinë se teknologjia mund të zgjerohet për të skanuar telefonat për përmbajtje të ndaluar apo edhe fjalime politike.
Ekspertët shqetësohen se teknologjia mund të përdoret nga qeveritë autoritare për të spiunuar qytetarët e saj.
Apple tha se versionet e reja të iOS dhe iPadOS, që do të dalin më vonë këtë vit, do të kenë “aplikacione të reja të kriptografisë për të ndihmuar në kufizimin e përhapjes së CSAM në internet, ndërsa dizajnojnë për privatësinë e përdoruesit”.
Sistemi funksionon duke krahasuar fotografitë me një bazë të dhënash të imazheve të njohura të abuzimit seksual të fëmijëve të përpiluara nga Qendra Kombëtare Amerikane për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC) dhe organizata të tjera të sigurisë së fëmijëve.
Ato imazhe janë përkthyer në “hashes”, kode numerike që mund të “përputhen” me një imazh në një pajisje Apple.
Apple thotë se teknologjia do të kapë gjithashtu versione të redaktuara, por të ngjashme të imazheve origjinale.