
V srpnu společnost Apple oznámila dvojici nových funkcí, které mají chránit uživatele iPhonu před dětskými predátory a omezit používání technologií a služeb společnosti Apple k šíření materiálů o sexuálním zneužívání dětí (CSAM) a chránit nezletilé před nežádoucím sexuálním obsahem.
Byly oznámeny dvě funkce: skenování CSAM fotografií na iCloudu a funkce rodičovské kontroly pro sledování sexuálního obsahu ve Zprávách. Funkce skenování CSAM vyvolala tolik kontroverzí od zastánců soukromí, že Apple nakonec celou věc zdržel až do konce roku při práci na vylepšení svého řešení, aby lépe chránilo soukromí uživatelů.
je možné obnovit smazané textové zprávy
Poslední iOS 15.2 beta obsahuje druhou funkci, ale ne ten první kontroverzní. Funkce skenování fotografií CSAM by používala skenování na zařízení u obrázků ve vaší knihovně fotografií, které jsou nahrány na iCloud, a kontrolovala, zda se shodují se známou databází snímků sexuálního zneužívání dětí. Výsledky kontroly jsou uchovávány v soukromí, a to i od společnosti Apple, dokud není překročena určitá prahová hodnota, v tomto okamžiku Národní centrum pro pohřešované a zneužívané děti (NCMEC) bude kontaktován.
Apple tvrdil, že párování na zařízení, kdy na server iCloud přecházejí pouze zabezpečené hashe, je ve skutečnosti soukromější a bezpečnější než cloudové zpracování většiny jeho konkurentů pro tento druh materiálu. Zastánci ochrany soukromí však varovali, že jakýkoli systém, který skenuje fotografie ve vašem zařízení, vytváří základy pro to, aby byl tento systém zneužit zlomyslnými aktéry nebo státními agenty.

Funkce zabezpečení konverzace společnosti Apple označí fotografie ve zprávách, které mohou být citlivé na zobrazení.
Jablko
Novinkou v iOS 15.2 beta 2 je na druhou stranu méně kontroverzní funkce Zabezpečení konverzace pro Zprávy. Také se spoléhá na skenování obrázků na zařízení, ale nepřiřazuje obrázky ke známé databázi a není povoleno, pokud to nepovolí nadřazený účet.
Jakmile to rodičovský účet povolí pro dětský účet, všechny obrázky odeslané nebo přijaté ve Zprávách budou zkontrolovány na nahotu a sexuální obsah. Pokud je takový obrázek přijat, bude rozmazaný a dítě bude upozorněno vyskakovacím oknem s informacemi o tom, co má dělat. Dítě pak má možnost si fotografii prohlédnout nebo ne.
Jak bylo původně koncipováno, rodiče dítěte mladšího 13 let by byli automaticky upozorněni, pokud by byl takový obrázek zobrazen. Kritici poukázali na to, že by to mohlo ohrozit některé děti, takže Apple odstranil automatické upozornění a místo toho dal dětem jakéhokoli věku možnost poslat zprávu důvěryhodnému dospělému, pokud chtějí, nezávisle na rozhodnutí zobrazit si obrázek.
jak si založit Apple účet bez kreditní karty
Tato funkce nekontroluje žádné obrázky, pokud to není výslovně povoleno nadřazeným účtem a žádné informace jakéhokoli druhu nejsou odesílány společnosti Apple ani žádné jiné třetí straně.
Ale skenování CSAM je na cestě. Pokud se Apple bude držet svého plánu, znovu zavede funkci skenování fotografií v nadcházející beta verzi (pravděpodobně 15.3) a kontroverze začne znovu. Ale prozatím by funkce Conversation Safety v iOS 15.2 neměly děsit rodiče a mohly by pomoci dětem dělat lepší rozhodnutí – to vše bez toho, aby Apple skutečně skenoval jejich fotografie.