
Joe Mollick strávil velkou část svého života snem o tom, že se stane bohatým a slavným onkologem, mistrem léčby rakoviny, mužem, který nemoc vyléčí navždy. Bylo to donkichotské pátrání pro 60letého muže, které ho zanechalo poraženého a beznadějně izolovaného. Přešel k pornografii, aby zmírnil své pocity osamělosti. Když se tyto pocity staly závažnějšími a jeho chuť na porno se zvýšila, začal vyhledávat materiál pro sexuální zneužívání dětí (CSAM).
Když policisté v roce 2019 poprvé přistihli Mollicka, jak nahrává CSAM do aplikace pro zasílání zpráv s názvem Kik, prohledali jeho elektroniku a objevili skrýš 2 000 nelegálních obrázků a videí dětí a asi 800 souborů toho, co příkaz k prohlídce popsal jako „dětskou erotiku“…
Vyšetřovatelé zjistili, že materiál byl nahrán a uložen na jeho účet na iCloudu, ačkoli Apple nebyl tím, kdo informoval policii. Byl to Kik, kdo poskytl tip, který vedl k Mollickovu dopadení a dvouletému vězení. Firmu na snímky upozornil nástroj Microsoftu s názvem PhotoDNA, který pomocí digitálního otisku prstu identifikuje známé CSAM.
To, že Apple neoznačil nelegální materiál, není překvapivé: Kromě standardního skenování příloh odchozích e-mailů se společnost již dlouho rozhodla neprověřovat nešifrovaná data na iCloudu kvůli známým CSAM. A i když vyvinul kryptografický systém, aby to dokázal, Apple jej na konci roku 2022 opustil, což je polarizační krok, který vyvolal chválu od jestřábů na ochranu soukromí a pobouření od zastánců bezpečnosti dětí. Společnost zarámovala toto kontroverzní rozhodnutí jako odraz svého závazku k ochraně soukromí – postoj, který si nejbohatší společnost světa vysloužila spoustu uznání.
Přesto kritici tvrdí, že Apple nedokázal vyvinout trvalou a úspěšnou reakci na materiály týkající se zneužívání dětí ve svých službách a výrazně zaostával za konkurenty v pomoci policii chytit zločince, kteří jej šíří. Přezkoumání asi 100 federálních případů, ve kterých vyšetřovatelé hledali technologie Apple v domnění, že byly použity k podpoře zneužívání dětí, Forbes, zjistil, že systémy společnosti byly mezi lety 2014 a 2023 použity k ukládání a přenosu tisíců položek sexuálního zneužívání . jako Google a Meta, které proaktivně vyhledávají ve svých službách takový materiál a každoročně poskytují miliony potenciálních zákazníků neziskové organizaci National Center For Missing And Exploited Children (NCMEC) a orgánům činným v trestním řízení, Apple uvádí jen stovky, přestože má stovky milionů uživatelů iCloud.
Uvnitř společnosti Apple došlo během 18 měsíců mezi oznámením technologie anti-CSAM a jejím zrušením k narušení funkce důvěry a bezpečnosti. Odešli dva vedoucí pracovníci pro bezpečnost dětí, Melissa Marrus Polinsky, která strávila 10 let jako ředitelka vyšetřování a bezpečnosti dětí společnosti Apple, a její ředitelka pro důvěru a bezpečnost Margaret Richardsonová. Odešli také dva další manažeři, kteří byli klíčovými zainteresovanými stranami v práci společnosti proti CSAM: ředitelka ochrany osobních údajů Jane Horvath a vedoucí iCloud Michael Abbott. (Nikdo nereagoval na žádosti o komentář. Apple odmítl.) Abhishek Bhowmick, kterého dva bývalí zaměstnanci Applu popsali jako hlavního inženýra softwaru pro detekci CSAM, odešel založit vlastní společnost.
Ty odchody byly významné. Když Polinsky a Richardson odešli, zanechali v organizaci „poměrně velké díry“, řekl jeden bývalý zaměstnanec Applu . Další uvedl, že skupina zaměřená na ochranu dětí se rozptýlila, role byly reorganizovány a přiděleny jiným týmům. Podle jednoho zdroje byla velká část funkcí přesunuta do ochrany soukromí.
Toto oddělení nyní vede Erik Neuenschwander, dlouholetý technický ředitel společnosti Apple. Nedávno jmenován ředitelem ochrany soukromí a bezpečnosti dětí, jeho předchozí role se soustředily převážně na softwarové inženýrství. Spolu s ním pracují Chuck Gillingham, bývalý náměstek okresního prokurátora v okrese Santa Clara, a Ruben van der Dussen, inženýr ochrany osobních údajů dříve Thorn, neziskové organizace zaměřené na boj proti sexuálnímu zneužívání dětí, kterou založil Ashton Kutcher. Pracovníci důvěry a bezpečnosti jsou nakonec podřízeni Miku Thornberrymu, který strávil většinu svých 23 let v Applu dohledem nad prodejem a Apple Pay.
Společnost skvěle odmítla zabudovat pro FBI zadní vrátka do iOS, která by obešla několik důležitých bezpečnostních funkcí a umožnila orgánům činným v trestním řízení přístup k osobním údajům uloženým na iPhonech. Apple tvrdil, že by to dalo vládě a ostatním moc sáhnout do něčího zařízení, slídit a sbírat citlivá data. Od té doby se společnost posunula směrem k ještě širšímu šifrování svého hardwaru a softwaru k nelibosti FBI a dalších donucovacích orgánů. Přestože je šifrování na iCloudu ve výchozím nastavení zapnuté, Apple by mohl skenovaz soubory všech uživatelů, kteří požádají společnost o obnovu jejich dat – například když se přihlásí na novém zařízení, obnoví soubory ze zálohy nebo požádají o pomoc, pokud ztratí přístup ke svému účtu.
Zastánci bezpečnosti dětí tvrdí, že neochvějný závazek společnosti Apple k ochraně soukromí něco stojí: Apple je v podstatě slepý vůči škodlivému, nelegálnímu materiálu uloženému v jeho službách. Jak řekl jeden bývalý zaměstnanec, tento postoj „zakrývá některé další velmi vážné společenské škody“. Technologové a veteráni činných v trestním řízení tvrdí, že konkurenti ve všech oblastech, od Googlu, Meta a Microsoftu až po Dropbox a další poskytovatele osobních cloudů, jsou mnohem aktivnější při vykořisťování sexuálních predátorů, kteří zneužívají jejich platformy. Každý rok tyto společnosti poskytují miliony – někdy i desítky milionů – více kybernetických tipů než Apple společnosti NCMEC, která tipy kontroluje a katalogizuje, než je předá vyšetřovatelům zneužívání dětí.
„Nikdy se ve skutečnosti nezajímali o přispívání k ochraně dětí na jejich platformě,“ řekl Jim Cole, který strávil dvě desetiletí v jednotce DHS Homeland Security Investigations . „Postupem ochrany soukromí se vydali docela tvrdě a zákon jim neukládá, aby hledali CSAM.“
Apple odmítl komentovat podrobný seznam otázek, místo toho poskytl dopis od Neuenschwandera, ředitele Apple pro ochranu soukromí a bezpečnost dětí, který se zabýval nedávnými požadavky neziskové organizace Heat Initiative for Apple na obnovení plánů skenovat její systémy na CSAM. Neuenschwander řekl, že Apple od projektu upustil, protože „nebylo prakticky možné jej implementovat, aniž by to v konečném důsledku ohrozilo bezpečnost a soukromí našich uživatelů“, ale zdůraznil, že společnost nabízí další bezpečnostní funkce pro boj proti zneužívání dětí.
Hromadné skenování uživatelů Applu by „[otevřelo] dveře hromadnému sledování,“ varoval Neuenschwander v dopise.
„Jak mohou mít uživatelé jistotu, že nástroj pro jeden typ sledování nebyl překonfigurován tak, aby sledoval jiný obsah, jako je politická aktivita nebo náboženské pronásledování? Nástroje hromadného sledování mají rozsáhlé negativní důsledky pro svobodu slova a potažmo i demokracii jako celek. Dodal, že nedostatky tohoto typu skenování by mohly znamenat potíže pro rodiče, „když neudělali nic jiného, než že sdíleli naprosto normální a vhodné obrázky svých dětí“.
Od prosince 2022 poskytuje Apple pro iCloud dvě úrovně šifrování. „Standardní ochrana dat“ šifruje data na serveru a při přenosu, ale Apple si ponechává klíče potřebné k jejich dešifrování. „Pokročilá ochrana dat“ dělá v podstatě totéž, ale Apple nemůže obnovit zašifrovaná data. Vzhledem k tomu, že uživatelé se musí výslovně přihlásit k posledně jmenovanému, Apple má pravděpodobně přístup ke značným nešifrovaným datům iCloud.
Zpracovává také informace nejen z vlastních aplikací, ale i z platforem pro e-mail, sociální sítě a zasílání zpráv třetích stran, kde mají uživatelé zapnuté zálohování zařízení – něco, co orgány činné v trestním řízení často zaznamenávají při podávání žádostí o povolení k prohledávání účtů na iCloudu. To zahrnuje data z Meta’s WhatsApp a dalších poslů zaměřených na soukromí, jako je Threema, a také aplikace jako Kik, které často používají predátoři.
Apple by pravděpodobně mohl skenovat iCloud pomocí PhotoDNA, jednoho z nejrozšířenějších nástrojů v boji proti zneužívání dětí online, řekl John Rouse, 25letý veterán vyšetřování zneužívání dětí v Austrálii a bývalý předseda Interpol Covert Internet. Pracovní skupina pro vyšetřování. Tento software, vytvořený v roce 2009 společnostmi Microsoft a Dartmouth College, převádí obrázky na jedinečné číselné hodnoty zvané hash. Ty lze porovnat s databází známých hashů CSAM. Shoda zahájí další vyšetřování.
PhotoDNA je tak široce používána – Facebook a Google ji používají více než deset let, Snapchat minimálně od roku 2020 – je to fakticky průmyslový standard. Ale je to něco, co Apple nepřijal. Společnost neprovádí „žádné proaktivní skenování jejich technologií nebo jejich úložišť ani žádné přenosy, které by pomohly orgánům činným v trestním řízení zastavit zneužívání dětí, nula,“ řekl Rouse. „Nepřispívají.“
Stejně jako všechny technologické společnosti je Apple ze zákona povinen reagovat na příkazy k prohlídce a také musí federálním úřadům nahlásit materiál týkající se sexuálního zneužívání dětí, který najde na svých platformách, prostřednictvím „CyberTipline“ provozovaného NCMEC.
V loňském roce, zatímco Facebook a Instagram společnosti Meta předložily dohromady 26 milionů zpráv, Google 2 miliony a TikTok téměř 300 000, Apple jich předložil 234. Rok před tím: 160.
Apple není společnost zabývající se sociálními sítěmi, takže toto je stěží přímé srovnání. To znamená, že WhatsApp, který je šifrován end-to-end, skenuje nešifrovaný obsah, jako jsou profilové a skupinové fotografie, pro CSAM. V roce 2022 poskytla NCMEC více než 1 milion kybernetických tipů; Microsoft poslal 110 000; Dropbox, téměř 46 000; a Synchronoss, poskytovatel cloudového úložiště pro Verizon, přes 30 000.
Apple odmítl komentovat svůj nedostatek zpráv NCMEC ve vztahu ke svým kolegům. I když je pravděpodobné, že nesrovnalost je z určité části způsobena duplikáty – jedním urážlivým obrázkem sdíleným v několika příspěvcích – kritici říkají, že jde spíše o odraz toho, že Apple nedělá víc, než je ze zákona vyžadováno, aby hlídal nelegální materiál.
Mluvčí NCMEC Gavin Portnoy uvedl, že tento rozdíl nemá „nic společného s potenciální duplicitou“ a je výsledkem neochoty společnosti Apple „vyvinout přiměřené úsilí k odhalení a nahlášení CSAM na jejich platformě“. Dokonce i okrajová stránka 4chan, která je stěží vrcholem umírněnosti, uvádí násobky toho, co Apple každý rok dělá.
A soudní dokumenty ukazují, že služby společnosti Apple hostují CSAM. Mollickův případ byl jedním z nejméně 100 federálních vyšetřování z let 2014 až 2023, ve kterých byl podezřelý údajně nebo se domníval, že používal produkty Apple k ukládání sexuálně vykořisťujících snímků dětí. (Tento počet, který nezahrnuje státní, místní ani mezinárodní záznamy, představuje pouze zlomek z celkového počtu případů zneužívání dětí zahrnujících Apple.)
Dva příklady: V roce 2022 byl 42letý Texasan Michael Galvan odsouzen k více než 17 letům vězení za šíření CSAM poté, co bylo na jeho účtu iCloud nalezeno téměř 600 nelegálních videí a obrázků. Letos v květnu se bývalý učitel základní školy v Orange County Richard O’Connor přiznal k držení CSAM poté, co razie na jeho účtu na iCloudu identifikovala nejméně 81 videí a 158 obrázků zneužívání dětí, včetně „násilného, sadistického nebo masochistického chování. “ V obou případech Apple poskytl údaje v reakci na soudní příkazy k domovní prohlídce. V kauze Galvan ale původní tip, který vyšetřování opět spustil, pocházel od Kika. Pouze ve dvou případech Apple proaktivně detekoval a nahlásil CSAM, který zachytil v odchozích e-mailových zprávách.
Apple odmítl komentovat tyto případy a rozdíly mezi skenováním odchozích e-mailů na sexuálně vykořisťující snímky dětí a skenováním iCloud. Ale dobře si je vědoma problémů CSAM ve svých službách. V textových zprávách objevených během objevu ve hře Epic Games v. Apple řekl šéf společnosti Apple pro boj proti podvodům Eric Friedman v roce 2020 svému kolegovi, že Facebook a další technologické společnosti se soustředily na důvěru a bezpečnost, ale „nasávaly“ soukromí, a dodal, že soukromí společnosti Apple je -zásadně-lidsky-správný přístup znamenal, že se stal „největší platformou pro distribuci dětské pornografie“.
Ve snaze odhalit nelegální materiál hostovaný na iCloudu začal Apple koncem roku 2010 pracovat na nástroji, který by prohledal jeho servery z hlediska CSAM a zároveň zachoval soukromí zákazníků. Společnost Apple, která byla oznámena v srpnu 2021 pod názvem NeuralHash, uvedla, že software dokáže detekovat dříve identifikované materiály CSAM na zařízení , ještě před jejich nahráním a bez toho, že by se díval nebo zaznamenával jakékoli informace o fotografiích, které nejsou CSAM. Komunita pro bezpečnost dětí iniciativě tleskala. Ale ještě hlasitější sbor hlasů na to zaútočil a odsoudil NeuralHash jako vážnou hrozbu pro soukromí.
V čele tohoto obvinění stála Electronic Frontier Foundation, která popisuje nástroj Applu jako „zadní vrátka pro zvýšený dohled a cenzuru po celém světě“. Joe Mullin, hlavní aktivista kampaně neziskové organizace proti Applu, tvrdil, že navrhované techniky k nalezení urážlivých obrázků by vedly k všudypřítomnému sledování uživatelů Applu. „Snaží se najít konkrétní obrázky, které jsou kriminální – o tom není pochyb – ale techniky, které navrhovali použít, byly jako… udělejme z celého světa kupku sena a nechme si ho prohlédnout algoritmem,“ řekl Mullin. Tvrdil také, že skenovací nástroje jsou často nepřesné a neauditovatelné.
Meredith Whittaker, prezident společnosti Signal, řekl, že původní plány Applu provádět skenování fotografií vázaných na iCloud bez narušení soukromí uživatelů byly jako „navrhování magie místo reality“. Totéž uvedl Apple v nedávném dopise od Neuenschwandera, svého ředitele pro ochranu soukromí a bezpečnost dětí, v reakci na nové požadavky na skenování fotografií na iCloudu kvůli CSAM. Bylo to nejsilnější prohlášení, které Whittaker od technologického giganta k této otázce viděl za 20 let debat. „Bylo jednoznačné, že to nikdy nebude možné,“ řekl Whittaker. Poukázala na předchozí výzkum , který našel zranitelnosti v NeuralHash, a tvrdila, že tato technologie by mohla potenciálně uniknout informace o snímcích, které nejsou CSAM, nebo být zneužita k tomu, aby někoho nasměrovala.
„Prohlášení Applu je umíráček pro myšlenku, že je možné skenovat komunikace všech a chránit soukromí,“ napsala na Twitteru. „Apple má mnoho nejlepších kryptografů + software eng na světě + nekonečné $. Když nemohou oni, nemůže nikdo. (Nemohou. Nikdo nemůže.)“
Veřejná reakce na NeuralHash byla tak špatná, že Apple pozastavil své nasazení na podzim 2021 a poté jej ukončil v prosinci 2022. Tento krok zanechal některé, kteří na softwaru pracovali, zděšené a frustrované. Tento nástroj byl „úžasný“, řekl jeden bývalý zaměstnanec. „Bylo to revoluční.“ A dalo to obrovské množství práce.“ Další řekl: „Neudělali skvělou práci, když to popsali.“
Během jednoho roku od oznámení ředitelé Polinsky a Richardson odešli. První šel pracovat pro ministerstvo spravedlnosti, druhý skočil do GoFundMe. Bhowmick, hlavní inženýr detekce CSAM, pokračoval v založení vlastního bezpečnostního startupu Samooha. Vrchní ředitel pro ochranu soukromí Horvath na začátku tohoto roku přešel do právnické firmy Gibson, Dunn & Crutcher, zatímco vedoucí cloudu Abbott odešel v dubnu tohoto roku do GM.
Obrácení společnosti Apple také rozzlobilo obhájce a úředníky činné v trestním řízení, kteří považovali zavedení NeuralHash a závazek společnosti k němu za obrovský krok vpřed v boji proti zneužívání dětí.
„Každá technologie může být použita k dobru a může být použita ke zlu – což je přesně důvod, proč by každá technologická společnost měla vyvažovat soukromí a bezpečnost,“ řekla prezidentka společnosti Thorn Julie Corduaová . „Když neuděláte jedno a uděláte jen druhé, můžete svou technologii zneužít.“
Nepomáhá ani to, že se zdá, že opuštění NeuralHash Applem zhoršilo již tak napjatý vztah mezi společností a vyšetřovateli vykořisťování dětí. Rouse řekl, že Apple se stále více „stahuje“. „Nekomunikují… nevedou s námi žádný dialog,“ řekl. „A to je opravdu zklamání, když jsou jedním z největších poskytovatelů technologií na světě.“
Udělej mi radost a pozvi mě na kávu. Opravdu mě potěší, když si ji jednou nebudu muset koupit sama.




Napsat komentář