Apple paaiškino kodėl atsisakė vaikų pornografijos aptikimo
Vaikų saugos grupė paskatino „Apple“ paaiškinti, kodėl buvo atsisakyta paskelbtos CSAM aptikimo funkcijos, o bendrovė pateikė išsamų atsakymą, kodėl atsisakė savo planų.
CSAM (Child Sexual Abuse Material - Seksualinės vaikų prievartos medžiaga arba kitaip tariant pornografinė medžiaga, kurioje dalyvauja nepilnamečiai) kelia rimtą susirūpinimą, kurį „Apple“ bandė išspręsti naudodama įrenginyje esančius ir „iCloud“ aptikimo įrankius. Šių prieštaringai vertinamų priemonių galiausiai buvo atsisakyta 2022 m. gruodžio mėn., ir tai sukėlė dar daugiau ginčų.
Vaikų saugos grupė, žinoma kaip „Heat Initiative“, pranešė „Apple“, kad ji surengs kampaniją prieš pasirinkimą atsisakyti CSAM aptikimo, tikėdamasi priversti kompaniją pasiūlyti tokias priemones. „Apple“ atsakė išsamiai, o „Wired“ buvo išsiųstas atsakymas ir ataskaitoje analizavo jo turinį.
Kompanijos atsakyme pagrindiniai akcentai dėliojami ant vartotojų saugumo ir privatumo, nes „Apple“ paskatino pasirinkti funkcijų rinkinį, vadinamą „Communication Safety“. Bandymas rasti būdą pasiekti informaciją, kuri įprastai yra užšifruota, prieštarauja „Apple“ privatumo ir saugumo pozicijai – pozicija, kuri ir toliau trikdo pasaulio galinguosius.
„Seksualinės prievartos prieš vaikus medžiaga yra pasibjaurėtina, todėl esame pasiryžę nutraukti prievartos ir įtakos grandinę, dėl kurios vaikai tampa pažeidžiami“, – rašė „Apple“ vartotojų privatumo ir vaikų saugos direktorius Erik Neuenschwander.
„Kiekvieno vartotojo privačiai saugomų „iCloud“ duomenų nuskaitymas sukurtų naujus grėsmės vektorius, kuriuos duomenų vagys galėtų rasti ir panaudoti“, – tęsė Neuenschwander. „Tai taip pat sukeltų netikėtų pasekmių galimybę. Pavyzdžiui, vieno tipo turinio nuskaitymas atveria duris masiniam stebėjimui ir gali sukelti norą ieškoti kitų, įvairių tipų šifruotų pranešimų sistemose.“
„Nusprendėme nenagrinėti prieš kelerius metus pasiūlyto hibridinio kliento ir serverio CSAM aptikimo metodo, skirto „iCloud Photos“, – baigė jis. "Mes padarėme išvadą, kad tai praktiškai neįmanoma įgyvendinti nesukeliant pavojaus mūsų vartotojų saugumui ir privatumui."
Neuenschwander atsakė į Sarah Gardner, „Heat Initiative“ lyderės, klausimą. Gardner klausė, kodėl „Apple“ atsisakė CSAM identifikavimo programos.
„Tvirtai tikime, kad jūsų pristatytas sprendimas ne tik padėjo „Apple“ tapti pasauline lydere vartotojų privatumo srityje, bet ir pažadėjo išnaikinti milijonus vaikų seksualinės prievartos vaizdų ir vaizdo įrašų iš „iCloud“, – rašė Gardner. „Dalyvauju plėtojamoje iniciatyvoje, kurioje dalyvauja susirūpinę vaikų saugos ekspertai ir advokatai, kurie dėl jūsų nuolatinio delsimo diegti svarbias technologijas, ketina užsiimti jumis ir jūsų įmone, „Apple“.
"Seksualinė prievarta prieš vaikus yra sudėtinga problema, apie kurią niekas nenori kalbėti, todėl apie ją nutylima, - pridūrė Gardner. "Esame čia tam, kad pasirūpintume, kad taip nenutiktų."
Užuot ėmęsi veiksmų, kurie pažeistų vartotojų pasitikėjimą ir paverstų „Apple“ ataskaitų apdorojimo tarpininku, bendrovė nori padėti nukreipti aukas į teisėsaugą. Kūrėjų API, kurias gali naudoti tokios programos kaip „Discord“, padės šviesti vartotojus ir padėti pranešti apie pažeidėjus.
„Apple“ jokiu būdu „neskenuoja“ naudotojo nuotraukų, saugomų įrenginyje arba „iCloud“. Ryšio saugos funkcija gali būti įjungta vaikų paskyrose, tačiau ji nepraneš tėvams, kai pokalbiuose aptinkamos nuogybės.
„iOS 17“ ši funkcija įdiegiama ir suaugusiesiems naudotojams, todėl vartotojai galės išfiltruoti nepageidaujamas nuogybių nuotraukas iš „iMessage“. Ateityje „Apple“ tikisi išplėsti šias funkcijas į daugiau sričių.
Kaip įjungti Sensitive Content Warning funkciją
„Sensitive Content Warning“ funkciją „iOS 17“ įjungti bus galima:
- atidarius Settings aplikaciją
- paslinkus ekrano vaizdą žemyn ir paspaudus ant Privacy & Security
- paspaudus ant Sensitive Content Warning ir įjungus nustatymo jungiklį