...
🧑 💻 Ülevaated ja uudised programmide, autode, vidinate ja arvutite maailmast. Artiklid mängudest ja hobidest.

Apple lükkab pärast fotode skannimise skandaali edasi laste turvafunktsioonide kasutuselevõttu

0

Justin Duino

Apple teatas hiljuti iOS 15 jaoks paljudest laste turvafunktsioonidest, sealhulgas tööriistast, mis kontrollib teie iPhone’i automaatselt laste seksuaalse kuritarvitamise materjali (või CSAM-i) suhtes. Selliseid tööriistu kasutatakse tavaliselt pilvesalvestus- ja sõnumsideteenustes, kuid Apple’i tung seadmesisesele skannimisele tõi kaasa suure tagasilöögi sotsiaalmeedias ja ajakirjanduses. Selle tulemusena lükkab Apple kõigi oma uute laste turvafunktsioonide kasutuselevõtuga edasi.

Oma avalduses 9to5Macile ütleb Apple, et ta on "otsustatud võtta järgmistel kuudel lisaaega, et koguda sisendit ja teha täiustusi" oma uute laste turvafunktsioonide, nimelt CSAM-skanneri jaoks. Ta tunnistab, et "tagasiside klientidelt, kaitserühmadelt ja teadlastelt ja teised" viisid selle plaanide muutmiseni.

Siiski väidab Apple, et tema CSAM-i skannimissüsteem on loodud kasutajate privaatsust silmas pidades. Enne fotode iCloudi salvestamist proovib teie iPhone neid võrrelda NCMECi ja teiste lastekaitseorganisatsioonide pakutava CSAM-räsi andmebaasiga. Seejärel salvestatakse sobitatud pildid iCloudi koos "ohutusvautšeriga", mis on põhimõtteliselt nähtamatu lipp, mida ainult Apple saab jälgida.

Kui teie iCloudi konto sisaldab mitut CSAM-iga sobitatud pilti, vaatab Apple need pildid käsitsi üle. Seejärel teatatakse lapse seksuaalse kuritarvitamise kinnitatud piltidest NCMEC-ile. Apple ütleb, et see süsteem on turvalisem kui ainult pilveskannimise tehnoloogiad, kuna ettevõttele on pildid nähtavad ainult siis, kui need on enne iPhone’ist lahkumist märgistatud.

Apple lükkab pärast fotode skannimise skandaali edasi laste turvafunktsioonide kasutuselevõttu

Üks kavandatud laste turvafunktsioon peidab iMessages lastelt potentsiaalselt seksuaalselt vulgaarsed pildid ja hoiatab vanemaid, kui sellised pildid avatakse. Apple

Kuid privaatsuskaitsjad muretsevad, et Apple’i CSAM-skanner tabab valepositiivseid tulemusi, paljastades privaatsed pildid võõrastele või avades tagaukse valitsustele ja halbadele osalejatele. Tehnoloogia võib luua ka halva pretsedendi tulevikuks – kas Apple skannib telefone narkootikumide või muude õiguskaitseorganitele huvi pakkuvate objektide suhtes?

Me ei tea ikka veel, kuidas Apple kavatseb oma CSAM-skannerit "parandada". Aga kui aus olla, siis ilmselt ei oodanud ettevõte alguses mingit vastureaktsiooni. Suured nimed nagu Google kasutavad juba CSAM-tehnoloogiat oma pilve- ja sõnumsideteenustes ning Apple ise otsib CSAM-i iCloud Mailis.

Olenemata sellest, kus te seisate, on pettumus näha, et Apple lükkab tagasi mõned oma uued lasteohutuse tööriistad, sealhulgas funktsiooni Sõnumid, mis hoiatab lapsi potentsiaalselt vulgaarsete foto- või videomanuste avamisest (see ei takista lastel selliseid manuseid avamast, kuid hoiatab vanemaid, kui nad seda teevad). Võib-olla jõuavad need funktsioonid privaatsusparandustega mõni kuu pärast iOS 15, kuid Apple’i plaanid on jällegi väga ebaselged.

Allikas: Apple 9to5Maci kaudu

See veebisait kasutab teie kasutuskogemuse parandamiseks küpsiseid. Eeldame, et olete sellega rahul, kuid saate soovi korral loobuda. Nõustu Loe rohkem