...
🧑 💻 Recenzje i wiadomości ze świata programów, samochodów, gadżetów i komputerów. Artykuły o grach i hobby.

Apple opóźnia wprowadzenie nowych funkcji bezpieczeństwa dzieci po skandalu związanym ze skanowaniem zdjęć

2

Justin Duino

Firma Apple ogłosiła niedawno mnóstwo funkcji bezpieczeństwa dzieci dla systemu iOS 15, w tym narzędzie, które automatycznie sprawdza iPhone’a pod kątem materiałów związanych z wykorzystywaniem seksualnym dzieci (lub CSAM). Takie narzędzia są powszechnie używane w usługach przechowywania i przesyłania wiadomości w chmurze, ale nacisk firmy Apple na skanowanie na urządzeniu doprowadził do poważnego sprzeciwu w mediach społecznościowych i prasie. W rezultacie Apple opóźni wszystkie swoje nowe funkcje bezpieczeństwa dzieci.

W oświadczeniu dla 9to5Mac Apple mówi, że „w nadchodzących miesiącach postanowiono poświęcić dodatkowy czas na zbieranie danych i wprowadzanie ulepszeń" w zakresie nowych funkcji bezpieczeństwa dzieci, a mianowicie skanera CSAM. i inni” doprowadziło do tej zmiany planów.

Mimo to Apple twierdzi, że jego system skanowania CSAM „zaprojektowano z myślą o prywatności użytkownika”. Zanim Twoje zdjęcia zostaną zapisane w iCloud, Twój iPhone próbuje dopasować je do bazy danych skrótów CSAM dostarczonych przez NCMEC i inne organizacje zajmujące się bezpieczeństwem dzieci. Dopasowane obrazy są następnie przechowywane w iCloud z „bonem bezpieczeństwa”, w zasadzie niewidoczną flagą, którą może śledzić tylko Apple.

Jeśli Twoje konto iCloud zawiera kilka obrazów zgodnych z CSAM, Apple sprawdzi te obrazy ręcznie. Potwierdzone obrazy wykorzystywania seksualnego dzieci są następnie zgłaszane do NCMEC. Apple twierdzi, że ten system jest bezpieczniejszy niż technologie skanowania tylko w chmurze, ponieważ obrazy są widoczne dla firmy tylko wtedy, gdy zostaną oznaczone przed opuszczeniem iPhone’a.

Apple opóźnia wprowadzenie nowych funkcji bezpieczeństwa dzieci po skandalu związanym ze skanowaniem zdjęć

Jedna z planowanych funkcji bezpieczeństwa dzieci ukrywa w iMessage potencjalnie erotyczne obrazy przed dziećmi i ostrzega rodziców, jeśli takie obrazy zostaną otwarte. jabłko

Jednak zwolennicy prywatności obawiają się, że skaner CSAM firmy Apple wykryje fałszywe alarmy, potencjalnie ujawniając prywatne obrazy nieznajomym lub otwierając tylne drzwi dla rządów i złych podmiotów. Technologia może również stanowić zły precedens na przyszłość — czy Apple będzie skanować telefony w poszukiwaniu narkotyków lub innych przedmiotów, które mogą zainteresować organy ścigania?

Nadal nie wiemy, jak Apple planuje „ulepszyć” swój skaner CSAM. Ale szczerze mówiąc, firma prawdopodobnie nie spodziewała się, że zobaczy jakikolwiek sprzeciw. Wielkie nazwiska, takie jak Google, już używają technologii CSAM w swoich usługach w chmurze i komunikatorach, a sam Apple skanuje w poszukiwaniu CSAM w iCloud Mail.

Niezależnie od tego, gdzie stoisz, rozczarowujące jest to, że Apple wypycha niektóre ze swoich nowych narzędzi bezpieczeństwa dzieci, w tym funkcję Wiadomości, która ostrzega dzieci przed otwieraniem potencjalnie wyraźnych załączników do zdjęć lub filmów (nie powstrzymuje to dzieci przed otwieraniem takich załączników, ale ostrzega rodziców, jeśli tak). Być może te funkcje pojawią się wraz z poprawą prywatności kilka miesięcy po iOS 15, ale znowu plany Apple są bardzo niejasne.

Źródło: Apple za pośrednictwem 9to5Mac

Źródło nagrywania: www.reviewgeek.com

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów