Компанія Apple зробила офіційну заяву з приводу пошуку заборонених фотографій з сексуальним насильством над дітьми (CSAM) за допомогою нового інструменту для iOS і iPadOS. Це змусило всіх задуматися про проблеми з конфіденційністю, адже фотографії з альбомів користувача будуть завантажені в хмару і переглянуті обслуговчим персоналом. Apple заявила, що компанія не збирається сканувати всю бібліотеку фотографій користувачів iPhone та iPad в пошуках дитячого порно. Замість цього компанія буде використовувати криптографію для порівняння зображень з відомою базою даних, наданої Національним центром зниклих безвісти та експлуатованих дітей (National Center for Missing&Exploited Children).

Apple заявила, що ця система розроблялася багато років і не призначена для державного контролю за громадянами. Більш того, користувачам країнах світу не потрібно турбуватися про цю проблему, тому що Apple дала зрозуміти, що ця система буде доступна тільки в Сполучених Штатах і тільки за умови включення сервісу iCloud.

В цей час тестується попередня версія для розробників iOS 15 Beta4, в якій цієї функції немає. Очікується, що вона з’явиться з виходом фінальної версії iOS 15 у вересні цього року. Раніше експерти з безпеки попередили, що анонсований вчора новий інструмент Apple може бути використаний для стеження, піддаючи ризику особисту інформацію мільйонів людей. Джерело

Читайте також -  Samsung та Google випустять замінник Dolby Atmos цього року

Comments

Comments are closed.