Технології

Apple передумала сканувати фотографії користувачів

0


Американська компанія Apple відмовилася від програми зі сканування фотографій користувачів щодо жорстокого поводження з дітьми. Про це заявив старший віце-президент Apple Крейг Федерігі в інтерв’ю газеті The Wall Street Journal.

«Сексуальне насильство над дітьми можна запобігти й до того, як це станеться. Саме з цього погляду ми спрямовуємо тепер наші зусилля на захист дітей», — зазначив топ-менеджер.

Він наголосив, що забезпечення безпеки даних користувачів має вирішальне значення, а Apple приділить особливу увагу захисту дітей за допомогою надання батькам інструментів для захисту їх неповнолітніх синів та дочок у месенджері iMessage.

У розмові з кореспондентом WSJ Джоанною Штерн Федерігі також зазначив, що відмова від проекту побічно пов’язана з  введенням наскрізного шифрування даних на iCloud.

У Apple анонсували сканування особистих фотографій користувачів у галереях iCloud Photos за допомогою системи Child Sexual Abuse Material (CSAM) Detection ще 2021 року. Передбачалося, що система почне працювати на всіх гаджетах компанії з виходом нової версії операційної системи для кожного з пристроїв.

Проте нововведення викликало різку критику правозахисників та користувачів гаджетів Apple, які побачили загрозу конфіденційності цих людей. Після цього Apple відклала використання системи на невизначений термін.

Comments

Comments are closed.