Пояснення: чому Apple затримує програмне забезпечення, яке сканує фотографії насильства над дітьми
Хоча цей крок вітають агентства захисту дітей, прихильники цифрової конфіденційності та колеги з галузі висувають червоні прапори, що припускають, що технологія може мати широкі наслідки для конфіденційності користувачів.

Після критики з боку захисників конфіденційності та колег з галузі, Apple відклала запуск свого програмного забезпечення, яке б виявити фотографії, що зображують жорстоке поводження з дітьми на iPhone. Програма була оголошена минулого місяця, а запуск у США планувалося наприкінці цього року.
Що таке програмне забезпечення Apple і як воно працювало?
Минулого місяця Apple заявила, що запровадить двосторонній механізм, який сканує фотографії на своїх пристроях, щоб перевірити вміст, який можна класифікувати як матеріал сексуального насильства над дітьми (CSAM). Як частина механізму, інструмент Apple neuralMatch перевіряв би фотографії перед їх завантаженням в iCloud — його хмарний сервіс зберігання — і досліджував вміст повідомлень, надісланих у його наскрізному зашифрованому додатку iMessage. Додаток Messages використовуватиме машинне навчання на пристрої, щоб попереджати про конфіденційний вміст, залишаючи приватні повідомлення нечитаними для Apple, заявила компанія.
neuralMatch порівнює зображення з базою даних зображень жорстокого поводження з дітьми, і коли є прапорець, співробітники Apple вручну переглянуть зображення. Щойно буде підтверджено жорстоке поводження з дітьми, Національний центр зниклих і експлуатованих дітей (NCMEC) у США буде повідомлено.
Які були занепокоєння?
Хоча цей крок вітають агентства захисту дітей, прихильники цифрової конфіденційності та колеги з галузі висувають червоні прапори, що припускають, що технологія може мати широкі наслідки для конфіденційності користувачів. Вважається, що майже неможливо створити систему сканування на стороні клієнта, яка використовується лише для зображень сексуального характеру, які надсилаються або отримуються дітьми, без налаштувань такого програмного забезпечення для інших цілей. Оголошення знову звернуло увагу на уряди та правоохоронні органи, які шукають бэкдор до зашифрованих служб. Вілл Кеткарт, керівник служби наскрізного шифрування повідомлень WhatsApp, сказав: «Це створена Apple система спостереження, яку можна дуже легко використовувати для сканування приватного вмісту на предмет того, що вони чи уряд вирішить контролювати. Країни, де продаються iPhone, матимуть різні визначення того, що є прийнятним.
| Якщо наступний iPhone має супутникове підключення, Apple використовуватиме цю технологіюЧому Apple відступила?
У заяві Apple зазначила, що після критики системи щодо конфіденційності та інших причин як всередині, так і за межами компанії, знадобиться більше часу, щоб зібрати відгуки та покращити запропоновані функції безпеки дітей.
Виходячи з відгуків клієнтів, правозахисних груп, дослідників та інших, ми вирішили витратити додатковий час протягом найближчих місяців, щоб зібрати інформацію та внести покращення перед випуском цих критично важливих функцій безпеки дітей.
За даними Reuters, Apple протягом тижнів грала на захист плану і вже запропонувала низку пояснень і документів, щоб показати, що ризики помилкового виявлення були низькими.
Інформаційний бюлетень| Натисніть, щоб отримати найкращі пояснення за день у папку 'Вхідні'.
Поділіться Зі Своїми Друзями: