Компенсація Знаку Зодіаку
Субстанційність С Знаменитості

Дізнайтеся Сумісність За Знаком Зодіаку

Пояснення: як Apple скануватиме зображення зловживання дітьми на пристроях і чому це викликає дивовижність

Очікувалося, що на початку будуть доступні в Сполучених Штатах, ці функції включають використання нової технології для обмеження поширення CSAM в Інтернеті, особливо через платформу Apple.

У своєму блозі Apple пояснила, що використовуватиме програми криптографії через iOS та iPadOS, щоб відповідати відомим зображенням CSAM, що зберігаються в iCloud Photo.

Про це оголосила Apple оновлення програмного забезпечення пізніше цього року принесуть нові функції Це допоможе захистити дітей від хижаків, які використовують засоби комунікації, щоб вербувати та експлуатувати їх, і обмежить поширення матеріалів сексуального насильства над дітьми (CSAM).







Очікувалося, що на початку будуть доступні в Сполучених Штатах, ці функції включають використання нової технології для обмеження поширення CSAM в Інтернеті, особливо через платформу Apple.

Тоді на пристрої з’явиться захист дітей від надсилання чи отримання конфіденційного вмісту, з механізмами попередження батьків, якщо користувачеві менше 13 років. Apple також втрутитиметься, коли Siri або Search використовуються для пошуку тем, пов’язаних із CSAM. .



Які технології Apple робить, щоб запобігти поширенню CSAM в Інтернеті?

У своєму блозі Apple пояснила, що використовуватиме програми криптографії через iOS та iPadOS, щоб відповідати відомим зображенням CSAM, що зберігаються в iCloud Photo. Технологія буде поєднувати зображення в iCloud користувача з відомими зображеннями, наданими організаціями з безпеки дітей. Причому це робиться, насправді не бачачи зображення, а лише пошуком того, що схоже на збіг відбитків пальців. Якщо збіги перетинають поріг, Apple повідомить про ці випадки в Національний центр зниклих і експлуатованих дітей (NCMEC).

Apple пояснила, що її технологія пам’ятає про конфіденційність користувачів, а отже, база даних перетворюється на нечитабельний набір хешів, які надійно зберігаються на пристроях користувачів. Він додав, що перш ніж будь-яке зображення буде завантажено в iCloud, операційна система порівняє його з відомими хешами CSAM за допомогою криптографічної технології, яка називається перетином приватного набору. Ця технологія також визначить матч без розкриття результату.



У цей момент пристрій створює криптографічний ваучер безпеки з результатом збігу та додатковими зашифрованими даними та зберігає його в iClouds із зображенням. Технологія Threshold Secret Sharing гарантує, що ці ваучери не можуть бути інтерпретовані Apple, якщо обліковий запис iCloud Photos не перетне поріг відомого вмісту CSAM. Цей поріг, як стверджується в блозі, був встановлений для забезпечення надзвичайно високого рівня точності та забезпечує менше одного до одного трильйона шансів на неправильне позначення облікового запису. Тож навряд чи одне зображення викличе сповіщення.



Але якщо поріг перевищено, Apple може інтерпретувати вміст ваучерів безпеки та вручну переглянути кожен звіт на збіг, відключити обліковий запис користувача та надіслати звіт до NCMEC. Apple заявила, що користувачі зможуть подати апеляцію, якщо вважають, що їх помилково позначили.

Як працюють інші функції?

Нова безпека спілкування Apple для Messages розмиє чутливе зображення та попередить дитину про характер вмісту. Якщо ввімкнено із серверної системи, дитині також можна повідомити, що їхні батьки отримали сповіщення про повідомлення, яке вони переглянули. Те ж саме буде застосовуватися, якщо дитина вирішить надіслати конфіденційне повідомлення. Apple заявила, що Messages використовуватиме машинне навчання на пристрої для аналізу вкладених зображень і визначення того, чи є фотографія відверто сексуального характеру, і чи Apple не отримає доступу до повідомлень. Ця функція буде доступна як оновлення облікових записів, створених як сім’ї в iCloud для останніх версій операційної системи.
Крім того, з оновленням, коли користувач намагається знайти потенційні теми CSAM, Siri і Search пояснюють, чому це може бути шкідливим і проблематичним. Користувачі також отримають рекомендації щодо того, як подати звіт про експлуатацію дітей, якщо вони попросять про це.



Також у Поясненні| Пояснення: як і чому Google запропонує більше захисту дітей в Інтернеті

Чому Apple робить це і що викликає занепокоєння?

Великі технологічні компанії роками перебувають під тиском, щоб придушити використання їхньої платформи для експлуатації дітей. Багато звітів протягом багатьох років підкреслювали, як недостатньо було зроблено, щоб технологія не дозволила зробити вміст CSAM більш широким.

Однак заява Apple була зустрінута з критикою, і багато хто підкреслював, що саме таку технологію спостереження багато урядів хотіли б мати і люблять використовувати зловживань. Той факт, що це надійшло від Apple, яка довгий час була прихильником конфіденційності, багатьох здивував.



Крім того, експерти з криптографії, такі як Метью Грін з Університету Джона Хопкінса, висловлювали побоювання, що система може бути використана для створення кадрів для невинних людей, які надсилають їм зображення, призначені для ініціювання збігів для CSAM. Дослідникам вдалося це зробити досить легко, сказав він NPR, додавши, що такі алгоритми можна обдурити.

Але The New York Times цитує директора Apple з питань конфіденційності Еріка Нойеншвандера, який сказав, що ці функції не означатимуть нічого іншого для звичайних користувачів.



Якщо ви зберігаєте колекцію матеріалів CSAM, так, це погано для вас, сказав він виданню.

Інформаційний бюлетень| Натисніть, щоб отримати найкращі пояснення за день у папку 'Вхідні'.

Чи мають інші великі технологічні компанії подібні технології?

Так. Насправді Apple відносно пізно з’явилася на сцені, оскільки Microsoft, Google і Facebook повідомляли правоохоронні органи про зображення CSAM. Apple відстає, тому що будь-яка така технологія суперечила б її розрекламованій прихильності до конфіденційності користувачів. Як наслідок, у 2020 році, коли Facebook повідомив NCMEC про 20,3 мільйона порушень CSAM, Apple могла повідомити лише про 265 випадків, повідомляє The New York Times.

Лише тепер він зміг знайти технологію, щоб зробити це, не впливаючи на звичайних користувачів або, принаймні, не налякаючи їх. Однак, як показала початкова реакція, це все ще хода по канаті.

Поділіться Зі Своїми Друзями: