Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на релизе новых ОС (в сентябре) и сперва только для США. Теперь на основании отзывов клиентов и правозащитных организаций Apple решила …

Apple використовує систему сканування CSAM ще з 2019 року

Останнім часом система виявлення матеріалів, пов’язаних з дитячою порнографією (Child Sexual Abuse Material, CSAM), від компанії Apple є предметом палких […]

The post Apple використовує систему сканування CSAM ще з 2019 року first appeared on CyberCalm.

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material). Напомним, для борьбы с распространением контента с сексуальным насилием над деть…

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного злоупотребления авторитарными правительствами и обращения передового те…

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о внедрении в iOS, iPadOS, macOS и watchOS специальной технолог…