Владимир Зыков

67 подписчиков

Свежие комментарии

  • Алиса Смирнова
    Офигеть! И такой есть операторМой оператор связ...
  • Владимир
    Ну поэтому нужно выбирать операторы в зависимости от трубуемых зон покрытия и ценыМой оператор связ...
  • Daniil_D
    Чет всегда очень скептично относился к сетям в субконтракте, во многом из-за отвратного приема теле2 вне крупных горо...Мой оператор связ...

Apple будет искать загруженное в iCloud детское порно

Apple будет искать загруженное в iCloud детское порно

Американская корпорация Apple будет искать детское порно, загруженное в iCloud. Об этом сообщает The Telegraph.

В iCloud автоматически сохраняются фотографии и видео, которые пользователь делает на iPhone или iPad. Поисками интимных фотографий с несовершеннолетними будет заниматься искусственный интеллект, алгоритмы которого настроены на анализ подобного контента.

Ещё в октябре 2019 года в Apple обновили Политику конфиденциальности и теперь корпорация имеют право анализировать весь контент пользователей iPhone, чтобы бороться с сексуальной эксплуатацией несовершеннолетних.

Проблема тут вот в чём. Во-первых, не всегда просто понять, сколько лет человеку на фото 16 или 19 или 25 лет. Некоторые 25 летние выглядят как 14 летние и наоборот. Например, очень часто продавцов в магазинах штрафуют за продажу алкоголя или сигарет несовершеннолетним гражданам. По словам продавцов, молодой человек или девушка выглядят значительно старше своего возраста. ИИ будет ещё сложнее ориентироваться.

Во-вторых, как мы знаем, всякое решение ИИ чаще всего подвергается проверки человеком о том, правильно ли решил робот. То есть интимные фотографии пользователей iPhone или iPad скорее всего будут просматривать живые люди.

Почему я так думаю? Например, можно вспомнить иск к компании Apple, поданный за то, что они передают сторонним подрядчикам прослушать общение разговоров голосового помощника Siri с пользователем. Это им нужно для совершенствования алгоритмов работы. В поисках детской порнографии также возможны просмотры результатов анализа сотрудниками Apple или их подрядчиками.

В-третьих, непонятно, что будет делать Apple с найденными снимками? Удалит? Или сдаст информацию о владельце гаджета в полицию? А если удалит не деткое порно, а памятные фотографии кого-нибудь владельца порно студии, где снимались совершеннолетние девушки. Могут полететь иски в Apple.

В любом случае, лучше не снимать интимные фото и видео на гаджеты этой корпорации, хотя бы потому, что есть риск того, что сцены вашей личной жизни увидят подрядчики из стран третьего мира, работающие на Apple. А если там не будет стоять систем защиты информации от несанкционированного сохранения и пересылки контента, так и вовсе есть риск найти свои снимки на каком-нибудь порно сайте.

Картина дня

наверх