Последние комментарии

  • Alex
    когда твою семью   взорвут газовики из-за   нарушения  правил подключения, не проверив как положено  счетчик, и не сд...У российского программиста из Рамблер отжимают Ngnix за $670 млн
  • Kazak Kurshskiy
    А я то думаю, что это Путин сдувается, а он оказывается, Алексу газ выбивает и на его 40 жалоб отвечает. Дать бы тебе...У российского программиста из Рамблер отжимают Ngnix за $670 млн
  • Иосиф Эйдис
    Пока в экономике и в её отраслях будут рулить "эффективные менеджеры", а профессионалов будут кормить дыркой , оставш...Суверенный рунет не заработает без российского железа

Apple будет искать загруженное в iCloud детское порно

Американская корпорация Apple будет искать детское порно, загруженное в iCloud. Об этом сообщает The Telegraph.

В iCloud автоматически сохраняются фотографии и видео, которые пользователь делает на iPhone или iPad. Поисками интимных фотографий с несовершеннолетними будет заниматься искусственный интеллект, алгоритмы которого настроены на анализ подобного контента.

Ещё в октябре 2019 года в Apple обновили Политику конфиденциальности и теперь корпорация имеют право анализировать весь контент пользователей iPhone, чтобы бороться с сексуальной эксплуатацией несовершеннолетних.

Проблема тут вот в чём. Во-первых, не всегда просто понять, сколько лет человеку на фото 16 или 19 или 25 лет. Некоторые 25 летние выглядят как 14 летние и наоборот. Например, очень часто продавцов в магазинах штрафуют за продажу алкоголя или сигарет несовершеннолетним гражданам. По словам продавцов, молодой человек или девушка выглядят значительно старше своего возраста. ИИ будет ещё сложнее ориентироваться.

Во-вторых, как мы знаем, всякое решение ИИ чаще всего подвергается проверки человеком о том, правильно ли решил робот. То есть интимные фотографии пользователей iPhone или iPad скорее всего будут просматривать живые люди. Почему я так думаю? Например, можно вспомнить иск к компании Apple, поданный за то, что они передают сторонним подрядчикам прослушать общение разговоров голосового помощника Siri с пользователем. Это им нужно для совершенствования алгоритмов работы. В поисках детской порнографии также возможны просмотры результатов анализа сотрудниками Apple или их подрядчиками.

В-третьих, непонятно, что будет делать Apple с найденными снимками? Удалит? Или сдаст информацию о владельце гаджета в полицию? А если удалит не деткое порно, а памятные фотографии кого-нибудь владельца порно студии, где снимались совершеннолетние девушки. Могут полететь иски в Apple.

В любом случае, лучше не снимать интимные фото и видео на гаджеты этой корпорации, хотя бы потому, что есть риск того, что сцены вашей личной жизни увидят подрядчики из стран третьего мира, работающие на Apple. А если там не будет стоять систем защиты информации от несанкционированного сохранения и пересылки контента, так и вовсе есть риск найти свои снимки на каком-нибудь порно сайте.

Загрузка...

Популярное в

))}
Loading...
наверх