Новости

» » Даже сотрудники Apple обеспокоились новой системой CSAM и сканировании фотографий

Даже сотрудники Apple обеспокоились новой системой CSAM и сканировании фотографий

Компания Apple тут разожгла довольно большой огонь недовольства по всему миру. Беспокойство пользователей набирает обороты, а причиной тому новая фича Apple, которая заключается в том, что все фотографии пользователей будут сканироваться на предмет детского насилия (сексуального характера тоже). И само собой, что все мы хотим, чтобы наши дети жили хорошо и никогда не знали бед, но такие приколы от Apple вообще не понравились десяткам тысяч пользователей, большим организациям и так далее. Да даже и сотрудники Apple обеспокоились тем, что контора теперь будет следить за всем и вся.

Издание Reuters сообщило о том, что работники Apple выражают сильную обеспокоенность по поводу этой новой системы поиска (называется эта штука CSAM). Причем недовольства там пошли во внутренних чатах и всё такое. То есть, прям серьезно пошатнулось общество по этому поводу.

Само собой, что все они не педофилы, и скрывать им нечего по этому поводу. Но давайте будем честны перед собой и согласимся с тем, что если что-то в сети появилось, то это обязательно попадёт не в те руки, а всякие злые хакеры (и не менее злое правительство) с удовольствием будут пользоваться возможностью за кем-нибудь последить, подвергнуть цензуре, арестовать и так далее.

В общем, компания Apple как-то не очень хорошо решила собирать данные о своих пользователях под эгидой борьбы за мирное небо для детей. Пока что еще не нашлось довольных людей, которые сказали, что эта система поиска является действительно хорошей идеей. Даже сотрудники Apple во внутренних корпоративных чатах начали бомбить по этому поводу, знаете ли. Да и в твиттер всё это дело пошло.
Источник статьи Reuters