Apple отследит свои мобильные устройства на наличие фотографий с детской порнографией. Бороться с такими изображениями компания намерена в приложении iMessage и облачном сервисе iCloud, говорится на сайте компании. Находить откровенные снимки планируют с помощью криптографических приложений. Так называемый цифровой код фотографий буду сравнивать с базой данных иллюстраций сексуального насилия над детьми. При этом личные сообщения в компании обещают не читать, а фотографии из iCloud сканироваться не будут. Функции появятся в новых версиях программного обеспечения всех устройств Apple.
Фото: Глеб Щелкунов, Коммерсантъ / купить фото
Это значительный шаг, который обезопасит пользователей Apple, уверен IT-эксперт, главный редактор проекта Vilianov.com Сергей Вильянов.
«Существует огромное количество фотографий, относящихся к детскому порно. И эти картинки циркулируют в интернете, некоторые не один десяток лет.
Что придумала Apple: она эту базу проанализировала, и каждой фотографии создали определенную хеш-сумму, которая является уникальной.
Причем само изображение может масштабироваться, его можно переворачивать и делать с ним что угодно, но, тем не менее, хеш-сумма уникальна и позволяет его идентифицировать.
Соответственно, когда происходит отправка такого изображения, будет проводиться проверка на хеш-сумму, и если она совпадает с картинкой из существующей базы, то это сообщение не будет отправлено, распространение пресекается. Важный момент: никто не сканирует и не анализирует фотографии в самом телефоне. Но эта имеющаяся база будет проверяться, чтобы пресечь ее распространение в будущем. Здесь важно смотреть на ситуацию не только со стороны пользователя iPhone».
Эксперты Кембриджского университета в интервью Financial Times назвали идею Apple ужасной. По их мнению, она приведет к массовой слежке за смартфонами и ноутбуками. С этим согласен ведущий аналитик Mobile Research Group Эльдар Муртазин:
«Фактически цифровая цензура вводится на уровне многих стран. Америка лидирует по этому параметру так же, как и Китай. Под цифровой цензурой понимаются автоматические или полуавтоматические системы слежения за поведением людей в интернете: на какие сайты они ходят, что делают, какие картинки пересылают. Все это отслеживается достаточно давно.
Цифровая цензура существует, например, в облачных хранилищах. Microsoft был одной из первых компаний, кто ввел это. Личные фотографии анализируются алгоритмом, и если находится запрещенный контент, который программа считает таковым, то она показывает это содержимое модератору. Если находит, например, детское порно, то компания сообщает в правоохранительные органы, что вы храните у себя в облаке запрещенный контент.
Apple теперь вводит такие алгоритмы не только в облачном хранилище, где они существовали достаточно давно, а начинает использовать их практически везде. По сути, компания хочет решить задачу, чтобы их устройства не использовали, например, для съемки детской порнографии.
Кажется, что такая цифровая цензура приводит к тоталитарному обществу, когда вы не можете использовать удобный инструмент для чего угодно.
Если расширить такую практику, то компания фактически может внедрять алгоритмы, которые не позволят снимать протесты на улицах
По поводу iMessage — здесь будут использоваться криптографические приложения. При этом читать переписку они как бы не будут. Сегодня подобная система цензуры, по сути, уже работает в Instagram, когда вы начинаете отправлять фотографии голых людей.
Алгоритм, основанный на AI, анализирует, что именно изображено на картинке. Если ему кажется, что это обнаженное тело, то он это изображение просто блокирует, картинка не доходит до адресата. То же самое будет происходить в смартфонах от Apple.
По данным Financial Times, производитель будет сравнивать с базой данных правозащитников изображения в iCloudе и на смартфоне. По информации издания, для этого Apple может установить на свои гаджеты новую систему neuralMatch. Сама ккомпания отказалась комментировать Financial Times эту информацию.