Нейросети следят за нашей приватностью и могут выписать штрафы «за образ жизни», пишут «Новые Известия».
Главным трендом 2026 года стало объединение домофонных сетей и камер наблюдения в жилом секторе в единую систему под управлением ИИ. Если раньше данные хранились локально, то теперь, согласно расширению программы «Безопасный город», видеопоток анализируется в реальном времени на предмет «нетипичного поведения».
Массовые жалобы москвичей подтверждают: система начала фиксировать «незадекларированных жильцов». Алгоритм вычисляет, что в квартиру ежедневно заходят три человека, хотя прописан один. Информация автоматически передается в налоговую службу для проверки факта незаконной сдачи жилья в аренду. Основанием для этого стали поправки в регламенты обмена данными между МВД и ФНС, активно обсуждавшиеся в рамках цифровизации госсектора.
К 2026 году системы мониторинга перешли от простого распознавания лиц к комплексному анализу поведенческих биометрик.
Так, алгоритм выделяет контур человека и анализирует его «цифровой слепок»: соотношение роста, ширины плеч и длины конечностей. Система узнает вас по уникальной тепловой карте и особенностям одежды, даже если лицо скрыто.
Нейросети считывают длину шага и угол наклона колена. В 2026 году эти данные оцифровываются в динамическую сигнатуру, которую уже тестировали в качестве биометрического ключа.
ИИ видит сцену в объеме и времени, что позволяет ему отличать случайную остановку у двери от целенаправленного наблюдения.
Технологический скачок позволил силовым ведомствам внедрить единую биометрическую базу, интегрированную с городскими камерами. Теперь штраф можно получить не только за переход в неположенном месте, но и за «создание препятствий пешеходному потоку». В городах-миллионниках камеры начали фиксировать даже курение в подъездах с помощью анализа микродвижений и детекции дыма.
Согласно данным мониторинга судебной практики, количество дел, связанных с использованием персональных данных нейросетями, выросло в геометрической прогрессии.
По оценкам экспертов, доходы регионов от автоматизированных систем в прошлом году выросли на 30% и в 2026-м план еще амбициознее.
Возникла «презумпция виновности» алгоритма. Как указано на официальных ресурсах по обжалованию, процедура остается жестко регламентированной, а суды крайне редко встают на сторону гражданина в спорах с ИИ. Примером абсурда новой реальности стало недавнее дело москвича, которому пришлось доказывать в суде, что его походка неуникальна.
В конце 2025 года в Москве прогремел случай, когда гражданину пришел штраф за нарушение режима тишины и порядка в подъезде. Камера зафиксировала человека, который внешне был лишь отдаленно похож на владельца квартиры, но система идентификации по силуэту и походке выдала 98% совпадения с биометрическими данными собственника, хранящимися в базе.
Суть конфликта: собственник утверждал, что в момент «нарушения» находился в другом городе, и предоставил данные геолокации смартфона. Однако суд первой инстанции встал на сторону системы, заявив, что «техническое средство работает в автоматическом режиме и исключает человеческий фактор ошибки». Это создало опасный прецедент: данные алгоритма стали весомее реальных алиби.
Как отметили эксперты портала Runetlex, мы столкнулись с ситуацией, когда цифровой слепок человека в базе данных становится важнее его самого.