НЕТ ЦЕНЗУРЕ

Обзор журналистики и блогосферы

Мир

Ошибка алгоритма: как женщину посадили из-за ИИ

Технологии искусственного интеллекта всё чаще используются правоохранительными органами по всему миру. Их обещают как инструмент, который ускоряет расследования и помогает находить преступников. Но иногда алгоритмы ошибаются — и цена этой ошибки может быть человеческая судьба. История 50-летней Анджелы Липпс стала одним из самых тревожных примеров того, к чему может привести слепое доверие полиции к системам распознавания лиц.

Ошибка алгоритма — разрушенная жизнь: как женщину посадили из-за ИИ подробно разберем в данном материале.

Арест, которого не должно было быть

Весной 2025 года полиция города Фарго расследовала серию банковских мошенничеств. Неизвестная женщина использовала поддельное удостоверение военнослужащего армии США и снимала десятки тысяч долларов со счетов.

Детективы изучили записи с камер наблюдения и пропустили их через систему распознавания лиц на базе искусственного интеллекта. Алгоритм выдал совпадение: Анджела Липпс, жительница штата Теннесси.

Дальнейшая «проверка» была минимальной. Один из детективов просто сравнил водительское удостоверение Липпс и фотографии из социальных сетей с изображениями подозреваемой. По его мнению, сходство в чертах лица, телосложении и причёске оказалось достаточным доказательством.

Никакого полноценного расследования не проводилось.

Арест под дулами пистолетов

Женщину даже не уведомили о подозрениях.

Сотрудники Служба маршалов США приехали к ней домой и арестовали её под угрозой оружия в тот момент, когда она присматривала за четырьмя детьми.

Липпс отправили в тюрьму.

Она провела 108 дней за решёткой, прежде чем её передали полиции Северной Дакоты.

Алиби, которое никто не проверял

Адвокат женщины, Джей Гринвуд, сразу запросил банковские записи своей клиентки.

Когда через пять месяцев после ареста полиция наконец встретилась с Липпс и её защитником, выяснилось очевидное:

в дни совершения преступлений женщина находилась более чем в 1900 километрах от Фарго.

Банковские выписки показали, что в тот момент она покупала сигареты и вносила платежи по социальному страхованию в Теннесси.

Фактически у неё было железное алиби — но его никто даже не пытался проверить до ареста.

Закрытое дело — разрушенная жизнь

Уголовное дело закрыли накануне Рождества.

Однако освобождение не означало возвращения к прежней жизни.

За месяцы заключения Анджела Липпс потеряла:

  • дом
  • автомобиль
  • свою собаку
  • финансовую стабильность

Когда её освободили, у женщины не было ни денег, ни одежды, чтобы вернуться домой.

Не единичный случай

История Липпс — лишь часть более широкой проблемы.

Расследование газеты The Washington Post в январе 2025 года выявило как минимум восемь случаев незаконных арестов, связанных с системами распознавания лиц (FRT).

Во всех этих делах правоохранители:

  • не проверяли алиби
  • игнорировали различия во внешности
  • не проводили дополнительную проверку доказательств

Фактически алгоритм становился главным и единственным основанием для ареста.

Когда алгоритм становится судьёй

Системы распознавания лиц давно вызывают критику со стороны юристов и правозащитников. Главная проблема — алгоритм не является доказательством, а лишь инструментом поиска.

Однако на практике многие следователи воспринимают совпадение в базе данных как подтверждение вины.

Случай Анджелы Липпс показывает опасную тенденцию:

ИИ может стать не помощником следствия, а источником судебных ошибок, если люди перестают проверять его выводы.

Цена технологической ошибки

История Липпс — это не просто сбой алгоритма.

Это пример того, как:

  • отсутствие проверки фактов
  • спешка в расследовании
  • безусловное доверие к технологиям

могут разрушить жизнь невиновного человека.

ИИ может ошибаться.

Но трагедия начинается тогда, когда ошибку алгоритма принимают за истину.