Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Как сообщило издание The Guardian, Министерство юстиции Великобритании разрабатывало алгоритм, предназначенный для выявления лиц, которые могут стать убийцами. Изначально получивший название «проект прогнозирования убийств», этот инструмент использовал данные из полицейских участков Великобритании, возможно, включая жертв и свидетелей, а также подозреваемых.
Сторонняя организация по защите гражданских свобод Statewatch обнаружила программу с помощью запросов по Закону о свободе информации. Исходя из документов, полученных этой группой, Statewatch утверждал, что программа разрабатывала свой инструмент прогнозирования на основе полицейских данных примерно от 100 000 до 500 000 человек. Различные категории информации, передаваемые Министерству юстиции, также касались, по-видимому, чувствительных тем, таких как психическое здоровье, зависимость, самоубийство и инвалидность.
«Исследования неоднократно показывают, что алгоритмические системы для «прогнозирования» преступлений по своей сути несовершенны», — сказала София Лялл (Sofia Lyall), исследователь Statewatch. «Эта последняя модель, использующая данные из нашей институционально расистской полиции и Министерства внутренних дел, будет укреплять и увеличивать структурную дискриминацию, лежащую в основе уголовно-правовой системы».
Представитель Министерства юстиции (MOJ) сообщил The Guardian: «Этот проект ведется исключительно в исследовательских целях. Он был разработан с использованием существующих данных, хранящихся Службой тюрем и испытания (HM Prison and Probation Service) и полицейскими участками, о осужденных лицах, чтобы помочь нам лучше понять риск того, что лица, находящиеся на испытательном сроке, совершат тяжкое насилие. Отчет будет опубликован в due course».
Правоохранительные органы давно имеют спорные отношения с инструментами искусственного интеллекта. От использования ИИ для создания полицейских отчетов (плохая идея) до ненадлежащего использования программ, таких как ShotSpotter (еще одна плохая идея), до внедрения технологий, которые представляют угрозу конфиденциальности граждан (также плохая идея), история не на стороне успешной реализации этих технологий.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...