Использование генеративных ИИ в полиции вызывает опасения экспертов

Американская полиция в Колорадо начала использовать генеративный ИИ для создания отчетов, вызывая опасения экспертов из-за возможных ошибок. Подобные системы, например GPT-4 от OpenAI и Copilot от Microsoft, могут допускать ложные обвинения и неверные атрибуции действий
Новости 2024 08 30

Введение генеративного ИИ в полицейскую практику

Внедрение генеративного искусственного интеллекта (ИИ) в работу полиции города Фредерик, штат Колорадо, вызывает опасения у экспертов. С начала июня департамент полиции использует инструмент Axon Draft One, основанный на технологии GPT-4 от OpenAI, для автоматизации процесса составления отчетов. Этот продукт, разработанный компанией Axon, известной своими поставками видеорегистраторов и нелетального оружия для правоохранительных органов, позволяет создавать высококачественные отчеты на основе аудиозаписей с регистраторов полицейских всего за несколько секунд. Вместе с тем, несовершенства в работе генеративного ИИ вызывают опасения среди экспертов, так как были случаи неправильной интерпретации данных и ошибок в анализе, что может привести к серьезным последствиям и нарушению прав граждан.

Преимущества и цели использования Axon Draft One

Axon Draft One представляет собой инновационный инструмент, который значительно упрощает и ускоряет процесс составления полицейских отчетов. Разработанный компанией Axon с использованием современной модели генеративного искусственного интеллекта GPT-4 от OpenAI, этот продукт позволяет создать высококачественные отчеты всего за несколько секунд. Минимизация времени, затрачиваемого на оформление отчетов, открывает возможности для сотрудников правоохранительных органов уделить больше внимания непосредственным полицейским задачам, улучшая общую эффективность и оперативность действий на территории города Фредерик, штат Колорадо. Однако такие инновации вызывают опасения экспертов из-за возможных ошибок и несовершенств генеративного ИИ, как в случае с другими продуктами, приведшими к ложным обвинениям и недопониманиям.

Озабоченность экспертов

Использование генеративных ИИ в полиции создает серьезные заботы у экспертов, несмотря на обещанные преимущества. Основным источником тревоги является несовершенство этих инструментов и возможность допущения ошибок в их работе. Примеры недостатков уже стали явны: ИИ-помощник от Microsoft Copilot ложно обвинил репортёра в преступлениях, а ChatGPT неправильно классифицировал борца с коррупцией. Эксперты предупреждают, что такие ошибки могут привести к существенным негативным последствиям и подчеркивают необходимость дальнейшей тщательной доработки и надзора над применением генеративных ИИ в правоохранительных органах.

Опасные ошибки: примеры из других областей

Эксперты выражают серьезные опасения относительно использования генеративных искусственных интеллектов в полиции, основывая свои беспокойства на уже произошедших ошибках в других областях. Недавние случаи включают ложные обвинения, сделанные Copilot от Microsoft и ChatGPT от OpenAI. Например, Copilot неправильно обвинил репортёра в педофилии и мошенничестве, а также приписал ему побег из психиатрической клиники. Подобным образом, ChatGPT неверно определил австралийского борца с коррупцией как взяточника. Эти инциденты показывают, что инструменты генеративного ИИ ещё несовершенны и могут допускать серьезные ошибки, вызывая тревогу у специалистов.

Возможные последствия ошибок ИИ в полицейской работе

Использование генеративных ИИ в полиции может вызвать опасения у экспертов из-за возможных ошибок и недочетов в работе этих систем. Неправильное толкование данных или ложные обвинения, внесенные в отчет полицейского, могут иметь серьезные последствия, включая судебные иски, снижение доверия общественности к правоохранительным органам и даже неправомерные аресты. Поэтому специалисты настаивают на необходимости строгого контроля и тщательного тестирования подобных систем до их внедрения в сферу полицейской деятельности.

Перспективы и этические вопросы

Использование генеративных ИИ в правоохранительных органах, включая полицию, открывает новые перспективы, но вызывает серьезные этические вопросы. Беспокойство экспертов заключается в том, что недостаточно развитые алгоритмы искусственного интеллекта могут привести к ошибкам и несправедливому обвинению людей. Существует опасность, что применение подобных технологий усилит существующие предвзятости и негативные стереотипы, особенно в отношении уязвимых групп общества. Поэтому необходим контроль и регуляция использования ИИ в правоохранительной сфере, чтобы обеспечить соблюдение прав человека и избежать дискриминации на основе недостоверных данных, порожденных генеративными алгоритмами.

Заключение

Внедрение генеративного искусственного интеллекта в работу полиции обещает упростить и ускорить процессы составления отчетов, сэкономив время сотрудников на рутинной бумажной работе. Однако использование подобных систем вызывает опасения у экспертов из-за возможности ошибок, которые могут иметь серьезные последствия как для отдельных граждан, так и для общества в целом. Поэтому важно осторожно и взвешенно подходить к внедрению новых технологий, обеспечивая надежные механизмы контроля и коррекции, чтобы минимизировать риски и максимально использовать преимущества инноваций.

Поиск