Искусственный интеллект зависит от ценностей и ответственности людей

Обсуждение роли искусственного интеллекта: нейросети - инструменты без собственных целей. Важно внедрять технологию со знанием и ответственностью, учитывая возможные риски и ценности общества
/ Статьи Мнения 2024 04 30

При обсуждении искусственного интеллекта часто можно выделить два основных подхода. С одной стороны, технократы утверждают, что технологии типа ChatGPT представляют собой лишь инструмент, находящийся во власти людей. Они считают, что ответственность за использование ИИ лежит на пользователе, и это именно люди формируют рамки его действий.

С другой стороны, существует группа людей, которые наделяют подобные технологии личностными характеристиками, что является формой антропоморфизации. Приверженцы этой точки зрения не просто утверждают, что "нейронная сеть понимает" или "обучается", но и предполагают наличие у нее соответствующих форм понимания. В результате происходит непроизвольное проецирование человеческих качеств на технологию, а также предположение о наличии у нее намерений и целей. Это может вызывать беспокойство у людей, поскольку возникает представление о наличии искусственного агента, который, возможно, более умел и осведомлен, чем человек, и преследует свои собственные неизвестные цели.

Однако обе эти точки зрения, на мой взгляд, не отражают действительности. Когда речь идет об искусственном интеллекте, особенно о технологиях вроде ChatGPT, термин "социотехническая система" кажется более уместным. Это значит, что ИИ - это система, созданная и управляемая людьми. Он остается вторичным агентом, а не субъектом, так как не создает собственные цели и задачи, для которых его используют. Способ функционирования ИИ, как явное, так и неявное, отражает ценностные установки людей - заказчиков, разработчиков, специалистов по обработке данных и прочих.

Сегодня общество сталкивается с двумя основными рисками, связанными с нейросетями. Первый риск заключается в непонимании принципов работы данной технологии. Многие лица смотрят на ИИ либо как на простой инструмент, либо как на существо со своими задачами. Это может привести к ошибочным попыткам использования нейронных сетей в неподходящих ситуациях. Например, кто-то обратился к ChatGPT с проблемой семейного кризиса, ожидая совета. Сам факт обращения за консультацией к искусственному агенту вызывает недоумение. Важно понимать, что ИИ не предназначен для исследования человеческих убеждений. Эта роль отведена человеку. Таким образом, я вижу смысл в изучении социальных и гуманитарных наук, так как обучение диалоговым нейросетям связано с выбором и распространением определенных ценностей.

Второй риск заключается в недостаточной явной распределении ответственности между участниками процесса использования ИИ как социотехнической системы. В настоящее время разработчики несут основную ответственность за негативные последствия использования нейросетей, таких как некорректная генерация информации. Однако специалисты по обработке данных и конечные пользователи также участвуют в работе системы. Таким образом, важно разработать механизмы для более равномерного распределения ответственности между всеми участниками этого процесса.

Поиск