Ложь, дикая ложь и ИИ (искусственный интеллект)

This post has already been read 114 times!

Diane Coyle (Project Syndicate) .

Алгоритмы так же необъективны, как и данные, которыми они наполнены. И все данные необъективны. Даже «официальную» статистику нельзя считать объективной, так же как и вечныe «истины». Цифры, которые публикуют правительства, представляют общество таким, каким оно является сейчас, через призму понятий людей, собирающих эти данные и считающих их актуальными и важными. Категории и классификации, используемые для понимания данных, не являются нейтральными. Точно так же, как мы измеряем то, что видим, мы склонны видеть только то, что мы измеряем.

По мере того как процесс принятия алгоритмических решений распространяется на все более широкий круг областей при разработке политики, он ярко освещает те социальные предубеждения, которые когда-то скрывались в тени собираемых нами данных. Доводя существующие структуры и процессы до логических крайностей, искусственный интеллект (ИИ) заставляет нас противостоять обществу, которое мы создали.

Проблема заключается не только в том, что компьютеры спроектированы так, чтобы думать как корпорации, как утверждал мой коллега из Кембриджского университета Джонни Пенн. Кроме того, компьютеры мыслят как экономисты. В итоге ИИ стал настолько безошибочной версией деятельности homo economicus (человека экономического), насколько только можно себе представить. Это рационально вычисляющий, логически последовательный, ориентированный на конечные цели исполнитель, способный достигать желаемых результатов с конечными вычислительными ресурсами. Когда дело доходит до определения «максимизации полезности», он гораздо более эффективен, чем любой человек.

«Полезность» для экономики – это то же самое, чем «флогистон» когда-то был для химии. Химики в древние времена предположили, что горючая материя содержит скрытый элемент – «флогистон», которым и объясняется то, почему вещества меняют форму при горении. Но, как бы ученые ни старались, они так и не смогли подтвердить эту гипотезу. Им не удалось отследить флогистон по той же причине, по которой экономисты сегодня не могут предложить меру измерения фактической полезности.

Экономисты используют концепцию полезности для объяснения, почему люди делают выбор – что покупать, куда инвестировать, как работать: каждый пытается максимизировать полезность в соответствии со своими предпочтениями и убеждениями о мире и в пределах, создаваемых скудными доходами или ресурсами. Несмотря на то что «полезность» не существует, это мощная конструкция. Кажется вполне естественным предположить, что каждый старается сделать для себя все как можно лучше.

Более того, представление экономистов о полезности порождено классическим утилитаризмом, целью которого является обеспечение наибольшего количества благ для наибольшего числа людей. Подобно современным экономистам, идущим по стопам Джона Стюарта Милля, большинство разработчиков алгоритмов проектирования являются утилитаристами, которые считают, что если известно, что такое «хорошо», то его можно максимизировать.

Но это предположение может привести к удручающим результатам. Например, рассмотрим, как используются алгоритмы для определения того, заслуживают ли заключенные условно-досрочного освобождения. Важное исследование 2017 года показывает, что алгоритмы намного превосходят людей в прогнозировании уровня рецидивизма и могут быть использованы для снижения «числа заключенных в тюрьмах» более чем на 40% «без увеличения уровня преступности». В Соединенных Штатах Америки, таким образом, ИИ может быть использован для сокращения количества заключенных, где непропорционально высокий процент составляют чернокожие. Но что происходит, когда ИИ берет на себя процесс проведения условно-досрочного освобождения, а афроамериканцы все еще находятся в тюрьме в более высокой пропорции, чем белые?

Высокоэффективное алгоритмическое принятие решений выдвинуло такие вопросы на первый план, заставив нас точно решить, какие результаты должны быть максимизированы. Хотим ли мы просто сократить общее число заключенных или же мы должны также заботиться о справедливости? В то время как политика допускает выдумки и компромиссы, чтобы скрыть такие уступки, компьютерный код требует ясности.

Это требование ясности затрудняет игнорирование структурных источников социального неравенства. В эпоху ИИ алгоритмы заставят нас признать, как результаты прошлых социальных и политических конфликтов были увековечены в настоящее время благодаря нашим способам использования данных.

Благодаря таким группам, как Инициатива по этике ИИ и Партнерство по ИИ начали возникать более широкие дебаты об этике ИИ. Но алгоритмы ИИ, конечно, просто делают то, для чего они закодированы. Реальная проблема выходит за рамки алгоритмического принятия решений в корпоративном и политическом управлении и затрагивает этические основы построения наших обществ.

Безусловно, нам нужно обсудить практические и философские компромиссы максимизации «полезности» посредством использования ИИ. Кроме того, нам также необходимо заниматься самоанализом. Алгоритмы ставят фундаментальные вопросы о том, как на сегодняшний день организованы социальные, политические и экономические отношения. Поэтому сегодня мы должны решить, действительно ли мы хотим преобразовать нынешние социальные механизмы в структуры принятия решений в будущем. Учитывая политический раскол, существующий в настоящее время во всем мире, это кажется хорошим моментом для подготовки нового сценария.

https://www.project-syndicate.org/commentary/ai-algorithms-reinforce-social-biases-by-diane-coyle-2018-12

Автор: Intercourier

Залишити відповідь