Монетизация и счастье пользователя? Где проходит граница между ростом и манипуляцией

Монетизация и счастье пользователя? Где проходит граница между ростом и манипуляцией

Этический аспект монетизации в e-commerce, а также при продвижении товаров и услуг в веб в целом, актуален как никогда. В октябре 2023 года, в России был принят большой пакет поправок к ФЗ «Об информации», содержащий, в частности, ряд новых требований о прозрачности работы в интернете рекомендательных систем. Несмотря на законодательные изменения, проблема сохраняется: в 2024 году ряд профессиональных ассоциаций обращались к председателю правительства РФ Михаилу Мишустину с жалобами на дискриминацию продавцов и покупателей с помощью алгоритмов продвижения. Как этично монетизировать продукты? Какие проблемы в этой сфере существуют?

Нашим консультантом при подготовке этой статьи стал Антон Зольников, Head of Monetization крупнейшего транснационального маркетплейса AliExpress CIS.

«Многие слышали о создании эхо-камер нейросетями в социальных медиа, когда системы рекомендаций на нейросетях показывают пользователям только то, что соответствует их предыдущему опыту поиска. Что-то подобное существует на маркетплейсах. Известны случаи «черного» продвижения «своих» брендов некоторыми площадками e-commerce», — прокомментировал Зольников недавние изменения в законодательстве. — «Впрочем, дискриминация продавцов, которая является примером неэтичных практик в сфере монетизации, не всегда происходит намеренно. Иногда, с внедрением «искусственного интеллекта» (AI) и других новых технологий, это происходит из-за ошибок «машинного обучения» или проектирования монетизирующих аудиторию алгоритмов».

По словам Зольникова, на выходе получаются разные дискриминационные, неэтичные кейсы. Например, есть статистика, что 43% новых продавцов на маркетплейсах в России к 12-му месяцу зарабатывают менее 10 тысяч рублей в месяц. Это может объясняться непреодоленными пока техническими недостатками разработки, когда алгоритм не доверяет новым продуктам, предпочитая бренды, о которых у него уже накоплена информация. 

«Есть и примеры сознательного предпочтения одних брендов другим, например тем, которые участвуют в акциях на маркетплейсах. Также накопилось немало примеров неэтичных практик при динамическом формировании цены нейросетью. Скажем, не так давно Uber попался на том, что цены для некоторых пользователей были выше только потому, что они заходили на платформу через iPhone», — рассказывает Зольников. 

Данная статья является обобщением полученного редакцией от Антона Зольникова инсайта в проблему соблюдения этики при монетизации в IT-продуктах.

Монетизация и счастье пользователя? Предвзятость AI 

В экспертном сообществе широко обсуждается проблема предвзятости «искусственного интеллекта». Так же, как и человек, AI может принимать тенденциозные решения, исходя из датасетов, которые он получил на вход на этапе «машинного обучения».

Часто обучение нейросетей, которым предстоит принимать самостоятельные решения, разбивается о наборы данных, содержащие ошибки или однобокие подборы фактов в устаревших документах. Также есть такое понятие, как «аномалии». Это темные места, которые нейросети не удается расшифровать и понять. В результате AI может принимать несправедливые, нечестные или дискриминационные решения.

Решение проблемы

Устранить эту причину неэтичного поведения алгоритмов на техническом уровне помогает аккуратный подбор данных для machine learning (ML), учитывающий качество данных, различные точки зрения и тонкости проблемы, с которой предстоит иметь дело новому AI.

Чтобы «неэтичная» монетизация, связанная, например, с дискриминационным, автоматизированным продвижением товаров, втягивающих пользователей в воронку из привычных брендов и не позволяющих им попробовать ничего нового, не стали системой, требуются регулярные аудиты на предмет предвзятости. При таких аудитах проводятся тесты и анализы, позволяющие идентифицировать проблему.

Практика устранения подобных проблем в алгоритмах показывает: диверсифицированной должна быть и сама команда разработчиков, которые работают с продуктом. Разные компетенции, разная специализация и взгляды помогают принять правильные технические решения и сохранить в результатах работы AI здоровую сбалансированность.

Монетизация и счастье пользователя? Прозрачность и объяснимость AI

AI предоставляется свобода в принятии решений на определенном уровне. Так как интерпретацию полученных при обучении сведений AI делает сам, он является «черным ящиком» ящиком не только для технически неподготовленных пользователей, но и для продакт-менеджеров, тех-лидов, разработавших очередной IT-модуль. Ответом на эту проблему стало появление идеи «прозрачного» AI.

В законодательстве разных стран появляются первые положения, требующие публиковать информацию о методах, на основе которых AI принимает решение. Причем информация должна быть доступна для тех, у кого нет технической подготовки. Используется визуализация и другие приемы.

Решение проблемы

И все же опубликование информации о работе AI не является полноценным решением проблемы, ведь не каждый, кто является объектом воздействия алгоритмов, захочет разобраться в деталях. Одним из подходов, которые могут улучшить ситуацию, являются Compliance-as-Code и Practise-as-Code. Речь идет о переводе ситуаций, которые нельзя допустить, с языка требований в код на ряде специализированных языков: Rego, HCL.

Соблюдение определенных норм, таким образом, можно «вшить» в «искусственный интеллект», сделав для него нарушение требования невозможным. Современные фреймворки конфигурирования, такие как Ansible, Chef или Puppet, облегчают комплаенс. К сожалению, в развитии подобных технологий много проблем. Не каждое требование пока поддается автоматизации.

А версии законов в виде кода не создали даже страны ЕС, поддерживающие одну из наиболее жестких систем защиты пользователей в интернете, основанную на кодексе GDPR. Это специальный норматив Евросоюза, регулирующий деятельность торговых площадок и любых разработчиков IT-решений, в том числе в сфере монетизации.

Монетизация и счастье пользователя? Приватность и защита данных

AI полагается в работе на обработку большого количества данных. Как он их использует? Может ли кто-либо, манипулируя запросами, получить адреса, банковские данные, информацию о семье и многое другое? Такие утечки, увы, время от времени происходят. Защита от киберугроз данных пользователей в IT-продуктах, направленных на монетизацию, требует применения всей мощи современных мер по защите информации.

Решение проблемы  

Обычно сохранность персональных данных в разработке обеспечивается рядом первоочередных мер:

Еще один современный подход, позволяющий получить результат в сочетании с другими мерами, – анонимизация пользователя. Данные, критичные для идентификации конкретного человека и необходимые для использования его персональных данных в неблаговидных целях, собираются только тогда, когда это необходимо для работы самой системы.

Поддержка прозрачности относительно того, как системой используются данные, является еще одним способом учесть в монетизации трафика интересы пользователя и не оттолкнуть его неэтичным поведением.

Монетизация и счастье пользователя? Согласие пользователя и его автономия

Одна из поправок в законе «Об информации», которые были сделаны в 2023, требует в открытой форме сообщать о том, что платформа или сайт использует рекомендательные системы для формирования торгового или любого иного предложения.

Зачастую пользователь информируется косвенно, в скрытой форме. Соглашаясь нажать на определенную кнопку, он соглашается, что его данные будут обрабатываться нейросетями для выдачи рекомендаций, анализа потребительского поведения и других действий, выгоду от которых получает создатель продукта. Проблема в том, что в этом случае пользователь не всегда понимает последствия разрешения или что он вообще что-то разрешает. Это не позволяет сделать компетентный выбор и открывает огромное количество этических проблем. Между тем, использованные одной платформой сведения потом могут быть перепроданы разработчикам других IT-решений и использоваться для манипуляции аудиторией.

Решение проблемы 

В обсуждениях экспертов на эту тему выработалось понятие «автономии» пользователя в Интернете. При сборе персональных данных и взаимодействии с пользователями нужно придерживаться этических стандартов, в частности, получать согласие в открытой форме на любые действия по использованию данных посетителя ресурса.

Необходимо предусмотреть возможность отозвать согласие на сбор персональных данных, давать возможность оформлять упрощенные учетные записи, которые позволяют потенциальным покупателям или пользователям использовать ту или иную веб-платформу, но не предполагают воздействия на него. Это повысит доверие к системе и позволит удержать разработку в границах эффективной монетизации, не испортив потребительский опыт.

Монетизация и счастье пользователя? Учесть влияние на занятость и социальную сферу

Применение AI для монетизации затрагивает многие сферы экономики. Известны случаи, когда маркетплейсы автоматически отказывали в работе представителям некоторых национальностей, потому что это может помешать продажам. Однако подобные действия нарушают права и законодательство.

Решение проблемы

В преодолении подобной коллизии критически важна роль продуктового менеджера электронной площадки. Должны быть отлажены механизмы согласования со всеми заинтересованными лицами новых продуктов, чтобы те или иные косвенные обстоятельства не стали неожиданностью тогда, когда продукт уже запущен и начал приносить организации прибыль. Необходима целостная стратегия, на детальную проработку которой до запуска продукта нельзя жалеть ни времени, ни средств.

Важно понимать, что сегодня в больших технологических компаниях и корпорациях именно продуктовые менеджеры возглавляют разработку новых решений на базе AI, поэтому именно от них зависит этичность используемых практик.

В учете потребностей и ожиданий заинтересованных сторон может помочь практика внедрения и сертификации независимыми от вашей организации органами по сертификации стандартов в сфере устойчивого развития (sustainability), делового совершенства (business excellence), информационной безопасности.

В частности, определенные механизмы, позволяющие контролировать этические аспекты разработки программного обеспечения, освещены в международном стандарте ISO/IEC 42001:2022 «Информационные технологии. Искусственный интеллект. Система менеджмента». Сертификация, которая связана с прохождением независимых аудитов, позволяет получить свежий взгляд со стороны на работу, обнаружить проблемы до того, как они привели к таким же непоправимым последствиям, как в ситуации с Pepsi, когда рекомендательные системы были настроены так, что создали для розыгрыша призов невыполнимые и расплывчатые требования. Итог: колоссальные репутационные потери, которых могло бы не быть, если бы этика была «встроена» в продукт на этапе первоначальной разработки.

Разработка IT-решений в сфере монетизации. Где проходит граница между ростом и манипуляцией?  

Последние прорывные разработки OpenAI, Google и других компаний, активно совершенствующих архитектуру AI, привели к тому, что всего за несколько последних лет, к текущему 2025 году:

Подобная динамика, по оценке многих экспертов, приведет к появлению совершенно новых инструментов монетизации трафика, в том числе на e-commerce площадках и цифровых платформах с многосторонней обратной связью.

Специалисты предвидят широкое внедрение агентных решений на этих площадках, когда пользователь сможет взаимодействовать через чаты с AI как с цифровым «продавцом» или «посредником», которому предоставлена значительная свобода действий.

Где проходит граница между разработкой средств, позволяющих эффективнее монетизировать приток пользователей, и неэтичной манипуляцией?

Если речь идет о сознательном внедрении в продукты неэтичных практик, то ответ лежит в области личной этики руководства компаний.

Если же дискриминация или злоупотребления происходят в результате того, что те или иные аспекты не были учтены в процессе разработки, то граница проходит по вопросу эффективности учета этических аспектов в процессе разработки. Достаточно или недостаточно имеющихся предупреждающих мер, позволяющих не упустить этику в естественной погоне за повышением прибыли.

По практике международных компаний эффективным для учета этических аспектов становится сочетание:

Если вы эффективно используете эти методы, ваш продукт не станет похож на Бендера. Бендер — это робот-андроид из популярного мультсериала, который копирует все привычки испорченного человека. Он стал таким из-за своих создателей и общества.


Следите за нашими статьями в Telegam, Дзен, VK и OK
Exit mobile version