Как алгоритм учится вас понимать
Рекомендательная система – не магия и не чтение мыслей. Это математическая модель, которая находит закономерности в поведении миллионов пользователей и применяет их к вам. Например, если сто тысяч человек, похожих на вас по десяткам параметров, после песни А слушают песню Б, алгоритм с высокой вероятностью предложит вам песню Б. Таким образом, чем больше данных, тем точнее прогноз.
Параметров, которые учитываются, гораздо больше, чем кажется. Это не только что вы лайкнули или досмотрели. Это время суток, день недели, скорость скролла, длительность паузы на конкретной карточке. Кроме того, устройство, с которого зашли, погода за окном, история покупок, геолокация, круг контактов. Современные модели Яндекса, VK и Сбера обрабатывают сотни сигналов одновременно и перестраиваются в реальном времени. Следовательно, человек, которому вы показались три секунды назад, и человек, которому вы показались полчаса назад, – для алгоритма разные люди.
Результат впечатляет. Так, по отчётам Яндекса, более 80% прослушиваний в Яндекс.Музыке приходится на рекомендации, а не на самостоятельный поиск. В Кинопоиске аналогичный показатель для просмотров – около 70%. На Wildberries до половины покупок совершаются через блоки «вам может понравиться» и «похожие товары». Таким образом, алгоритм перестал быть помощником в выборе – он стал самим выбором.
Почему точность – это ловушка
Интуиция подсказывает: чем лучше сервис меня понимает, тем лучше для меня. Однако исследования говорят иначе. Феномен, впервые описанный американским интернет-активистом Илаем Паризером в 2011 году как filter bubble («пузырь фильтров»), получил за прошедшие годы мощную эмпирическую базу. Суть простая: алгоритм, оптимизированный под ваши предпочтения, систематически скрывает от вас всё, что в эти предпочтения не укладывается.
Механизм простой. Модель учится на том, что вы уже кликали, слушали, покупали. Контент, похожий на предыдущий, получает приоритет. А непохожий – опускается в выдаче. Со временем лента сужается до узкого коридора того, что с высокой вероятностью вам понравится. В результате всё остальное просто перестаёт существовать в вашем информационном поле.
В музыке это означает следующее. Человек, случайно полюбивший инди-рок в восемнадцать, к тридцати слушает всё более узкий сегмент инди-рока. Хотя, возможно, без рекомендаций обнаружил бы, что любит электронику или джаз. В новостях читатель, интересующийся одной темой, получает всё более крайние её версии. А в торговле покупатель, один раз выбравший определённый ценовой сегмент, перестаёт видеть альтернативы. Следовательно, его бюджет либо замораживается, либо плавно растёт под давлением рекомендаций.
Исследование MIT Media Lab 2023 года показало: у активных пользователей рекомендательных систем разнообразие потребляемого контента за два года сокращается в среднем на 40%. Причём сами пользователи этого не замечают. Им продолжает казаться, что они свободно выбирают из всего доступного.
Дофаминовая петля
Рекомендательные системы оптимизируются не под вашу пользу, а под метрику – время, проведённое в сервисе. Это не заговор, это экономика. Сервис зарабатывает, когда вы в нём находитесь. Следовательно, алгоритм ищет не то, что вам нужно, а то, что заставит вас остаться.
Нейробиология этого процесса изучена. Когда вы получаете контент, который точно попадает в ожидание, мозг выделяет дофамин. А когда вы получаете контент чуть лучше ожидания, дофамина выделяется больше. Таким образом, алгоритм, обученный на миллионах пользователей, со временем настраивается именно на этот режим. А именно – чередование предсказуемого и чуть неожиданного. Это та же механика, на которой работают игровые автоматы. И она так же эффективно удерживает внимание.
Результат – поведение, которое клинические психологи всё чаще описывают в терминах зависимости. Так, по данным опроса ВЦИОМ 2024 года, 38% россиян признаются: они проводят в лентах рекомендаций больше времени, чем планировали, и не могут это контролировать. Среди молодёжи 18–29 лет доля достигает 57%. При этом уровень удовлетворённости от такого потребления контента невысок. Большинство описывают его как «залипание», а не как осознанный досуг.
Российский контекст: закон о маркировке
С 1 октября 2023 года в России вступили в силу поправки к федеральному закону «Об информации, информационных технологиях и защите информации». Они регулируют рекомендательные технологии. Российский закон не запрещает алгоритмы. Однако он требует от крупных платформ – VK, Яндекса, Одноклассников, RuTube и других – раскрывать общие принципы их работы. Кроме того, пользователь должен иметь возможность узнать, почему ему показан тот или иной контент.
На практике это привело к появлению в интерфейсах раздела о рекомендательных системах, где описаны используемые сигналы. Полностью отключить рекомендации в большинстве сервисов по-прежнему нельзя – они остаются базовым способом подачи контента. Однако пользователь формально получил право знать, что именно его формирует.
Европейский Digital Services Act, принятый в 2022 году, пошёл дальше. Он обязал крупнейшие платформы предоставить опцию ленты без персонализации – в хронологическом порядке или по другим нейтральным критериям. В России подобного требования пока нет. Однако дискуссия в эту сторону движется.
Что значит «ломать» алгоритм осознанно
Полный отказ от рекомендательных систем сегодня практически невозможен – они встроены в инфраструктуру цифровой жизни. Однако снизить их влияние на собственное мышление можно. Вот несколько подходов, которые показывают эффект.
Первый – периодически смотреть то, что алгоритм вам не предлагает. Зайти в жанр, который никогда не слушали. Открыть раздел сайта, в который никогда не заходили. Купить что-то, что не рекомендовано. В результате алгоритм пересчитает вашу модель, и лента на какое-то время станет разнообразнее. Это тот случай, когда лёгкое сопротивление системе даёт немедленный ощутимый результат.
Второй – использовать поиск вместо ленты. Поиск даёт то, что вы запросили, а не то, что вам хотят показать. Разница в опыте становится очевидной, когда пробуешь возвращаться к этой практике регулярно. Поиск требует сформулировать запрос. То есть подумать о собственном интересе, а не принять предложенное.
Третий – чистить историю и отключать персонализацию там, где это возможно. Так, Яндекс, Google, VK позволяют удалять часть данных, на которых обучается модель. Это не решает проблему полностью – сервис быстро наберёт новую статистику. Однако такой шаг сбрасывает накопленные перекосы.
Четвёртый – подписываться на источники, а не на темы. Подписка на конкретного автора, издание, канал выводит вас из-под власти алгоритма. Контент приходит потому, что его создал человек, которого вы выбрали. А не потому, что машина решила, что он вам понравится.
Чей в итоге выбор
Главный вопрос, который рекомендательная экономика ставит перед каждым пользователем, – не технический, а философский. За год алгоритм узнал вас лучше, чем знает ближайший друг. Теперь он формирует большую часть вашего информационного потребления. Чей это, собственно, выбор? Ваш – потому что вы один раз лайкнули, прокрутили, задержались? Или платформы, которая построила модель вашего поведения и использует её для удержания внимания?
Юридически ответ пока размыт. Технически – чем точнее модель, тем меньше в потреблении остаётся от активного выбора и больше от реактивного одобрения предложенного. Практически это означает простую вещь. Если вы не делаете сознательных усилий по расширению информационного поля, оно будет неуклонно сужаться. Не потому, что кто-то злонамерен, а потому, что такова механика системы, в которой вы живёте.
Алгоритм – удобный инструмент. Однако, как у всякого инструмента, у него есть цена. И платится она не деньгами, а разнообразием опыта. Вопрос лишь в том, замечаете ли вы, как эта плата списывается.