Что показали исследования
В 2024 году группа исследователей из Microsoft Research совместно с университетом Карнеги–Меллона опубликовала работу, которая быстро разошлась по профессиональной среде. Участников эксперимента – более трёхсот офисных сотрудников – попросили решать рабочие задачи сначала с использованием ИИ-ассистента, потом без него. Результат оказался контринтуитивным: чем больше человек доверял модели, тем хуже он решал те же задачи самостоятельно. Причём эффект проявлялся уже после нескольких недель регулярного использования.
Механизм авторы описали как shift from task execution to task oversight – сдвиг от решения к контролю. Пользователь ИИ перестаёт формулировать ответ сам, он оценивает ответ, предложенный моделью. Эти две когнитивные операции задействуют разные участки мозга. Оценка – поверхностное распознавание, достаточно ли ответ похож на правильный. Формулирование – глубокая работа, которая требует восстановления логики, проверки допущений, построения аргумента. Если регулярно тренировать только оценку, способность к формулированию атрофируется – как мышца, которую перестали нагружать.
Исследование MIT Media Lab 2024 года добавило физиологических данных. При работе с ИИ-ассистентом активность префронтальной коры – зоны, отвечающей за сложное мышление, – была существенно ниже, чем при самостоятельной работе над той же задачей. Участники, писавшие эссе с помощью ChatGPT, не только производили более шаблонные тексты, но и хуже запоминали собственные аргументы через неделю после написания. Мозг не включался полноценно – потому что это оказалось не нужно.
Кому ИИ усиливает мышление
Важная оговорка: не все одинаково проигрывают от использования ИИ. Исследование Harvard Business School 2024 года показало, что эффект зависит от исходного уровня пользователя. У опытных специалистов – тех, кто хорошо знает предметную область, – ИИ-ассистент работает как усилитель. Они используют модель, чтобы быстрее делать черновую работу, отлавливают ошибки, корректируют, достраивают. Их продуктивность растёт на 20–40%, а качество результата – не падает или даже растёт.
Причина проста. Опытный специалист видит, когда модель ошибается. Он замечает неточность в формулировке, нелогичность в аргументе, фактическую неправду. Модель для него – быстрый черновик, который он правит своим знанием. В этой конфигурации ИИ действительно работает как помощник: выполняет рутинную часть, оставляя человеку суть.
У новичков картина противоположная. У них нет базы, на которую можно опереться при проверке. Модель выдаёт уверенно сформулированный ответ, и у пользователя нет способа отличить правильный от правдоподобно звучащего. Он принимает вариант модели целиком – и не только получает некачественный результат в моменте, но и не учится делать работу сам. Навык, который должен был бы сформироваться через десятки самостоятельных попыток, не формируется.
Отсюда парадокс, который всё чаще фиксируют в крупных компаниях: ИИ-ассистенты выгодны старшим сотрудникам и вредны младшим. Сеньор с ИИ работает за двоих. Джуниор с ИИ не становится сеньором – потому что пропускает этап, на котором формировался бы опыт. В долгосрочной перспективе это создаёт проблему воспроизводства кадров, о которой в индустрии начали говорить всерьёз только в последний год.
Российская специфика: модели и контекст
На российском рынке ситуация дополнительно окрашена особенностью доступных инструментов. После ограничения доступа к зарубежным моделям – ChatGPT, Claude, Gemini официально недоступны без обходных путей – основная масса пользователей работает с отечественными: GigaChat, YandexGPT, SberAssistant, модели в MTS Cloud. Эти модели развиваются быстро, но пока уступают лидерам по ряду задач, особенно в сложных рассуждениях и работе с кодом.
Для пользователей это означает две вещи. Первая – результаты модели требуют большей проверки, чем принято думать. Вторая – сама культура работы с ИИ у российских компаний только формируется, и многие используют модели по принципу «спросил – получил – вставил», без критической обработки. Это наиболее вредный режим использования с точки зрения долгосрочных навыков.
Отдельная история – образование. По данным исследования НИУ ВШЭ, опубликованного в 2024 году, более 70% студентов российских вузов регулярно используют ИИ-ассистенты при подготовке работ. Преподаватели делятся на два лагеря: одни пытаются запрещать, другие – интегрировать. Обе стратегии имеют слабые места. Запрет не работает – проверить невозможно. Интеграция без продуманной методики ведёт к тому, что студент получает диплом, не умея того, что диплом формально подтверждает. Вопрос о том, как устроить систему, в которой ИИ помогает учиться, а не заменяет учёбу, пока остаётся открытым.
Где проходит граница
Не вся работа с ИИ одинаково опасна для навыков. Исследования позволяют довольно чётко выделить, где модель усиливает человека, а где – атрофирует.
ИИ-ассистент усиливает, когда используется как инструмент для задач, которые пользователь умеет выполнять сам, но не хочет тратить на них время. Переформатирование текста. Поиск по длинному документу. Перевод. Первый черновик письма по понятному шаблону. Набросок структуры презентации, которую потом сам переписываешь. В этих сценариях модель экономит время, не заменяя мышление.
ИИ-ассистент атрофирует навыки, когда используется для задач, которые пользователь должен научиться решать. Написание текста вместо продумывания собственной позиции. Решение задачи вместо понимания метода. Анализ данных вместо формулирования гипотез. Код, скопированный без разбора логики. В этих сценариях модель не помогает учиться – она заменяет обучение, и это различие принципиально.
Граница, которую предлагают исследователи поведенческой когнитивистики, проста: если бы модели завтра не стало, смогли бы вы сделать ту же работу? Если да – вы используете ИИ как инструмент. Если нет – вы от него зависите, и навык, стоящий за этой задачей, у вас либо не сформировался, либо деградирует.
Что делать практически
Исследования дают несколько конкретных рекомендаций для тех, кто хочет сохранить способность думать самостоятельно, но не отказываться от ИИ.
Формулируйте ответ сами, прежде чем спрашивать модель. Даже короткое внутреннее проговаривание «я бы ответил так» перед запросом сохраняет навык. Когда вы сразу просите модель, мышление проскакивает этап собственной работы, и через несколько месяцев обнаруживается, что формулировать вы разучились.
Спорьте с моделью, а не принимайте ответ. Если модель сказала «так», попробуйте сказать «а почему не иначе». Это не всегда приводит к лучшему ответу, но гарантирует, что вы не выходите из процесса мышления. Люди, работающие с ИИ в режиме диалога, демонстрируют существенно лучшие показатели удержания навыков, чем те, кто работает в режиме монолога.
Разделяйте задачи на «учусь» и «работаю». Когда вы осваиваете новую тему – пишите без ИИ. Когда вы применяете уже освоенное – можно ускоряться с моделью. Смешивать эти режимы – верный способ не освоить новое и одновременно разучиться старому.
Регулярно делайте работу без ИИ. Это аналог физической нагрузки: если не пользоваться навыком, он уходит. День в неделю, когда вы пишете, считаете, анализируете самостоятельно, – минимальная страховка от атрофии. Многие специалисты, работающие с ИИ ежедневно, уже ввели такую практику осознанно.
Кто будет думать дальше
Главный вопрос, который ставят текущие исследования, выходит за рамки индивидуальной продуктивности. Если целое поколение специалистов формируется в условиях, где значительная часть мышления вынесена наружу, что произойдёт с навыком мышления в масштабе профессии? Юрист, который никогда не писал иск без модели. Журналист, который никогда не структурировал материал сам. Программист, который никогда не отлаживал код без ассистента. Формально они выполняют свою работу – часто даже быстрее и качественнее, чем их предшественники. Но что они будут делать, когда модель предложит плохое решение, а отличить хорошее от плохого будет нечем?
ИИ-ассистенты – не зло и не благо сами по себе. Это инструмент, и как любой мощный инструмент он меняет того, кто им пользуется. Вопрос не в том, использовать его или нет – этот выбор уже сделан индустрией. Вопрос в том, остаётся ли за инструментом человек, способный его контролировать, – или инструмент постепенно выдавливает человека из процесса, оставляя ему роль оператора, нажимающего «принять». На этот вопрос пока никто не дал ответа. Но искать его придётся быстро: отставание в несколько лет в формировании правильной культуры работы с ИИ может обернуться потерей целого поколения навыков.