Школа управления СКОЛКОВО провела совместно с Тюменским госуниверситетом один из первых в российском образовании экспериментов по внедрению ИИ-преподавателя. Бакалавры СКОЛКОВО изучали курс «Биология поведения человека» без участия профильного специалиста-человека — в диалоге с чат-ботом по имени Роберт, построенным на архитектуре RAG (Retrieval-Augmented Generation).
Роберт агрегировал знания из семи дисциплин и не давал готовых ответов, стимулируя у студентов самостоятельное мышление. В отличие от других ИИ-решений, где искусственный интеллект лишь помогал преподавателю, новая система не только объясняла сложные темы, но и была нацелена на содержательные обсуждения со студентами.
Ответы студентов, работавших с Робертом, показали сокращение семантического расстояния к материалам курса на 60% — иными словами, они лучше усвоили основные идеи и термины биологии поведения человека по сравнению с потоком, который вел человек.
Вывод 1. ИИ вскрывает «сбои в системе»
Это не тривиальный кейс внедрения новой технологии — эксперимент оказался инструментом диагностики самой образовательной среды. Вместо того чтобы просто передавать знания, Роберт и подобные ему ИИ-сервисы помогают высветить слабые места привычной логики обучения и процессов в целом.
Один из первых эффектов: когда из аудитории исчез привычный «лидер мнения» — преподаватель, способный задавать ритм, фиксировать верные ответы и держать рамку, — у части студентов буквально рассыпалась внутренняя логика участия.
Неуверенность, попытки угадать «правильную» линию поведения, ориентация на ожидания алгоритма вместо рефлексии над содержанием — все это стало маркером скрытой зависимости от внешнего управления.
Роберт повел себя иначе: он не оценивал, не направлял, действуя в нейтральной логике, без давления авторитетом. В результате стало видно, как часто классическое обучение компенсирует пробелы за счет личности преподавателя, но не решает системных задач.
Для управленцев это серьезный сигнал. Проблема зачастую не в технологии, а в процессах: ИИ не спасет, если они построены неэффективно. ИИ не столько замещает ту или иную функцию, сколько задает принципиально иной уровень требований к мышлению команды.
Вывод 2. Внедрению ИИ сопротивляются - все!
Во-первых, студенты зачастую испытывали настороженность перед работой с искусственным интеллектом, несмотря на осознаваемую – хотя на тот момент чисто гипотетическую – пользу от автоматизации обучения.
На практике это выливалось в неготовность, а порой и неспособность пользоваться возможностями ИИ «по полной»: студенты затруднялись формулировать вопросы, испытывали растерянность, когда привычная структура диалога с человеком-экспертом оказывается заменена «безэмоциональной машиной».
Во-вторых, сопротивление может наблюдаться и среди преподавателей. Их роль как «носителя окончательной экспертизы» переосмысляется. Функция эксперта уходит к ИИ, а координация работы в аудитории — к специалисту по групповому взаимодействию, а не предметнику.
Это запускает у педагогов внутреннюю борьбу между желанием идти в ногу со временем и опасениями потерять статус, а возможно, и работу. В целом проект выявил, что процесс перехода к ИИ – и не только в образовании – связан с психологической адаптацией, иногда сопровождающейся явным или скрытым сопротивлением.
Вывод 3. Учиться стало сложнее
Казалось бы, ИИ-преподаватель должен был упростить обучение и снизить нагрузку. Однако произошло обратное: учеба стала интенсивнее, студенты начали работать больше, а не меньше, но и эффективность существенно повысилась.
Участникам приходилось адаптироваться к новому формату взаимодействия, в котором ответственность за проверку логики, корректности и полноты ответа полностью переходила к ним. Вместо готовых решений они сталкивались с необходимостью критически оценивать как выводы ИИ, так и ход его рассуждений.
Насколько обоснована моя гипотеза? Точно ли я понял суть вопроса? Есть ли у меня уверенность в ответе — или стоит переспросить, уточнить? Это и есть практическое проявление метакогниции, то есть способности отслеживать и калибровать собственное мышление.
В обычной образовательной модели эту функцию берет на себя преподаватель: он подсказывает, когда студент сбился, когда нужно углубить анализ или наоборот — остановиться. Роберт этого не делал.
И именно в этом нейтральном поле студентам приходилось самим отслеживать свои ограничения, рефлексировать и принимать решение: идти дальше, остановиться или изменить подход.
Такой опыт напрямую резонирует с управленческими реалиями — где метакогнитивные навыки выступают базой для стратегического мышления.
Вывод 4. Выигрывает тот, кто умеет задавать вопросы
Главный образовательный сдвиг произошел не на уровне ответов, а на уровне вопросов. ИИ не поощрял «угадывание правильного», не фиксировал верную трактовку — он отвечал в зависимости от заданного фрейма.
И чем точнее формулировался вопрос, тем глубже был ответ. Так проявилась ключевая для века ИИ метакомпетенция: способность корректно формулировать вопросы.
Но работа с ИИ не отменяет человеческого участия — она меняет его характер. Как с калькулятором: результат появляется быстро, но проверить его корректность — задача человека.
Чем больше пользователь работает с промптами и конструирует рабочие процессы вместе с «нейропомощниками», тем быстрее у него вырабатывается «ИИ-интуиция», внутреннее ощущение, где, как и когда ответ ИИ требует доработки.
Для бизнеса этот сдвиг принципиален: эффективность взаимодействия с ИИ зависит в первую очередь от умения формулировать точный запрос, а затем распознать некорректные, хотя и с виду гладкие, ответы – и их итеративно исправить.
Вывод 5. Критическое мышление – в дефиците
В классической модели обучения прогресс измеряется через знание терминов и правильные формулировки. В ИИ-формате стало очевидно: куда важнее — как участник думает, насколько он способен формулировать гипотезу, уточнять рамки, сомневаться и исследовать.
ИИ не играл роль всезнающего лектора. Он не закрывал обсуждение, не подтверждал или опровергал тезисы. Его модель поведения запускала цепочку уточнений, поиска альтернатив и дополнительных смыслов. Качество формулирования вопросов становилось показателем роста студента.
За этим стояло и более глубокое наблюдение. Эксперимент вскрыл дефицит эпистемологической субъектности — способности мыслить не по шаблону и не «от эксперта», а от собственной логики. Без авторитета внешний ориентир теряется, а внутренний, как показала практика, не всегда сформирован.
Это наблюдение критично для бизнеса. В корпоративной среде все чаще решения приходится принимать в условиях нехватки данных и ограниченного времени. И здесь навык задавать рамочные уточняющие вопросы выступает элементом стратегической устойчивости.
Вывод
Эксперимент поставил под сомнение базовые конструкции привычного образования — не только «как учить», но и «кого учить» и «зачем». Когда в процессе появляется интеллектуальный агент вроде Роберта, рушится бинарная модель «преподаватель — студент». Возникает гибридная система, где роли и функции перераспределяются между человеком и машиной.
ИИ больше не просто инструмент поддержки — он участник процесса. Он не заменяет преподавателя в классе, но перераспределяет функции, забирая себе предметную экспертизу и навигацию студента в доменном знании. В то же время он предъявляет новые требования к студенту: задавать точные вопросы, распознавать когнитивные ловушки.
Это означает одно: обучение должно быть переосмыслено. Форматы one-to-many — лекции, передача «готового» знания — теряют ценность.
Для сферы образования, в том числе корпоративного, это стратегический вызов. Новые образовательные продукты должны быть не про «знания от эксперта», а про развитие интеллектуальной архитектуры: навыков формулирования вопросов, когнитивной гибкости и работы с ИИ как партнером, а не подсказчиком.