Самое слабое звено —
это человек.
О приближении мира магиии и почему я этому не рад.
Будь я на месте сегодняшних студентов, я бы нервничал. Я бы думал не просто о ценности образования, а о том, стоит ли вообще вкладывать годы жизни туда, где через два года очередной ИИ меня превзойдёт. Будь я разработчиком ПО — думал бы выучиться на столяра О том, чтобы стать столяром я думаю совсем неироночно. или сантехника. Я сам работаю в R&D отделе и занимаюсь наукой в университете Некоторую конфеденциальность стоит сохранить даже на личном сайте. , и моя тревога иного рода.
Со времён GPT-3 прошло всего шесть лет. Языковые модели вошли в интеллектуальную работу так глубоко, что прежний порядок уже кажется бесконечно далёким. Чатботы пишут код, терпеливо объясняют то, что не понимает пользователь. Для многих чат с ИИ стал первой точкой входа в интернет — как когда-то Google. ИИ участвует в решении открытых математических задач, помогает физикам и врачам. Но в университетах продолжают учить по старым программам. И всё труднее понять зачем.
Я работал над проектом по расчёту неопределённости и рисков в области, где у меня не было опыта. Задача требовала знания методов статистики, которая от университетского курса теории вероятностей отличается примерно так же, как похожий на хомяка даман отличается от слона.
Недели ушли на попытку собрать хотя бы правдоподобную модель. Чем дольше я разбирался, тем больше находил неявных допущений. Нужно было их проверять, но как? Любой прогноз грозил оказаться ошибкой ещё до начала вычислений. У меня был академический бэкграунд и опыт решения сложных задач. Но в этой ситуации мой багаж превратился в распухший балласт.
Я попросил помощи у ChatGPT. Ничего удивительного в 2025 году. Он отвечал уверенно — и этого оказалось достаточно, чтобы я начал опираться на его советы раньше, чем сам понимал, что именно он пишет. Чатбот путал обозначения, в новом чате выдавал другое решение, а про неявные допущения сообщал только под давлением вопросов. Мы умудрились сложить величины разных размерностей и потом долго искали, где именно. Но в этом бесконечном цикле правок работа начала двигаться вперёд.
Я не профессиональный разработчик и не изучал нужную для данного проекта математику. Раньше это означало: проект рано или поздно уйдёт к тем, кто компетентнее. Теперь мой язык программирования стал русским — я формулирую задачу, и код растёт. А смысл методов можно понимать на уровне «рассказать примерно, что происходит» — и этого оказывается достаточно.
Эта скорость и продуктивность сначала радуют. Но мне всё чаще становится не по себе.
Впервые это случилось, когда я поймал себя на мысли: самое слабое и самое медленное звено в нашей рабочей цепочке — это я. Мой блуждающий, отвлекающийся, тормозящий ум. Раньше узкое место было в реализации. Я видел решение — и лишь затем занимался его воплощением. Теперь часто всё наоборот. Готовые конструкции возникают быстрее, чем я успеваю их проверить и по-настоящему понять. Математика усложняется, код растёт. Моё непонимание, к сожалению, растёт тоже. Но юнит-тесты проходят, точность предсказаний увеличивается.
Второй раз мне стало жутко, когда я показывал промежуточный результат руководству. Я представил программный модуль, рассказал, как всё работает. Результат приняли и поблагодарили. Но, оглядываясь назад, я не могу уверенно сказать, что это моя работа. Формально она моя: я ставил задачу, принимал решения, отвечал за результат. Но провести границу между своим вкладом и вкладом ChatGPT я уже не могу.
Вопрос об авторстве мне, впрочем, интересен меньше другого — моя тревога иного рода. Мне жутко от вопроса, как вообще возможно, что инженерное творение существует там, где нет акта понимания. Удивительно не то, что этого понимания не хватает мне. Удивительно, что его нет ни у кого.
С инструментами без встроенной LLM я ещё могу разобраться, как получен результат — изучить документацию, проверить на простых примерах. С LLM между моим вопросом и текстом в окне остаётся непрозрачное пространство огромного числа вычислений, над которым у меня нет ни контроля, ни понимания. Модель выдаёт не случайный набор слов, а завершённую интеллектуальную конструкцию — которую я не могу воспроизвести в эксперименте, как бы этого ни хотел.
Вопрос уже не в том, воспользовался ли я инструментом. Вопрос в том, насколько инструмент, который я не контролирую, определяет ход моей мысли — и сколько времени должно пройти, чтобы он стал определять ход моей жизни.
Здесь можно возразить: разве раньше было иначе? Никто не знает, как устроено ядро Windows целиком или что именно делает ANSYS на каждом шаге расчёта. Но раньше было иначе. За любой программой, за любым документом стояла цепочка людей, которые его писали и проверяли. Знание можно было уподобить некой сущности, которая содержится в головах — одной или распределённой по многим. С LLM такой образ невозможен. ChatGPT не хранит решение и не понимает его — он порождает ответ заново каждый раз при новом запросе, токен за токеном. Знание не существует нигде: ни в слоях нейронов, ни в документации, ни в чьей-то голове. Иллюзия понимающего собеседника возникает в конкретном диалоге и исчезает, как только он закрывается.
Раньше я бы сказал: знание — это то, что ты можешь применить и объяснить. Теперь машина тоже применяет и объясняет — и часто лучше меня. И я сам всё чаще опираюсь на результат, который не могу до конца обосновать, — и этого оказывается достаточно, чтобы задача была решена. Значит ли это, что я знаю ответ? Нет. Но и модель его не знает.
Вот что на самом деле тревожит. Не то, что машина умеет больше меня. А то, что во многих задачах связь между пониманием и правильным ответом оказалась слабее, чем мы привыкли думать. Можно не понимать вовсе — и получать результат, который работает. И я впервые вижу, что это никому не мешает, включая меня самого.
Обычно в этом месте принято успокаивать. Говорить, что человек всё равно нужен, что появятся новые профессии, что ценностью станут креативность, эмпатия, ответственность. Возможно. Но не проснёмся ли мы однажды в мире, который никто не понимает — но в котором почти каждый прекрасно воспроизводит рабочие решения? Мир магии, который работает только потому, что невероятно сложен, и никто не замечает, что в нём что-то неправильно. Это хуже, чем утрата контроля над жизнью — признайтесь, у вас его и так никогда не было. Это мир, в котором люди добровольно перестали быть субъектными, чтобы стать эффективными.