Анни Чен, инженер с четырехлетним стажем работы в Amazon, продемонстрировала, как активная интеграция инструментов искусственного интеллекта в рабочий процесс влияет на профессиональный рост. Придя в компанию в 2022 году на позицию Software Engineer I, она специализировалась на рекомендательных системах. Интеграция LLM в повседневную практику началась с экспериментальных побочных проектов, которые со временем переросли в полноценное направление. В результате Чен дважды получила повышение: сначала до уровня Software Engineer II, а затем до позиции сеньора. В настоящий момент она занимает роль техлида в команде, занимающейся перспективными разработками в области систем с поддержкой LLM. В сферу её компетенций входит создание компонентов «памяти» — механизмов, обеспечивающих персонализацию генеративных сервисов Amazon.
Методология работы с LLM
На сегодняшний день около 95% кода, публикуемого Чен, создается с помощью специализированных ИИ-инструментов. Однако инженер подчеркивает, что первична не сама генерация кода, а способность адаптировать возможности моделей для решения конкретных рыночных и технических задач. Скорость итераций и итоговое качество продукта напрямую зависят от того, насколько глубоко разработчик интегрирует актуальные модели в свой стек. Для эффективного использования нейросетей в разработке Чен сформировала ряд принципов, позволяющих нивелировать риски при автоматизации.
Первый шаг — это понимание архитектуры больших языковых моделей. Знание процессов обучения, дообучения (fine-tuning) и методов оптимизации необходимо для осознания ограничений технологий. Проще говоря, понимание того, почему модель «галлюцинирует» или теряет контекст, позволяет инженеру эффективнее разбивать сложные архитектурные задачи на элементарные составляющие. Это критически важно, так как лимиты контекстного окна часто не позволяют LLM эффективно обрабатывать комплексные системы целиком; пошаговая генерация решений для отдельных модулей в данном случае оказывается гораздо надежнее.
Второй аспект — это когнитивная дисциплина при взаимодействии с моделью. Существует риск слепого принятия логики ИИ, если начать работу с анализа предложенного кода. Более надежная стратегия заключается в предварительной проработке собственного решения. Сравнение личного алгоритма с ответом модели помогает выявить слабые места, пропущенные нюансы или скрытые допущения, которые система заложила в основу своего результата.
Инженерный подход к генерации кода
Чен рекомендует формулировать запросы к модели как при проведении полноценного code review, где нейросеть выступает в роли младшего разработчика. Эффективный промпт должен содержать вопросы о масштабируемости системы, поведении при возникновении критических ошибок и проработке запасных сценариев. На практике это значит, что разработчик должен осознанно подходить к тестированию экстремальных случаев (edge cases), не полагаясь на то, что модель самостоятельно учтет все нюансы масштабирования.
Важным правилом остается пошаговая верификация кода. Не стоит дожидаться полной генерации функционала — проверку нужно производить на каждом промежуточном этапе. Это исключает накопление ошибок, при которых стоимость исправления дефектов возрастает экспоненциально, вынуждая переписывать весь блок с нуля. Использование ИИ в разработке не снимает с инженера ответственности за итоговый продукт. Код, отправленный в продакшн, должен быть полностью понятен и верифицирован человеком, поскольку ответственность за работоспособность систем в конечном итоге лежит на авторе, а не на инструменте.