Перейти к основному содержимому
🤖

Подготовка к собеседованию ML-инженера — моделирование + продовые системы — для инженеров Ташкента и Центральной Азии

Интервью на ML-инженера копают и в моделирование, и в продовые системы — нужно убедить, что вы и собрать модель можете, и выкатить. Тренируйтесь на реальных вопросах ташкентских финтехов и удалённых работодателей из ЕС — с оценкой в реальном времени по коммуникации, технической глубине, решению задач и культурному фиту.

ML engineering — самая редкая роль из этого списка в Ташкенте и потому самая оплачиваемая. Локальные финтехи начали нанимать (фрод, скоринг, персонализация), а удалённые работодатели из ЕС платят в 2 раза больше, чем местному data scientist. Формат интервью соответствующий: глубокие вопросы по моделированию, глубокие — по системам, и почти никакого терпения к пустоте.

Вопросы ниже — из реальных интервью. Тренируйте их вслух — большинство ML-кандидатов теряет оффер, потому что не может сформулировать, почему модель сломалась, в тех терминах, которых ждёт интервьюер.

Ключевые навыки, которые проверяют

  • Классический ML: регрессия, градиентный бустинг, калибровка
  • Базы DL: backprop, оптимизаторы, регуляризация
  • PyTorch (или TensorFlow) на проде
  • Feature engineering и feature stores
  • Сервинг моделей: batch vs real-time, latency-бюджет
  • Эксперименты: офлайн-метрики vs онлайн, A/B-тесты
  • Мониторинг: data drift, model drift, логирование предсказаний
  • Хороший Python + SQL

Зарплатные диапазоны в Ташкенте (2026)

Ориентир. Remote-first европейские позиции обычно платят на 30–50% выше локального рынка.

Джуниор

12–18 млн сум / месяц

Мидл

25–38 млн сум / месяц

Сеньор

от 45 млн сум / месяц (или EUR в remote, часто 2x локала)

Что у вас на самом деле спросят

Собрано из реальных собеседований, записанных на NextSuhbat. Каждая позиция — вопрос, к которому стоит готовиться, и что интервьюер на самом деле проверяет.

  1. 1

    Скрининг рекрутёра

    Самая сложная модель, которую вы выкатили в прод.

    Зачем спрашивают: 2 минуты. Решение для пользователя, выбор подхода, форма деплоя, метрика, которая сдвинулась.

  2. 2

    Технические

    Расскажите про gradient descent и зачем mini-batches на практике.

    Зачем спрашивают: Планка DL. Память, шум как регуляризация, параллелизм на GPU.

  3. 3

    Технические

    L1 vs L2 регуляризация с конкретным примером.

    Зачем спрашивают: Sparsity vs smoothness. L1 — отбор признаков, L2 — стабильность коэффициентов.

  4. 4

    Технические

    Как детектируете data drift в проде?

    Зачем спрашивают: MLOps на практике. PSI, KS-тест, мониторинг распределения предсказаний, порог реакции.

  5. 5

    Технические

    Выкатили fraud-модель. Recall на новом паттерне фрода — 12%. Что делаете?

    Зачем спрашивают: Анализ ошибок, качество разметки, пробелы в фичах, ритм ретрейна, не-ML хотфикс параллельно.

  6. 6

    Кодинг

    Softmax в PyTorch руками.

    Зачем спрашивают: Numerical stability. Вычесть max перед exp — иначе overflow.

  7. 7

    Кодинг

    Per-class precision/recall из y_true/y_pred без sklearn.

    Зачем спрашивают: Планка ML. Должна быть muscle memory.

  8. 8

    System design

    Рекомендательная система: 5M товаров, p99 50ms.

    Зачем спрашивают: Candidate generation, ranking, embedding store, холодный старт, offline-online evaluation.

  9. 9

    Поведенческие

    Модель: офлайн отлично, прод — плохо.

    Зачем спрашивают: Конкретная история. Distribution shift, feedback loops, label leakage — валидные причины.

  10. 10

    Поведенческие

    Как решаете, нужна ли ML вообще?

    Зачем спрашивают: Суждение. Сильные ответы: когда хватает эвристики, SQL-правила или конфига.

Потренируйте эти вопросы вслух — бесплатно

Чтение — не практика. Прогоните 20-минутное AI-мок-интервью на английском, русском или узбекском и получите оценку по коммуникации, технической глубине, решению задач и культурному фиту.

Начать бесплатное мок-интервью

Сделано в Ташкенте для Центральной Азии. Все сессии поддерживают английский, русский и узбекский голос.