Работать с требованиями: собирать, анализировать, документировать.
Составлять Use Case, User Story, BPMN/UML-диаграммы.
Использовать API (REST, SOAP), XML/JSON.
Работать с Jira, Confluence, Notion или аналогами.
Писать SQL-запросы (SELECT, JOIN, оконные функции) и работать с БД (PostgreSQL, MySQL, MongoDB и др.).
Применять базовые знания ETL/ELT-процессов.
Использовать Python (Pandas, SQLAlchemy, Airflow — как плюс).
Работать с облачными и файловыми хранилищами (S3, BigQuery, Snowflake, HDFS).
Применять Spark/Flink для обработки данных.
Взаимодействовать с заказчиком: собирать требования, демонстрировать систему, обучать пользователей, при необходимости оказывать техническую поддержку.
Мы ожидаем от вас:
Иметь опыт работы от 3 лет.
Владеть инструментами ETL/ELT (Pentaho, NiFi, Talend и др.).
Применять Spark/Flink в производственных проектах.
Работать с инструментами оркестрации (Airflow, Dagster, Kestra и пр.).
Программировать на Python; использовать фреймворки анализа данных (NumPy, Pandas, SciPy, scikit-learn).
Владеть SQL и работать с Postgres, Oracle, MSSQL, MySQL.
Использовать Kafka и HDFS.
Применять основы Git и Docker.
Участвовать в pet-проектах или хакатонах (ссылка на GitHub приветствуется).
Обладать аналитическим мышлением и внимательностью к деталям, уметь работать с большими объёмами данных.