Дніпро,  Харків,  Херсон,  Київ,  Львів,  Одеса,  Люблін,  Вроцлав,  Софія,  Remote.UA,  Remote.PL,  Remote.BG,  Краків
Дистанційна робота
Дніпро,  Харків,  Херсон,  Київ,  Львів,  Одеса,  Люблін,  Вроцлав,  Софія,  Remote.UA,  Remote.PL,  Remote.BG,  Краків
Дистанційна робота

About the vacancy

DataArt was engaged to help build a new cloud-based data management and analytics platform for one of Europe's leading alternative asset management firms. The main technologies are the Azure Data Platform (Azure SQL, Azure Data Factory, Azure Storage account, Azure Functions) and Python.

We are assembling a project team for the logical continuation of the pilot, discovery, and solution design phases that we recently completed. We need an expert who will own the overall data platform architecture and technology stack.

For the project, which is in the investment/private equity domain, we're looking for an experienced Python Developer with knowledge of data engineering (transformation) (Azure Databricks platform).

You will join a group of highly qualified data specialists: engineers, analysts, and data quality managers.

We hire people not for a project but for the company. If the project (or your work on it) is over you go to another project or are paid to be “Idle”.

Workload distribution:

Python 50%

SQL: 30%

Team/business interaction: 20%

Target working hours: 9:00-18:00 GMT (1 hour lunch break)

Responsibilities

  • Combining and transforming input data coming in flat file format from the Azure SQL database into a flat file consumed by the reporting applications (DWH)
  • Writing Python notebooks and modules/libraries running complex finance calculations
  • Designing algorithms and writing documentation for the developed modules
  • Debugging and optimizing code
  • Collaborating with team members on the requirements, delivery timelines, and progress reports
  • Checking if the quality of output data matches the requirements
  • Working with quality assurance members to identify and resolve discrepancies
  • Creating data processing pipelines
  • Preparing notebooks (parametrization) for orchestration via Azure Data Factory (handled by a different team)

Must have

  • 2+ years of Python experience
  • 1+ years of experience with SQL (T-SQL)
  • Good familiarity with best practices in Python coding
  • Experience with reverse engineering Python code, error handling routines, logging, performance tuning, optimization, and testing
  • Strong knowledge of Python modules (data-scoped) focus: Pandas data frames (joins, filtering, datatypes) & NumPy
  • Experience working with multimillion rows datasets, dozens of tables, composite keys, and conditional joins
  • Confident working with SQL databases (T-SQL), Views, Stored Procedures, and SQL query performance tuning (data retrieval from DWH)
  • Good spoken English to communicate with team members and technical terminology for documentation/requirements

Would be a plus

  • Background with data warehousing and data modelling
  • Experience working in private equity, investments, or the financial domain (commercial loans/lending sector)
  • Familiarity with financial metrics like discounted cash flow calculations, present and future value, IRR, currency conversions, and interest rates
  • Knowledge of Agile: Jira and Confluence, Standups and Sprints
  • Experience with presenting data (technical side of solution)
  • Experience with Git repositories and source control (Databricks Repos)
  • Familiarity with build and release cycles
  • Experience with Visual Studio Code (Python, SQL)
  • Knowledge of SSMS/SQL Management Studio/Azure Data Studio
  • Databricks notebook parametrization (DBUtils.widgets)
  • Experience with Databricks interactions with file systems: ADLS and mount points (DBUtils.fs)
  • Experience with ADB secret scopes with Azure KeyVault (DBUtils.secrets)
  • Experience with Databricks dashboards and Databricks notebook exit codes/JSON (DBUtils.notebook)
  • Hive SQL and Delta Lake (Delta Engine SQL)
  • Experience with PySpark (DataFrame and SQL interfaces, some ML), visualization libraries (e.g. Matplotlib), Scipy, JSON

Learn more about our policy of equal opportunities in employment

Робота в DataArt це

Перш за все - люди

Стосунки з клієнтами та між колегами засновані на взаємоповазі, не дивлячись на наші відмінності

  • Довготривале партнерство
  • Ми поважаємо індивідуальність та свободу самовираження
  • Гнучкий графік, комфортні офіси та можливість працювати з дому
  • Ринкова компенсація і турбота про здоров'я
  • Висока якість внутрішніх адміністративних сервісів

Професіоналізм

Можливість розкрити свій потенціал в екосистемі DataArt

  • Команда професіоналів та цікаві завдання
  • Безперервний обмін знаннями у спільнотах за інтересами
  • Програма вивчення англійської мови
  • Внутрішня система професійного навчання

Гнучкість

Можливість експерименувати та здобувати новий досвід і знання, готовність до змін

  • Безстрокові трудові взаємини з DataArt, а не з проектом
  • Плоска структура організації
  • Мінімум правил
  • Правила та процедури можуть змінюватися, цінності ми дбайливо зберігаємо
  • Можливість працювати з будь-якого нашого центру розробки, допомога при релокації

Довіра

Можливість розраховувати один на одного та готовність довіряти людям - основа взаємин у Dataart

  • Роль лідерів в DataArt полягає у створенні умов за яких люди самостійно примають рішення
  • Зрозумілі та однакові для всіх правила і політики
  • Ми ретельно підходимо до оцінки рівня кваліфікації
  • Ми не заохочуємо суперництво між колегами в колективі і не маємо регулярного оцінювання персоналу

Не знайшли необхідну інформацію?

Все одно відправте нам резюме - ми спробуємо що-небудь придумати

Відправити резюме

Не знайшли необхідну інформацію?

Все одно відправте нам резюме - ми спробуємо що-небудь придумати

Відправити резюме

Схожі вакансії