⚠︎ Архивная вакансия
Эта вакансия была перемещена в архив. Возможно она уже не актуальна и рекрутер больше не принимает отклики на эту вакансию. Вы можете  найти актуальные похожие вакансии

Архитектор ведущий разработчик DWH

Прямой работодатель  Simplethora ( simplethora.com )
Москва, Россия
Тимлид/Руководитель группы • Архитектор
Аналитика, Data Science, Big Data • Python • SQL • Hadoop • Greenplum • MSSQL • Oracle • Банковская и страховая сфера • Системная интеграция
26 ноября 2020
Удаленная работа • Работа в офисе
Опыт работы от 3 до 5 лет
от 220 000 000 ₽
Работодатель  Simplethora
Описание вакансии

О нас 

Мы небольшой консалтинг. Делаем проекты для крупных заказчиков в различных областях. Закрываем полный цикл проекта: начиная со сбора данных из различных источников, которые раскладываются в ХД или DataLake, дальше строим модели и дополнительно обогащаем их, иногда с помощью CV. Если данных много то, подтягиваем на помощь hadoop и всякие другие штуки).

Так же есть проекты с чисто DS и CV.

Условия

  • Сейчас удаленная работа, если в МСК, то можно ездить с нами в коворкинг.
  • График гибкий 5/2 - но должна быть общая доступность с 11 до 17.
  • Вилка в рынке - оформление в штат. Но можем и по договору ГПХ/ИП, если предпочитаешь откладывать на пенсию сам.
  • Ну и всякие ништяки по мелочи))

Кого ищу и для чего

Расширяю команду BigData, ищу крутых ребят которые помогут достроить DWH банк ТОП-10. Свои кадры уже все заняты. Проект долгосрочный.

Формат работы

Работать будем внутри банка. Полная занятость и график гибкий (+/- пара часов от нормы). Сейчас удаленно, потом можно обсуждать 

Что будет

  • Проектирование и построение DWH;
  • Проработка технических решений и правил функционирования DWH;
  • Выстраивание ETL-процессов, написание ETL-процедур по загрузке данных из внешних источников;
  • Разработка серверных процедур для расчета аналитических витрин на основе первичных данных.

Какие нужны скилы

  • Опыт работы как минимум с двумя промышленными СУБД - Oracle/MS SQL/Postgres/Greenplump/Teradata от 5 лет;
  • Желателен опыт работы с Hadoop;
  • Отличное знание SQL, умение писать хранимые процедуры и оптимизировать сложные запросы;
  • Опыт проектирования и разработки хранилищ данных с объемом данных более 1 Тб;
  • Опыт работы с Airflow или аналогичными инструментами, опыт построения ETL-процессов;
  • Желательно знание Python.