GCP Data DevOps Engineer
nr ref: 27/5/2025/AJ/90913
W Antal zajmujemy się rekrutacją od ponad 20 lat. Dzięki działaniu w 10 wyspecjalizowanych dywizjach, świetnie orientujemy się w aktualnych trendach branżowych. Precyzyjnie określamy specyfikę stanowiska, klasyfikując kluczowe umiejętności i niezbędne kwalifikacje. Naszą misją jest nie tylko znalezienie kandydata, którego kompetencje wpisują się w wymagania danego ogłoszenia, ale przede wszystkim stanowiska, spełniającego oczekiwania kandydata. Numer rejestru agencji zatrudnienia: 496.
Forma współpracy: B2B
Tryb pracy: hybrydowy 2 dni z biura w Krakowie
Dla naszego Klienta szukamy wykwalifikowanego, doświadczonego i zmotywowanego Inżyniera DevOps, który będzie nadzorował, dostarczał i rozwijał nasze praktyki DevOps/DataOps. W tej roli będziesz projektować i rozwijać procesy oraz DevOps/CICD/DataOps, zapewniając płynną integrację procesów rozwojowych i operacyjnych.
Zakres obowiązków:
-
Projektowanie, wdrażanie i utrzymanie potoków Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing dla wszystkich komponentów aplikacji, modeli danych, transformacji itp.
-
Optymalizacja, automatyzacja i usprawnianie przepływów pracy i procesów, w szczególności związanych z dostarczaniem i efektywnością operacyjną
-
Automatyzacja dostarczania infrastruktury i zarządzania konfiguracją
-
Analiza i rozwiązywanie luk oraz podatności w systemach
-
Utrzymywanie zgodności rozwiązań z wymogami bezpieczeństwa oraz standardami w sposób zautomatyzowany i aktualny
-
Współpraca z zespołami Inżynierów Danych, QA i Biznesu w celu definiowania i wdrażania najlepszych praktyk DevOps / DataOps
-
Mentoring, wspieranie i kierowanie mniej doświadczonymi inżynierami DevOps, promowanie kultury ciągłego doskonalenia
-
Monitorowanie systemów oraz reagowanie na awarie – ich rozwiązywanie i automatyzacja reakcji
Technologie:
-
BigQuery, SQL/T-SQL, GCP Data Fusion, Dataproc, Cloud Run, Secret Manager, GCS
-
Git, Ansible Tower / skrypty Ansible, Terraform, Jenkins
-
Java, Python, Cloud Composer/Airflow
Wymagane (Must Have):
-
Minimum 2-letnie praktyczne doświadczenie w roli Inżyniera DevOps/DevSecOps lub SRE, najlepiej w projektach opartych na GCP
-
Minimum 2-letnie doświadczenie z narzędziami DevOps takimi jak Ansible Tower, Jenkins, IaC (np. Terraform) w zakresie projektowania, wdrażania i utrzymania potoków CI/CD
-
Znajomość języków skryptowych takich jak Python, Bash, Groovy
-
Biegłość w pracy z Git oraz jego integracji z narzędziami DevOps (np. Ansible Tower, Jenkins)
-
Doświadczenie w pracy w środowisku Agile i znajomość odpowiedniego zestawu narzędzi
-
Silne umiejętności analityczne i rozwiązywania problemów
-
Otwartość na szybkie i samodzielne zdobywanie nowej wiedzy technicznej i miękkiej
-
Dobra organizacja pracy oraz umiejętność pracy nad wieloma zadaniami jednocześnie
-
Umiejętność pracy zespołowej, nastawienie na współpracę i wzajemne wsparcie
Mile widziane (Nice to Have):
-
Doświadczenie w modelowaniu i/lub wykorzystaniu Data Vault
-
Doświadczenie w projektowaniu, testowaniu i wdrażaniu potoków przetwarzania danych w GCP Data Fusion, CDAP lub podobnych narzędziach, w tym przetwarzaniu danych w formatach CSV, JSON, XML z API REST/SOAP, serwerów SFTP itp.
-
Znajomość nowoczesnych praktyk dotyczących kontraktów danych (data contracts), w tym doświadczenie w ich negocjowaniu, dokumentowaniu i wdrażaniu
-
Umiejętność programowania w Javie – mile widziane doświadczenie z tworzeniem pluginów do Data Fusion
-
Znajomość SQL – umiejętność optymalizacji złożonych zapytań i transformacji w BigQuery z naciskiem na efektywność kosztową, czasową i spójność danych
-
Doświadczenie w tworzeniu, testowaniu i wdrażaniu potoków przekształcania danych ETL/ELT w GCP Data Fusion
-
Znajomość Cloud Composer/Airflow, Cloud Run, Pub/Sub