loader
  • 84

    programista i inżyniera

  • 8

    lat doświadczenia

  • 100+

    zrealizowanych projektów

Funkcje działu

Zajmujemy się profesjonalnymi rozwiązaniami w zakresie danych o dowolnym poziomie złożoności. Tworzymy jeziora danych, konfigurujemy procesy ETL / ELT, tworzymy aplikacje Big Data i świadczymy inne usługi związane z danymi:

  • big data consulting
  • big data analityka
  • big data opracowanie
  • big data management
  • wizualizacja big data
  • zarządzanie jakością danych
  • migracja danych
  • big data mining
  • testy big data
  • integracja danych
  • automatyzacja big data

Przez lata firma dostarczyła szereg niestandardowych rozwiązań big data dla klientów z ponad 3% krajów na całym świecie, a popyt na nie stale rośnie. Wynika to z faktu, że dziś nie można sobie wyobrazić rozwoju żadnej branży bez odpowiednich usług Big Data.

Zasady działania

Nasz zespół opracował określone procesy do pracy z projektami big data. Złożoność rozwiązania ma duży wpływ na to, jak wygląda końcowy proces rozwoju, jednak nadal możemy wyróżnić najważniejsze etapy:

  • omówienie z klientem celów biznesowych i oczekiwań
  • identyfikacja technologii, które będą wykorzystywane w procesie opracowywania danych
  • zbieranie i sortowanie danych, wykrywanie określonych wzorców, korelacji i anomalii w zbiorze danych
  • czyszczenie i konwersja danych do odpowiedniego formatu
  • badanie poszczególnych części danych, identyfikowanie przydatnych trendów i wzorców

Zespół

Dział obejmuje 80+ specjalistów: AWS data engineers, Azure data engineers, GCP data engineers, DataOps engineers itp. Są to profesjonaliści zdolni do integracji big data z szeregiem nowoczesnych technologii: blockchain, machine learning, data science, IoT. Taka integracja pomaga osiągnąć maksymalne wyniki w jak najkrótszym czasie, a także korzyści, takie jak bezpieczeństwo, opłacalność i dokładność operacji.

Technologia

Python, Ruby, Java, Scala, C++, Google Data Studio, Power BI, Tableau, Looker, QuickSight, QlikView, Qlik Sense, TensorFlow, Keras, PyTorch, Theano, SciPy, Caffe, OpenCV, Sklearn, Pandas, NumPy, Seaborn, Matplotlib, Plotly, Amazon Glue, Lambda, AWS S3, SQS, CloudWatch, Azure Data Lake, Azure Cosmos DB, Azure DataBricks, Azure Synapse Analytics, GCP DataPrep, GCP DataProc, GCP DataFlow, GCP Cloud Storage, Apache Airflow, Apache Hive, Apache Hadoop, Apache NiFi, Apache HBase, Kafka, Cassandra.

bg Tichonowicz Filip

Tichonowicz Filip

Head of Big Data Department

Lepszą przyszłość buduje się dzięki wspólnym wysiłkom. Pomagamy naszym klientom znaleźć optymalne rozwiązania, a także rozwijać się w zawodzie i osiągać nowe wyżyny.

Przykłady projektów