데이터 변환 처리 및 이동을 자동화하여 데이터 통합 과정을 효율적으로 관리할 수 있으며, 데이터 분석, 머신 러닝, 데이터 시각화, 애플리케이션 개발 등 비즈니스 목적에 맞게 활용할 수 있도록 통합된 데이터를 제공합니다.
웹 서버, 데이터베이스, 파일, 애플리케이션 로그 등 여러 매체의 다양한 데이터 소스를 처리하는 파이프라인을 통해 효과적으로 데이터를 통합할 수 있는 서버리스 서비스입니다.
다양한 소스에서 추출한 데이터를 필요한 형태와 구조로 변환하여 저장소로 전송할 수 있습니다. 이 모든 과정을 시각적인 인터페이스를 통해 코드 작성 없이 파이프라인을 쉽게 구성하고 실행할 수 있습니다.
Data Flow 서비스를 통해 다양한 데이터 소스와 연결하고 변환 실행 할 수 있으며, 콘솔에서 제공하는 시각적 인터페이스로 워크플로를 생성해 일정에 따라 자동 실행하거나 필요 시 직접 실행할 수 있습니다.
다양하고 복잡한 대규모의 데이터 소스에서 데이터를 수집하기 위해서는 많은 인력, 비용, 시간, 솔루션이 필요합니다. Data Flow 서비스의 커넥터를 이용하면 네이버 클라우드 플랫폼의 다양한 서비스들과의 연동을 통한 데이터 수집이 가능해 인적, 기술적 리소스를 간소화하고 효율화할 수 있습니다.
Data Flow에서는 시각적인 인터페이스를 통해 데이터 처리 현황을 모니터링 할 수 있으며, Cloud Log Analytics 서비스와 연동하여 Data Flow의 데이터 처리 실행 로그를 효과적으로 관리할 수 있습니다.
구분 | 상세 | 과금 항목 | 과금 기준 | 요금 |
---|---|---|---|---|
ETL 작업 | 작업 실행 시간 | 컨테이너 | 분 | - |
(VAT 별도)
ETL 작업은 4vCPU 및 8GB RAM 사양의 컨테이너로 실행하며, 작업에 투입된 컨테이너별로 실행 시간당 요금이 부과됩니다.
컨테이너는 작업을 실행하기 위한 워커를 의미합니다.
ETL 작업 실행에는 최소 2개의 컨테이너가 필요합니다.
실행 컨테이너 수: 2개, 매회 ETL 변환 시간: 5분 7초, 실행 횟수: 720회(매일 1시간 간격으로 실행, 30일 기준)로 가정할 경우,
(컨테이너 -/분 x 2개) x (((5분 x 60초) + 7초) x 720회 / 60초) = -
실행 컨테이너 수: 3개, 매회 ETL 변환 시간: 3분 7초, 실행 횟수: 720회(매일 1시간 간격으로 실행, 30일 기준)로 가정할 경우,
(컨테이너 -/분 x 3개) x (((3분 x 60초) + 7초) x 720회 / 60초) = -
실행 컨테이너 수: 2개, 매회 ETL 변환 시간: 20시간 10분 17초, 실행 횟수: 1회로 가정할 경우,
(컨테이너 -/분 x 2개) x (((20시간 x 60분 x 60초) + (10분 x 60초) + 17초) x 1회 / 60초) = -