엔드 투 엔드 데이터 파이프 라인 구축 : 데이터 수집에서 분석에 이르기까지

엔드 투 엔드 데이터 파이프 라인 구축 : 데이터 수집에서 분석에 이르기까지

엔드 투 엔드 데이터 파이프 라인 구축 : 데이터 수집에서 분석에 이르기까지엔드 투 엔드 데이터 파이프 라인 구축 : 데이터 수집에서 분석에 이르기까지
저자의 이미지

적시에 올바른 데이터를 전달하는 것은 데이터 중심 사회의 모든 조직에 대한 주요 요구입니다. 그러나 솔직히 말하면, 신뢰할 수 있고 확장 가능하며 관리 가능한 데이터 파이프 라인을 만드는 것은 쉬운 일이 아닙니다. 사려 깊은 계획, 의도적 인 디자인 및 비즈니스 지식 및 기술 전문 지식의 조합이 필요합니다. 여러 데이터 소스를 통합하거나 데이터 전송 관리 또는 단순히시기 적절한보고를 보장하든 각 구성 요소는 고유 한 과제를 제시합니다.

이것이 오늘날 데이터 파이프 라인이 무엇인지 강조하고 하나를 구축하는 데있어 가장 중요한 구성 요소에 대해 논의하고 싶은 이유입니다.

데이터 파이프 라인이란 무엇입니까?

데이터 파이프 라인을 배포하는 방법을 이해하기 전에 데이터 파이프 라인이 무엇인지, 필요한 이유를 이해해야합니다.

데이터 파이프 라인은 원시 데이터를 비즈니스 인텔리전스 및 의사 결정을위한 유용하고 분석 가능한 형식으로 변환하도록 설계된 구조화 된 처리 단계입니다. 간단히 말해서, 다양한 소스에서 데이터를 수집하고, 변형, 강화 및 최적화 한 다음 하나 이상의 대상 대상으로 전달하는 시스템입니다.

데이터 파이프 라인데이터 파이프 라인
저자의 이미지

데이터 파이프 라인을 모든 형태의 데이터 이동과 동일시하는 것은 일반적인 오해입니다. 원시 데이터를 지점에서 B 지점으로 이동하는 것 (예 : 복제 또는 백업의 경우)은 데이터 파이프 라인을 구성하지 않습니다.

데이터 파이프 라인을 정의하는 이유는 무엇입니까?

데이터로 작업 할 때 데이터 파이프 라인을 정의 해야하는 여러 가지 이유가 있습니다.

  • 모듈성 : 유지 보수 및 확장성에 대한 재사용 가능한 단계로 구성
  • 결함 공차 : 로깅, 모니터링 및 재 시도 메커니즘으로 오류에서 복구 할 수 있습니다.
  • 데이터 품질 보증 : 무결성, 정확성 및 일관성에 대한 데이터 검증
  • 자동화 : 일정 또는 방아쇠로 실행되어 수동 중재 최소화
  • 보안 : 액세스 제어 및 암호화로 민감한 데이터를 보호합니다

데이터 파이프 라인의 세 가지 핵심 구성 요소

대부분의 파이프 라인은 ETL 주위에 구축됩니다 (추출, 변환,로드) 또는 elt (추출,로드, 변환) 프레임 워크. 둘 다 동일한 원칙을 따릅니다. 대량의 데이터를 효율적으로 처리하고 깨끗하고 일관되며 사용할 준비가되도록합니다.

데이터 파이프 라인 (ETL 단계)데이터 파이프 라인 (ETL 단계)
저자의 이미지

각 단계를 분류합시다.

구성 요소 1 : 데이터 수집 (또는 추출)

파이프 라인은 데이터베이스, API, 클라우드 스토리지, IoT 장치, CRM, 플랫 파일 등과 같은 여러 데이터 소스에서 원시 데이터를 수집하여 시작됩니다. 데이터는 배치 (시간별 보고서) 또는 실시간 스트림 (라이브 웹 트래픽)으로 도착할 수 있습니다. 주요 목표는 다양한 데이터 소스에 안전하고 안정적으로 연결하고 (실시간) 또는 REST (Batch)를 수집하는 것입니다.

두 가지 일반적인 접근법이 있습니다.

  1. 배치 : 정기적 인 풀을 스케줄하십시오 (매일, 시간당).
  2. 스트리밍 : Kafka 또는 이벤트 중심 API와 같은 도구를 사용하여 데이터를 지속적으로 수집하십시오.

사용하는 가장 일반적인 도구는 다음과 같습니다.

  • 배치 도구 : Airbete, Fivetran, Apache Nifi, 사용자 정의 Python/SQL 스크립트
  • API : 서비스의 구조화 된 데이터 (Twitter, Eurostat, Tripadvisor)
  • 웹 스크래핑 : BeautifulSoup, Crapy 또는 No-Code Scraper와 같은 도구
  • 플랫 파일 : 공식 웹 사이트 또는 내부 서버의 CSV/Excel

구성 요소 2 : 데이터 처리 및 변환 (또는 변환)

섭취하면 원시 데이터를 개선하고 분석 할 준비를해야합니다. 여기에는 청소, 표준화, 데이터 세트 병합 및 비즈니스 로직 적용이 포함됩니다. 주요 목표는 데이터 품질, 일관성 및 유용성을 보장하고 분석 모델 또는보고 요구와 데이터를 정렬하는 것입니다.

이 두 번째 구성 요소 동안 일반적으로 여러 단계가 고려됩니다.

  1. 청소 : 결 측값 처리, 복제를 제거하고 형식을 통합하십시오
  2. 변환 : 필터링, 집계, 인코딩 또는 재 형성 로직을 적용하십시오
  3. 유효성 검사 : 무결성 검사를 수행하여 정확성을 보장합니다
  4. 병합 : 여러 시스템 또는 소스의 데이터 세트를 결합합니다

가장 일반적인 도구는 다음과 같습니다.

  • DBT (데이터 빌드 도구)
  • 아파치 스파크
  • 파이썬 (팬더)
  • SQL 기반 파이프 라인

구성 요소 3 : 데이터 전달 (또는로드)

변환 된 데이터는 최종 대상, 일반적으로 데이터웨어 하우스 (구조화 된 데이터의 경우) 또는 데이터 레이크 (세미 또는 구조화되지 않은 데이터)로 전달됩니다. 대시 보드, API 또는 ML 모델로 직접 전송 될 수도 있습니다. 주요 목표는 빠른 쿼리 및 확장 성을 지원하는 형식으로 데이터를 저장하고 의사 결정에 대한 실시간 또는 거의 실시간 액세스를 가능하게하는 것입니다.

가장 인기있는 도구는 다음과 같습니다.

  • 클라우드 스토리지 : Amazon S3, Google Cloud Storage
  • 데이터웨어 하우스 : BigQuery, Snowflake, Databricks
  • Bi-ready 출력 : 대시 보드, 보고서, 실시간 API

엔드 투 엔드 데이터 파이프 라인을 구축하는 6 단계

우수한 데이터 파이프 라인 구축에는 일반적으로 6 가지 주요 단계가 포함됩니다.

데이터 파이프 라인. 좋은 것을 수행하기위한 6 단계.데이터 파이프 라인. 좋은 것을 수행하기위한 6 단계.
강력한 데이터 파이프 라인 구축을위한 6 단계 | 저자의 이미지

1. 목표와 건축을 정의하십시오

성공적인 파이프 라인은 그 목적과이를 지원하는 데 필요한 아키텍처에 대한 명확한 이해로 시작됩니다.

주요 질문 :

  • 이 파이프 라인의 주요 목표는 무엇입니까?
  • 데이터의 최종 사용자는 누구입니까?
  • 데이터는 얼마나 신선하거나 실시간이어야합니까?
  • 요구 사항에 가장 적합한 도구 및 데이터 모델은 무엇입니까?

권장 조치 :

  • 파이프 라인이 답변하는 데 도움이 될 비즈니스 질문을 명확하게하십시오
  • 기술 및 비즈니스 이해 관계자를 조정하기 위해 고급 아키텍처 다이어그램을 스케치
  • 그에 따라 도구 및 디자인 데이터 모델을 선택하십시오 (예 :보고를위한 스타 스키마)

2. 데이터 수집

목표가 정의되면 다음 단계는 데이터 소스를 식별하고 데이터를 안정적으로 수집하는 방법을 결정하는 것입니다.

주요 질문 :

  • 데이터 소스는 무엇이며 어떤 형식으로 사용할 수 있습니까?
  • 섭취는 실시간, 배치 또는 둘 다로 발생해야합니까?
  • 데이터 완전성과 일관성을 어떻게 보장 할 것인가?

권장 조치 :

  • API, 데이터베이스 또는 타사 도구와 같은 데이터 소스에 안전하고 확장 가능한 연결을 설정하십시오.
  • Airbete, Fivetran, Kafka 또는 사용자 정의 커넥터와 같은 섭취 도구를 사용하십시오.
  • 섭취 중에 기본 유효성 검사 규칙을 구현하여 일찍 오류를 잡을 수 있습니다.

3. 데이터 처리 및 변환

원시 데이터가 흐르면 유용 할 때입니다.

주요 질문 :

  • 분석을 위해 데이터를 준비하려면 어떤 변환이 필요합니까?
  • 외부 입력으로 데이터를 풍부하게해야합니까?
  • 복제 또는 유효하지 않은 레코드는 어떻게 처리됩니까?

권장 조치 :

  • 필터링, 집계, 표준화 및 결합 데이터 세트와 같은 변환을 적용합니다.
  • 비즈니스 로직을 구현하고 테이블에서 스키마 일관성을 보장하십시오
  • DBT, Spark 또는 SQL과 같은 도구를 사용하여 이러한 단계를 관리하고 문서화하십시오.

4. 데이터 저장

그런 다음 분석 및보고를 위해 처리 된 데이터를 저장하는 방법 및 위치를 선택하십시오.

주요 질문 :

  • 데이터웨어 하우스, 데이터 호수 또는 하이브리드 (Lakehouse) 접근 방식을 사용해야합니까?
  • 비용, 확장 성 및 액세스 제어 측면에서 요구 사항은 무엇입니까?
  • 효율적인 쿼리를위한 데이터를 어떻게 구조화 하시겠습니까?

권장 조치 :

  • 분석 요구에 맞는 스토리지 시스템 (예 : BigQuery, Snowflake, S3 + Athena)
  • 사용 사례를보고하기 위해 최적화하는 설계 스키마
  • 보관 및 제거를 포함한 데이터 수명주기 관리 계획

5. 오케스트레이션 및 자동화

모든 구성 요소를 함께 묶으려면 워크 플로 오케스트레이션 및 모니터링이 필요합니다.

주요 질문 :

  • 어떤 단계가 서로 의존합니까?
  • 단계가 실패하면 어떻게해야합니까?
  • 파이프 라인을 모니터링, 디버그 및 유지 관리하는 방법은 무엇입니까?

권장 조치 :

  • 공기 흐름, 현 또는 Dagster와 같은 오케스트레이션 도구를 사용하여 워크 플로우를 예약하고 자동화합니다.
  • 재시도 정책 및 실패에 대한 경고를 설정합니다
  • 파이프 라인 코드 및 재사용 성을 모듈화하십시오

6.보고 및 분석

마지막으로, 이해 관계자에게 통찰력을 노출시켜 가치를 제공하십시오.

주요 질문 :

  • 분석가와 비즈니스 사용자는 데이터에 액세스하는 데 어떤 도구를 사용합니까?
  • 대시 보드는 얼마나 자주 업데이트해야합니까?
  • 어떤 권한이나 거버넌스 정책이 필요합니까?

권장 조치 :

  • Warehouse 또는 Lake를 Looker, Power BI 또는 Tableau와 같은 BI 도구에 연결하십시오.
  • 액세스를 단순화하기 위해 시맨틱 레이어 또는보기를 설정합니다
  • 진행중인 가치를 보장하기 위해 대시 보드 사용 및 새로 고침 성능을 모니터링합니다.

결론

완전한 데이터 파이프 라인을 만드는 것은 데이터 전송뿐만 아니라 결정을 내리고 행동을 취하는 데 필요한 사람들에게 힘을 실어주는 것입니다. 이 체계적인 6 단계 프로세스를 사용하면 효과적 일뿐 만 아니라 탄력적이고 확장 가능한 파이프 라인을 구축 할 수 있습니다.

파이프 라인의 각 단계 (섭취, 변형 및 전달)는 중요한 역할을합니다. 이들은 함께 데이터 중심 의사 결정을 지원하고 운영 효율성을 향상 시키며 혁신을위한 새로운 길을 조성하는 데이터 인프라를 형성합니다.

Josep Ferrer 바르셀로나의 분석 엔지니어입니다. 그는 물리 공학을 졸업했으며 현재 인간 이동성에 적용되는 데이터 과학 분야에서 일하고 있습니다. 그는 데이터 과학 및 기술에 중점을 둔 파트 타임 콘텐츠 제작자입니다. Josep은 AI의 모든 것에 글을 썼으며 현장에서 진행중인 폭발의 적용을 다루고 있습니다.

출처 참조

Post Comment

당신은 놓쳤을 수도 있습니다