Associate-Data-Practitioner 문제 36

여러 소스에서 수집된 100GB의 구조화된 데이터를 일일 보고를 위해 처리하는 일괄 데이터 파이프라인을 구축하고 있습니다. 단일 데이터세트에 저장되도록 데이터를 로드하기 전에 변환 및 표준화해야 합니다. 쉽게 구축하고 관리할 수 있는 로우코드 솔루션을 사용하고 싶습니다. 어떻게 해야 할까요?

Associate-Data-Practitioner 문제 37

여러 Google Cloud 리전에 있는 애플리케이션의 이벤트 정보를 BigQuery로 스트리밍하여 거의 실시간 분석을 수행하는 데이터 파이프라인을 만들어야 합니다. 데이터를 로드하기 전에 변환이 필요합니다. 시각적 인터페이스를 사용하여 파이프라인을 만들고 싶습니다. 어떻게 해야 할까요?

Associate-Data-Practitioner 문제 38

귀사의 BigQuery에는 여러 데이터 세트가 있습니다. 외부 파트너가 데이터를 자체 프로젝트에 복사하지 않고도 SQL 쿼리를 실행할 수 있도록 데이터 세트를 외부 파트너와 공유해야 합니다. 각 파트너의 데이터를 자체 BigQuery 데이터 세트에 정리했습니다. 각 파트너는 자신의 데이터에만 액세스할 수 있어야 합니다. Google 권장 사항을 준수하면서 데이터를 공유하려고 합니다. 어떻게 해야 할까요?

Associate-Data-Practitioner 문제 39

Cloud Storage에 있는 작은 데이터세트를 분석용으로 변환하여 BigQuery에 로드해야 합니다. 이 변환에는 간단한 필터링 및 집계 작업이 포함됩니다. 가장 효율적이고 비용 효율적인 데이터 조작 방식을 사용하고 싶습니다. 어떻게 해야 할까요?

Associate-Data-Practitioner 문제 40

Cloud Storage에 저장된 대량의 원시 서버 로그 데이터를 처리하려면 데이터 파이프라인을 설계해야 합니다.
데이터를 BigQuery에 로드하여 분석하기 전에 정리, 변환 및 집계해야 합니다.
이 변환에는 팀에서 개발한 Spark 스크립트를 사용한 복잡한 데이터 조작이 포함됩니다. 팀의 기존 기술을 활용하고, 대규모 데이터를 처리하며, 비용을 최소화하는 솔루션을 구현해야 합니다. 어떻게 해야 할까요?