# Save to Storage

Quick Set
  • WYBIERZ: "Proces" ➡️ "Add new process" ➡️ "Save to storage"
  • ZDECYDUJ: Czy chcesz zapisać istniejącaą table czy wynik zapytania Query Job
  • OKREŚL: Lokalizacje tabeli w BigQuery lub wybierz Juery Job
  • ZDEFINIUJ Szczegóły pliku doscelowego- rozszerzenie oraz dostępność.
    🎉 GOTOWE przybij sobie piątkę 🎉

# Wprowadzenie

Moduł Save to Storage pozwala na zapisanie danych w Google Cloud Storage. Mogą być to zarówno wyniki Query, jak i już istniejąca tabela.

# Przykład działania

Przykłady wykorzystania:

  • Chcesz załączyć transakcje offline w Google Ads
  • Wykonujesz zapytanie do wbogaconej tabeli sesji w WitCloud
  • Wyniki pyblikujesz w postaci pliku csv pod adresem na URL na Google Cloud Storage
  • Konfigurujesz systematyczne odkładanie i pobieranie danych do Google Ads

# Konfiguracja

# Zanim zaczniesz

Przygotuj tabelę lub zapytanie do bazy danych (Query Job), którego wyniki chcesz zapisać w Google Cloud Storage.

# Rozpocznij tworzenie modułu

Z menu po lewej stronie wybieramy zakładkę "Process", następnie klikamy w przycisk "Add new Data Process".

image alt text

Z listy dostępnych modułów wybieramy "Save to Storage"

image alt text

# Początkowe ustawienia

W oknie po naciśnięciu modułu pokaże się nam się formularz dotyczący naszej funkcji zawierający następujące pola:

Name - Nazwa naszego procesu, będzie on widoczny pod ta nazwa w innych miejscach platformy WitCloud

Select Source - Lokalizacja pliku źródłowego - wynik zadania Query Job, lub istniejąca tabela w BigQuery.

Query Job - dostępne, zdefiniowane wcześniej zadania Query Job.

Current Google Cloud Project - projekt Google Cloud, w którym znajduje się plik źródłowy (pole dostępne w przypadku wybory źródała jako BigQuery).

Current Dataset - dataset, w którym znajduje się plik źródłowy (pole dostępne w przypadku wybory źródała jako BigQuery).

Current Table - tabela stanowiąca plik źródłowy (pole dostępne w przypadku wybory źródała jako BigQuery).

W opcjach zaawansowanych mamy do wyboru:

Output Format - format pliku wyjściowego csv (plik z wartościami rozdzielonymi przecinkiem) lub AVRO (standard pliku oparty na strukturze JASON)

Use Compression - umożliwia kompresowanie zawartości pliku w celu ograniczenia jego rozmiaru.

Make file public - określa atrybut pluki jako publiczny - zalecane ustawienie dla większości plików, by móc bez dodatkowych autoryzacji pobierać jego zawartość.

image alt text

Gotowe! Po naciśnięciu przycisku "Finish" konfiguracja naszego procesu zostanie zapisana.

# Ustawienie modułu w harmonogramie

Pamiętaj o harmonogramie!!

Należy pamiętać, że skonfigurowany proces importu danych trzeba uwzględnić w konfiguracji Workflow, aby został przekalkulowany.

Last updated: 2/3/2021, 10:28:38 AM