Kiedy słyszysz hasło "Hurtownia Danych" lub "BigQuery", w Twojej głowie pewnie pojawiają się dwie myśli. Pierwsza: "To technologia, której potrzebuję, żeby łączyć dane i skalować biznes". Druga: "To brzmi jak faktura od Google, nad którą nie będę miał kontroli".
Cennik chmury oraz wiele poradników odnosi się do skomplikowanych pojęć dla osoby nietechnicznej. Pełno tam terminów takich jak active storage, slot time czy streaming inserts. A wielu właścicieli sklepów zadaje sobie proste pytanie: "Czy to mnie nie zrujnuje?".
Odpowiedź brzmi: Nie, jeśli architektura danych jest poprawna.
BigQuery jest jak potężna maszyna przemysłowa. Jest tania w utrzymaniu, o ile używasz jej mądrze. W tym poradniku przejdziemy przez wszystkie etapy kosztów i pokażemy, gdzie leży granica między "zabawą dla analityków" a realnym raportowaniem dla biznesu.
Ważne zastrzeżenie: Najprościej byłoby napisać jak to bywa w różnych poradnikach "To zależy...".
Koszty w chmurze są płynne. Mimo wszystko poniższe wyliczenia to realne estymacje dla średniego/dużego e-commerce, mające na celu pokazanie skali kosztów i różnic między podejściem "surowym" a zoptymalizowanym.
Część 1: Magazyn (Storage) - Tu jesteśmy bezpieczni
Zacznijmy od podstaw. BigQuery to w uproszczeniu gigantyczny Excel w chmurze. Pierwszym kosztem jest przechowywanie danych (np. z GA4, CRM, reklam).
Płacisz za to, ile miejsca na dyskach Google zajmują Twoje dane.
Przykład: Sklep generujący 10 mln zdarzeń miesięcznie w GA4

Załóżmy, że Twój e-commerce generuje 10 milionów akcji miesięcznie (wyświetlenia, kliknięcia, zakupy).
- GA4: 10 mln. zdarzeń to ok. 10 GB miesięcznie (uśredniamy, że jedno zdarzenie to ok. 0.5 - 1 KB danych)
- Dodatkowo baza zamówień/produktów z CRM oraz dane o kampaniach z systemu reklamowego: ok. 5-8 GB miesięcznie.
- Łącznie: Przybywa Ci ok. 15-18 GB danych co miesiąc.
Szacunkowy koszt:
Google oferuje pierwsze 10 GB miesięcznie za darmo. Każdy kolejny gigabajt to koszt rzędu $0.02 (ok. 8 groszy).
Nawet jeśli zgromadzisz historię z 3 lat (ok. 500 GB), miesięczny koszt utrzymania tego archiwum zamknie się w okolicach $10 miesięcznie.
Wniosek: Samo trzymanie danych jest bardzo tanie.
Część 2: Dostawa danych - w paczkach czy natychmiastowo
Masz dwie opcje przesyłania danych do BigQuery.
Spójrzmy na przykład eksportu danych z Google Analytics 4:
- Export Dzienny (Daily): Raz dziennie, rano, Google pakuje dane z wczoraj i wrzuca je do Twojego magazynu. Koszt: 0 zł.
- Streaming (Na żywo): Dane wpadają do bazy minuty po zdarzeniu. Koszt: ok. $0.05 za GB.
Wniosek: BigQuery nie pobiera opłat w tym przypadku za sam proces zapisywania danych w formie paczek (tzw. batch). W przypadku streamingu (przesyłanie danych na żywo), również nie masz się czym martwić jeżeli Twoja skala nie jest bardzo duża (10 GB * $0.05 = $0.50 miesięcznie).

Część 3: Przetwarzanie (Query) - Dwa Światy Kosztów
Tutaj dochodzimy do sedna. BigQuery zarabia na czytaniu danych ($6.25 za 1 TB). Ale kto te dane czyta? Tutaj musimy rozróżnić dwa scenariusze, bo to one decydują o Twojej fakturze.
Świat 1: Analityk w konsoli (Czynnik Ludzki)
To sytuacja, gdy Twój analityk wchodzi bezpośrednio do BigQuery i pisze kod SQL, żeby odpowiedzieć na pytanie "ad hoc", np. "Sprawdź mi, dlaczego w zeszły wtorek spadła konwersja z iPhone'ów".
Tutaj koszt zależy w 100% od umiejętności człowieka.
- Junior Analityk: Może napisać zapytanie SELECT *, które bezmyślnie przeczyta całą bazę (terabajty danych), żeby znaleźć 5 wierszy. Koszt jednego zapytania: $5.
- Senior Analityk: Użyje partycji, wybierze tylko potrzebne kolumny i ograniczy skanowanie. To samo zapytanie wykona za $0.05.
To jest "laboratorium". Tu koszty są jednorazowe i zależą od skilla. Ale biznes rzadko siedzi w konsoli. Biznes siedzi w raportach.

Świat 2: Biznes w Looker Studio (Automat)
To jest Twoja codzienność. Masz dashboard w Looker Studio. Nie piszesz tam kodu SQL - klikasz w filtry, zmieniasz daty.
Ale Looker Studio w tle musi wysłać zapytanie SQL do BigQuery, żeby narysować wykres.
I tu pojawia się problem: Automat (Looker Studio) nie jest tak sprytny jak Senior Analityk. Jeśli podłączysz go do surowych danych, będzie generował ciężkie, drogie zapytania przy każdym Twoim kliknięciu.

Niejednokrotnie pracowaliśmy przy projektach, w których optymalizowaliśmy koszty nieoptymalnych zapytań wykorzystywanych w raportach. Spójrzmy na poniższy przykład - każdego dnia raport generował coraz to większe koszty dochodząc do kwoty 53$ dziennie. Wprowadzając niewielkie zmiany w zapytaniach SQL (skill), raport działał dalej tak samo, ale koszty spadły niemal do 0. Najlepiej będzie to jednak przedstawić na przykładowym case study.

Część 4: Case Study - Ile kosztuje Raport Kwartalny?
Załóżmy, że masz dashboard sprzedażowy z ostatnich 90 dni. Korzysta z niego 5 osób (zarząd, marketing).
Scenariusz A: Droga "Na żywca" (Looker Studio -> Surowe Dane)
Podpinasz raport bezpośrednio do tabel z surowymi zdarzeniami GA4.
Jeden dzień surowych danych waży 1 GB. Raport z 90 dni musi więc "dotknąć" 90 GB danych.
- Pułapka interakcji: Looker Studio jest "rozrzutne". Aby wyświetlić dashboard z 10 elementami (wykresy, liczniki), potrafi wysłać 10 osobnych zapytań.
- Brak Cache: BigQuery ma pamięć podręczną, ale działa ona tylko, jeśli nic nie zmieniasz.
- Manager wchodzi na raport.
- Klika filtr "Kampania Black Friday".
- Cache przestaje działać. BigQuery musi od nowa przesiać 90 GB, żeby wyciąć tylko tę kampanię.
- Manager zmienia sortowanie tabeli. Znów 90 GB.
Efekt:
5 osób × 10 zmian filtrów dziennie × gigabajty danych.
Faktura staje się nieprzewidywalna. Może to być $50, a może $300, jeśli zespół będzie bardzo aktywny. Płacisz za każdym razem, gdy ktoś dotknie raportu.
Scenariusz B: Podejście "Data Mart" (WitCloud)
To podejście opiera się na zasadzie: Przygotujmy dane raz, a porządnie.
Proces wygląda tak:
- Zadanie automatyczne (Job): Codziennie rano system pobiera dane tylko z wczorajszego dnia (1 GB surowych danych).
- Agregacja: System wyciąga to, co ważne i zapisuje w Data Marcie. Wynikowa "cegiełka" z jednego dnia waży np. 20 MB (a nie 1000 MB).
- Dokładanie cegiełki: Ta mała porcja danych jest dołączana do tabeli głównej jako nowa partycja.
Co się dzieje w raporcie?
Gdy Manager zmienia daty, filtruje i sortuje, Looker Studio odpytuje Data Mart.
Zamiast skanować 90 GB, skanuje 90 małych "cegiełek" (łącznie 1.8 GB).
Szacunkowy koszt miesięczny:
- Codzienne przetwarzanie: Płacisz rano za przeliczenie tylko jednego dnia surowych danych. To koszt stały, ok. $15 - $25 miesięcznie.
- Raportowanie: Ponieważ pracujesz na lekkich danych, setki kliknięć Twoich managerów generują koszt rzędu $2 - $5 miesięcznie.
Razem: $20 - $30 miesięcznie. Stała kwota, niezależna od tego, jak często sprawdzacie wyniki.

Część 5: Dlaczego to działa? Dwa filary oszczędności
Sekret niskich kosztów w podejściu Data Mart opiera się na dwóch mechanizmach technicznych. Partycjonowanie to tylko połowa sukcesu. Drugą połową jest Agregacja (Zmniejszanie szczegółowości).
Aby to zrozumieć, wyobraź sobie działanie wielkiego supermarketu.
Filar 1: Agregacja (Zamiast miliona paragonów - podsumowanie)
- Surowe Dane (Raw): To wielki wór, w którym trzymasz wszystkie paragony ze wszystkich kas. Każdy paragon ma listę produktów, godzinę, kasjera. Jeśli masz 10 tysięcy klientów dziennie, masz 10 tysięcy długich paragonów (wierszy w bazie).
- Gdy pytasz BigQuery o przychód, baza musi wziąć każdy paragon do ręki i zsumować kwoty. To trwa i kosztuje, bo baza "mieli" ogromną ilość informacji.
- Data Mart (Agregacja): To sytuacja, w której księgowa raz dziennie bierze te 10 tysięcy paragonów, liczy to co ważne i zapisuje na jednej kartce: "Dzień: Wtorek. Sprzedaż łącznie: 50 000 zł. Ilość transakcji: 10 000".
- Tę jedną kartkę (wynik agregacji) wkładamy do Data Martu.
- Efekt: Zamiast trzymać miliony wierszy o każdym kliknięciu, trzymamy kilkanaście wierszy z podsumowaniem dnia. Tabela staje się 1000x lżejsza.

Filar 2: Partycjonowanie (Porządek w segregatorze)
Skoro mamy już te lekkie "kartki z podsumowaniem dnia", musimy je dobrze ułożyć.
- Bez Partycji: Kartki z podsumowaniami leżą na jednej stercie. Żeby znaleźć "Lipiec", musisz przerzucić wszystko.
- Z Partycjami: Kartki są wpięte do segregatora, gdzie każda koszulka jest opisana datą.

Jak to działa razem?
Gdy Twój Manager otwiera Dashboard w Looker Studio i prosi o wyniki z ostatniego kwartału:
- Dzięki Partycjonowaniu, BigQuery otwiera tylko 90 konkretnych koszulek w segregatorze (nie dotyka reszty roku).
- Dzięki Agregacji, w każdej koszulce znajduje nie tysiące paragonów, ale jedną kartkę z podsumowaniem.
Dlatego raport ładuje się w ułamku sekundy i kosztuje ułamki grosza. BigQuery nie musi już niczego liczyć (bo policzyliśmy to rano) - ono tylko odczytuje gotowy wynik.
Podsumowanie: Ile to w końcu kosztuje?
Dla typowego e-commerce z 10 mln zdarzeń miesięcznie, realny rachunek za BigQuery przy dobrze zaprojektowanej architekturze wygląda następująco:
| Rodzaj kosztu | Opis | Szacunkowa kwota |
|---|---|---|
| Magazynowanie (Storage) | Utrzymanie danych z kilku lat (GA4, Ads, CRM). | $5 - $15 (zależnie od historii) |
| Przetwarzanie (ETL) | Codzienne przeliczanie tylko nowych danych do Data Martów. | $15 - $25 |
| Raportowanie (Query) | Korzystanie z dashboardów w Looker Studio (na lekkich danych). | $1 - $5 |
| RAZEM | $25 - $45 / miesięcznie |
BigQuery nie jest drogie - droga jest niewiedza. Ryzykowne jest dawanie surowych danych w ręce (i narzędzia) osób, które nie optymalizują zapytań. Wdrożenie warstwy pośredniej (Data Martów) - czy to ręcznie, czy przez platformy typu WitCloud - zamienia nieprzewidywalną fakturę na niski, stały abonament.

