Ten artykuł pokazuje krok po kroku, jak zbudowałem zespół AI do pisania artykułów i publikowania ich na rel8.pl. Zamiast jednego czatu i jednego promptu mam pipeline agentów: RESEARCH, WRITER, SEO i FRONTEND, koordynowanych przez MASTER. Każdy etap działa na plikach, więc proces jest powtarzalny, mierzalny i łatwy do poprawy. W praktyce oznacza to zmianę z 3–5 godzin ręcznej pracy na 15–30 minut mojego czasu.
Problem: dlaczego ręczne tworzenie treści nie skaluje
W większości małych firm proces wygląda podobnie:
- ktoś wymyśla temat
- ktoś robi research
- ktoś pisze artykuł
- ktoś dopina SEO
- ktoś publikuje treść na stronie
To działa, ale jest wolne i zależne od dostępności jednej osoby. Przez długi czas działałem dokładnie tak samo: jedno okno czatu, jeden duży prompt, dużo ręcznych poprawek i ręczne przenoszenie treści do strony.
Największy problem nie był w jakości modelu, tylko w braku podziału ról. Gdy jedno AI ma robić wszystko naraz, kończy się to przeciętnym wynikiem i brakiem kontroli nad procesem.
Rozwiązanie: system AI do tworzenia treści zamiast jednego promptu
Rozdzieliłem pracę na wyspecjalizowane role i spiąłem je w pipeline:
- Zbieranie danych (Firecrawl)
- Research i synteza (agent RESEARCH)
- Pisanie artykułu (agent WRITER)
- Optymalizacja SEO (agent SEO)
- Publikacja na stronie (agent FRONTEND w Next.js)
Do codziennej pracy używam Claude do generowania treści i Warp do wygodnego sterowania pipeline'em w terminalu. Jeśli chcesz zobaczyć, jak podchodzę do narzędzi terminalowych, opisałem to też tutaj: Warp vs Claude Code — porównanie narzędzi AI dla programistów.
Architektura systemu AI: pliki zamiast pamięci czatu
Najważniejsza zasada: agenci nie „pamiętają” poprzednich sesji, więc pamięcią procesu muszą być pliki.
To działa jak w „Memento”: bez notatek zaczynasz od zera. U mnie notatkami są katalogi i pliki wejścia/wyjścia dla każdego etapu:
data/raw/— wynik researchudata/articles/— gotowy artykułdata/seo/— metadane i checklista SEO/blog/[slug]— finalna publikacja po stronie frontendu
Taki układ daje trzy rzeczy: pełną śledzalność, możliwość wznowienia od dowolnego etapu i łatwe poprawki bez rozwalania całości.
Agenci AI: kto za co odpowiada
RESEARCH (Firecrawl + porządkowanie źródeł)
Agent RESEARCH pobiera źródła, czyści nawigację i szum, a potem składa materiał w jeden dokument roboczy. Jego output to wyłącznie plik w data/raw/.
Jeśli chcesz wejść głębiej w sam etap pozyskiwania danych, zobacz: Firecrawl — web scraping dla AI: jak działa.
WRITER (pisanie artykułu pod konkretną grupę)
WRITER czyta tylko plik z researchu i pisze artykuł po polsku pod właścicieli MŚP. Nie robi nowego researchu, nie szuka danych poza wejściem, nie „improwizuje” poza briefem.
Dzięki temu jakość jest powtarzalna, a artykuł da się porównać między tematami.
SEO (widoczność bez przepisywania całej treści)
Agent SEO nie przepisuje artykułu od zera. Dba o warstwę pod wyszukiwarki: meta title, meta description, słowa kluczowe, strukturę nagłówków i checklistę publikacyjną.
FRONTEND (render i publikacja)
FRONTEND pobiera gotowy markdown i renderuje go pod /blog/[slug] w Next.js. Nie mieszam tu CMS-a ani bazy danych: treść żyje w repo i ma historię zmian w Git.
MASTER (koordynacja całości)
MASTER nie tworzy treści. Sprawdza stan plików i uruchamia tylko brakujące kroki. Jeśli research już istnieje, pomija RESEARCH i startuje od Writera.
W praktyce zamiast pilnować każdego etapu ręcznie, odpalam temat jedną komendą i poprawiam tylko to, co faktycznie wymaga decyzji biznesowej.
Jak to działa w praktyce na rel8.pl
Typowy cykl wygląda tak:
- Wybieram temat i źródła
- Uruchamiam pipeline (
npx tsx scripts/generateContent.ts <url> [limit]) - Sprawdzam wynik WRITERA i robię szybkie korekty
- Weryfikuję SEO i publikuję przez Git/Next.js
Nowy artykuł pojawia się po pushu i deployu bez ręcznego klikania w panelu CMS.
Ten model dobrze łączy się z podstawami wdrożeń AI dla MŚP, które opisałem wcześniej w tekście AI w małej firmie — jak zacząć.
Efekty: ile czasu realnie oszczędza pipeline AI
Największa różnica to nie „ładniejszy tekst”, tylko skrócenie procesu i przewidywalność pracy.
Porównanie czasu: proces ręczny 3-5 godzin vs pipeline AI 15-30 minut, z etapami od briefu do publikacji
U mnie wygląda to tak:
- wcześniej: 3–5 godzin na jeden artykuł
- teraz: 15–30 minut mojego czasu
- przy 4 artykułach miesięcznie: 10–15 godzin odzyskanego czasu
- jakość: powtarzalna, bo każdy temat przechodzi przez ten sam proces
Efekt uboczny: regularność publikacji poprawia widoczność w Google i zwiększa liczbę zapytań z ruchu organicznego.
Co możesz wdrożyć już dziś
Nie potrzebujesz dużego budżetu ani rozbudowanego stacku. Zacznij od minimum:
- Opisz role agentów w
AGENTS.md(wejście, wyjście, czego nie robią) - Ustal foldery procesu (
data/raw,data/articles,data/seo) - Uruchom pełny cykl dla jednego tematu i popraw instrukcje
- Dopiero potem dodaj MASTERA do orkiestracji
Ile możesz na tym zyskać
Uwaga: podane liczby traktuj jako benchmark rynkowy; końcowy efekt zależy od branży, jakości danych wejściowych i sposobu wdrożenia.
Jeśli dziś publikujesz nieregularnie, największy zysk to odzyskanie czasu i przewidywalny rytm contentu.
W praktyce oznacza to:
- mniej pracy operacyjnej przy każdym artykule
- szybsze testowanie nowych tematów i fraz
- większą szansę na stały wzrost ruchu organicznego
- mniej chaosu, bo każdy etap ma właściciela
Co dalej rozwijam w tym systemie
Najbliższe kroki rozwoju pipeline'u:
- automatyzacja publikacji bez ręcznego kroku gitowego
- lepsze raportowanie jakości i skuteczności tematów
- integracje z procesami marketingowymi i sprzedażowymi
To nie jest „projekt demo”. To działający system operacyjny contentu, który można wdrożyć etapami i dopasować do skali firmy.