Encyklopedia Semantycznego SEO
265 pojęć w 15 kategoriach
AI Search
Agent Decision Optimization
Agent Decision Optimization – Optymalizacja treści pod decyzję agenta AI – nie tylko pod ranking, ale pod moment, w którym AI decyduje.
AI SearchAI Mode / AI Overview
Funkcje Google wyświetlające syntetyczne odpowiedzi AI bezpośrednio w wynikach wyszukiwania – AI Overview zmniejsza ruch na stronach o około 35%, co czyni.
AI SearchAI SEO Alignment Score
AI SEO Alignment Score to metryka mierząca stopień dopasowania treści do kryteriów cytowalności AI Search – uwzględnia gęstość informacji, BLUF, SRL.
AI SearchBLUF (Bottom Line Up Front)
BLUF (Bottom Line Up Front) to zasada umieszczania kluczowej odpowiedzi na samym początku sekcji/artykułu – w AI Search 62% szans na cytowanie.
AI SearchChatGPT (Bing + szeroki fanout)
ChatGPT (Bing + szeroki fanout) – Platforma AI Search OpenAI korzystająca z indeksu Bing z szerokim fanoutem zapytań – preferuje treści z Wikipedii.
AI SearchCited (być zacytowanym)
Cited (być zacytowanym) – Drugi poziom widoczności w AI Search – treść zostaje zacytowana jako źródło w odpowiedzi AI z podaniem linku lub nazwy marki.
AI SearchClaude (własny indeks)
Claude (własny indeks) – Platforma AI Anthropic z własnym indeksem webowym – w przeciwieństwie do ChatGPT nie opiera się na Bing.
AI SearchContent Freshness
Content Freshness – Świeżość treści – AI Search premiuje aktualne dane i regularne aktualizacje; nieaktualna treść traci szansę na cytowanie.
AI SearchCross-Domain Web Entities
Cross-Domain Web Entities – Koncepcja, że marka w internecie to zbiór powiązanych encji na różnych platformach (strona, LinkedIn, YouTube).
AI SearchDekompozycja intencyjna
Dekompozycja intencyjna to typ dekompozycji zapytania w AI Search rozbijający pytanie według możliwych intencji użytkownika.
AI SearchDekompozycja semantyczna
Dekompozycja semantyczna to typ dekompozycji zapytania w AI Search rozbijający pytanie na części składowe według znaczenia – np.
AI SearchDekompozycja weryfikacyjna
Dekompozycja weryfikacyjna to typ dekompozycji zapytania w AI Search generujący pod-pytania weryfikujące poprawność odpowiedzi.
AI SearchEarned Media vs Owned Media
Earned Media vs Owned Media – Rozróżnienie między treścią na własnych kanałach (owned) a wzmiankami w zewnętrznych źródłach (earned).
AI SearchFeatured Snippet
Featured Snippet to wyróżniany fragment w wynikach Google na pozycji zero – tabele, listy i struktury danych mają najwyższą szansę na wyświetlenie.
AI SearchFramework Retrieved-Cited-Trusted
Framework Retrieved-Cited-Trusted to trzystopniowy framework widoczności w AI Search: być pobranym z indeksu (Retrieved), być zacytowanym (Cited).
AI SearchGemini (Knowledge Graph + YouTube)
Platforma AI Search Google korzystająca z Google Knowledge Graph i YouTube – unikalna przewaga w rozumieniu encji i multimodalności.
AI SearchHedging językowy
Hedging językowy – Używanie słów osłabiających pewność wypowiedzi (może, chyba, prawdopodobnie), które obniżają szansę na cytowanie przez AI Search.
AI SearchHeurystyka Competitive
Heurystyka Competitive – Najskuteczniejsza heurystyka optymalizacji treści pod AI Search (waga +1.61), oparta na porównaniach z konkurencją (X vs Y.
AI SearchHeurystyka Minimalist
Heurystyka Minimalist – Najgorsza strategia optymalizacji pod AI Search (waga -1.66) – skracanie treści obniża widoczność, bo AI szuka głębokości.
AI SearchKeyword Stuffing (w kontekście AI)
Keyword Stuffing (w kontekście AI) to technika SEO polegająca na mechanicznym powtarzaniu fraz kluczowych, która przestała działać w AI Search.
AI SearchMarka API-able
Marka zaprojektowana tak, by jej dane były łatwe do pobrania przez API i AI – spójne nazewnictwo, structured data, obecność w wielu źródłach.
AI SearchMultisourcing
Multisourcing to strategia budowania widoczności w AI Search polegająca na obecności marki w wielu niezależnych źródłach – wzmacnia fazę Trusted.
AI SearchPerplexity (agresywny fanout)
Perplexity (agresywny fanout) – Platforma AI Search z agresywnym fanoutem zapytań (10-20 sub-queries) i zawsze podająca źródła z linkami.
AI SearchQuery Fan-out
Query Fan-out to mechanizm AI Search polegający na rozbiciu jednego zapytania użytkownika na 5-10 pod-zapytań (sub-queries).
AI SearchReasoning Gap (Question Coverage Matrix)
Reasoning Gap to matryca pokrycia pytań identyfikująca luki w rozumowaniu AI – pytania, na które Twoja treść nie daje odpowiedzi mimo że powinna.
AI SearchRetrieved (być pobranym z indeksu)
Retrieved (być pobranym z indeksu) to pierwszy poziom widoczności w AI Search – treść zostaje pobrana z indeksu do kontekstu AI.
AI SearchSub-queries (pod-zapytania)
Sub-queries (pod-zapytania) – Mniejsze pytania pomocnicze generowane automatycznie przez AI Search w procesie Query Fan-out.
AI SearchThin Content (AI-generated)
Thin Content (AI-generated) to niskiej jakości treści generowane masowo przez AI bez unikalnej wartości – wykrywane przez algorytmy i obniżające ranking.
AI SearchTrusted (być zaufanym źródłem)
Trusted (być zaufanym źródłem) – Trzeci poziom widoczności w AI Search – marka staje się domyślnym, zaufanym źródłem preferowanym przez AI przy.
AI SearchZasada 50 slow
Zasada 50 slow – Reguła optymalizacji treści pod AI Search: kluczowa odpowiedź musi znaleźć się w pierwszych 50 słowach artykułu lub sekcji H2.
AI SearchZero-click Search
Zero-click Search – Sytuacja, w której użytkownik otrzymuje odpowiedź bezpośrednio w wynikach wyszukiwania lub AI Search bez klikania w źródło.
Contextual Vector
Contextual Connections (linki)
Contextual Connections (linki) – Połączenia kontekstowe artykułu z innymi stronami – linki wewnętrzne i zewnętrzne budujące sieć relacji semantycznych.
Contextual VectorContextual Hierarchy (H1-H2-H3)
Contextual Hierarchy (H1-H2-H3) – Hierarchia nagłówków artykułu budująca kontekst semantyczny – H1 definiuje temat, H2 dzieli na sekcje (chunki).
Contextual VectorContextual Structure (BLUF per H2)
Contextual Structure (BLUF per H2) to zasada, gdzie każda sekcja H2 zaczyna się od kluczowej tezy w pierwszym zdaniu – gotowy chunk do cytowania przez AI.
Contextual VectorContextual Vector
Contextual Vector to wektor kontekstowy artykułu definiujący trzy wymiary optymalizacji: hierarchię nagłówków, strukturę BLUF i linkowanie wewnętrzne.
E-E-A-T
Authority (autorytet)
Authority (autorytet) – Komponent E-E-A-T oznaczający uznanie autora/witryny jako autorytetu w branży – sygnały: backlinki z wiarygodnych źródeł.
E-E-A-TCross-domain entity building
Cross-domain entity building to strategia budowania rozpoznawalności encji (osoby, marki) na wielu platformach jednocześnie.
E-E-A-TExperience (doswiadczenie)
Experience (doswiadczenie) – Komponent E-E-A-T oznaczający osobiste doświadczenie autora z tematem – sygnały: case studies, zdjęcia własne.
E-E-A-TExpertise (ekspertyza)
Expertise (ekspertyza) – Komponent E-E-A-T oznaczający fachową wiedzę autora w danej dziedzinie – sygnały: publikacje, certyfikaty.
E-E-A-TTrust (zaufanie)
Trust (zaufanie) to centralny komponent E-E-A-T oznaczający wiarygodność witryny i jej treści – sygnały: SSL, polityka prywatności, dane kontaktowe.
E-E-A-TTTS (Truthful Text Summarization)
TTS (Truthful Text Summarization) to mechanizm weryfikacji spójności informacji o encji w wielu źródłach – AI porównuje Twoje dane z konsensusem sieci.
Embeddingi
CLUSTERING
CLUSTERING to typ zadania embeddingowego optymalizujący wektor pod grupowanie tematyczne – używany w klasteryzacji słów kluczowych.
EmbeddingiContent pruning (outliery)
Content pruning (outliery) – Identyfikacja stron tematycznie odległych od centroidu witryny (outliery) – kandydaci do usunięcia lub przeniesienia.
EmbeddingiDetekcja duplikatow (similarity 1.0)
Detekcja duplikatow (similarity 1.0) – Wykrywanie identycznych treści na podstawie podobieństwa kosinusowego bliskiego 1.0.
EmbeddingiEmbeddingi cache (historyczne)
Embeddingi cache (historyczne) to mechanizm zapisywania obliczonych embeddingów w katalogu data/embeddings – jeśli embedding frazy już istnieje.
EmbeddingiKanibalizacja (similarity 0.9-0.99)
Kanibalizacja (similarity 0.9-0.99) – Wykrywanie stron kanibalizujących się na podstawie podobieństwa kosinusowego 0.9-0.99.
EmbeddingiKwantyzacja wektorow (Quantization)
Kwantyzacja wektorow (Quantization) to technika kompresji wektorów embeddingowych zmniejszająca zużycie pamięci kosztem lekkiej utraty precyzji.
EmbeddingiLinkowanie wewnetrzne (nearest neighbors)
Linkowanie wewnetrzne (nearest neighbors) to strategia linkowania wewnętrznego oparta na embeddingach i algorytmie najbliższych sąsiadów.
EmbeddingiMapy redirectow (migracja)
Mapy redirectow (migracja) – Wykorzystanie embeddingów do automatycznego dopasowania starych URL-ów do nowych przy migracji serwisu.
EmbeddingiModel generatywny (Generative Model)
Typ modelu AI (np. GPT-4, Gemini), który generuje tekst na podstawie promptu, w odróżnieniu od modeli embeddingowych, które zamieniają tekst na wektory.
EmbeddingiMTEB Leaderboard
MTEB Leaderboard – Ranking modeli embeddingowych na standardowych benchmarkach – pomaga wybrać najlepszy model do konkretnego zastosowania SEO.
EmbeddingiNearest Neighbors (najblizsi sasiedzi)
Nearest Neighbors to algorytm wyszukiwania najbliższych punktów w przestrzeni wektorowej – fundament linkowania wewnętrznego opartego na embeddingach.
EmbeddingiNormalizacja embeddingów
Normalizacja embeddingów to proces skalowania wektorów embeddingowych do jednolitej skali – embeddingi 3072-wymiarowe są normalizowane 'out of the box'.
EmbeddingiOdleglosc euklidesowa
Odleglosc euklidesowa to miara odległości między dwoma punktami w przestrzeni wektorowej – im mniejsza, tym bardziej podobne znaczeniowo są dwa teksty.
EmbeddingiPodobieństwo kosinusowe (0-1)
Podobieństwo kosinusowe (0-1) to miara podobieństwa między dwoma wektorami (0-1) oparta na kącie między nimi – standard w porównywaniu embeddingów; 1.
EmbeddingiReprezentacja wektorowa (Vector Representation)
Reprezentacja wektorowa to matematyczna forma zapisu informacji jako zbiór liczb (wektor), umożliwiająca porównywanie znaczeń tekstów przez AI i wyszukiwarki.
EmbeddingiRETRIEVAL_DOCUMENT
RETRIEVAL_DOCUMENT to typ zadania embeddingowego optymalizujący wektor pod reprezentowanie dokumentów – używany po stronie dokumentu w systemach RAG.
EmbeddingiRETRIEVAL_QUERY
RETRIEVAL_QUERY to typ zadania embeddingowego optymalizujący wektor pod wyszukiwanie zapytań – używany po stronie query w systemach RAG.
EmbeddingiSEMANTIC_SIMILARITY
SEMANTIC_SIMILARITY to typ zadania embeddingowego optymalizujący wektor pod mierzenie podobieństwa między tekstami – używany w detekcji duplikatów i.
Embeddingit-SNE i PCA
t-SNE i PCA – Metody redukcji wymiarowości wektorów do 2D/3D umożliwiające wizualizację klastrów tematycznych – t-SNE zachowuje lokalne relacje.
EmbeddingiTask Type (parametr)
Task Type to parametr modelu embeddingowego określający typ zadania (retrieval, classification, clustering) – wpływa na jakość generowanych wektorów.
EmbeddingiTokenizacja
Tokenizacja to proces dzielenia tekstu na mniejsze jednostki (tokeny) przed przetworzeniem przez model AI – słowa, części słów lub znaki.
EmbeddingiTransformer (architektura)
Transformer (architektura) – Architektura sieci neuronowej stworzona przez Google, będąca fundamentem modeli takich jak BERT i GPT.
EmbeddingiUMAP (kompresja wymiarow)
UMAP (kompresja wymiarow) to metoda redukcji wymiarowości embeddingów (np. z 768 do 5 wymiarów) zachowująca najważniejsze relacje.
EmbeddingiWord2Vec (2013)
Przełomowy model embeddingów (2013) zamieniający słowa na wektory liczbowe – uczył się z kontekstu, ale każdemu słowu przypisywał jeden stały wektor.
EmbeddingiWyszukiwarka semantyczna (Semantic Search Engine)
Wyszukiwarka semantyczna (Semantic Search Engine) to system wyszukiwania oparty na embeddingach i podobieństwie kosinusowym.
Fundamenty teoretyczne
Attribute (Atrybut)
Attribute (Atrybut) – Cecha opisująca encję w modelu EAV – np. dla encji 'kawa' atrybutem jest 'metoda parzenia', a wartością 'espresso' lub 'drip'.
Fundamenty teoretyczneBM25 (nasycenie i długość)
BM25 (nasycenie i długość) to zaawansowany algorytm rankingowy uwzględniający nasycenie terminów (kolejne powtórzenia mają malejący efekt) i długość.
Fundamenty teoretyczneCentral Entity (CE)
Central Entity (CE) to główna encja (temat przewodni) witryny lub klastra treści, wokół której buduje się całą strukturę atrybutów.
Fundamenty teoretyczneCentral Search Intent (CSI)
Central Search Intent (CSI) to główna intencja wyszukiwania (CSI) – rdzeń semantyczny zapytania użytkownika; każdy artykuł powinien mieć dokładnie jeden.
Fundamenty teoretyczneCORE Section (rdzen CSI)
CORE Section (rdzen CSI) – Część Topical Map zawierająca tematy bezpośrednio związane z Central Search Intent – główne atrybuty encji.
Fundamenty teoretyczneCrawl-Index-Rank (trojstopniowy proces)
Crawl-Index-Rank (trojstopniowy proces) – Trójstopniowy proces Google: crawlowanie stron (zbieranie), indeksowanie (katalogowanie) i rankowanie.
Fundamenty teoretyczneDepth (głębokość treści)
Depth (głębokość treści) – Głębokość pokrycia tematycznego – jak szczegółowo każdy aspekt jest opisany; jeden z trzech filarów Topical Authority.
Fundamenty teoretyczneEntity (Encja)
Entity (Encja) to podstawowy obiekt tematyczny (osoba, rzecz, pojęcie) rozpoznawany przez wyszukiwarki jako samodzielna jednostka wiedzy z własnymi.
Fundamenty teoretyczneFiltracja atrybutow RPP
Filtracja atrybutów RPP to metoda selekcji atrybutów encji według trzech kryteriów: Relevance, Popularity i Profitability – tylko te spełniające wszystkie.
Fundamenty teoretyczneHistorical Data (sygnaly użytkowników)
Historical Data to dane z zachowań użytkowników (CTR, czas na stronie, powroty) wykorzystywane przez Google do oceny jakości treści i rankingowania stron.
Fundamenty teoretyczneHybrid Retrieval (wyszukiwanie hybrydowe)
Hybrid Retrieval (wyszukiwanie hybrydowe) – Podejście łączące retrieval leksykalny (BM25, dopasowanie słów) z retrievalem semantycznym (embeddingi.
Fundamenty teoretyczneInformation Retrieval
Information Retrieval to dziedzina informatyki zajmująca się wyszukiwaniem informacji w dużych zbiorach danych – fundament działania wyszukiwarek i AI Search.
Fundamenty teoretyczneInverted Index
Inverted Index – Struktura danych mapująca każde słowo do listy dokumentów, w których występuje – fundament wyszukiwarek umożliwiający szybkie.
Fundamenty teoretyczneModel EAV
Model Entity-Attribute-Value (EAV) to framework opisujący każdy temat jako encję z atrybutami i ich wartościami, stanowiący fundament semantycznego SEO.
Fundamenty teoretyczneMomentum (tempo publikacji)
Momentum (tempo publikacji) – Tempo i regularność publikacji nowych treści – Google premiuje witryny, które aktywnie rozbudowują pokrycie tematu; trzeci.
Fundamenty teoretyczneMUM (Multimodal)
MUM (Multimodal) – Multitask Unified Model (MUM) – multimodalny system Google rozumiejący tekst, obrazy i wideo w 75 językach jednocześnie.
Fundamenty teoretyczneNeural Matching (2018)
Neural Matching (2018) to system Google (2018) łączący zapytania z dokumentami na poziomie koncepcji, a nie słów – umożliwił rozumienie pytań.
Fundamenty teoretyczneNLP (Natural Language Processing)
NLP (Natural Language Processing) – Dziedzina sztucznej inteligencji zajmująca się przetwarzaniem i rozumieniem języka naturalnego przez maszyny.
Fundamenty teoretyczneOUTER Section (tematy wspierajace)
OUTER Section (tematy wspierajace) – Część Topical Map zawierająca tematy wspierające, pośrednio związane z Central Search Intent.
Fundamenty teoretycznePassage Ranking
Passage Ranking to mechanizm Google pozwalający na rankowanie konkretnych fragmentów (passages) strony niezależnie od całego dokumentu.
Fundamenty teoretycznePopularity (popularność)
Popularity (popularność) – Kryterium filtracji atrybutów mierzące ile użytkowników szuka informacji o danym atrybucie – wysokie = obowiązkowo w treści.
Fundamenty teoretycznePredicate (czasownik CSI)
Predicate (czasownik CSI) – Czasownik akcji łączący encję z kontekstem zapytania – np. w 'jak parzyć kawę' predykatem jest 'parzyć'.
Fundamenty teoretyczneProminence (wyrazistość)
Prominence (wyrazistość) – Kryterium filtracji atrybutów mierzące jak często atrybut pojawia się w top wynikach Google – im bardziej wyrazisty.
Fundamenty teoretyczneRankBrain (2015)
RankBrain (2015) to pierwszy system Google oparty na machine learningu (2015), interpretujący nowe zapytania na podstawie podobnych wyszukiwań.
Fundamenty teoretyczneRARE (dodatkowa wartość)
RARE (dodatkowa wartość) – Atrybut dodatkowy (RARE) w modelu EAV – daje przewagę konkurencyjną, bo większość konkurentów go pomija.
Fundamenty teoretyczneRelevance (trafność)
Relevance (trafność) – Kryterium filtracji atrybutów mierzące jak bardzo atrybut jest związany z Central Search Intent – im wyższe.
Fundamenty teoretyczneRetrieval leksykalny
Retrieval leksykalny to metoda wyszukiwania oparta na dopasowaniu dokładnych słów i fraz (BM25, TF-IDF) – szybka, ale nie rozumie synonimów ani intencji.
Fundamenty teoretyczneRetrieval semantyczny
Retrieval semantyczny to metoda wyszukiwania oparta na embeddingach i rozumieniu znaczenia – dopasowuje dokumenty na podstawie koncepcji.
Fundamenty teoretyczneROOT (definicja encji)
ROOT (definicja encji) – Atrybut definiujący (ROOT) encję w modelu EAV – podstawowy, niezbędny atrybut, bez którego encja traci sens (np. 'czym jest X').
Fundamenty teoretyczneSemantyczne SEO (Semantic SEO)
Semantyczne SEO (Semantic SEO) – Podejście do optymalizacji stron oparte na nadawaniu znaczeń całej strukturze witryny zamiast optymalizacji pod.
Fundamenty teoretyczneSource Context (SC)
Source Context (SC) – Kontekst źródłowy (SC) określający perspektywę, z jakiej witryna prezentuje temat – wpływa na klasyfikację atrybutów jako Main.
Fundamenty teoretyczneTF-IDF (częstotliwość terminów)
TF-IDF (częstotliwość terminów) to algorytm mierzący ważność słowa w dokumencie: im częściej w danym dokumencie (TF) i rzadziej w całym zbiorze (IDF).
Fundamenty teoretyczneTopical Authority
Topical Authority to miara autorytetu tematycznego witryny – Google ocenia, czy strona kompleksowo pokrywa temat (szerokość + głębokość + tempo.
Fundamenty teoretyczneTopical Coverage
Topical Coverage – Stopień pokrycia tematu przez witrynę – mierzony przez szerokość (Vastness), głębokość (Depth) i tempo publikacji (Momentum).
Fundamenty teoretyczneTopical Map (mapa tematyczna)
Topical Map (mapa tematyczna) – Struktura organizacji treści witryny podzielona na sekcje CORE (główne tematy) i OUTER (tematy wspierające).
Fundamenty teoretyczneUNIQUE (wyróżnik encji)
UNIQUE (wyróżnik encji) – Atrybut wyróżniający encję spośród innych podobnych – cecha, która sprawia, że dana encja jest unikalna i rozpoznawalna.
Fundamenty teoretyczneValue (Wartość)
Value (Wartość) – Konkretna wartość przypisana do atrybutu encji w modelu EAV – np. atrybut 'temperatura parzenia' ma wartość '93 stopnie Celsjusza'.
Fundamenty teoretyczneVastness (szerokość pokrycia)
Vastness (szerokość pokrycia) – Szerokość pokrycia tematycznego witryny – ile różnych aspektów (atrybutów) danego tematu jest opisanych; jeden z trzech.
Fundamenty teoretyczneVocabulary Mismatch
Vocabulary Mismatch – Problem polegający na tym, że użytkownik i autor używają różnych słów na to samo pojęcie – ograniczenie retrievalu leksykalnego.
Fundamenty teoretyczneWeb Entity
Web Entity – Encja istniejąca w przestrzeni internetowej – reprezentacja tematu lub marki rozpoznawalna przez Google i silniki AI Search na podstawie.
Fundamenty teoretyczneWieloencjowosc (Multi-entity)
Wieloencjowosc (Multi-entity) – Sytuacja, w której witryna przetwarza wiele powiązanych encji (np. baseny, pontony, materace).
Grafy wiedzy
Attribute Network (huby semantyczne)
Attribute Network (huby semantyczne) – Analiza grafowa identyfikująca atrybuty występujące przy wielu encjach jednocześnie.
Grafy wiedzyBetweenness Centrality (Hub Page)
Betweenness Centrality to metryka grafowa mierząca centralność węzła – identyfikuje Hub Pages łączące wiele klastrów tematycznych w architekturze serwisu.
Grafy wiedzyContent Gaps (graf vs własna strona)
Content Gaps (graf vs własna strona) – Wykrywanie brakujących treści przez porównanie grafu wiedzy tematu z istniejącą strukturą serwisu.
Grafy wiedzyContextual Bridge
Contextual Bridge to atrybut w grafie wiedzy łączący dwie odległe encje wspólnym kontekstem – np. 'leasing operacyjny' łączy prawo z finansami.
Grafy wiedzyCore Unique (warstwa grafu)
Core Unique (warstwa grafu) – Najwyższa warstwa w grafie wiedzy zawierająca atrybuty unikalne i kluczowe (UNIQUE + ROOT).
Grafy wiedzyDegree Centrality (Pillar Page)
Degree Centrality (Pillar Page) to metryka grafowa mierząca liczbę połączeń węzła – wysoka wartość wskazuje stronę pillarową.
Grafy wiedzyEtykieta relacji
Etykieta relacji – Nazwa relacji między węzłami w grafie wiedzy opisująca TYP powiązania (np. HAS_ATTRIBUTE, SHARES_ATTRIBUTE).
Grafy wiedzyGraf wiedzy (Knowledge Graph)
Graf wiedzy (Knowledge Graph) – Struktura danych składająca się z węzłów (encji) i krawędzi (relacji) reprezentująca wiedzę o temacie.
Grafy wiedzyGraphRAG (Microsoft)
GraphRAG (Microsoft) – Podejście Microsoft łączące grafy wiedzy z RAG – zamiast szukać podobnych chunków, przeszukuje strukturę grafu.
Grafy wiedzyHelicopter View
Helicopter View – Perspektywa ogólna na cały serwis lub temat z poziomu grafu wiedzy – pozwala zobaczyć pełną strukturę.
Grafy wiedzyHOP-PAA (tag query expansion)
HOP-PAA (tag query expansion) – Tag query expansion oznaczający sub-queries odkryte przez analizę PAA (People Also Ask) z wyników SERP.
Grafy wiedzyIteracyjne rozbudowywanie (MERGE)
Iteracyjne rozbudowywanie (MERGE) to strategia budowy grafu wiedzy polegająca na stopniowym dodawaniu nowych węzłów i relacji za pomocą operacji MERGE.
Grafy wiedzyJSON (transport grafow)
JSON (transport grafow) to format JSON jako warstwa transportowa grafów wiedzy między narzędziami – umożliwia przenoszenie struktury grafu między Neo4j.
Grafy wiedzyKrawedz (Edge grafu)
Krawedz (Edge grafu) – Połączenie między dwoma węzłami w grafie wiedzy reprezentujące relację – ma etykietę (typ relacji).
Grafy wiedzyLinkowanie grafowe vs leksykalne
Linkowanie grafowe vs leksykalne – Porównanie dwóch podejść do linkowania wewnętrznego: leksykalne (dopasowanie słów) vs grafowe (relacje semantyczne).
Grafy wiedzyLLM-PREDICTED (tag query expansion)
LLM-PREDICTED (tag query expansion) – Tag query expansion oznaczający sub-queries wygenerowane wyłącznie przez LLM bez potwierdzenia danymi SERP.
Grafy wiedzyMapowanie EAV na graf
Mapowanie EAV na graf to proces przekształcania trójników Entity-Attribute-Value na strukturę grafu wiedzy – Entity i Value stają się węzłami.
Grafy wiedzyMERGE (operacja Neo4j)
MERGE (operacja Neo4j) – Operacja Neo4j tworząca węzeł lub relację tylko jeśli nie istnieje, a jeśli istnieje – aktualizująca go.
Grafy wiedzyNODE (szczegoly)
NODE (szczegoly) – Właściwości węzła w grafie wiedzy – typ (encja/atrybut), nazwa, klasyfikacja URR, warstwa (Core/Strong/Relevant).
Grafy wiedzyNODE Page
NODE Page – Strona w serwisie odpowiadająca konkretnemu węzłowi w grafie wiedzy – mapowanie 1:1 między węzłami grafu a URL-ami umożliwia automatyczne.
Grafy wiedzyQuery Expansion (20-30 sub-queries)
Technika poszerzania seed query o 20-30 sub-queries za pomocą LLM i danych SERP – buduje pełne pokrycie tematyczne encji centralnej.
Grafy wiedzyRelationship Strength (siła powiązania)
Relationship Strength to siła powiązania między węzłami w grafie wiedzy wyrażona liczbowo – determinuje priorytet linkowania wewnętrznego między stronami.
Grafy wiedzyRelevant Contextual (warstwa grafu)
Relevant Contextual (warstwa grafu) – Najniższa warstwa grafu wiedzy zawierająca atrybuty kontekstowe i uzupełniające (RARE) – wspiera treści główne.
Grafy wiedzySEED (podtematy)
SEED (podtematy) – Lista podtematów (sub-topics) wygenerowana z seed query – fundament budowy klastra tematycznego i grafu wiedzy.
Grafy wiedzySEED Page
SEED Page – Strona startowa klastra tematycznego odpowiadająca encji centralnej w grafie wiedzy – punkt wyjścia dla budowy topical authority w danym.
Grafy wiedzySEED-PAA (tag query expansion)
SEED-PAA (tag query expansion) – Tag query expansion oznaczający sub-queries odkryte w sekcji PAA bezpośrednio dla seed query – pierwszy poziom ekspansji.
Grafy wiedzySHARES_ATTRIBUTE (wspólne atrybuty)
SHARES_ATTRIBUTE to relacja w grafie wiedzy łącząca encje dzielące ten sam atrybut – determinuje siłę linkowania wewnętrznego między podstronami.
Grafy wiedzyStrong Direct (warstwa grafu)
Strong Direct (warstwa grafu) – Środkowa warstwa grafu wiedzy zawierająca atrybuty kluczowe i popularne (ROOT + wysokie wolumeny).
Grafy wiedzyWezel (Node grafu)
Wezel (Node grafu) to podstawowy element grafu wiedzy reprezentujący encję lub atrybut – punkt, z którego wychodzą krawędzie (relacje) do innych węzłów.
Klasteryzacja semantyczna
Canonical Query
Canonical Query – Główne zapytanie reprezentujące klaster tematyczny – odpowiednik 'słowa kluczowego głównego', ale wybierane na podstawie semantyki.
Klasteryzacja semantycznaCorrelated Queries (powiązania)
Correlated Queries to zapytania często wyszukiwane przez tych samych użytkowników – wskazują semantyczne powiązania między klastrami treści w serwisie.
Klasteryzacja semantycznaDBSCAN
DBSCAN to algorytm klasteryzacji oparty na gęstości punktów – automatycznie wykrywa liczbę klastrów i identyfikuje outliery.
Klasteryzacja semantycznaK-means
K-means to algorytm klasteryzacji dzielący punkty na k grup na podstawie odległości od centroidów – wymaga podania liczby klastrów z góry, ale daje czyste.
Klasteryzacja semantycznaKlasteryzacja fraz (embeddingi + K-means)
Klasteryzacja fraz (embeddingi + K-means) – Etap grupujący słowa kluczowe w klastry za pomocą embeddingów i algorytmu K-means.
Klasteryzacja semantycznaKlasteryzacja hierarchiczna
Klasteryzacja hierarchiczna to algorytm tworzący drzewo (dendrogram) relacji między klastrami – przydatna gdy nie znamy optymalnej liczby grup z góry.
Klasteryzacja semantycznaKlasteryzacja kaskadowa (e-commerce)
Klasteryzacja kaskadowa (e-commerce) – Wielopoziomowa klasteryzacja dla e-commerce, gdzie kategorie, podkategorie i produkty tworzą kaskadę klastrów o.
Klasteryzacja semantycznaKlasteryzacja semantyczna
Klasteryzacja semantyczna to proces grupowania słów kluczowych w tematyczne klastry na podstawie embeddingów i algorytmów jak K-means – fundament.
Klasteryzacja semantycznaMapowanie tematyczne (CORE/OUTER)
Mapowanie tematyczne (CORE/OUTER) – Etap przypisujący klastry do sekcji CORE (główne) lub OUTER (wspierające) na podstawie klasyfikacji atrybutów.
Klasteryzacja semantycznaNazywanie klastrów (Central Entity)
Nazywanie klastrów (Central Entity) – Etap identyfikujący Central Entity i Canonical Query dla każdego klastra – trzeci krok pipeline'u klasteryzacji.
Klasteryzacja semantycznaPeople Also Ask (PAA)
People Also Ask (PAA) – Element wyników Google wyświetlający powiązane pytania użytkowników – w pipeline klasteryzacji służy jako źródło realnych fraz i.
Klasteryzacja semantycznaPriorytetyzacja Content Gaps (P1-P4)
Priorytetyzacja Content Gaps (P1-P4) to system priorytetów luk treściowych: P1 (krytyczne, wysokie wolumeny), P2 (ważne), P3 (wspierające).
Klasteryzacja semantycznaQuery Paths (kolejnosc wyszukiwan)
Query Paths to ścieżki wyszukiwania pokazujące typową kolejność zapytań użytkowników – sygnalizują potrzebę linkowania wewnętrznego między klastrami.
Klasteryzacja semantycznaQuery Semantics Google
Analiza semantyki zapytań Google obejmująca ścieżki wyszukiwań (Query Paths), powiązania (Correlated Queries) i sekwencje (Sequential Queries).
Klasteryzacja semantycznaRelated Searches
Related Searches – Sekcja 'Powiązane wyszukiwania' na dole wyników Google – źródło sub-queries potwierdzonych realnymi danymi użytkowników.
Klasteryzacja semantycznaSequential Queries (serie pytan)
Sequential Queries (serie pytan) – Seria zapytań wykonywanych kolejno w jednej sesji – pokazują journey użytkownika i pomagają planować linkowanie.
Klasteryzacja semantycznaSERP Coherence
SERP Coherence to miara spójności wewnętrznej klastra mierzona przez porównanie wyników SERP losowych keywords z canonical query.
Klasteryzacja semantycznaSERP Enrichment
SERP Enrichment to proces wzbogacania seed keyword o realne dane z Google SERP (PAA, Related Searches, Refine Chips, Filter Sidebar) przed ekspansją LLM.
Klasteryzacja semantycznaSERP Hop
SERP Hop to technika ekspansji słów kluczowych pobierająca Related Searches z Google SERP i używająca ich jako nowych seed.
Klasteryzacja semantycznaSERP Intelligence
SERP Intelligence – Analiza formatu contentu preferowanego przez Google na podstawie danych SERP – mówi JAKI content tworzyć, nie tylko O CZYM.
Klasteryzacja semantycznaSERP Overlap
SERP Overlap to miara procentowa wspólnych wyników w top 10 Google dla dwóch różnych zapytań – overlap powyżej 50% oznacza.
Klasteryzacja semantycznaSilhouette Score (dobor k)
Silhouette Score (dobor k) to metryka oceniająca jakość klasteryzacji (od -1 do 1) pomagająca dobrać optymalną liczbę klastrów k – im wyższy.
Klasteryzacja semantycznaToken Insertion
Technika ekspansji słów kluczowych polegająca na wstawianiu dodatkowych tokenów do seed phrase – generuje warianty long-tail z nowych kombinacji słów.
Klasteryzacja semantycznaTypy atrybutow (Main / Derived / Minor)
Typy atrybutow (Main / Derived / Minor) – Trzy typy atrybutów w Topical Map: Main (podstawowe), Derived (pochodne) i Minor (poboczne).
Klasteryzacja semantycznaWalidacja klastrów (SERP Overlap)
Walidacja klastrów (SERP Overlap) – Etap weryfikujący klastry przez sprawdzanie SERP Overlap między canonical query a losowymi keywords.
Klasteryzacja semantycznaWykrywanie luk tematycznych
Wykrywanie luk tematycznych – Etap identyfikujący brakujące tematy przez porównanie istniejących treści witryny z pełną mapą tematyczną.
Makrosemantyka (poziom witryny)
Architektura serwisu
Architektura serwisu – Struktura hierarchiczna witryny (ROOT > SEED > NODE) determinująca, jak crawlery i użytkownicy poruszają się po stronie i jak.
Makrosemantyka (poziom witryny)Breadcrumby (hierarchia klastrow)
Breadcrumby (hierarchia klastrow) – Nawigacja okruszkowa pokazująca ścieżkę hierarchii strony – pomaga Google zrozumieć strukturę serwisu i relacje między.
Makrosemantyka (poziom witryny)Broad Core Update a odleglosc semantyczna
Broad Core Update a odleglosc semantyczna – Obserwacja, że z każdą aktualizacją algorytmu Google zmienia się odległość semantyczna między tematami.
Makrosemantyka (poziom witryny)Centroid embeddingowy
Centroid embeddingowy – Środek ciężkości wektorów embeddingowych wszystkich stron witryny – punkt definiujący 'o czym jest strona' w przestrzeni.
Makrosemantyka (poziom witryny)Content Consolidation (konsolidacja treści)
Content Consolidation (konsolidacja treści) to proces łączenia kilku semantycznie bardzo podobnych stron (kanibalizujących się) w jedną.
Makrosemantyka (poziom witryny)Google Warehouse API (wyciek dokumentacji)
Google Warehouse API (wyciek dokumentacji) – Wyciek wewnętrznej dokumentacji Google ujawniający metryki takie jak Site Focus Score i Site Radius.
Makrosemantyka (poziom witryny)N-gramy site-wide
N-gramy site-wide – Analiza najczęściej występujących fraz (n-gramów) na całej witrynie – ujawnia dominujące tematy i pomaga ocenić spójność tematyczną.
Makrosemantyka (poziom witryny)Nawigacja facetowa (filtry)
Nawigacja facetowa (filtry) to system filtrów na stronach e-commerce (kolor, rozmiar, cena) generujący dynamiczne URL-e – wymaga starannej konfiguracji.
Makrosemantyka (poziom witryny)Nawigacja i crawl budget
Relacja między strukturą nawigacyjną serwisu a budżetem crawlowania Google – płaska nawigacja i poprawna hierarchia zapewniają efektywne indeksowanie.
Makrosemantyka (poziom witryny)Pillar Page
Główna strona klastra tematycznego pokrywająca temat kompleksowo i linkująca do stron wspierających – w topical map każdy klaster CORE ma pillar page jako.
Makrosemantyka (poziom witryny)Server-Side Rendering (SSR)
Server-Side Rendering (SSR) to technika generowania HTML po stronie serwera zamiast w przeglądarce – zapewnia natychmiastową dostępność treści dla.
Makrosemantyka (poziom witryny)Site Focus Score
Site Focus Score to metryka z wycieku Google Warehouse API mierząca spójność tematyczną witryny – im wyższy focus, tym lepiej Google rozumie.
Makrosemantyka (poziom witryny)Site Radius
Site Radius to metryka z wycieku Google Warehouse API mierząca rozpiętość tematyczną witryny – mały radius = skupiona tematycznie, duży = rozproszona.
Makrosemantyka (poziom witryny)TTFB (Time to First Byte)
TTFB (Time to First Byte) to czas od zapytania HTTP do pierwszego bajtu odpowiedzi serwera – kluczowa metryka wpływająca na crawl budget i Core Web Vitals.
Makrosemantyka (poziom witryny)Two-wave Indexing
Two-wave Indexing – Dwufazowy proces indeksowania Google: pierwsza fala analizuje HTML i podstawową treść, druga renderuje JavaScript.
Metryki i audyt
AI Citability Score (0-10)
AI Citability Score (0-10) to metryka (0-10) mierząca prawdopodobieństwo zacytowania treści przez AI Search – uwzględnia autonomiczność chunków, BLUF.
Metryki i audytAI Presence Rate
AI Presence Rate to metryka mierząca, jak często marka pojawia się w odpowiedziach generowanych przez systemy AI Search.
Metryki i audytBEFORE/AFTER (rekomendacje)
BEFORE/AFTER to format rekomendacji audytowych pokazujący konkretny fragment tekstu przed i po optymalizacji – najbardziej przekonujący sposób prezentacji.
Metryki i audytCitation Authority
Citation Authority to metryka oceniająca jakość źródeł, które cytują daną markę w ekosystemie AI Search – im bardziej wiarygodne źródła.
Metryki i audytContent Format Intelligence
Content Format Intelligence – Warstwa analizy audytowej sprawdzająca nie tylko CO brakuje w treści, ale też JAKI FORMAT preferuje Google w top 10 (FAQ.
Metryki i audytCQS (Content Quality Score 0-100)
CQS (Content Quality Score 0-100) – Złożona metryka jakości treści (0-100) obliczana jako ważona średnia sześciu wymiarów: CSI, CoR, Density, SRL.
Metryki i audytCQS Formula (wazona średnia)
CQS Formula (wazona średnia) – Wzór obliczania Content Quality Score: CQS = (CSI x 0.25) + (CoR x 0.20) + (Density x 0.15) + (SRL x 0.10) + (TF-IDF x 0.
Metryki i audytGoogle Quality Rater Guidelines
Google Quality Rater Guidelines – Oficjalny dokument Google opisujący, jak oceniać jakość stron internetowych, wyróżniający Main Content.
Metryki i audytImpact x Effort (priorytetyzacja)
Impact x Effort (priorytetyzacja) to system priorytetyzacji rekomendacji audytowych: Priorytet = Impact x (1/Effort), od '1-TERAZ' (wysoki impact.
Metryki i audytSchema.org Markup
Schema.org Markup – Znaczniki strukturalne (JSON-LD) pomagające wyszukiwarkom zrozumieć typ i strukturę treści – implementacja ontologii Schema.
Metryki i audytShare of AI Conversation
Share of AI Conversation to metryka mierząca udział marki w rozmowach AI w porównaniu z konkurencją – odpowiednik Share of Voice dla świata AI Search.
Metryki i audytURR klasyfikacja (Unique/Root/Rare)
URR klasyfikacja (Unique/Root/Rare) to system klasyfikacji atrybutów encji według trzech poziomów: UNIQUE (wyróżniki), ROOT (definicje).
Mikrosemantyka (poziom passage)
Agent (wykonawca akcji)
Agent (wykonawca akcji) – Rola semantyczna (SRL) oznaczająca wykonawcę akcji w zdaniu – 'kto to robi'; kluczowa dla jednoznaczności treści cytowalnej.
Mikrosemantyka (poziom passage)Atomic Claims (weryfikowalne)
Niepodzielne, weryfikowalne twierdzenia faktyczne wyodrębnione z tekstu – AI Search łatwiej cytuje fragmenty składające się z Atomic Claims niż z ogólników.
Mikrosemantyka (poziom passage)Beneficiary (odbiorca)
Beneficiary (odbiorca) – Rola semantyczna (SRL) oznaczająca odbiorcę korzyści z akcji – 'dla kogo to jest'; pomaga AI personalizować odpowiedzi dla.
Mikrosemantyka (poziom passage)Cost of Retrieval (CoR)
Cost of Retrieval (CoR) – Koszt pozyskania informacji z fragmentu tekstu – im niższy (BLUF, tabele, listy, fakty na początku).
Mikrosemantyka (poziom passage)Entity Salience (wyrazistość encji)
Entity Salience to miara wyrazistości semantycznej encji w tekście – zależy od roli SRL, pozycji w zdaniu i częstotliwości wystąpień w danym fragmencie.
Mikrosemantyka (poziom passage)Fluff (puch/wata słowna)
Fluff (puch słowny) to zdania bez wartości informacyjnej – ogólniki i pytania retoryczne obniżające Information Density i szanse na cytowanie przez AI.
Mikrosemantyka (poziom passage)Information Density
Information Density to stosunek wartościowych informacji do objętości tekstu – im więcej faktów na akapit, tym wyższa gęstość informacyjna fragmentu.
Mikrosemantyka (poziom passage)Information Gain
Information Gain to miara, ile nowej, unikalnej informacji wnosi fragment tekstu w porównaniu z tym, co już istnieje w indeksie wyszukiwarki.
Mikrosemantyka (poziom passage)Instrument (narzędzie)
Instrument (narzędzie) – Rola semantyczna (SRL) oznaczająca narzędzie użyte do wykonania akcji – 'czym'; precyzuje kontekst i zwiększa cytowalność.
Mikrosemantyka (poziom passage)Location (miejsce)
Location (miejsce) – Rola semantyczna (SRL) oznaczająca lokalizację akcji – 'gdzie'; ważna dla SEO lokalnego i precyzyjnych odpowiedzi AI.
Mikrosemantyka (poziom passage)Main Content (MC)
Main Content (MC) – Część strony, która bezpośrednio pomaga stronie osiągnąć jej cel, zgodnie z Google Quality Rater Guidelines.
Mikrosemantyka (poziom passage)Passage Embeddings (wektory fragmentow)
Passage Embeddings (wektory fragmentow) – Wektory embeddingowe tworzone dla poszczególnych fragmentów (passages) strony.
Mikrosemantyka (poziom passage)Passage Ready (seated ready)
Passage Ready to stan fragmentu tekstu, w którym każde zdanie jest samodzielnie zrozumiałe i gotowe do zacytowania przez AI bez dodatkowego kontekstu.
Mikrosemantyka (poziom passage)Patient (obiekt akcji)
Patient (obiekt akcji) – Rola semantyczna (SRL) oznaczająca obiekt akcji – 'na czym jest wykonywana akcja'; precyzyjne określenie Patienta zmniejsza Cost.
Mikrosemantyka (poziom passage)Semantic Role Labels (SRL)
Semantic Role Labels (SRL) to system etykiet semantycznych opisujących role uczestników w zdaniu (kto, co, komu, czym, gdzie).
Mikrosemantyka (poziom passage)Supplementary Content
Supplementary Content – Treść dodatkowa na stronie (menu, linki, reklamy, sidebary), która nie służy bezpośredniemu celowi strony.
Narzędzia i środowisko
Agent Swarm
Agent Swarm to wzorzec architektury AI wykorzystujący wiele wyspecjalizowanych agentów koordynowanych przez orkiestratora.
Narzędzia i środowiskoBright Data Site Unlocker
Usługa Bright Data do crawlowania stron chronionych przed botami (w tym Google SERP) – proxy + renderowanie JS umożliwiające zbieranie danych PAA i.
Narzędzia i środowiskoCohere (reranking)
Cohere (reranking) – Platforma AI oferująca modele rerankingowe (Cohere Rerank) – specjalizowany cross-encoder poprawiający trafność wyników wyszukiwania.
Narzędzia i środowiskoCrawling semantyczny
Crawling semantyczny – Automatyczne przeszukiwanie stron internetowych z rozumieniem treści (nie tylko HTML) – crawluje SERP, PAA.
Narzędzia i środowiskoCypher (język zapytań)
Cypher to język zapytań do bazy grafowej Neo4j – odpowiednik SQL dla grafów wiedzy, umożliwiający analizę relacji i metryki centralności węzłów.
Narzędzia i środowiskoDify (automatyzacja linearna)
Dify (automatyzacja linearna) – Platforma no-code/low-code do budowy liniowych pipeline'ów AI z wizualnym interfejsem – prostsze niż agent swarm.
Narzędzia i środowiskoEdge Functions (Supabase)
Edge Functions (Supabase) – Funkcje serwerowe uruchamiane na brzegu sieci (edge) w Supabase – umożliwiają przetwarzanie embeddingów i logikę RAG bez.
Narzędzia i środowiskoFlashRank
FlashRank – Lekki, szybki model rerankingowy działający lokalnie – alternatywa dla Cohere Rerank, gdy priorytetem jest szybkość i brak zależności od API.
Narzędzia i środowiskoMCP (integracja z narzędziami)
MCP (integracja z narzędziami) to model Context Protocol – otwarty protokół łączący agentów AI z zewnętrznymi narzędziami (bazy danych, API, crawlery).
Narzędzia i środowiskoOpenAI Assistant API
OpenAI Assistant API – API OpenAI do budowy asystentów AI z wbudowanym RAG, code interpreterem i narzędziami – alternatywa dla własnego pipeline'u RAG.
Narzędzia i środowiskoOpenRouter (multi-model routing)
OpenRouter (multi-model routing) – Platforma routing'owa umożliwiająca dostęp do wielu modeli AI (GPT-4, Claude, Gemini, Llama) przez jedno API.
Narzędzia i środowiskoOrkiestrator (Orchestrator)
Orkiestrator (Orchestrator) to centralny komponent w architekturze agent swarm koordynujący pracę wyspecjalizowanych agentów – decyduje kto.
Narzędzia i środowiskopgvector
pgvector – Rozszerzenie PostgreSQL dodające obsługę wektorów i wyszukiwanie nearest neighbors – używane w Supabase jako baza embeddingów do RAG i analiz.
Narzędzia i środowiskoQdrant (specjalista od wektorow)
Qdrant (specjalista od wektorow) – Wyspecjalizowana baza wektorowa zaprojektowana wyłącznie do przechowywania i wyszukiwania embeddingów.
Narzędzia i środowiskoTemperatura LLM
Temperatura LLM to parametr modelu LLM kontrolujący losowość odpowiedzi – temperatura 0 daje deterministyczne wyniki, temperatura 1+ daje kreatywne.
Pipeline'y audytu semantycznego
Analiza luk konkurencyjnych
Analiza luk konkurencyjnych – Etap lub pipeline porównujący treści konkurencji z własnym serwisem na poziomie embeddingów.
Pipeline'y audytu semantycznegoConsolidated Markdown
Consolidated Markdown – Plik Markdown łączący wiele źródeł treści w jeden skonsolidowany dokument – input do analizy LLM.
Pipeline'y audytu semantycznegoContent Brief
Content Brief – Szczegółowa specyfikacja artykułu wygenerowana z danych pipeline'u – zawiera cel, słowa kluczowe, strukturę H2/H3.
Pipeline'y audytu semantycznegoContent Format Recommendations
Content Format Recommendations – Rekomendacje formatu treści (artykuł, FAQ, lista, infografika) oparte na analizie SERP i intencji zapytania.
Pipeline'y audytu semantycznegoCykl Plan-Audyt-Poprawa
Cykl Plan-Audyt-Poprawa to iteracyjny cykl pracy w audycie semantycznym: planuj treści → audytuj istniejące → poprawiaj i uzupełniaj → planuj kolejne.
Pipeline'y audytu semantycznegoGraceful Degradation
Graceful Degradation to zasada projektowania pipeline'ów audytu, w której awaria jednego kroku nie blokuje całego procesu – pipeline kontynuuje z.
Pipeline'y audytu semantycznegoHuman in the Loop
Human in the Loop – Wzorzec, w którym człowiek weryfikuje i zatwierdza kluczowe decyzje agenta AI – równowaga między automatyzacją a kontrolą jakości.
Pipeline'y audytu semantycznegoJina Reader (tool)
Jina Reader (tool) to narzędzie Jina AI zamieniające dowolną stronę WWW na czysty Markdown – eliminuje szum HTML/CSS i daje tekst gotowy do analizy przez.
Pipeline'y audytu semantycznegoLLM do rozumowania, Python do obliczeń
LLM do rozumowania, Python do obliczeń – Fundamentalna zasada architektury audytu semantycznego: LLM interpretuje, nazywa i rozumuje, a Python oblicza.
Pipeline'y audytu semantycznegoNoise Cleaning
Noise Cleaning to proces usuwania szumu z danych przed analizą – filtrowanie nieistotnych keywords, outlierów i duplikatów ze zbioru danych SEO.
Pipeline'y audytu semantycznegoPatternless Frequency (nieregularne odstepy)
Patternless Frequency (nieregularne odstepy) to strategia publikacji z celowo nieregularnymi odstępami między artykułami – unika wzorca bota.
Pipeline'y audytu semantycznegoPersystencja pipelineu
Persystencja pipelineu – Zapisywanie wyniku każdego kroku pipeline'u do pliku – umożliwia wznowienie po awarii, debugowanie i audytowanie procesu.
Pipeline'y audytu semantycznegoPipeline audytu semantycznego
Pipeline audytu semantycznego – Kompletny pipeline od crawlingu do raportu audytowego – łączy embeddingi, klasteryzację, detekcję duplikatów.
Pipeline'y audytu semantycznegoQuality Report
Quality Report – Raport jakości generowany po każdym kroku pipeline'u – waliduje wyniki, identyfikuje anomalie i decyduje, czy kontynuować czy poprawić.
Pipeline'y audytu semantycznegoSERP Grounding (CONFIRMED/PREDICTED/SERP-ONLY)
SERP Grounding (CONFIRMED/PREDICTED/SERP-ONLY) to system tagowania sub-queries według źródła: CONFIRMED (LLM + SERP), PREDICTED (tylko LLM).
Pipeline'y audytu semantycznegoStrategia publikacji
Strategia publikacji – Plan sekwencji i tempa publikacji treści oparty na Topical Map – najpierw CORE (filary), potem OUTER (wspierające).
Pipeline'y audytu semantycznegoWznawialność pipeline'u
Wznawialność pipeline'u to właściwość pipeline'u umożliwiająca kontynuowanie od miejsca przerwania – każdy krok zapisuje wynik do pliku.
RAG (Retrieval Augmented Generation)
Autonomicznosc chunka
Autonomicznosc chunka to zasada budowania treści, w której każdy fragment (chunk) pod nagłówkiem H2 musi być zrozumiały sam w sobie.
RAG (Retrieval Augmented Generation)Bi-encoder vs Cross-encoder
Bi-encoder vs Cross-encoder – Dwa podejścia do rankowania wyników: bi-encoder (szybki, osobne wektory) vs cross-encoder (wolny.
RAG (Retrieval Augmented Generation)Chunking (dzielenie na fragmenty)
Chunking (dzielenie na fragmenty) to proces dzielenia dokumentu na mniejsze fragmenty (chunki) przed wektoryzacją w systemie RAG.
RAG (Retrieval Augmented Generation)Knowledge Cut-Off
Knowledge Cut-Off – Data graniczna danych treningowych modelu AI – informacje po tej dacie wymagają RAG lub wyszukiwania w internecie.
RAG (Retrieval Augmented Generation)RAG (Retrieval Augmented Generation)
RAG (Retrieval Augmented Generation) to technika łącząca wyszukiwanie informacji (retrieval) z generowaniem tekstu przez AI.
RAG (Retrieval Augmented Generation)Reranking
Reranking – Drugi etap wyszukiwania w RAG, gdzie cross-encoder precyzyjnie sortuje wstępnie pobrane wyniki – wolniejszy, ale dokładniejszy niż bi-encoder.
RAG (Retrieval Augmented Generation)Supabase (Postgres + pgvector)
Supabase (Postgres + pgvector) – Platforma bazodanowa (Postgres + pgvector) do przechowywania i przeszukiwania embeddingów.
Semantyka leksykalna
Antonimy (porównania)
Antonimy (porównania) – Relacja leksykalna między słowami o przeciwnym znaczeniu – używanie antonimów w treści aktywuje ramki porównawcze i wzmacnia.
Semantyka leksykalnaBoolean (czy X?)
Boolean (czy X?) to typ pytania z ramki semantycznej: 'czy X jest Y?' – wymaga odpowiedzi tak/nie z uzasadnieniem; często pojawia się w PAA.
Semantyka leksykalnaCo-occurrences (współwystępowanie)
Co-occurrences (współwystępowanie) – Częstotliwość wspólnego występowania terminów w tekstach – silne co-occurrences budują oczekiwania algorytmu co do.
Semantyka leksykalnaComparative (X vs Y?)
Comparative (X vs Y?) to typ pytania z ramki semantycznej: 'X vs Y – co lepsze?' – wymaga porównania z kryteriami; najsilniejsza heurystyka AI Search (+1.
Semantyka leksykalnaCost (ile kosztuje?)
Cost (ile kosztuje?) to typ pytania z ramki semantycznej: 'ile kosztuje X?' – wymaga konkretnych danych liczbowych; AI Search premiuje dokładne kwoty z.
Semantyka leksykalnaDefinitional (co to?)
Definitional (co to?) to typ pytania z ramki semantycznej: 'co to jest X?' – wymaga definicji encji, najczęściej pokrywany na początku artykułu w formie.
Semantyka leksykalnaDistributional Semantics
Distributional Semantics to teoria mówiąca, że znaczenie słowa wynika z kontekstów, w jakich się pojawia – fundament embeddingów i wyszukiwania semantycznego.
Semantyka leksykalnaDystrybucja terminow w artykule
Dystrybucja terminow w artykule – Równomierne rozmieszczenie kluczowych terminów w całym artykule – nie tylko w pierwszym akapicie.
Semantyka leksykalnaFrame Semantics
Frame Semantics – Teoria ramek semantycznych mówiąca, że słowa aktywują całościowe ramy pojęć – np. 'zakup' uruchamia ramkę z kupującym, sprzedawcą, ceną.
Semantyka leksykalnaGrouping (jakie rodzaje?)
Grouping (jakie rodzaje?) to typ pytania z ramki semantycznej: 'jakie są rodzaje X?' – wymaga taksonomii/klasyfikacji; idealny format to lista lub tabela.
Semantyka leksykalnaHiperonimy (kategorie nadrzedne)
Hiperonimy (kategorie nadrzedne) – Relacja leksykalna wskazująca kategorię nadrzędną encji (np. 'pojazd' jest hiperonimem 'samochodu').
Semantyka leksykalnaHiponimy (podtypy encji)
Hiponimy to podtypy encji w relacji leksykalnej – np. 'espresso' jest hiponimem 'kawy'. Budują głębokość tematyczną i wspierają Query Fan-out.
Semantyka leksykalnaMeronimy (części składowe)
Meronimy (części składowe) – Relacja leksykalna wskazująca część składową encji (np. 'klawiatura' jest meronimem 'laptopa').
Semantyka leksykalnaPolisemia
Polisemia – Zjawisko wieloznaczności słów (np. 'zamek' = budowla / mechanizm) – wyzwanie dla SEO rozwiązywane przez kontekst i embeddingi kontekstowe.
Semantyka leksykalnaProcess (jak zrobic?)
Process (jak zrobic?) to typ pytania z ramki semantycznej: 'jak zrobić X?' – wymaga instrukcji krok po kroku; format numerowanej listy obniża Cost of.
Semantyka leksykalnaSynonimy (szerszy matching)
Synonimy (szerszy matching) – Relacja leksykalna między słowami o tym samym lub bliskim znaczeniu – używanie synonimów w treści poszerza matching z.
Strategie specjalne
Context Engineering
Context Engineering to sztuka projektowania kontekstu dla agentów AI – obejmuje pliki konfiguracyjne, skille, structured data i pamięć między sesjami.
Strategie specjalneKlasyfikacja domeny przez Google
Proces, w którym Google przypisuje domenę do kategorii tematycznej – wpływa na to, jakie zapytania mogą rankingować i jak oceniany jest autorytet.
Strategie specjalneSEO lokalne (kancelarie)
SEO lokalne (kancelarie) to strategia SEO dla kancelarii prawniczych łącząca semantyczne SEO z sygnałami lokalnymi – Google My Business, NAP, recenzje.
Strategie specjalneStructure.md (mapa serwisu dla agenta)
Structure.md (mapa serwisu dla agenta) – Plik opisowy z drzewem struktury serwisu ('co jest gdzie') tworzony przez agenta na podstawie sitemapy.
Strategie specjalneYMYL (finanse)
YMYL (finanse) – Kategoria treści 'Your Money Your Life' obejmująca finanse, zdrowie, prawo – Google stosuje podwyższone kryteria E-E-A-T i weryfikacji.