LLM do rozumowania, Python do obliczeń
Pipeline'y audytu semantycznegoZasada 'LLM do rozumowania, Python do obliczeń' to fundamentalny podział ról w architekturze audytu semantycznego, określający kiedy używać modelu językowego, a kiedy kodu.
LLM jest używany do: rozumowania (interpretacja wyników), nazywania (nadawanie nazw klastrom), ekstrakcji (wyciąganie EAV z tekstu), klasyfikacji (URR, P1-P4) i generowania (briefs, treści).
Python jest używany do: obliczeń matematycznych (cosine similarity, Silhouette Score), klasteryzacji (K-means, DBSCAN), przetwarzania danych (pandas, CSV), wizualizacji (t-SNE, wykresy) i operacji bazodanowych (Supabase, Neo4j). Mieszanie ról to najczęstszy błąd: proszenie LLM o obliczenie cosine similarity (niedeterministyczne, drogie) lub Pythona o interpretację wyników (nie rozumie kontekstu).
Na przykład Python klasteryzuje 500 keywords na 15 klastrów → LLM nazywa klastry i opisuje ich tematy → Python oblicza Silhouette Score → LLM interpretuje wynik.
W praktyce przy każdym kroku pipeline'u pytaj się 'to rozumowanie czy obliczenie?' – odpowiedź natychmiast mówi, czy użyć LLM czy Pythona.