Temperatura LLM
Narzędzia i środowiskoTemperatura to parametr modelu LLM kontrolujący losowość (randomness) generowanych odpowiedzi. Temperatura 0 daje najbardziej deterministyczne, przewidywalne wyniki – model zawsze wybiera najbardziej prawdopodobny token. Temperatura 1.0+ zwiększa losowość, dając bardziej kreatywne, ale mniej przewidywalne odpowiedzi.
W pipeline'u audytu semantycznego temperatura ma kluczowe znaczenie: dla zadań analitycznych (ekstrakcja EAV, klasyfikacja URR, wywoływanie narzędzi) używaj temperatury 0-0.2 dla maksymalnej spójności. Dla zadań kreatywnych (generowanie briefów, pisanie treści) temperatura 0.5-0.7 daje lepszą różnorodność. Nigdy nie używaj temperatury > 1.0 dla zadań SEO – zbyt wysoka losowość generuje halucynacje i niespójne wyniki.
Na przykład ekstrakcja EAV z artykułu o zachowku z temp=0 da te same trójniki przy każdym uruchomieniu, z temp=0.8 da różne za każdym razem. W praktyce ustaw temperaturę jako parametr w pipeline, nie hardcoduj – możesz ją dostosować do zadania bez zmiany kodu.