Wyobraźmy sobie prostą sytuację.
W raporcie miesięcznym wynik NPS dla jednej lokalizacji spada z 46 do 39. Na slajdzie pojawia się czerwona strzałka. Ktoś mówi: „mamy pogorszenie doświadczenia klienta”. Zaczyna się dyskusja, szukanie przyczyn, presja na zespół operacyjny.
Tylko że w pierwszym miesiącu odpowiedziało 87 klientów, a w drugim 94.
Czy to naprawdę pogorszenie? A może zwykłe wahanie wyniku przy małej liczbie odpowiedzi?
To jeden z najczęstszych problemów w pracy z danymi CX. Widzimy zmianę na wykresie i odruchowo traktujemy ją jak zmianę w rzeczywistości. Tymczasem nie każda zmiana wyniku oznacza realną zmianę doświadczenia klienta.
Wyniki ankiet zawsze zawierają element losowości. Im mniej odpowiedzi, tym większa niepewność. Dlatego różnica, która wygląda poważnie na wykresie, może w praktyce mieścić się w granicach naturalnej zmienności próby.
Ten artykuł pokazuje, jak analizować wyniki ankiet CX w czasie tak, aby nie podejmować decyzji na podstawie przypadkowych wahań. Omówimy trzy najczęstsze typy wskaźników:
Na końcu znajdziesz praktyczne rekomendacje: kiedy analizować miesiące, kiedy kwartały, a kiedy lepiej przejść na półrocze, rok albo rolling 12M.
W raportowaniu doświadczeń klientów często pytamy:
O ile zmienił się wynik?
To dobre pytanie, ale niewystarczające.
Dużo ważniejsze brzmi:
Czy przy tej liczbie odpowiedzi mieliśmy w ogóle szansę wiarygodnie wykryć taką zmianę?
To pytanie zmienia sposób interpretacji danych.
Jeżeli w jednym okresie mamy 80 odpowiedzi, a w drugim 90, to wynik może się wyraźnie poruszać nawet bez realnej zmiany w doświadczeniu klientów. Jeżeli odpowiedzi są tysiące, mniejsze różnice mogą być już bardziej wiarygodne.
Dlatego każda analiza wyników CX w czasie powinna zaczynać się od trzech informacji:
Bez tego raport może wyglądać profesjonalnie, ale prowadzić do błędnych decyzji.
W praktyce warto rozdzielić dwa sposoby używania danych CX.
Monitoring służy do szybkiego wychwytywania sygnałów. Można go prowadzić często: miesięcznie, tygodniowo, a czasem nawet częściej.
W monitoringu nie chodzi o to, żeby każdą zmianę uznawać za potwierdzony trend. Chodzi o to, żeby zobaczyć, gdzie warto zajrzeć głębiej.
Przykład
Wynik satysfakcji w jednej lokalizacji spada drugi miesiąc z rzędu. Liczba odpowiedzi jest niewielka, więc nie mówimy jeszcze o potwierdzonym pogorszeniu. Ale warto sprawdzić komentarze klientów, dane operacyjne i ewentualne zmiany w procesie obsługi.
Wnioskowanie zarządcze wymaga większej ostrożności. Jeżeli w raporcie dla zarządu piszemy, że wynik „wzrósł”, „spadł”, „poprawił się” albo „pogorszył się”, powinniśmy mieć mocniejsze podstawy.
To oznacza, że:
Wniosek praktyczny
Miesięczne dane mogą być bardzo dobre do monitoringu, ale zbyt słabe do twardego wnioskowania zarządczego.
NPS jest jednym z najczęściej stosowanych wskaźników w badaniach doświadczeń klientów. Jego konstrukcja jest prosta: porównujemy udział promotorów i krytyków.
gdzie:
Pasywni nie wchodzą bezpośrednio do wzoru, ale wpływają na wynik, ponieważ są częścią całej struktury odpowiedzi.
Na przykład, jeśli 60% klientów to promotorzy, a 20% to krytycy, wynik NPS wynosi:
$$ 100 \cdot (0.60 - 0.20) = 40 $$
NPS jest różnicą dwóch udziałów. To oznacza, że jego wartość zależy od struktury odpowiedzi w próbie. Przy małej liczbie odpowiedzi kilka osób więcej lub mniej w grupie krytyków może wyraźnie przesunąć wynik.
Aby policzyć precyzję NPS, można potraktować pojedynczą odpowiedź jako zmienną:
$$ X \in \{+100, 0, -100\} $$
| Wartość X | Odpowiedź |
| +100 | promotor |
| 0 | pasywny |
| -100 | krytyk |
Wtedy NPS jest średnią tej zmiennej:
$$ \widehat{NPS}=\frac{1}{n}\sum_{i=1}^{n}X_i $$
To podejście pozwala ocenić, jak duża różnica między dwoma okresami jest potrzebna, aby mówić o wiarygodnej zmianie.
Jeżeli w danym okresie znamy udziały:
oraz:
$$ p_P+p_A+p_K=1 $$
to wariancja pojedynczej odpowiedzi wynosi:
$$ Var(X)=10000\bigl((p_P+p_K)-(p_P-p_K)^2\bigr) $$
Błąd standardowy NPS w okresie:
$$ SE(\widehat{NPS})=\sqrt{\frac{Var(X)}{n}} $$
Dla dwóch okresów różnica wynosi:
$$ \Delta = \widehat{NPS}_2-\widehat{NPS}_1 $$
A błąd standardowy różnicy:
$$ SE(\Delta)=\sqrt{\frac{Var(X_1)}{n_1}+\frac{Var(X_2)}{n_2}} $$
Przy poziomie ufności 95% warunek wiarygodnej różnicy można zapisać tak:
$$ |\Delta| \ge 1.96 \cdot SE(\Delta) $$
Innymi słowy: różnica NPS musi być wystarczająco duża w relacji do niepewności pomiaru.
W codziennej pracy często potrzebujemy prostszej reguły. Można wtedy użyć konserwatywnego przybliżenia:
$$ \Delta_{min} \approx 1.96 \cdot 100 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
Jeżeli oba okresy mają podobną liczebność:
$$ n_1 \approx n_2 \approx n $$
to:
$$ \Delta_{min} \approx \frac{277}{\sqrt{n}} $$
To nie jest wzór do akademickiej publikacji, ale bardzo użyteczna reguła zarządcza. Pomaga szybko sprawdzić, czy obserwowana zmiana jest w ogóle warta interpretowania jako potwierdzona.
Przy podobnej liczbie odpowiedzi w obu porównywanych okresach:
| Liczba odpowiedzi na okres | Minimalna różnica NPS |
|---|---|
| 100 | ok. 27,7 pkt |
| 200 | ok. 19,6 pkt |
| 400 | ok. 13,9 pkt |
| 800 | ok. 9,8 pkt |
| 1200 | ok. 8,0 pkt |
| 2000 | ok. 6,2 pkt |
Co to oznacza w praktyce?
Jeżeli lokalizacja zbiera około 100 odpowiedzi miesięcznie, to zmiana NPS o 5, 8 czy nawet 10 punktów może nadal nie być wystarczająco silna, aby mówić o potwierdzonej poprawie lub pogorszeniu.
Można ją traktować jako sygnał. Nie jako dowód.
Załóżmy, że w marcu NPS wynosi 42, a w kwietniu 49.
Różnica:
$$ 49 - 42 = 7 $$
W marcu zebrano 120 odpowiedzi, w kwietniu 130.
Na wykresie wygląda to jak poprawa. Ale przy takiej liczebności próby próg wiarygodnej różnicy jest dużo wyższy niż 7 punktów.
Rekomendowany komentarz w raporcie
NPS wzrósł kierunkowo, ale przy obecnej liczbie odpowiedzi nie traktujemy tej różnicy jako potwierdzonej poprawy. Wynik warto dalej monitorować.
Czego nie pisać
NPS poprawił się o 7 punktów, co potwierdza poprawę doświadczenia klienta.
Drugim bardzo częstym przypadkiem są pytania zamknięte raportowane jako odsetek odpowiedzi.
Przykłady:
Tutaj analizujemy proporcję, a nie średnią.
Dla dwóch okresów i udziałów p1 oraz p2:
$$ \Delta_{min} \approx 1.96 \cdot \sqrt{\frac{p_1(1-p_1)}{n_1}+\frac{p_2(1-p_2)}{n_2}} $$
Ten wzór pokazuje, jaka różnica między dwoma odsetkami jest potrzebna, aby można było mówić o zmianie na poziomie 95%.
Największa niepewność dla proporcji występuje przy:
$$ p=0.5 $$
ponieważ wtedy:
$$ p(1-p)=0.25 $$
Dlatego można zastosować konserwatywne przybliżenie:
$$ \Delta_{min,pp} \approx 98 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
Dla podobnych liczebności:
$$ \Delta_{min,pp} \approx \frac{139}{\sqrt{n}} $$
Wynik jest wyrażony w punktach procentowych.
| Liczba odpowiedzi na okres | Minimalna różnica w p.p. |
|---|---|
| 100 | ok. 13,9 p.p. |
| 200 | ok. 9,8 p.p. |
| 400 | ok. 7,0 p.p. |
| 800 | ok. 4,9 p.p. |
| 1200 | ok. 4,0 p.p. |
Co to oznacza w praktyce?
Jeżeli w danym miesiącu mamy 100 odpowiedzi, wzrost z 82% do 87% nie powinien być automatycznie komunikowany jako realna poprawa. Różnica wynosi 5 punktów procentowych, a próg dla takiej liczebności jest znacznie wyższy.
W pierwszym kwartale 81% klientów oceniło proces pozytywnie. W drugim kwartale wynik wyniósł 85%.
Różnica:
$$ 85\% - 81\% = 4\ \text{p.p.} $$
Jeżeli w każdym kwartale zebrano około 150 odpowiedzi, ta różnica jest zbyt mała, aby traktować ją jako potwierdzoną zmianę.
Jeżeli w każdym kwartale zebrano 2000 odpowiedzi, ta sama różnica może być już znacznie bardziej wiarygodna.
Wniosek
Ta sama różnica procentowa ma inną wartość interpretacyjną w zależności od liczby odpowiedzi.
W ankietach CX wiele pytań ma kilka opcji odpowiedzi. Na przykład:
Można analizować takie dane na dwa sposoby.
Najczęściej najlepiej analizować wybrane grupy odpowiedzi, na przykład:
Wtedy stosujemy wzór dla proporcji.
To podejście jest zrozumiałe dla biznesu i łatwe do wdrożenia w raportach.
Jeżeli chcemy sprawdzić, czy zmienił się cały rozkład odpowiedzi, można użyć testu chi-kwadrat.
To podejście jest metodologicznie poprawne, ale mniej wygodne w codziennym raportowaniu. Wymaga też odpowiednich liczebności w poszczególnych kategoriach.
Rekomendacja
W raportach zarządczych zwykle lepiej pokazywać wybrane, biznesowo znaczące grupy odpowiedzi niż testować cały rozkład wszystkich kategorii.
Trzeci typ danych to pytania oceniane na skali liczbowej.
Przykłady:
W takich pytaniach najczęściej raportujemy średnią ocenę.
Dla dwóch okresów:
$$ \Delta_{min} \approx 1.96 \cdot \sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}} $$
gdzie:
Ten wzór mówi, jaka różnica średniej jest potrzebna, aby uznać ją za wiarygodną przy danej zmienności odpowiedzi.
Jeżeli mamy dane zagregowane, na przykład liczbę odpowiedzi dla ocen 1, 2, 3, 4 i 5, nadal możemy policzyć odchylenie standardowe.
Niech n1, n2, n3, n4, n5 oznaczają liczby odpowiedzi dla kolejnych ocen.
Łączna liczba odpowiedzi:
$$ N=n_1+n_2+n_3+n_4+n_5 $$
Średnia:
$$ \bar{x}=\frac{1\cdot n_1+2\cdot n_2+3\cdot n_3+4\cdot n_4+5\cdot n_5}{N} $$
Wariancja próbki:
$$ s^2=\frac{n_1(1-\bar{x})^2+n_2(2-\bar{x})^2+n_3(3-\bar{x})^2+n_4(4-\bar{x})^2+n_5(5-\bar{x})^2}{N-1} $$
Odchylenie standardowe:
$$ s=\sqrt{s^2} $$
Dzięki temu nie trzeba mieć surowych danych odpowiedź po odpowiedzi. Wystarczy rozkład ocen.
W praktyce badań CX odchylenie standardowe dla pytań w skali 1–5 często znajduje się w okolicach 0,8–1,2.
Do szybkiej oceny można przyjąć:
s ≈ 1
Wtedy:
$$ \Delta_{min} \approx 1.96 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
Dla podobnych liczebności:
$$ \Delta_{min} \approx \frac{2.77}{\sqrt{n}} $$
| Liczba odpowiedzi na okres | Minimalna różnica średniej |
|---|---|
| 100 | ok. 0,28 pkt |
| 200 | ok. 0,20 pkt |
| 400 | ok. 0,14 pkt |
| 800 | ok. 0,10 pkt |
Średnia ocena obsługi wzrosła z 4,42 do 4,50.
Różnica:
$$ 4.50 - 4.42 = 0.08 $$
Przy 100 odpowiedziach na okres taka różnica prawdopodobnie jest za mała, aby mówić o wiarygodnej poprawie.
Przy 1500 odpowiedziach na okres może być już warta uwagi, szczególnie jeśli zmienność odpowiedzi jest niska.
Rekomendowany komentarz
Średnia ocena wzrosła, ale przy obecnej liczbie odpowiedzi różnica nie przekracza progu wiarygodnej zmiany. Traktujemy ją jako sygnał kierunkowy.
W dojrzałej analityce CX nie wystarczy pytać:
Czy obecna zmiana jest istotna?
Warto też pytać:
Ile odpowiedzi potrzebujemy, żeby wykrywać zmiany, które są ważne dla biznesu?
To pozwala projektować pomiar CX świadomie, zamiast tylko komentować gotowe raporty.
Jeżeli chcemy wykrywać różnicę Δ w odsetku odpowiedzi, przy dwóch okresach o podobnej liczebności, minimalna liczba odpowiedzi na okres wynosi:
$$ n = 2 \cdot p(1-p) \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
W konserwatywnym wariancie przyjmujemy:
$$ p=0.5 $$
czyli:
$$ n = 0.5 \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
Chcemy wykrywać zmianę o 3 punkty procentowe:
$$ \Delta=0.03 $$
Wtedy:
$$ n \approx 2134 $$
Oznacza to, że potrzebujemy około 2134 odpowiedzi na każdy porównywany okres.
Dla średniej minimalna liczba odpowiedzi na okres wynosi:
$$ n = 2 \cdot s^2 \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
Przy:
$$ s=1 $$
oraz celu wykrywania różnicy:
$$ \Delta=0.12 $$
otrzymujemy:
$$ n \approx 534 $$
Oznacza to, że do wykrywania niewielkich różnic średnich na skali 1–5 często potrzeba kilkuset odpowiedzi na każdy porównywany okres.
Dla NPS minimalną próbę można zapisać jako:
$$ n = 2 \cdot Var(X) \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
Przy konserwatywnym założeniu:
$$ Var(X)=8000 $$
i celu wykrywania różnicy:
$$ \Delta=3 $$
otrzymujemy:
$$ n \approx 6829 $$
To pokazuje, dlaczego małe zmiany NPS są tak trudne do wiarygodnego wykrycia na poziomie pojedynczych lokalizacji, krótkich okresów lub małych segmentów klientów.
Nie ma jednego idealnego rytmu raportowania dla wszystkich jednostek.
Błąd polega na tym, że często jedna organizacja stosuje identyczne reguły dla wszystkich lokalizacji, kanałów lub zespołów. Tymczasem duża jednostka może mieć wystarczająco dużo odpowiedzi do analizy kwartalnej, a mała — dopiero do analizy rocznej.
Zanim porównasz dwa okresy, sprawdź:
Nie zaczynaj od koloru strzałki. Zacznij od jakości danych.
Jeżeli jednostka zbiera mało odpowiedzi, miesięczne wyniki mogą być dobre do obserwacji, ale zbyt niestabilne do wnioskowania.
Praktyczna logika:
| Sytuacja | Rekomendacja |
|---|---|
| bardzo mało odpowiedzi | nie interpretować zmian, pokazywać poziom i komentarze jakościowe |
| mało odpowiedzi | analizować półrocze, rok albo rolling 12M |
| średnia liczba odpowiedzi | analizować kwartalnie lub półrocznie |
| dużo odpowiedzi | możliwa analiza miesięczna lub kwartalna |
| bardzo dużo odpowiedzi | możliwe wykrywanie mniejszych zmian i częstsze raportowanie |
Jeżeli jedna lokalizacja zbiera 1200 odpowiedzi kwartalnie, a druga 120, nie należy interpretować ich zmian tak samo.
W dużej jednostce zmiana o 8 punktów NPS może być warta mocnej interpretacji. W małej jednostce taka sama różnica może nadal być tylko sygnałem.
Wniosek
Standard raportu może być wspólny, ale standard interpretacji powinien zależeć od liczby odpowiedzi.
Niepełny miesiąc nie powinien być porównywany 1:1 z pełnym miesiącem. To samo dotyczy kwartałów, półroczy i lat.
Niepełne okresy mogą być zaburzone przez:
Rekomendacja
W standardowym raporcie CX lepiej nie interpretować zmian między okresem niepełnym a pełnym, chyba że zastosowano jasną korektę analityczną.
Dobre raportowanie CX nie polega na tym, żeby komentować każdą różnicę. Polega na tym, żeby jasno rozróżnić, co jest potwierdzoną zmianą, co jest sygnałem, a czego nie należy interpretować.
Warto stosować trzy poziomy komunikacji.
Stosujemy wtedy, gdy:
Przykładowy komunikat
Wynik wzrósł o 11 punktów NPS kwartał do kwartału. Przy obecnej liczbie odpowiedzi różnica przekracza próg wiarygodnej zmiany, dlatego traktujemy ją jako potwierdzoną poprawę.
Stosujemy wtedy, gdy różnica jest widoczna, ale nie ma wystarczających podstaw, aby mówić o potwierdzonej zmianie.
Przykładowy komunikat
Wynik jest wyższy niż w poprzednim okresie, ale liczba odpowiedzi nie pozwala jeszcze mówić o potwierdzonej poprawie. Traktujemy to jako sygnał do dalszego monitorowania.
Stosujemy wtedy, gdy różnica jest mała albo próba jest zbyt słaba.
Przykładowy komunikat
Różnica mieści się w granicach naturalnej zmienności próby. Nie interpretujemy jej jako poprawy ani pogorszenia.
Takie sformułowanie może wydawać się mniej atrakcyjne niż kolorowa strzałka, ale jest dużo uczciwsze analitycznie.
Nie każda różnica między dwoma punktami jest zmianą, która wymaga działania. Część ruchów wyniku to naturalna zmienność danych ankietowych.
Wynik bez liczby odpowiedzi jest niepełny. NPS 50 przy 40 odpowiedziach i NPS 50 przy 4000 odpowiedziach to zupełnie inne sytuacje analityczne.
Małe jednostki są wtedy nadinterpretowane, a raport sugeruje precyzję, której dane nie mają.
Można monitorować miesięcznie, ale nie każda miesięczna różnica nadaje się do komunikatu zarządczego.
Przy NPS warto patrzeć osobno na promotorów, pasywnych i krytyków. Przy pytaniach zamkniętych warto analizować konkretne grupy odpowiedzi, a nie tylko wynik zagregowany.
Jeżeli organizacja nie ustali z góry, jaka różnica jest wystarczająca, interpretacje będą uznaniowe. A to prowadzi do sporów, nadreakcji i fałszywych alarmów.
Poniżej prosty model, który można wdrożyć w raportowaniu doświadczeń klientów.
| Typ wskaźnika | Przykład | Jak analizować? |
|---|---|---|
| NPS | wynik od -100 do 100 | różnica punktów NPS |
| Odsetek odpowiedzi | % odpowiedzi pozytywnych | różnica w punktach procentowych |
| Średnia ocena | średnia w skali 1–5 | różnica punktów skali |
Każdy typ wskaźnika ma inną logikę zmienności.
Nie należy traktować tych różnic tak samo.
Istotność statystyczna nie wystarczy. Zmiana musi mieć jeszcze znaczenie dla decyzji biznesowej.
Przykładowe progi biznesowe:
Najlepsza praktyka to połączenie dwóch kryteriów:
Jeżeli jednostka nie zbiera wystarczająco dużo odpowiedzi miesięcznie, nie oznacza to, że danych nie da się analizować. Oznacza to, że trzeba wydłużyć okres agregacji.
Możliwe rozwiązania:
Rolling 12M bywa szczególnie przydatny dla małych jednostek, bo stabilizuje wynik i pozwala obserwować długoterminowy kierunek zmian.
Dobrym rozwiązaniem jest oznaczanie zmian jednym z trzech statusów.
| Status | Znaczenie | Co komunikować? |
|---|---|---|
| Wiarygodna zmiana | różnica przekracza próg | można mówić o poprawie lub pogorszeniu |
| Sygnał | różnica widoczna, ale niepewna | monitorować i szukać potwierdzenia |
| Brak podstaw | różnica zbyt mała lub próba zbyt słaba | nie interpretować jako zmiany |
Taka legenda porządkuje rozmowę i ogranicza nadinterpretację.
$$ \Delta_{min} \approx 1.96 \cdot 100 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
$$ \Delta_{min,pp} \approx 98 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
$$ \Delta_{min} \approx 1.96 \cdot \sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}} $$
$$ \Delta_{min} \approx 1.96 \cdot \sqrt{\frac{1}{n_1}+\frac{1}{n_2}} $$
$$ n = 2 \cdot p(1-p) \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
$$ n = 2 \cdot s^2 \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
$$ n = 2 \cdot Var(X) \cdot \left(\frac{1.96}{\Delta}\right)^2 $$
Bez liczebności odbiorca nie wie, jak bardzo może ufać wynikowi.
Strzałka pokazuje zmianę obserwowaną. Nie zawsze pokazuje zmianę wiarygodną.
Monitorować można często. Wnioskować trzeba ostrożniej.
Nie ustalaj interpretacji po zobaczeniu wyniku. Progi powinny być znane wcześniej.
Małe jednostki często wymagają dłuższego horyzontu analizy.
Przy NPS sprawdzaj promotorów, pasywnych i krytyków. Przy pytaniach zamkniętych analizuj konkretne grupy odpowiedzi.
To lepsze niż udawanie, że każda różnica jest twardym faktem.
Tak, ale nie każda miesięczna różnica powinna być interpretowana jako realna zmiana. Miesięczne dane dobrze nadają się do monitoringu operacyjnego. Do wnioskowania zarządczego potrzebna jest odpowiednia liczba odpowiedzi i przekroczenie progu decyzyjnego.
To zależy od wielkości zmiany, którą chcemy wykrywać. Przy małych różnicach, na przykład 3–5 punktów NPS, potrzebne są bardzo duże próby. Przy kilkudziesięciu lub stu odpowiedziach na okres wiarygodne będą tylko duże zmiany.
Nie da się tego ocenić bez liczby odpowiedzi. Przy bardzo dużej próbie wzrost o 5 punktów może być istotny. Przy małej próbie może być zwykłym wahaniem losowym.
To zależy od liczby odpowiedzi. Przy 100 odpowiedziach różnica 5 p.p. zwykle nie wystarcza do mocnego wniosku. Przy kilku tysiącach odpowiedzi może być już istotna.
To zależy od liczby odpowiedzi i odchylenia standardowego. Przy małej próbie różnica 0,10 może być niepewna. Przy dużej próbie może być wiarygodna.
Nie ma jednej odpowiedzi. Duże jednostki mogą być analizowane częściej. Mniejsze powinny być agregowane w dłuższych okresach, na przykład kwartalnie, półrocznie albo w ujęciu rolling 12M.
W analizie wyników ankiet CX nie wystarczy sprawdzić, czy wynik się zmienił.
Trzeba jeszcze odpowiedzieć na pytanie:
Czy przy tej liczbie odpowiedzi taka zmiana jest wiarygodna?
To proste pytanie chroni organizację przed nadinterpretacją danych, fałszywymi alarmami i błędnymi decyzjami.
Dobre raportowanie CX powinno:
Najważniejszy wniosek jest prosty:
Nie każda zmiana na wykresie jest zmianą w doświadczeniu klienta.
Dopiero połączenie wyniku, liczby odpowiedzi i progu decyzyjnego pozwala ocenić, czy dana różnica naprawdę zasługuje na uwagę.
Copyright © 2023. YourCX. All rights reserved — Design by Proformat