Detta är intressant. Det jag ser är stora skillnader i "hur fel" siffrorna är just "över tid" för en enskild webbsida. Men också att de visar konstant fel i en enskild webbsidas fall de senaste 7-8 månaderna. Alla analysverktyg har sina felmarginaler. Så även de statistiktjänster som webbsidorna använder själva givetvis. Jag är inte helt insatt i hur Similarweb fungerar. Men av det jag läst av hur andra kontrollerat siffror från dom så är en felmarginal på 200-300% (oftast överskattningar) inte helt ovanliga.
Det är som sagt ingen kritik mot topplistan du gör. Det är kul och jag tror att det kan fungera sporrande för tidningarna. Men mer ett försök att belysa något som jag ständigt tvingas förklara för kunder och kamrater. Statistik är värdelös om man inte handskas med dem på rätt sätt.
Alla de sidor som jag har tillgång till använder Wordpress. Men utan att ha djupdykt i dessa siffror tycker jag se de månader där en eller flera artiklar fått stort spridning i sociala medier överskattas högre i Similarweb's statistik. Även i diskussioner på Hackernews beskrivs hur reklam på t.ex. Facebook ger stort avtryck hos Similarweb. Det kan ju förklaras av att Similarweb förlitar sig på organisk trafik till stor del (då de inte har tillgång till källan). Men det är bara en gissning. Den data jag jämför med är från Plausible. Så utesluter inte att det finns en felmarginal åt andra hållet på den sidan.