Det är ju lite knepigt det här statistik. Framförallt för icke organisk trafik fråm Similarweb. De tycks överskatta trafik med ~200-300% (https://ivanhoe.pro/how-accurate-is-similarweb-data/). Och det är väl ok för att mäta en enskild webbsidas trafik (som en trend) över en begränsad tid. Men för att mäta relationen mellan olika sidor innebär det en exponentiell felmarginal. Skillnaderna mellan sidor riskerar alltså att överdrivas ju större skillnaden är.
Eftersom jag har tillgång till mätverktygen för flera av webbsidorna som är med i @[email protected] inlägg kan jag även säga att trender över tid för enskilda webbsidor inte tycks överensstämma mellan Similarweb och webbsidornas egna statistikverktyg.
En förklaring till felmarginalerna är antagligen att Similarweb förlitar sig på organisk trafik och länkar från t.ex. sociala medier när den inte har tillgång till mätkällor (GA osv). Direkttrafik, nyhetsbrev, vidareläsning prioriteras ned medan delningar på facebook överdrivs. Men det är antagligen bara en del av problemet.
T.ex. har vi samma mätverktyg för 2 (egentligen flera) av de större sidorna som är med i listan. Trots det överdriver Ander's siffror från Similarweb den ena sidans siffror mer över 300% medan den andra sidan ligger något under statistiken i samma mätverktyg.
Att mäta trafik till webbsidor kan vara väldigt användbart. Men bara om man är extremt medveten om källans begränsningar. Och samtidigt vet vilka frågor man faktiskt vill ha svar på. För just listor som "största vänsternyhetssajterna" tror jag att nyttan är... marginell. Rolig, jovisst. Men också missvisande.