Ieri è stato pubblicato sui blog di Tommaso Tessarolo e Pietro Saccomani la seconda puntata dell’analisi condotta sui profili degli utenti Joost.
Come anticipato nei commenti al post su tommaso.tessarolo ho pubblicato nella sezione documentale del blog un technical report che riassume con maggior dettaglio l’analisi condotta.
Proprio dai commenti (grazie petrescu) sono emersi alcuni dubbi sull’attendibilità dei risultati che vale la pena commentare anche in questa sede:
… questi risultati non mi convincono. Questo vuole essere un test a livello scientifico? Ho visto che siete andati molto nel particolare, ma nel farlo avete considerato tutte le variabili dipendenti e indipendenti del caso (ad esempio ho cliccato per errore una risposta anzichè un’altra)? Il campione non è un po’ ridotto (300)? Ci dsarebbero tante altre domande…
Il principale problema che vedo non è tanto nella validità dei dati raccolti. A meno di un unico questionario (che è stato scartato) gli altri presentavano una coerenza nelle risposte collegate incoraggiante, anche se la formulazione di certe domande può aver costretto l’intervistato a scegliere risposte che potenzialmente non rappresentavano la sua reale opinione. Ad esempio quando è stato chiesto “a quale prezzo compreresti un STB per vedere Joost?” non è stata prevista la risposta “non lo comprerei affatto”. Chi non era interessato all’acquisto ha dovuto comunque rispondere alla domanda scegliendo uno dei prezzi proposti e alterando così la loro distribuzione. Di questo nell’analisi si è cercato di tenere conto filtrando le indicazioni di prezzo di chi non ha dimostrato, attraverso le altre risposte fornite, un interesse nell’utilizzo di un STB.
Il problema principale a mio avviso è nella rappresentatività dei risultati (come scrivevo lunedì) che è difficile da valutare per via dalla modalità di raccolta stessa dei dati. Il campione non è stato selezionato in alcun modo se non dalla frequentazione dei due blog. Rispetto ad una “popolazione più ampia” non c’è alcuna garanzia di rappresentatività. Ad esempio è facile presupporre che la percentuale di utenti NetTV che hanno risposto al questionario sia superiore rispetto a quella registrabile fra la popolazione dei lettori di blog (per non parlare degli utenti di Internet in generale).
Per verificare l’entità dello sbilanciamento del campione ho provato a confrontare proprio il rapporto fra il numero di lettori di blog e quello degli utenti di portali video (tipo YouTube) desumibile dalle risposte fornite con quello calcolato a partire dai dati dello studio condotto da Nielsen//NetRatings sul fenomeno Web 2.0 in Italia. Dal confronto dei dati numerici emerge che l’87% dei lettori abituali di blog che ha risposto al questionario frequenta portali video, contro il 67% rilevato dallo studio Nielsen; anche considerando l’intero campione, la percentuale di utenti di portali video che ha risposto al questionario è comunque del 76%, il che conferma il presunto sbilanciamento.
Di fatto le analisi svolte si riferiscono unicamente alla popolazione che ha aderito all’indagine. Tuttavia credo che i risultati emersi (al di là del livello di generalità che gli si possa/voglia attribuire) forniscano un’indicazione interessante sui profili che caratterizzano le diverse tipologie di utenti della NetTV.