Archive for the ‘Marketing’ Tag

InfoManagement 2007 @ Roma

Pubblicato il 23/11/2007 da Stefano Cazzella in Business Intelligence

La settimana scorsa ho “sbirciato” i lavori della sessione di InfoManagement 2007 dedicata alla Business Intelligence. Obiettivo del convegno è stato offrire un’opportunità di incontro e discussione fra l’utenza business e i diversi attori dei mercati Document/Knowledge Management, Crm e Business Intelligence.

InfoBI 2007 Roma

I vendor del mercato della BI erano rappresnetati da Oracle e QlikView, mentre a fare la parte dell’utente business c’era Mirò.

(continua…)

 

Identikit degli utenti Joost (technical report)

Pubblicato il 05/07/2007 da Stefano Cazzella in Marketing,TV 2.0

Ieri è stato pubblicato sui blog di Tommaso Tessarolo e Pietro Saccomani la seconda puntata dell’analisi condotta sui profili degli utenti Joost.

Come anticipato nei commenti al post su tommaso.tessarolo ho pubblicato nella sezione documentale del blog un technical report che riassume con maggior dettaglio l’analisi condotta.

(continua…)

 

Identikit degli utenti Joost

Pubblicato il 02/07/2007 da Stefano Cazzella in Marketing,TV 2.0

Nei mesi scorsi è stato preparato da Tommaso Tessarolo e Pietro Saccomani un questionario indirizzato ad analizzare l’impatto e il giudizio del pubblico relativamente alla presentazione (in versione beta) del progetto Joost e della NetTV in generale. Il questionario, somministrato al pubblico della rete attraverso i loro blog, ha raccolto più di 300 adesioni.

A me è stato proposto di partecipare alle attività di analisi dei dati raccolti per far emergere, incrociando le risposte alle diverse domande, dei profili comportamentali che potessero caratterizzare gli utenti che hanno risposto al questionario in maniera più efficace di quanto sia stato possibile fare con un’analisi puntuale delle singole risposte.

(continua…)

 

Tommix Show

Pubblicato il 29/05/2007 da Stefano Cazzella in Marketing,TV 2.0

Venerdì scorso Tommaso Tessarolo ha presentato a Roma il suo nuovo libro “Net TV – Come Internet Cambierà la Televisione per Sempre”, disponibile già da una decina di giorni nelle migliori librerie. La presentazione al selezionato pubblico romano è avvenuta in un locale esclusivo di Monteverde Vecchio: all’evento hanno partecipato principalmente esponenti del mondo “broadcaster” e professionisti della “Net TV”. Naturalmente l’evento poteva essere seguito (problemi tecnici premettendo) anche on-line, in diretta (ma si sa che la Net TV non è ancora pronta per gli eventi LIVE!).

Net TV – Evento

(continua…)

 

Fiat Bravo Guerrilla Marketing

Pubblicato il 01/02/2007 da Stefano Cazzella in Marketing,Web 2.0

Oggi è stata presentata ufficialmente la nuova Fiat Bravo. Non mi intendo di motori e quindi non ho intenzione di offrire alcun giudizio in merito. La mia attenzione è invece stata attirata dalla campagna promozionale organizzata da Fiat; non da quella condotta attraverso i classici strumenti promozionali (recensioni, interviste e messaggi promozionali su TV, radio e carta stampata, partecipazione a fiere specialistiche, sponsorizzazioni, ecc.), ma da quella “parallela” caratterizzata dall’uso di strumenti meno convenzionali, ancorché già ampiamente utilizzati in altri paesi.

Da alcuni giorni sono comparsi nella zona centrale dell’EUR a Roma alcuni cartelli gialli, del tutto anonimi, con una freccia nera e la scritta TEST DRIVE. Non si faceva nessun riferimento a marche o modelli di auto e forse proprio per questo i cartelli hanno suscitato una certa curiosità generale, o quanto meno si sono fatti notare. Seguendo tali cartelli come in una caccia al tesoro, si veniva guidati verso l’area sottostante la sede di Confindustria dove, nella giornata di ieri, veniva presentata “al pubblico” che passava di lì la nuova Fiat Bravo.

Fiat Bravo Guerrilla Marketing

Alla gente che si presentava veniva data la possibilità di provare una delle Bravo portate lì per l’occasione da Fiat. Non c’è stata alcuna esplicita forma promozionale (che io sappia) dell’evento, che pure si svolgeva a ridosso di una zona molto frequentata in orario di ufficio. La gente ci arrivava per caso o guidata dalle frecce.

Incuriosito dall’evento più che dalla copertura offerta dai TG al lancio della nuova auto, sono andato in rete a cercare altre informazioni sulla campagna pubblicitaria e ho così scoperto che Fiat ha aperto un blog dedicato alla Bravo chiamato: Quelli che Bravo. Come si confà ad ogni blog moderno che si rispetti, anche questo è ricco di contenuti video, naturalmente pubblicati attraverso YouTube. Lo spirito dichiarato del Blog è quello di raccogliere i contributi di tutti quelli che hanno partecipato alla realizzazione del progetto Fiat Bravo, un po come viene fatto per i progetti Web 2.0 che sono sempre accompagnati da un blog realizzato dai protagonisti del progetto che ne raccontano il making-of. Ci sono quindi interviste ai responsabili marketing che approfondiscono aspetti tecnici sulla motorizzazione dei diversi modelli come sulle politiche di garanzia, ecc.

I responsabili del Blog sono i due Product Manager di Bravo Headquarters e Mercato Italia. Interessante è l’affermazione che chiude la presentazione degli autori del blog che riporto di seguito:

Loro si occupano di Marketing e fino ad oggi i blog li hanno solo letti e non scritti; perciò ad aiutarli ci saranno dei professionisti del web, dei Co-blogger: Barbara Berardi content manager per Arc Leo Burnett e Marco Massarotto.

Anche nell’immaginario di chi fa marketing ad alto livello i blog stanno assumendo un ruolo diverso: non sono più solo uno strumento “passivo” utile a conoscere le opinioni e i gusti della gente (o meglio di un settore ben qualificato dei possibili consumatori) ma divengono un vero e proprio strumento attivo di promozione dell’immagine di un prodotto. Per attuare queste operazioni sono state scelte delle figure professionali dedicate che conoscono lo strumento e le sue dinamiche.

Ma la blogosfera e i suoi protagonisti sono pronti per questa intrusione? Il mondo dei bloggers è una realtà chiusa e difficile, animata da un’etica che ripudia (almeno a parole) strumentalizzazioni, specie per fini commerciali. Tuttavia blog come “Quelli che Bravo” non sono rivolti ai bloggers, ma ai loro lettori che per il marketing contano molto di più dei bloggers stessi (con buona pace dei bloggers che continuano a cross-linkarsi per salire in classifica – per la cronaca hagakure, il blog fondato da Marco Massarotto, è in posizione 735 nella classifica di BlogBabel).

Riusciranno i blog prodotti per perseguire fini promozionali a crearsi spazio su web e sostituirsi ai blog amatoriali o semi-professionali negli interessi e negli affetti del pubblico di Internet?

 

Dati Auditel 2006 : la TV perde nel prime time

Pubblicato il 16/01/2007 da Stefano Cazzella in Marketing,TV 2.0

In questa settimana sono stati resi pubblici i dati Auditel relativi agli ascolti televisivi per l’intero anno 2006. L’occasione è propizia per riprendere, in chiave italiana, i ragionamenti sul crescente uso di Internet e il concomitante calo degli ascolti televisivi negli USA, offrendo anche una parziale risposta alle richieste di dati circa il presunto calo degli ascolti televisivi in Italia formulate, fra gli altri, da Tommaso Tessarolo in risposta alle analisi da me proposte.

Rimandiamo per il momento la discussione puntuale dei dati disaggregati per fascia di età e per emittenza (Rai, Mediaset, satellite, digitale terrestre, ecc.) e limitiamoci a considerare il numero medio di telespettatori che si stima abbiano usufruito del mezzo televisivo. Dal confronto con i due anni precedenti i consumi televisivi non sembrano affatto in crisi: si registra infatti un calo dell’0,6% rispetto al 2004 e un incremento dello 0,2% rispetto al 2005. Il dato più interessante viene però dalla distribuzione per fascia oraria. Nelle fasce orarie con un maggior numero di ascoltatori (quelle che vanno dalle 18:00 alle 20:30 e dalle 20:30 alle 22.30) si registra un calo complessivo, rispetto al 2004, del 2,6% (con un picco negativo del 2,8% concentrato nel prime time). Dal 1998 al 2004 l’andamento del numero medio di ascoltatori della fascia 18:00-22:30 ha avuto un trend di crescita tendenziale che sembra essersi invertito con il 2005 e il 2006.

Dati Auditel 2005

La fascia presa in considerazione è di particolare interesse in quanto corrisponde alla fascia oraria in cui il mezzo televisivo entra in diretta competizione con Internet (almeno per chi nelle fasce orarie precedenti è al lavoro e quindi non ha occasione di usufruire del mezzo televisivo). Le stesse motivazioni sono alla base della scelta di considerare tutte le emittenze televisive (incluse quelle satellitari e il digitale terrestre) così da filtrare gli effetti della penetrazione del mercato da parte delle emittenze satellitari e avere un indicatore che comprendesse tutta l’offerta nazionale del mercato televisivo.

Altrettanto interessante è il calo registrato dalla penetrazione di mercato (calcolata come rapporto fra i telespettatori stimati dall’Auditel e la popolazione italiana sopra i 4 anni di età stimata dall’ISTAT): tale livello, calato di circa 1,5 punti percentuali rispetto al 2004, è sceso ad un valore inferiore a quello registrato nel 1998. Quanto di questo calo sia effettivamente riconducibile ad un maggior utilizzo di Internet non è facile a dirsi. Come dato comparativo vale la pena citare lo studio di Federcomin sullo stato della Società dell’Informazione che segnala un incremento nei collegamenti a banda larga del 44,4% fra il 2004 e il 2005. Un salto dai 4,7 ai 6,8 milioni di linee ad alta velocità, che ha portato al 64% la quota di utenti che dispongono di uno strumento sostanzialmente diverso dall’Internet a 56K. La diffusione della banda larga infatti consente la fruizione di servizi incentrati su contenuti audio e video che rendono di fatto Internet un canale alternativo alle emittenze tradizionali non solo come mezzo di distribuzione dei contenuti ma anche in termini di modalità di utilizzo del servizio.

 

Blog Intelligence

Pubblicato il 12/01/2007 da Stefano Cazzella in Marketing,Web 2.0

La blogsfera è in rapida espansione! Quali implicazioni ha questa crescita su come vengono realizzati i blog e sul ruolo che hanno assunto? Quali strumenti e strategie servono per rendere efficace un blog dal punto di vista della sua diffusione? Quali obiettivi perseguire? Questi sono alcuni dei quesiti che i blogger si pongono (o dovrebbero porsi) e le cui risposte sono ancora in fase di elaborazione.

Secondo le rilevazioni effettuate da un osservatore di eccellenza come Technorati, il numero di blog raddoppia ogni sei mesi; quelli da loro tracciati hanno superato quota 35 milioni ad Aprile 2006 (altre stime parlano complessivamente di 70 milioni di blog nel mondo). Di questi 35 milioni, oltre 19 sono sopravvissuti ai primi 3 mesi di vita (ossia hanno continuato ad essere aggiornati) e quasi 4 milioni vengono aggiornati con cadenza almeno settimanale.

http://www.sifry.com/alerts/Slide0002-3.gif

Anche il traffico Internet legato al fenomeno blog è in aumento: secondo uno studio di comScore, pubblicato da eMarketer a Luglio e ripreso da varie fonti, il traffico Internet diretto verso i blog è cresciuto del 57% nell’ultimo anno superando ampiamente i 58 milioni di visitatori sulla rete statunitense.

La crescita dei volumi di offerta (numero dei blog) e domanda (numero dei visitatori) testimonia l’espansione del mercato legato ai contenuti auto-prodotti (o user-generated content). Come avviene in ogni mercato che si rispetti, è necessario attrarre i consumatori verso il proprio prodotto, specie se la concorrenza abbonda. Emergere dal “rumore di fondo” prodotto da 35 milioni di blog e convogliare verso il proprio l’attenzione di un numero elevato di visitatori è una vera e propria arte; un’arte magica che richiede il suo stregone: il SEO copywriter – professionalità emergente fra le più richieste e meglio retribuite.

Il numero di visitatori non è però l’unico indicatore meritevole di interesse. Anzi, come è stato ben illustrato in uno dei migliori post sul SEO Copywritng che ho avuto modo di leggere, la metrica di maggior rilevanza è il numero di visite che hanno generato un ritorno. Tale indicatore sintetizza infatti in maniera più efficace l’effettiva diffusione dei propri contenuti, che è uno dei principali obiettivi perseguiti comunemente dai blogger (o almeno da un certo tipo di blogger).

Per quella classe di blogger che è interessata a “fare tendenza” in un determinato ambito, ossia a influenzare le idee e le opinioni che circolano in un determinato settore, esistono aspetti più rilevanti della semplice penetrazione del mercato o della fidelizzazione. Per loro è fondamentale conoscere i propri lettori per verificare di aver raggiunto il bersaglio prefissato. In una strategia di diffusione mirata del proprio pensiero diviene fondamentale sapere chi sono i propri lettori, poterne tracciare un profilo, verificarne l’appartenenza al target.

Per monitorare costantemente le metriche di penetrazione o di fidelizzazione e raccogliere altre informazioni utili quali le pagine di ingresso e uscita, quelle di provenienza, ecc. esistono già diversi strumenti. Oltre ai classici prodotti basati sull’analisi dei log dei web server come AWStats, esistono approcci web based che, integrando porzioni di codice java script nelle pagine del blog, consentono di raccogliere le medesime statistiche di utilizzo. Questo blog, ad esempio, ne usa due fra i più diffusi: Google Analytics e StatCounter

Per analizzare e tracciare un profilo dei propri lettori, invece, la classe di strumenti citati non è altrettanto efficace: i servizi di analisi disponibili non sono orientati all’organizzazione modulare dei contenuti di un un blog (in cui il focus si sposta dalla pagina al post) e non sono orientati al visitatore/utente/lettore. Le informazioni più rilevanti che riguardano i visitatori sono la loro distribuzione geografica e (per i contesti per cui può essere ritenuta di interesse) una descrizione sommaria dell’ambiente tecnologico di cui si avvalgono: sistema operativo, browser, dimensione dello schermo, ecc. Per chi mantiene un blog i cui contenuti indirizzano uno specifico settore industriale è molto più interessante sapere da quanti e quali player del settore viene letto, quali competitor, quali clienti, ecc. Per altri potrebbe essere interessante conoscere l’identità dei blogger da cui si è letti e la loro sfera di influenza.

Un servizio, utilizzato anche in questo blog, che per primo sta tentando di rispondere ad alcune di queste esigenze informative è MyBlogLog. Il servizio consente di sapere quali blog, fra quelli registrati (e quindi che appartengono alla stessa rete di blog), sono stati visitati dagli utenti di MyBlogLog. Naturalmente fra i blog per cui è possibile conoscere l’identità (se pur virtuale) degli utenti che l’hanno visitato c’è il proprio; inoltre è possibile aggiungere alle pagine del proprio blog una porzione di codice java script che consente di visualizzare le “foto” degli utenti registrati che le hanno visitate, pubblicizzando così la loro visita. La rete di blog ed utenti che viene a crearsi può essere navigata per capire chi sono i nostri lettori, quali altri blog frequentano e/o gestiscono, che legami esistono fra loro, ecc.

Se i blog continueranno ad affermarsi come mezzo di diffusione e orientamento delle idee e delle opinioni, strumenti in grado di descriverne e qualificarne l’audience saranno sempre più importanti, proprio come avviene da tempo in molti settori commerciali dove conoscere la propria clientela è un fattore determinante per sostenere e innovare il proprio business.

 

Internet killed the Video star!

Pubblicato il 18/12/2006 da Stefano Cazzella in Marketing,TV 2.0

Lo ammetto, non ho resistito alla tentazione di pubblicare sul mio blog gli esperimenti fatti con Swivel alla ricerca di qualche verità nascosta o qualche conferma sperimentale. L’analisi è stata condotta come caso d’uso del servizio, ma i risultati analitici prodotti sono coerenti con altri studi di settore

Il tema prescelto è l’influenza che ha avuto la diffusione di Internet sull’audience televisiva, con particolare riferimento all’informazione. La tesi da dimostrare (o da sfatare) è che Internet nel suo complesso costituisca una fonte alternativa di informazione la cui diffusione, in forte crescita, porta ad un calo negli ascolti televisivi dei programmi di informazione.

http://swivel.com/graphs/show/1163380

Per misurare l’andamento degli ascolti televisivi sono stati scelti, a titolo esemplificativo, gli ascolti di due dei principali programmi di informazione serale statunitensi: CBS Evening News e ABC World News Tonight. Tali dati corrispondono a quanto rilevato dal Nielsen Media Research. Per quanto riguarda la diffusione di Internet, i dati sono relativi ad un sondaggio condotto annualmente da The Pew Research Center for the People and the Press in cui viene stimata la quota di utenti Internet.

Nel grafico sono riportate le variazioni percentuali, rispetto ai loro massimi, delle tre misure prese in considerazione. Dalla loro comparazione appare evidente che i trend dell’audience di entrambi i programmi televisivi hanno un andamento analogo e in controtendenza rispetto a quello dell’utilizzo di Internet: gli ascolti televisivi sono in calo quasi-costante (negli ultimi 12 anni entrambi i programmi hanno perso circa il 40% dei loro telespettatori) mentre la diffusione di Internet cresce con un tasso medio del 5,5%.

Il livello di correlazione (diretto e inverso) fra le serie è elevato: -0,81 fra i dati di Internet e CBS; -0,85 fra quelli di Internet e ABC; 0,89 fra quelli di CBS e ABC. E’ noto che non è possibile dedurre un rapporto di causa-effetto dalla semplice correlazione dei dati presentati: è la TV che spinge la gente a rivolgersi ad Internet; è Internet che ruba il pubblico alla TV; esiste una causa comune esterna; sono solo fenomeni contemporanei ma non legati da rapporto causale? Resta comunque il fatto che gli ascolti televisivi calano mentre la gente che usa Internet cresce. Tale fenomeno è ampiamente studiato e discusso per capire quali meccanismi siano in atto dietro quanto mostrato dai dati; fra questi è interessante analizzare The State of the News Media 2006 che è stato condotto su dati analoghi a quelli mostrati e affronta il tema dal punto di vista degli operatori del settore dell’informazione.

Per quel che riguarda lo studio di caso, Swivel ha dimostrato, pur essendo ancora in rodaggio, di avere a disposizione alcuni data set utili ad affrontare i temi di analisi più comuni. Le fonti utilizzate si sono dimostrate attendibili anche se, da questo punto di vista, il caso d’uso non è particolarmente significativo dal momento che l’utente che ha portato i dati in Swivel è anche un collaboratore interno del progetto stesso.

 

Swivel: lo “YouTube” dei Dati

Pubblicato il 11/12/2006 da Stefano Cazzella in Business Intelligence,Marketing,Web 2.0

SwivelDopo un anno di sviluppo vede la luce il progetto di Dmitry Dimov e Brian Mulloy: realizzare lo “YouTube” dei dati. Sotto l’attenta supervisione di Minor Ventures (giovane e abile venture capital della valley con all’attivo già importanti successi quali il co-finanziamento di Salesforce.com) Dimov, Mulloy & co. hanno realizzato una Web App 2.0 per la condivisione, l’esplorazione e la re-distribuzione di dati. Il modello di business è fra i più sfidanti nell’era 2.0: nessun costo per chi condivide dati e risultati, un canone per chi vuole usufruire del servizio in maniera riservata. Come si affronta una sfida così ardua?

Il servizio

L’idea centrale del progetto è quella di realizzare un repository di dati di varia natura, alimentato e gestito dagli utenti stessi via web; i dati raccolti possono essere visualizzati (creando dei grafici) e comparati fra loro alla ricerca di correlazioni interessanti o stravaganti. Attraverso un’interfaccia abbastanza semplice da usare, il sistema assiste gli utenti segnalando fra i data set disponibili quelli maggiormente correlati con i dati che si stanno analizzando; inoltre vengono calcolati alcuni indici numerici che consentono di misurare il livello di correlazione presente fra i dati comparati.

I grafici che riassumono i risultati delle analisi possono poi facilmente essere pubblicati in blog esterni con un semplice copy&paste di codice HTML. I dati e i risultati pubblicati liberamente su Swivel appartengono alla comunità (anzi a tutti, poiché per visualizzarli e manipolarli non è neanche necessario essere registrati come utenti): chiunque può effettuare ulteriori speculazioni a partire dai risultati raggiunti da altri in piena logica collaborativa. Swivel integra inoltre un sistema di valutazione della popolarità di un grafico o di un data set con due indicatori distinti: il voto degli altri utenti e il numero di volte che il grafico/data set è stato visto. Inoltre è prevista la possibilità di commentare un grafico consentendo di gestire discussioni verticali sul tema proposto dal grafico stesso.

Così, ad esempio, nei primi giorni di “apertura” al pubblico di Swivel è emerso, incrociando due data set forniti da due utenti differenti, una curiosa correlazione inversa fra “crimini violenti” e “consumo di vino” negli stati uniti.

http://swivel.com/graphs/show/1169349

Una di quelle correlazioni che ci si aspetterebbe di trovare in Freakonomics di Steven Levit (non a caso Dubner – il coautore del libro – ha recensito Swivel sul proprio Blog qualche giorno prima della sua apertura, ricevendo commenti ironici/increduli circa la realizzabilità del progetto stesso).

Il modello di business

Come guadagnare da un servizio di questo tipo senza ricorrere al classico inserimento di avvisi pubblicitari contestuali? La risposta è nell’individuazione di una serie di funzionalità PRO che giustifichino il pagamento di una fee senza penalizzare l’usabilità e il senso di quanto disponibile gratuitamente. Questa strada, seguita anche da Flickr e altri virtuosi servizi web 2.0, richiede una profonda convinzione nel valore che gli utenti PRO possono attribuire al servizio PRO.

Il servizio PRO offerto da Swivel consiste nel fornire agli utenti PRO la possibilità di incrociare in modo sicuro i loro dati riservati con quelli pubblici forniti dagli altri utenti: in cambio di una fee (ancora non nota) un utente PRO può importare in Swivel i propri dati riservati, che rimarranno naturalmente invisibili agli altri utenti, ed applicare gli algoritmi di Swivle incrociando tali dati con altri dati da lui forniti o pubblicati liberamente da altri utenti; i risultati della comparazione saranno naturalmente anch’essi riservati. La versione PRO del servizio sarà attivata al termine della fase di preview.

E’ interessante riflettere sulla reale natura del servizio PRO offerto: i dati di pubblico dominio possono essere scaricati da Swivel in formato CVS e quindi incrociati con i dati riservati senza bisogno di portare questi ultimi in Swivel; inoltre gli algoritmi di correlazione sono fra i più comuni e non sono presenti funzionalità di calcolo delle statistiche o di preparazione dei dati (fasi fondamentali in qualunque indagine di tipo statistico o semplicemente di analisi dei dati). Quale è allora il reale servizio su cui puntano Dimov e Mulloy per convincere gli utenti PRO a portare i loro dati in Swivel e pagare un canone per mantenerli riservati? A mio avviso tale servizio si basa su due caratteristiche del sistema (a regime):

  • l’ampia disponibilità di data set che spazino in diversi campi applicativi: dall’economia alla salute pubblica, dall’istruzione alle abitudini alimentari;
  • la possibilità di individuare, dato un data set (magari riservato), quelli che, fra tutti i data set pubblicamente disponibili, sono altamente correlati con il primo.

Il secondo punto vuole essere una risposta a domande del tipo: ok, i dati presenti nel mio database mi dicono che è in atto questo fenomeno, quali altri fenomeni correlati al mio sono in atto in contemporanea? Il che sottintende la domanda successiva: quali di questi sono in un possibile rapporto di causa-effetto con il fenomeno di interesse?. A questa seconda domanda sono chiamati a rispondere i business analyst (o analoghe figure professionali), ma la prima richiede spesso costose azioni di indagine all’esterno dell’azienda per raccogliere e/o acquisire i dati di confronto. Se si ha già un’idea della direzione in cui cercare, tali costi possono essere radicalmente ridotti

Tali considerazioni ci riportano al primo punto, come raccogliere informazioni con diverse profondità temporali e che spazino in campi diversi? La risposta Web 2.0 è offrire un servizio di condivisione di tali informazioni affinché tutti (tutti gli appassionati del genere) possano beneficiarne e siano incentivati a contribuire con i dati in loro possesso. Questo approccio al problema consente di offrire a ciascun interlocutore il servizio di cui ha bisogno nelle giuste modalità e in maniera sostenibile. Viene proposta una versione gratuita del servizio per chi usa lo strumento a fini hobbistici, soddisfacendo così un desiderio di informazioni ampiamente sentito in chi si diletta nella nobile arte di “incrociare e analizzare i dati” e che difficilmente sarebbe potuto essere soddisfatto diversamente. Parallelamente viene offerto uno strumento a pagamento per i professionisti che usufruiscono del contributo degli hobbisti pagando chi ha permesso che tutto ciò si realizzasse.

Uno degli elementi chiave di successo del progetto sarà l’attendibilità dei dati pubblici; in questo senso esperienze come Wikipedia possono essere di conforto circa la qualità dei contributi auto-gestiti dagli utenti e l’efficacia delle forme di controllo collettivo.

 

Domanda e offerta nelle reti P2P

Pubblicato il 27/11/2006 da Stefano Cazzella in Marketing

DVDCome anticipato da diversi quotidiani sia on-line (es. Corriere.it – 13/11/2006) che cartacei, nonché dai principali mezzi di informazione, il 24/11 scorso è uscito il DVD Uccidete la democrazia! in cui Enrico Deaglio e Beppe Cremagnani presentano una ricostruzione dietrologica degli avvenimenti della notte dello spoglio delle elezioni politiche del 2006. Vista la cassa di risonanza offerta dai media nazionali, come era prevedibile il DVD è andato a ruba e già nelle prime ore della mattinata è andato esaurito in tutte le edicole.

Lasciando ad altri il compito di commentare (e ad ognuno interessato di valutare autonomamente) le tesi presentate, questo evento ci offre in realtà lo spunto per affrontare un tema completamente diverso: la velocità di diffusione di materiale video attraverso una rete P2P (pear-to-pear). Premesso, come d’obbligo, che spesso il materiale distribuito attraverso questo strumento è coperto da copyright e quindi la sua redistribuzione è vietata, il fenomeno è ampiamente studiato anche a scopi commerciali (vedi OECD Information Technology Outlook 2006 – Monetisation of peer-to-peer networks). L’esperimento descritto successivamente è quindi mosso unicamente dal desiderio di comprendere meglio il fenomeno e non costituisce in alcun modo un invito ad utilizzare lo strumento delle reti P2P in violazione alla vigente normativa in materia di diritto d’autore.

L’esperimento

Torniamo al DVD. Anche a causa della scarsa disponibilità, il video è stato velocemente diffuso in diverse reti P2P: ma quanto velocemente? La diffusione di un qualunque contenuto (video, audio, testo, ecc.) su una rete P2P avviene attraverso la condivisione del file fra diverse fonti. Ogni utente interessato al file si può collegare ad un server (ce ne sono diversi anche per la stessa rete) e ottenere l’elenco delle fonti disponibili per un determinato contenuto. A questo punto può richiedere alle diverse fonti di inviargli un frammento del contenuto. Mano a mano che le diverse parti del file vengono inviate, ancora prima di avere il file completo, anche chi riceve diventa una fonte per altri. La domanda è: quanto velocemente il materiale si diffonde? Quanto velocemente si moltiplicano le fonti?

Il DVD in oggetto costituisce un interessante spunto per rispondere a questa domanda in quanto, poiché fino alla mattina del 24 non era ancora stato distribuito, ci ha consentito di osservarne la diffusione in rete fin dall’inizio del fenomeno. Scelto un server di riferimento di una delle più note reti P2P, sono state monitorate per 57 ore due delle principali variabili di interesse: il numero delle fonti disponibili e la percentuale di fonti complete.

Velocità di diffusione

Nelle prime 36-40 ore di osservazione la crescita delle fonti disponibili è relativamente costante; il coefficiente di regressione lineare fornisce un tasso di crescita di 38,56 nuove fonti ogni ora. Il medesimo coefficiente crolla a 8,25 nelle ore successive; oltre le 50 ore, complice la domenica sera e il relativo calo del numero di utenti connessi al server, il numero di fonti disponibili diminuisce.

Considerando come diffusione la completa ricezione del video, la velocità di diffusione è rappresentata dall’andamento nel tempo del numero di fonti complete (evidenziato in verde nel grafico precedente). Questa è stimata mediante regressione lineare in circa 17,16 fonti completate ogni ora nelle prime 30 ore; la diffusione rallenta nelle ore successive prima di crescere nel periodo centrale (fra le 36-esima e la 50-esima ora) a oltre 24 fonti completate ogni ora (velocità massima registrata), per poi rallentare vistosamente. La velocità media di diffusione del video nell’arco delle 57 ore di osservazione è di circa 11 fonti completate ogni ora. Tali valori sono da rapportare al numero di utenti interessati al contenuto, localmente al server interessato; per questo motivo risulta interessante esaminare anche l’andamento percentuale delle fonti complete.

Percentuale di fonti complete

La percentuale di fonti complete disponibili, dopo le prime ore, rimane pressoché costante, con un andamento leggermente decrescente, in corrispondenza del crescere del numero delle fonti disponibili. Successivamente la percentuale di fonti complete cresce più velocemente, fino ad un massimo di 1,5 punti percentuali ogni ora. Inoltre il numero di fonti complete, come già evidenziato, è monotona crescente il che indica che a mano a mano che le fonti si completano queste rimangono tendenzialmente a disposizione degli altri utenti, il che favorisce l’incremento della velocità di diffusione.

Interpretazione “microeconomica” dei risultati

Quando un utente (consumer) riceve il primo frammento diventa, per il server cui è collegato, una fonte disponibile: se ogni nuovo utente interessato al contenuto viene conteggiato come nuova fonte disponibile, l’andamento delle fonti disponibili nel tempo rappresenta l’evoluzione della domanda del contenuto; il numero di fonti disponibili può quindi essere considerata una proxy dalla funzione di domanda.

D’altro canto il numero di fonti complete corrisponde al numero di utenti che hanno ottenuto il contenuto cui erano interessati; l’andamento della percentuale di fonti complete rappresenta quindi la capacità del sistema di soddisfare le necessità di consumo dei suoi utenti ossia la capacità di fornire il bene richiesto. In tal senso l’andamento della percentuale di completamento delle fonti offre indicazioni sulla capacità di offerta del sistema.

Dopo la fase di start-up (le prime 12 ore) si nota che il crescere della domanda riduce la “soddisfazione media” del consumatore in quanto essendo il contenuto ancora poco diffuso il tasso di crescita della capacità di offerta della rete P2P è inferiore a quello della domanda. Al contrario dopo le prime 36 ore la domanda flette (probabilmente anche per fenomeni di saturazione) mentre la capacità della rete cresce in quanto aumenta la diffusione del contenuto (stimabile attraverso la percentuale di fonti complete).

Come ultima nota è interessante notare che in una rete P2P il ruolo del consumer e quello del supplier sono rappresentati dal medesimo soggetto che si trova quindi ad influenzare con il proprio comportamento entrambe le funzioni di domanda e di offerta. E’ proprio per questo che la maggior parte delle reti P2P implementa un sistema di regole che favoriscono la distribuzione dei contenuti meno diffusi e premia gli utenti che maggiormente condividono i propri contenuti al fine di incrementare la capacità della rete di soddisfare gli utenti stessi.