I dati Nielsen sul valore del mercato pubblicitario italiano dei primi due mesi del 2011, resi noti oggi, dimostrano ancora una volta che la fetta minoritaria di questo mercato corrispondente agli spot radiofonici (sommati e alla cosiddetta "extratabellare" rappresentata dagli annunci dei programmi sponsorizzati) è, insieme al mezzo Internet e al "direct mail", l'unica in crescita. Una crescita esile - l'uno percento nel primo bimestre - ma pur sempre positiva a fronte di una carta stampata che perde il 7,4% rispetto ai primi due mesi del 2010. Nel complesso la radio passa a 58,5 milioni contro i 57,9 di gennaio-febbraio 2010. Su questo bilancio parziale pesa l'1,8% in più delle pubblicità tabellare ma anche una contrazione di 12 punti per le sponsorizzazioni, che valgono circa il 6% della torta pubblicitaria radiofonica, probabile sintomo delle carenze di personalità di spicco e programmi molto seguiti. Al primo posto della classifica bimestrale Nielsen resta la televisione che con 730 milioni e rotti perde un mezzo punto percentuale rispetto all'analogo periodo 2010, con buona pace delle considerazioni ottimistiche che vengono fatte dal padrone del mercato. Molti i settori industriali che hanno investito meno in spot televisivi, quello bancario-assicurativo in testa.
La crescita del valore pubblicitario della radio mi spinge ovviamente a fare qualche considerazione sul marasma che ha investito lo scorso anno l'indagine Audiradio e la mancanza di un dato preciso e attendibile sui gusti degli ascoltatori. La mia sensazione è che il progetto Audiradio - di cui si attende un difficile rilancio - sia crollato sotto il peso di una incapacità di fondo: quella di raggiungere un compromesso virtuoso tra gli operatori del settore in favore di una metodologia di rilevamento dell'audience moderna e imparziale. Al contrario della televisione, dove il duopolio (ma chiamiamolo pure monopolio dato che di questo si tratta) rende facilissimo il pieno accordo sulla "validità" di Auditel nonostante tutto ciò che è stato detto in passato sulla reale attendibilità di questa indagine, la radio è un mercato molto più pluralistico. Ovviamente è un fatto positivo. Peccato però che il pluralismo, in Italia, sia anche un fatto talmente eccezionale che non lo sappiamo gestire. Audiradio è fallita semplicemente perché a un certo punto le sue componenti, forse proprio per l'aumento della posta economica in gioco hanno cominciato ad avere qualche difficoltà ad accettare una premessa del tutto scontata: se costruisci una classifica è inevitabile che ci sia una prima posizione seguita da tutte le altre. Se come editore sei intimamente convinto di essere il comunque "er mejo fico der bigoncio", che partecipi a fare?
In mezzo al marasma è però spuntato un marchio non proprio sconosciuto, Eurisko GFK, che dopo aver sperimentato per un paio d'anni il suo Eurisko Media Monitor, l'indagine sui consumi multimediali degli italiani, ha scelto i primi mesi del 2011 per lanciare ufficialmente il prodotto. I risultati ottenuti ribaltano completamente molti dei "faits accomplis" di Audiradio e il fracasso seguito all'uscita di alcuni articoli su Pubblicità Italia e Italia Oggi la dicono lunga sulla serenità con cui gli editori radiofonici nostrani possono accogliere certi strumenti di ricerca, specie se come EMM sono basati su tecnologie di metering obiettive, non su "panel" o "diari" perennemente condizionati dalla qualità del campione e dei metodi di raccolta. Guardate come funziona il meter multimediale Eurisko, molto somigliante al personal meter utilizzato negli USA, in questa presentazione del 2006 scovata sul sito di Eurisko GFK in Belgio. La cosa che fa più rabbia è che la presentazione è di Andrea Mezzasalma, che nello stesso anno lasciò Eurisko GFK per TNS e dal 2009 è Head of Audience Research and Insights per Sky Italia, non capisco perché con persone così competenti a disposizione sulla piazza interna, il rilevamento dei media debba essere quell'anatra zoppa che è.
Sono in attesa di intervistare Eurisko GFK a proposito di Media Monitor e spero di potervi dire di più, soprattutto sulle prospettive di questo nuovo sistema.
4 commenti:
peccato che nel 2007 l'emm di gfk eurisco non ha superato i test condotti dalla rajar UK, la vendita di ferri vecchi di solito era dedicata ai paesi del terzo mondo! si vede che l'Italia sta diventando questo....
Molto interessante, peccato per la scelta dell'anonimato e la mancanza di citazioni ufficiali. Ho trovato questo riferimento sul blog di Adam Bowie, responsabile delle strategie di Absolute Radio, risale al 2008:
So [Kelvin McKenzie] sought help with a research company called GfK who had a sister company that produced a special kind of watch. GfK took audio captures of all the services they were monitoring, while the watches also regularly captured the ambient sound of wherever the watch wearer was. By examining the uploaded audio the watch had captured alongside the time of capture, and comparing it to its big database of radio (and TV) audio, the idea was that the system could tell you what service, if any, was being listened to.
Kelvin's company paid for the implementation of this technology, and he even took to publishing an alternative set of ratings. These showed far more people listening to his, as well as other services.
But in testing, the watch methodology didn't pass muster. So while he'd undoubtedly put meters on the map, and stirred up the industry, which led to plenty of calls to adopt metering, the system he'd adopted simply wasn't up to scratch. It also didn't really help his cause that he showed that BBC2 was getting more viewers than ITV - unlikely given the popularity of such trifling shows as Coronation Street, X Factor/Idol or Emmerdale.
The other viable system in the marketplace was from Arbitron, a massive US research group who are responsible for American radio ratings. They had their people meter (PPM), and over the last few years it has been tested extensively in the UK.
(http://www.adambowie.com/weblog/archive/002417.html)
Le tecnologie possono diventare ferri vecchi, ma possono anche migliorare. Il successo di servizi stile Shazam, utilizzati da You Tube per implementare le sue policies di tutela dei diritti d'autore, dimostrano che il riconoscimento di impronte vocali può funzionare. Certo una cosa è il buon funzionamento in laboratorio, un'altra quello sul campo. Tanto è vero che Arbitron ricorre a una tecnologia molto diversa, sovrapponendo al segnale delle stazioni che partecipano al rilevamento una traccia non udibile che viene poi riconosciuta e classificata dal meter. Non so proprio dire se nel frattempo la tecnologia EMM sia stata modificata, ma è un ottimo spunto per l'intervista che vorrei fare con Eurisko Gfk.
I dati dei test inglesi fino a poco tempo fa erano disponibili anche in rete. Tutti noi( cane non mangia cane...) siamo in attesa di conoscere come fa il sound matching, dove viene acquisito il segnale delle emittenti e come reagisce ai disturbi audio ambientali, se utilizzano data base e quali...spero che la sua intervista possa fare chiarezza. Stia però attento a non fare confusione , funziona con le impronte vocali o impronte audio? sarebbero due cose diverse tra loro....in un mercato a forte sviluppo tecnologico cose pensate ormai 10 anni fa pagano dazio, certamente va del merito a chi le ha pensate, ma non fateci usare l'e-tacs nell'era della banda larga..
Ovviamente non mi riferivo a "impronte vocali" nell'accezione biometrica o dal punto di vista della voice recognition. "Vocali" si riferiva allo spettro delle frequenze vocali-musicali. La documentazione Eurisko GFK citata nel mio post fa esplicito riferimento a una tecnologia di "sound matching". Lo scatolotto campiona e confronta l'audio registrato con una database di tracce, immagino da sincronizzare (ex post? immagino di sì) con gli eventi campionati. Trattandosi di postelaborazione non so quanta differenza possa esserci, gli algoritmi di correlazione sono quelli che sono, non credo che nel 2011 siano drammaticamente più precisi rispetto al 2005, semmai sono computazionalmente più efficienti e molto più veloci. La vera discriminante è saper discriminare dal rumore di fondo e quindi la capacità di filtrare adattativamente. Forse qui il DSP ha fatto nel frattempo qualche passo in più sul piano teoretico, ma non so se in misura determinante (non stiamo parlando di compressione wavelet, per esempio). I dati forniti nella presentazione sono del 2004 ma parlavano di una percentuale di riconoscimento del 60% sopra la quale era possibile salire (fino al 74%) incrementando la frequenza del campionamento (1 secondo ogni 2, mentre già a 1 secondo ogni 16 si ottenevano percentuali del 57%). Secondo l'autore della presentazione il test era stato effettuato da Eurisko GFK in condizioni analoghe alle sperimentazioni RAJAR (dati 2004). Sempre nella presentazione le curve di riconoscimento EMM vengono dichiarate superiori a quelle di PPM.
Naturalmente non ho sottomano altri dati e anche in possesso di dati non sarei in grado di sbilanciarmi nel giudicare l'insieme delle sperimentazioni. RAJAR avrà avuto i suoi buoni motivi per giudicare insufficienti le prestazioni. Da profano del rilevamento, con una normale preparazione matematico-statistica di ex studente di fisica mi chiedo semplicemente quale possa essere il confronto di attendibilità tra le curve ottenute con il sound matching e quelle basate su metodi di rilevamento tradizionali come i diari. Fatti i debiti filtraggi e validazioni, è meglio un rinoscimento automatico "medio" o una testimonianza media di un riconoscitore umano? Me lo chiedo perché a quanto ho letto, l'introduzione del PPM da parte di Arbitron ha dato notoriamente luogo a classifiche spesso completamente stravolte.
Posta un commento