Panda Update di Google. Che cosa fare

Panda Update di Google. Che cosa fare

Questo post è la traduzione dell’articolo Google’s Panda/Farmer Update – What To Do About It di Tom Critchlow che si pubblicò nel blog di Distilled il passato mese di Marzo. Si ha considerato la sua traduzione in seguito al lancio del Panda Update in Italia lo scorso 12 di Agosto.

Come tutti sapete nelle passate settimane è stato lanciato un update in grande scala dell’algoritmo di Google. Inizialmente chiamato Farmer update da Danny Sullivan, già sappiamo che il suo vero nome è Panda update. Questo post è nato in risposta dell’ormai famosa intervista di Wired a Amit Singhal e Matt Cutts.

Per prima cosa alcuni dati che conosciamo:

  • Un primo update avvenne il 23 Febbraio e solo negli Stati Uniti (Google.com);
  • Un secondo, più lieve, fu realizzato l’1 Marzo per poter correggere il tiro e restituire ad alcuni siti il traffico che Panda gli aveva tolto ingiustamente come vittima collaterale [N.d.R.: in seguito si sono registrati nuovi update di Panda, fino alla versione 2.3].

Per una più completa comprensione, vi consiglio l’attenta lettura di questi due posts fondamentali:

Inoltre (e ne sono orgoglioso) sembra che possa aver predetto quali fossero alcuni dei fattori chiave del Panda Update:

[…] o alcune teorie rispetto a Panda. Quello che sto per scrivere si basa sull’intuizione e sull’aver osservato un buon numero di siti colpiti e non colpiti dall’update – ovvero non si basa su dati scientifici:

Secondo me questo è un update assai complesso che ha preso in cosiderazione un buon numero di fattori. Non credo che sia questione di un solo fattore il cui peso è stato cambiato radicalmente. Moultano su Hacker News ha affermato di aver lavorato su questo update durante un anno intero. Questo è un tempo lunghissimo, se consideriamo che gli updates dell’algoritmo di Google hanno una frequenza giornaliera.

Google ha detto che ha testato quest’attualizzazione seguendo metodi nuovi e creativi (senza però dire quali fossero), il che accentua il fatto che non è una semplice modificazione dell’algoritmo, ma piuttosto un vero e proprio metodo di posizionare le cose (ovviamente molte delle vecchie metriche sono ancora importanti, ma sono stati probabilmente aggiunti nuovi fattori che non scopriremo per qualche tempo).

Guardano all’insieme dei siti colpiti, ho notato come nessuno di quei siti avesse un contenuto degno di essere definito tale above the fold. Questo tipicamente si deve per due motivi:

  1. Presenza aggressiva della pubblicità nella pagina (per esempio Adsense, banners, pubblicità insertata contestualmente nel testo stesso, etc.);
  2. Solo una testimoniale presenza di contenuto unico nella pagina (probabilmente grazie a scraping o semplicemente “leggero”).

Questo è certamente solo teoria – ma credo che Google con questo update ha cercato di “migliorare il web” nella stessa maniera che avevano cercato di migliorarla permettendo ai siti veloci di posizionarsi meglio. Il miglioramento qui fa riferimento genuinamente al concetto di siti utili. Per esempio prendete in considerazione Cult of Mac, che è uno dei siti che Wired ha segnalato come colpiti dall’update. Guardate a una pagina tipo del loro sito:

http://www.cultofmac.com/analyst-ipad-2-critical-catalyst-for-continued-tablet-lead/84798

Mentre esiste ottimo contenuto in questo sito – basicamente non esiste contenuto unico above the fold e sono presenti due blocchi di annunci pubblicitari. Non sembra quindi strano che Google abbia colpito per errore questo sito durante l’update (errore rimediato dal secondo update d’inizio Marzo). […]

È degno di nota che i fattori 1 e 2 sopra elencati POTREBBERO solo essere delle cause secondarie di una maggiore attenzione da parte di Google delle metriche di uso di un sito. Può essere che non abbia renderizzato per nulla la pagina per questo update (sebbene sappiamo che Google renderizza le pagine, ricordate la patente del reasonable surfer > http://www.seobythesea.com/?p=3806).

A ulteriore sostegno di questa teorie (e sì, è solo una teoria!), trovo affascinante che di tutti i content farms d’alto profilo, Ehow non sia stato colpito e se osservate le loro pagine, in realtà notiamo che esiste un bel po’ di contenuto unico above the fold. Lo stesso (anche se in minor misura) si può dire per wikihow – un altro grande content farm che è sopravvissuto all’update.

* IMPORTANTE: vi prego di notare che non pretendo che il 100% dei siti colpiti abbia uno o tutti quei due fattori presenti, ma sì una gran maggioranza. Come detto prima, credo che questo è un update dalle molte sfumature che include un amplio spettro di fattori e, quindi, che ci possono sempre essere delle eccezioni alla regola. Detto questo, è per me indubbio che molti dei siti colpiti rispondono ai due criteri da me presentati.

EDIT – Sembra che possa essere stato nel giusto, almeno parzialmente: “Poi abbiamo chiesto alle persone che giudicavano i siti … secondo voi questo sito a un numero eccessivo di annunci?”

http://www.wired.com/epicenter/2011/03/the-panda-that-hates-farms/

Alcune di queste cose sono state confermate in questo post di Wired:

http://www.wired.com/epicenter/2011/03/the-panda-that-hates-farms/all/1

Ed ecco alcune soluzioni:

Una presenza troppo aggressiva di pubblicità è un fattore di rischio.

Cutts: C’era una ingegnere che venne con un rigoroso elenco di domande, tutte del tipo. “Consideri che questo sito sia autorevole? Andrebbe per te bene se questo contenuto fosse pubblicato in una rivista? Questo sito ha un numero eccessivo di annunci?”

Questo era, appunto, uno dei punti che avevo ipotizzato essere parte dell’update dell’algoritmo. Potete vederlo voi stessi. Ho creato un Box Search di Google per tutti i siti elencati nella lista di Sistrix come grandi perdenti. Provate qui.

<script src=”http://www.gmodules.com/ig/ifr?url=http://www.google.com/cse/api/008172789018542968974/cse/gqrtqmnqgfw/gadget&amp;synd=open&amp;w=400&amp;h=75&amp;title=Google+farmer+losers&amp;border=%23ffffff%7C3px%2C1px+solid+%23999999&amp;output=js”></script>

Pressappoco ogni ricerca vi mostrerà pagine infestate di annunci. Una coincidenza? Non lo credo.

Ma gli annunci non solo l’unico fattore. Conta pure il trust.

Singhal: Chiedemmo ai tester domande come: “Ti sentiresti a tuo agio a lasciare a questo sito i dati della tua carta di credito? Ti sentiresti tranquillo a dare ai tuoi figli medicine prescritte da questo sito?”.

Perciò non solo gli annunci giocano un fattore – è il generale look and feel, la percezione e l’affidabilità che si sente verso una pagina che entra in ballo per capire se è stata colpita o no dall’update.

Ovviamente queste cose non possono essere misurate direttamente da algoritmi, ma dall’intervista sembra che siano stati capaci di elaborare un numero di svariati fattori che, combinati, danno una misura accurata di quanto un sito è considerato affidabile.

Questo update ha molte variabili.

Come dicevo nel mio commento, e come supporta l’articolo di Wired, questo cambio è uno dei grandi. Non è semplicemente un sottile aggiustamento dei fattori chiave dell’algoritmo; anzi sembra che ne siano stati introdotti alcuni totalmente nuovi, o che Google abbia ideato un nuova e più complessa maniera di combinarli insieme.

Amit Singhal: Beh, l’abbiamo chiamato internamente come uno dei nostri ingegneri, il cui nome è Panda. Egli è stato uno dei ragazzi chiave, avendo egli trovato un metodo alcuni mesi fa che rese questo update possibile.

E se è necessario un metodo per rendere possibile Panda, allora questo dovrebbe significa che è un update alquanto complesso, no? Qunidi, o si sta prendendo in considerazione tutto un insieme di fattori che prima non lo erano oppure hanno trovato un modo per processare segnali in modo sufficientemente veloce per utilizzarli nei risultati di ricerca. Quale sia il perché – questo non è un update in cui conta solamente una cosa, è un update che tocca ogni tipo di fattore differente l’uno dall’altro e che insieme formano un insieme complesso. E molto ancora deve venire.

Amit Singhal: Io non parlarei mai direttamente di un sito specifico o di un altro. Comunque, il sistema che abbiamo elaborato [Panda] fa un ottimo lavoro in trovare siti di bassa qualità. È più prudente con siti di qualità media, perché è necessario essere soprattutto essere prudenti.

Mi sento fiducioso nel dire che questo è solo l’inizio. Sembra che Google stia per attualizzare Panda nel corso dei prossimi giorni/settimane/mesi per individuare i siti di qualità media. Questo update sembra essere stato soprattutto a livello di dominio, ma forse nel futuro si concentrerà di più a livello di pagine singole [N.d.R.: e così sembrerebbe essere stato, con i vari Panda updates di questi ultimi mesi].

In ogni modo, fate attenzione perché se il vostro è un sito di qualità media ed è in una nicchia affollata di mercato, allora potreste vedere gli effetti di Panda abbastanza presto.

[N.d.R.: non si traduce una parte del post perché ormai datata, facendo riferimento al possibile lancio di Panda in Google.co.uk]

Google ha disegnato l’algoritmo intorno a segnali “umani”?

Amit Singhal: Nell’iperspazio possiamo immaginare un insieme di punti, alcuni sono rossi, altri verdi e altri ancora hanno qualcosa di verde e qualcosa di rosso. Il nostro lavoro è trovare un aereo che dica che la maggioranza delle cose da questa parte sono rosse e che nell’altra sono verdi.

Che vuole dire Amit Singhal con questa metafora un poco contorta? Significa che Google è stato in grado di elaborare un algoritmo in grado di individuare un certo numero di segnali “umani”? Questa sarebbe la prima volta che ammetterebbe qualcosa di simile.

Allora, che fare?

  • Assicuratevi che il contenuto del sito sia unico e utile. Niente di incredibilmente nuovo qui (i contenuti di qualità sono sempre stati la miglior tattica), ma penso che Google abbia stretto il cerchio e che ponga molta più attenzione ai contenuti duplicati e/o leggeri.
  • Assicuratevi che sia presente contenuto di gran valore “above the fold” in ogni pagina.
  • Potreste considerare l’idea di utilizzare un sistema di feedback per testare il vostro sito. Chiedete alcune delle domande che Google ha fatto ai suoi testers e sulla base delle risposte ottimizzate la qualità del vostro sito.
  • Sbarazzatevi di pubblicità aggressiva e immagini che sembrano blocchi di pubblicità. Adsense, kontera, banners o semplicemente grandi immagini che sembrano annunci pubblicitari… attenti che non precedano il vostro contenuto.
  • Ridisegnate il vostro sito in modo che sembri un sito moderno… perché questo update è basato su ciò che la gente vuole vedere, non sul valore reale di un sito (perché siti graficamente pessimi possono essere di ottima qualità). Purtroppo, se il vostro sito è brutto, allora correrà maggior rischio di essere colpito da Panda che un sito bello.
  • Rendete il vostro sito molto più affidabile. Questa è sempre stata un’ottima tattica – perché aiuta il conversion rate – ma dovreste prestare attenzione e avere una buona pagina “chi siamo”, “privacy”, “contatto”… per far sì che gli utenti si sentano a proprio agio ad usare il vostro sito.
  • Impegnatevi a fondo nel gioco sociale. I social signals (twitter, facebook, +1 e quant’altro) hanno un valore anche per Panda. Infatti, se un contenuto è condiviso ciò significa che gli utenti lo hanno considerato utile o di qualità.

 

Submit a Comment

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>