lunedì 28 novembre 2016

5 Social Media trend nel 2017

Social Media trend: le nuove tendenze dei Social Media nel 2017



Social Media, nati come spazi per condividere pensieri ed esperienze delle persone, ora sono diventati in questi ultimi anni veri e propri mezzi di comunicazione e strumenti di web marketing.
Strumenti per far crescere il proprio business. I Social Media, infatti, sono diventati sempre più importanti all’interno di qualsiasi strategia di web marketing.
Chi ha investito nei Social Media per la propria attività negli ultimi due anni ha visto, infatti, secondo il report pubblicato da Social Media Examiner, una crescita delle proprie vendite.
Inoltre grazie all’uso dei Social Media l’azienda ha riscontrato ottimi benefici sia di visibilità che di traffico.
Benefici dei Social Media nel proprio business
Benefici dei Social Media nel proprio business secondo il report di Social Media Examiner
Il 66% dei marketer intervistati da Social Media Examiner hanno dichiarato che usano i Social Media perattirare fan fedeli e raccogliere dati e quindi implementare strategie per guadagnare posizioni nel mercato.
I Social Media inoltre sono diventati anche spazi per fare lead generation. Grazie ai Social Media è infatti facile targhettizzare il proprio pubblico e avere risultati efficienti anche in termini di raccolta dei contatti.
Anche nei Social Media ci si deve sempre tenere aggiornati e adeguarsi alla nuove tendenze. Ormai il 2017 è alle porte, scopriamo quali saranno i prossimi Social Media trend.

#1 Dirette Live


Dirette Live in aumento nei Social Media
Dirette Live in aumento nei Social Media
Il primo Social Media trend non poteva che essere la diretta live.
Già da quest’anno le dirette live nei canali Social hanno preso sempre più piede e le previsioni si aspettano un continuo aumento di questo format da parte delle imprese.
A far funzionare questo nuovo strumento è il fatto che le aziende sono in grado di creare contenuti originali e spontanei.
Nelle dirette live infatti si crea coinvolgimento con i propri follower i quali sono attratti dalla spontaneità del contenuto della diretta.
Gli utenti si sentono sempre più coinvolti quando viene percepita la realtà. Nel 2017 quindi ci si aspettano dirette live sempre più coinvolgenti e nuovi format proposti dalle aziende.

#2 Realtà Virtuale e Realtà Aumentata


Virtual Selfie di Zuckerberg in Facebook
Virtual Selfie di Zuckerberg in Facebook
Realtà simulata. Se ne sente parlare sempre più spesso e potrebbe completamente cambiare lo scenario dei Social Media dei prossimi anni.
Per realtà aumentata invece si intende l’arricchimento della percezione della realtà, cioè ci permette di avere maggiori informazioni, modificando la realtà, con l’aggiunta di animazioni o contenuti virtuali, come è successo con Pokemon Go.
Social Media trend che Zuckerberg, con un post di ottobre, ci ha anticipato dandoci un piccolo assaggio di realtà virtuale: un virtual selfie!
La realtà virtuale e aumentata potrebbero diventare un nuovo modo per comunicare con i propri clienti ed offrire uniche e memorabile interazioni regalando esperienze originali.

#3 Chatbot


Chatbot in aumento nei prossimi anni
Chatbot in aumento nei prossimi anni
Altro Social Media trend del 2017: Chatbot in aumento.
Lo strumento di messaggistica automatica sarà sempre più utilizzato dalle aziende per comunicare con i propri clienti.
Grazie all’intelligenza artificiale infatti le aziende saranno in grado di offrire servizi di assistenza 24 ore su 24.
Nel 2017 ci si aspetta di trovare questo servizio disponibile sempre più frequentemente ed un uso da parte di un numero maggiore di utenti. Infatti ad oggi il target delle chatbot è formato da giovani, magari il prossimo anno saranno utilizzate anche dai più “grandi”.

#4 Social Content temporanei


Contenuti temporanei tra i nuovi Social Media Trend 2017
Contenuti temporanei tra i nuovi Social Media Trend 2017
Il successo dei contenuti fantasma ottenuto da Snapchat ha attirato l’attenzione anche dei Social Media competitor, i quali sembrerebbero sempre più interessati nelle creazione di contenuti temporanei, che si auto-eliminano.
I contenuti temporanei saranno un nuovo Social Media trend del 2017.
Questo perché l’utente presta più attenzione a contenuti che non sarà più in grado di rivedere.
Ovviamente ci si aspettano contenuti originali ed interessanti da parte delle aziende e non creazioni improvvisate visto, il tempo limitato di visualizzazione del contenuto.

#5 Ricerca Organica sempre più difficile

Ricerca organica nei Social Media sempre più difficile
Ricerca organica nei Social Media sempre più difficile
I Social Media sono veri e propri strumenti di lavoro. E come in ogni strumento di web marketing che si rispetti, bisogna investire dei soldi.
Infatti i Social Media sono sempre meno strumenti gratuiti. O meglio, lo sono, ma non se si vogliono avere dei risultati nel proprio business.
La visibilità infatti si è drasticamente ridotta portando le aziende a strutturare ed attivare sempre più campagne a pagamento.

Calo di visite improvvise sul tuo sito? Qualche consiglio [case history]

Fonte articolo: http://www.italianwebdesign.it/calo-visite-improvvise-sul-sito-qualche-consiglio-case-history/

In questi giorni mi sono imbattuta in un’emergenza da parte di una vecchia cliente: il sito ha subito un improvviso calo di visite, di fatto dimezzandosi, anzi, riducendosi ad un terzo. Da circa 2000/2500 visite giornaliere, si è giunti a 700 o poco meno. La cosa curiosa è che tutto partiva da una data ben precisa, per cui il primo indizio è stato proprio quello.
Cos’era successo in quella data? Un nuovo algoritmo di Google? Non ce n’era notizia, per cui, causa esclusa.
Ben 3 settimane di down potevano essere la spia di molte cose. Il sito è online da diversi anni e gode quindi di anzianità (altra causa esclusa: sito troppo nuovo e quindi scosse di assestamento), ma proprio per questo il sito aveva una versione vecchia di WordPress (e quindi i relativi plugin), e di conseguenza ho cominciato a pensare a qualche attacco hacker mirato, ma la cosa sarebbe stata più evidente perché Google avrebbe segnalato del codice malevolo (dimezzando appunto di fatto le visite al sito).

1° step: controllare gli Strumenti per Webmaster

Se non l’avete mai fatto, così come era per questo sito in oggetto, verificate il sito con gli strumenti messi a disposizione da Google. Io uso spesso semplicemente il file di verifica che loro consegnano ed è sufficiente per avere una diagnostica in tempo reale. In questo modo oltre a verificare che il sito non era stato contrassegnato come malevolo, ho potuto vedere che non aveva ricevuto penalizzazioni da Google, poiché è tramite questo pannello che vengono normalmente notificate.

2° step: la pubblicità

A scanso di equivoci, ho comunque verificato le policy Adsense per i banner, riducendo il numero dei banner a 3 massimo per pagina. Nel nostro caso non c’era stata verifica in tal senso, ma il sito violava le regole ed avrebbe presto potuto avere una penalizzazione in termini di entrate. Non in termini di visite, in effetti, ma visite ed entrate sono correlate, e sono intervenuta anche in tal senso a scopo preventivo.
Per ulteriore sicurezza di eventuali codici malevoli, ho eliminato anche un codice banner che presentava annunci non contestuali e persino fuori target (gambling, etc) che avrebbe potuto determinare una penalizzazione Adsense ma anche sul motore di ricerca.

3° step: Sitemap

La sitemap era ferma alla data del down, nonostante ci fossero altri articoli scritti successivamente. Qualcosa non stava funzionando a livello di plugin SEO. Ho controllato, ed in effetti c’erano installati YOAST SEO e Google XML Sitemaps contemporaneamente.
Se ciò poteva andar bene con le vecchissime versioni dei due plugin, non era vero con i nuovi aggiornamenti. Infatti i plugin risultavano tutti aggiornati, ma non la piattaforma WordPress. La spia si è accesa, e dopo un backup e un aggiornamento di piattaforma e database, ecco svelato il mistero direttamente da Yoast Seo: Google XML Sitemaps andava disattivato (cosa che ho fatto subito perché conoscevo il problema), ma una risorsa (il file robots probabilmente) bloccava l’accesso alla nuova sitemap (e probabilmente a molte risorse del sito) suggerendone un’altra non più valida appunto. Ho inoltre riconfigurato il plugin YOAST con le nuove funzionalità, che hanno riscritto anche il file robots pulendolo da errori e schifezze.

4° step: wait

Aspettare 24 ore e la ricetta è servita. Il giorno dopo infatti le visite sono tornate ai livelli di prima, con qualche visita in meno ovviamente perché le 24 ore non sono mai effettive con Google Analytics, ma dopo ulteriori 24 ore ho avuto la conferma che il problema era risolto. Va da sé, se la matematica non è un’opinione, che per tornare ai livelli di visite o pagine visitate mensili precedenti il periodo di down, bisogna che questo periodo risulti fuori dal grafico da prendere in considerazione. Quindi nel nostro caso, trascorsa una settimana di ritorno alla vita, le visite mensili saranno fisiologicamente a posto fra 3 settimane (che è poi stato il periodo di down) in modo che tutti i giorni del mese siano “sani” e non dimezzati.

E in caso di calo graduale delle visite?

In questo piccolo case history il problema è stato forse facile da risolvere perché c’è stata una data precisa di down e risolta la causa si è tornati ai livelli di prima, ma in casi di perdite graduali di visite le cause da indagare possono essere le più disparate, primo fra tutte le velocità di caricamento dei siti, causate da:
  1. server condivisi sovraffollati e in condivisione di risorse non ben configurati
  2. WordPress  non aggiornato
  3. template vecchio o non aggiornato
  4. plugin non aggiornati o TROPPI plugin
  5. codici inseriti manualmente nei widget che appesantiscono il caricamento
A tal proposito vi segnalo un nuovo strumento, Think with Google, uscito proprio il 4 novembre scorso, che vi dà indicazione dello stato di salute e velocità di un sito dal lato mobile. Ma sono dati che potete trovare già identici su Pagespeed Insights, se lo sapete già usare (dove in effetti avete anche il riscontro via desktop).
Morale della favola, un consiglio per i clienti: tenere aggiornato il sito su base WordPress è importante, ma fatelo fare a dei professionisti. In questo caso ci sarebbero stati meno danni se il sito non fosse stato aggiornato, mentre in questo case history la piattaforma di WP non era aggiornata, e i plugin erano TUTTI attivi e TUTTI aggiornati.

venerdì 25 novembre 2016

5 strategie utili e funzionanti per prendere links da siti autorevoli

Fonte articolo: http://www.webinfermento.it/come-ricevere-link-siti-autorevoli/

Come fare ad acquisire link da siti autorevolissimi? Con l’articolo di oggi voglio descrivere alcune strategie testate in questi anni in prima persona, per progetti personali e per progetti editoriali di nostri clienti.
In questi anni abbiamo lavorato a progetti di Content Marketing e Digital PR in diverse nicchie del web e abbiamo notato che ci sono strategie funzionanti che hanno caratteristiche in comune in tutti i settori in cui vengono applicate.
Innanzitutto cosa si intende per sito autorevole?
Un sito autorevole è un sito innanzitutto riconosciuto, come brand, nel settore di riferimento e non soltanto e che ha visibilità almeno nazionale.
A livello di metriche on site, sviluppa volumi di traffico considerevoli, ha ottime metriche SEO (si potrebbe guardare al Domain Authority o altre metriche di tool che simulano il PageRank) e rappresentano i migliori siti da cui si potrebbe ricevere link, perché considerati molto in “trust” per Google.
Molto spesso, infatti, i siti più autorevoli sono quelli che producono più traffico complessivo e, guarda caso, spesso sono rappresentati dai giornali online, soprattutto quelli riconosciuti a livello nazionale.
Raggiungere siti del genere è molto difficile almeno per due ragioni:
  • il più delle volte non linkano (o si limitano a menzionare il brand);
  • se linkano è perché stanno vendendo una sorta di pubbliredazionale.
Ci sono però situazioni in cui, a seconda anche del redattore/giornalista di riferimento che esamina la notizia o il contenuto sottoposto, i link possono essere concessi.
La costante è però una solo: questi link vanno guadagnati.
Di seguito ti espongo 5 strategie che abbiamo potuto testare in questi anni e che ci hanno permesso di ricevere ottimi link. L’esempio che porterò è quello di questo sito, Webinfermento.it.
Andiamo con ordine.

1. Produrre notizie.

Sembrerà banale, ma per molti non lo è. Perché consigliamo sempre di investire molto nel blog aziendale?
Perché gran parte dei benefici si otterranno dal blog. Se il blog viene curato in modo eccezionale, con una redazione e un piano editoriale di qualità (contenuti originali prima di tutto), con una gestione attenta dei social media e propensa allo sviluppo delle relazioni con le community e i blogger del settore, i risultati ci saranno.
Tra i risultati rientrano le tante possibilità che gli articoli ricevano link da altri siti. Questi siti possono essere di bassa qualità, ma anche di altissima. Perché puntare all’originalità del contenuto? Perché l’originalità del contenuto è ciò che fa realmente notizia. Una notizia vera e fondata diffusa prima degli altri ha una maggiore propensione ad essere ripresa da altri siti.
L’emulazione e la ripetizione della notizia su altri siti, al contrario, non avrà mai lo stesso riscontro.
In ogni settore, la redazione dovrebbe dotarsi di un editor o giornalista in grado di “fiutare” la notizia, in grado di comprendere trend da trasformare in notizia e diffonderla prima degli altri siti.
In passato in questo blog abbiamo sempre cercato di monitorare trend e notizie di riferimento legate al mondo dei social, alcune di queste, sono state in grado di diffondersi nella rete, generare molte condivisioni nei social e di arrivare all’attenzione di alcuni editor di siti anche importanti, come questo link ricevuto da HuffingtonPost a seguito del lancio della versione “timeline mode” di Facebook, qualche anno fa, di cui ne avevamo parlato in questo blog.

2. Segnalare novità ai siti più influenti del settore.

Questa strategia è in qualche modo correlata alla prima. Monitorare le novità del settore, verificare che nessuno ne abbia già parlato/scritto, individuare i siti più influenti del settore (quelli che pubblicano novità anche segnalate dagli utenti) e contattarli per fare la segnalazione della notizia.
Se hai fortuna e la notizia è realmente nuova e rilevante, sarai anche pubblicato. Se hai ancora più fortuna, potrai ricevere anche un link di alta qualità.
Come questo link ricevuto dall’allora sito di news sul social web “Social Times”, poi acquisito dal prestigioso Adweek e che oggi ha un Domain Authority di 92.

3. Partecipare a contest (e vincerli).

Contest e concorsi rappresentano sempre buone opportunità per le strategie di Pr e in generale per la copertura di una notizia. Questa potenzialità aumenta soprattutto se sei tu a vincere quel concorso.
Ci sono ormai svariati contest che permettono di eleggere annualmente aziende e/o progetti virtuosi, spesso distinguendoli per settore di appartenenza. Bisogna soltanto individuarli e scoprire come partecipare.
Certo, se li vinci, il ritorno è non soltanto in termini di visibilità, ma anche in copertura della stampa specialistica e, di conseguenza, arrivano anche ottimi link, come quando nel 2013 vincemmo un piccolo contest indetto dal Be-Wizard, ottenendo una buona copertura da parte della stampa locale e nazionale.

4. Ideare e/o partecipare ad iniziative online

I magazine e i giornalisti sono sempre alla ricerca di notizie, notizie originali, che rompono gli schemi, che creano scandalo e oggi, molto spesso, anche di bufale.
Partecipare ad iniziative non convenzionali sfruttando i social può permettere di raggiungere un buzz considerevole fino a farsi notare da blogger e giornalisti.
Qualche anno fa, insieme ad alcuni colleghi, spingemmo l’hashtag #nofreejobs su Twitter, come protesta contro gli annunci di lavoro non retribuiti, pratica ancora oggi diffusa.
L’hashtag diventò un trending topic in poco tempo e gli utenti lo adottarono per segnalare tutte le proposte indecenti ricevute. Ne nacque anche un sito che raccoglieva lo stream di Twitter con le relative proposte indecenti.
Anche in questo caso e anche se indirettamente, ci fu un beneficio in termini di links acquisiti.

5. Realizzare meme per i Social sfruttando il Real-Time Marketing

Il Real-Time Marketing è una pratica oggi diffusissima nei Social. Ceres e l’agenzia Taffo di onoranze funebri hanno impostato ormai gran parte della loro comunicazione sui meme e l’ironia, garantendosi traguardi da non sottovalutare in termini di engagement.
Se il meme è contestualizzato a un trending topic e si inserisce in strategie di Real-Time marketing, può garantirsi anche una certa copertura nelle ore e nei giorni subito successivi alla sua pubblicazione.
Questo è un meme virale che realizzammo e pubblicammo sulla nostra pagina Facebook, qualche anno fa, a seguito delle modifica al tasto “Condividi” di Facebook e dell’ironia che ne nacque e che, tra le altre cose, ci permise anche di acquisire un ottimo link da Webnews.


Quelle sopra descritte sono soltanto alcune delle strategie testate in questi anni e che ci hanno permesso di ricevere link di alta qualità. Certo, molto spesso queste strategie non sono applicabili per tutti i settori, ma la creatività e l’intuito sono spesso in grado di trasformarsi in arma che fa la differenza.
Ad ogni modo, le migliori strategie per acquisire link di alta qualità sono sempre quelle che prevedono la produzione e diffusione di contenuti eccezionali, con carattere di novità e in grado di toccare le emozioni degli utenti e ti rimando alla lettura di questo post che racconta come un contenuto virale è stato in grado di ricevere oltre 200 pubblicazioni(ad oggi) e i risultati conseguenti.

giovedì 24 novembre 2016

La storia degli algoritmi di Google

Fonte articolo: http://www.3dprestige.com/storia-degli-algoritmi-di-google/

Algoritmo. Già la  parola in sé nasconde qualcosa di misterioso ed enigmatico. Se poi a fianco a questo termine ci aggiungiamo la parola Google, ci troviamo davanti ad un vero e proprio rebus.
Svelare questo mistero è impossibile, ma avviciniamoci all’argomento e cerchiamo di capire di cosa stiamo parlando quando sentiamo nominare gli algoritmi di Google e qual è la loro storia.
Infatti l’evoluzione degli algoritmi di Google è continua. Iniziata nel 2003 prosegue con l’ultimo update di soli due mesi fa (settembre 2016).
Algoritmo di Google
Algoritmo di Google

Che cosa sono gli algoritmi di Google?

Gli algoritmi di Google sono dei programmi informatici che, grazie a delle regole e formule ben specifiche,stabiliscono, dopo un’accurata analisi delle pagine web, in quale posizione deve stare un determinato risultato all’interno della SERP.
Di conseguenza, chi si occupa di SEO, ha cercato di monitorare le proprie attività per capire quali azioni siano più o meno efficaci per trovare la giusta sintonia con i famigerati algoritmi di Google.
Ovviamente Google non vuole assolutamente mettere in difficoltà chi opera questa professione, bensì il suoprincipale obiettivo è quello di dare un servizio efficiente agli utenti del web.
In altre parole l’unica preoccupazione di Google è fare avere i miglior risultati nella SERP agli utenti, fornendo la migliore soluzione rispetto a quanto cercato dall’utente.
Google Update
Per questo motivo gli algoritmi di Google sono in continua evoluzione e cercano di rispondere alle continue esigenze degli utenti.
Gli aggiornamenti avvengono con molta frequenza. Ci sono circa 500/600 aggiornamenti all’anno degli algoritmi di Google, continui aggiustamenti, alcuni a campione, ma solo certi, i più importanti, vengono annunciati ufficialmente da Google.
Ora quindi partiamo dal 2003 e scopriamo come si sono evoluti i vari algoritmi di Google fino ad oggi.

La storia degli algoritmi di Google

#2oo3

Il primo aggiornamento di Google fu Boston nel 2003. Con questo aggiornamento Google voleva arrivare ad avviare degli aggiornamenti periodici con diverse combinazioni di algoritmi. Gli update e i refresh dei dati dovevano essere mensili e per questo nacque la cosiddetta “Google Dance” che però durò solo qualche mese.
In questi mesi infatti vennero lanciati dei refresh dei dati in maniera regolare: Cassandra, Dominic, Esmeralda e infine Fritz Update. L’obiettivo di questi refresh era quello di modificare la valutazione dei link incoming e verificare i contenuti spam o contenuti nascosti come era avvenuta per Cassandra, che cercò di scovare coloro che praticavano attività di black hat.
L’ultimo aggiornamento del 2003 fu Florida. Quest’ultimo update, che controllava i siti spam, keyword stuffing e backlink, stravolse la SERP di Google, segnando la fine del keyword stuffing.
Google Dance
Google Dance

#2004

L’anno 2004 si apre con Austin Update. Austin continua il lavoro di pulizia che avevano iniziato Florida e Cassandra. Google infatti continuò a dare la caccia alle tecniche ingannevoli on page.
Austin fu seguito da Brandy, una serie di aggiornamenti che inclusero un’espansione dell’indice, LSI (Latent Semantic Indexing) il quale è in grado di riconoscere i sinonimi delle parole chiave utilizzate, e aumentò l’importanza dell’Anchor Text.

#2005

Nel 2005 Google lanciò diversi update, quali:
  • Nofollow: Aggiornamento fatto per combattere i link spam, grazie all’attributo nofollow infatti si può impedire ai motori di ricerca di seguire, appunto, determinati link.
  • Allegra: Allegra fu un update non molto chiaro, molti pensarono ci fossero stati dei cambiamenti per la sandbox, mentre atri erano convinti che la modifica fu fatta per penalizzare link sospetti.
  • Bourbon: Su questo aggiornamento si pensa che i cambiamenti furono per i testi duplicati e i non-canonical url.
  • Jagger: Grazie a questo aggiornamento Google inizia a controllare e valutare la qualità dei link, penalizzando i link reciproci, schemi di links e vendita dei links.
  • Google Local Maps: Grazie a questo algoritmo ci furono impatti significativi invece per la Local Seo.

#2007

Nel 2007 con l’Universal Search, Google integra nella SERP risultati come notizie, immagini e video cambiando la struttura della SERP.
Storia Algoritmo di Google
Storia Algoritmo di Google

#2008

Nel 2008 Google introduce il Suggest, aggiornamento che suggerisce chiavi di ricerca nel box di Google durante la fase di ricerca degli utenti.

#2009

Nel 2009 invece fu lanciato Vince, update che dà maggior importanza ai grandi brand.
Successivamente viene lanciato Caffeine progettato per accelerare il crawling, espandere l’indice e introdurre il posizionamento in tempo reale.
Con Real Time Search, lanciato qualche mese dopo, infatti vengono prodotti nuovi contenuti indicizzati in tempo reale.

#2010

Nel 2010 con May Day le query long-tail subirono un calo significativo, inoltre vennero colpiti i siti con molti contenuti poveri.
Successivamente con Brand Update, nelle SERP si iniziarono a visualizzare più risultati dello stesso dominio.
Con Google Instant, invece, vengono mostrati nella SERP i risultati mentre gli utenti digitano la query, cosa che colpì quasi per nulla le attività di SEO.
Inoltre nel 2010 iniziano ad avere sempre più importanza i social. Con il lancio di Social Signal infatti Google usa i segnali Social come fattori ranking.

#2011

Google Panda Update
Google Panda Update
Il 2011 è l’anno del Panda Update. Quest’ultimo colpisce contenuti di bassa qualitàsiti con molta pubblicitàrispetto alla quantità dei contenuti e valorizza i siti con contenuti di qualità.
Panda fu lanciato subito dopo Attribution, algoritmo che  fece da precursore di Panda, il quale cercò dicombattere l’aumento di spam.
In quest’anno l’algoritmo Panda arriva fino alla versione 3.1, la quale non sarà l’ultima.
Il 2011 si conclude con Freshness, l’update che favorisce contenuti “freschi” appunto!

#2012

Nel 2012 Google aggiorna gli algoritmi di layout di pagina puntando sempre il dito contro i siti con troppa pubblicità. A seguire viene lanciato Venice un algoritmo che invece valorizza i risultati organici locali.
Nello stesso mese vengono anche lanciati diverse update di Panda, fino ad arrivare alla versione #23.
Ma prima di arrivare a quest’ultima versione, Google lancia nel mese di Maggio la prima versione di Penguin, algoritmo con l’obiettivo di penalizzare tutti i siti con strategie di balck hat.
Algoritmi di Google Penguin Update
Google Penguin Update

#2013

Il 2013 inizia con un altro aggiornamento di Google Panda che colpì circa l’1,2% delle query, seguito dalla versione Panda #25, la quale fu l’ultima versione prima dell’inserimento di Goole Panda nel core algorithm di Google.
A Maggio invece venne lanciato Penguin 2.0, update che non ebbe particolari cambiamenti, e a seguire Penguin 2.1.
Ad Agosto venne lanciato Hummingbird, un aggiornamento che fu paragonato a Caffeine, che sembrava far parte del core algorithm di Google e che cambiò la semantic search.

#2014

Algoritmi di Google Pigeon Update
Google Pigeon Update
Nel 2014 continuano gli aggiornamenti per Panda, fino a Panda 4.1 dove vennero colpite circa il 3% delle query.
Inoltre in quest’anno venne introdotto Pigeon, il quale alterò alcuni dei local results e che avvicinò il local algorithm con il core algorithm.
A Ottobre venne lanciato l’update per combattere software e digital media pirati, Pirate 2.0.

#2015

Nel 2015 continuano gli aggiornamenti di Panda, che arriva alle 28esima versione: Panda 4.2

#2016

A Settembre del 2016 fu lanciato Possum Update, il quale va ad influire sulla visualizzazione dei risultati geolocalizzati, cioè la lista che appare sotto la mappa di Google.
A concludere, per ora, la storia degli algoritmi di Goolge è l’ultimo aggiornamento di Penguin. Penguin 4.0lanciato a fine settembre, algoritmo in real time che fa parte ufficialmente del core algorithm di Google.
..to be continued