Gli Algoritmi e l’Intelligenza Artificiale, Come le Macchine Apprendono

IntelligenzaArtificilae-ComeLeMacchineApprendono

Creare macchine intelligenti in grado di emulare e superare il cervello umano, consapevoli della propria esistenza e in grado di acquisire conoscenza in maniera autonoma, sia attraverso l’istruzione che attraverso l’esperienza, è il concetto alla base di quella che comunemente viene definita intelligenza artificiale.

Mentre da un punto di vista commerciale assistiamo a consistenti investimenti nel campo da parte di tutte le più grandi compagnie a partire da Facebook e Microsoft fino ad arrivare a Google, da un punto di vista etico l’intelligenza artificiale anima molte discussioni e divide i pensatori ed innovatori più influenti al mondo.

Secondo Ray Kurzweil futurista, scrittore e inventore, che Google ha messo a capo della propria divisione Engineering, la singolarità è vicina e avverrà nella decade del 2040/2050.
Il momento in cui la mente umana potrà fondersi con i computer non è quindi poi così lontano e sarà questa la tecnologia che ci consentirà di fare il successivo salto in avanti per raggiungere un più alto livello evolutivo.

Elon Musk, uno dei maggiori innovatori di questo secolo, ha invece una visione diversa da Kurzweil e considera l’intelligenza artificiale un male peggiore della bomba atomica, e sulla stessa lunghezza d’onda di Musk, ritroviamo Stephen Hawking, il celebre astrofisico, secondo il quale l’intelligenza artificiale potrebbe rappresentare allo stesso tempo il più grande risultato ma anche l’ultimo della specie umana.

Ma cerchiamo di capire meglio praticamente a cosa ci riferiamo quando parliamo di intelligenza artificiale e di macchine che acquisiscono conoscenza.

Machine Learning ovvero l’apprendimento automatico

Una delle capacità che deve avere un’intelligenza artificiale è quella dell’apprendimento automatico.

Il primo a dare una definizione di apprendimento automatico (Machine Learning) fu Arthur Samuel, che ha indicato l’apprendimento automatico come il campo di studi che si occupa di fornire ai computer l’abilità di imparare in maniera autonoma (o automatica) senza che siano stati opportunamente programmati per farlo.

Questa definizione è stata in seguito integrata da Tom Mitchell che aggiunge: “Un programma si può dire che abbia imparato da un esperienza (E) in seguito ad una azione (T) misurata attraverso le prestazioni (P), se le sue prestazioni ad eseguire il task (T) sono migliorate grazie all’esperienza”.

Gli Algoritmi dell’apprendimento

Esistono differenti tipologie di algoritmi dell’apprendimento, quelli che però sono con molta probabilità maggiormente utilizzati rientrano nelle categorie dell’apprendimento supervisionato e di quello non supervisionato.
Semplificando quanto più possibile, si può dire che la differenza più grande sta nel fatto che nell’apprendimento supervisionato siamo noi ad insegnare al computer come fare qualcosa, mentre in quello non supervisionato il computer imparerà tutto da solo.

L’apprendimento supervisionato

Nell’apprendimento supervisionato, al sistema viene dato in pasto un insieme di dati, detto set di training, contenente sia i dati in ingresso sia quelli in uscita.
Da questo insieme di dati, l’algoritmo di apprendimento supervisionato cerca di costruire un modello in grado di prevedere i valori di risposta per un nuovo insieme di dati di ingresso.

L’Apprendimento supervisionato comprende due categorie di algoritmi, quelli di regressione e quelli di classificazione.

Un classico esempio sull’uso dell’apprendimento supervisionato con l’algoritmo di regressione è quello della previsione dei prezzi delle abitazioni in base alle loro dimensioni.
Partendo da un insieme di dati esistenti, l’algoritmo traccia un grafico e rileva la tendenza dei dati per fare una previsione sul prezzo.

ApprendimentoSupervisionato

L’apprendimento non supervisionato

Nell’apprendimento non supervisionato alla macchina non viene fornito un set di dati già strutturato da dove potere trarre esperienze.

Il compito dell’algoritmo sarà invece proprio quello di scovare strutture e modelli nascosti all’interno dei dati forniti.

Un esempio applicato del concetto di apprendimento non supervisionato e degli algoritmi di clustering ce lo fornisce Google News.

Quello che fa quotidianamente Google News è osservare centinaia di migliaia di nuovi contenuti pubblicati e selezionare quelli che sono coerenti fra loro raggruppandoli in un’unica nuova storia.

Come è possibile vedere dall’immagine, Google News ha così raggruppato tutte le notizie riguardanti i possibili candidati alla vincita del pallone d’oro 2014 in un’unica notizia.

ApprendimentoNonSupervisionato

Se hai voglia di approfondire il funzionamento degli algoritmi dell’apprendimento automatico, capire come usarli e quali sono gli strumenti adatti, su Coursera è disponibile il corso sul Marchine Laerning tenuto da Andrew NG, professore associato alla Stanford University.

Altre letture interessanti sono:

Il Ruolo delle Emozioni nei Contenuti Virali, tra Scienza e Mistero

IlRuoloDelleEmozioniNeiContenutiViraliI contenuti virali hanno uno straordinario potere nel mondo dei social media.
Articoli o immagini praticamente a costo zero riescono ad avere una visibilità enorme raggiungendo milioni di persone.

Chiunque si occupi di marketing nel mondo oramai li considera il santo Graal, e molti studiosi cercano di capire quali sono le caratteristiche che rendono virali i contenuti e perché alcuni diventano più popolari di altri.

 

Gli studi

Nell’articolo “cosa rende virali i contenuti online” pubblicato sul Journal of Marketing Research, Berger e Milkman hanno studiato il legame da un punto di vista emozionale tra utenti e contenuti e hanno scoperto che la popolarità di un contenuto è fortemente influenzata dal livello di eccitazione emotiva che riesce a generare.

Più alto è il livello della spinta emotiva generata, sia essa positiva o negativa, maggiore è la possibilità che il contenuto divenga virale.

Berger e Milkman hanno riscontrato che le emozioni positive come la gioia o il desideriosessuale sono quelle che riescono ad avere un effetto migliore rispetto a quelle negative come rabbia o ansia.

Uno studio condotto da Fractl invece suggerisce che le emozioni positive non garantiscono un ottimo risultato o almeno non sono il solo ingrediente determinante.

Secondo Fractl la combinazione di emozioni positive e negative nello stesso contenuto rende più efficace il messaggio che il solo uso dell’una o dell’altra.

Lo stupore, la sorpresa, sia positive che negative, sono inoltre risultate al secondo posto in classifica per i contenuti virali.
L’efficacia di questo tipo di emozione sembra tuttavia variare in base all’età, ad esempio i Millennials cioè i ragazzi con età compresa tra i 18 e i 24 anni avvertono meno questo tipo di emozione.

Le ricerche di Fractl hanno evidenziato che le emozioni positive, in particolare gioia, interesse, fiducia, possono essere utili per ottenere un risultato immediato, ma l’effettolongtail è altrettanto rilevante quanto un picco di traffico istantaneo.
E per avere un effetto duraturo nel corso del tempo è importante la qualità del materiale che si offre al pubblico.

Toccare le giuste corde

Sollecitare una risposta emotiva è chiaramente la chiave per generare contenuti virali, ma non è sempre una cosa facile da realizzare.
Ci sono emozioni come la rabbia che sono più semplici da provocare, basta una foto o un articolo che va contro opinioni ormai consolidate e il gioco è fatto.

Per quanto funzionante non si tratta certo del metodo migliore e ovviamente ce ne sono altri.

Mark Hughes, nel suo libro Buzz Marketing, descrive l’utilizzo di sei tipologie di contenuti utili per ottenere l’interesse del pubblico grazie ad una risposta emotiva: tabù, originale, scandaloso, divertente, interessante, e misterioso.
I Contenuti tabù sono in genere etichettati come inaccettabili, impropri, profani o proibiti. Toccare questo tipo di corda è particolarmente efficace per innescare emozioni negative e un sentimento di sorpresa nell’utente.
A volte questo tipo di contenuto può provocare anche emozioni positive e ammirazione per l’implicito disprezzo delle regole e convenzioni sociali.
Altro fattore chiave per aumentare le possibilità che un contenuto resti virale è l’utilità pratica.

La creazione di materiale che ha un’evidente applicazione pratica per l’utente aumenta le probabilità che le persone prestino attenzione al messaggio e siano più invogliate a condividere il contenuto con altri utenti.

L’aspetto

Dunque un contenuto interessante che susciti le giuste emozioni è il primo fattore chiave per generare contenuti virali, ma non è l’unico.

Altri aspetti apparentemente secondari non vanno trascurati se non si vuole che i propri messaggi restino inefficaci.

Ad esempio non bisogna sottovalutare l’aspetto complessivo del contenuto pubblicato.

Il giusto posizionamento all’interno della pagina, la leggibilità del testo, il modo nel quale viene presentato sono elementi che hanno un’importanza enorme visto che gli utenti leggono realmente solo il 20% di una pagina web e di quella percentuale quello che rimane impresso è veramente poco.
Questo significa che i contenuti devono essere di facile scrematura e i messaggi che hanno il compito di suscitare interesse ben in evidenza, siano essi testuali o visivi.
Una volta conquistata l’attenzione dell’utente il contenuto deve anche fornire un invito a diffonderlo via internet, quella che in gergo viene definita la chiamata all’azione ( Call To Action ) che avviene attraverso pulsanti di condivisione social media.
Un recente studio di BrightEdge infatti dimostra che i contenuti con i tasti di condivisione hanno una probabilità sette volte maggiore di essere diffusi dagli utenti.

La Pazienza

Non c’è una formula magica che garantisca la diffusione di un contenuto in maniera virale, eNeetzan Zimmerman, considerato uno dei re dei contenuti virali lo sa fin troppo bene.

Durante il suo lavoro per Gawker, Zimmerman ha scritto più di 10 articoli al giorno, la maggior parte dei quali non è subito divenuto virale, cosa che però non ha impedito ai sui articoli di avere successo raggiungendo oltre 30 milioni di visite al mese.

In conclusione

Abbiamo visto quindi quanto l’emozione sia da considerarsi una componente chiave unita a elementi come età e sesso, ma anche che altri aspetti come la qualità e la forma in cui i nostri contenuti vengono presentati siano ingredienti determinanti per la viralità di un contenuto.

La popolarità degli articoli di Zimmerman inoltre ci dice che dobbiamo avere pazienza, il traffico immediato non è l’unico modo in cui un contenuto può divenire celebre.

Per saperne di più:

L’informatica moderna: DevOps e PaaS

linformatica-moderna-devops-paasIl punto forte del Cloud è quello di essere una piattaforma agile, ma il Cloud di per sé non è sufficiente a rendere agili le aziende.

Adottare queste piattaforme senza però modificare i processi usati tradizionalmente ne annulla i benefici apportati.

Per usufruire al meglio delle possibilità che il Cloud ci offre, le aziende devono avviare un cambiamento adottando una cultura che renda prioritaria la comunicazione tra tutte le parti interessate.

Potrebbe sembrare una cosa scontata, ma non sempre è cosi e vediamo perché.

Il Problema

Nelle aziende che adottano tradizionali metodologie di sviluppo del software esiste di solito un ampio gap tra gli sviluppatori e gli addetti alle operations.
Gli sviluppatori vogliono rapidamente passare dall’idea al codice e alla produzione, gli operations invece richiedono prevedibilità e stabilità.
Le due squadre hanno priorità e obiettivi diversi e se tra i due reparti si innalzerà un muro, ne risulterà solo un aumento della confusione ed un classico rallentamento della produzione.
Ad aggravare ulteriormente le cose, gli ambienti di sviluppo e di test sono spesso diversi dalla produzione, e mancano attrezzature standard per sviluppo, test e produzione.

La somma di tutti questi fattori spesso rende le aziende incapaci di progredire, paralizzandole in una fase di stallo continua.

L’unica soluzione in grado di evitare la paralisi è la comprensione delle conseguenze che l’utilizzo delle vecchie metodologie comporta, per poi abbracciare metodi e strumenti nuovi.

Le conseguenze

Oltre a rovinare il morale della squadra, bloccare progetti importanti e causare problemi finanziari, le conseguenze della paralisi sono molteplici e includono:

  • Imprevedibilità nei processi
  • Distribuzioni inaffidabili
  • Troppo tempo speso per l’identificazione e la risoluzione dei problemi, piuttosto che per rilasciare nuove caratteristiche
  • Aumento dei tempi di rilascio
  • Perdita di clienti

Spostarsi sul Cloud non evita automaticamente queste conseguenze.
Bisogna cambiare innanzitutto la cultura e i processi esistenti.

DevOps and PaaS

Per ottenere il massimo dallo spostamento su Cloud è importante che le aziende adottino la metodologia di sviluppo DevOps.

Si tratta di una metodologia di sviluppo software che punta alla comunicazione, collaborazione e integrazione tra sviluppatori e addetti alle operations, in cui entrambi condividono rischi e benefici di un processo di innovazione rapido.

Le metodologie di sviluppo agili hanno avvicinato gli sviluppatori ai manager e gli analisti aziendali, accontentando le loro richieste attraverso cicli di rilascio rapido.
DevOps avvicina sviluppatori e operations attraverso la collaborazione e la condivisione.

DevOps e le metodologie agili quindi aiutano tutta l’azienda nell’organizzazione del lavoro per soddisfare le esigenze dei clienti.

DevOps represent a change in IT culture that accepts additional risk as a trade-off for rapid IT service delivery through the adoption of agile and lean practices in the context of a systems-oriented approach
Gartner

Secondo Gartner, l’obiettivo generale di DevOps è quello di migliorare il valore del lavoro svolto dall’IT. Questo avviene attraverso il cambiamento culturale che allinea gli obiettivi di tutti i soggetti interessati in un’organizzazione.

Molte organizzazioni però si avvicinano a DevOps solo da un punto di vista culturale ignorando gli strumenti. Anche questo tipo di approccio ha benefici limitati. DevOps non è solo cultura o solo strumenti ma entrambe le cose.

DevOps è il modo in cui le aziende cambiano la propria strategia di sviluppo e adottano gli strumenti giusti per essa, così da centrare gli obiettivi in maniera continuativa.
Non c’è alcun beneficio nel cambiare metodologia se poi gli strumenti in possesso sono antiquati, e nel contempo usare strumenti moderni non cambia automaticamente la cultura aziendale.

In genere, gli strumenti giusti per DevOps sul Cloud sono IaaS e PaaS.
PaaS è una scelta migliore di IaaS per massimizzare i benefici della metodologia di sviluppo DevOps, dal momento che fornisce ambienti di sviluppo, produzione e test uniformi.
L’uniformità della piattaforma riduce i rischi e l’impatto delle configurazioni differenti, ottimizzando i benefici di DevOps.

Il Cloud computing consente inoltre agli sviluppatori di creare applicazioni moderne che utilizzano un modello distribuito o un Framework di Microservices, cioè un modello secondo il quale si dividono le grandi applicazioni in una serie di servizi minori, eliminando del tutto la problematica delle applicazioni monolitiche.

Principali Vantaggi di PaaS e DevOps:

  • Ottimizzazione dei processi dallo sviluppo alla produzione. Non si tratta più di aspettare settimane, mesi o anni per passare dall’idea alla produzione, ma tutto avviene in poco tempo.
  • Le aziende consegnano più velocemente il software, superando le aspettative dei clienti e aumentando così la fidelizzazione degli stessi.
  • Implementazione di codice più veloce. Gli errori sono notevolmente ridotti e rilevati rapidamente.
  • Combinazione di PaaS (strumenti) e DevOps (cultura) riduce i costi operativi, liberando risorse per i nuovi progetti.

In sintesi:

Il Cloud computing offre agilità e vantaggi competitivi alle imprese.
Per ottimizzare i benefici del Cloud, le aziende devono abbracciare DevOps e strumenti moderni come PaaS.
Qualsiasi azienda che vuole modernizzare la propria infrastruttura IT deve includere DevOps e PaaS come elementi base nella sua strategia.

Per saperne di più:

Quando tutto è connesso: i sistemi distribuiti

SistemiDisitribuiti«Come gestiamo sistemi troppo grandi e complessi per essere compresi e controllati, e che falliscono in modo inatteso?» Tweet this

Una notizia di non molti giorni fa è che il tribunale di Oklahoma City ha condannato la Toyota a risarcire un cliente perché secondo quanto è emerso dalle indagini l’incidente in cui si è trovato coinvolto è stato provocato da un bug del software dell’auto.
Ciò che colpisce è che una giuria per la prima volta abbia sottolineato come un bug possa causare non soltanto dei piccoli problemi o dei gravi danni finanziari, ma addirittura essere responsabile di una vita umana.
Come dovremmo valutare l’accaduto se da un semplice bug di un auto cominciassimo a riflettere sulla complessità di un mondo che si avvia ad un estrema automatizzazione, all’internet delle cose?

Consideriamo ad esempio il progetto di Google, ormai già in fase avanzata di prototipo, delle auto che si guidano da sole.
Queste auto si suppone siano intrinsecamente più sicure rispetto a quelle attuali, dal momento che viene eliminata la variabile dell’errore umano.

Ma cosa succede se il sistema che governa l’auto va completamente in blocco, se all’improvviso si smette di ricevere i dati sui semafori o se il navigatore dice all’auto di gettarsi giù da un ponte?

Lo sviluppo dei software ha raggiunto uno stadio di complessità in cui non è possibile controllarne tutti gli aspetti, quindi come facciamo a gestire sistemi troppo grandi per essere compresi completamente, troppo complessi da controllare e che spesso falliscono in modo imprevedibile?

Comprendere il fallimento

Come ci spiega la teoria sul calcolo distribuito, i sistemi distribuiti falliscono spesso e quando lo fanno questo non avviene mai per il fallimento di tutto il sistema, ma solo di alcuni dei suoi molteplici componenti.
Questi errori oltre a essere difficilmente diagnosticabili e prevedibili non sono facilmente riproducibili per eseguire dei test.
La soluzione al problema non può essere unica, è possibile aumentare i test di rilascio o l’integrazione continua, ma non basta.

Occorre ammettere che malfunzionamenti del software come accaduto alla Toyota si possono verificare facilmente, che i nostri sistemi possono fallire in molte maniere inaspettate. Ciò che va cambiato è il nostro modo di pensare ai sistemi che costruiamo e a quelli che già adoperiamo.

Pensare globalmente

Siamo passati dallo sviluppare codice destinato ad essere eseguito su singoli pc a software distribuiti in cloud, che è come un sistema vivente in continua evoluzione.
Dobbiamo partire dal presupposto che il sistema su cui gira il nostro codice sicuramente fallirà in qualche punto e dobbiamo adattare il nostro modo di scrivere codice cercando di immaginare come e dove potrà fallire.
In un ambiente in cui non è possibile prevedere i bug e testare ogni singolo aspetto dei sistemi che creiamo, il continuo monitoraggio dell’applicazione rappresenta l’unico modo per cercare di evitare e se possibile prevedere malfunzionamenti.

I Dati come lingua

Analizzare i dati post problema per cercarne la causa non è un buon modo di procedere in un ambiente distribuito, nel quale i bug spesso non sono riproducibili ma sono dovuti ad una serie di micro cause. Non è così che possiamo raggiungere l’obiettivo.
Chi fa codice deve monitorare continuamente attraverso i dati l’andamento dell’applicazione con lo scopo di creare un sistema che si allerti e ci informi immediatamente al presentarsi del problema.

Il fattore umano

Siamo parti integranti dei sistemi che costruiamo e adoperiamo, e ne influenziamo profondamente il funzionamento.
Condizionati da una cultura poco incline al rischio, nel tentativo di evitare malfunzionamenti cerchiamo di creare sistemi dei quali abbiamo il massimo controllo, inserendo righe su righe di codice che però li appesantiscono, li rendono poco robusti e invece di proteggerli fanno aumentare le possibilità di ulteriori errori.

Quando questo accade si parte all’affannosa ricerca del colpevole, della causa scatenante e di un modo per evitare che si ripeta di nuovo il problema.
Di solito però questo si traduce in altri controlli che rendono il sistema via via sempre più fragile.
La verità è sempre la stessa: che non c’è una ragione sola perché i sistemi falliscono, ma una serie di micro cause ne producono il crollo.
Gli strumenti e le metodologie che abbiamo adoperato fino a poco tempo fa si sono sgretolate e vanno quindi ricercati nuovi modelli per la creazione, la distribuzione e la manutenzione del software.

Per saperne di più: Everything is distributed

SEO: 7 Miti da sfatare

Seo 7 miti da sfatareIl SEO, l’insieme delle attività finalizzate ad aumentare la visibilità di un sito web, è da sempre un universo complesso e non è mai stato abitato dalla chiarezza.

Gli algoritmi alla base del funzionamento dei motori di ricerca sono segreti, e per di più sono costantemente riveduti e corretti. Lo scenario è così instabile che non è facile elaborare una strategia SEO che produca i risultati sperati.

Possiamo cercare di carpire il funzionamento degli algoritmi sperimentando varie soluzioni sul nostro sito e trovare quella più adatta a noi, ma alla fine qualunque strategia SEO adottata non potrà che collocarsi a metà strada fra scienza e immaginazione.

In uno scenario già di per sé complicato, sono poi molti i contenuti disinformativi pubblicati in rete che contribuiscono alla creazione di falsi miti.

Alcuni miti sul SEO sono presenti fin dai suoi esordi, ma vediamo quelli nati nel corso degli ultimi anni.

7 Nuovi Falsi Miti sul SEO

  1. Il Guest Blog è il male
    La penalizzazione sul SEO per chi fa guest blog è uno dei miti più recenti ed è dovuto essenzialmente all’articolo pubblicato da Matt Cutts, leader del team antispam di Google.
    Google intende arginare la pratica scorretta di chi abusa del guest posting allo scopo di generare link SEO verso il proprio sito, penalizzando e isolando solo chi lo utilizza in questo modo.
    Chi invece lo utilizza per scopi leciti come ottenere reputazione o visibilità e considera il ritorno in termini di SEO come secondario, non ha nulla di cui preoccuparsi.
  2. I Social Media condizionano il SEO
    Il mito che i Social Media condizionino il SEO è vecchio di qualche anno ma è molto lontano dalla realtà.
    Avere una strategia per i social media è importante per molte ragioni, come ottenere visibilità o raggiungere i possibili clienti, ma è errato pensare che i motori di ricerca usino le azioni generate dai social media come strumento di ranking, Google stesso ha sempre negato di farne uso.
    The Totally Mathematical Reason Social Matters to SEO
    Google’s Matt Cutts: Are pages from social sites ranked differently?
  3. I Backlink sono al tramonto
    Sono in molti a credere che quello dei backlink non sia più un sistema di punteggio affidabile e che Google dovrebbe trovare delle alternative.
    Tuttavia quello dei link in ingresso per sito web è, e lo sarà per ancora un bel po’, uno dei metri di valutazione preponderante per il ranking visto che ad oggi ancora non è stato trovato un modo altrettanto valido per sostituire i backlink nel calcolo del rank.
    Lo stesso Matts Cutts ha confermato che in Google hanno testato e poi abbondonato una versione del motore di ricerca che non utilizzava i backlink come fattore di ranking.
  4. Google non funziona
    Un altro mito popolare è che Google abbia un serio problema con il proprio motore di ricerca.
    Niente potrebbe essere più lontano dalla verità. Se solo guardiamo alle quote di mercato che vanno fino a oltre l’80% non sembra affatto che Google sia di fronte a una grave minaccia.
  5. L’AuthorRank è un fattore di ranking
    Con l’introduzione nel 2011 da parte di Google del concetto di AuthorShip, all’interno delle community che si occupano di SEO è nata l’ipotesi dell’esistenza dell’AuthorRank con il quale Google assegnerebbe agli autori più qualificati un punteggio più elevato.
    Ad alimentare maggiormente le voci dell’introduzione nel motore di ricerca di un concetto simile all’AuthorRank ci ha pensato Eric Schmidt, CEO di Google, affermando che tra i risultati di ricerca, le informazioni condivise dai profili verificati tramite l’AuthorShip avranno un punteggio maggiore dei contenuti che non hanno questa verifica.

    Within search results, information tied to verified online profiles will be ranked higher than content without such verification, which will result in most users naturally clicking on the top (verified) results. The true cost of remaining anonymous, then, might be irrelevance.

    Eric Schmidt – The New Digital Age

    A oggi comunque non ci sono prove tangibili che questo meccanismo sia in funzione, anche se Cutts in questo tweet ci dice che un sistema simile all’AuthorRank è presente nella funzione che Google usa per l’In-Depth Article, ma sembra essere utilizzata di rado.
    Aggiungere il markup di AuthorShip ai nostri contenuti è una cosa da fare sicuramente per costruire reputazione e visibilità ma non porta guadagni da un punto di vista SEO se non a lungo termine.

  6. Gli studi correlati ci dicono come funziona Google
    Da quando Moz ha iniziato a pubblicare i propri studi sui fattori di correlazione nei motori di ricerca, si è diffusa la convinzione che questi report spieghino esattamente il funzionamento dei motori di ricerca.
    Gli studi non mostrano se i fattori esaminati siano utilizzati da Google nel proprio algoritmo, ma solo la loro correlazione nei fattori di ranking.
    Ad esempio, la correlazione tra i +1 di Google+ e il ranking indica la correlazione tra azioni social e buoni contenuti, i quali di sicuro hanno anche un alto numero di backlink, ma non significa che Google utilizzi le azioni sui social come fattore per il calcolo del Rank.
  7. Il SEO e i contenuti di qualità
    Uno degli ultimi miti dei nostri tempi vuole che il SEO riguardi solo la creazione di buoni contenuti e che il resto venga di conseguenza.
    Realizzare contenuti di qualità è un fattore importante, ma esiste la possibilità che rimangano invisibili senza una più ampia strategia che comprenda altri aspetti, come ottimizzare il markup html del sito, e una buona strategia di marketing per costruire reputazione e visibilità sfruttando il principale fattore di ranking, i backlink.

Avere un approccio critico nel valutare ogni nuova affermazione che si fa nel campo del SEO è dunque fondamentale, e ci evita soprattutto di apportare modifiche alla nostra strategia finché il mercato non ci dice che sono effettivamente funzionanti.
Come ci spiega Rand Fishkin i grandi marketer devono essere grandi scettici.

Per saperne di più: 7 Modern Age SEO Myths

9 lezioni per i web developer

9-lezioni-per-i web-developerTerminato il corso di laurea all’università la maggior parte degli aspiranti web developer è impreparata ad affrontare il mondo del lavoro e le aziende lamentano di non riuscire a trovare persone con le competenze adeguate, come emerge da un recente studio eseguito da CompTIA.

Gli studi universitari forniscono un ottimo bagaglio culturale e tecnico, ma è facile che queste conoscenze si rivelino insufficienti per il business, dal momento che non è solo la competenza tecnica ad avere un peso nel mondo del lavoro.

Essere un web developer vuol dire saper risolvere problemi, avere una certa pratica di comunicazione, saper creare applicazioni che si adattino alle circostanze, in altre parole significa possedere delle capacità che possono essere acquisite soltanto con l’esperienza.

Quindi, dopo tante lezioni universitarie, ecco alcuni insegnamenti utili derivati direttamente dal mondo del lavoro.

9 indispensabili lezioni che l’esperienza insegna

  1. Non si finisce mai di imparare
    Sembra scontato ma non lo è mai abbastanza. Un professionista deve essere sempre aggiornato sulle nuove tendenze nel suo campo. Per un web developer è una sfida continua, vista la velocità con cui corre il mondo digitale. Nuove tecnologie, nuovi dispositivi e con essi nuovi standard, framework, linguaggi fanno la loro comparsa a ritmo incessante.
    Tenersi al corrente delle novità è indispensabile per la crescita professionale e consente di essere aggiornati anche sulle abilità richieste dal mercato del lavoro.

    Lo studio è un aspetto essenziale, una costante di tutta la vita lavorativa.

  2. Ciò che conta è risolvere problemi
    Chi si occupa di fare codice è ansioso di sperimentare sempre nuovi metodi per sviluppare applicazioni, e ovviamente è un bene essere al passo con le nuove tendenze.
    Per i clienti però tutto questo non ha alcuna rilevanza perché la tecnologia è un mezzo non un fine.
    Nel mondo degli affari contano i soldi degli investitori e non importa come abbiamo costruito la nostra applicazione, l’unica cosa che conta è che risolva problemi.

    Il web developer per i clienti è solo chi gli risolve problemi.

  3. Il cliente non sa quello che vuole
    Il punto di vista del cliente è limitato dalle necessità, dalle circostanze e da quella che crede sia la soluzione più adatta alle sue esigenze solo perché non conosce la varietà delle opzioni che possono risolvere il suo problema.
    Compito di un web developer è ascoltare e guidare il cliente verso la soluzione che è davvero la più adatta alle sue esigenze.

    Risolvere problemi non vuol dire dare esattamente al cliente quello che chiede ma fargli comprendere e dargli ciò che per lui è meglio.

  4. Il cliente ha sempre l’ultima parola
    Un web developer che è nel mondo del lavoro da qualche tempo, molto probabilmente si è trovato nella situazione in cui dopo aver progettato e realizzato la migliore soluzione, semplicemente questa non piace al cliente o vengono richieste delle modifiche che cambiano totalmente lo scenario.
    Una situazione del tutto normale e molto frequente specialmente per chi si occupa di sviluppare la parte grafica di una applicazione web.
    È sempre il cliente ad esprimere il giudizio finale sul nostro lavoro.

    Bisogna saper ascoltare ed imparare dagli altri, dal momento che spesso si lavora su codici condivisi con altri programmatori che hanno visioni diverse dalla nostra e non è detto che la nostra sia la migliore.

  5. L’unica costante è il cambiamento
    In un mondo come quello del web dove l’innovazione è continua, la flessibilità è un fattore determinante.
    Capita di frequente che al momento della progettazione di un’applicazione i clienti non ritengano necessarie certe funzionalità che puntualmente diventano essenziali dopo qualche tempo.

    Un buon web developer anticipa i cambiamenti e progetta un’architettura flessibile per implementare velocemente le nuove funzionalità.

  6. L’importanza della comunicazione
    La comunicazione è un aspetto indispensabile alla buona riuscita di un progetto.
    Per un developer scrivere codice è solo una parte del lavoro.

    Documentare, condividere scelte e il continuo confronto con i clienti sono l’altro lato della medaglia che riveste un’importanza anche maggiore rispetto alla semplice scrittura del codice.

  7. La perfezione non è un bene
    Creare una buona soluzione in un breve tempo è sempre meglio di una perfetta ma realizzata in tempi molto lunghi.
    Potremmo non essere i soli ad aver avuto quell’idea e mentre cerchiamo di costruire l’applicazione ideale qualcun altro potrebbe anticiparci e lanciare sul mercato una soluzione simile alla nostra.
    Questo non significa lavorare male o lasciare le cose a metà ma evitare di cercare la perfezione ossessiva su aspetti secondari.

    Il meglio è nemico del bene.

  8. Manutenibilità dell’applicazione
    Il ciclo di vita di un’applicazione non è limitato alla sua creazione, probabilmente durerà anni nei quali saranno necessari correttivi o evoluzioni, e potremmo non essere noi ad occuparcene.

    Durante la progettazione e lo sviluppo, un buon web developer rende l’applicazione facilmente manutenibile tramite documentazione adeguata e flessibilità architetturale.

  9. I Framework sono alleati
    In un mondo in cui contano velocità e qualità, non è mai conveniente reinventare la ruota e costruire tutto da zero quando ci sono migliaia di tool e framework che ci offrono soluzioni di qualità pronte per essere integrate nel nostro prodotto, come ad esempio Bootstrap di Twitter che ci aiuta nella creazione di siti responsivi.

    Nel mondo del business non importa praticamente a nessuno come abbiamo costruito la nostra applicazione, per i clienti è importante che funzioni, che sia realizzata in breve tempo e che garantisca un ritorno economico.

Per saperne di più: 9 critical lessons web developers won’t learn in school

L’Economia degli Algoritmi, le formule Facebook e Amazon

L'economia degli algoritmi

Uno dei più grandi cambiamenti che la diffusione di internet ha apportato alla nostra società è il modo in cui cerchiamo notizie e prodotti.
Abbiamo abbandonato quella dimensione limitata nella quale tutto avveniva intorno a noi, dall’edicola sotto casa dove acquistavamo il giornale locale ai negozianti di fiducia che conoscevano persino i nostri gusti, per passare ad una dimensione globale dove portali come Facebook, Twitter e Google News ci consegnano notizie da ogni angolo del pianeta e Amazon, il negozio dove trovi tutto, fa impallidire anche un grande centro commerciale che al confronto si è ridotto ad una piccola bottega.

Siamo insomma passati da una quantità estremamente limitata di notizie e prodotti ad una tale sovrabbondanza che è diventato un problema riuscire a fare una scelta.

Ecco perché i grandi portali come Facebook e Amazon per fornire le giuste informazioni o prodotti ad un utente che ha accesso a questa enorme quantità di dati devono affidarsi agli algoritmi.

I monopoli digitali

Gli algoritmi, quei semplici pezzi di codice deputati a risolvere un problema, sono destinati ormai ad esercitare sempre più un peso e a plasmare la nostra cultura e la nostra società.

Facebook e Amazon rivestono un ruolo di monopolio digitale su informazioni e acquisti, e l’economia, la cultura e il nostro stile di vita sono quindi profondamente condizionati dal funzionamento dei loro algoritmi che ci suggeriscono cosa è importante sapere o cosa è meglio comprare.

Il problema di abbondanza di dati che devono risolvere i rispettivi algoritmi è però ben diverso: Facebook deve selezionare tra circa 1500 contenuti al giorno, quelli che ci potrebbero maggiormente interessare; Amazon invece deve cercare di fornire un’esperienza di shopping senza fine abbinando al prodotto che stiamo comprando o abbiamo comprato un altro tra i milioni contenuti nel suo deposito.

Lo scopo dell’algoritmo News Feed di Facebook è di fornire il giusto contenuto alle persone giuste al momento giusto. Non ci è dato sapere il suo funzionamento in maniera precisa, ma con un po’ di reverse engineering è facile intuire che il motore di intelligenza artificiale di Facebook si basa principalmente sulle nostre azioni, i ‘mi piace’, le condivisioni o i click sui contenuti.

Tutto quello che facciamo viene registrato ed elaborato per essere poi usato nelle successive visualizzazioni delle notizie. Ai dati generati dal nostro comportamento all’interno della piattaforma l’algoritmo aggiunge i contenuti provenienti dalle inserzioni a pagamento di aziende o privati.

L’algoritmo di raccomandazione di Amazon invece cambia completamente in base al profilo del cliente ed ha un compito più arduo rispetto a quello di Facebook, ovvero riuscire a fornire suggerimenti personalizzati ad ogni potenziale cliente su milioni di prodotti presenti nel proprio magazzino in circa mezzo secondo.

Il motore che si occupa di fornire i suggerimenti per gli acquisti utilizza l’item-to-item collaborative filtering, un algoritmo che invece di sfruttare la similitudine dei clienti e quindi proporci articoli che altri utenti dal profilo simile al nostro hanno acquistato, costruisce l’elenco dei prodotti da suggerire in base a quelli che gli altri clienti tendono ad acquistare insieme a quello da noi scelto.

Questi algoritmi usano formule opposte ma risolvono il problema comune a Facebook e Amazon di operare una selezione tra l’abbondanza di dati.

I loro punti di forza sono chiari ma sono chiari anche i loro punti di debolezza.

Facebook conosce meglio le persone ma non conosce realmente cosa piace ad esse, i like possono dare l’idea di funzionare come le recensioni ma non sono affidabili allo stesso modo.

Come Tony Haile CEO di Chartbeat ci racconta sul Time, click, condivisioni e attenzione non sono esattamente la stessa cosa e molte persone potrebbero non avere neanche letto il contenuto sul quale hanno messo il like.

Amazon d’altro canto conosce meglio e in modo più affidabile i prodotti che piacciono alle persone grazie alle recensioni, ma vorrebbe saperne di più sugli utenti.

I due sistemi dovrebbero essere integrati per aiutarsi reciprocamente a superare i propri limiti.

Il funzionamento degli algoritmi di Facebook può scatenarci una certa inquietudine per l’eccessiva invadenza nella nostra vita privata, mentre nel caso di Amazon può non produrre i risultati sperati visto che molti utenti lamentano suggerimenti troppo robotici.

Nella nostra che è l’era degli algoritmi, non dobbiamo sorprenderci o sentirci violati nella nostra privacy da queste considerazioni, e lo scenario non dovrebbe sembrarci più così inquietante.

Come racconta Bruce Sterling a Giuseppe Granieri si tratta solo di nuove tecnologie: “Probabilmente non useremo più il termine “privacy”. Inventeremo politicamente una parola nuova che sarà coerente con la situazione attuale della tecnologia”.

Per poter funzionare al meglio e soddisfare al meglio le nostre esigenze di utenti, gli algoritmi hanno bisogno di conoscere i nostri gusti, come viviamo, quello che compriamo, e instaurare con noi un rapporto più confidenziale, e tutto dovrebbe accadere in maniera naturale come è sempre accaduto con il nostro negoziante di fiducia che conosce i nostri gusti e il nostro nome.

Per saperne di più: The Algorithm Economy: Inside the Formulas of Facebook and Amazon

Perché condividiamo e come scegliamo i contenuti da condividere nell’era dei social network

bluecatL’essere umano è una macchina complessa, ognuno di noi ha una sua unicità, ma tutti noi condividiamo lo stesso desiderio di piacere, essere amati e socialmente accettati.

I social network rappresentano lo strumento perfetto per disegnare un’immagine ideale di noi stessi e mostrare agli altri chi siamo in realtà o quanto meno chi vorremo essere, comunicando agli altri quali sono le nostre aspettative, come viviamo o come vorremmo farlo e quali sono le nostre reali aspirazioni.

Non ha importanza se questa rappresentazione sia reale o meno, già nel 1986 gli psicologi Hazel Markus e Paula Nurius parlavano della disparità tra chi siamo realmente e chi siamo idealmente, dimostrando che abbiamo un doppio concetto di noi stessi, quello attuale e quello possibile.

L’illusione di chi potremmo essere e il tentativo di costruire questa nuova identità sono tra i principali motivi che ci spingono a condividere contenuti tramite i social network.
Siamo maggiormente disposti a condividere informazioni che in qualche modo gratificano il narcisismo del nostro “se ideale”.

Il New York Times dopo un approfondito studio sulla psicologia della condivisione ha tracciato un profilo delle 6 categorie principali di persone che condividono online:

  1. Altruist
    Disponibile e affidabile, condivide tramite Facebook e email.
  2. Careerist
    Professionista, focalizzato sull’avanzamento di carriera, molto probabilmente usa LinkedIn per condividere in rete.
  3. Hipster
    Creativo, giovane, popolare, attento alla sua identità on-line, predilige l’uso di Twitter, Facebook e Skype.
  4. Boomerang
    Condivide spesso e attraverso tutti i social possibili, in cerca dell’approvazione degli altri, pubblica contenuti pensati per suscitare reazioni.
  5. Connector
    Rilassato e pianificatore, usa i social media e in particolare Facebook per organizzare la sua vita offline.
  6. Selective
    Premuroso e attento alle informazioni che condivide predilige inviare una mail piuttosto che usare Facebook.

Sempre dalla ricerca del NYT sono emersi 4 principali incentivi che ci spingono a condividere:

  1. Contenuti di qualità o intrattenimento
    Il 94% delle persone sceglie con cura come quello che condivide può essere utile al destinatario delle informazioni.
  2. Aumento delle relazioni
    Il 78% condivide per rimanere in contatto con le persone con le quali non riuscirebbe altrimenti.
  3. Autorealizzazione
    Il 69% condivide per sentirsi più partecipe.
  4. Identità
    Il 68% condivide per comunicare agli altri chi è e di cosa si interessa.

Un altro fattore preponderante che entra in gioco quando decidiamo di condividere informazioni in rete è l’emozione.

Secondo uno studio dell’American Marketing Association, i contenuti che hanno maggiore possibilità di divenire virali sono quelli che provocano una reazione forte, sia essa positiva o negativa. Upworthy illustra questo concetto in un ottima slideshare sulla creazione di contenuti virali, nella quale è facile evidenziare come l’emozione rivesta un ruolo fondamentale da sfruttare affinché le informazioni abbiano maggiore fascino per la condivisione.

I ricercatori americani della UCLA, in una ricerca volta a individuare il motivo per il quale condividiamo determinate informazioni rispetto ad altre, hanno scoperto e pubblicato in uno studio che nella scelta di un contenuto il nostro cervello valuta l’utilità che questa informazione può avere per gli altri.
Se pensiamo che quel contenuto può interessare, divertire o risultare utile anche agli altri allora saremo molto più propensi a condividerlo.

Molti sono quindi gli elementi che interagiscono sulla nostra scelta di quello che decidiamo di condividere o del perché, e Jonah Berger nel suo ricercatissimo libro Contagious ce li espone sintetizzandoli in 6 caratteristiche che possiedono i contenuti virali:

  1. Social Currency
    Il narcisismo, in che modo migliorerà la nostra immagine?
  2. Trigger
    L’importanza, qual è il pensiero degli altri a riguardo?
  3. Emotion
    L’emozione, perché dovrebbe importaci?
  4. Public
    La conformità, lo fanno anche gli altri?
  5. Pratical Value
    L’utilità, sarà utile per gli altri?
  6. Stories
    La storia, ha una storia interessante?

Per saperne di più:

6 consigli per velocizzare il tuo sito

speedIl tempo di caricamento di un sito è un fattore molto importante per l’esperienza di navigazione dell’utente e non solo.
Ad oggi, dato che può sembrare incredibile, circa il 55% dei siti web risultano pesanti o lenti e questo significa che più della metà dei siti esistenti non si sono mai posti il problema di quanto sia performante il loro sito e di conseguenza non si sono mai preoccupati dell’esperienza di navigazione offerta agli utenti.

Secondo una ricerca effettuata da Kissmetric un solo secondo di ritardo nel caricamento di una pagina produce una serie di effetti negativi tra i quali la riduzione delle visite del 10% e un’opinione negativa di circa il 40% dei visitatori, senza contare che queste statistiche non si occupano della lettura sui dispositivi mobili per i quali risulta che solo il 28% ha un sito pienamente responsivo.
Se i secondi di attesa passano a 3 il 57% dei visitatori potrebbe abbandonare il sito, si tratta quindi di un fattore cruciale per un sito web.

Controlliamo lo stato del nostro sito

Per controllare lo stato del nostro sito possiamo usare Google PageSpeed Insights, un tool che oltre ad analizzare il nostro sito ci dà anche una serie di consigli utili su come risolvere i problemi riscontrati nell’analisi.

6 Consigli per velocizzare il caricamento della pagina

Ottimizzare la cache
Tutti i siti hanno una serie di risorse statiche che non cambiano mai, CSS, JavaScript, immagini, tutti elementi che possono impiegare del tempo a caricarsi.
Ottimizzare tramite il web server la cache per gli elementi statici migliora di sicuro le performance del sito, e ancora una volta Google ci viene in aiuto con una serie di best practice su come usare la cache.

Ridurre il numero di round-trip verso il server
Il round trip è il tempo che impiega un pacchetto a viaggiare tra client e server ed è un fattore rilevante nel tempo di risposta, quindi quanto più è alto il numero dei pacchetti necessari per visualizzare la pagina che si muoveranno avanti e indietro tra il browser e il web server maggiore sarà il tempo di caricamento della pagina.
Ci sono una serie di accorgimenti che possiamo adoperare per ridurre al minimo indispensabile il numero dei round-trip, evitando ad esempio i redirect di pagina non necessari come quelli per tracciare la pagine visitate o i comportamenti degli utenti, oppure riducendo il peso e il numero dei file CSS e JavaScript tramite gli strumenti di minimizzazione o ancora caricando le risorse in maniera asincrona e parallelizzando i download dove possibile.
Anche il numero di immagini presenti nella pagina ha un impatto notevole nella performance del nostro sito. Tecniche come CSS Sprites ci permettono di raggruppare all’interno di un unico file le diverse immagini che dobbiamo mostrare nelle pagine ed estrarle in seguito tramite CSS.
Dobbiamo evitare inoltre quando possibile di usare funzioni per caricare contenuti esterni che aumentano il tempo di caricamento di una pagina come document.write(), mentre possiamo invece elencare le risorse esterne all’interno dell’Header HTML o usare un semplice iframe.

Controllo del peso
Nell’ottica di ridurre gli sprechi per velocizzare il tempo di risposta va tenuta sotto controllo la dimensione della richiesta che inviamo al server cercando di non eccedere i 1500 byte. Dobbiamo quindi evitare di usare i cookie come fossero tabelle di un database eliminando i campi non usati o non necessari.
Si può inoltre velocizzare il caricamento di file e risorse statiche attraverso un dominio o una CDN che non necessita di cookie, evitando in questo modo di inviare il cookie per accedere ad una risorsa che non necessita di tale informazione.

Pubblicità
Non bisogna eccedere col numero di annunci pubblicitari sul sito poiché ognuno di essi costa tempo e velocità.

Pulsanti Social
Indispensabili al giorno d’oggi per avere un sito che sia media friendly, i Pulsanti Social rappresentano comunque un tempo aggiuntivo di caricamento per la pagina. Troppi pulsanti di condivisione posso inoltre rendere il sito poco sociale come spiega questo post, quindi meglio pochi ma buoni.

Rich Media
Immagini e video di alta qualità possono essere un’ottima scelta per un sito ma anche rivelarsi una trappola rendendo la pagina pesante e lenta.
Dobbiamo fare attenzione, oltre ovviamente alla quantità, anche al formato che utilizziamo, è inutile ad esempio utilizzare un formato in alta definizione per immagini di piccole dimensioni.

Questi consigli sono solo una piccola parte di quello che possiamo fare per rendere il nostro sito più performante, ma vale la pena cominciare.

Per approfondire: What Makes Your Website Slow? 6 Ways To Optimize Page Load Speed

Author Rank, il dibattito continua

author-rankL’Author Rank, il processo tramite il quale Google assegna un punteggio ad un autore e lo usa per posizionare i suoi contenuti nei risultati di ricerca, continua da un paio d’anni ad animare le discussioni nelle community SEO.

In una recente videoconferenza su Hangouts due esperti del settore Mark Traphagen e Eric Enge hanno spiegato perché dal loro punto di vista l’Author Rank o qualsiasi altra sua variante non sono al momento attivi o quantomeno non influenzano i risultati delle ricerche, ma sono ancora molte le domande a cui rispondere e numerosi gli spunti di riflessione della videoconferenza.

Rand Fishkin e l’Author Rank

Durante la videoconferenza Mark Traphagen ha citato un recente articolo di Rand Fishkin che illustra la possibilità che l’Authorship o l’Author Rank influenzino i risultati di ricerca.
Craig Addyman ha pubblicato sul suo blog un’intervista a Rand Fishkin senza assegnarne la paternità tramite il tag di Authoriship, che si è classificata nei risultati di ricerca di Google tra la nona e dodicesima posizione per diversi mesi. Quando invece Craig Addyman ha aggiunto il markup di Authorship di Rand Fishkin all’articolo del blog, eccolo balzare in prima posizione nei risultati di ricerca.
Cos’è successo? Non si era detto che l’Authorship non influenza i risultati di ricerca? Ha commentato Rand Fishkin.

L’inserimento dell’autore del contenuto nell’intervista ha avuto un forte impatto sui risultati di ricerca. Ma non è tanto la mera esistenza del tag di paternità ad aver influenzato i risultati di ricerca altrimenti il discorso potrebbe valere per chiunque, ma l’autore che è rappresentato da quel tag è stato determinante, e questo ci spinge a pensare all’Author Rank piuttosto che all’Authorship.
Rand Fishkin è sicuramente un esperto del campo con una quantità enorme di contenuti pubblicati che ricevono frequenti condivisioni e apprezzamenti, e questi sono tutti elementi utili per la creazione dell’Author Rank.

Mark Traphagen però respinge questa teoria indicando altre soluzioni, sostenendo ad esempio che per Google l’intervista a Rand Fishkin meritasse di per sé un punteggio molto alto. Ma anche da questa spiegazione a ben vedere ne consegue che Google assegna un punteggio a Rand Fishkin come autore.

Pertinenza e affidabilità

Matt Cutt a capo del team antispam di Google ci dice che sono essenzialmente due i principali fattori che influenzano il posizionamento nei risultati di ricerca.
Il primo è la pertinenza. Il contenuto deve essere rilevante per la query di ricerca.
Il secondo è la reputazione o affidabilità. In passato questo fattore era spesso determinato essenzialmente dal Page Rank. Se il contenuto è su di una pagina web che ha un Page Rank alto, e sembra essere il più rilevante per la query di ricerca, Google può avere una certa sicurezza che il contenuto sia di qualità e posizionarlo tra i primi risultati di ricerca.

Tornando quindi all’esempio di Rand Fishkin, il contenuto non è cambiato, quello che è cambiato con l’aggiunta del markup di Authorship è stato il fattore affidabilità, qualcosa che ha dato a Google la fiducia necessaria per posizionare al primo posto nei risultati di ricerca l’intervista. Quel qualcosa potrebbe facilmente essere l’Author Rank.

Semplicità vs Complessità

Sempre durante la videoconferenza, Eric Enge diffidando dell’esistenza dell’Author Rank afferma che non sarebbe plausibile un uso di questo tipo di metrica dal momento che pochi autori esperti hanno inserito il tag di Authorship nei propri contenuti e che non sarebbe giusto per un autore esperto essere scavalcato da un altro non esperto solo per aver abilitato l’Authorship nel proprio blog.

Forse si pensa all’Author Rank come ad un qualcosa di più complicato di quanto alla fine potrebbe essere. Se guardiamo ai due fattori base dell’algoritmo di ranking ovviamente l’Author Rank ricade sempre in quello dell’affidabilità.
L’Author Rank non va interpretato come una classifica fra gli autori, va invece letto come una sorta di punteggio di affidabilità per il contenuto specifico che a sua volta deve essere rilevante per la query di ricerca.

Google deve fidarsi di un contenuto per poterlo portare in cima ai risultati di ricerca. Questa fiducia può derivare dal Page Rank o in alternativa l’Author Rank potrebbe essere l’unico strumento per garantire un punteggio di affidabilità al contenuto.
L’Author Rank non sconvolge i risultati di ricerca perché viene applicato ai contenuti risultanti dalla query di ricerca. Solo un contenuto limitato sarà la risposta esatta alla query. Con dieci risultati di ricerca per pagina c’è spazio sia per l’esperto senza paternità sui contenuti che per quelli con alto valore di Author Rank.

Author Rank, perché?

Il principale obiettivo di Google è sempre quello di mostrare i migliori contenuti, quelli più rilevanti e affidabili, e delegare questo compito solo al Page Rank può non sempre essere sufficiente a centrare l’obiettivo prefissato, visti i problemi con i link acquistati, ad esempio, che permettono ad un sito meno autorevole di comparire più in alto di uno autorevole.

Individuare e dare un punteggio agli autori può offrire un vantaggio e contribuire alla risoluzione del problema.

Per saperne di più: Author Rank – The Debate Continues