Web Marketing, SEO, Internet | Vistodame.com

Un osservatorio particolare su Internet

rss

10 siti dove registrare un ristorante e il suo sito web

without comments

Gestisci un sito di un ristorante con cucina tradizionale o creativa? Ti proponiamo 10 siti che possono essere utili per avere buoni link entranti, o backlink, e una buona visibilità geolocalizzata. Inoltre alcuni di essi sono strumenti molto utilizzati per la ricerca di ristoranti, trattorie, locali in genere, per cui esserci, ed avere una scheda curata può produrre direttamente nuovi contatti.

E’ importante sottolineare, anche in vista delle recenti novità sugli algoritmi di posizionamento di Google (Penguin 2.0), che i backlinks più efficaci sono quelli che aiutano il motore di ricerca a contestualizzare il sito target, rispetto all’argomento trattato, o alla localizzazione geografica, e soli questi sono utili per accrescere l’autorevolezza del “proprio” sito web.

Ecco quindi i 10 siti che riteniamo più rilevanti in questo contesto.

1. Google + local: curare la pagina dell’attività su questa piattaforma, rispettando tutte le regole dell’ottimizzazione, aiuterà il posizionamento del sito anche nella ricerca organica (che Google oggi basa fortemente sul fattore di geolocalizzazione) e aumenterà la probabilità che l’attività venga presa in considerazione;

2- www.yelp.it ottimo sito molto utile ai nostri fini, perché è un motore di ricerca per le attività locali, collegato anche con foursquare, che ha anche un applicazione sia per iphone che per Android;

3 – www.2spaghi.it, social network di appassionati della buona cucina, all’interno probabilmente il tuo ristorante è già presente come anche in yelp.it ma bisogna loggarsi per curare meglio la propria presenza al suo interno;

4 – ristoranti.travelitalia.com/it ottimo sito per viaggiatori, che raccoglie suddivise per regioni, guide, alberghi e biglietti per eventi oltre a ristoranti, utile per chi vuole organizzarsi una vacanza da solo

5 – www.qristoranti.it/ un network di ristoranti nel quale è presente anche il ristorante del noto chef Cracco a Milano,

6 – www.guidalocale.com network di ristoranti anche questo suddiviso per regioni,

7 –  www.movingitalia.it sito che cerca di promuovere l’Italia, promuovendo le località italiane, attraverso le loro festività e i loro prodotti tipici;

8 – venetoedintorni.it un sito che si propone di essere una guida enogastrnomica del veneto e dintorni

9 – www.janhara.com; sito che aiuta tutte le persone che usano il camper per le loro vacanze;

10 – www.matrimonio.com, sito tematico che offre un elenco di link ai servizi che servono per preparare un matrimonio, ristoranti, abiti da matrimonio, ecc.

L’elenco dei link che ho consigliato sono basati su una strategia che ha l’obiettivo di migliorare il posizionamento del sito relativo a parole chiave come ristorante e località oppure ristorante e regione.

Visitando questi siti noterete che hanno tutti delle caratteristiche comuni, tutti hanno cercato di inglobare al loro interno le caratteristiche principali del sito di riferimento per tutte le attività ricettive, Tripadvisor, la possibilità di inserire recensioni al proprio interno e di conseguenza cercare di creare un community e l’applicazione per smartphone.

Yelp ha entrambe le caratteristiche mentre Google con la recente acquisizione di waze sta cercando di migliorare l’unica che gli manca, l’applicazione per smartphone aggiornata dagli utenti.

Il motivo è lo stesso per il quale Google ha lanciato il servizio hotel finder, gli utenti sono abituati ad usare un servizio, nel caso dell’alloggio, booking.it, e così invece di cercare la pagina attraverso Google, gli utenti usano il motore di ricerca per trovare la pagina del servizio e poi usare il servizio per la sua finalità.

L’ultimo link rientra in questa strategia perché il sito suggerito suddivide i link per località  e il ristorante è un’ottima location per eventi.

Per ogni registrazione consigliamo di creare una descrizione diversa, in modo da non vanificare lo sforzo per contenuto duplicato, pur mantenendo però una certa omogeneità in modo da creare un filo rosso in ogni descrizione e dare una identità definita all’attività.

(Articolo scritto in collaborazione con Elena Osti)

Written by esideny

giugno 19th, 2013 at 3:50 pm

I limiti di Google nei risultati organici

without comments

Nelle ultime settimane sono stato assorbito da un progetto a cui mi sto dedicando con passione, non solo per il Web Marketing (ragione per cui non ho scritto nuovi post), più precisamente un portale dedicato ai prodotti tipici italiani e all’eno-turismo.

Un’osservazione di carattere SEO mi ha spinto a scrivere una nota sull’argomento, per mettere in luce quanto la realtà che le serp di Google (i risultati di una ricerca per parola chiave) siano ancora lontane da quel modello che ci viene presentato nelle sue linee guida per l’ottimizzazione dei siti (aggiornato peraltro nelle ultime settimane), e che comunque anche io nei miei ultimi articoli ho descritto.

La qualità dei contenuti prima di tutto, l’aggiornamento continuo degli stessi, l’originalità, ecc. ecc.

Purtroppo, blog e siti di news a parte, Google sembra ancora molto lento nel recepire le evoluzioni dei siti, sia in positivo sia in negativo, e nel dare una “ossessiva” importanza al ranking derivato dalla quantità (e qualità?) dei link entranti.

Voglio rappresentare questa mia osservazione non in modo astratto, come spesso si fa, ma in modo assolutamente concreto, facendo “nomi e cognomi”.

Una delle chiavi che sto monitorando per il mio progetto è chiaramente “prodotti tipici italiani” (dico chiaramente visto che ho palesato all’inizio di questo post che è il tema del portale).

Ebbene nell’analizzare i risultati organici e la concorrenza in Google.it oggi mi trovo ancora preceduto da un sito (prodottiregionali.net) alla cui apertura mi trovo di fronte a 4 righe di warning php (messaggi di errore) e che scopro non essere aggiornato da otto mesi (8!), quando il “mio” sito viene aggiornato quotidianamente da diversi mesi a questa parte.

Salendo di un paio di posizioni trovo un sito di e-commerce, utile certamente a chi vuole fare acquisti, ma che non dà alcun tipo di informazione che prescinda dalla vendita stessa.

Certo, stiamo parlando della differenza di una o due posizioni, è possibile che prima o poi (?) la qualità e il continuo aggiornamento del sito che sto curando faccia breccia anche negli algoritmi di Google, ma intanto la spiegazione di questa “classifica” è fin troppo chiara.

Analizzando i 3 siti coi più diffusi parametri di ranking (MozRank, MozTrust, …) e il numero di link entranti provenienti da domini diversi, Itinerarinelgusto.it ha dei numeri inferiori (in un caso leggermente, nell’altro in modo più marcato) rispetto ai due siti concorrenti.

Preciso che seguo l’evoluzione rispetto a questa parola chiave da settimane, che il sito che sto seguendo acquisisce anche in modo naturale link entranti in modo abbastanza continuo, e che soprattutto il suoi contenuti si arricchiscono con una continuità che sono convinto ha pochi eguali nel settore.

In un mondo che va sempre più veloce e che sta facendo dell’istantaneità la nuova frontiera, ha senso dover attendere mesi (!) per vedere incorporate nei risultati organici delle ricerche per parole chiave le conseguenze dell’evoluzione della qualità dei siti?

Certo, se poi si guardano altri motori di ricerca (avete avuto modo di utilizzare Volunia, il nuovo motore di ricerca italiano?) si resta ancora più basiti, e si torna ad abbracciare il caro vecchio Google, con tutti i suoi difetti.

Written by esideny

marzo 15th, 2012 at 9:02 am

Links entranti e Links interni | Strategia ottimale per migliorare il “seo rank” del sito

with one comment

Voglio terminare il “trittico” delle mie osservazioni sui falsi miti del SEO, ovvero su cosa davvero non vale la pena di disperdere tempo ed energie, e su cosa concentrare invece le proprie attenzioni, parlando dei “links“.

Questa volta voglio parlare anche dei “links”  interni (tra pagine del sito), e non solo di quelli entranti (i cosiddetti inbound-links, o backlinks).

Parto dai primi, i links interni, già che su questo ritengo di avere acquisito una certa mole di esperienze e sperimentazioni e di poter quindi smentire alcune “pratiche” che io stesso ho preso inizialmente per buone, e ho utilizzato per un po’.

Partiamo dal “presentare il problema” anche per i non addetti a lavori.

La grande domanda da cui partire è: esiste un modo “giusto” (che possa farmi guadagnare posizioni nei motori di ricerca) e uno “sbagliato” (che me le possa far perdere) per inserire i links tra le diverse pagine di un sito web?

La risposta più semplice è chiaramente SI: esistono degli errori da evitare e delle pratiche che possono aiutare il posizionamento di un sito.

C’è un “però”: si pongono moltissime questioni, e si sono scritte moltissime teorie, alimentando una certa ossessione, sulla gestione del “flusso di PageRank” (o PageRank Juice) e come spesso accade si creano falsi miti “tecnici” che finiscono per far passare in secondo piano altri fattori che davvero contano e che hanno molto più a che fare col buon senso e la qualità.

Per una volta voglio rovesciare l’ordine di esposizione. Parto con l’esporre subito le mie conclusioni più significative, per poi fare un passo indietro e riprendere il racconto dalle premesse.

Ecco le conclusioni:

1. Lasciate perdere le teorie sul “PageRank Juice”.

2. Non investite troppe energie nel mettere a punto “sottili” strategie di backlinks alla home page dalle pagine interne per rafforzare una parola chiave.

3. Non fatevi ossessionare dalle teorie sui links reciproci (utili, inutili, sbagliati, dannosi).

4. Concentratevi sul far capire le vostre priorità al motore di ricerca e selezionatene il numero in base alla forza del vostro sito rispetto ai fattori esterni.

5. Una buona struttura dei links per gli utenti (navigazione chiara, non dispersiva, capace di dare più evidenza ai contenuti più importanti, e di organizzare in modo ordinato e tematico i contenuti) andrà bene anche per i motori di ricerca.

6. Se farete questo, ne grandi danni, ne grandi benefici ai fini del posizionamento nei motori di ricerca potranno derivare dalla gestione interna dei links.

7. Non linkate mai siti di cui non avete una ragionevole conoscenza e fiducia.

8. A parte ciò, non fatevi mai frenare dal mettere links che ritenete utili o naturali per gli utenti solo per qualsivoglia presunta ragione che abbia a che fare coi motori di ricerca.

 

E ora, per chi ha voglia di capire le ragioni di queste conclusioni, ripartiamo dalle premesse.

E’ ben noto che l’ottimizzazione di un sito non va concentrata solo sulla home page, ma su tutte le pagine che presentano contenuti significativi. Agli occhi dei motori di ricerca ogni pagina, identificata da una url (Uniform Locator Resource), ha una sua individualità, ma è naturale che anche per i motori di ricerca l’insieme delle pagine di un sito sia visto come parte di un progetto unico.

Questo è tanto più vero per siti aziendali o di servizi o di prodotto.

Per rappresentare la giusta strategia nel gestire sia i links interni, in particolare quelli che dalla home page portano verso le pagine interne, che per i links entranti, mi viene facile pensare ad una fortezza di grandi dimensioni che deve essere messa in sicurezza.

Se c’è una sproporzione tra le dimensioni della fortezza e quella dell’esercito, diciamo il numero di guardie, a sua difesa, disperdere le forze con una sola guardia su ogni torrione non è una buona strategia. Con le dimensioni della fortezza voglio rappresentare la quantità di pagine del nostro sito web, con la forza dell’esercito la “forza” del sito rispetto ai fattori esterni (che vengono sintetizzati nei vari numeri di “rank”, PageRank , MozRank, ecc.), determinata dal numero di links entranti e dall’importanza dei siti da cui provengono, della reputazione derivata dai social networks, dalla sua “storia”, ecc. Un sito di nuova pubblicazione può essere, salvo eccezioni, un buon esempio di sito “debole”.

Ebbene, cosa fare se rispetto alla concorrenza le “armi” a nostra disposizione sono limitate a fronte di un numero elevato di pagine e di parole chiave su cui vorremmo emergere nei motori di ricerca?

Concentrare le energie su poche priorità.

Cosa centra questo con la struttura dei links interni ed esterni?

Normalmente un sito riceve i primi links entranti e le prime segnalazioni con riferimento alla home page, o index page. La stessa segnalazione ai motori di ricerca va fatta rispetto all’indirizzo “base”, che appunto carica la pagina di ingresso, e da qui parte la “scansione” del nostro sito da parte dei loro spider.

La home page è quindi, almeno inizialmente, la pagina più “forte”, e anche i fanatici del PageRank Juice, si preoccupano di come questa forza vada passata per mantenere e distribuire in modo ottimale il PR alle pagine interne.

A questo proposito ci si preoccupa molto del numero di links interni rispetto a quelli che “escono” dal sito, alla loro posizione nella pagina (nell’header, nel footer, ecc.) quelli “normali” che i motori di ricerca seguono e quelli “nofollow” (il modo in cui si dice che al motore di ricerca di non seguire un link). Ed è qui che nascono, a mio parere, falsi miti ed esagerazioni. E rispetto a questo cerco di sintetizzare di seguito, per punti, le mie convinzioni.

1. Il motore di ricerca deve considerare in modo diverso i links interni e quelli verso l’esterno (outbound links). Sarebbe “sciocco” da parte loro, basare la “matematica” del “rank” (della reputazione passata da una pagina ad un’altra) su algoritmi che mettano sullo stesso identico piano i links interni ed esterni;

2. se è vero che i motori di ricerca puntano e “leggere e giudicare” i siti come fanno gli utenti, il modo migliore di disporre i links, interni ed uscenti, è quello che risulta migliore per gli utenti del nostro sito;

3. in passato si trovavano molti consigli su come fosse meglio inserire i menu di navigazione rispetto alla posizione del testo, in modo da far trovare prima il testo dei links del menu, ma ritengo che oggi gli spider (o crawler ) siano abbastanza “intelligenti” per analizzare bene il contenuto di una pagina, sempre che questo sia costruito seguendo le indicazioni base che gli stessi search engines mettono a disposizione, oltre che il buon senso;

4. se il vostro sito non è un portale multi-tematico, è del tutto probabile che abbiate delle priorità chiare, delle strade privilegiate verso cui vorreste indirizzare gli utenti; è importante che queste strade siano rese chiare anche per i motori di ricerca;

5. volendo tornare alla metafora dell’esercito e della dimensione del fronte, se la vostra home page ha una “certa” forza, e viene dispersa in modo equo tra 100 pagine, questa darà un contributo trascurabile verso ciascuna; se concentrata su 5 pagine (sono chiaramente numeri esemplificativi) prioritarie, questa “forza” avrà un altro peso. Insomma se abbiamo a disposizione un piccolo esercito meglio scegliere pochi punti strategici e dare forza a questi;

6. i links uscenti verso siti di alta qualità, se sono utili per gli utenti, e quindi attinenti al tema della nostra pagina, è naturale siano giudicati positivamente dai motori di ricerca, ma il loro peso sarà relativo perché chiunque potrebbe facilmente “forzare” questo fattore se diventasse determinante;

7. i links uscenti verso siti di bassa qualità saranno dannosi o inutili per gli utenti del nostro sito, denoteranno scarsa attenzione da parte nostra, ed è quindi naturale che possano arrivare a far perdere “punti” al nostro sito web anche agli occhi del motore di ricerca;

8. fissare percentuali massime o minime di links interni e uscenti, di proporzioni tra i due tipi ecc., mi sembrano inutili esercizi matematici; è evidente che siti di tipo diverso possono giustificare percentuali di links molto diverse (basti pensare a una directory di siti, a un portale multi-tematico, a un blog, a ancora a un sito aziendale); esistono dei siti che giustificano, anzi richiedono, la presenza di molti links uscenti, mentre per altri vale l’esatto contrario. Penalizzare gli uni o gli altri sarebbe un errore che, ammesso che qualche motore di ricerca oggi compia ancora, dovrà certamente essere corretto;

9. quasi tutte le “teorie” sul modo in cui dalle pagine interne debbano linkare la home page (es. inserire all’inizio di ogni pagina un link alla home page ancorando il link alla parola chiave che si vuole spingere) hanno pochissimi effetti pratici

10. il modo in cui si linkano tra di loro le pagine di un sito è molto più importante per la costruzione di una buona struttura tematica delle diverse sue sezioni, che non per fantomatici effetti sul PR capaci di determinare fortune o sventure sul posizionamento organico del nostro sito.

 

Agli inbound links, i links provenienti da siti esterni verso il nostro, avevo già dedicato uno dei miei primi post, a cui rimando, anche se alcuni elementi potrebbero essere superati.

Il concetto base resta semplice: più links entranti si hanno da siti che trattano un argomento analogo, che hanno elevata reputazione sul tema, e che passano ancorando un testo significativo per la parola chiave valorizzata sulla nostra pagina, e meglio è.

E’ naturale che dovendo valorizzare la “tematicità” del link, i links entranti saranno tanto più efficaci quanto più “mireranno” alla pagina “giusta”, e non necessariamente sempre e solo alla home page del sito. Detto questo, un link in più non fa mai male, e meglio un link poco efficace che nessun link, a meno che questo non ci costi tempo e energie eccessive.

Anche su questi ci sono molte teorie:

- sul numero di links presenti sulla stessa pagina che indebolirebbero i singoli links (compreso quello diretto al nostro)

- sull’importanza rispetto alla posizione (il primo conta tanto e via decrescendo)

- sul fatto che con più links alla stessa pagina solo il primo conti

- sui famosi links reciproci

- sui links provenienti da siti di bassa qualità o addirittura penalizzati

Anche su questo la mia opinione è che tutto è relativo. Il motivo è che un sistema poco “intelligente” ha bisogno di “ragionare” in termini di 0 – 1. Sistemi che vanno nella direzione dell’intelligenza artificiale riusciranno sempre più a “cogliere le sfumature”.

Così potranno cogliere quanto 10 links in un testo meritano la stessa considerazione, perché l’autore che li ha inseriti aveva questa idea, e quando invece i primi contano più degli ultimi perché questo è nella logica del testo.

Così per i links reciproci, per quelli multipli, ecc.

Il consiglio quindi, anche in questo caso, è di non farsi influenzare eccessivamente dal presunto impatto sui motori di ricerca, se non nel prestare la giusta e dovuta attenzione a far emergere gli argomenti, e quindi i links, prioritari rispetto a quelli meno.

 

 

Written by esideny

gennaio 30th, 2012 at 1:15 pm

Come difendersi dai falsi miti del SEO

without comments

Voglio riprendere il discorso introdotto nel precedente post circa i “falsi miti” del SEO (Search Engine Optimization, in italiano Ottimizzazione per i Motori di Ricerca).
Ho letto di recente un’argomentazione sul fatto che il SEO non si farebbe più come un tempo, inserendo una parola chiave in tutti gli elementi possibili in una pagina (nei meta title e description, nel dominio e nella url della pagina, nel titolo H1 del testo visibile, nel nome e magari nell’alternativo di una immagine, in qualche frase del testo) perché questo, oggi farebbe scattare subito la “sirena” dello spam per Google.
Questo mi ha subito fatto scattare in testa un punto esclamativo! Ecco qui: per introdurre una cosa che può avere una suo fondamento (dire che fare SEO non è più solo un fatto di caricare di parole chiave le pagine) si finisce per agitare uno degli spettri che vanno per la maggiore, spam o penalizzazioni, concetti abusati e tirati in ballo il più delle volte a sproposito.

Spam e Motori di ricerca

Pensiamo ad una attività molto ben definita da poche parole, pensiamo a un panettiere che produce tutti i giorni “pane fresco“. Cosa ci sarebbe di male se questo panettiere decidesse di utilizzare un dominio Internet con l’espressione “pane-fresco”, o di aggiungerla nel nome di una pagina; e poi di scrivere nel “title” “pane fresco”, e magari di usare come titolo testuale della pagina “Produzione pane fresco di prima qualità“, e ancora dare il nome ad una foto “pane-fresco.jpg”, e così via.

E solo per questo l’algoritmo più “geniale” dell’era di Internet dovrebbe penalizzarlo come spam?
Se così fosse questo algoritmo dimostrerebbe meno intelligenza di una scimmia, con tutto il rispetto per le scimmie.

Il ragionamento va portato su un piano un po’ meno banale. Non occorre studiare o conoscere particolari segreti sottostanti gli algoritmi per concludere che tutti i fattori descritti sopra sono facilmente controllabili e quindi facili da “contraffarre”. Un’intelligenza artificiale che si rispetti non può accontentarsi di valutare cose che facilmente può controllare chi ha interesse di forzare un giudizio positivo per un sito web, deve cercare altri fattori più “oggettivi”.
Molti di questi fattori sono esterni ai contenuti del sito (i link entranti, i social bookmarking, le citazioni, …), e a mio parare oggi si rischia una sovrastima di questi (i risultati delle ricerche sono ancora spesso dominati da siti di bassissima qualità per il solo fatto di avere tantissimi link entranti – inbound links – ottenuti con tecniche discutibili), ma proviamo a pensare a come noi faremmo per costruire un giudizio più “intelligente” su un sito Internet.

Probabilmente giudicheremmo meglio un sito che invece che mostrarci solo una foto e una affermazione di poche righe (“faccio pane fresco tutti i giorni”) ci proponga anche gli orari di apertura del negozio, ci proponga il prezzo dei diversi tipi di pane, che presenti appunto diversi tipi di pane, magari ci descriva le materie prime usate, la loro qualità e provenienza, ci mostri diverse foto realistiche di ogni tipo di prodotto, ci suggerisca ciascun tipo di pane a quale consumo è più adatto, ecc., ecc., ecc.

Chi crea e sviluppa una “intelligenza artificiale”, e il motore di ricerca lo è, non può ignorare che sono queste le cose che contano per i potenziali clienti del nostro panettiere, e quindi deve puntare all’obiettivo di saper tradurre in numeri tutto questo.

Ora, cosa succede invece ancora oggi sul web? La maggioranza dei nostri “panettieri” (scusate se ormai insisto con questa “metafora”) ha siti del tutto simili, con contenuti essenziali e abbastanza scontati (e non mi riferisco al prezzo!), che sottoposti al trattamento SEO di turno, non possono che finire per assomigliare al tipo di sito web descritto all’inizio e a cui qualcuno vuole appiccicare, erroneamente, l’etichetta di “sospetto spam”. Ci si preoccupa che la parola chiave sia sul title, ripetuta qualche volta nei testi, sia attribuita a qualche foto, ecc., ecc.

A quel punto il nostro motore di ricerca cosa può fare? Nell’ipotesi che tutti gli altri fattori si equivalgano tra i siti concorrenti (ipotesi ovviamente limite e poco realistica, già che qualche dominio sarà più vecchio, qualche sito avrà più link entranti, ecc.) si limiterebbe a giudicare quale sito coinvolge la parola chiave una volta di più.

Certo non va commesso l’errore inverso, decidendo magari di chiamare il proprio pane “il morbidone”, o “il super-fragrante”, registrare il dominio ilmorbidone.it, titolare la pagina “Produciamo tutti i giorni la nostra specialità, il morbidone”, ecc., ecc., senza mai nominare la parola “pane”, e poi sperare che digitando “pane fresco milano” il nostro sito esca per primo su Google.

Insomma spesso è la cattiva qualità media dei siti l’origine dei propri mali, e la forzatura degli elementi più semplici da modificare senza però aumentare di nulla la qualità reale dovrebbe essere poco premiata da un buon motore di ricerca, ma lo spam lasciamolo fuori.

In conclusione:

  • è conveniente credere nel potenziale di creare siti di qualità per gli utenti, anche se questo può costare un po’ di fatica e un piccolo investimento in più; i motori di ricerca nel loro sviluppo migliorativo dovranno premiare sempre di più questa scelta
  • basare le proprie scelte su affermazioni semplicistiche nella loro limitata “assolutezza” (ripetere la stessa parola chiave su tanti elementi della pagina = spam), e prima ancora che qualcuno le scriva, non porta molto lontano.

E nel frattempo, magari, impariamo a usare bene gli altri canali di promozione e comunicazione web e digitali (oggi fortunatamente ce ne sono molti, social e non), per dipendere un po’ meno dai capricci e dai difetti dei motori di ricerca, nell’attesa che capiscano che il miglior sito della nostra nicchia è il nostro !

Ma questa è un’altra storia, che approfondirò in qualche articolo a venire.

Written by esideny

dicembre 7th, 2011 at 9:57 am

SEO: cosa conta davvero alle fine del 2011

without comments

Siamo ormai in vsta della fine del 2011, e proprio all’inizio di quest’anno risale il mio primo post su questo blog dedicato ad Internet e al Web Marketing visto anche, se non soprattutto, da un punto di vista utile ai piccoli e medi business, ovvero quelli che più da vicino ho conosciuto in 10 anni di professione nel web.

Ho quindi deciso di tirare le somme di un anno che ha visto molti cambiamenti significativi in questo mondo, in particolare per quanto concerne l’ormai celeberrimo SEO (Search Engine Optimization), ovvero la pratica professionale (almeno lo dovrebbe essere) per assicurarsi che i contenuti di un sito possano essere indicizzati al meglio dai motori di ricerca per determinate parole chiave.

Negli ultimi mesi riconosco che io stesso ho avuto dei momenti di “disorientamento”, tra l’avvento di Google Panda, l’evoluzione dei social networks, l’esplosione del social media e del geo-local marketing (il marketing che utilizza tutti gli strumenti che si concentrano sulla possibilità di raggiungere un certo target di utenti localizzato geograficamente).

Ho seguito da vicino i “patemi” di molti proprietari di siti espressi in forum specializzati, a partire da quello per webmaster di Google, terrorizzati dagli effetti che Panda e la dichiarata battaglia del leader indiscusso dei motori di ricerca contro i contenuti duplicati e di scarsa qualità, avrebbero avuto (o stavano avendo) sul posizionamento dei loro siti.

Ho seguito le discussioni tecniche di mie colleghi, con maggiore visibilità e notorietà sul web di quella che posso avere io, in cui snocciolavano le nuove certezze di cosa è giusto e sbagliato agli occhi dei nuovi aggiornamenti dell’algoritmo più celebre del web, e sperimentando per un anno intero mi sono convinto che l’unica cosa davvero sensata da affermare a chi vuole capire come gestire bene il proprio sito per assicurarsi molte visite e buona visibilità nei motori di ricerca è quella che vado a sintetizzare nella seconda parte di questo post.

SEO dopo Google Panda

Innanzi tutto diffidare di chi cerca di convincervi che lui si ha capito tutto del nuovo SEO, e che gli altri dicono un sacco di cazzate (scusate l’inglesismo). Verso chi esprime oggi troppe certezze in questo campo (il SEO) mi si accende subito un campanello di allarme, che non ci abbia lui capito molto.

In secondo luogo, e questa fortunatamente è un’argomentazione che si legge sempre più spesso, è sbagliato preoccuparsi di cosa fare, di diverso rispetto a prima, perché è uscito un nuovo aggiornamento degli algoritmi, es. Google Panda, per citarne uno che nel 2011 ha fatto discutere moltissimo. Porsi questo problema significa ammettere che in fondo quello che si ha in mente è certare di “giocare”, se non ingannare, di volta in volta nel modo più furbo, la logica adottata dai motori di ricerca.

Pensiamoci bene: una volta accettato che Google, e oggi anche Bing, hanno un interesse strategico nel cercare di dare più visibilità ai migliori siti, quelli più attinenti, nella ricerca organica, rispetto alla parola chiave con cui vengono interrogati, ne consegue che ogni sforzo, presente e futuro, andrà nella direzione di avvicinarsi il più possibile a questo obiettivo.

Obietto semmai se abbia senso affermare che esita un criterio di maggiore qualità oggettiva (già che i soggetti che cercano sono appunti soggetti, con la loro soggettività), certamente può averlo su piani statistici, ma già che i cambiamenti negli algoritmi sono certamente continui e non coincidono solo con quelli dichiarati in modo più eclatante e a cui si affibia un bel nome, che faccia il giro del mondo in pochi minuti, è pericoloso porsi l’obiettivo di inseguirli, soprattutto se si ragiona nel medio-lungo periodo.

Solo chi per motivi particolari, e a volte appunto “furbi”, è interessato solo al brevissimo termine è forse costretto a ragionare solo sull’algoritmo e su come ingannarlo, finché va bene e non si viene bannati o penalizzati.

Per tutti gli altri, a partire dalle aziende di ogni genere, consiglio di porsi il problema di come precedere gli algoritmi, e non ci come inseguirli.

Partiamo dal chiederci cosa gli utenti, il nostro target ideale, vorrebbe trovare su un sito della nostra nicchia, cosa può determinarlo a giudicarlo positivamente, meglio della concorrenza.
E ancora, come distinguere la nostra offerta da quella altrui, non solo nella sostanza, ma anche nella forma, nel modo di presentarla. Come questa possa essere chiara, nei termini usati e nella struttura, vicina al nuovo modo sempre più sociale di approcciare gli acquisti e le proprie scelte.

Solo una volta che avremo inquadrato bene questo obiettivo, sarà giusto chiedersi anche come essere sicuri che anche una “macchina” (come sono i sistemi di indicizzazione dei motori di ricerca) possa tradurre in numeri e in indici digitali, le ragioni per cui noi dovremmo risultare davvero interessanti per un utente in cerca dei nostri servizi, prodotti, o informazioni.

D’altro canto è questa la sostanza delle indicazioni che lo stesso Google nelle sue guide fornisce: create contenuti originali e di qualità; poi cercate di non fare errori perché Google riesca a comprendere bene la qualità dei vostri contenuti.

Questo significa che il SEO (nel senso più tecnico) oggi è divenuto inutile? Assolutamente no, anzi, errori tecnici possono gettare al vento quanto di buono un sito propone dal punto di vista dei contenuti, forse oggi più di ieri, proprio perché la concorrenza da un aparte, e la compessità dall’altra, possono accrescersi moltissimo anche nel corso di un solo anno.

Oggi il web è molto complesso, molto più di pochi anni fa. E’ essenziale avere un approccio professionale ad ogni aspetto di un piano di comunicazione digitale.

Significa però, dal mio punto di vista, che non esistono tecniche miracolistiche, capaci di dare risultati di lungo periodo, tanto assolutamente valide da potersi preoccupare solo di queste, e dimenticarsi della sostanza, del nostro business, del nostro marketing, e quindi del nostro sito o blog.

Vi sembra che abbia scritto cose ovvie o banali? Vi sembra che abbia espresso poca concretezza?
Sbagliato!!!
Vi assicuro che leggendo in giro è pieno, ma davvero pieno di persone che ragionano nel modo che ho indicato come sbagliato, e che prendono decisioni sbagliate e non escono dai loro problemi, perché non comprendono fino in fondo la giusta via da seguire.

La tecnica e le azioni concrete sono importanti, ma nulla valgono se la strategia ci porta nella direzione sbagliata, e d’altro canto comprendere la sostanza delle cose può rappresentare già metà della soluzione (chi ben comincia …).

Written by esideny

novembre 26th, 2011 at 10:54 am

Ottimizzare la struttura di siti complessi

without comments

Prendo spunto da un incontro avuto con un mio cliente per descrivere un concetto che può sembrare banale, ma che forse a qualcuno ancora sfugge.
Parlo ancora del problema dei problemi, per chi ha un sito Internet, ovvero della sua facile ottimizzazione ai fini del posizionamento nei motori di ricerca.
Voglio riferirmi in particolare a siti sufficientemente strutturati, per esempio con un ampio catalogo, e con diverse categorie “tematiche”.

Non sono molto originale se parlo di pensare alle keywords che si ritiene pertinenti e commercialmente interessanti per il proprio business come ad una piramide. Lo dico perché è una “teoria” già ben trattata nei blog di SEO (ottimizzazione nei motori di ricerca). Le parole più rilevanti, ma più competitive le mettiamo sulla punta della piramide; quelle meno popolari in termini di ricerche, ma più specifiche e capaci di attrarre traffico molto mirato le mettiamo in basso.

Quello che ho voluto rappresentare al mio cliente, però, è che anche la struttura dei contenuti del sito dovrebbe rispondere a questo tipo di organizzazione. Anche di questo, di una organizzazione dei contenuti piramidale o a “compartimenti”, si può trovare diffusa trattazione, ma spesso in termini molto tecnici e fin troppo analitici.

piramide contenuti e keywordsQuando si ha un sito molto ricco di contenuti, e quindi di pagine, parlo di alcune centinaia, tanto più se su più categorie tematiche, una cattiva organizzazione dei contenuti e della navigazione tra di essi può rendere molto più complicato e innaturale il lavoro di ottimizzazione ai fini di una corretta indicizzazione nei motori di ricerca.

Peraltro non sempre una buona impostazione per gli utenti del sito coincide con una impostazione ottimale per i motori di ricerca, e viceversa. Nel caso specifico il sito è assolutamente ben fruibile da parte dei visitatori grazie ad un efficiente motore di ricerca interno. Gli spider dei motori di ricerca però non sono in grado di seguire questo motore di ricerca, ed essendo vasto e tematicamente disomogeneo l’insieme di informazione presente sul sito, necessita di una struttura di archiviazione e individuazione tematica chiara. Se questa non è già naturalmente rappresentata nel menu di navigazione e nella struttura delle pagine intermedie (come profondità rispetto alla home page), è necessario fare un attento lavoro di “costruzione” di questo schema e di attenzione affinché questo venga correttamente “letto” da parte dei motori di ricerca.

Nei miei post passati già più volte ho toccato il tema dell’importanza dell’analisi preliminare dei contenuti e della pianificazione della propria strategia di web marketing, da fare prima di costruire il sito e non quando la “casa” è già stata costruita, e fare ristrutturazioni può essere complicato e costoso.

Tornando all’esempio da cui ho preso spunto potrei rappresentare il sito in questione con una struttura orizzontale in cui sotto la home page si trova una “distesa” di contenuti, con un sistema di ricerca per saltare da un punto all’alto del nostro piano, ma senza una chiara gerarchia tematica e di importanza comprensibile ai motori di ricerca.
Un’organizzazione gerarchica e tematica di tipo piramidale, invece, facilita anche la costruzione naturale di una struttura di link interni tra le diverse pagine e tra le diverse sezioni del sito che può sostenere, invece che contrastare, il buon posizionamento del sito per diverse parole chiave.
Ricordiamo infatti che il buon posizionamento per certe keywords dipende dall’autorevolezza che a una certa pagina viene conferita da parte di Google (e altri motori di ricerca) per un certo tema, e che anche un struttura interna di link ben fatta, che favorisca il collegamento tra pagine dello stesso tema e che eviti una eccessiva dispersione, in termini di link presenti sulla stessa pagina, può fare la differenza in termini di ottimizzazione.
Chiaramente questo discorso vale per siti di grandi dimensioni, se si parla di una decina di pagine o meno la criticità di questo elemento è trascurabile.
In definitiva, il mio consiglio è: create la vostra piramide di keywords da una parte, e una corrispondente piramide dei contenuti dall’altra. Garantendo all’utente di poter raggiungere qualsiasi contenuto in non più di due o tre click dalla home page, studiate o fate studiare al vostro web master  una struttura di menu, di mappa del sito, e di link interni ancorati su testo significativo, che aiuti i motori di ricerca ad attribuire autorevolezza tematica ai vostri contenuti in modo coerente con le vostre aspettative.

Written by esideny

settembre 24th, 2011 at 3:14 pm