- Home
- Post archiviati in scansione
Pubblicato il 14/04/17 - aggiornato il | Nessun commento :
Office Lens: scanner tascabile per Android, iPhone e Windows 10.
Pubblicato il 19/11/16 - aggiornato il | 1 commento :
Come digitalizzare le vecchie foto per salvarle nello smartphone, nel PC, in un CD o in una chiavetta USB.

Come usare il codice QR dell'account Twitter.

Pubblicato il 11/08/16 - aggiornato il | Nessun commento :
Scansionare documenti e libri in PDF con Scanbot di Android.

Pubblicato il 19/02/13 - aggiornato il | Nessun commento :
CamScanner per trasformare il cellulare Android in uno scanner.

Pubblicato il 24/08/12 - aggiornato il | Nessun commento :
Applicazioni per trasformare il cellulare Android in uno scanner.

Pubblicato il 18/05/11 - aggiornato il | 24 commenti :
Blogger ha modificato il file robots.txt per la scansione del crawler di Google.
Avevo notato che sugli Strumenti per Webmaster, nella sezione Errori di scansione > Non trovato c'erano degli URL molto strani che producevano collegamenti interrotti. Questo era dovuto al fatto che Blogger intende inserire la nuova funzionalità degli Argomenti Correlati. Per evitare che i blog su Blogger fossero penalizzati da questi broken links, è stato modificato il file robots.txt che dà le indicazioni al crawler di Google per la scansione dei siti.
Dopo aver eseguito l'accesso negli Strumenti per Webmaster e aver selezionato il vostro blog, se andate su Configurazione Sito > Accesso Crawler > Analizza robots.txt vedrete un file di questo genere

Pubblicato il 12/04/11 - aggiornato il | Nessun commento :
Come impedire l'indicizzazione delle immagini o di un contenuto.
L'obiettivo di un blogger è in linea di massima quello di riuscire a farsi indicizzare tutti i contenuti del blog per riuscire ad avere più traffico possibile dai motori di ricerca. Tutti i siti però non sono uguali e ci sono blog nati con altre finalità. Mettiamo che venga creato un sito in cui vengono postate immagini di vita familiare; credo che chi lo pubblichi non ami vedere le foto dei propri figli inserite nei risultati di Google Immagini. Se per favorire l'indicizzazione delle foto era opportuno inserire i tag Title e Alt, per impedire che vengano indicizzate possiamo regolarci in questo modo.
Andiamo su Design > Modifica HTML e cerchiamo la riga
<title><data:blog.pageTitle/></title>
Immediatamente sopra incolliamo il codice
<meta name="robots" content="noimageindex"/>
che darà istruzioni ai bot dei motori di ricerca di non indicizzare le foto. Purtroppo questo sistema impedirà la comparsa nei risultati di ricerca di tutte le foto presenti in tutti gli articoli del blog.

Pubblicato il 07/06/10 - aggiornato il | 3 commenti :
URLVoid per controllare che in un sito non siano presenti virus o altro malware.
URLVoid è un servizio gratuito sviluppato da NoVirusThanks Company, che è in rete dal 21 Maggio 2010 e che consente agli utenti di eseguire la scansione di un indirizzo web con più motori per facilitare l'individuazione di minacce potenziali. Anche se un sito risultasse pulito per tutti i motori non sarebbe comunque da considerarlo innocuo al 100%.
I risultati vengono immagazzinati in URLVoid per 5 giorni al fine di evitare ripetizioni di scansioni troppo ravvicinate. Prima di immettere i dati occorre essere certi che il sito (o la pagina) esistano realmente.


Pubblicato il 10/02/10 - aggiornato il | 21 commenti :
Cosa sono gli Errori di Scansione e perché non bisogna eliminare alcun articolo del blog.
Nella Bacheca per Webmaster sono mostrati quelli che sono indicati come "Errori di scansione". I principali riguardano
- Non trovato - quando a un indirizzo del tuo sito non corrisponde il relativo post
- Non seguito - quando il reindirizzamento non è andato a buon fine
- URL soggetti a restrizioni in robots.txt - quando nel nostro file robots.txt ci sono delle indicazioni per non indicizzare delle pagine
- Timeout - Pausa durante la scansione per la ricerca dei DNS o della connessione al server o durante l'accesso al file robots.txt
- Errori HTTP - si è rilevato un errore durante la visualizzazione dell'URL che ha rimandato un messaggio del tipo "404 Not Found" o simile
- URL non raggiungibile - Indica un problema generico che può essere relativo a uno dei precedenti casi
Lo stato del vostro sito relativamente agli errori di scansione potrebbe quindi generare una tabella di questo genere
Ho evidenziato i due valori diversi da zero per approfondirne il significato. Se siete utenti di Blogger non vi dovete stupire, né preoccupare, del numero di pagine presenti in "Soggetto a restrizioni da robots.txt". Queste dipendono dal fatto che, per scelta, Blogger impedisce di indicizzare le pagine del tipo nomeblog.blogspot/search/label/nome-etichetta attraverso il file robots.txt che ha il comando Disallow: /search. Ve ne potete rendere conto guardando online il vostro file che si trova all'indirizzo nomeblog.blogspot.com/robots.txt; quello di questo blog per esempio si può vedere qui. Tutte le cartelle che contengono le etichette non vengono quindi indicizzate per non creare doppioni con i singoli post. Il numero più o meno alto dipende esclusivamente dal numero di post e dal numero delle etichette che avete utilizzato.
Un discorso diverso lo meritano i link non trovati. Ci possono essere varie cause anche indipendenti dalla nostra volontà.
- Blogger ha sbagliato a inserire il link - succede più spesso di quanto non si creda perché per un bug del sistema Blogger non inserisce correttamente il link. Mi è capitato già qualche volta lo raddoppi, cioè che inserisca l'URL dell'homepage del blog prima di quello da inserire. Si può ovviare rieditando il post
- Qualcuno ha linkato un tuo articolo ma in modo non corretto - Si può avvertire chi lo ha fatto oppure si può anche evitare perché comunque non è cosa che tocca il nostro sito. Per esempio molti blog hanno linkato il mio articolo "Tutti i blogger che usano Adsense sono tenuti…". Purtroppo nel codice della scritta scorrevole, che rimanda all'articolo ,in un primo tempo avevo inserito per sbaglio le virgolette inglesi al posto di quelle canoniche. Adesso ho rimediato ma alcuni blog che hanno quella scritta scorrevole non hanno aggiornato il codice.
- Abbiamo sbagliato a linkare una nostra pagina - questo errore si può riparare facilmente andando a rieditare il post in cui è presente l'errore di collegamento
Ho lasciato per ultimo il caso che riguarda il titolo del post e che è quello che bisogna assolutamente evitare. Vi sarà certamente capitato di aver scritto un articolo che non vi piace, di esservi pentiti di averlo scritto o che vi è stato chiesto di eliminare per problemi di copyright. Nel caso in cui Google l'avesse già indicizzato, se lo cancellate, ve lo dà come errore di scansione. Un errore al quale non si può rimediare in alcun modo perché anche volendo non si può produrre un articolo con un permalink identico a un altro.
Questi errori di scansione, specie se sono ripetuti, possono influire negativamente sulla nostra "reputazione" nei confronti di Google.
L'alternativa all'eliminazione dell'articolo è semplicissima; si apre l'editor di Blogger, si cancella tutto il post, si inserisce un messaggio come "Questo articolo è stato rimosso" e si ripubblica l'articolo.

Pubblicato il 25/06/09 - aggiornato il | 2 commenti :
La Bacheca per webmaster finalmente da dei dati coerenti per quanto riguarda Sitemap, errori di scansione, titoli duplicati, tag non ammessi.
Se siete utenti di Blogger, non so cosa è successo con le altre piattaforme, da quando era stata modificata la grafica della Bacheca per Webmaster avrete notato diversi strani comportamenti che si possono riassumere così
- Venivano inviati solo pochi URL della Sitemap
- Lo stato della Sitemap invece di essere su OK dava Avvisi o addirittura Errori
- Venivano mandati dei messaggi di tag non ammesso per tag assolutamente sconosciuti
Qualcun’altro forse avrà rilevato ulteriori anomalie. Da ieri sera la situazione è decisamente migliorata. Scegliendo uno dei nostri siti e andando su Configurazione Sito > Sitemap finalmente è ricomparso il segno di spunta verde che indica che è tutto OK e i link inviati e indicizzati hanno ripreso ad essere un numero coerente
Deve essere stato inoltre eliminato quel bug, intrinseco a Blogger, che contrassegnava come titoli duplicati quelli che invece non erano altro che una doppia indicizzazione del post e del post più commento. Infatti se andiamo su Diagnostica > Suggerimenti HTML queste notifiche sono scomparse
con un rassicurante “Non abbiamo rilevato alcun problema con i contenuti del tuo sito”.
Permane invece ancora qualche piccolo problema per quanto riguarda gli Errori di Scansione che possono essere raggiunti sempre da Diagnostica
Per quanto riguarda la parte evidenziata in rosa si tratta delle cartelle search e che riguardano le singole etichette. Per scelta Blogger impedisce la loro indicizzazione per evitare duplicazioni con l’articolo vero e proprio. Infatti nel file robots.txt che è comune a tutti i blog su Blogger e che potete trovare su Configurazione Sito > Accesso Crawler è presente il comando Disallow: /search
Questa comunque è una cosa che risale agli albori di Bogger/Blogspot, che tra l’altro proprio in questi giorni ha compiuto i dieci anni di vita, e che non pregiudica l’indicizzazione degli articoli.
Per quanto riguarda i link non trovati, evidenziati in azzurro, sussistono ancora delle difficoltà
nel senso che a me ha dato 5 link non trovati, in un caso andando nella pagina indicata sono riuscito a trovare l’errore, che non dipendeva da me ma da Blogger , ma negli altri quattro dove siano questi link mi è ignoto. Comunque è già un bel passo in avanti visto che pochi giorni fa dava molti più link non trovati di questo tipo.
