28 giugno 2005

Profilo di un navigatore internet

Uno studio statistico effettuato negli USA nel 2004 su un campione di 2200 adulti dalla Pew Internet & American Life Project, sostiene che chi fruisce dei search engine ha un opinione generalmente positiva ed evidenziano che ancora non vengono utilizzate a pieno le potenzialità dei motori. La ricerca dimostra un scarsa conoscenza delle strategie di ricerca e di come vengono organizzati i risultati dopo una query. Circa l’84% degli utenti adulti Internet degli Stati Uniti, in numeri siamo vicini i 108 milioni, usano i motori di ricerca per reperire informazioni. Ogni giorno 68 milioni di navigatori usano Internet e di questi oltre 38 milioni accedono a servizi di ricerca. L’attività di ricerca rimane seconda solo dopo l’utilizzo dell’e-mail che e’ pari ad 1/3 degli utenti giornalieri di Internet.Il 44% degli utenti, usa con regolarità uno solo motore di ricerca mentre il 48% ne usa due, al massimo tre; una piccola percentuale il 7% ne usa piu’ di tre. Il 38% ha conoscenze avanzate rispetto ai criteri di classificazione dei risultati.

Google indicizza il flash


E’ disponibile un nuovo operatore di ricerca dei file .swf relativi alle animazioni Flash attraverso Google.
Una freccia in più nella faretra di Google è la ricerca all’interno dei dati, dei file che costituiscono le introduzioni e le animazioni più diffuse sul web.
Per cercare solo animazioni Flash è sufficiente inserire, insieme alle parole chiave, l'operatore filetype:swf. Sono 582.000 le animazioni di introduzione di siti indicizzate da Google...

18 giugno 2005

Google Wallet...e Paypal trema

Google dovrebbe lanciare un nuovo servizio di e-payment denominato Google Wallet, sullo stile di Paypal, nel corso di quest'anno stando a quanto rivelato dal Wall Street Journal. In tal modo Google potrebbe diversificare il suo revenue e diventare attivo concorrente di Ebay e del suo noto sistema di pagamenti Paypal.

Un servizio di pagamenti potrebbe rappresentare una notevole forma di espansione per il noto motore, al di la' dell' advertising online che rappresenta il 99% delle sue entrate nel 2004. E' noto infatti che i provider di sistemi di pagamento online prendono una commissione su ogni transazione

16 giugno 2005

Yahoo! acquista Blo.gs e compie il primo passo nella Blogosfera

Da un paio di giorni si è conclusa l'acquisizione della directory Blo.gs da parte del colosso Yahoo!. La cifra con la quale il noto motore di ricerca ha comprato Blo.gs non è stata ancora resa nota, ma senza dubbio è palese la felicita' del proprietario del noto sistema di tracking dei blog , Jim Winstead:

"this is the sort of good home that i was looking for — yahoo! obviously has the resources to run and improve blo.gs in pace with the incredible growth of blogs (and syndication in general), and in talking with them it was also clear that we had some of the same vision for the future of the service and the ping/notification infrastructure"

Solo 3 mesi fa sulla home page di Blo.gs compariva l'annuncio: blo.gs is for sale
Blo.gs attualmente gestisce quasi 9 milioni di blog per circa 12.500 utenti

13 giugno 2005

Feedmap: dove le mappe incontrano i blog


Feedmap
Segnalo un sito interessante, Feedmap che permette la localizzazione geografica del vostro blog e dei relativi bloggers vicini a voi.Il sito è accessibile a quest'indirizzo: http://www.feedmap.net/BlogMap/Il servizio ovviamente è gratuito.

12 giugno 2005

Studio sugli "sponsored links"

Una recente ricerca della Penn St. University mostra come i consumatori mostrino una preferenza verso risultati organici dei motori di ricerca, rispetto ai link a pagamento tipici di campagne di advertising pay per click, ed inoltre prende in esame il come questi sponsored links vengano giudicati dai consumatori stessi. I ricercatori ritenevano che i consumatori considerassero come meno rilevanti gli sponsored link rispetto ai risultati della loro query. In realtà hanno verificato che una volta che i consumatori hanno analizzato il contenuto di un link a pagamento, questo è stato giudicato rilevante tanto quanto il risultato organico del motore di ricerca. In particolar modo è emerso che la descrizione (67%) dello sponsored link rappresenta il criterio primario per stabilire se un risultato a pagamento è rilevante. Il Title (56%) è la base per stabilire se un risultato a pagamento non è rilevante.

09 giugno 2005

Previsioni sull' Ecommerce

Secondo una analisi svolta da Forrester Research nel 2010, circa il 12% delle transazioni B2C - ossia oltre un dollaro su 10 della spesa dei consumatori americani - avverranno attraverso il canale online. E, se la penetrazione del canale online non è ancora così importante per il mercato italiano, i tassi di crescita superiori al 20% annuo indicano, anche per gli operatori dell'offerta, uno scenario dal quale non si può più prescindere...

07 giugno 2005

Google Evaluation Console - eval.google.com

Arriva da Searchbistro una notizia abbastanza sconcertante: sembra che Google stia assumendo personale per effettuare controlli sulla qualità delle ricerche e per filtrare le stesse attraverso un controllo, per cosi dire, "umano". Searchbistro, inoltre mostra, per avvalorare la notizia, mostra il link utilizzato da Google per per la ricerca del personale ed anche un'animazione Flash che mostra il pannello di controllo riservato, cui solo il personale adibito al controllo della qualità delle ricerche può accedere. Tale pannello di controllo è accessibile all'indirizzo eval.google.com solamente nel caso in cui si disponga di un'apposita login ed il network da cui si accede sia noto a Google. Uno screenshot è disponibile cliccando qui.
Per ora stiamo a vedere...

L' Email diventa certificata

La posta elettronica diventa certificata.

Il 28 gennaio 2005 il Consiglio dei ministri ha dato l'ok definitivo alla posta elettronica certificata.

Il decreto disciplina le modalità di utilizzo della Posta Elettronica Certificata (PEC) non solo nei rapporti con la PA, ma anche tra privati cittadini.

Si tratta di un provvedimento che dà valore giuridico alla trasmissione di documenti prodotti ed inviati per via informatica.

Il decreto pone in rilievo i due momenti fondamentali nella trasmissione dei documenti informatici: l'invio e la ricezione. “Certificare” queste fasi significa che il mittente riceve dal proprio gestore di posta una ricevuta che costituisce prova legale dell'avvenuta spedizione del messaggio e dell'eventuale allegata documentazione. Allo stesso modo, quando il messaggio perviene al destinatario, il suo gestore di posta invia al mittente la ricevuta di avvenuta (o mancata) consegna, con l'indicazione di data ed orario, a prescindere dalla apertura del messaggio. Insieme alla ricevuta di consegna, inoltre, il gestore del destinatario può anche inviare al mittente la copia completa del testo del messaggio.

A fare da garanti dell’avvenuta consegna dell’e-mail saranno i gestori di posta che dovranno iscriversi in un apposito elenco tenuto dal CNIPA che svolgerà funzioni di vigilanza e controllo sul rispetto delle prescrizioni previste dal regolamento.

Il decreto era stato approvato, in via preliminare, dal Consiglio dei Ministri il 25 marzo 2004.
(Fonte Governo.it)

06 giugno 2005

Dopo la fusione, ora il Re-Brand = MIVA

Sinergie del search engine marketing in arrivo: Espotting e il Gruppo FindWhat cambieranno nome e identità in MIVA. Come azienda globale, MIVA è il più grande network indipendente di performance marketing. Nasce quindi una nuova realtà nel mondo del pay per click advertising.

Yahoo! Mindset

Yahoo! ha recentemente lanciato un nuovo servizio, ancora in versione beta, denominato Mindset . Tramite questo nuovo tool, è possibile "guidare" i risultati di una ricerca, rispetto ad una data query, secondo 2 parametri: commerciale o non commerciale, attraverso una barra presente in cima ad i risultati di ricerca. Di default la barra è settata sul valore "0", equivale a dire che i risultati offerti sono bilanciati rispetto ai 2 parametri su indicati.
Facile intuire che modificando la posizione del selettore posto sulla barra, si otterranno risultati orientati piu' o meno a carattere commerciale.

Provare per credere: http://mindset.research.yahoo.com/

Google Print


La nuova iniziativa proveniente dal Googleplex è rappresentata dal servizio Google Print, ancora in versione beta.
Tale servizio è accessibile all’indirizzo: http://print.google.com/ . Questo nuovo strumento va ad integrare la qualità dei risultati offerti dal noto motore di ricerca. In che modo? Semplicemente rendondo consultabili le pagine dei libri che ci interessano. Nel caso il materiale sia coperto da Copyright, potremo consultare solo alcune pagine del materiale che ci interessa. In assenza di copyright, saremo in grado di sfogliare e consultare i libri per intero.
Per realizzare Google Print, il noto motore di ricerca sta collaborando con Editori e Biblioteche. l'obiettivo principale di questa collaborazione sembra essere non quello di rendere disponibili quantità infinite di libri, bensì quello di aiutare i navigatori internet a reperire i libri di loro interesse, permettendo così a Google di offrire risposte ancor più articolate. Il progetto di Google è dichiaratemente rispettoso del copyright e dei libri stessi, visto che i testi più delicati non vengono digitalizzati; inoltre nel corso delle operazioni di codifica, i libri non vengono in alcun modo danneggiati.

05 giugno 2005

Google Sitemaps

Eccovi l'ennesima novita' dal mondo di Google: sto parlando della nuova funzione Sitemaps. In sostanza, da oggi in poi, i webmaster ed in generale i proprietari di un dominio, potranno creare un sitemap in XML da posizionare sui loro webserver, in modo da agevolare il lavoro dei crawler del noto motore di ricerca e rendere loro noto ogni qualvolta viene aggiunto un nuovo link al sito.

La guida completa a questa nuova funzione è disponibile cliccando qui.
E' bene comunque precisare, che nonostante tale agevolazione, Google non garantisce l'inserimento di tali link aggiuntivi nel proprio indice.

02 giugno 2005

Google TrustRank - 2° Parte

Definizione preliminare dell’algoritmo PageRank:
Il PageRank è un diffuso algoritmo, sul quale si è basata per anni (e si basa tuttora) l’indicizzazione di Google, che assegna un punteggio ad ogni pagina, basandosi sul numero di link che puntano ad essa. Il fondamento del PageRank è che una pagina deve essere ovviamente importante se molte altre pagine puntano con un link ad essa. Il PageRank può essere considerato una versione più raffinata e complessa della "Link Popularity" (LP). Il PageRank di un sito aumenta in relazione alla qualità delle pagine web che linkano il sito (per pagine web di qualità si intendono quelle che a loro volta hanno un alto PageRank). (per una definizione più completa si rimanda a documentazione specifica)Basi del trustRankLa determinazione certa di una pagina può provenire esclusivamente dalla soggettiva valutazione umana, l’esperto in questione viene definito Oracolo.
Da questo è possibile comunque generare un semplice algoritmo che assegna una valore binario pari a 0 se la pagina contiene spam (bad page), oppure pari a 1 se la pagina è da considerarsi di buona qualità o senza spam (good page).L’intervento dell’Oracolo come detto porta via molto tempo ed è anche costoso in altri termini, non è possibile un suo intervento costante. Per diminuire gli interventi dell’Oracolo è possibile adottare una tecnicabasata sull’esperienza che ogni singolo navigatore del web può avere: una pagina buona difficilmente punta a una pagina cattiva. Questo perché l’autore di una pagina con una qualità elevata difficilmente ha interesse che venga collegata con pagine con una qualità minore o nulla. Per questo motivo le tecniche di spam hanno cominciato ad adottare dei sistemi per collegare pagine che a prima vista sembrano buone, a pagine contenenti web-spam, con varie tecniche:
ntroduzione nei siti che offrono la possibilità ai visitatori di inserire commenti, di un numero elevato di link verso le pagine cattive (questo problema viene risolto con la moderazione dei commenti o con la futura introduzione del tag link rel=”nofollow” –NDR). Tecnica valida anche per forum o web chat.
Creazione di pagine che offrono contenuti validi, ma che hanno un elevato numero di link nascosti verso siti equivoci. Questa tecnica GIUGNO 2005 “Combating web spam with TrustRank” disponibile qui: viene definita Honey Pot. Per avvalorare questa tecnica chi crea queste pagine inserisce anche numerosi link verso pagine buone.
Creazione di directory basate sui risultati dei principali motori di ricerca, che utilizzano dei motori chiamati spam-engine, per piazzarsi nei primi posti delle ricerche.In questi casi di esempio, adottando un algoritmo che funzioni da Oracolo, potrebbero crearsi situazioni equivoche. Se abbiamo un sito di 100 pagine, con 70 pagine buone (quindi con valore binario pari a 1) e 30 pagine cattive (con valore binario pari a 0), si avrà un indice di fiducia intermedio. In questo caso solo l’occhio umano riesce a stabilire una verità certa.

Inverse PageRank
Una tecnica valida per stabilire la qualità di un sito potrebbe venire dall’inversione della tecnica del PageRank. Ovvero dare una preferenza positiva a quella pagine dalla quale è possibile raggiungere molte altre pagine, basandosi quindi sul numero dei link uscenti (outbound links). High PageRankPer realizzare questa tecnica è stata effettuata una query su un motore di ricerca che utilizza PageRank come tecnica. Ogni risultato avrà vicino risultati con PageRank simile. Questo perché il PageRank si propaga tra i link. Pagine con un elevato PageRank saranno collegate a pagine con un PageRank simile. Sperimentazione del TrustRankPer valutare l’algoritmo TrustRank, il team ha usato l’indicizzazione del motore di ricerca Altavista. Per ridurre la complessità del sistema i test si sono svolti prendendo in considerazione la totalità di ogni sito web, e nonogni singola pagina che lo compone. Quindi diversi miliardi di pagine sono stati raggruppati in 31.003.946 siti, usando uno degli algoritmi proprietari di Altavista. Osservazione: un terzo dei siti selezionati non avevano alcun tipo di classificazione, questo perché l’algoritmo PageRank che propaga la fiducia si basa sulla presenza di link tra i siti. Ma questi siti comunque avevano un indicizzazione bassa, non è stato difficile quindi separare manualmente siti buoni e siti cattivi.Questo tipo di controllo ha portato via delle settimane, ulteriore conferma dell’impossibilità dell’intervento completamente manuale.Comparazione Inverse Page Rank / High Page RankCome prima azione è stata adottata la tecnica definite Inverse Page Rank per selezionare dei siti, dei quali sono stati esaminati i primi 25.000 risultati. Da questi è stato necessario eliminare una serie di siti per due motivi principali:
alta presenza di siti-cloni della directory DMOZ, a scopo di webspam.
alto numero di siti non indicizzati in nessuna directory principale equindi reputati poco attendibili.

Dopo questo passaggio i siti attendibili si sono ridotti a 7.900. Di questi sono stati esaminati manualmente i primi 1.250 per selezionarne 178 da usare come gruppo (seed) di siti buoni.Il numero relativamente ridotto della sezione ha consentito di adottare dei criteri molto rigidi di determinazione tra web-spam e pagine buone. Nonostante questo è stato adottato un secondo filtro per selezionare i siti con una sicura e certa autorità (come siti istituzionali o di grandi compagnie). Questo secondo filtro si è reso necessario per garantire una buona longevità del gruppo della selezione (seed).

Valutazione dell’operatore del TrustRank
Al fine di valutare la funzionalità del sistema TrustRank bisogna sottolineare nuovamente come il sistema Page Rank non garantisca in alcun modo la qualità dei siti indicizzati. Invece il sistema TrustRank effettua una netta separazione tra siti buoni e siti definiti come web-spam.Questi ultimi difficilmente possono avere un indice TrustRank molto elevato.Dagli esempi è possibile capire l’efficacia dell’algoritmo TrustRank:

TrustRank quindi rimuove gran parte del web-spam dai risultati preminenti per una certa ricerca. Quindi garantisce come i siti più rilevanti siano buoni, ovvero di qualità elevata e senza web-spam. E’ importante specificare come guardando in basso, si evince che i siti meno rilevanti difficilmente siano distinguibili da quelli contenenti spam.ConclusioneCon la crescita smisurata delle fonti e dei siti sul web i motori di ricerca giocano un ruolo fondamentale per la ricerca e soprattutto l’effettivo successo nella ricerca di informazioni.Il web-spam demolisce questa capacità di successo nella ricerca di informazioni utili. I motori di ricerca quindi devono necessariamente evolvere. Il sistema TrustRank, anche in combinazione al PageRank o altri algoritmi potrebbe contribuire a questa evoluzione. (Fonte Studio Cappello)

Google TrustRank - 1° Parte

Google, lo scorso Marzo, ha registrato il marchio 'TrustRank' presso la U.S. Patent and Trademark Office. Qual è il suo significato in relazione alle future iniziative di Google? E quanto questa applicazione e la sue funzionalità potenziali si possono adattare al Google Page Rank?
Il PageRank è il cuore del motore di ricerca di Google ed è un sistema di misurazione che rappresenta un ossessione per tanti web publisher.
Il PageRank valuta e classifica i siti web in relazione attorno ad un valore determinato dal numero dei siti che linkano ad esso.
Sebbeno Google PR determini l'importanza di un sito web, non determina il suo valore in termini di credibilità del contenuto. Gli spammer, inoltre, sono stati in grado di manipolare, attraverso vari strumenti, il Page Rank dei loro siti. Per questo si è pensato ad un meccanismo per valutare il TrustRank, ossia l'indice di credibilità di un sito web e ricercatori del Digital Library Technologies dell'Università di Stanford hanno creato un documento intitolato "Combating Web Spam with Trust Rank".
Il documento è estremamente tecnico ed adatto solo a coloro che hanno una conoscenza approndita di algoritmi e computer. Qui c'è un estratto per coloro che non hanno conoscenze tecniche.
"Le pagine di web spam utilizzano varie tecniche per raggiungere risultati alti nella classifica dei motori di ricerca. Mentre esperti umani possono identificare lo spam, risulta troppo costoso valutare manualmente un gran numero di pagine. Invece noi proponiamo tecniche semi-automatiche per separare le pagine degne di reputazione da quelle di spam.Per prima cosa selezioniamo un piccolo set di pagine per essere valutato da un esperto. Una volta che noi manualmente identifichiamo le pagine degne di reputazione, utilizziamo una struttura di link per scoprire altre pagine che probabilmente sono buone.In questo documento discutiamo le vie possibili per implementare la selezione e la scoperta di queste pagine.Presentiamo i risultati di questi esperimenti sul World Wide Web indicizzato da Altavista e valutiamo le performance delle nostre tecniche.I nostri risultati mostrano che noi possiamo efficacemente filtrare lo spam da una frazione significante del Web, basata su di un set di 200 siti."
Il documento poi presenta la metodologia di ricerca e i risultati nell'ordine seguente:

1) Noi formalizziamo il problema dello spam sul web e gli algoritmi per rilevarlo.
2) Noi definiamo le metriche per valutare gli algoritmi di rilevamento.
3) Noi presentiamo set di strutture per selezionare set di pagine da essere valutate manualmente.
4) Noi introduciamo l'algoritmo di Trust Rank per determinare la probabilità che queste pagine siano degne di reputazione.
5) Noi discutiamo i risultati di una valutazione estesa, basata su 31 milioni di siti scansionati da AltaVista e una valutazione manuale di più di 2000 siti.Noi forniamo delle statistiche interessanti sul tipo e la frequenza dei contenuti incontrati sul web ed utilizziamo i nostri dati per valutare gli algoritmi proposti.
Il Web come noi lo conosciamo sta divenendo sempre più caotico e il TrustRank potrebbe divenire un fattore importante per la sua sopravvivenza a lungo termine come deposito dell'informazione globale.

Search engine optimization : Linking strategies

Website link popularity is used to indicate how many other webpages link to your web page. It is calculated by counting thenumber of web pages that contain your link, also known as inbound links.

Proper website linking strategies can help you gain inbound links which in turn can greatly improve your search engine ranking. For this reason, it's wise to maintain link popularity strategies as part of your overall search engine optimization efforts.

There are several linking techniques and strategies used to obtain inbound links. Here are a few popular strategies that just may bring you the results you need:

1. Reciprocal linking
This strategy involves exchanging links with other sites. You put their link on your site, they put your link on theirs. Probably the most common linking strategy, but there are a few do's and don'ts to keep in mind:

- Link only to sites that have a page rank.It's my preference to link to sites that have a page rank of 4 or better, however lower ranking is certainly acceptable.
I don't, however, recommend linking to sites that have no page rank at all. Sites that are penalized by the search engines for spamming or other various reasons will not achieve page rank, therefore; if you link to them you are liable to be penalized as well. This is not to say that all PR0 sites are being penalized,this is not the case at all, but since you have no way of knowing for sure, it's safer, in my opinion, to wait until the site gains some sort of page rank before you link to it.

- Look for sites with high page rank but few links.The higher the page rank and the fewer the links, the better. Stay away from link farms, these are typically sites with low or no page rank and many, many links.

- Link only to like sites.Link to sites that are related to your site's topic. If your website is about pet care, link only to sites that are about pet care.

- Include your best keywords in the title and description that you give to your reciprocal link exchange sites. This creates association between your keywords and your site.

- Place your very best link exchange sites on your home page.Don't overload your homepage with links, however it's acceptable to include a few high page rank links.

- Try to make sure the links coming into as well as going out from your page are related to the content on your page. Also try to keep the text of the link itself related to your page's topic.

2. Write articles and submit them to sites that accept articles.
Submit your articles with your resource box containing your name and website address. Article sites often have high page rank. Also, if someone decides to use your article on their site or in their newsletter you've just received a newinbound link.

3. Write product testimonials for products you found worthwhile and make sure the testimonial contains your website address. You will not only gain an inbound link, you can draw traffic from those that read your testimonial.

4. Include your own website's navigation as a linking strategy
Every page of your site should include links to the rest of your site. It's a good idea to include a site map as well. Keep all your site navigation links consistent on each page.

5. Create useful and unique content on your website that will compel others to link to you. This will not only help improve your link popularity but it will also satisfy the search engines and very possibly increase your keyword search ranking.

6. Join Forums
Ask questions and contribute your knowledge.This will allow you to place your site URL in your signature line, which in turn creates an inbound link for you.
(Entireweb)