sexta-feira, 30 de março de 2007

Yahoo! retira links de diretório do resultado de busca orgânica

Um participante do Search Engine RoundTable reparou a mudança e contou para todos: o Yahoo! removeu da sua busca orgânica os links que levavam para o diretório do buscador.

O diretório continua, porém não aparece mais no resultado de busca orgânica, como confirma as prints que os blogs Search Engine Land e Search Engine Roundtable fizeram.

Os representantes do Yahoo! confirmam a mudança e o principal motivo foi para não evitar cluster e melhorar a experiência do usuário.

Update de algorithmo, retirada do diretório da busca orgânica....e o Yahoo! não desiste de suas origens. :)

quinta-feira, 29 de março de 2007

Google faz update de canonalização

Já comentei aqui no blog sobre o problema de URL canonicais.
De forma bem resumida, canonalização é um processo onde o buscador escolhe a melhor URL quando existem varias semelhantes. Semelhantes, porém não iguais.

Para o Google as URL

www.example.com
example.com/
www.example.com/index.html
example.com/home.asp

são diferentes. URL diferentes que tem o mesmo conteúdo. Daí já temos dois problemas: canonical+ duplicação de conteúdo.

Não é que o Google irá identificar isso como SPAM. Problema canonical é muito comum, assim como a duplicação de conteúdo.

Quando o buscador tem que escolher um URL, ele automaticamente não dá relevância para as outras. Isso significa que estamos perdendo relevância. Se tivéssemos foco em uma URL a relevância poderia ser maior.

Nesta atualização que Matt Cutt anunciou em seu blog é para melhorar a forma de como o spider irá canonalizar um numero pequeno de URL. Isso não irá afetar o Page Rank da página, salvo para URL canonicais diferentes.

Agora, se você quer evitar o problema canonical em seu site, Matt tem duas dicas:

* Escolha uma URL para utilizar em seu site e links
* Você pode ter mais de uma URL, porém precisa fazer o redirect 301, para que o Google entenda.

Como fazer o redirect 301? O site Beyong ink explica como fazer no Apache, IIS, PHP, ASP e couldfusion.

sexta-feira, 23 de março de 2007

Os buscadores não lêem pop up?

Vamos acabar com este mito.

Os buscadores lêem pop up sim, desde que esteja bem feito.
Pop up são páginas web, então pode ser lido pelos buscadores.

O que faz o buscador chegar até essa página são os link, que devem estar em a href ou src, o que o spider consegue seguir. Se seguir essas regras, o buscador chega no pop up e le normalmente, como se fosse uma página web normal.

Agora, se este link estiver em javascript, não. O spider não entende como link, pula essa informação e ignora seu pop up.

terça-feira, 20 de março de 2007

Conteúdo Duplicado: o que é verdade e o que é mito.

Às vezes acho que as pessoas enxergam os buscadores como o próprio demonio que vive conspirando para os sites fiquem lista de SPAM.

Por exemplo, a questão do conteúdo duplicado, muito que se pensa é mito. Não que os conteúdos duplicados não sejam um problema para os buscadores. São, sem duvida nenhuma. Há muitas tentativas de enganar os buscadores. Mas, na grande maioria das vezes, são somente filtros, não penalidades. Filtros que existem para que a seleção das páginas nos resultados de buscas sejam mais relevantes para o usuário. Não podemos nos esquecer que este é o principal objetivo dos buscadores: gerar melhores resultados para as buscas. As vezes pensamos que estamos sendo punidos, mas não, são filtros somente.

As penalidades são reservadas para páginas que, de uma forma ou de outra, tentam enganar os buscadores. Para surpresa de muita gente, conforme escreve Jill Whalen na sua coluna no Search Engine Land, penalidades raramente acontecem. E quando ocorrem tem um motivo real para ter acontecido.

Os buscadores não são do mal. Eles têm filtros que tem como único objetivo de gerar melhores resultados, nada além disso. Se seu site não tem nada que tem engane os buscadores, então não tema. São só filtros. Os conteúdos duplicados não são SPAM, os SEs só querem apresentar para o usuário uma maior vairedade de resultado para o usuário. Os buscadores não conspiram contra os sites.

Deixo claro que não sou a favor da duplicação de conteúdos. Mas tê-los não é o fim do mundo. Vale muito a pena usar os redirects para URLs que levam para o mesmo conteudo, para evitar problemas canonicais, como afirma Matt Cutts.

Ah, toda quinta-feira tem um post na nova coluna do Search Engine Land, chamada de 100% Organic, escrita por Jill Whalen.

No blog do Google há um post muito interessante sobre o que o buscadores considera conteudo duplicado.

segunda-feira, 12 de março de 2007

Google testa novas formas de apresentar os resultados de busca

Marcelo Sant'Iago da Midia Click postou em seu blog sobre os testes que o Google está fazendo para apresentar os resulatos da busca orgânica.
Bem interessante!

Google alerta contra os tipos de páginas que são indexadas

Com o intuito de melhorar qualidade dos resultados de busca, o Google alerta para a nova regra de indexação de páginas no seu banco de dados.

Páginas que somente mostram como resultado um punhado de resultados de procura, devem receber a tag robot.txt, uma vez que não tem conteúdo relevante para os usuários.

Darei o mesmo exemplo que Danny Sullivan, mas para os resultados no Google Brasil.
Quando faço uma busca por "dvd Payer":




Repare nos resultados da pesquesas nos primeiros resulados: Bondfaro eAmericanas. Essas páginas têm algo em comum. O conteudo são simples listas de DVD players que estão a venda nessas lojas.

Matt Cutts sugere que o Google faça esforços para ir contra este tipo de conteúdo, uma vez que só são simples listas de resultado de busca.

No novo Guide Line do Google diz:

"Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don't add much value for users coming from search engines."

Então, já que o Google está se preparando para evitar de indexar essas páginas que são simples resultados de busca, é legal prevenir usando o robots.txt conforme reza a regra.

Agora, fazendo uma analise sobre isso tudo.

Acho genial a atitute do Google em apurar ainda mais os resultados de busca. Como usuária que sou do buscador, me incomodava profundamente sempre que procurava por palavras cujo resultados gerados eram páginas com outros resultados de busca.

Há pouco tempo passei por esta situação. Só queria saber mais sobre a configuração do lap top que estava para comprar. E só vinha resultados de páginas de busca de sites e-commerce.

Como profissional de search engine marketing acho interessante este tipo de atitude tanto pro SEO quanto para Links Patrocinados.

Para SEO teremos ate menos resultados, em contra partida serão resultados mais relevantes, informativos. É a vez e hora de otimizar as páginas desses sites.

Para Links Patrocinados, pode aumentar o numero de anuncios, sim, pq não?

Ah, e nada impede do buscador indexar páginas onde tem informações sobre os produtos. Por exemplo, quero comprar um livro e procuro no Google o nome do livro. Se o resultado for uma página onde traz informação sobre ele, ok! Satisfaz a minha procura e o buscador tb!

quinta-feira, 8 de março de 2007

Blog do Google traz série sobre como controlar o acesso e indexação do seu site no buscador

No blog do Google tem uma serie de post sobre The Robots Exclusion Protocol .
O primeiro post da série recebeu o titulo de "Controlling how Search Engines Acess" dá dicas de como implementar o arquivo robot.txt e rotots meta tag para avisar o buscador que você não deseja que sua página seja indexada no banco de dados.

O segundo é "The Robots Exclusion Protocol" traz mais detalhes e exemplos dos mecanismos de de controle de acesso e indexação no seu site pelo Google.

A série é bem legal e vale a pena ser lida.
;)

Erros no Google afetam o posicionamento das palavras na busca orgânica

Desde do dia 23 de fevereiro usuários do mundo todo relatam erros nos dados fornecidos por alguns serviços do Google como Analytics, Finanças e GMail. Estes dois últimos o impacto foi menor que o primeiro.

De acordo com o blog techrunch as interrupções afetaram um subconjunto de servidores do Google e só esses servidores que são responsáveis por coletar dados analíticos e porções tanto de Finanças, como no Gmail. Esse deve ser o motivo dos erros ou lentidão da coleta de dados. Devido ao tamamho e popularidade do Google as menores das interrupções é sentida com certa intesidade por todos. O Google Analytics , por exemplo, tornou-se muito popular, principalmente entre os blogueiros.

Não há ainda uma resposta oficial do Google sobre esses problemas. No blog do Analytics, serviço mais afetado, foi postado um aviso que o sistema estava em manutenção. Nada além disso. O Techrunch pediu que as pessoas que tenham tido problemas com alguns serviços do Google que deixasse o nome para que pedissem uma explicação formal do Google.

Fato é que esses erros do Google também afetou as buscas orgânicas. Muitos sites perderam posicionamento e tráfego se nenhuma explicação logica para isso. Erros na busca orgânica acabam afetando o AdSense e logo as conversões.