Mini-Curso de SEO – Como Optimizar o seu blog ou Site para o Google – Parte 6
Se ainda não leu os artigos anteriores, recomendo que os leia também.
Pode encontrá-los aqui:
– SEO – Como Optimizar o seu Site ou Blog para o Google – Parte 1 de 6
– SEO – Como Optimizar o seu Site ou Blog para o Google – Parte 2 de 6
– SEO – Como Optimizar o seu Site ou Blog para o Google – Parte 3 de 6
– SEO – Como Optimizar o seu Site ou Blog para o Google – Parte 4 de 6
– SEO – Como Optimizar o seu Site ou Blog para o Google – Parte 5 de 6
No último artigo do Mini-Curso de SEO, vou falar sobre Robots.txt, Duplicação de Conteúdo e outras considerações.
Robots.txt
Este é o primeiro ficheiro que os motores de busca procuram quando chegam ao seu site.
Enquante que colocando um ficheiro robots.txt em branco não ajuda os motores de busca, ajudará a reduzir as vezes que os erros 404 aparecem nos seus ficheiros de log/registo.
É igualmente muito recomendável, que, caso use um Sitemap XML, coloque uma linha de código no seu ficheiro robots.txt para ajudar o Google, bem como os restantes motores de busca a encontrarem o seu ficheiro de Sitemap.
Código para o robots.txt: “Sitemap: http://www.omeusite.com/sitemap.xml”.
Bloqueios à Indexação
Se suspeita que o seu site não está a ser indexado convenientemente, reveja alguns aspectos que possam estar a causar esse bloqueio.É muito comum acontecer que certos scripts em Flash (por exemplo), bloqueiem os motores de busca, e não lhes permitam fazer uma leitura correcta do seu site e dos respectivos conteúdos das suas páginas.
Para ter a certeza que ultrapassa algum tipo de dificuldade na indexação, ou para se certificar que não tem este tipo de problemas, utilize o Google Webmaster Tools.
Duplicação de Conteúdo
A duplicação de conteúdo é algo que o Google não aprova. De tal forma, que pode sair altamente penalizado, ver o seu site banido do Google até, se for uma situação recorrente.
Certifique-se que não utiliza conteúdo que não seja original, copiado ou “emprestado” de outros sites. Isso pode ser muito penalizador para si. Além de que não está a contribuir para adiconar valor, uma vez que o mesmo conteúdo está disponível noutro site.
Actualizações Regulares e Frequentes
Caso seja um blog, tente actualizá-lo frequentemente. No caso de um site,
se não for um site dinâmico que permita actualizações, corre o risco de ser ultrapassado pelos seus concorrentes.
A verdade é que o Google gosta de conteúdos “frescos” e frequentes, e valoriza um site ou blog também com base nisso. E quanto mais competitivo for o nicho de mercado, mais dificil será conseguir manter bons rankings, sem fazer actualizações.
Load Time ou Tempo de Carregamento da Página
Se lhe disserem que este é um factor que pode ser benéfico em termos de SEO, não lhe estão a dizer toda a verdade.
Se o seu site demora 2 segundos a carregar não é mais beneficiado do que outros que demorem 5 segundos.
Desde que isso não impeça o Google de analisar o seu site, não sairá penalizado. No entanto, em termos de experiência do utilizador que está a visitar o seu site, é altamente penalizador se o site demorar muito tempo a carregar, pois dificulta imenso a navegação e desmotiva-o muitas vezes ao ponto em que simplesmente abandona o site e segue para o próximo.
Outro aspecto a considerar, é que se estiver a utililizar o Google Adwords para correr campanhas para esse site, pode ser prejudicado em termos de Quality Score, ou seja, a pontuação que o Google dá à landing page da campanha, podendo com isso estar a pagar mais por clique do que na realidade estaria, se não tivesse esse problema.
Espero que tenha gostado deste Mini-Curso!
Foi interessante recolher e compilar esta informação. Agora dê-lhe uso!
Se tiver alguma dúvida ou questão sobre algum tema que falei aqui, não hesite em deixar o seu comentário.
Olá João!
Conteúdo duplicado é muito chato. Tive um blog meu penalizado porque um site copiou meu artigo e indexou primeiro, já que meu blog era novo. Fiquei 10 dias fora das pesquisas! Mas consegui que eles revisassem o blog e felizmente ele voltou! Mas foi uma experiência bem desagradável. Fico pensando se as pessoas não tem consciência que copiar o que é dos outros, mesmo aqui na internet não pode!!
Um abraço!
Infelizmente Sandra, continua a haver muita gente que acha que o caminho mais fácil (o de copiar) é o melhor.
Mas salvaguardando situações como a que lhe aconteceu, que são situações sempre delicadas, o “copiador” é e deve ser sempre penalizado.
Infelizmente por vezes isso nem sempre funciona bem, como foi o seu caso, mas mesmo quando é assim, e mesmo sendo complicado, consegue-se sempre resolver. É claro que não deixa de ser desagradável.
Abraço,
JR
Foi muito desagradável! Mas parece que o pessoal do Google foi bem bacana, pois recebi ontem uma mensagem nas ferramentas para webmasters que disse que eles olharam meu site manualmente e o reindexaram. Mesmo assim fiquei 10 dias fora dos índices, o que não foi nenhum pouco bom, e o site plagiador continua lá…
Fazer o que, pelo menos o meu voltou…
Um abraço!
Se você leu a página “Sobre” aqui do WMPT viu que eu digo isto:
“Acredito que, nós somos aquilo que fazemos, e isso, mais cedo ou mais tarde, reflecte-se nos nossos resultados.”
Por isso, acredito que quem pratica algo de negativo, mais tarde ou mais cedo será penalizado por isso, e o contrário para quem se empenha e se dedica a construir algo de valor!
Esse plagiador é apenas uma questão de tempo até perceber que fica a perder com essas atitudes!
Abraço,
JR
Agora andam ai uns plugins que eu acho super engraçados que assinam a feed dos outros sites e publicam-a, imagina assino a tua feed com esse plugin e sempre que publicares um artigo é publicado automaticamente no meu blogue um artigo igual ao teu, uma duplicação de conteúdo autentico.
Actualizar regularmente eu acho que isso influencia mais do que parece, principalmente quando se quer ultrapassar a concorrência é fundamental optimizar mais que eles.
Em relação ao tempo de carregamento de pagina também considero super importante, não sei é se o Google não considera isso um pequeno factor como a idade do domínio e essas pequenas coisas…
Bruno existem plugins que fazem isso mas depois existem outros para proteger disso lol.
Esses plugins têm utilidade se bem utilizados mas o pessoal leva sempre para o lado do mal.
@ Bruno,
Essa do plugin desconhecia por completo, mas enfim há gente para tudo…
Uma vez que Google está a mudar alguns aspectos do seu algoritmo também ainda não consegui perceber até que ponto é que vai ser importante.
Já li algures que, por um lado não serão penalizados os sites lentos, mas que os mais rápidos serão beneficiados. Será mesmo assim? Acho que vamos ter de esperar para ver.
@ Nelson,
Já agora eu também gostava de saber qual é o plugin que protege dessas situações? 🙂
Até seria interessante, porque para além de o instalar, poderia escrever aqui um artigo sobre isso a divulgá-lo aos outros leitores.
Abraço,
JR
Aqui vão alguns exemplos:
hxxp://planetozh.com/blog/my-projects/wordpress-plugin-better-feed-rss/
hxxp://planetozh.com/blog/my-projects/wordpress-plugin-better-feed-rss/
hxxp://www.blogclout.com/blog/goodies/feed-footer-plugin/
hxxp://marketingtechblog.com/projects/postpost/
Ficam aqui alguns exemplos. Em termos de copyright todos devem cumprir a função depois têm é mais ou menos funções.
Peço desculpa pelos links. Tive de os alterar porque senão não deixa deixar comentário.
Não tens de pedir desculpa. Eu é que agradeço o contributo.
Prometo que se escrever o artigo sobre eles, dou os créditos a quem de direito!
Esses plugins que o Bruno e o Nelson se referem(e que eu desconhecia) são só para wordpress, ou servem também para o Blogger?
Se não servem, haverá coisa semelhante para Blogger?Gostava de saber. Não é para copiar nada de ninguém é mais para saber me defender.
Muito obrigado desde já.
Um abraço.
Olá João,
A questão dos sitmaps é um problema que me tem deixado preocupado. O Google não indexa todos os meus posts e eu não sei como resolver o problema?
Em outra ocasião gostarei de fazer umas perguntas. Está bem?
Um abraço.
José(comentário 1) – Não existe nada idêntico para Blogger
José(comentário 2)- Se fizer sitemap isso ajuda, você tem 80 paginas indexadas no Google(pelo que vi)
Se colocar em directórios de artigos de forma a receber backlinks isso também ajuda bastante…
Olá José!
Acho que demora um pouco para indexar tudo, meu blog no início demorava uma semana para indexar cada novo artigo, com o tempo foi ficando mais rápido e hoje em menos de três horas recebo o aviso de que foi indexado.
Um abraço!
Recebe o aviso que foi indexado, como?
Pelo google alerts.
Mas isso não são alertas para palavras chaves? Não sabia que alertava se os posts foram indexados ou não. João e Sandra um bom assunto para fazerem um artigo nos vossos blogs 😀
E depois experimentem colocar no Dihitt,etc…o artigo com um titulo sugestivo, “Saiba automaticamente quanto tempo demorou seu artigo a ser indexado no Google” com sorte pode render 400 visitas de pessoas que são o vosso publico alvo e converter em 5 pessoas a assinarem as feeds 😀
Olá Bruno,
Agradeço as respostas às minhas perguntas.Do comentário 2) Assim já não posso culpar o sitemap, como causador do meu problema.Bem vistas as coisas, nem é problema nenhum. Do comentário 1)É pena que não haja nada parecido com esses plugins, poderia vir a ser útil.
E também agradeço o seu conselho.
Um abraço.
Olá Sandra,
Fiquei a saber que o Google Alerts avisa quando indexa. Nunca tinha reparado. Vou pôr o Google Alerts com a direcção do email correspondente ao blog para ver se ele avisa.
Um abraço
Ele avisa se você mandar ele fazer, eu coloco lá a url do blog, assim cada vez que indexar com a url ele avisa, tanto links em outros blogs, como novos artigos publicados. Mas vocês podem ver outras maneiras de fazer no Gerenciando Blog: http://www.gerenciandoblog.com.br/2009/06/saiba-antes-com-o-google-alerts.html
Como o Adelson já explicou lá tudo o que precisava, não escrevi nada no meu blog.
Um abraço!
É verdade, esta do Google Alerts veio ajudar a configurar e automatizar uma série de alertas, dentro das limitações impostas pelo Google, claro.
@ Bruno,
Obrigado pela sugestão, já está anotada. 🙂
@ José,
O Sitemap é, actualmente, um dos melhores métodos para indexação de conteúdos.
A forma mais rápida de indexar conteúdos é através de backlinks.
Se forem criados backlinks em sites que estão permanentemente a ser alvo do crawler do Google, os conteúdos são indexados muito rapidamente.
Se quiser, pode mandar-me um email, não há problema.
Abraço,
JR
José respondendo a isto:
“A questão dos sitmaps é um problema que me tem deixado preocupado. O Google não indexa todos os meus posts e eu não sei como resolver o problema?”
Que tipo de problema é? Nem sempre um sitemap resolve tudo.
Olá Nelson,
Uma das dúvidas sobre o sitemaps é a seguinte:
Eu fiz um sitemaps. Como é que o Google sabe que eu actualizei.Isso é automático ou eu preciso mandar-lhe o artigo?
Abraço
José como é que ele sabe que actualizas-te o sitemap ou o site?
Estás registado nas Google Webmaster Tools? Se não vai a https://www.google.com/webmasters/tools/ e submete lá o teu sitemap.
O wordpress tem um plugin que faz um novo sitemap a cada novo artigo que você posta, e manda para o google e outros motores de busca. Tá aí mais um motivo para usar o WP!
Depois de criares o sitemap tens que o enviar para o Google Webmasters.
Sim, eu envio só da primeira, mas senão nem precisa pois o plugin envia sozinho. E depois sempre manda a cada atualização.
Sandra já agora como se chama o plugin?
O plugin que uso cria um novo sitemap a cada actualização mas não o envia para o google. O google como tem o endereço do sitemap vai lá ver se houve alterações.
Eu uso o Google Sitemap Generator.
João eu também uso esse.
Não conheço outro.
Eu também usava esse e não conheço mais nenhum.
O que eu uso chama-se Google XML sitemaps. Será que é o mesmo?
Sim é o mesmo 😀
Sim Sandra é o mesmo.
Nelson,
Eu pergunto como é que ele sabe que actualizei o site.
Estou registado no google webmasters Tools.E já submeti.
O meu problema é se depois de ter enviado o Sitmaps, tenho que fazer mais alguma coisa sempre que escrever um arigo no meu blog.
O que tenho feito até agora é que sempre que actualizo o blog, fico simplesmente à espera nem sei de quê. 🙂
Um abraço
José ao submeteres o sitemap o google de tempos a tempos vai indexando a ver se existe actualizações.
Ao inicio pode demorar um bocado a ser actualizado porque o google ainda não sabe bem a frequência com que actualizas. Mas depois vai passando todos os dias e até várias vezes por dia de acordo com a tua frequência de actualização.
José,
Tal como o Nelson disse, o Google irá verificar a frequência de actualização do blog e actualizará a indexação do sitemap em conformidade.
Não sei como funciona no blogger, se há alguma forma que se possa parametrizar a actualização do sitemap, mas é uma questão de fazer umas pesquisas.
Abraço,
JR
Very good..
Adriano Santos, Apaixonado por e profissional na área de Impressão UV, São Paulo – SP
Parabéns pela postagem, irei recomendar para nossa redação fazer uma matéria sobre seu site.
Ficou muito bom mesmo
Gabriela Suporte ao cliente Alugar para Temporada
Amei as dicas, tenho aplicado em meu site, tem surtido bastante efeito, não conhecia nada de sobre seo. Faz 3 mêses que venho ajustando meu blog, amei suas dicas http://empregosuberlandia.com.br/