LSI e Seo influenciam posicionamento de sites

qual a verdade?

LSI e Seo: qual a verdadeira influência no posicionamento de sites?

Há dois anos atrás entre os especialistas de optimização de sites, começou a revelar-se a necessidade de se proceder à técnica LSI (latent semantic indexing).

Esta técnica procura estudar a importância da colocação de frases interrelacionadas com aquelas que se pretende utilizar como palavras-chave, na melhoria do posicionamento das páginas nas pesquisas efectuadas nos mecanismos de pesquisas orgânicas.

Baseia-se na ideia de que para cada frase que se utiliza, existir uma frase escondida e não explícita, que lhe está ligada naturalmente. Deste modo, os motores de busca darão uma maior valoração aos esforços tidos na elaboração da escrita de um texto, se houver uma relação de grande frequência, entre as diferentes frases que habitualmente tratam um certo assunto.

LSI relaciona o que não está percetível

Assim, quem fala de “escolher um automóvel novo”, eventualmente irá referir-se também a questões como sejam “modelos de carros recentes” bem como “inovação em motores ecológicos” ou parecidas.

Esta ideia que passou a ser aceite como sendo relevante para se conseguirem as melhores posições das páginas de um site para as buscas efectuadas sobre qualquer tema, nunca foi no entanto confirmada pela Google como sendo um dos componentes do seu tão incensado algoritmo.

Isto implicava que para os 50.000 milhões de páginas indexadas pela Google, existissem matrizes estudando a frequência de todas as palavras e o seu posicionamento em cada uma destas páginas.

Nem um supercomputador pode responder à LSI

O número astronómico de relações que esta premissa implicaria, está no entanto longe de ser exequível, mesmo por computadores extraordinariamente potentes, além de que se revelaria muito custoso em termos económicos.

Nada como o ser humano para ser capaz de conseguir identificar a validade de uma correlação entre uma palavra e outra, sabendo-se que o sentido dado às palavras é por vezes muito diferente consoante o contexto em que se aplica. Os computadores por muitas matrizes de palavras que analisem, nem sempre são capazes de perceber qual o significado semântico de cada termo consoante o tema que se trate.

Veio agora a lume um estudo efectuado por Leslie Rhode, engenheiro da academia de otimização Stompernet, em que prova que a utilização da teoria da semântica aplicada à proximidade de frases e temas relacionados, não é um dos sistemas aplicados pela Google para classificar e separar a apresentação de páginas de sites, nas pesquisas efectuadas por palavras-chave.

Teste e confirme a verdade sobre LSI

Exemplos como a utilização de singular versus plural ou significado (experimente ver carro-carros e chocolate-chocolates ou crescer-crescimento) revelam que as listas dos 5 primeiros resultados no Google são de tal modo diferentes, que raramente aparecem páginas repetidas, quando a noção de semelhança dos significados segundo LSI, levariam a esperar que os resultados fossem iguais.

É assim descredibilizada uma teoria que fez escola e para a qual existem inclusivamente programas de subscrição mensal na ordem dos 300 dólares, de que se socorrem muitos especialistas em otimização, interessados em escrever conteúdos mais aptos a serem bem posicionados pela Google. A maior ênfase da companhia multimilionária das pesquisas e publicidade na internet, centra-se sim nos fortes conceitos relacionais que os seres humanos estabelecem uns com os outros no dia a dia.

This entry was posted in SEO. Bookmark the permalink.