Leia só o título
A interface do Twitter: totalmente otimizada para a leitura robótica. Nesta semana, no MonoEstéreo, argumentei que, ao longo da nossa convivência com as redes sociais, fomos treinados a pensar como web crawlers. Quero aprofundar o assunto um pouco mais. Os web crawlers, também conhecidos como bots ou spiders, são aplicativos criados para reconhecer e classificar rapidamente quantidades massivas de informação na web. Eles resumem e reformatam o material original e exibem o resultado em sistemas de busca, como o Google. Essa é uma explicação simplificada e não-técnica para um processo conhecido como “indexação”. Os web crawlers podem até “ler” o conteúdo visível ao usuário. Mas, especialmente, procuram por metadados, que são informações complementares, fornecidas pelos próprios autores dos conteúdos e/ou pelos sistemas de publicação, como o Wordpress, por exemplo. Chamamos essa prática de SEO (Search Engine Optimization). Os bots cruzam diversos tipos de metadados, entre eles a localização do usuário e as políticas comerciais daquele sistema de busca ou rede social. Assim, o sistema decide o que exibir no resultado de uma determinada busca ou timeline. Também formata o conteúdo…
Continue →