Internet tiene diferentes tipos de contenidos, unos más valiosos que otros, y data que puede ser considerada basura. Se trata del spam en la red, información de la cual poco se conoce, pero el ingeniero de Google, Matt Cutts, logró determinar un porcentaje de la cantidad que existe actualmente.
De acuerdo con el desarrollador, usando el filtro «SafeSearch», encontró que entre el 25% y el 30% del contenido de la web es ‘contenido duplicado. El programador, citado en Quartz, dice que aquello no es completamente malo, pues no toda la data duplicada es producto de plagio.
Un ejemplo, dice, está en las citas que hacen los blogs enlazando a la fuente original, o en las páginas de manuales técnicos que se van actualizando poco a poco. Lo que hay que tener en cuenta es que si los motores de búsqueda no son capaces de detectar duplicaciones, en Internet sería casi imposible navegar.
DATO:
-Un blog que se compone en su totalidad de feeds de otros blogs puede ser tratados como correo no deseado.
Vía Quartz
EL VIDEO:










