El efecto sandbox (o sandboxing ) es una teoría sobre la forma en que Google clasifica las páginas web en su índice. Es objeto de mucho debate: se ha escrito sobre su existencia [1] [2] desde 2004, [3] pero no se ha confirmado, con varias afirmaciones en contra. [4]
Según la teoría del efecto sandbox, los enlaces que normalmente pueden ser ponderados por el algoritmo de ranking de Google pero que no mejoran la posición de una página web en el índice de Google, podrían ser sometidos a un filtro para evitar su impacto total. Algunas observaciones han sugerido que dos factores importantes que provocan este filtro son la antigüedad de un dominio y la competitividad de las palabras clave utilizadas en los enlaces.
La edad activa de un dominio [5] no debe confundirse con la fecha de registro en el registro WHOIS de un dominio , sino que se refiere al momento en que Google indexó por primera vez las páginas del dominio. La competitividad de las palabras clave se refiere a la frecuencia de búsqueda de una palabra en la búsqueda de Google; la observación sugiere que cuanto mayor sea la frecuencia de búsqueda de una palabra, más probable es que entre en juego el efecto del filtro sandbox.
Aunque la existencia del sandbox de Google ha sido debatida durante mucho tiempo, Google no ha hecho ninguna revelación directa al respecto. Sin embargo, como el efecto sandbox casi con certeza se refiere a un conjunto de filtros que se utilizan con fines antispam, es poco probable que Google proporcione detalles sobre el asunto. Sin embargo, en una ocasión, John Mueller de Google [6] mencionó que "puede llevar un poco de tiempo para que los motores de búsqueda se pongan al día con su contenido y aprendan a tratarlo adecuadamente. Una cosa es tener un sitio web fantástico. Sin embargo, los motores de búsqueda generalmente necesitan un poco más para poder confirmarlo y clasificar su sitio su contenido adecuadamente " . [7] Esto podría entenderse como la causa del efecto sandbox.
Google sabe desde hace tiempo que su uso histórico de enlaces como "voto" para clasificar documentos web puede ser objeto de manipulación y así lo indicó en la documentación original de su oferta pública inicial. A lo largo de los años, Google ha presentado una serie de patentes que buscan calificar o minimizar el impacto de dicha manipulación, que Google denomina "spam de enlaces".
El spam de enlaces es impulsado principalmente por los optimizadores de motores de búsqueda , que intentan manipular la clasificación de páginas de Google creando muchos enlaces entrantes a un nuevo sitio web desde otros sitios web de su propiedad. Algunos expertos en SEO también afirman que el sandbox solo se aplica a frases de palabras clave muy competitivas o amplias y se puede contrarrestar apuntando a frases estrechas o las llamadas frases de cola larga. [8]
Google ha ido actualizando su algoritmo desde que comenzó a luchar contra la manipulación de los resultados de búsqueda orgánicos. Sin embargo, hasta el 10 de mayo de 2012, cuando Google lanzó la actualización Google Penguin , mucha gente creía erróneamente que los backlinks de baja calidad no afectarían negativamente a la clasificación de un sitio; Google había estado aplicando este tipo de penalizaciones basadas en enlaces [9] durante muchos años, pero no había hecho público cómo abordaba y lidiaba con lo que llamaban "spam de enlaces". Desde entonces, ha habido un reconocimiento mucho más amplio de los peligros de un mal SEO y de un análisis forense de los backlinks para garantizar que no hubiera enlaces dañinos. Como resultado, el algoritmo también penalizó los propios productos de Google. Un ejemplo bien conocido es Google Chrome, que fue penalizado por comprar enlaces para mejorar los resultados del navegador web.
Las sanciones suelen deberse a enlaces manipulativos que pretenden favorecer a determinadas empresas en los resultados de búsqueda. Al añadir estos enlaces, las empresas infringen los términos y condiciones de Google. Cuando Google descubre estos enlaces, impone sanciones para disuadir a otras empresas de seguir esta práctica y eliminar cualquier beneficio que se haya podido obtener de dichos enlaces. Google también penaliza a quienes participaron en la manipulación y ayudaron a otras empresas al enlazarlas. Este tipo de empresas suelen ser directorios de baja calidad que incluyen un enlace al sitio web de una empresa con un texto de anclaje manipulador a cambio de una tarifa. Google sostiene que estas páginas no ofrecen ningún valor a Internet y, a menudo, se desindexan. A estos enlaces se les suele denominar enlaces de pago.
Los enlaces pagos son enlaces que las personas colocan en su sitio a cambio de una tarifa, creyendo que esto tendrá un impacto positivo en los resultados de búsqueda. La práctica de los enlaces pagos era común antes de la actualización Penguin, cuando las empresas creían que podían agregar cualquier tipo de enlace con impunidad, ya que Google había afirmado anteriormente que ignoraba estos enlaces en lugar de penalizar a los sitios web. Para cumplir con las recientes condiciones de servicio de Google, es imperativo aplicar el atributo nofollow a los enlaces de anuncios pagos. Las empresas que compran backlinks de sitios de baja calidad se ven afectadas por las penalizaciones de Google.
Se trata de enlaces que se dejan en los comentarios de los artículos y que son imposibles de eliminar. A medida que esta práctica se generalizó, Google lanzó una función para ayudar a frenar estas prácticas. La etiqueta nofollow indica a los motores de búsqueda que no confíen en dichos enlaces.
Las redes de blogs a veces son miles de blogs que parecen no tener ninguna relación entre sí y que enlazan a aquellos sitios que están dispuestos a pagar por dichos enlaces. Google normalmente ha puesto su mira en las redes de blogs y, una vez que las ha detectado, ha penalizado a miles de sitios que se habían beneficiado de ellas.
Google ha animado a las empresas a reformar sus malas prácticas y, como resultado, ha exigido que se tomen medidas para eliminar los enlaces manipuladores. Google lanzó la herramienta Disavow el 16 de octubre de 2012 para que la gente pudiera informar de los enlaces malos que tenía. La herramienta Disavow se lanzó principalmente como respuesta a muchos informes de SEO negativo, en los que las empresas estaban siendo atacadas con enlaces manipuladores por competidores sabiendo perfectamente que serían penalizadas. [ cita requerida ] Ha habido cierta controversia [10] sobre si la herramienta Disavow tiene algún efecto cuando la manipulación ha tenido lugar durante muchos años. Al mismo tiempo, se han presentado algunos estudios de casos anecdóticos [11] que sugieren que la herramienta es eficaz y que se pueden recuperar las posiciones de clasificación anteriores.
El SEO negativo comenzó a ocurrir después de la actualización Penguin cuando se hizo de conocimiento común que Google aplicaría sanciones por enlaces manipuladores. Prácticas como el SEO negativo llevaron a las empresas a monitorear diligentemente sus backlinks para asegurarse de que no estén siendo atacados por competidores hostiles a través de servicios de SEO negativo. [12] [13]
En Estados Unidos y el Reino Unido, este tipo de actividades por parte de competidores que intentan sabotear la clasificación de un sitio web se consideran ilegales.
También se afirma que existe un efecto de "sandbox inverso", por el cual las páginas nuevas con buen contenido, pero sin enlaces entrantes, aumentan temporalmente su clasificación (de forma muy similar a como los "Nuevos lanzamientos" en una librería se muestran de forma más destacada) para fomentar la construcción orgánica de la World Wide Web. [4] [25]
David George cuestiona la afirmación de que Google aplica el sandbox a todos los sitios web nuevos, diciendo que la afirmación "no parece estar confirmada por la experiencia". Afirma que creó un nuevo sitio web en octubre de 2004 y que lo clasificó entre los 20 primeros resultados de Google para una palabra clave de destino en el plazo de un mes. Afirma que "nadie sabe con certeza si existe el sandbox de Google", y comenta que "parece ajustarse a las observaciones y experimentos de muchos optimizadores de motores de búsqueda". Su teoría es que el sandbox "ha introducido cierta histéresis en el sistema para restaurar un poco de cordura a los resultados de Google". [4]
En una entrevista con el sitio web Search Engine Roundtable, Matt Cutts habría dicho que algunas cosas en el algoritmo pueden ser percibidas como una caja de arena que no se aplica a todas las industrias. [26] Jaimie Sirovich y Cristian Darie, autores de Professional Search Engine Optimization with PHP , afirman que creen que, si bien Google en realidad no tiene una "caja de arena" explícita, el efecto en sí (independientemente de cómo se produzca) es real. [25]