Indexación de motores de búsqueda

Método de gestión de datos

La indexación de motores de búsqueda es la recopilación, el análisis y el almacenamiento de datos para facilitar la recuperación rápida y precisa de la información . El diseño de índices incorpora conceptos interdisciplinarios de la lingüística , la psicología cognitiva , las matemáticas, la informática y la ciencia de la computación . Un nombre alternativo para el proceso, en el contexto de los motores de búsqueda diseñados para encontrar páginas web en Internet, es indexación web .

Los motores de búsqueda populares se centran en la indexación de texto completo de documentos en línea en lenguaje natural . [1] También se pueden buscar tipos de medios como imágenes, videos, [2] audio, [3] y gráficos [4] .

Los motores de metabúsqueda reutilizan los índices de otros servicios y no almacenan un índice local, mientras que los motores de búsqueda basados ​​en caché almacenan permanentemente el índice junto con el corpus . A diferencia de los índices de texto completo, los servicios de texto parcial restringen la profundidad indexada para reducir el tamaño del índice. Los servicios más grandes suelen realizar la indexación en un intervalo de tiempo predeterminado debido al tiempo requerido y los costos de procesamiento, mientras que los motores de búsqueda basados ​​en agentes indexan en tiempo real .

Indexación

El objetivo de almacenar un índice es optimizar la velocidad y el rendimiento en la búsqueda de documentos relevantes para una consulta de búsqueda. Sin un índice, el motor de búsqueda escanearía cada documento del corpus , lo que requeriría un tiempo y una potencia de cálculo considerables. Por ejemplo, mientras que un índice de 10.000 documentos se puede consultar en milisegundos, un escaneo secuencial de cada palabra en 10.000 documentos grandes podría llevar horas. El almacenamiento informático adicional necesario para almacenar el índice, así como el aumento considerable del tiempo necesario para que se realice una actualización, se compensan con el tiempo ahorrado durante la recuperación de información.

Factores de diseño del índice

Los factores principales en el diseño de la arquitectura de un motor de búsqueda incluyen:

Factores de fusión
Cómo se introducen los datos en el índice, o cómo se añaden palabras o características temáticas al índice durante el recorrido del corpus de texto, y si varios indexadores pueden trabajar de forma asincrónica. El indexador debe comprobar primero si está actualizando el contenido antiguo o añadiendo contenido nuevo. El recorrido normalmente se correlaciona con la política de recopilación de datos . La fusión de índices de motores de búsqueda es similar en concepto al comando SQL Merge y otros algoritmos de fusión. [5]
Técnicas de almacenamiento
Cómo almacenar los datos del índice , es decir, si la información debe ser comprimida o filtrada.
Tamaño del índice
¿Cuánta capacidad de almacenamiento informático se requiere para soportar el índice?
Velocidad de búsqueda
La rapidez con la que se puede encontrar una palabra en el índice invertido . La velocidad con la que se encuentra una entrada en una estructura de datos, en comparación con la rapidez con la que se puede actualizar o eliminar, es un tema central en la ciencia informática.
Mantenimiento
Cómo se mantiene el índice a lo largo del tiempo. [6]
Tolerancia a fallos
La importancia de que el servicio sea confiable. Entre los problemas se incluyen el manejo de la corrupción de índices, la determinación de si los datos erróneos se pueden tratar de forma aislada, el manejo de hardware defectuoso, el particionamiento y esquemas como el particionamiento basado en hash o compuesto [7] , así como la replicación .

Estructuras de datos de índice

Las arquitecturas de los motores de búsqueda varían en la forma en que se realiza la indexación y en los métodos de almacenamiento del índice para satisfacer los diversos factores de diseño.

Árbol de sufijos
Estructurado en sentido figurado como un árbol, admite búsquedas en tiempo lineal. Construido mediante el almacenamiento de los sufijos de las palabras. El árbol de sufijos es un tipo de trie . Los tries admiten hash extensible , lo cual es importante para la indexación de motores de búsqueda. [8] Se utiliza para buscar patrones en secuencias de ADN y agrupamiento. Un inconveniente importante es que almacenar una palabra en el árbol puede requerir espacio más allá del requerido para almacenar la palabra en sí. [9] Una representación alternativa es una matriz de sufijos , que se considera que requiere menos memoria virtual y admite la compresión de datos como el algoritmo BWT .
Índice invertido
Almacena una lista de ocurrencias de cada criterio de búsqueda atómica, [10] típicamente en forma de una tabla hash o un árbol binario . [11] [12]
Índice de citas
Almacena citas o hipervínculos entre documentos para respaldar el análisis de citas, un tema de la bibliometría .
índice de n -gramas
Almacena secuencias de longitud de datos para soportar otros tipos de recuperación o minería de texto . [13]
Matriz de documentos y términos
Se utiliza en el análisis semántico latente, almacena las apariciones de palabras en documentos en una matriz dispersa bidimensional .

Desafíos del paralelismo

Un desafío importante en el diseño de motores de búsqueda es la gestión de procesos de computación en serie. Hay muchas oportunidades para condiciones de carrera y fallas coherentes. Por ejemplo, se agrega un nuevo documento al corpus y el índice debe actualizarse, pero el índice simultáneamente necesita continuar respondiendo a las consultas de búsqueda. Esta es una colisión entre dos tareas en competencia. Considere que los autores son productores de información y un rastreador web es el consumidor de esta información, capturando el texto y almacenándolo en un caché (o corpus ). El índice directo es el consumidor de la información producida por el corpus y el índice invertido es el consumidor de la información producida por el índice directo. Esto se conoce comúnmente como un modelo productor-consumidor . El indexador es el productor de información buscable y los usuarios son los consumidores que necesitan buscar. El desafío se magnifica cuando se trabaja con almacenamiento distribuido y procesamiento distribuido. En un esfuerzo por escalar con mayores cantidades de información indexada, la arquitectura del motor de búsqueda puede involucrar computación distribuida , donde el motor de búsqueda consta de varias máquinas que operan al unísono. Esto aumenta las posibilidades de incoherencia y hace más difícil mantener una arquitectura totalmente sincronizada, distribuida y paralela. [14]

Índices invertidos

Muchos motores de búsqueda incorporan un índice invertido al evaluar una consulta de búsqueda para localizar rápidamente los documentos que contienen las palabras de la consulta y luego clasificarlos por relevancia. Debido a que el índice invertido almacena una lista de los documentos que contienen cada palabra, el motor de búsqueda puede utilizar el acceso directo para encontrar los documentos asociados con cada palabra de la consulta y así recuperar rápidamente los documentos coincidentes. La siguiente es una ilustración simplificada de un índice invertido:

Índice invertido
PalabraDocumentos
elDocumento 1, Documento 3, Documento 4, Documento 5, Documento 7
vacaDocumento 2, Documento 3, Documento 4
diceDocumento 5
mugirDocumento 7

Este índice sólo puede determinar si una palabra existe dentro de un documento en particular, ya que no almacena información sobre la frecuencia y la posición de la palabra; por lo tanto, se considera un índice booleano . Un índice de este tipo determina qué documentos coinciden con una consulta, pero no clasifica los documentos coincidentes. En algunos diseños, el índice incluye información adicional, como la frecuencia de cada palabra en cada documento o las posiciones de una palabra en cada documento. [15] La información de posición permite que el algoritmo de búsqueda identifique la proximidad de las palabras para respaldar la búsqueda de frases; la frecuencia se puede utilizar para ayudar a clasificar la relevancia de los documentos para la consulta. Estos temas son el foco central de investigación de la recuperación de información .

El índice invertido es una matriz dispersa , ya que no todas las palabras están presentes en cada documento. Para reducir los requisitos de memoria de almacenamiento de la computadora , se almacena de forma diferente a una matriz bidimensional . El índice es similar al término matrices de documentos que se emplean en el análisis semántico latente . El índice invertido puede considerarse una forma de tabla hash. En algunos casos, el índice es una forma de árbol binario , que requiere almacenamiento adicional pero puede reducir el tiempo de búsqueda. En índices más grandes, la arquitectura suele ser una tabla hash distribuida . [16]

Implementación de la búsqueda de frases mediante un índice invertido

Para la búsqueda de frases, se utiliza una forma especializada de índice invertido denominado índice posicional. Un índice posicional no solo almacena el ID del documento que contiene el token, sino también la posición exacta del token dentro del documento en la lista de publicaciones . Las ocurrencias de la frase especificada en la consulta se recuperan navegando por estas listas de publicaciones e identificando los índices en los que aparecen los términos deseados en el orden esperado (el mismo que el orden en la frase). Por lo tanto, si buscamos la ocurrencia de la frase "First Witch", haríamos lo siguiente:

  1. Recuperar la lista de publicaciones de "primero" y "bruja"
  2. Identifica la primera vez que aparece "bruja" después de "primera"
  3. Verifique que esta ocurrencia ocurra inmediatamente después de la ocurrencia de "primero".
  4. En caso contrario, continúe con la siguiente ocurrencia de "primero".

Las listas de publicaciones se pueden navegar mediante una búsqueda binaria para minimizar la complejidad temporal de este procedimiento. [17]

Fusión de índices

El índice invertido se llena mediante una fusión o reconstrucción. Una reconstrucción es similar a una fusión pero primero elimina el contenido del índice invertido. La arquitectura puede estar diseñada para soportar la indexación incremental, [18] donde una fusión identifica el documento o los documentos que se agregarán o actualizarán y luego analiza cada documento en palabras. Para mayor precisión técnica, una fusión combina los documentos recién indexados, que generalmente residen en la memoria virtual, con la caché del índice que reside en uno o más discos duros de computadora.

Después del análisis, el indexador añade el documento referenciado a la lista de documentos correspondiente a las palabras adecuadas. En un motor de búsqueda más grande, el proceso de encontrar cada palabra en el índice invertido (para informar que se encuentra dentro de un documento) puede consumir demasiado tiempo, por lo que este proceso se suele dividir en dos partes: el desarrollo de un índice directo y un proceso que ordena el contenido del índice directo en el índice invertido. El índice invertido se llama así porque es una inversión del índice directo.

El índice adelantado

El índice de avance almacena una lista de palabras para cada documento. A continuación se muestra una forma simplificada del índice de avance:

Índice hacia delante
DocumentoPalabras
Documento 1La vaca dice mugir
Documento 2el gato y el sombrero
Documento 3El plato se escapó con la cuchara

La razón detrás del desarrollo de un índice directo es que a medida que se analizan los documentos, es mejor almacenar de manera intermedia las palabras por documento. La delineación permite el procesamiento asincrónico del sistema, lo que evita parcialmente el cuello de botella de actualización del índice invertido. [19] El índice directo se ordena para transformarlo en un índice invertido. El índice directo es esencialmente una lista de pares que consisten en un documento y una palabra, cotejados por el documento. Convertir el índice directo en un índice invertido es solo una cuestión de ordenar los pares por las palabras. En este sentido, el índice invertido es un índice directo ordenado por palabras.

Compresión

La generación o el mantenimiento de un índice de motor de búsqueda a gran escala representa un desafío significativo en términos de almacenamiento y procesamiento. Muchos motores de búsqueda utilizan una forma de compresión para reducir el tamaño de los índices en el disco . [20] Considere el siguiente escenario para un motor de búsqueda de Internet de texto completo.

  • Se necesitan 8 bits (o 1 byte ) para almacenar un solo carácter. Algunas codificaciones utilizan 2 bytes por carácter [21] [22]
  • El número promedio de caracteres en cualquier palabra dada en una página se puede estimar en 5 ( Wikipedia: Comparaciones de tamaño )

En este escenario, un índice sin comprimir (suponiendo que se trata de un índice simple y no combinado ) para 2 mil millones de páginas web necesitaría almacenar 500 mil millones de entradas de palabras. Con 1 byte por carácter, o 5 bytes por palabra, esto requeriría 2500 gigabytes de espacio de almacenamiento solamente. [ cita requerida ] Este requisito de espacio puede ser incluso mayor para una arquitectura de almacenamiento distribuido tolerante a fallas. Dependiendo de la técnica de compresión elegida, el índice se puede reducir a una fracción de este tamaño. La compensación es el tiempo y la potencia de procesamiento necesarios para realizar la compresión y la descompresión. [ cita requerida ]

Cabe destacar que los diseños de motores de búsqueda a gran escala incorporan el costo del almacenamiento, así como los costos de la electricidad para alimentar el almacenamiento. Por lo tanto, la compresión es una medida de costo. [ cita requerida ]

Análisis de documentos

El análisis de documentos descompone los componentes (palabras) de un documento u otro tipo de medio para insertarlos en los índices directo e invertido. Las palabras encontradas se denominan tokens y, por lo tanto, en el contexto de la indexación de motores de búsqueda y el procesamiento del lenguaje natural , el análisis se conoce más comúnmente como tokenización . A veces también se lo denomina desambiguación de límites de palabras, etiquetado , segmentación de texto , análisis de contenido , análisis de texto, minería de texto , generación de concordancia , segmentación de voz , análisis léxico o análisis léxico . Los términos "indexación", "análisis" y "tokenización" se usan indistintamente en la jerga corporativa.

El procesamiento del lenguaje natural es objeto de investigación y mejora tecnológica continuas. La tokenización presenta muchos desafíos a la hora de extraer la información necesaria de los documentos para su indexación con el fin de respaldar una búsqueda de calidad. La tokenización para la indexación implica múltiples tecnologías, cuya implementación suele mantenerse como secreto corporativo. [ cita requerida ]

Desafíos en el procesamiento del lenguaje natural

Ambigüedad en los límites de las palabras
Los hablantes nativos de inglés pueden pensar al principio que la tokenización es una tarea sencilla, pero no es así en el caso del diseño de un indexador multilingüe . En formato digital, los textos de otros idiomas, como el chino o el japonés, representan un mayor desafío, ya que las palabras no están claramente delimitadas por espacios en blanco . El objetivo durante la tokenización es identificar las palabras que los usuarios buscarán. Se emplea una lógica específica del idioma para identificar correctamente los límites de las palabras, que a menudo es la razón fundamental para diseñar un analizador para cada idioma compatible (o para grupos de idiomas con marcadores de límites y sintaxis similares).
Ambigüedad del lenguaje
Para ayudar a clasificar correctamente los documentos coincidentes, muchos motores de búsqueda recopilan información adicional sobre cada palabra, como su idioma o categoría léxica ( parte del discurso ). Estas técnicas dependen del idioma, ya que la sintaxis varía entre idiomas. Los documentos no siempre identifican claramente el idioma del documento ni lo representan con precisión. Al tokenizar el documento, algunos motores de búsqueda intentan identificar automáticamente el idioma del documento.
Diversos formatos de archivos
Para identificar correctamente qué bytes de un documento representan caracteres, el formato del archivo debe manejarse correctamente. Los motores de búsqueda que admiten varios formatos de archivo deben poder abrir y acceder correctamente al documento y ser capaces de convertir en tokens los caracteres del documento.
Almacenamiento defectuoso
La calidad de los datos en lenguaje natural no siempre es perfecta. Un número indeterminado de documentos, especialmente en Internet, no siguen estrictamente el protocolo de archivo adecuado. Los caracteres binarios pueden codificarse por error en varias partes de un documento. Sin el reconocimiento de estos caracteres y el manejo adecuado, la calidad del índice o el rendimiento del indexador podrían degradarse.

Tokenización

A diferencia de los humanos alfabetizados , las computadoras no comprenden la estructura de un documento en lenguaje natural y no pueden reconocer automáticamente palabras y oraciones. Para una computadora, un documento es solo una secuencia de bytes. Las computadoras no "saben" que un carácter de espacio separa las palabras en un documento. En cambio, los humanos deben programar la computadora para identificar lo que constituye una palabra individual o distinta, a la que se denomina token. Este tipo de programa se denomina comúnmente tokenizador , analizador sintáctico o analizador léxico . Muchos motores de búsqueda, así como otro software de procesamiento de lenguaje natural, incorporan programas especializados para el análisis sintáctico, como YACC o Lex .

Durante la tokenización, el analizador identifica secuencias de caracteres que representan palabras y otros elementos, como la puntuación, que se representan mediante códigos numéricos, algunos de los cuales son caracteres de control no imprimibles. El analizador también puede identificar entidades como direcciones de correo electrónico , números de teléfono y URL . Al identificar cada token, se pueden almacenar varias características, como el caso del token (mayúsculas, minúsculas, mixtas, propias), el idioma o la codificación, la categoría léxica (parte del discurso, como "sustantivo" o "verbo"), la posición, el número de oración, la posición de la oración, la longitud y el número de línea.

Reconocimiento de lenguaje

Si el motor de búsqueda admite varios idiomas, un paso inicial común durante la tokenización es identificar el idioma de cada documento; muchos de los pasos posteriores dependen del idioma (como la lematización y el etiquetado de partes del discurso ). El reconocimiento de idiomas es el proceso mediante el cual un programa informático intenta identificar o categorizar automáticamente el idioma de un documento. Otros nombres para el reconocimiento de idiomas incluyen clasificación de idiomas, análisis de idiomas, identificación de idiomas y etiquetado de idiomas. El reconocimiento automático de idiomas es el tema de investigación en curso en el procesamiento del lenguaje natural . Encontrar a qué idioma pertenecen las palabras puede implicar el uso de un gráfico de reconocimiento de idiomas .

Análisis de formato

Si el motor de búsqueda admite varios formatos de documentos , estos deben estar preparados para la tokenización. El desafío es que muchos formatos de documentos contienen información de formato además del contenido textual. Por ejemplo, los documentos HTML contienen etiquetas HTML, que especifican información de formato, como inicios de nuevas líneas, énfasis en negrita y tamaño o estilo de fuente . Si el motor de búsqueda ignorara la diferencia entre contenido y "marcado", se incluiría información extraña en el índice, lo que generaría resultados de búsqueda deficientes. El análisis de formato es la identificación y el manejo del contenido de formato incrustado en los documentos que controla la forma en que el documento se presenta en una pantalla de computadora o es interpretado por un programa de software. El análisis de formato también se conoce como análisis de estructura, análisis de formato, eliminación de etiquetas, eliminación de formato, normalización de texto, limpieza de texto y preparación de texto. El desafío del análisis de formato se complica aún más por las complejidades de varios formatos de archivo. Algunos formatos de archivo son propietarios y se divulga muy poca información, mientras que otros están bien documentados. Los formatos de archivo comunes y bien documentados que admiten muchos motores de búsqueda incluyen:

Las opciones para trabajar con varios formatos incluyen el uso de una herramienta de análisis comercial disponible públicamente que ofrece la organización que desarrolló, mantiene o posee el formato, y la escritura de un analizador personalizado .

Algunos motores de búsqueda admiten la inspección de archivos almacenados en un formato comprimido o cifrado. Cuando se trabaja con un formato comprimido, el indexador primero descomprime el documento; este paso puede generar uno o más archivos, cada uno de los cuales debe indexarse ​​por separado. Los formatos de archivos comprimidos que se admiten comúnmente incluyen:

El análisis de formato puede implicar métodos de mejora de la calidad para evitar la inclusión de "información incorrecta" en el índice. El contenido puede manipular la información de formato para incluir contenido adicional. Ejemplos de abuso del formato de documentos para indexación de spam :

  • Inclusión de cientos o miles de palabras en una sección que está oculta a la vista en la pantalla de la computadora, pero visible para el indexador, mediante el uso de formato (por ejemplo, la etiqueta "div" oculta en HTML , que puede incorporar el uso de CSS o JavaScript para hacerlo).
  • Establecer el color de fuente del primer plano de las palabras al mismo que el color de fondo, haciendo que las palabras queden ocultas en la pantalla de la computadora para una persona que ve el documento, pero no ocultas para el indexador.

Reconocimiento de secciones

Algunos motores de búsqueda incorporan el reconocimiento de secciones, la identificación de las partes principales de un documento, antes de la tokenización. No todos los documentos de un corpus se leen como un libro bien escrito, dividido en capítulos y páginas organizados. Muchos documentos en la web , como boletines informativos e informes corporativos, contienen contenido erróneo y secciones laterales que no contienen material principal (aquello sobre lo que trata el documento). Por ejemplo, los artículos en el sitio web de Wikipedia muestran un menú lateral con enlaces a otras páginas web. Algunos formatos de archivo, como HTML o PDF, permiten que el contenido se muestre en columnas. Aunque el contenido se muestra o se representa en diferentes áreas de la vista, el contenido de marcado sin procesar puede almacenar esta información de forma secuencial. Las palabras que aparecen secuencialmente en el contenido fuente sin procesar se indexan secuencialmente, aunque estas oraciones y párrafos se representen en diferentes partes de la pantalla de la computadora. Si los motores de búsqueda indexan este contenido como si fuera contenido normal, la calidad del índice y la calidad de la búsqueda pueden degradarse debido al contenido mixto y la proximidad inadecuada de las palabras. Se observan dos problemas principales:

  • El contenido de diferentes secciones se trata como relacionado en el índice cuando en realidad no lo es.
  • El contenido de la barra lateral organizativa está incluido en el índice, pero no contribuye al significado del documento y el índice está lleno de una representación pobre de sus documentos.

El análisis de secciones puede requerir que el motor de búsqueda implemente la lógica de representación de cada documento, esencialmente una representación abstracta del documento real, y luego indexe la representación en su lugar. Por ejemplo, algunos contenidos de Internet se representan mediante JavaScript. Si el motor de búsqueda no representa la página y evalúa el JavaScript dentro de la página, no "vería" este contenido de la misma manera e indexaría el documento incorrectamente. Dado que algunos motores de búsqueda no se preocupan por los problemas de representación, muchos diseñadores de páginas web evitan mostrar contenido mediante JavaScript o utilizan la etiqueta Noscript para garantizar que la página web se indexe correctamente. Al mismo tiempo, este hecho también se puede aprovechar para hacer que el indexador del motor de búsqueda "vea" un contenido diferente al del visor.

Sistema de prioridades HTML

La indexación a menudo tiene que reconocer las etiquetas HTML para organizar la prioridad. La indexación de baja prioridad a alto margen a etiquetas como strong y link para optimizar el orden de prioridad si esas etiquetas están al principio del texto podría no resultar relevante. Algunos indexadores como Google y Bing se aseguran de que el motor de búsqueda no tome los textos largos como fuente relevante debido a la fuerte compatibilidad del sistema de tipos. [23]

Indexación de metaetiquetas

La indexación de metaetiquetas desempeña un papel importante en la organización y categorización de contenido web. Los documentos específicos a menudo contienen información meta incrustada, como autor, palabras clave, descripción e idioma. En el caso de las páginas HTML, la metaetiqueta contiene palabras clave que también se incluyen en el índice. La tecnología anterior de los motores de búsqueda de Internet solo indexaba las palabras clave en las metaetiquetas para el índice directo; no se analizaba el documento completo. En ese momento, la indexación de texto completo no estaba tan bien establecida, ni el hardware informático era capaz de soportar dicha tecnología. El diseño del lenguaje de marcado HTML inicialmente incluía soporte para metaetiquetas con el mismo propósito de ser indexado de manera correcta y fácil, sin necesidad de tokenización. [24]

A medida que Internet fue creciendo en los años 90, muchas empresas tradicionales se pasaron a la red y crearon sitios web corporativos. Las palabras clave utilizadas para describir las páginas web (muchas de las cuales eran páginas web orientadas a empresas similares a folletos de productos) cambiaron de palabras clave descriptivas a palabras clave orientadas al marketing diseñadas para impulsar las ventas colocando la página web en los primeros puestos de los resultados de búsqueda para consultas de búsqueda específicas. El hecho de que estas palabras clave se especificaran de forma subjetiva estaba dando lugar al spamdexing , que llevó a muchos motores de búsqueda a adoptar tecnologías de indexación de texto completo en los años 90. Los diseñadores y las empresas de motores de búsqueda solo podían colocar una determinada cantidad de "palabras clave de marketing" en el contenido de una página web antes de vaciarla de toda la información interesante y útil. Dado ese conflicto de intereses con el objetivo empresarial de diseñar sitios web orientados al usuario que fueran "fijos", la ecuación del valor de vida del cliente se modificó para incorporar más contenido útil al sitio web con la esperanza de retener al visitante. En este sentido, la indexación de texto completo era más objetiva y aumentaba la calidad de los resultados de los motores de búsqueda, ya que era un paso más allá del control subjetivo de la ubicación de los resultados de los motores de búsqueda, lo que a su vez impulsó la investigación de las tecnologías de indexación de texto completo.

En la búsqueda de escritorio , muchas soluciones incorporan metaetiquetas para ofrecer a los autores una forma de personalizar aún más la forma en que el motor de búsqueda indexará el contenido de varios archivos que no es evidente en el contenido del archivo. La búsqueda de escritorio está más bajo el control del usuario, mientras que los motores de búsqueda de Internet deben centrarse más en el índice de texto completo.

Véase también

Referencias

  1. ^ Clarke, C., Cormack, G.: Índices invertidos dinámicos para un sistema distribuido de recuperación de texto completo. TechRep MT-95-01, Universidad de Waterloo, febrero de 1995.
  2. ^ Sikos, LF (agosto de 2016). "Herramientas de anotación de vídeo semántico basadas en RDF con mapeo de conceptos a datos vinculados para la indexación de vídeo de próxima generación". Herramientas y aplicaciones multimedia . doi :10.1007/s11042-016-3705-7. S2CID  254832794.[ enlace muerto permanente ]
  3. ^ http://www.ee.columbia.edu/~dpwe/papers/Wang03-shazam.pdf [ URL básica PDF ]
  4. ^ Charles E. Jacobs, Adam Finkelstein, David H. Salesin. Consulta rápida de imágenes en múltiples resoluciones. Departamento de Ciencias Informáticas e Ingeniería, Universidad de Washington. 1995. Verificado en diciembre de 2006.
  5. ^ Brown, EW: Problemas de rendimiento de ejecución en la recuperación de información de texto completo. Departamento de Ciencias de la Computación, Universidad de Massachusetts Amherst, Informe técnico 95-81, octubre de 1995.
  6. ^ Cutting, D., Pedersen, J.: Optimizaciones para el mantenimiento dinámico del índice invertido. Actas de SIGIR, 405-411, 1990.
  7. ^ Particionamiento hash lineal. Manual de referencia de MySQL 5.1. Verificado en diciembre de 2006
  8. ^ trie, Diccionario de algoritmos y estructuras de datos, Instituto Nacional de Estándares y Tecnología de EE. UU.
  9. ^ Gusfield, Dan (1999) [1997]. Algoritmos sobre cadenas, árboles y secuencias: informática y biología computacional . EE. UU.: Cambridge University Press. ISBN 0-521-58519-8..
  10. ^ Black, Paul E., índice invertido, Diccionario de algoritmos y estructuras de datos, Instituto Nacional de Estándares y Tecnología de EE. UU., octubre de 2006. Verificado en diciembre de 2006.
  11. ^ CC Foster, Recuperación de información: almacenamiento y recuperación de información utilizando árboles AVL, Actas de la 20.ª conferencia nacional de 1965, págs. 192-205, 24-26 de agosto de 1965, Cleveland, Ohio, Estados Unidos
  12. ^ Landauer, WI: El árbol balanceado y su utilización en la recuperación de información. IEEE Trans. on Electronic Computers, Vol. EC-12, No. 6, diciembre de 1963.
  13. ^ Conjuntos de datos de Google Ngram archivados el 29 de septiembre de 2013 en Wayback Machine a la venta en el catálogo de LDC
  14. ^ Jeffrey Dean y Sanjay Ghemawat. MapReduce: procesamiento de datos simplificado en clústeres grandes. Google, Inc. OSDI. 2004.
  15. ^ Grossman, Frieder, Goharian. Fundamentos de índice invertido en IR. 2002. Verificado en agosto de 2011.
  16. ^ Tang, Hunqiang. Dwarkadas, Sandhya . "Indexación local global híbrida para una recuperación de información eficiente entre pares". Universidad de Rochester. Pág. 1. http://www.cs.rochester.edu/u/sandhya/papers/nsdi04.ps
  17. ^ Büttcher, Stefan; Clarke, Charles LA; Cormack, Gordon V. (2016). Recuperación de información: implementación y evaluación de motores de búsqueda (Primera edición de bolsillo de MIT Press). Cambridge, Massachusetts Londres, Inglaterra: The MIT Press. ISBN 978-0-262-52887-0.
  18. ^ Tomasic, A., et al.: Actualizaciones incrementales de listas invertidas para la recuperación de documentos de texto. Versión abreviada de la nota técnica de informática de la Universidad de Stanford STAN-CS-TN-93-1, diciembre de 1993.
  19. ^ Sergey Brin y Lawrence Page. Anatomía de un motor de búsqueda web hipertextual a gran escala. Universidad de Stanford . 1998. Verificado en diciembre de 2006.
  20. ^ HS Heaps. Análisis de almacenamiento de un código de compresión para una base de datos de documentos. 1NFOR, I0(i):47-61, febrero de 1972.
  21. ^ El estándar Unicode: preguntas frecuentes. Verificado en diciembre de 2006.
  22. ^ Estimaciones de almacenamiento. Verificado en diciembre de 2006.
  23. ^ Herramientas para webmasters de Google, "Lenguaje de marcado de hipertexto 5", Conferencia para SEO, enero de 2012.
  24. ^ Berners-Lee, T., "Lenguaje de marcado de hipertexto - 2.0", RFC 1866, Network Working Group, noviembre de 1995.

Lectura adicional

  • R. Bayer y E. McCreight. Organización y mantenimiento de grandes índices ordenados. Acta Informatica, 173-189, 1972.
  • Donald E. Knuth . El arte de la programación informática , volumen 1 (3.ª ed.): algoritmos fundamentales, Addison Wesley Longman Publishing Co. Redwood City, CA, 1997.
  • Donald E. Knuth . El arte de la programación informática, volumen 3: (2.ª ed.) Ordenación y búsqueda, Addison Wesley Longman Publishing Co. Redwood City, CA, 1998.
  • Gerald Salton . Procesamiento automático de textos, Addison-Wesley Longman Publishing Co., Inc., Boston, MA, 1988.
  • Gerard Salton . Michael J. McGill, Introducción a la recuperación de información moderna, McGraw-Hill, Inc., Nueva York, NY, 1986.
  • Gerard Salton . Lesk, ME: Evaluación informática de la indexación y el procesamiento de textos. Revista de la ACM. Enero de 1968.
  • Gerard Salton . El sistema de recuperación SMART: experimentos en el procesamiento automático de documentos. Prentice Hall Inc., Englewood Cliffs, 1971.
  • Gerard Salton . La transformación, análisis y recuperación de información por computadora, Addison-Wesley, Reading, Mass., 1989.
  • Baeza-Yates, R., Ribeiro-Neto, B.: Recuperación de información moderna. Capítulo 8. ACM Press 1999.
  • GK Zipf. El comportamiento humano y el principio del mínimo esfuerzo. Addison-Wesley, 1949.
  • Adelson-Velskii, GM, Landis, EM: Un algoritmo de organización de la información. DANSSSR, 146, 263-266 (1962).
  • Edward H. Sussenguth Jr. , Uso de estructuras de árbol para procesar archivos, Comunicaciones de la ACM, v.6 n.5, p. 272-279, mayo de 1963
  • Harman, DK, et al.: Archivos invertidos. En Recuperación de información: estructuras de datos y algoritmos, Prentice-Hall, págs. 28-43, 1992.
  • Lim, L., et al.: Caracterización del cambio en documentos web, LNCS 2118, 133–146, 2001.
  • Lim, L., et al.: Mantenimiento dinámico de índices web mediante puntos de referencia. Actas de la 12.ª conferencia W3, 2003.
  • Moffat, A., Zobel, J.: Archivos invertidos autoindexados para recuperación rápida de texto. ACM TIS, 349–379, octubre de 1996, volumen 14, número 4.
  • Mehlhorn, K. : Estructuras de datos y algoritmos eficientes, Springer Verlag, Monografías EATCS, 1984.
  • Mehlhorn, K. , Overmars, MH : Dinamización óptima de problemas de búsqueda descomponibles. IPL 12, 93–98, 1981.
  • Mehlhorn, K. : Límites inferiores de la eficiencia de la transformación de estructuras de datos estáticas en estructuras de datos dinámicas. Math. Systems Theory 15, 1–16, 1981.
  • Koster, M.: ALIWEB: Indexación similar a Archie en la Web. Computer Networks and ISDN Systems, vol. 27, n.º 2 (1994) 175-182 (véase también Proc. First Int'l World Wide Web Conf., Elsevier Science, Ámsterdam, 1994, págs. 175-182)
  • Serge Abiteboul y Victor Vianu . Consultas y computación en la Web. Actas de la Conferencia Internacional sobre Teoría de Bases de Datos. Delphi, Grecia, 1997.
  • Ian H Witten, Alistair Moffat y Timothy C. Bell. Managing Gigabytes: Compresión e indexación de documentos e imágenes. Nueva York: Van Nostrand Reinhold, 1994.
  • A. Emtage y P. Deutsch, "Archie: un servicio de directorio electrónico para Internet". Proc. Usenix Winter 1992 Tech. Conf., Usenix Assoc., Berkeley, California, 1992, págs. 93-110.
  • M. Gray, vagabundo de la World Wide Web.
  • D. Cutting y J. Pedersen. "Optimizaciones para el mantenimiento dinámico de índices invertidos". Actas de la 13.ª Conferencia internacional sobre investigación y desarrollo en recuperación de información, págs. 405-411, septiembre de 1990.
  • Stefan Büttcher, Charles LA Clarke y Gordon V. Cormack. Recuperación de información: implementación y evaluación de motores de búsqueda Archivado el 5 de octubre de 2020 en Wayback Machine . MIT Press, Cambridge, Mass., 2010.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Indexación_en_motores_de_búsqueda&oldid=1247041954"