Reconstrucción 3D

Proceso de captura de la forma y apariencia de objetos reales.
Reconstrucción 3D de la anatomía general de la vista lateral derecha de una pequeña babosa marina Pseudunela viatoris .

En visión artificial y gráficos por computadora , la reconstrucción 3D es el proceso de capturar la forma y apariencia de objetos reales. Este proceso puede llevarse a cabo mediante métodos activos o pasivos. [1] Si se permite que el modelo cambie su forma en el tiempo, esto se conoce como reconstrucción no rígida o espacio-temporal . [2]

Motivación y aplicaciones

La investigación de la reconstrucción 3D siempre ha sido un objetivo difícil. Mediante el uso de la reconstrucción 3D se puede determinar el perfil 3D de cualquier objeto, así como conocer la coordenada 3D de cualquier punto del perfil. La reconstrucción 3D de objetos es un problema generalmente científico y una tecnología central de una amplia variedad de campos, como el diseño geométrico asistido por computadora ( CAGD ), los gráficos por computadora , la animación por computadora , la visión por computadora , las imágenes médicas , la ciencia computacional , la realidad virtual , los medios digitales , etc. [3] Por ejemplo, la información de las lesiones de los pacientes se puede presentar en 3D en la computadora, lo que ofrece un enfoque nuevo y preciso en el diagnóstico y, por lo tanto, tiene un valor clínico vital. [4] Los modelos de elevación digitales se pueden reconstruir utilizando métodos como la altimetría láser aerotransportada [5] o el radar de apertura sintética . [6]

Métodos activos

Mapa de ecosondeo 3D de un cañón submarino

Los métodos activos, es decir, los métodos de datos de rango, dado el mapa de profundidad , reconstruyen el perfil 3D mediante un enfoque de aproximación numérica y construyen el objeto en un escenario basado en el modelo. Estos métodos interfieren activamente con el objeto reconstruido, ya sea mecánicamente o radiométricamente utilizando telémetros , para adquirir el mapa de profundidad, por ejemplo, luz estructurada , telémetro láser y otras técnicas de detección activa. Un ejemplo simple de un método mecánico utilizaría un medidor de profundidad para medir una distancia a un objeto giratorio colocado en una plataforma giratoria. Los métodos radiométricos más aplicables emiten radiancia hacia el objeto y luego miden su parte reflejada. Los ejemplos van desde fuentes de luz en movimiento, luz visible coloreada, láseres de tiempo de vuelo [7] hasta microondas o ultrasonido 3D . Consulte escaneo 3D para obtener más detalles.

Métodos pasivos

Los métodos pasivos de reconstrucción 3D no interfieren con el objeto reconstruido; solo utilizan un sensor para medir la radiancia reflejada o emitida por la superficie del objeto para inferir su estructura 3D a través de la comprensión de la imagen . [8] Normalmente, el sensor es un sensor de imagen en una cámara sensible a la luz visible y la entrada al método es un conjunto de imágenes digitales (una, dos o más) o vídeo. En este caso hablamos de reconstrucción basada en imágenes y la salida es un modelo 3D . En comparación con los métodos activos, los métodos pasivos se pueden aplicar a una gama más amplia de situaciones. [9]

Métodos de señales monoculares

Los métodos de señales monoculares se refieren al uso de una o más imágenes desde un punto de vista (cámara) para proceder a la construcción 3D. Hace uso de características 2D (por ejemplo, siluetas, sombreado y textura) para medir la forma 3D, y es por eso que también se denomina Forma-a-partir-de-X, donde X puede ser siluetas , sombreado , textura, etc. La reconstrucción 3D a través de señales monoculares es simple y rápida, y solo se necesita una imagen digital apropiada, por lo que solo una cámara es adecuada. Técnicamente, evita la correspondencia estéreo , que es bastante compleja. [10]

Generación y reconstrucción de formas 3D a partir de mapas de profundidad o siluetas de una o varias vistas [11]
Un " casco visual " reconstruido desde múltiples puntos de vista

Forma a partir del sombreado Debido al análisis de la información de sombra en la imagen, mediante el uso de la reflectancia lambertiana , se restaura la profundidad de la información normal de la superficie del objeto para reconstruirlo. [12]

Estereofotometría Este enfoque es más sofisticado que el método de la forma del sombreado. Se utilizan imágenes tomadas en diferentes condiciones de iluminación para resolver la información de profundidad. Vale la pena mencionar que este enfoque requiere más de una imagen. [13]

Forma a partir de textura Supongamos que un objeto tiene una superficie lisa cubierta por unidades de textura replicadas y su proyección de 3D a 2D provoca distorsión y perspectiva . La distorsión y la perspectiva medidas en imágenes 2D proporcionan la pista para resolver de manera inversa la profundidad de la información normal de la superficie del objeto. [14]

Soluciones basadas en aprendizaje automático El aprendizaje automático permite aprender la correspondencia entre las características sutiles en la entrada y el equivalente 3D respectivo. Las redes neuronales profundas han demostrado ser muy eficaces para la reconstrucción 3D a partir de una imagen de un solo color. [15] Esto funciona incluso para imágenes de entrada no fotorrealistas, como bocetos. [16] Gracias al alto nivel de precisión en las características 3D reconstruidas, el método basado en aprendizaje profundo se ha empleado para aplicaciones de ingeniería biomédica para reconstruir imágenes de TC a partir de rayos X. [17]

Visión estereoscópica

La visión estereoscópica obtiene la información geométrica tridimensional de un objeto a partir de múltiples imágenes basándose en la investigación del sistema visual humano . [18] Los resultados se presentan en forma de mapas de profundidad. Las imágenes de un objeto adquiridas por dos cámaras simultáneamente en diferentes ángulos de visión , o por una sola cámara en diferentes momentos en diferentes ángulos de visión, se utilizan para restaurar su información geométrica tridimensional y reconstruir su perfil y ubicación tridimensionales. Esto es más directo que los métodos monoculares como la forma a partir del sombreado.

El método de visión estereoscópica binocular requiere dos cámaras idénticas con ejes ópticos paralelos para observar un mismo objeto y obtener dos imágenes desde diferentes puntos de vista. En términos de relaciones trigonométricas, la información de profundidad se puede calcular a partir de la disparidad. El método de visión estereoscópica binocular está bien desarrollado y contribuye de manera estable a una reconstrucción 3D favorable, lo que conduce a un mejor rendimiento en comparación con otras construcciones 3D. Desafortunadamente, requiere un gran esfuerzo computacional y, además, su rendimiento es bastante deficiente cuando la distancia de referencia es grande.

Planteamiento del problema y conceptos básicos

El enfoque de utilizar la visión estéreo binocular para adquirir información geométrica 3D de los objetos se basa en la disparidad visual . [19] La siguiente imagen proporciona un diagrama esquemático simple de la visión estéreo binocular con visión horizontal, donde b es la línea de base entre los centros proyectivos de dos cámaras.

Geometría de un sistema estereoscópico

El origen del sistema de coordenadas de la cámara está en el centro óptico de la lente de la cámara, como se muestra en la figura. En realidad, el plano de imagen de la cámara está detrás del centro óptico de la lente de la cámara. Sin embargo, para simplificar el cálculo, las imágenes se dibujan delante del centro óptico de la lente mediante f. El eje u y el eje v del sistema de coordenadas de la imagen están en la misma dirección que el eje x y el eje y del sistema de coordenadas de la cámara, respectivamente. El origen del sistema de coordenadas de la imagen se encuentra en la intersección del plano de imagen y el eje óptico. Supongamos que existe un punto del mundo cuyos puntos de imagen correspondientes están y respectivamente en el plano de imagen izquierdo y derecho. Supongamos que dos cámaras están en el mismo plano, entonces las coordenadas y de y son idénticas, es decir, . Según las relaciones trigonométricas , Oh 1 en Estilo de visualización O_{1}uv PAG {\estilo de visualización P} PAG 1 ( 1 , en 1 ) {\ Displaystyle P_ {1} (u_ {1}, v_ {1})} PAG 2 ( 2 , en 2 ) {\ Displaystyle P_ {2} (u_ {2}, v_ {2})} PAG 1 Estilo de visualización P_{1} PAG 2 Estilo de visualización P_{2} en 1 = en 2 {\displaystyle v_{1}=v_{2}}

1 = F incógnita pag el pag {\displaystyle u_{1}=f{\frac {x_{p}}{z_{p}}}}

2 = F incógnita pag b el pag {\displaystyle u_{2}=f{\frac {x_{p}-b}{z_{p}}}}

en 1 = en 2 = F y pag el pag {\displaystyle v_{1}=v_{2}=f{\frac {y_{p}}{z_{p}}}}

donde son las coordenadas de en el sistema de coordenadas de la cámara izquierda, es la distancia focal de la cámara. La disparidad visual se define como la diferencia en la ubicación del punto de imagen de un cierto punto del mundo adquirido por dos cámaras, ( incógnita pag , y pag , el pag ) {\ Displaystyle (x_ {p}, y_ {p}, z_ {p})} PAG {\estilo de visualización P} F {\estilo de visualización f}

d = 1 2 = F b el pag {\displaystyle d=u_{1}-u_{2}=f{\frac {b}{z_{p}}}}

en base a lo cual se pueden calcular las coordenadas de . PAG {\estilo de visualización P}

Por lo tanto, una vez conocidas las coordenadas de los puntos de la imagen, además de los parámetros de dos cámaras, se puede determinar la coordenada 3D del punto.

incógnita pag = b 1 d {\displaystyle x_{p}={\frac {bu_{1}}{d}}}

y pag = b en 1 d {\displaystyle y_{p}={\frac {bv_{1}}{d}}}

el pag = b F d {\displaystyle z_{p}={\frac {bf}{d}}}

La reconstrucción 3D consta de las siguientes secciones:

Adquisición de imágenes

La adquisición de imágenes digitales 2D es la fuente de información de la reconstrucción 3D. La reconstrucción 3D que se utiliza habitualmente se basa en dos o más imágenes, aunque en algunos casos puede emplear solo una imagen. Existen varios tipos de métodos para la adquisición de imágenes que dependen de las ocasiones y los propósitos de la aplicación específica. No solo se deben cumplir los requisitos de la aplicación, sino que también se deben considerar la disparidad visual, la iluminación, el rendimiento de la cámara y las características del escenario.

Calibración de la cámara

La calibración de la cámara en la visión estereoscópica binocular se refiere a la determinación de la relación de mapeo entre los puntos de la imagen y las coordenadas espaciales en el escenario 3D. La calibración de la cámara es una parte básica y esencial en la reconstrucción 3D mediante la visión estereoscópica binocular. PAG 1 ( 1 , en 1 ) {\ Displaystyle P_ {1} (u_ {1}, v_ {1})} PAG 2 ( 2 , en 2 ) {\ Displaystyle P_ {2} (u_ {2}, v_ {2})} PAG ( incógnita pag , y pag , el pag ) {\ Displaystyle P (x_ {p}, y_ {p}, z_ {p})}

Extracción de características

El objetivo de la extracción de características es obtener las características de las imágenes, a través de las cuales se procesa la correspondencia estereoscópica. Como resultado, las características de las imágenes están estrechamente vinculadas a la elección de los métodos de comparación. No existe una teoría de aplicación universal para la extracción de características, lo que conduce a una gran diversidad de correspondencias estereoscópicas en la investigación de la visión estereoscópica binocular.

Correspondencia estereoscópica

La correspondencia estéreo consiste en establecer la correspondencia entre factores primitivos en imágenes, es decir, hacer coincidir y a partir de dos imágenes. Se deben tener en cuenta ciertos factores de interferencia en el escenario, por ejemplo, iluminación, ruido, características físicas de la superficie, etc. PAG 1 ( 1 , en 1 ) {\ Displaystyle P_ {1} (u_ {1}, v_ {1})} PAG 2 ( 2 , en 2 ) {\ Displaystyle P_ {2} (u_ {2}, v_ {2})}

Restauración

De acuerdo con la correspondencia precisa, combinada con los parámetros de ubicación de la cámara, se puede recuperar información geométrica 3D sin dificultades. Debido a que la precisión de la reconstrucción 3D depende de la precisión de la correspondencia, el error de los parámetros de ubicación de la cámara, etc., los procedimientos anteriores deben realizarse con cuidado para lograr una reconstrucción 3D relativamente precisa.

Reconstrucción 3D de imágenes médicas

La rutina clínica de diagnóstico, el seguimiento del paciente, la cirugía asistida por computadora, la planificación quirúrgica, etc. se facilitan con modelos 3D precisos de la parte deseada de la anatomía humana. La motivación principal detrás de la reconstrucción 3D incluye

  • Precisión mejorada gracias a la agregación de múltiples vistas.
  • Estimaciones de superficie detalladas.
  • Se puede utilizar para planificar, simular, guiar o ayudar de otro modo a un cirujano a realizar un procedimiento médico.
  • Se puede determinar la posición y orientación precisas de la anatomía del paciente.
  • Ayuda en diversas áreas clínicas, como planificación de radioterapia y verificación del tratamiento, cirugía de columna, reemplazo de cadera, neurointervenciones y colocación de stents aórticos.

Aplicaciones:

La reconstrucción 3D tiene aplicaciones en muchos campos, entre ellos:

Planteamiento del problema:

La mayoría de los algoritmos disponibles para la reconstrucción 3D son extremadamente lentos y no se pueden utilizar en tiempo real. Aunque los algoritmos presentados aún están en sus primeras etapas, tienen potencial para realizar cálculos rápidos.

Enfoques existentes:

Triangulación de Delaunay (25 puntos)

Delaunay y las formas alfa

  • El método de Delaunay implica la extracción de superficies tetraédricas a partir de una nube de puntos inicial. La idea de "forma" para un conjunto de puntos en el espacio viene dada por el concepto de formas alfa. Dado un conjunto finito de puntos S y el parámetro real alfa, la forma alfa de S es un politopo (la generalización a cualquier dimensión de un polígono bidimensional y un poliedro tridimensional) que no es convexo ni necesariamente conectado. [32] Para un valor grande, la forma alfa es idéntica a la envoltura convexa de S. El algoritmo propuesto por Edelsbrunner y Mucke [33] elimina todos los tetraedros que están delimitados por una esfera circundante más pequeña que α. La superficie se obtiene entonces con los triángulos externos del tetraedro resultante. [33]
  • Otro algoritmo llamado Tight Cocone [34] etiqueta los tetraedros iniciales como interiores y exteriores. Los triángulos que se encuentran dentro y fuera generan la superficie resultante.

Ambos métodos se han ampliado recientemente para reconstruir nubes de puntos con ruido. [34] En este método, la calidad de los puntos determina la viabilidad del método. Para una triangulación precisa, dado que utilizamos todo el conjunto de nubes de puntos, los puntos de la superficie con un error superior al umbral se representarán explícitamente en la geometría reconstruida. [32]

Cubos de marcha

Métodos de puesta a cero

La reconstrucción de la superficie se realiza utilizando una función de distancia que asigna a cada punto en el espacio una distancia con signo a la superficie S . Se utiliza un algoritmo de contorno para extraer un conjunto de ceros que se utiliza para obtener la representación poligonal del objeto. Por lo tanto, el problema de reconstruir una superficie a partir de una nube de puntos desorganizada se reduce a la definición de la función apropiada f con un valor cero para los puntos muestreados y diferente al valor cero para el resto. Un algoritmo llamado cubos de marcha estableció el uso de tales métodos. [35] Hay diferentes variantes para un algoritmo dado, algunas utilizan una función discreta f , mientras que otras utilizan una función de base radial poliarmónica que se utiliza para ajustar el conjunto de puntos inicial. [36] [37] También se han utilizado funciones como Mínimos Cuadrados Móviles, funciones básicas con soporte local, [38] basadas en la ecuación de Poisson. La pérdida de la precisión de la geometría en áreas con curvatura extrema, es decir, esquinas, bordes es uno de los principales problemas encontrados. Además, el pretratamiento de la información, mediante la aplicación de algún tipo de técnica de filtrado, también afecta a la definición de las esquinas suavizándolas. Existen varios estudios relacionados con las técnicas de postprocesamiento utilizadas en la reconstrucción para la detección y refinamiento de esquinas pero estos métodos incrementan la complejidad de la solución. [39]

Geometría sólida con representación de volumen Imagen cortesía de Patrick Chris Fragile Ph.D., UC Santa Barbara

Técnica de realidad virtual

La transparencia total del volumen del objeto se visualiza mediante la técnica de realidad virtual. Las imágenes se obtienen proyectando rayos a través de los datos de volumen. A lo largo de cada rayo, se debe calcular la opacidad y el color en cada vóxel. Luego, la información calculada a lo largo de cada rayo se agregará a un píxel en el plano de la imagen. Esta técnica nos ayuda a ver de manera integral una estructura compacta completa del objeto. Dado que la técnica requiere una enorme cantidad de cálculos, lo que requiere computadoras de configuración sólida, es adecuada para datos de bajo contraste. Se pueden considerar dos métodos principales para la proyección de rayos, a saber:

  • Método de orden de objetos: los rayos proyectados atraviesan el volumen de atrás hacia adelante (desde el volumen hasta el plano de la imagen).
  • Método de proyección de rayos o de orden de imagen: los rayos proyectados atraviesan el volumen de adelante hacia atrás (desde el plano de la imagen hasta el volumen). Existen otros métodos para componer imágenes, métodos apropiados según los propósitos del usuario. Algunos métodos habituales en imágenes médicas son MIP (proyección de máxima intensidad), MinIP (proyección de mínima intensidad), AC ( composición alfa ) y NPVR ( representación de volumen no fotorrealista ).
Trazado de un rayo a través de una cuadrícula de vóxeles. Los vóxeles que se recorren además de los seleccionados mediante un algoritmo estándar de 8 conexiones se muestran sombreados.

Cuadrícula de vóxeles

En esta técnica de filtrado se muestrea el espacio de entrada utilizando una rejilla de vóxeles 3D para reducir el número de puntos. [40] Para cada vóxel se elige un centroide como representante de todos los puntos. Existen dos enfoques, la selección del centroide del vóxel o la selección del centroide de los puntos que se encuentran dentro del vóxel. Obtener el promedio interno de puntos tiene un mayor coste computacional, pero ofrece mejores resultados. De esta forma, se obtiene un subconjunto del espacio de entrada que representa aproximadamente la superficie subyacente. El método de la rejilla de vóxeles presenta los mismos problemas que otras técnicas de filtrado: imposibilidad de definir el número final de puntos que representan la superficie, pérdida de información geométrica debido a la reducción de los puntos dentro de un vóxel y sensibilidad a espacios de entrada ruidosos.

Véase también

Referencias

  1. ^ Moons, Theo, Luc Van Gool y Maarten Vergauwen. "Reconstrucción 3D a partir de múltiples imágenes, parte 1: Principios". Fundamentos y tendencias en gráficos y visión por computadora 4.4 (2010): 287-404.
  2. ^ Zollhöfer, Michael, et al. "Reconstrucción no rígida en tiempo real utilizando una cámara RGB-D". ACM Transactions on Graphics 33.4 (2014): 156.
  3. ^ "El futuro del modelado 3D". GarageFarm . 2017-05-27 . Consultado el 2017-05-27 .
  4. ^ ab Liping Zheng; Guangyao Li; Jing Sha (2007). "El estudio de la reconstrucción 3D de imágenes médicas". En Luo, Qingming; Wang, Lihong V.; Tuchin, Valery V.; Gu, Min (eds.). Quinta Conferencia Internacional sobre Fotónica e Imágenes en Biología y Medicina . Actas de SPIE. Vol. 6534. págs. 65342K–65342K–6. doi :10.1117/12.741321. S2CID  62548928.
  5. ^ Vosselman, George y Sander Dijkman. "Reconstrucción de modelos de edificios en 3D a partir de nubes de puntos y planos de planta". Archivos internacionales de teledetección y ciencias de la información espacial mediante fotogrametría 34.3/W4 (2001): 37-44.
  6. ^ Colesanti, Carlo y Janusz Wasowski. "Investigación de deslizamientos de tierra con interferometría de radar de apertura sintética (SAR) espacial". Ingeniería geológica 88.3-4 (2006): 173-199.
  7. ^ ab Mahmoudzadeh, Ahmadreza; Golroo, Amir; Jahanshahi, Mohammad R.; Firoozi Yeganeh, Sayna (enero de 2019). "Estimación de la rugosidad del pavimento mediante la fusión de datos de color y profundidad obtenidos a partir de un sensor RGB-D económico". Sensores . 19 (7): 1655. Bibcode :2019Senso..19.1655M. doi : 10.3390/s19071655 . PMC 6479490 . PMID  30959936. 
  8. ^ Buelthoff, Heinrich H. y Alan L. Yuille. "Shape-from-X: Psychophysics and computation" (Forma a partir de X: psicofísica y computación). Archivado el 7 de enero de 2011 en Wayback Machine . Fibers' 91, Boston, MA. Sociedad Internacional de Óptica y Fotónica, 1991.
  9. ^ Lunas, Theo (2010). Reconstrucción 3D a partir de múltiples imágenes. Parte 1, Principios . Gool, Luc van., Vergauwen, Maarten. Hannover, MA: Now Publishers, Inc. ISBN 978-1-60198-285-8.OCLC 607557354  .
  10. ^ Saxena, Ashutosh; Sun, Min; Ng, Andrew Y. (2007). "Reconstrucción 3-D a partir de vistas dispersas utilizando visión monocular". 2007 IEEE 11th International Conference on Computer Vision . págs. 1–8. CiteSeerX 10.1.1.78.5303 . doi :10.1109/ICCV.2007.4409219. ISBN  978-1-4244-1630-1. Número de identificación del sujeto  17571812.
  11. ^ Soltani, AA; Huang, H.; Wu, J.; Kulkarni, TD; Tenenbaum, JB (2017). "Sintetización de formas 3D mediante el modelado de mapas de profundidad y siluetas de múltiples vistas con redes generativas profundas". Actas de la Conferencia IEEE sobre visión artificial y reconocimiento de patrones . págs. 1511–1519 – vía GitHub.
  12. ^ Horn, Berthold KP. "Forma a partir del sombreado: un método para obtener la forma de un objeto opaco liso a partir de una vista". (1970).
  13. ^ Woodham, Robert J. (1980). "Método fotométrico para determinar la orientación de la superficie a partir de múltiples imágenes" (PDF) . Ingeniería óptica . 19 (1): 138–141. Código Bibliográfico :1980OptEn..19..139W. doi :10.1117/12.7972479. Archivado desde el original (PDF) el 27 de marzo de 2014.
  14. ^ Witkin, Andrew P. (1981). "Recuperación de la forma y la orientación de la superficie a partir de la textura" (PDF) . Inteligencia artificial . 17 (1–3): 17–45. doi :10.1016/0004-3702(81)90019-9.
  15. ^ Feng, Qi; Shum, Hubert PH; Morishima, Shigeo (2022). "Estimación de profundidad de 360 ​​grados en la naturaleza: el conjunto de datos Depth360 y la red SegFuse". Conferencia IEEE de 2022 sobre realidad virtual e interfaces de usuario 3D (RV) . IEEE. págs. 664–673. arXiv : 2202.08010 . doi :10.1109/VR51125.2022.00087. ISBN . 978-1-6654-9617-9.
  16. ^ Nozawa, Naoki; Shum, Hubert PH; Feng, Qi; Ho, Edmond SL; Morishima, Shigeo (2022). "Reconstrucción de la forma de un automóvil en 3D a partir de un boceto de contorno utilizando GAN y aprendizaje diferido". Visual Computer . 38 (4). Springer: 1317–1330. doi : 10.1007/s00371-020-02024-y . ISSN  1432-2315.
  17. ^ Corona-Figueroa, Abril; Bond-Taylor, Sam; Bhowmik, Neelanjan; Gaus, Yona Falinie A.; Breckon, Toby P.; Shum, Hubert PH; Willcocks, Chris G. (2023). Traducción no alineada de 2D a 3D con difusión de código cuantificado por vectores condicional utilizando transformadores . IEEE/CVF. arXiv : 2308.14152 .
  18. ^ Kass, Michael; Witkin, Andrew; Terzopoulos, Demetri (1988). "Serpientes: modelos de contorno activos" (PDF) . Revista internacional de visión por computadora . 1 (4): 321–331. doi :10.1007/BF00133570. S2CID  12849354.
  19. ^ McCoun, Jacques y Lucien Reeves. Visión binocular: desarrollo, percepción de profundidad y trastornos. Nova Science Publishers, Inc. , 2010.
  20. ^ Mahmoudzadeh, Ahmadreza; Yeganeh, Sayna Firoozi; Golroo, Amir (9 de julio de 2019). "Reconstrucción 3D de la superficie del pavimento mediante un sensor RGB-D". arXiv : 1907.04124 [cs.CV].
  21. ^ Carranza, Joel, et al. "Vídeo de actores humanos desde un punto de vista libre". ACM Transactions on Graphics. Vol. 22. Núm. 3. ACM, 2003.
  22. ^ Thrun, Sebastian. "Mapeo robótico: un estudio". Explorando la inteligencia artificial en el nuevo milenio 1.1-35 (2002): 1.
  23. ^ Poullis, Charalambos; You, Suya (mayo de 2011). "Reconstrucción 3D de áreas urbanas". Conferencia internacional de 2011 sobre imágenes, modelado, procesamiento, visualización y transmisión en 3D . págs. 33–40. doi :10.1109/3dimpvt.2011.14. ISBN 978-1-61284-429-9.S2CID1189988  .
  24. ^ Xu, Fang y Klaus Mueller. "Reconstrucción tomográfica computarizada en 3D en tiempo real utilizando hardware gráfico de consumo Archivado el 19 de marzo de 2016 en Wayback Machine ." Física en Medicina y Biología 52.12 (2007): 3405.
  25. ^ ab Mortara, Michela, et al. "Aprender el patrimonio cultural mediante juegos serios". Journal of Cultural Heritage 15.3 (2014): 318-325.
  26. ^ Bruno, Fabio; et al. (enero-marzo de 2010). "De la reconstrucción 3D a la realidad virtual: una metodología completa para la exposición arqueológica digital". Journal of Cultural Heritage . 11 (1): 42–49. doi :10.1016/j.culher.2009.02.006 – vía ResearchGate.
  27. ^ Izadi, Shahram, et al. "KinectFusion: reconstrucción 3D en tiempo real e interacción mediante una cámara de profundidad móvil". Actas del 24.º simposio anual de la ACM sobre software y tecnología de interfaz de usuario. ACM, 2011.
  28. ^ Wang, Jun; Gu, Dongxiao; Yu, Zeyun; Tan, Changbai; Zhou, Laishui (diciembre de 2012). "Un marco para la reconstrucción de modelos 3D en ingeniería inversa". Computers & Industrial Engineering . 63 (4): 1189–1200. doi :10.1016/j.cie.2012.07.009.
  29. ^ Moeslund, Thomas B. y Erik Granum. "Un estudio de la captura de movimiento humano basada en visión artificial". Computer vision and image understanding 81.3 (2001): 231-268.
  30. ^ Hejrati, Mohsen y Deva Ramanan. "Análisis por síntesis: reconocimiento de objetos en 3D mediante reconstrucción de objetos". Actas de la Conferencia IEEE sobre visión artificial y reconocimiento de patrones. 2014.
  31. ^ Keskin, Cem, Ayse Erkan y Lale Akarun. "Seguimiento de manos en tiempo real y reconocimiento de gestos en 3D para interfaces interactivas utilizando hmm". ICANN/ICONIPP 2003 (2003): 26-29.
  32. ^ ab Angelopoulou, A.; Psarrou, A.; Garcia-Rodriguez, J.; Orts-Escolano, S.; Azorin-Lopez, J.; Revett, K. (20 de febrero de 2015). "Reconstrucción 3D de imágenes médicas a partir de cortes marcados automáticamente con modelos neuronales en crecimiento" (PDF) . Neurocomputing . 150 (Parte A): 16–25. doi :10.1016/j.neucom.2014.03.078. hdl : 10045/42544 .
  33. ^ ab Edelsbrunner, Herbert; Mücke, Ernst (enero de 1994). "Formas alfa tridimensionales". ACM Trans. Graph . 13 (1): 43–72. arXiv : math/9410208 . Código Bibliográfico :1994math.....10208E. doi :10.1145/174462.156635. S2CID  1600979.
  34. ^ ab Dey, Tamal K. ; Goswami, Samrat (agosto de 2006). "Reconstrucción de superficies probables a partir de muestras ruidosas". Geometría computacional . 35 (1–2): 124–141. doi :10.1016/j.comgeo.2005.10.006.
  35. ^ Lorensen, William E.; Cline, Harvey E. (julio de 1987). "Cubos de marcha: un algoritmo de construcción de superficies 3D de alta resolución". ACM SIGGRAPH Computer Graphics . 21 (4): 163–169. CiteSeerX 10.1.1.545.613 . doi :10.1145/37402.37422. 
  36. ^ Hoppe, Hugues; DeRose, Tony; Duchamp, Tom; McDonald, John; Stuetzle, Werner (julio de 1992). "Reconstrucción de superficies a partir de puntos no organizados". ACM SIGGRAPH Computer Graphics . 26 (2): 71–78. CiteSeerX 10.1.1.5.3672 . doi :10.1145/142920.134011. 
  37. ^ Carr, JC; Beatson, RK; Cherrie, JB; Mitchell, TJ; Fright, WR; McCallum, BC; Evans, TR (2001). "Reconstrucción y representación de objetos 3D con funciones de base radial" (PDF) . 28.ª Conferencia Anual sobre Gráficos por Computadora y Técnicas Interactivas SIGGRAPH 2001. ACM. págs. 67–76.
  38. ^ Walder, C.; Schölkopf, B.; Chapelle, O. (2006). "Modelado de superficies implícito con una base globalmente regularizada de soporte compacto" (PDF) . Eurographics . 25 (3). Archivado desde el original (PDF) el 2017-09-22 . Consultado el 2018-10-09 .
  39. ^ Wang, CL (junio de 2006). "Reconstrucción incremental de bordes afilados en superficies de malla". Diseño asistido por computadora . 38 (6): 689–702. doi :10.1016/j.cad.2006.02.009.
  40. ^ Connolly, C. (1984). "Generación acumulativa de modelos octree a partir de datos de rango". Actas. Conferencia internacional IEEE de 1984 sobre robótica y automatización . Vol. 1. págs. 25–32. doi :10.1109/ROBOT.1984.1087212.
  • Sintetización de formas 3D mediante el modelado de siluetas y mapas de profundidad de múltiples vistas con redes generativas profundas: genere y reconstruya formas 3D mediante el modelado de siluetas o mapas de profundidad de múltiples vistas.
  • http://www.nature.com/subjects/3d-reconstruction#news-and-comment
  • http://6.869.csail.mit.edu/fa13/lectures/lecture11shapefromX.pdf
  • http://research.microsoft.com/apps/search/default.aspx?q=3d+reconstruction
  • https://research.google.com/search.html#q=3D%20reconstrucción
Obtenido de "https://es.wikipedia.org/w/index.php?title=Reconstrucción_3D&oldid=1249368749"