Ortogonalidad (matemáticas)

Término en geometría matemática

En matemáticas , la ortogonalidad es la generalización de la noción geométrica de perpendicularidad al álgebra lineal de formas bilineales .

Dos elementos u y v de un espacio vectorial con forma bilineal son ortogonales cuando . Dependiendo de la forma bilineal, el espacio vectorial puede contener vectores autoortogonales distintos de cero. En el caso de los espacios funcionales , se utilizan familias de funciones ortogonales para formar una base ortogonal . B {\estilo de visualización B} B ( , en ) = 0 {\displaystyle B(\mathbf {u} ,\mathbf {v} )=0}

El concepto se ha utilizado en el contexto de funciones ortogonales , polinomios ortogonales y combinatoria .

Ortogonalidad y rotación de sistemas de coordenadas comparados entre la izquierda: espacio euclidiano a través del ángulo circular ϕ , derecha: en el espacio-tiempo de Minkowski a través del ángulo hiperbólico ϕ (las líneas rojas etiquetadas c indican las líneas del mundo de una señal de luz, un vector es ortogonal a sí mismo si se encuentra en esta línea). [1]

Definiciones

  • En geometría , dos vectores euclidianos son ortogonales si son perpendiculares , es decir , forman un ángulo recto .
  • Dos vectores u y v en un espacio de producto interno son ortogonales si su producto interno es cero. [2] Esta relación se denota . V {\estilo de visualización V} , en {\displaystyle \langle \mathbf {u} ,\mathbf {v} \rangle } en {\displaystyle \mathbf {u} \perp \mathbf {v} }
  • Una matriz ortogonal es una matriz cuyos vectores columna son ortonormales entre sí.
  • Una base ortonormal es una base cuyos vectores son ortogonales y normalizados (son vectores unitarios ).
  • Una transformación lineal conforme preserva los ángulos y las relaciones de distancia, lo que significa que al transformar vectores ortogonales mediante la misma transformación lineal conforme se mantendrán esos vectores ortogonales .
  • Dos subespacios vectoriales y de un espacio de producto interior se denominan subespacios ortogonales si cada vector en es ortogonal a cada vector en . El subespacio más grande de que es ortogonal a un subespacio dado es su complemento ortogonal . A {\estilo de visualización A} B {\estilo de visualización B} V {\estilo de visualización V} A {\estilo de visualización A} B {\estilo de visualización B} V {\estilo de visualización V}
  • Dado un módulo y su dual , un elemento de y un elemento de son ortogonales si su emparejamiento natural es cero, es decir . Dos conjuntos y son ortogonales si cada elemento de es ortogonal a cada elemento de . [3] METRO {\estilo de visualización M} METRO Estilo de visualización M* metro " {\estilo de visualización m'} METRO Estilo de visualización M* metro {\estilo de visualización m} METRO {\estilo de visualización M} metro " , metro = 0 {\displaystyle \langle m',m\rangle =0} S " METRO {\displaystyle S'\subseteq M^{*}} S METRO {\displaystyle S\subseteq M} S " {\estilo de visualización S'} S {\estilo de visualización S}
  • Se dice que un sistema de reescritura de términos es ortogonal si es lineal por la izquierda y no es ambiguo. Los sistemas de reescritura de términos ortogonales son confluentes .

Un conjunto de vectores en un espacio de producto interno se denomina ortogonal por pares si cada par de ellos es ortogonal. Un conjunto de este tipo se denomina conjunto ortogonal .

En ciertos casos, la palabra normal se utiliza para significar ortogonal , particularmente en el sentido geométrico como en la normal a una superficie . Por ejemplo, el eje y es normal a la curva en el origen. Sin embargo, normal también puede referirse a la magnitud de un vector. En particular, un conjunto se llama ortonormal (ortogonal más normal) si es un conjunto ortogonal de vectores unitarios . Como resultado, el uso del término normal para significar "ortogonal" a menudo se evita. La palabra "normal" también tiene un significado diferente en probabilidad y estadística . y = incógnita 2 {\displaystyle y=x^{2}}

Un espacio vectorial con una forma bilineal generaliza el caso de un producto interno. Cuando la forma bilineal aplicada a dos vectores da como resultado cero, entonces son ortogonales . El caso de un plano pseudoeuclidiano utiliza el término ortogonalidad hiperbólica . En el diagrama, los ejes x′ y t′ son hiperbólico-ortogonales para cualquier . ϕ {\estilo de visualización \phi}

Espacios vectoriales euclidianos

En el espacio euclidiano , dos vectores son ortogonales si y solo si su producto escalar es cero, es decir, forman un ángulo de 90° ( radianes ), o uno de los vectores es cero. [4] Por lo tanto, la ortogonalidad de los vectores es una extensión del concepto de vectores perpendiculares a espacios de cualquier dimensión. π 2 {\estilo de texto {\frac {\pi }{2}}}

El complemento ortogonal de un subespacio es el espacio de todos los vectores que son ortogonales a cada vector en el subespacio. En un espacio vectorial euclidiano tridimensional, el complemento ortogonal de una línea que pasa por el origen es el plano que pasa por el origen perpendicular a ella, y viceversa. [5]

Nótese que el concepto geométrico de dos planos perpendiculares no corresponde al complemento ortogonal, ya que en tres dimensiones un par de vectores, uno de cada par de planos perpendiculares, podrían encontrarse en cualquier ángulo.

En el espacio euclidiano de cuatro dimensiones, el complemento ortogonal de una línea es un hiperplano y viceversa, y el de un plano es un plano. [5]

Funciones ortogonales

Al utilizar el cálculo integral , es común utilizar lo siguiente para definir el producto interno de dos funciones y con respecto a una función de peso no negativa en un intervalo : F {\estilo de visualización f} gramo {\estilo de visualización g} el {\estilo de visualización w} [ a , b ] {\estilo de visualización [a,b]}

F , gramo el = a b F ( incógnita ) gramo ( incógnita ) el ( incógnita ) d incógnita . {\displaystyle \langle f,g\rangle _{w}=\int _{a}^{b}f(x)g(x)w(x)\,dx.}

En casos sencillos, . w ( x ) = 1 {\displaystyle w(x)=1}

Decimos que las funciones y son ortogonales si su producto interno (equivalentemente, el valor de esta integral) es cero: f {\displaystyle f} g {\displaystyle g}

f , g w = 0. {\displaystyle \langle f,g\rangle _{w}=0.}

La ortogonalidad de dos funciones con respecto a un producto interno no implica ortogonalidad con respecto a otro producto interno.

Escribimos la norma con respecto a este producto interno como

f w = f , f w {\displaystyle \|f\|_{w}={\sqrt {\langle f,f\rangle _{w}}}}

Los miembros de un conjunto de funciones son ortogonales con respecto a en el intervalo si f i i N {\displaystyle {f_{i}\mid i\in \mathbb {N} }} w {\displaystyle w} [ a , b ] {\displaystyle [a,b]}

f i , f j w = 0 i j . {\displaystyle \langle f_{i},f_{j}\rangle _{w}=0\mid i\neq j.}

Los miembros de dicho conjunto de funciones son ortonormales con respecto al intervalo si w {\displaystyle w} [ a , b ] {\displaystyle [a,b]}

f i , f j w = δ i j , {\displaystyle \langle f_{i},f_{j}\rangle _{w}=\delta _{ij},}

dónde

δ i j = { 1 , i = j 0 , i j {\displaystyle \delta _{ij}=\left\{{\begin{matrix}1,&&i=j\\0,&&i\neq j\end{matrix}}\right.}

es el delta de Kronecker .

En otras palabras, cada par de ellos (excluyendo el emparejamiento de una función consigo misma) es ortogonal, y la norma de cada uno es 1. Véanse en particular los polinomios ortogonales .

Ejemplos

  • Los vectores son ortogonales entre sí, ya que y . ( 1 , 3 , 2 ) T , ( 3 , 1 , 0 ) T , ( 1 , 3 , 5 ) T {\displaystyle (1,3,2)^{\text{T}},(3,-1,0)^{\text{T}},(1,3,-5)^{\text{T}}} ( 1 ) ( 3 ) + ( 3 ) ( 1 ) + ( 2 ) ( 0 ) = 0   , {\displaystyle (1)(3)+(3)(-1)+(2)(0)=0\ ,}   ( 3 ) ( 1 ) + ( 1 ) ( 3 ) + ( 0 ) ( 5 ) = 0   , {\displaystyle \ (3)(1)+(-1)(3)+(0)(-5)=0\ ,} ( 1 ) ( 1 ) + ( 3 ) ( 3 ) + ( 2 ) ( 5 ) = 0 {\displaystyle (1)(1)+(3)(3)+(2)(-5)=0}
  • Los vectores y son ortogonales entre sí. El producto escalar de estos vectores es cero. Podemos entonces hacer la generalización de considerar los vectores en : para algún entero positivo , y para , estos vectores son ortogonales, por ejemplo , , son ortogonales. ( 1 , 0 , 1 , 0 , ) T {\displaystyle (1,0,1,0,\ldots )^{\text{T}}} ( 0 , 1 , 0 , 1 , ) T {\displaystyle (0,1,0,1,\ldots )^{\text{T}}} Z 2 n {\displaystyle \mathbb {Z} _{2}^{n}} v k = i = 0 a i + k < n n / a e i {\displaystyle \mathbf {v} _{k}=\sum _{i=0 \atop ai+k<n}^{n/a}\mathbf {e} _{i}} a {\displaystyle a} 1 k a 1 {\displaystyle 1\leq k\leq a-1} [ 1 0 0 1 0 0 1 0 ] {\displaystyle {\begin{bmatrix}1&0&0&1&0&0&1&0\end{bmatrix}}} [ 0 1 0 0 1 0 0 1 ] {\displaystyle {\begin{bmatrix}0&1&0&0&1&0&0&1\end{bmatrix}}} [ 0 0 1 0 0 1 0 0 ] {\displaystyle {\begin{bmatrix}0&0&1&0&0&1&0&0\end{bmatrix}}}
  • Las funciones y son ortogonales con respecto a una función de peso unitario en el intervalo de −1 a 1: 2 t + 3 {\displaystyle 2t+3} 45 t 2 + 9 t 17 {\displaystyle 45t^{2}+9t-17} 1 1 ( 2 t + 3 ) ( 45 t 2 + 9 t 17 ) d t = 0 {\displaystyle \int _{-1}^{1}\left(2t+3\right)\left(45t^{2}+9t-17\right)\,dt=0}
  • Las funciones son ortogonales con respecto a la integración de Riemann en los intervalos , o cualquier otro intervalo cerrado de longitud . Este hecho es central en las series de Fourier . 1 , sin ( n x ) , cos ( n x ) n N {\displaystyle 1,\sin {(nx)},\cos {(nx)}\mid n\in \mathbb {N} } [ 0 , 2 π ] , [ π , π ] {\displaystyle [0,2\pi ],[-\pi ,\pi ]} 2 π {\displaystyle 2\pi }

Polinomios ortogonales

Varias sucesiones polinómicas que llevan el nombre de matemáticos del pasado son sucesiones de polinomios ortogonales . En particular:

Combinatoria

En combinatoria , se dice que dos cuadrados latinos son ortogonales si su superposición produce todas las combinaciones posibles de entradas. [6] n × n {\displaystyle n\times n} n 2 {\displaystyle n^{2}}

Completamente ortogonal

Dos planos y de un espacio euclidiano de cuatro dimensiones se denominan completamente ortogonales si y solo si cada línea en es ortogonal a cada línea en . [7] En ese caso, los planos y se intersecan en un único punto , de modo que si una línea en se interseca con una línea en , se intersecan en . y son perpendiculares y paralelas de Clifford . A {\displaystyle A} B {\displaystyle B} A {\displaystyle A} B {\displaystyle B} A {\displaystyle A} B {\displaystyle B} O {\displaystyle O} A {\displaystyle A} B {\displaystyle B} O {\displaystyle O} A {\displaystyle A} B {\displaystyle B}

En un espacio de 4 dimensiones podemos construir 4 ejes perpendiculares y 6 planos perpendiculares que pasen por un punto. Sin pérdida de generalidad, podemos tomarlos como los ejes y planos centrales ortogonales de un sistema de coordenadas cartesianas. En 4 dimensiones tenemos los mismos 3 planos ortogonales que tenemos en 3 dimensiones, y también otros 3. Cada uno de los 6 planos ortogonales comparte un eje con 4 de los otros, y es completamente ortogonal a solo uno de los otros: el único con el que no comparte un eje. Por lo tanto, hay 3 pares de planos completamente ortogonales: y se intersecan solo en el origen; y se intersecan solo en el origen; y se intersecan solo en el origen. ( w , x , y , z ) {\displaystyle (w,x,y,z)} ( x y , x z , y z ) {\displaystyle (xy,xz,yz)} ( w x , w y , w z ) {\displaystyle (wx,wy,wz)} x y {\displaystyle xy} w z {\displaystyle wz} x z {\displaystyle xz} w y {\displaystyle wy} y z {\displaystyle yz} w x {\displaystyle wx}

De manera más general, dos subespacios planos y de dimensiones y de un espacio euclidiano de al menos dimensiones se denominan completamente ortogonales si cada línea en es ortogonal a cada línea en . Si entonces y se intersecan en un único punto . Si entonces y pueden o no intersecar. Si entonces una línea en y una línea en pueden o no intersecar; si se intersecan, entonces se intersecan en . [8] S 1 {\displaystyle S_{1}} S 2 {\displaystyle S_{2}} M {\displaystyle M} N {\displaystyle N} S {\displaystyle S} M + N {\displaystyle M+N} S 1 {\displaystyle S_{1}} S 2 {\displaystyle S_{2}} dim ( S ) = M + N {\displaystyle \dim(S)=M+N} S 1 {\displaystyle S_{1}} S 2 {\displaystyle S_{2}} O {\displaystyle O} dim ( S ) > M + N {\displaystyle \dim(S)>M+N} S 1 {\displaystyle S_{1}} S 2 {\displaystyle S_{2}} dim ( S ) = M + N {\displaystyle \dim(S)=M+N} S 1 {\displaystyle S_{1}} S 2 {\displaystyle S_{2}} O {\displaystyle O}

Véase también

Referencias

  1. ^ JA Wheeler; C. Misner; KS Thorne (1973). Gravitación . WH Freeman & Co. pág. 58. ISBN 0-7167-0344-0.
  2. ^ "Matemáticas de Wolfram".
  3. ^ Bourbaki, "cap. II §2.4", Álgebra I , pág. 234
  4. ^ Trefethen, Lloyd N. y Bau, David (1997). Álgebra lineal numérica. SIAM. pag. 13.ISBN 978-0-89871-361-9.
  5. ^ ab R. Penrose (2007). El camino hacia la realidad . Libros antiguos. Págs. 417–419. ISBN 978-0-679-77631-4.
  6. ^ Hedayat, A.; et al. (1999). Arreglos ortogonales: teoría y aplicaciones. Saltador. pag. 168.ISBN 978-0-387-98766-8.
  7. ^ Coxeter, HSM (1973) [1948]. Politopos regulares (3.ª ed.). Nueva York: Dover. pág. 124.
  8. ^ PHSchoute: Geometría más dimensional . Leipzig: GJGöschensche Verlagshandlung. Volumen 1 (Sammlung Schubert XXXV): Die linearen Räume, 1902. [ página necesaria ]
Retrieved from "https://en.wikipedia.org/w/index.php?title=Orthogonality_(mathematics)&oldid=1250117825#Completely_orthogonal"