Acerca de la Determinante de una Matriz
Condición Necesaria Grupos de Lie $ \mathbf{G}$ en $\mathbf{SO(n)}$ Hemos visto que una condición necesaria de las matrices $M$ que pertenecen a los Grupos de Lie $G$ en $SO(n)$, es que la determinante debe ser diferente de cero. Esto último implica que, existe una matriz inversa para $M$, $$ det(M)\neq 0 \quad \Rightarrow \quad \exists M^{-1} $$ De otra forma sería cuando $M$ es singular con $det(M)=0$ (o nulo), lo que significa que $M$ no tiene inversa y por tanto ya no sería un grupo. En otras palabras, diríamos que $det(M)\neq 0$ es una condición necesaria para sea un Grupo de Lie $G \in SO(2)$, pero no suficiente. Ciertamente, para que $M$ sea un Grupo de Lie de rotación pasiva, no basta sólo con que se cumpla esa condición $det(M)\neq 0$, sino que a su vez, su matriz inversa $M^{-1}$, debe ser igual a la matriz transpuesta de $M$. (segunda condición $M^{T}=M^{-1}$) Nótese que $$G=\unicode{123}M\in SO(n) \text{ / } det(M)=1 \land (M^{T}=M^{-1}\Rightarrow M M^{T} = M^{T} M=I) \unicode{125}$$ Es decir, $G$ es el conjunto de todas las matrices $M$ Especiales Ortogonales de Orden $n$, lo que significa que son como un grupo de transformaciones, donde sus determinantes son iguales a uno y su inversa es igual a su transpuesta. Grupo $\mathbf {Sl_2 \in GL(\mathbb R^2,\text{·})}$ En particular, el siguiente grupo $Sl_2 \in GL(\mathbb R^n,\text{·})$ llamado "Special Linear Group"140, i.e. definido sobre $\mathbb R^2$, como grupo de matrices $2 \times 2$ con determinante igual a $1$, bajo las operaciones de multiplicación de matrices, donde se consideran todas las matrices cuya determinante es igual a uno. Es decir, $Sl_2$ es un grupo especial, pero no es siempre ortogonal. Dicho de otra manera, $SO(2)\subset Sl_2$, dado que toda matriz $M\in SO(2)$ por definición tiene determinante $det(M)=1$ y es lineal, por tanto está contenida en $Sl_2$. ![]() Figura #1: $\mathit {SO(2)\subset Sl_2}$ Se recuerda que la ortogonalidad de la matriz implica que su aplicación lineal conserva la norma euclídea en $R^n$. Efectivamente, una matriz $M$ ortogonal significa que la $det(M)\neq 0$, dado que $I=MM^{T}=M^{2} \Rightarrow det(MM^{T})=det(M)^2\Rightarrow det(M)=\pm 1$, i.e. cuando $M$ es ortogonal, implica que la $det(M)$ puede ser también igual a $-1$. Por lo tanto, las matrices cuya $det(M)=-1$ no pertenece a $Sl_2$. Particular Ejemplo $Sl_2(\mathbb R,·)$ Se demostrará que $Sl_2$ definido sobre el cuerpo $\mathbb R$, es un grupo de matrices con determinante $2 \times 2$ bajo la multiplicación de matrices y entradas sobre $R$. $$ Sl_2=GL(\mathbb R)=\Bigg\{M= \begin{pmatrix} a & b\\ c & d\\ \end{pmatrix}\Bigg/ ad-bc=1 \Bigg\} $$ P.D. $\mathbf {Sl_2}$ es un Grupo80 Por demostrar, primeramente que $SL_2$ es un grupo y más adelante se demostrará que tiene un Algebra de Lie asociada. (Ver Grupo $\mathbf {Sl_2 \longrightarrow}$ Algebra de Lie $\mathfrak{\Large g}$)
Por tanto, $Sl_2$ satisface las propiedades requeridas para constituir un grupo (Especial y Lineal). QED // __________________________ Observación: $\large{\exists}\ M\in Sl_2$, donde $M\notin SO(2)$ Nótese que el conjunto de transformaciones $Sl_2$ es un grupo lineal especial, pero no es un Grupo de Lie en $SO(2)$ (i.e. todas sus matrices no pertenecen al conjunto 'Special Ortogonal of Order 2' porque no todas son ortogonales). Por ejemplo, Sea $A=\begin{pmatrix} 1 & -3\\ 0 & 1\\ \end{pmatrix}\in Sl_2$, que tiene por determinante $det(A)=1\neq 0$, su transpuesta es: $A^{T}=\begin{pmatrix} 1 & 0\\-3 & 1\\\end{pmatrix}$ y su inversa es: $A^{-1}=\begin{pmatrix} 1 & 3\\-3 & 1\\ \end{pmatrix}$ Es decir, $A\in Sl_2$ no es un grupo de Lie en $SO(2)$, dado que $A^{T}\neq A^{-1}$, o dicho de otra manera $AA^{T}=10\neq I$. i.e. no es ortogonal. Ahora, si consideramos por ejemplo el conjunto de matrices de la forma: $M=\begin{pmatrix} cos(\theta) & -sin(\theta)\\sin(\theta) & cos(\theta)\\\end{pmatrix} $, donde $\theta\in \mathbb R \quad \Rightarrow$, $M$ si es un Grupo de Lie en $SO(2)$, dado que $det(A)=1 \land A^{T}=A^{-1}$ (Ver caso donde se cumplen estas condiciones Grupo de Lie ~ Enfoque Geométrico) $ Sl_2=\Bigg\{M= \begin{pmatrix} a & b\\ c & d\\ \end{pmatrix}\Bigg/ ad-bc=1 \Bigg\} $ es un grupo. Nota.- El grupo $Sl_2$ tiene un Algebra de Lie $\mathfrak g$ asociada. (Ver Grupo $\mathbf {Sl_2 \longrightarrow}$ Algebra de Lie $\mathfrak{\Large g}$) Asegurar Existencia de la Matriz Inversa Dicho lo anterior, abordemos el origen de esta condición necesaria $det(M)\neq 0$, que caracteriza los grupos de matrices $n×n$, que operan en $GL(n,R)$ (General Linear Groups), bajo el cuerpo de los números reales y complejos. Condición que nos asegura que estas matrices son invertibles. La visión y sentido original de la $det(M_{2 \times 2}) \neq 0$ era establecer la unicidad de la solución de un sistema de ecuaciones lineales. Después de un siglo, fue extendida para $det(M_{n \times n})$ e ir adquiriendo en el tiempo un significado moderno, algorítmico y abstracto. ¿Qué es la determinante? La determinante de una matriz cuadrada $M$, es un escalar que resulta de las operaciones ordinarias entre los elementos que conforman dicha matriz. Es decir, es una notación que reduce un repetitivo patrón del denominador común que surge de la resolución de sistemas lineales de ecuaciones compatibles o determinados.132. En síntesis, a cada matriz cuadrada de orden $n$ le asocia un escalar, que denotamos como $det(M)$ La representación matemática de una determinante, conserva el arreglo numérico bidimensional de su matriz cuadrada. Puesto que tiene la misma disposición de elementos como estructura matemática con filas y columnas, pero donde se cambian los paréntesis de la matriz por barras verticales. En otros términos, la determinante de una matriz es un invariante algebraico, cuyo concepto fue inicialmente incorporado para solucionar sistemas de ecuaciones lineales.130 Con el desarrollo y evolución de la matemática desde el siglo XVII, la determinante fue adquiriendo propiedades más elaboradas y siendo definida como estructura algebraica de forma multilineal alternada sobre un espacio vectorial. Este último enfoque generaliza el concepto de determinante de una matriz, haciéndolo aplicable en numerosos campos del álgebra lineal y abstracta. Ejemplo 1, $\mathbf {M_{2 \times 2}}$ Por ejemplo, sea dado un sistema de ecuaciones lineales con dos incógnitas y con coeficientes $a_{ij},b_{i} \in R$ $$ \begin{matrix} a_{11} x_1 + a_{12} x_2 = b_1\\ a_{21} x_1 + a_{22} x_2 = b_2\\ \end{matrix} \qquad\quad[1]$$ Cuyos coeficientes forman la matriz de segundo orden $M$: $$ M_{2 \times 2}= \begin{pmatrix} a_{11} & a_{12} \\a_{21} & a_{22} \\ \end{pmatrix} \qquad\quad [2]$$ Aplicando al sistema de ecuaciones $[1]$ el método del Algebra Elemental de igualación de coeficientes, se obtiene: $$ \begin{matrix} (a_{11}a_{22} - a_{12}a_{21}) x_1 = b_1 a_{22}- a_{12}b_2 \\ (a_{11}a_{22} - a_{12}a_{21}) x_2= a_{11} b_2 - b_1 a_{21} \\ \end{matrix}$$ Supongamos que el término $(a_{11}a_{22} - a_{12}a_{21})\neq 0$, (sino fuese así el sistema de ecuaciones lineales asociado a dicha matriz $M_{2 \times 2}$ rotulada en $[1]$ no tendría solución o tendría infinitas soluciones coincidentes). Entonces despejando: $$ x_1=\frac{ b_1 a_{22}- a_{12}b_2}{\bbox[6px,yellow]{a_{11}a_{22} - a_{12}a_{21}}} \qquad x_2=\frac{a_{11} b_2 - b_1 a_{21}}{\bbox[6px,yellow]{a_{11}a_{22} - a_{12}a_{21}}} \qquad\quad[3]$$ Los valores obtenidos de $[3]$ son la solución del sistema $[1]$ (dada la unicidad de la solución). El común denominador del valor de las incógnitas está simplemente expresado por los elementos de la matriz $[2]$. Es decir, es precisamente igual al producto de los elementos de la diagonal principal de $M$ menos el producto de los elementos de la segunda diagonal. ![]() Para designar la determinante de la matriz $M$ se cambia los paréntesis por barras verticales: $$ det(M)= \begin{vmatrix} a_{11} & a_{12} \\a_{21} & a_{22} \\ \end{vmatrix} \qquad\quad [4]$$ Luego, la determinante es un número completamente determinado por la matriz cuadrada. En este caso de $2 \times 2$, i.e. de segundo orden: $$ det(M)= \begin{vmatrix} a_{11} & a_{12} \\a_{21} & a_{22} \\ \end{vmatrix}= a_{11}a_{22} - a_{12}a_{21} \qquad\quad[5]$$ Ejemplo 2, $\mathbf {M_{3 \times 3}}$ Por ejemplo, un sistema de ecuaciones lineales con tres incógnitas y con coeficientes $a_{ij},b_{i}\in R$ de la forma: $$ \begin{matrix} a_{11} x_1 + a_{21} x_2 + a_{31} x_3 = b_1\\ a_{21} x_1 + a_{21} x_2 + a_{23} x_3 = b_2\\ a_{31} x_1 + a_{31} x_2 + a_{33} x_3 = b_3\\ \end{matrix} \qquad\quad[6]$$ Cuyos coeficientes forman la matriz de tercer orden $M$: $$ M_{3 \times 3} = \begin{pmatrix} a_{11} & a_{21} & a_{31} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ \end{pmatrix}$$ Aplicando la solución al sistema de ecuaciones por cualquier de los métodos de igualación de coeficientes del álgebra, se obtiene que el denominador de las tres incógnitas, i.e. lo que llamamos el determinante de la matriz $MM_{3 \times 3}$, es: $$ det(M_{3 \times 3}) = a_{11}a_{22}a_{33} + a_{12}a_{23}a_{31} + a_{13}a_{21}a_{32} - a_{13}a_{22}a_{31} - a_{12}a_{21}a_{33} - a_{11}a_{23}a_{32}$$ Factorizando y arreglando la expresión: $$ det(M_{3 \times 3})=a_{11}(a_{22}a_{33}- a_{23}a_{32})-a_{12}(a_{21}a_{33}-a_{23}a_{31})+a_{13}(a_{21}a_{32}-a_{22}a_{32}) \qquad\quad [7]$$ Que es equivalente a decir: $$ det(M_{3 \times 3}) = \begin{vmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ \end{vmatrix}$$ Cuyo cálculo se deduce de $[7]$ y que se mecaniza tradicionalmente mediante diversos métodos de cálculo. Aplicando Método de Cálculo de Laplace Aquí aplicamos el método de cálculo de Laplace136, donde se van tapando la fila y columna correspondiente al coeficiente de la fila superior multiplicado por la determinante de la matriz $2 \times 2$ que queda visible.131 En efecto: $$ det(M_{3 \times 3})=a_{11}\begin{vmatrix} a_{22} & a_{23} \\ a_{32} & a_{33} \\ \end{vmatrix}-a_{12}\begin{vmatrix} a_{21} & a_{23} \\ a_{31} & a_{33} \\ \end{vmatrix} +a_{13}\begin{vmatrix} a_{21} & a_{22} \\ a_{31} & a_{32} \\ \end{vmatrix} $$ Asumiendo que $det(M_{3 \times 3})\neq 0$ y aplicando la Regla de Cramer, se tiene que las tres incógnitas son: $$ x_1=\frac{ \begin{vmatrix} a_{21} & a_{31} \\ a_{22} & a_{23} \\ a_{32} & a_{33} \\ \end{vmatrix} } { det(M_{3 \times 3}) } $$ $$ x_2=\frac{ \begin{vmatrix} a_{11} & a_{31} \\ a_{21} & a_{23} \\ a_{31} & a_{33} \\ \end{vmatrix} } { det(M_{3 \times 3}) } $$ $$ x_3=\frac{ \begin{vmatrix} a_{11} & a_{21} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \\ \end{vmatrix} } { det(M_{3 \times 3}) } $$ Solución Matricial de $n \times n$ $$ \left( {\begin{array}{*{20}{c}}{{a_{11}}}&{{a_{12}}}& \ldots &{{a_{1n}}}\\{{a_{21}}}&{{a_{22}}}& \ldots &{{a_{2n}}}\\ \vdots & \vdots & \ddots & \vdots \\{{a_{m1}}}&{{a_{m2}}}& \ldots &{{a_{mn}}}\end{array}} \right)\;\left( {\begin{array}{*{20}{c}}{{x_1}}\\{{x_2}}\\ \vdots \\{{x_n}}\end{array}} \right) = \left( {\begin{array}{*{20}{c}}{{b_1}}\\{{b_2}}\\ \vdots \\{{b_m}}\end{array}} \right)\qquad\quad[8] $$ Donde todos los coeficientes e incógnitas son reales, i.e. $a_{ij}, b_{i}, x_{i} \in \mathbb R$ Ahora, resolviendo la ecuación $[8]$ matricialmente, veremos que es una condición casi sine qua non recurrir a la determinante de $M$, i.e. el sistema debe ser compatible determinado: En la ecuación matricial se tiene los vectores las columnas $X$, $B$ (Si $B=0$, el sistema se dirá que es homogéneo) y los coeficiente $M$, lo cuales se multiplican aplicando la matriz inversa $M^{-1}$. Entonces, la ecuación matricial es: $M X = B$, dado que $det(M)\neq 0 \Rightarrow \exists M^{-1}$ $\Rightarrow$ $ M X =B$ (Multiplicamos $M^{-1}$ por la izquierda en ambos miembros) $\Rightarrow$ $\underbrace{M^{-1} M}_{I} \text{ } X = M^{-1}B$ $\Rightarrow$ $I X = M^{-1} B$ $\Rightarrow$ $X= M^{-1} B$ Por tanto, se resuelve la ecuación $[8]$ calculando el producto de la matriz inversa $M^{-1}$ por el vector columna $B$. Generalización $\mathbf {det(M_{n \times n}})$ En términos generales: $$det(M_{n \times n})=\sum_{i=1}^n a_{ij}(-1)^{i+j} det(M_{ij})\qquad\quad[9]$$ Donde $M_{ij}$ se obtiene al eliminar la fila $i$ y la columna $j$ de la matriz M. Calcular manualmente determinantes de n-ésimo orden aplicando el mismo modo que se introdujo para los determinantes de segundo y tercer orden, es prácticamente irrealizable Puesto que en la medida que aumenta el orden de la matriz, los cálculos se hacen más complicados y con $n$ de gran magnitud arbitrario se debe recurrir a la automatización. En los tiempos actuales se procede con herramientas computacionales, cuyos algoritmos contienen las operaciones del Algebra Lineal y en particular el Algebra de Matrices. Desde luego, el Excel, MatLab, Matrix Reshish y otras aplicaciones disponibles. Determinante Desde el Siglo XVII La arquitectura del algoritmo para el cálculo de una determinante que presento más adelante en esta nota no es nuevo, dado que sus bases ya la trabajaron múltiples matemáticos como el italiano Girolamo Cardano (1545), el japonés Kowa Seki (1683) y en la misma época el alemán Gottfried Leibniz en el siglo XVII. En los siglos posteriores, matemáticos como MacLaurin (1748), Cramer (1750), Bézout, Vandermonde, Laplace (1772), Gauss, Cauchy, Arthur Cayley 137, James Joseph Sylvester, etc.. con el cual determinaron la inversa de una matriz y las soluciones de un sistema de ecuaciones lineales. Dicho lo anterior, continuemos analizando las resultantes de las determinantes de segundo y tercer orden desarrollados en los Ejemplo $1$ y Ejemplo $2$ para procurar establecer una ley general, de acuerdo a la cual se expresan estas determinantes mediante los elementos de las matrices correspondientes y tomaremos esta ley por definición para el determinante de orden $n \in \mathbb N$. Algoritmo de Cálculo $\mathbf {det(M_{n \times n})}$ Se presentará a continuación este procedimiento de cálculo basado en el Teorema de Laplace, el cual permite simplificar el cálculo de determinantes en matrices de dimensiones mayores descomponiendo en la suma de determinantes menores. Usando este concepto de Laplace, se construyó un simulador en línea y su correspondiente código en javascript. La aplicación del simulador del cálculo de la determinante se ha restringido a seleccionar matrices hasta de orden $10$ por razones de presentación en pantalla, no así el algoritmo codificado en javascript, el cual admite matrices de magnitud $n>100$ y valores decimales. En la aplicación-simulador las matrices que se muestran, se llenan con valores enteros aleatorios del intervalo $-100 \lt a_{ij} \lt 100$, en función del orden seleccionado. Estos valores generados aleatoriamente de la determinante son editables, i.e. el usuario puede escribir otros valores enteros poniento el cursor (focus) sobre los campos o celdas que ocupa cada número. La resultante de la determinante aparece en un marco con fondo amarillo una vez presionando el botón "Calcular Determinante". Nótese que al presionar el ícono ![]() Calculador de Determinante
Los códigos fuentes del algoritmo señalan que el proceso se realiza en forma recursiva, reduciendo el cálculo a las determinantes de $2 \times 2 $, tal como se explicó en el Ejemplo $2$. Código Fuente - Cálculo de una Determinante- Javascript
Grupo $\mathbf {Sl_2 \longrightarrow}$ Algebra de Lie $\mathfrak{\Large g}$ $$ Sl_2=GL(\mathbb R)=\Bigg\{M= \begin{pmatrix} a & b\\ c & d\\ \end{pmatrix}\Bigg/ ad-bc=1 \Bigg\}\qquad\quad[AL1] $$ Esta conformación de grupo $Sl_2 \in GL(\mathbb R^2,\text{·})$, con matrices cuyas determinantes son igual a uno, es posible asociarle un Algebra de Lie $\mathfrak g$, mediante una aproximación geométrica. Aún más, la determinante de una matriz cuadrada es un polinomio de sus entradas, por lo que es infinitamente diferenciable.142 En efecto, si parametrizamos los elementos en $a(t),b(t),c(t),d(t)$ de la matriz $[AL1]$, i.e. con una función diferenciable $\varphi(t) \in Sl_2(\mathbb R)$, entonces se puede asumir que existe una curva $C$ que se desplaza sobre la superficie lisa del objeto. Luego, bosquejamos en la figura#1 una curva $C$ continua y diferenciable que se desliza sobre esa (manifold) superficie suave tridimensional: ![]() Fig#1 $\large{\varphi(t)}$: Curva $C$ sobre Variedad Suave Entonces, $[AL1]$, en términos paramétricos se tiene la matriz: $$\varphi(t)=\begin{pmatrix} a(t) & b(t)\\c(t) & d(t)\\ \end{pmatrix}\qquad\quad[AL2]$$ Es decir, se asume que esta función $\varphi(t)$ del grupo $Sl_2$, determina una curva sobre la variedad en el plano 3-dimensional euclidiano, de modo que tiene un punto neutro igual a la idéntica. (Ver figura #2)135 Luego, al evaluar la derivada $\varphi(t)$ de la función en el punto identidad $I$, se genera un plano tangente a la variedad en ese punto, y consecuentemente un Algebra de Lie asociada. Ilustremos su demostración: Sea $X=\begin{pmatrix} x & y\\z & w\\ \end{pmatrix} $, el conjunto de matrices de $2\times 2$ que genera un álgebra de Lie $\mathfrak g$. Donde, $$X=\varphi'(0)=\begin{pmatrix} a'(0) & b'(0)\\c'(0) & d'(0)\\ \end{pmatrix}=\begin{pmatrix} x & y\\z & w\\ \end{pmatrix}\qquad\quad [AL3] $$ $$\Rightarrow$$
![]() Fig#2: Variedad (Manifold) ~ Espacio Tangente $\large{\mathfrak {g}}$ Se asume que existe una curva $C$, definida por $\varphi(t)$, tal que: $$\varphi(\mathbb R):\longrightarrow Sl_2(\mathbb R)$$ $\Rightarrow$ $$\varphi(t)=\begin{pmatrix} a(t) & b(t)\\c(t) & d(t)\\ \end{pmatrix}=a(t)d(t)-b(t)c(t)=1\qquad\quad[AL4] $$ Evaluando en $t=0$ y sabiendo que $\varphi(0)=I$, tenemos: $$\varphi(0)=\begin{pmatrix} 1 & 0\\0 & 1\\ \end{pmatrix}\quad\Rightarrow \begin{matrix} a(0)=d(0)=1\\b(0)=c(0)=0\\ \end{matrix} \qquad\quad [AL5] $$ Ahora, consideremos la siguiente expresión (extraída desde $[AL4]$), para aplicar la diferenciación: $$\bbox[16px,border:1px solid #c0c0c0]{\varphi(t)=a(t)d(t)-b(t)c(t)=1}$$ De donde se deriva implícitamente la función $\varphi(t)$ con respecto al parámetro $t$: $$\varphi'(t)=a'(t)d(t)+a(t)d'(t)-(b'(t)c(t)+b(t)c'(t))=\underbrace{0}_{\large{\frac{d(1)}{dt}=0}}\qquad\quad [AL6]$$ Sustituyendo los valores de $[AL5]$ en $[AL6]$ y simplificando: $$\varphi'(0)=\require{cancel} {a'(0)\cancelto{1}{d(0)} + \cancelto{1}{a(0)}d'(t)-b'(t)\cancelto{0}{c(0)}-b(0)\cancelto{0}{c'(0)})=0}$$ $$\Rightarrow$$ $$\varphi'(t)=\underbrace{a'(t)}_{\large{x}}+ \underbrace{d'(t)}_{\large{w}}=0$$ Considerando $[AL3]$. Es decir:
$$\Rightarrow$$ $$\mathbf {a'(0)=-d'(0) \iff x=-w}$$ De donde se conecta una representación de un álgebra de Lie $\mathfrak g$ de la forma: $$\mathfrak{rg}=\Bigg\{\begin{pmatrix}x & y\\z & w\\\end{pmatrix}\Bigg/x=-w\Bigg\}$$ Extendiendo las posibles combinaciones la condición $\mathbf {x=-w} \quad \Rightarrow$, se obtienen tres matrices: $$ \mathfrak {rg}=\Bigg\{ \begin{pmatrix} 0 & 1\\ 0 & 0\\ \end{pmatrix},\begin{pmatrix} 0 & 0\\ 1 & 0\\ \end{pmatrix},\begin{pmatrix} 1 & 0\\ 0 & -1\\ \end{pmatrix} \Bigg\}=\unicode{123}g_1,g_2,g_3\unicode{125} \qquad\quad[AL7]$$ Conmutadores del Algebra de Lie $\large{\mathfrak g}$ Aplicamos al conjunto $\unicode{123}g_1,g_2,g_3\unicode{125}$ la operación binaria Corchetes de Lie, $[XY]=XY-YX$, para probar que cumple las propiedades89 requeridas para constituir un Algebra de Lie. Veremos una síntesis de los resultados en la siguiente tabla:
Explícitamente, operando matricialmente:
Luego, desde una perspectiva de la geometría euclídea este grupo especial $Sl_2$ se conecta con un Algebra de Lie $\mathfrak g$ mediante una representación que llamamos $\mathfrak{rg}$ del espacio tangente al punto Identidad, utilizando la operación binaria, - previamente definida -, Corchetes de Lie, i.e. se satisfacen las propiedades de ser bilineal, antisimétrica y cumplir con identidad de Jacobi. El grupo lineal especial $Sl\subset G(n)$, se puede generalizar a un Algebra de Lie $\mathfrak{g}$, formada por todas las matrices de $n\times n$, sobre el cuerpo de los reales o complejos y cuya traza es nula. Fin de los Apuntes Fin de estos apuntes considerados representativos para describir el cálculo y evolución de la determinante de una matriz. Mostrando especialmente el paso entre el grupo lineal especial $Sl_2(\mathbb R)$ y su correspondiente Algebra de Lie $\mathfrak {g}$. De ahí hacia atrás toda el álgebra para la resolución de sistemas de ecuaciones lineales de orden $n$. Basado en la Teoría de la Determinantes de n-ésimo orden, son su álgebra acerca utilizando permutaciones y sustituciones (Ver "Curso de Algebra Superior" de A.G. Kurosh, Editorial Moscu (URSS) 1968). Así mismo, de ahí hacia adelante con un mundo matemático infinito. |
Notas Adjuntas
|
DocIRS © 1988-2023 |