Regra de Cramer: Diferenzas entre revisións

Contido eliminado Contido engadido
mSen resumo de edición
mSen resumo de edición
Liña 44:
 
O único punto que queda por probar é que estes valores posíbeis forman xuntos unha solución. Como se a matriz ''A'' é invertíbel con inversa ''A''<sup>−1</sup>, temos que '''x''' = ''A''<sup>−1</sup>'''b''' é solución e, polo tanto, temos a súa existencia. Para ver que é invertíbel cando det(''A'') é non nulo, consideramos a matriz ''M'' de ''n × n'' obtida apilando as matrices fila ''L''<sub>(''j'')</sub> unhas en riba doutras para ''j'' = 1, ..., ''n'' (isto dános a matriz adxunta de ''A''). Xa ensinamos que ''L''<sub>(''j'')</sub>''A'' = (0 ... 0 det(''A'') 0 ... 0) onde det(''A'') aparece na posición ''j'' de aquí segue que ''MA'' = det(''A'')''I<sub>n</sub>''. Logo,<blockquote><math>\frac {1}{\det(A)}M=A^{-1}</math></blockquote>rematando a proba.
 
Para outras probas, ler [[#Outras probas|abaixo]].
 
== Atopando matriz inversa ==
Liña 84 ⟶ 86:
 
: <math>x = \frac{\begin{vmatrix} {\color{red}d_1} & b_1 & c_1 \\ {\color{red}d_2} & b_2 & c_2 \\ {\color{red}d_3} & b_3 & c_3 \end{vmatrix} } { \begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix}}, \quad y = \frac {\begin{vmatrix} a_1 & {\color{red}d_1} & c_1 \\ a_2 & {\color{red}d_2} & c_2 \\ a_3 & {\color{red}d_3} & c_3 \end{vmatrix}} {\begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix}}, \text{ and }z = \frac { \begin{vmatrix} a_1 & b_1 & {\color{red}d_1} \\ a_2 & b_2 & {\color{red}d_2} \\ a_3 & b_3 & {\color{red}d_3} \end{vmatrix}} {\begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix} }.</math>
 
==Otras porbas==
 
===Proba por álxebra abstracta lineal ===
Esta é unha reformulación da proba anterior en linguaxe abstracta.
 
Consideramos a aplicación <math>\vec{x}=(x_1,\ldots, x_n) \mapsto \frac{1}{\det A} (\det (A_1),\ldots, \det(A_n)),</math> onde <math>A_i</math> é a matriz <math>A</math> con <math>\vec{x}</math> substituíndo a <math>i</math>-ésima columna, como na regra de Cramer. Debido á linearidade do determinante en cada columna, esta aplicación é lineal e observamos que envía <math>i</math>-ésima columna de <math>A</math> ao <math>i</math>-ésima vector canónico<math>\vec{e}_i=(0,\ldots, 1, \ldots, 0) </math> (con 1 no lugar <math>i</math>), porque o determinante dunha matriz cunha columna repetida é 0. Polo tanto, temos unha aplicación lineal que coincide coa inversa de <math>A</math> no espazo das columnas; de aí acepta <math>A^{-1}</math> no extensión do espazo da columnas. Xa que <math>A</math> é invertible, a extensión do espazo dos vectores columna é todo <math>\mathbb{R}^n</math>, entón a nosa aplicación é en de verdade a inversa de <math>A</math>.
 
===Proba curta===
Unha proba curta da regra de Cramer <ref>{{cite journal | last = Robinson | first = Stephen M. | title = A Short Proof of Cramer's Rule | journal = Mathematics Magazine| volume = 43 | pages = 94–95 | year = 1970}}</ref> provén da observación de que <math>x_1</math> é o determinante da matriz
 
:<math>X_1=\begin{bmatrix}
x_1 & 0 & 0 & \dots & 0\\
x_2 & 1 & 0 & \dots & 0\\
x_3 & 0 & 1 & \dots & 0\\
\vdots & \vdots & \vdots & \ddots &\vdots \\
x_n & 0 & 0 & \dots & 1
\end{bmatrix}</math>
 
Por outra parte, supoñendo que a matriz orixinal <math>A</math>é invertible, esta matriz <math>X_1</math> té como columnas <math>A^{-1}b, A^{-1}v_2, \ldots, A^{-1}v_n </math>, onde <math>v_n</math> é a ''n''-ésima columna da matriz <math>A</math>. Lembrando que a matriz <math>A_1</math> té as columnas <math>b, v_2, \ldots, v_n </math>, temos que
 
:<math> x_1= \det (X_1) = \det (A^{-1}) \det (A_1)= \frac{\det (A_1)}{\det (A)}.</math>
 
A proba para as outras <math>x_j</math> é análoga.
 
=== Proba usando [[Álxebra de Clifford|álxebra de Clifford]]===
Considere o sistema de tres ecuacións escalares en tres escalares descoñecidos <math>x_1, x_2, x_3</math>
 
:<math>\begin{align}
a_{11} x_{1} +a_{12} x_{2} +a_{13} x_{3} & = c_{1}\\
a_{21} x_{1} +a_{22} x_{2} +a_{23} x_{3} & = c_{2}\\
a_{31} x_{1} +a_{32} x_{2} +a_{33} x_{3} & = c_{3}
\end{align}</math>
 
e asignámoslle unha base de vectores ortonormais <math>\mathbf{e}_{1} ,\mathbf{e}_{2} ,\mathbf{e}_{3}</math> para <math>\mathcal{G}_{3}</math> como
 
:<math>\begin{align}
a_{11} \mathbf{e}_{1} x_{1} +a_{12} \mathbf{e}_{1} x_{2} +a_{13} \mathbf{e}_{1} x_{3} & = c_{1} \mathbf{e}_{1}\\
a_{21} \mathbf{e}_{2} x_{1} +a_{22} \mathbf{e}_{2} x_{2} +a_{23} \mathbf{e}_{2} x_{3} & = c_{2} \mathbf{e}_{2}\\
a_{31} \mathbf{e}_{3} x_{1} +a_{32} \mathbf{e}_{3} x_{2} +a_{33} \mathbf{e}_{3} x_{3} & = c_{3} \mathbf{e}_{3}
\end{align}</math>
 
Sexan os vectores
 
:<math>\begin{align}
\mathbf{a}_{1} & = a_{11} \mathbf{e}_{1} +a_{21} \mathbf{e}_{2} +a_{31} \mathbf{e}_{3}\\
\mathbf{a}_{2} & = a_{12} \mathbf{e}_{1} +a_{22} \mathbf{e}_{2} +a_{32} \mathbf{e}_{3}\\
\mathbf{a}_{3} & = a_{13} \mathbf{e}_{1} +a_{23} \mathbf{e}_{2} +a_{33} \mathbf{e}_{3}
\end{align}</math>
 
Engadindo o sistema de ecuacións, vese que
 
:<math>\begin{align}
\mathbf{c} & = c_{1} \mathbf{e}_{1} +c_{2} \mathbf{e}_{2} +c_{3} \mathbf{e}_{3}\\
& = x_{1} \mathbf{a}_{1} +x_{2} \mathbf{a}_{2} +x_{3} \mathbf{a}_{3}
\end{align}</math>
 
Usando o produto exterior, cada escalar descoñecido <math>x_{k}</math> pode ser resolto como
 
:<math>\begin{align}
\mathbf{c} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3} &= x_{1} \mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}\\
\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3} &= x_{2} \mathbf{a}_{2} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}\\
\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2} &= x_{3} \mathbf{a}_{3} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}\\
x_{1} &= \frac{\mathbf{c} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}\\
x_{2} &= \frac{\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}}{\mathbf{a}_{2} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}} = \frac{\mathbf{a}_{1} \wedge \mathbf{c} \wedge \mathbf{a}_{3}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}\\
x_{3} &= \frac{\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}}{\mathbf{a}_{3} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}} = \frac{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{c}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}
\end{align}</math>
 
Para ''n'' ecuacións con ''n'' variábeis descoñecidas a solución para o k-ésima variabel descoñecida <math>x_{k}</math> xeneralízase a
 
:<math>\begin{align}
x_k &= \frac{\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}}{\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n}}\\
&= (\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )^{-1}\\
&= \frac{(\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}{(\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}\\
&= \frac{( \mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n} ) \cdot ( \mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{(-1)^{\frac{n(n-1)}{2}} ( \mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}\\
&= \frac{( \mathbf{a}_{n} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{( \mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot ( \mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}
\end{align}</math>
 
Se {{math|'''a'''<sub>''k''</sub>}} son linealmente independentes, entón <math>x_{k}</math> pode expresarse en termos de determinantes identicamente á regra de Cramer
 
:<math>\begin{align}
x_k &= \frac{( \mathbf{a}_{n} \wedge \cdots \wedge ( \mathbf{c} )_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot ( \mathbf{a}_1 \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{(\mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_1 ) \cdot ( \mathbf{a}_1 \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}\\ [8pt]
&= \begin{vmatrix}
\mathbf{a}_{1} \cdot \mathbf{a}_1 & \cdots & \mathbf{a}_{1} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_1 \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{k} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_{k} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{n} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{n} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_{n} \cdot \mathbf{a}_{n}
\end{vmatrix} \begin{vmatrix}
\mathbf{a}_{1} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{1} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{1} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{k} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{k} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{n} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{n} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \cdot \mathbf{a}_{n}
\end{vmatrix}^{-1} \\ [8pt]
&= \begin{vmatrix} \mathbf{a}_{1}\\ \vdots\\ \mathbf{a}_{k}\\ \vdots\\ \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1} & \cdots & ( \mathbf{c} )_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1}\\ \vdots\\ \mathbf{a}_{k}\\ \vdots\\
\mathbf{a}_{n} \end{vmatrix}^{-1} \begin{vmatrix} \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix}^{-1}\\ [8pt]
&= \begin{vmatrix} \mathbf{a}_1 & \cdots & (\mathbf{c})_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix}^{-1} \\ [8pt]
&= \begin{vmatrix}
a_{11} & \ldots & c_{1} & \cdots & a_{1n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
a_{k1} & \cdots & c_{k} & \cdots & a_{k n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
a_{n1} & \cdots & c_{n} & \cdots & a_{n n}
\end{vmatrix} \begin{vmatrix}
a_{11} & \ldots & a_{1k} & \cdots & a_{1n}\\
\vdots
\end{vmatrix}^{-1}
\end{align}</math>
 
onde {{math|('''c''')<sub>''k''</sub>}} denotaa substitución do vector {{math|'''a'''<sub>''k''</sub>}} co vector {{math|'''c'''}} na posición ''k''-ésima do numerador.
 
== Casos incompatíbeis e indeterminados ==