├── .gitignore ├── FOLHA_DE_ESTILO.md ├── LICENSE.md ├── Makefile ├── README.md ├── Semana01 ├── README.md ├── semana01-melhorar.txt └── semana01.tex ├── Semana02 ├── README.md ├── semana02-comblinear1.eps ├── semana02-comblinear1.png ├── semana02-comblinear3.eps ├── semana02-comblinear3.png ├── semana02-coord.eps ├── semana02-coord.ggb ├── semana02-coord.png ├── semana02-escalar.eps ├── semana02-escalar.png ├── semana02-soma.eps ├── semana02-soma.png ├── semana02-vetor.eps ├── semana02-vetor.png └── semana02.tex ├── Semana03 ├── README.md ├── semana03-melhorar.txt ├── semana03-rot.eps ├── semana03-rot.png └── semana03.tex ├── Semana04 ├── README.md └── semana04.tex ├── Semana05 ├── README.md └── semana05.tex ├── Semana06-07 ├── README.md ├── melhorar6.txt └── semana06-07.tex ├── Semana09 ├── README.md └── semana09.tex ├── Semana10 ├── README.md ├── semana10-eigen.eps ├── semana10-eigen.ggb ├── semana10-eigen.png ├── semana10.pdf └── semana10.tex ├── Semana11 ├── README.md ├── semana11-coord.eps ├── semana11-coord.png ├── semana11-cossenos.eps ├── semana11-cossenos.ggb ├── semana11-cossenos.png ├── semana11-dist.eps ├── semana11-dist.ggb ├── semana11-dist.png ├── semana11-proj.eps ├── semana11-proj.ggb ├── semana11-proj.png └── semana11.tex ├── Semana12 ├── README.md ├── semana12-dist-justif.eps ├── semana12-dist-justif.ggb ├── semana12-dist-justif.png ├── semana12-dist.eps ├── semana12-dist.ggb ├── semana12-dist.png ├── semana12-fatQR.tex ├── semana12-gram1.eps ├── semana12-gram1.png ├── semana12-gram2.eps ├── semana12-gram2.ggb ├── semana12-gram2.png ├── semana12-proj.eps ├── semana12-proj.png └── semana12.tex ├── Semana13 ├── README.md ├── semana13-LLScomQR.tex ├── semana13-alturas.eps ├── semana13-alturas.png ├── semana13-idade-parabola.eps ├── semana13-idade-parabola.ggb ├── semana13-idade-parabola.png ├── semana13-idade.eps ├── semana13-idade.ggb ├── semana13-idade.png ├── semana13-proj-col.eps ├── semana13-proj-col.ggb ├── semana13-proj-col.png ├── semana13-reta.eps ├── semana13-reta.ggb ├── semana13-reta.png └── semana13.tex ├── Semana14-15 ├── README.md ├── semana14-15.pdf ├── semana14-15.tex ├── semana14-circulo.eps ├── semana14-circulo.png ├── semana14-conicas.ggb ├── semana14-conicas2.eps ├── semana14-conicas2.ggb ├── semana14-conicas2.png ├── semana14-elipse.eps ├── semana14-elipse.png ├── semana14-hiperbole.eps └── semana14-hiperbole.png ├── colaboradores.tex ├── config-book.knd ├── config-html.knd ├── config-pdf.knd ├── config.knd ├── licenca.tex ├── livro.synctex.gz ├── livro.tex ├── main.bib ├── myconfig.cfg ├── nota_organizadores.tex ├── organizadores.tex ├── preambulo.tex ├── preambulo_book.tex ├── preambulo_html.tex └── prefacio.tex /.gitignore: -------------------------------------------------------------------------------- 1 | <<<<<<< HEAD 2 | *.aux 3 | *.log 4 | *.toc 5 | *.out 6 | *~ 7 | *# 8 | html 9 | *.html 10 | *.4ct 11 | *.4tc 12 | *.css 13 | *.dvi 14 | *.idv 15 | *.lg 16 | *.tmp 17 | *.xref 18 | *.pdf 19 | ======= 20 | *.aux 21 | *.log 22 | *.toc 23 | *.out 24 | *~ 25 | *# 26 | html 27 | *.html 28 | *.4ct 29 | *.4tc 30 | *.css 31 | *.dvi 32 | *.idv 33 | *.lg 34 | *.tmp 35 | *.xref 36 | *.pdf 37 | */*.pdf 38 | >>>>>>> 5edaf56301b741a287f51829dd7dc48a322ecb58 39 | -------------------------------------------------------------------------------- /FOLHA_DE_ESTILO.md: -------------------------------------------------------------------------------- 1 | # Folha de estilo 2 | 3 | Este documento contém informações sobre os padrões de estilo de escrita e organização do livro colaborativo. Antes de submeter uma colaboração, verifique que seu trabalho está de acordo com todos os pontos observados nesta folha de estilo. 4 | 5 | Estamos muito mais interessados em melhorar o conteúdo do livro (tando em qualidade como em quantidade) e menos interessados em melhorar a sua estética. Portanto, busque manter o código LaTeX o mais simples possível buscando potencializar a colaboração de outras pessoas e de forma a se obter um resultado que permita uma leitura objetiva e agradável do livro. 6 | 7 | Qualquer dúvida, escreva em nossa lista de discussão: 8 | 9 | 10 | 11 | Também, o [repositório GitHub do livro](http://github.com/livroscolaborativos/AlgebraLinear) contém ferramentas de comunicação com os organizadores, bem como, é possível contatar os organizadores de forma privada através do e-mail: 12 | 13 | 14 | 15 | ## Regionalização e Estilo de Escrita 16 | 17 | O livro está escrito em língua portuguesa, seguindo os costumes linguísticos brasileiros. Dá-se prioridade à ortografia prevista no Acordo Ortográfico de 1990. 18 | 19 | ### Capitalização de nomes de métodos 20 | 21 | Deve-se usar maiúscula apenas em nomes próprios, ex: método de Newton, métodos dos mínimos quadrados. 22 | 23 | ## Código fonte LaTeX 24 | 25 | O livro está escrito em [LaTex](https://latex-project.org/) e os tópicos estão organizados por semanas letivas. 26 | 27 | Para informações sobre como compilar o código fonte, leia o arquivo `README.md`. 28 | 29 | ### Compatibilidade 30 | 31 | O código LaTeX do livro deve permitir sua compilação com `pdflatex`. 32 | 33 | #### Instruções LaTeX não compatíveis 34 | 35 | Fazemos a conversão do livro de código LaTeX para HTML usando o pacote [TeX4ht](https://www.tug.org/tex4ht/). Os ambientes matemáticos são convertidos para [MathMl](https://www.w3.org/Math/) e então renderizados usando [MathJax](https://www.mathjax.org/). Para que a conversão funcione de forma apropriada deve-se observar as seguintes questões: 36 | 37 | * Ambientes matemáticos válidos são: `equation`, `align` e `eqnarray`. Não use `$$ $$` ou `[\ \]`. 38 | 39 | * Não usar `array` para composição de tabelas. A alternativa é usar o ambiente `tabular`, por exemplo: 40 | 41 | \begin{center} 42 | \begin{tabular}{r|c|c} 43 | $h$ & $Df(1)$ & $|f'(1) - D_{+,h}F(1)|$ \\ \hline 44 | $10^{-1}$ & $-8,67062\E-01$ & $2,55909\E-02$\\ 45 | $10^{-2}$ & $-8,44158\E-01$ & $2,68746\E-03$\\ 46 | $10^{-14}$ & $-8,43769\E-01$ & $2,29851\E-03$ \\\hline 47 | \end{tabular} 48 | \end{center} 49 | 50 | * Não colocar instrução para nova linha ao final de matrizes. Um exemplo do que não fazer é: 51 | 52 | \begin{bmatrix} 53 | 1 & 2 \\ 54 | 3 & 4 \\ 55 | \end{bmatrix} 56 | 57 | no lugar, use 58 | 59 | \begin{bmatrix} 60 | 1 & 2 \\ 61 | 3 & 4 62 | \end{bmatrix} 63 | 64 | * Não colocar `label` dentro de colchetes. 65 | 66 | ### Figuras 67 | 68 | Os arquivos das figuras devem ser fornecidos em formato `PNG` sendo armazenados no subdiretório `SemanaXX`, onde `SemanaXX` é o diretório do tópico da semana que a figura se refere. As figuras devem ser fornecidas no tamanho desejado para o livro, i.e. evite definir o tamanho da figura no código LaTeX. Para uma vizualização conformável em celulares, recomendamos que a figura tenha largura inferior a 320px. 69 | 70 | A inclusão de uma figura no código LaTex deve ser feita da seguinte forma: 71 | 72 | \begin{figure} 73 | \centering 74 | \includegraphics{\dir/SemanaXX/figfoo.png} 75 | \caption{Descrição da figura figfoo.} 76 | \label{fig:figfoo} 77 | \end{figure} 78 | 79 | Não insira figuras dentro de outros ambientes. 80 | 81 | Sempre que possível, forneça o código fonte da figura armazenando-o na pasta `SemanaXX/figfoo`, sendo figfoo.png o arquivo da figura. Nesta mesma pasta, crie um arquivo README.md com uma descrição da figura e a linceça da mesma, a qual deve ser compatível com a CC-BY-SA 3.0. 82 | 83 | ### Equações e símbolos matemáticos 84 | 85 | As equações e símbolos matemáticos estão escritos usando a coleção de pacotes [AMS-LaTeX](http://www.ams.org/publications/authors/tex/amslatex). 86 | -------------------------------------------------------------------------------- /LICENSE.md: -------------------------------------------------------------------------------- 1 | # Licença 2 | 3 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite \url{https://creativecommons.org/licenses/by-sa/3.0/} ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 4 | -------------------------------------------------------------------------------- /Makefile: -------------------------------------------------------------------------------- 1 | #Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | ######################################## 4 | # 5 | # ATENÇÃO 6 | # 7 | # POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO. 8 | # 9 | ######################################## 10 | 11 | ######################################## 12 | # FORMATO LIVRO PDF 13 | ######################################## 14 | 15 | pdf: livro.tex 16 | cp config-book.knd config.knd 17 | pdflatex livro 18 | bibtex livro 19 | makeindex livro 20 | pdflatex livro 21 | pdflatex livro 22 | 23 | 24 | ######################################## 25 | # FORMATO LIVRO DVI 26 | ######################################## 27 | 28 | dvi: livro.tex 29 | cp config-book.knd config.knd 30 | latex livro 31 | bibtex livro 32 | makeindex livro 33 | latex livro 34 | latex livro 35 | cp config-book.knd config.knd 36 | 37 | 38 | ######################################## 39 | # FORMATO HTML 40 | ######################################## 41 | 42 | html: livro.html 43 | 44 | livro.html: livro.tex 45 | cp config-html.knd config.knd 46 | mkdir -p ./html 47 | rm -f ./html/* 48 | latex livro 49 | bibtex livro 50 | latex livro 51 | latex livro 52 | htlatex livro.tex "myconfig.cfg,3,notoc*" " -cunihtf" "-d./html/" 53 | cp config-book.knd config.knd 54 | 55 | ######################################## 56 | # TODOS AS VERSÕES EM FORMATO PDF 57 | ######################################## 58 | 59 | all: livro.tex 60 | make clean 61 | make pdf 62 | make clean 63 | make dvi 64 | make clean 65 | make html 66 | 67 | 68 | .PHONY: clean 69 | 70 | clean: 71 | rm -f *.aux */*.aux *.log *.out *.toc *.bbl */*.bbl \ 72 | *.idx *.ilg *.ind *.blg *.backup \ 73 | *.4tc *.lg *.tmp *.xref *.png *.html \ 74 | *.4ct *.css *.idv *.maf *.mtc *.mtc0 \ 75 | *.xml 76 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | # Álgebra Linear - Um Livro Colaborativo 2 | 3 | Este é um livro colaborativo sobre álgebra linear. 4 | 5 | _Fork us on GitHub!_ O código fonte do livro está disponível no repositório GitHub https://github.com/reamat/AlgebraLinear. 6 | 7 | Para entrar em contato com os organizadores, envie um e-mail para reamat@ufrgs.br. Ainda, você pode abrir um _issue_ no [repositório do projeto](https://github.com/reamat/AlgebraLinear) ou postar no [fórum](https://www.ufrgs.br/reamat/forum.html) do projeto REAMAT. 8 | 9 | ## Colaborações 10 | 11 | Há várias maneiras de colaborar com a escrita do livro. Toda a colaboração é bem vinda, seja ela um aviso de erro de digitação, uma reformulação de uma parte do livro, uma nova figura, uma nova seção ou um novo capítulo. 12 | 13 | Veja como colaborar em https://www.ufrgs.br/reamat/participe.html 14 | 15 | Antes de nos enviar uma colaboração, por favor, verifique se ela está de acordo com a folha de estilo do livro (https://github.com/reamat/Docs/blob/master/livro/FOLHA_DE_ESTILO.md). 16 | 17 | ## Licença 18 | 19 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 20 | 21 | ### Aviso de violação de _copyright_ 22 | 23 | Caso encontre alguma violação de _copyright_ em qualquer parte do material, por favor, nos informe pelo e-mail: 24 | 25 | reamat@ufrgs.br, 26 | 27 | abra um _issue_ no repositório GitHub do material ou, ainda, poste no nosso fórum: 28 | 29 | https://www.ufrgs.br/reamat/forum. 30 | 31 | Iremos cuidar para analisar seu aviso o mais prontamente possível e removeremos o material que não esteja de acordo com a licença [CC-BY-SA 3.0](https://creativecommons.org/licenses/by-sa/3.0/). 32 | 33 | ## Sobre o código fonte 34 | 35 | O código fonte está escrito em [Latex](https://latex-project.org/) e as referências bibliográficas em [BibTex](http://www.bibtex.org/), testado em computador Linux com o pacote [TexLive](https://www.tug.org/texlive/). O texto está em formatação **utf-8**. 36 | 37 | ## Compilando 38 | 39 | ### Em computador Linux 40 | 41 | O código LaTeX está testado em computador [Linux](https://pt.wikipedia.org/wiki/Linux) com o pacote [TexLive](https://www.tug.org/texlive/) instalado. O livro pode ser compilado com: 42 | 43 | $ make 44 | 45 | Isto gera o livro em formato PDF (livro.pdf). Alguma vezes a compilação pode gerar erros devido a incompatibilidade com antigos arquivos temporários. Para limpar os arquivos temporários gerados durante a compilação, digite: 46 | 47 | $ make clean 48 | 49 | Alternativamente, o livro pode ser compilado com os comandos usuais `latex livro`, `bibtex livro`, `pdflatex livro`, `makeindex livro`. Lembrando que `livro.tex` é o arquivo LaTeX principal. 50 | 51 | #### Formato HTML 52 | 53 | O livro também pode ser compilado em formato HTML digitando: 54 | 55 | $ make html 56 | 57 | ### Outros sistemas operacionais 58 | 59 | O código LaTeX pode ser compilado em outros sistemas operacionais. 60 | 61 | Em primeiro lugar, deve-se editar o arquivo de configuração `config.knd`. Este arquivo contém instruções TeX para controlar o formato do livro. Por exemplo, para setar o formato do livro em PDF, garanta que este arquivo contenha o seguinte texto: 62 | 63 | \isbooktrue \ishtmlfalse 64 | 65 | Por fim, o livro pode ser compilado com a seguinte sequência de comandos: 66 | 67 | pdflatex livro 68 | pdflatex livro 69 | pdflatex livro 70 | -------------------------------------------------------------------------------- /Semana01/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana01 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 1" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana01/semana01-melhorar.txt: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana01/semana01-melhorar.txt -------------------------------------------------------------------------------- /Semana02/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana02 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 2" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana02/semana02-comblinear1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-comblinear1.png -------------------------------------------------------------------------------- /Semana02/semana02-comblinear3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-comblinear3.png -------------------------------------------------------------------------------- /Semana02/semana02-coord.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-coord.ggb -------------------------------------------------------------------------------- /Semana02/semana02-coord.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-coord.png -------------------------------------------------------------------------------- /Semana02/semana02-escalar.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-escalar.png -------------------------------------------------------------------------------- /Semana02/semana02-soma.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-soma.png -------------------------------------------------------------------------------- /Semana02/semana02-vetor.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana02/semana02-vetor.png -------------------------------------------------------------------------------- /Semana03/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana03 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 3" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana03/semana03-melhorar.txt: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana03/semana03-melhorar.txt -------------------------------------------------------------------------------- /Semana03/semana03-rot.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana03/semana03-rot.png -------------------------------------------------------------------------------- /Semana03/semana03.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} 4 | 5 | 6 | %define o diretório principal 7 | \providecommand{\dir}{..} 8 | 9 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 10 | %%%%%%%%%%%%INICIO DO DOCUMENTO%%%%%%%%%%%%%% 11 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 12 | 13 | %\begin{document} 14 | 15 | \chapter{Semana 3} 16 | 17 | \section{Dependência e independência linear} 18 | 19 | Nós vimos, por definição, que um vetor $\vec{v} \in \mathbb{R}^m$ é combinação linear dos $k$ vetores $\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k \in \mathbb{R}^m$ quando conseguirmos encontrar números reais $x_1, x_2, \dots, x_k$ tais que 20 | \begin{equation} 21 | x_1 \vec{v}_1 + x_2 \vec{v}_2 + \cdots + x_k \vec{v}_k = \vec{v}. 22 | \end{equation} Vimos também que para decidir se um vetor é combinação linear de outros, devemos verificar se existem estes números reais $x_1, x_2, \dots, x_k$. Em coordenadas, isto é equivalente a resolver o sistema linear: 23 | \begin{equation} 24 | \left[ 25 | \begin{array}{ccccc} 26 | v_{11} & v_{12} & v_{13} & \cdots & v_{1k} \\ 27 | v_{21} & v_{22} & v_{23} & \cdots & v_{2k} \\ 28 | v_{31} & v_{32} & v_{33} & \cdots & v_{3k} \\ 29 | \vdots & \vdots & \vdots & & \vdots \\ 30 | v_{m1} & v_{m2} & v_{m3} & \cdots & v_{mk} 31 | \end{array} 32 | \right] \left[ 33 | \begin{array}{c} 34 | x_{1} \\ 35 | x_{2} \\ 36 | x_{3} \\ 37 | \vdots \\ 38 | x_{k} 39 | \end{array} 40 | \right] = 41 | \left[ 42 | \begin{array}{c} 43 | b_{1} \\ 44 | b_{2} \\ 45 | b_{3} \\ 46 | \vdots \\ 47 | b_{k} 48 | \end{array} 49 | \right]. 50 | \end{equation} 51 | 52 | Agora, dizemos que os vetores $\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k \in \mathbb{R}^m$ são \textbf{linearmente independentes (LI)} se nenhum dos vetores puder ser escrito como combinação linear dos demais. Uma forma de escrever isto matematicamente é a seguinte: 53 | \begin{equation} 54 | \boxed{\text{Se } x_1 \vec{v}_1 + x_2 \vec{v}_2 + \cdots + x_k \vec{v}_k = \vec{0}, \text{ então } x_1 = x_2 = \cdots = x_k = 0.} 55 | \end{equation} De fato, imaginem que pelo menos um dos coeficientes acima fosse diferente de zero, digamos $x_2 \neq 0$. Daí podemos dividir por $x_2$ e conseguiríamos escrever o vetor $\vec{v}_2$ como combinação linear dos demais: 56 | \begin{equation} 57 | \vec{v}_2 = - \frac{x_1}{x_2} \, \vec{v}_1 - \frac{x_3}{x_2} \, \vec{v}_3 - \cdots - \frac{x_k}{x_2} \, \vec{v}_k. 58 | \end{equation} Se os vetores $\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k \in \mathbb{R}^m$ não forem linearmente independentes, então nós dizemos que eles são \textbf{linearmente dependentes (LD)}. 59 | 60 | \begin{ex}\label{exp:1} 61 | Vamos verificar se os vetores 62 | \begin{equation} 63 | \left[ 64 | \begin{array}{c} 65 | 1 \\ 66 | 0 \\ 67 | 0 68 | \end{array} 69 | \right], \quad 70 | \left[ 71 | \begin{array}{c} 72 | 1 \\ 73 | 1 \\ 74 | 0 75 | \end{array} 76 | \right], \quad 77 | \left[ 78 | \begin{array}{c} 79 | 1 \\ 80 | 1 \\ 81 | 1 82 | \end{array} 83 | \right] 84 | \end{equation} são LI ou LD. 85 | 86 | Para verificar se são LI, nós devemos considerar a equação vetorial 87 | \begin{equation} 88 | x_1 \left[ 89 | \begin{array}{c} 90 | 1 \\ 91 | 0 \\ 92 | 0 93 | \end{array} 94 | \right] + 95 | x_2\left[ 96 | \begin{array}{c} 97 | 1 \\ 98 | 1 \\ 99 | 0 100 | \end{array} 101 | \right] + 102 | x_3\left[ 103 | \begin{array}{c} 104 | 1 \\ 105 | 1 \\ 106 | 1 107 | \end{array} 108 | \right] = \vec{0} = 109 | \left[ 110 | \begin{array}{c} 111 | 0 \\ 112 | 0 \\ 113 | 0 114 | \end{array} 115 | \right]. 116 | \end{equation} Como a equação é homogênea, temos pelo menos a solução trivial: $x_1 = 0$, $x_2=0$ e $x_3 = 0$. Se esta for a única solução, então os vetores são LI. Se existir alguma outra solução que não seja a trivial, então os vetores são LD. 117 | 118 | Resolver a equação vetorial equivale a resolver o sistema linear 119 | \begin{equation} 120 | \left[ 121 | \begin{array}{ccc} 122 | 1 & 1 & 1 \\ 123 | 0 & 1 & 1 \\ 124 | 0 & 0 & 1 125 | \end{array} 126 | \right] 127 | \left[ 128 | \begin{array}{c} 129 | x_1 \\ 130 | x_2 \\ 131 | x_3 132 | \end{array} 133 | \right] = 134 | \left[ 135 | \begin{array}{c} 136 | 0 \\ 137 | 0 \\ 138 | 0 139 | \end{array} 140 | \right]. 141 | \end{equation} É fácil de ver que a única solução deste sistema é a trivial e, portanto, os vetores são LI. Se este sistema não fosse fácil de resolver, deveríamos começar a resolvê-lo por escalonamento, como de costume. $\ \lhd$ 142 | \end{ex} 143 | 144 | \begin{ex}\label{exp:2} 145 | Analisamos agora os vetores 146 | \begin{equation} 147 | \left[ 148 | \begin{array}{c} 149 | 1 \\ 150 | 0 \\ 151 | 1 152 | \end{array} 153 | \right], \quad 154 | \left[ 155 | \begin{array}{c} 156 | 1 \\ 157 | 1 \\ 158 | 0 159 | \end{array} 160 | \right], \quad 161 | \left[ 162 | \begin{array}{c} 163 | 1 \\ 164 | 1 \\ 165 | 1 166 | \end{array} 167 | \right], \quad 168 | \left[ 169 | \begin{array}{c} 170 | -1 \\ 171 | 2 \\ 172 | 1 173 | \end{array} 174 | \right]. 175 | \end{equation} Como no exemplo anterior, para verificar se são LI, nós devemos considerar a equação vetorial 176 | \begin{equation} 177 | x_1 \left[ 178 | \begin{array}{c} 179 | 1 \\ 180 | 0 \\ 181 | 1 182 | \end{array} 183 | \right] + 184 | x_2\left[ 185 | \begin{array}{c} 186 | 1 \\ 187 | 1 \\ 188 | 0 189 | \end{array} 190 | \right] + 191 | x_3\left[ 192 | \begin{array}{c} 193 | 1 \\ 194 | 1 \\ 195 | 1 196 | \end{array} 197 | \right]+ 198 | x_4\left[ 199 | \begin{array}{c} 200 | -1 \\ 201 | 2 \\ 202 | 1 203 | \end{array} 204 | \right] = 205 | \left[ 206 | \begin{array}{c} 207 | 0 \\ 208 | 0 \\ 209 | 0 210 | \end{array} 211 | \right]. 212 | \end{equation} Como a equação é homogênea, temos pelo menos a solução trivial: $x_1 = 0$, $x_2=0$ e $x_3 = 0$. Se esta for a única solução, então os vetores são LI. Se existir alguma outra solução que não seja a trivial, então os vetores são LD. 213 | 214 | Resolver a equação vetorial equivale a resolver o sistema linear 215 | \begin{equation} 216 | \left[ 217 | \begin{array}{cccc} 218 | 1 & 1 & 1 & -1 \\ 219 | 0 & 1 & 1 & 2 \\ 220 | 1 & 0 & 1 & 1 221 | \end{array} 222 | \right] 223 | \left[ 224 | \begin{array}{c} 225 | x_1 \\ 226 | x_2 \\ 227 | x_3 \\ 228 | x_4 229 | \end{array} 230 | \right] = 231 | \left[ 232 | \begin{array}{c} 233 | 0 \\ 234 | 0 \\ 235 | 0 236 | \end{array} 237 | \right]. 238 | \end{equation} Em um sistema com mais variáveis do que equações, podemos não ter soluções (no caso de alguma linha inconsistente) ou podemos ter infinitas soluções (no caso de haver variáveis livres). Não é possível ter unicidade. Como já sabemos que em um sistema homogêneo, sempre temos pelo menos a solução trivial $x_1 = 0$, $x_2=0$, $x_3=0$ e $x_4 = 0$, podemos concluir que existem infinitas soluções. Logo, o conjunto de vetores é LD. 239 | \end{ex} 240 | 241 | O argumento que utilizamos no Exemplo \ref{exp:2} acima é geral e se aplica em várias situações. Temos 242 | \begin{equation} 243 | \boxed{\text{Se $k>m$, então os vetores } \vec{v}_1, \vec{v}_2, \dots, \vec{v}_k \in \mathbb{R}^m \text{ são necessariamente LD.}} 244 | \end{equation} Desta forma, não existem quatro vetores LI em $\mathbb{R}^3$. Não conseguiríamos encontrar sete vetores LI em $\mathbb{R}^5$ e assim por diante. 245 | 246 | 247 | Façamos agora algumas observações gerais sobre independência linear: 248 | \begin{itemize} 249 | \item O vetor nulo, mesmo que sozinho, é LD. Se $\vec{v} = \vec{0}$ estiver em um conjunto de vetores, este conjunto será automaticamente LD. 250 | \item Ao considerarmos apenas dois vetores $\vec{u}$ e $\vec{v}$, dizer que estes vetores são LD significa que eles são múltiplos um do outro e, portanto, colineares. 251 | \item Veremos mais adiante no curso que a dimensão do espaço gerado por vetores linearmente independentes é exatamente o número de vetores. Desta maneira, concluiremos, por exemplo, que o conjunto gerado por dois vetores do espaço tridimensional é um espaço linear de dimensão dois: um plano. 252 | \end{itemize} 253 | 254 | \subsection*{Exercícios resolvidos} 255 | 256 | \construirExeresol 257 | 258 | \begin{exeresol} 259 | Diga se $\vec{v_1}$, $\vec{v_2}$ e $\vec{v_3}$ são vetores linearmente independentes ou dependentes. 260 | \begin{equation} 261 | \vec{v_1} = 262 | \left[ 263 | \begin{array}{c} 264 | 2 \\ 265 | 4 \\ 266 | 6 267 | \end{array} 268 | \right] \quad , \quad 269 | \vec{v_2} = 270 | \left[ 271 | \begin{array}{c} 272 | 8 \\ 273 | 10 \\ 274 | 12 275 | \end{array} 276 | \right] \quad , \quad 277 | \vec{v_3} = 278 | \left[ 279 | \begin{array}{c} 280 | 4 \\ 281 | 2 \\ 282 | 0 283 | \end{array} 284 | \right] 285 | \end{equation} 286 | \end{exeresol} 287 | 288 | \begin{resol} 289 | Para determinar se o conjunto de vetores dados é linearmente dependente, precisamos saber se existe solução não-trivial na seguinte equação: 290 | \begin{equation} 291 | x_1\vec{v_1} + x_2\vec{v_2} + x_3\vec{v_3} = \vec{0} 292 | \end{equation} 293 | Podemos escrever também: 294 | \begin{equation} 295 | x_1\left[ 296 | \begin{array}{c} 297 | 2 \\ 298 | 4 \\ 299 | 6 300 | \end{array} 301 | \right] + 302 | x_2\left[ 303 | \begin{array}{c} 304 | 8 \\ 305 | 10 \\ 306 | 12 307 | \end{array} 308 | \right] + 309 | x_3\left[ 310 | \begin{array}{c} 311 | 4 \\ 312 | 2 \\ 313 | 0 314 | \end{array} 315 | \right] = 316 | \left[ 317 | \begin{array}{c} 318 | 0 \\ 319 | 0 \\ 320 | 0 321 | \end{array} 322 | \right] 323 | \end{equation} 324 | Dessa maneira, o problema se reduz a escalonar a matriz abaixo: 325 | \begin{equation} 326 | \left[ 327 | \begin{array}{cccc} 328 | 2 & 8 & 4 & 0 \\ 329 | 4 & 10 & 2 & 0 \\ 330 | 6 & 12 & 0 & 0 331 | \end{array} 332 | \right] 333 | \end{equation} 334 | Escalonando-a, obtemos a matriz: 335 | \begin{equation} 336 | \left[ 337 | \begin{array}{cccc} 338 | 1 & 4 & 2 & 0 \\ 339 | 0 & 1 & 1 & 0 \\ 340 | 0 & 0 & 0 & 0 341 | \end{array} 342 | \right] 343 | \end{equation} 344 | Através dela, podemos observar que $x_1$ e $x_2$ são variáveis dependentes, enquanto que $x_3$ é variável livre. Ou seja, a equação 345 | inicial possui infinitas soluções além da solução trivial. Portanto, obtemos que os vetores $v_1$, $v_2$ e $v_3$ são linearmente dependentes. $\lhd$ 346 | \end{resol} 347 | \subsection*{Exercícios} 348 | 349 | \construirExer 350 | 351 | 352 | \section{Independência linear e sistemas lineares} 353 | 354 | Na última semana (capítulo anterior), vimos que resolver o sistema linear $A \vec{x} = \vec{b}$ equivale a decidir se o vetor $\vec{b}$ é uma combinação linear das colunas de $A$. Na seção anterior, introduzimos a questão de decidir se os vetores $\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k$ são LI ou LD. Isto, consequentemente\footnote{Lembra que uma equação vetorial pode ser reescrita como uma equação matricial!}, equivale a decidir se existe solução não trivial para o sistema linear homogêneo 355 | \begin{equation} 356 | A \vec{x} = \vec{0}, 357 | \end{equation} onde a matriz $A$ é formada com os vetores $\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k$ como colunas. 358 | 359 | \begin{ex} 360 | Naturalmente, podemos traduzir os exemplos da seção anterior desta forma. Ou seja no Exemplo \ref{exp:1}, temos que a matriz 361 | \begin{equation} 362 | A = \left[ 363 | \begin{array}{ccc} 364 | 1 & 1 & 1 \\ 365 | 0 & 1 & 1 \\ 366 | 1 & 0 & 1 367 | \end{array} 368 | \right] 369 | \end{equation} tem as colunas linearmente independentes (LI). Por outro lado, as colunas da matriz 370 | \begin{equation} 371 | B = \left[ 372 | \begin{array}{cccc} 373 | 1 & 1 & 1 & -1 \\ 374 | 0 & 1 & 1 & 2 \\ 375 | 1 & 0 & 1 & 1 376 | \end{array} 377 | \right] 378 | \end{equation} do Exemplo \ref{exp:2} são linearmente dependentes (LD). $\ \lhd$ 379 | \end{ex} 380 | 381 | Podemos pensar ainda de outra forma. Considere uma matriz $A$ de ordem $m\times n.$ Para decidir se as colunas de $A$ são LI, devemos procurar por soluções não triviais do sistema linear cuja matriz associada é $A$. Ao resolver um \textbf{sistema homogêneo} por escalonamento, sabemos que 382 | \begin{itemize} 383 | \item Se existirem mais colunas do que linhas ($i.e. \ m 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana05/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana04 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 5" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana05/semana05.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} %%DM%%Escolher document class and options article, etc 4 | 5 | %define o diretório principal 6 | %\providecommand{\dir}{..} 7 | 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | %%%%%%%%%%%%INICIO DO DOCUMENTO%%%%%%%%%%%%%% 10 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 11 | 12 | %\begin{document} 13 | 14 | \chapter{Semana 5} 15 | 16 | \section{Interpretações de sistemas lineares e de matrizes invertíveis} 17 | 18 | Uma das belezas da Álgebra Linear é que diversos conceitos podem ser interpretados de maneiras diferentes. Assim, propriedades intuitivas de uma formulação de um certo problema podem ser traduzidas para outras formulações onde estas propriedades nem sempre são tão aparentes. 19 | 20 | Um sistema linear pode ser reescrito de diversas maneiras. 21 | \begin{enumerate}[1.] 22 | \item \textbf{Sistema linear}: 23 | \begin{equation} 24 | \left\{ 25 | \begin{array}{rl} 26 | 7x_1 - 3x_2 & = 2 \\ 27 | 3x_1 - x_2 + x_3 & = 0 \\ 28 | x_2 + 2x_3 & = -2 29 | \end{array} 30 | \right.. 31 | \end{equation} Aparece geralmente na formulação ou na modelagem do problema. As variáveis $x_1, x_2, x_3$ indicam as variáveis que estamos interessados em analisar e o problema específico no fornece os coeficientes do sistema. 32 | \item \textbf{Matriz aumentada associada}: 33 | \begin{equation} 34 | \left[ 35 | \begin{array}{ccc|c} 36 | 7 & -3 & 0 & 2 \\ 37 | 3 & -1 & 1 & 0 \\ 38 | 0 & 1 & 2 & -2 \\ 39 | \end{array} 40 | \right] 41 | \end{equation} Esta forma é adequada para resolver o sistema por escalonamento (também conhecido como método de eliminação gaussiana). Poderíamos fazer eliminação gaussiana sem recorrer à matriz aumentada associada, mas isto implicaria em ter que ficar reescrevendo as variáveis independentes a todo momento, além de tomar certo cuidado para não se confundir com os coeficientes nulos. O escalonamento de uma matriz torna o procedimento mais automatizado e minimiza as chances de erro. 42 | \item \textbf{Forma matricial}: 43 | \begin{equation} 44 | \left[ 45 | \begin{array}{ccc} 46 | 7 & -3 & 0 \\ 47 | 3 & -1 & 1 \\ 48 | 0 & 1 & 2 \\ 49 | \end{array} 50 | \right] 51 | \left[ 52 | \begin{array}{c} 53 | x_1 \\ 54 | x_2 \\ 55 | x_3 \\ 56 | \end{array} 57 | \right] = 58 | \left[ 59 | \begin{array}{c} 60 | 2 \\ 61 | 0 \\ 62 | -2 \\ 63 | \end{array} 64 | \right] \quad \text{ ou } \quad A \vec{x} = \vec{b}. 65 | \end{equation} Nesta forma, aparece o produto de uma matriz por um vetor. Depois podemos considerar produto de matrizes e a resolução de sistemas lineares concomitantemente (ver também capítulo da Semana 04). Caso a matriz $A$ acima seja invertível, sabemos que o sistema possui apenas uma solução e que 66 | \begin{equation} 67 | \vec{x} = A^{-1} \vec{b}. 68 | \end{equation} 69 | \item \textbf{Forma vetorial} ou \textbf{combinação linear das colunas}: 70 | \begin{equation} 71 | x_1 \left[ 72 | \begin{array}{ccc} 73 | 7 \\ 74 | 3 \\ 75 | 0 \\ 76 | \end{array} 77 | \right] + x_2 78 | \left[ 79 | \begin{array}{c} 80 | -3 \\ 81 | -1 \\ 82 | 1 \\ 83 | \end{array} 84 | \right] + x_3 85 | \left[ 86 | \begin{array}{c} 87 | 0 \\ 88 | 1 \\ 89 | 2 \\ 90 | \end{array} 91 | \right] = 92 | \left[ 93 | \begin{array}{c} 94 | 2 \\ 95 | 0 \\ 96 | -2 \\ 97 | \end{array} 98 | \right] 99 | \end{equation} Aqui, há uma interpretação mais geométrica. Estudar a existência de soluções do sistema linear é equivalente a se perguntar se o vetor 100 | \begin{equation} 101 | \vec{b} = 102 | \left[ 103 | \begin{array}{c} 104 | 2 \\ 105 | 0 \\ 106 | -2 \\ 107 | \end{array} 108 | \right] 109 | \end{equation} pode ser escrito como combinação linear dos vetores 110 | \begin{equation} 111 | \vec{v}_1 = \left[ 112 | \begin{array}{ccc} 113 | 7 \\ 114 | 3 \\ 115 | 0 \\ 116 | \end{array} 117 | \right], \quad \vec{v}_2 = 118 | \left[ 119 | \begin{array}{c} 120 | -3 \\ 121 | -1 \\ 122 | 1 \\ 123 | \end{array} 124 | \right] \quad \text{e} \quad \vec{v}_3 = 125 | \left[ 126 | \begin{array}{c} 127 | 0 \\ 128 | 1 \\ 129 | 2 \\ 130 | \end{array} 131 | \right], 132 | \end{equation} que são as colunas da matriz $A$. Logo, resolver o sistema linear é equivalente a perguntar se $\vec{b}$ está no espaço gerado por $\vec{v}_1, \vec{v}_2$ e $\vec{v}_3$, isto é, se $\vec{b} \in \Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$. 133 | \item \textbf{Transformações lineares}: Decidir se $\vec{b}$ pertence à imagem da transformação linear $T: \mathbb{R}^3 \to \mathbb{R}^3$, definida por: 134 | \begin{equation} 135 | T(x_1, x_2, x_3) = (7x_1 - 3x_2, 3x_1 - x_2 + x_3, x_2 + 2x_3). 136 | \end{equation} Apesar de esta ser apenas uma outra maneira de escrever a forma matricial, ela tem uma interpretação diferente, já que traz a linguagem de teoria de funções para o contexto de Álgebra Linear. De fato, vemos que a matriz canônica associada a $T$ é $A$, de modo que 137 | \begin{equation} 138 | T(\vec{x}) = A \vec{x} 139 | \end{equation} e os conceitos introduzidos anteriormente podem ser traduzidos de forma natural. Por exemplo, combinando as interpretações das formas matricial e vetorial, podemos dizer que são equivalentes: 140 | \begin{itemize} 141 | \item existir solução do sistema linear $A \vec{x} = \vec{b}$; 142 | \item vetor $\vec{b}$ pertencer ao conjunto gerado pelas colunas da matriz $A$; 143 | \item vetor $\vec{b}$ pertencer à imagem da transformação linear $T(\vec{x}) = A \vec{x}$. 144 | \end{itemize} 145 | \end{enumerate} 146 | 147 | 148 | Vamos analisar dois sistemas lineares, com todas as ferramentas que estudamos até agora e com dois objetivos principais: familiarizar ainda mais os leitores com os conceitos até então introduzidos e preparar o caminho para o resultado da subseção seguinte sobre matrizes invertíveis. 149 | 150 | Os exemplos abaixo são de sistemas lineares cuja matriz associada é \textbf{quadrada}, já que estamos estudando matrizes invertíveis, que devem ser quadradas. De qualquer maneira, alguns raciocínios podem ser adaptados para quaisquer sistemas (quais?). 151 | 152 | \begin{ex} 153 | Seja o sistema linear dado acima, cuja matriz aumentada associada é 154 | \begin{equation} 155 | \left[ 156 | \begin{array}{ccc|c} 157 | 7 & -3 & 0 & 2 \\ 158 | 3 & -1 & 1 & 0 \\ 159 | 0 & 1 & 2 & -2 \\ 160 | \end{array} 161 | \right]. 162 | \end{equation} Nossa técnica básica de escalonamento permite fazer uma análise de todos os pontos de vista acima. Os primeiros passos do escalonamento podem ser: 163 | \begin{equation} 164 | \xrightarrow{\ell_2 \leftrightarrow \ell_3} 165 | \left[ 166 | \begin{array}{ccc|c} 167 | 7 & -3 & 0 & 2 \\ 168 | 0 & 1 & 2 & -2 \\ 169 | 3 & -1 & 1 & 0 \\ 170 | \end{array} 171 | \right]\xrightarrow{-(3/7)\ell_1 + \ell_3 \text{ em } \ell_3} 172 | \left[ 173 | \begin{array}{ccc|c} 174 | 7 & -3 & 0 & 2 \\ 175 | 0 & 1 & 2 & -2 \\ 176 | 0 & 2/7 & 1 & -6/7 \\ 177 | \end{array} 178 | \right] 179 | \end{equation} 180 | \begin{equation} 181 | \xrightarrow{7 \cdot \ell_3} 182 | \left[ 183 | \begin{array}{ccc|c} 184 | 7 & -3 & 0 & 2 \\ 185 | 0 & 1 & 2 & -2 \\ 186 | 0 & 2 & 7 & -6 \\ 187 | \end{array} 188 | \right] \xrightarrow{-2\ell_2 + \ell_3 \text{ em } \ell_3} 189 | \left[ 190 | \begin{array}{ccc|c} 191 | 7 & -3 & 0 & 2 \\ 192 | 0 & 1 & 2 & -2 \\ 193 | 0 & 0 & 3 & -2 \\ 194 | \end{array} 195 | \right] 196 | \end{equation} Estas continhas iniciais já revelam muito! Por exemplo: 197 | \begin{itemize} 198 | \item Chegamos à forma escalonada e não há linha do tipo $[0 \ 0 \ 0 \ | \ 1]$; logo, o sistema possui solução; 199 | \item De fato, podemos dizer mais: já que todas as colunas da matriz $A$ possuem posição de pivô, existe apenas uma solução; 200 | \item Podemos dizer mais ainda: já que todas as colunas da matriz $A$ possuem posição de pivô, o sistema possuiria solução, quaisquer que fossem os números do lado direito da igualdade, isto é, as coordenadas do vetor $\vec{b}$; 201 | \item Todas as colunas da matriz $A$ possuem posição de pivô e portanto a forma escalonada reduzida da matriz $A$ será a matriz identidade $I_3$. Em particular, seria possível obter a matriz inversa a $A$, desde que começássemos escalonando a matriz $[A \ | I_3 ]$. 202 | \end{itemize} Agora, vejamos como poderíamos reescrever estas conclusões utilizando os conceitos estudados nas semanas anteriores: 203 | \begin{itemize} 204 | \item Para todo $\vec{b} \in \mathbb{R}^3$, o sistema $A \vec{x} = \vec{b}$ possui exatamente uma solução; 205 | \item Todo vetor $\vec{b} \in \mathbb{R}^3$ pode ser escrito como combinação linear das colunas $\vec{v}_1, \vec{v}_2, \vec{v}_3$ de $A$; 206 | \item Todo vetor $\vec{b} \in \mathbb{R}^3$ pertence a $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$, espaço gerado pelas colunas de $A$; 207 | \item $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\} = \mathbb{R}^3$; 208 | \item $A$ é equivalente por linhas à matriz identidade $I_3$; 209 | \item $A$ é invertível; 210 | \item A imagem da transformação linear $T(\vec{x}) = A \vec{x}$ é todo o espaço $\mathbb{R}^3$, isto é, $T$ é sobrejetora; 211 | \item A equação $T(\vec{x}) = \vec{b}$ possui no máximo uma solução para cada $\vec{b} \in \mathbb{R}^3$ (de fato, possui exatamente uma!), de modo que $T$ é injetora; 212 | \item $T$ é invertível, já que é ao mesmo tempo injetora e sobrejetora. 213 | \end{itemize} Todas estas conclusões vieram de alguns passos que levaram a matriz $A$ à sua forma escalonada. Como veremos adiante, ainda mais coisas poderiam ser ditas! $\ \lhd$ 214 | \end{ex} 215 | 216 | 217 | 218 | \begin{ex} 219 | Analisamos agora o sistema linear cuja matriz aumentada associada é 220 | \begin{equation} 221 | \left[ 222 | \begin{array}{ccc|c} 223 | 1 & -3 & 0 & 2 \\ 224 | 0 & 4 & 1 & -3 \\ 225 | 3 & -1 & 2 & 0 \\ 226 | \end{array} 227 | \right]. 228 | \end{equation} Nossa técnica básica de escalonamento permite fazer uma análise de todos os pontos de vista acima. Os primeiros passos do escalonamento podem ser: 229 | \begin{equation} 230 | \xrightarrow{-3\ell_1 + \ell_3 \text{ em } \ell_3} 231 | \left[ 232 | \begin{array}{ccc|c} 233 | 1 & -3 & 0 & 2 \\ 234 | 0 & 4 & 1 & -3 \\ 235 | 0 & 8 & 2 & -6 \\ 236 | \end{array} 237 | \right] \xrightarrow{-2\ell_2 + \ell_3 \text{ em } \ell_3} 238 | \left[ 239 | \begin{array}{ccc|c} 240 | 1 & -3 & 0 & 2 \\ 241 | 0 & 4 & 1 & -3 \\ 242 | 0 & 0 & 0 & 0 \\ 243 | \end{array} 244 | \right]. 245 | \end{equation} Assim como no exemplo anterior, estas contas também revelam toda a estrutura do sistema linear e de sua matriz associada. 246 | \begin{itemize} 247 | \item Este sistema possui infinitas soluções, pois possui uma variável livre; 248 | \item Nem todas as colunas da matriz $A$ possuem posição de pivô. Consequentemente, escolhas diferentes do vetor $\vec{b}$, poderiam resultar em um sistema impossível. De fato, foi uma coincidência que nossa última conta foi $(-2)\cdot (-3) + (-6)$, que resultou em um zero. Neste exemplo, qualquer variação na segunda componente de $\vec{b}$ nos daria um sistema impossível: 249 | \begin{equation} 250 | \left[ 251 | \begin{array}{ccc|c} 252 | 1 & -3 & 0 & 2 \\ 253 | 0 & 4 & 1 & 1 \\ 254 | 3 & -1 & 2 & 0 \\ 255 | \end{array} 256 | \right] 257 | \xrightarrow{-3\ell_1 + \ell_3 \text{ em } \ell_3} 258 | \left[ 259 | \begin{array}{ccc|c} 260 | 1 & -3 & 0 & 2 \\ 261 | 0 & 4 & 1 & 1 \\ 262 | 0 & 8 & 2 & -6 \\ 263 | \end{array} 264 | \right] \xrightarrow{-2\ell_2 + \ell_3 \text{ em } \ell_3} 265 | \left[ 266 | \begin{array}{ccc|c} 267 | 1 & -3 & 0 & 2 \\ 268 | 0 & 4 & 1 & 1 \\ 269 | 0 & 0 & 0 & -8 \\ 270 | \end{array} 271 | \right]. 272 | \end{equation} 273 | \item É um fato geral: se \emph{nem todas} as colunas de $A$ possuem posição de pivô, podemos encontrar vetores $\vec{b}$ de modo que o sistema seja impossível e vetores $\vec{b}$ cujo sistema possua infinitas soluções; 274 | \item A forma escalonada reduzida de $A$ não é a identidade, isto é, $A$ não é equivalente por linhas a $I_3$. Em particular, $A$ não é invertível. 275 | \end{itemize} Vamos reescrever estas conclusões como no exemplo anterior: 276 | \begin{itemize} 277 | \item Existe $\vec{b}_1 \in \mathbb{R}^3$ tal que o sistema $A \vec{x} = \vec{b}_1$ possui infinitas soluções e existe $\vec{b}_2 \in \mathbb{R}^3$ tal que o sistema $A \vec{x} = \vec{b}_2$ possui infinitas soluções; 278 | \item Nem todo vetor $\vec{b} \in \mathbb{R}^3$ pode ser escrito como combinação linear das colunas $\vec{v}_1, \vec{v}_2, \vec{v}_3$ de $A$; 279 | \item Existe $\vec{b} \in \mathbb{R}^3$ não pertencente a $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$; 280 | \item $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\} \neq \mathbb{R}^3$; 281 | \item $A$ não é equivalente por linhas à matriz identidade $I_3$; 282 | \item $A$ não é invertível; 283 | \item A imagem da transformação linear $T(\vec{x}) = A \vec{x}$ não é todo o espaço $\mathbb{R}^3$, isto é, $T$ não é sobrejetora; 284 | \item A equação $T(\vec{x}) = \vec{b}$ pode possuir mais de uma solução, de modo que $T$ não é injetora; 285 | \item $T$ não é invertível, já que não é injetora e nem sobrejetora. $\ \lhd$ 286 | \end{itemize} 287 | \end{ex} 288 | 289 | 290 | \subsection{Caracterizações de matrizes invertíveis} 291 | 292 | 293 | A discussão feita na seção anterior é válida para matrizes quadradas de forma geral e vamos enunciar isto em um grande Teorema. A prova deste resultado abaixo segue as mesmas ideias dos exemplos da seção anterior. Não faremos a prova, mas é importante que o leitor esteja familiarizado com estas ideias. 294 | 295 | 296 | \begin{teo} 297 | Seja $A$ uma matriz quadrada de ordem $n\times n$. As afirmações abaixo são equivalentes (ou todas falsas ou todas verdadeiras): 298 | \begin{enumerate} 299 | \item $A$ é invertível; 300 | \item Existe uma matriz $B$ tal que $AB = I_n$; 301 | \item Existe uma matriz $C$ tal que $CA = I_n$; 302 | \item $A$ é equivalente por linhas à matriz identidade $I_n$; 303 | \item $A$ tem $n$ posições de pivô; 304 | \item Para todo $\vec{b} \in \mathbb{R}^3$, o sistema $A \vec{x} = \vec{b}$ possui exatamente uma solução; 305 | \item O sistema $A \vec{x} = \vec{0}$ possui somente a solução trivial; 306 | \item As colunas $\vec{v}_1, \vec{v}_2, \vec{v}_3$ de $A$ são linearmente independentes; 307 | \item Todo vetor $\vec{b} \in \mathbb{R}^3$ pode ser escrito como combinação linear das colunas $\vec{v}_1, \vec{v}_2, \vec{v}_3$ de $A$; 308 | \item Todo vetor $\vec{b} \in \mathbb{R}^3$ pertence a $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$, espaço gerado pelas colunas de $A$; 309 | \item As colunas de $A$ geram $\mathbb{R}^n$: $\Span\{\vec{v}_1, \vec{v}_2, \vec{v}_3\} = \mathbb{R}^3$; 310 | \item $T(\vec{x}) = A \vec{x}$ é sobrejetora; 311 | \item $T(\vec{x}) = A \vec{x}$ é injetora; 312 | \item $T(\vec{x}) = A \vec{x}$ é invertível, 313 | \item $A^T$ é invertível. 314 | \end{enumerate} 315 | \end{teo} 316 | 317 | \begin{exer} 318 | Justificar, baseando-se nos exemplos da seção anterior, o porquê das afirmações acima serem equivalentes. 319 | \end{exer} 320 | 321 | O teorema é utilizado na prática da mesma maneira que fizemos na seção anterior. 322 | 323 | 324 | \subsection*{Exercícios resolvidos} 325 | 326 | \construirExeresol 327 | 328 | \subsection*{Exercícios} 329 | 330 | \construirExer 331 | 332 | 333 | \section{Espaços vetoriais} 334 | 335 | 336 | Um espaço vetorial (sobre o conjunto $\mathbb{R}$ de escalares) é um conjunto $V$ equipado com as operações de soma de vetores e de multiplicação por escalar e que satisfazem as propriedades usuais dos espaços $\mathbb{R}^n$. A ideia é que vários conjuntos mais abstratos possuem a estrutura parecida com a dos espaços $\mathbb{R}^n$ e esta abordagem permite que façamos uma análise sistemática de todos estes casos. 337 | 338 | De forma mais precisa, um \textbf{espaço vetorial sobre $\mathbb{R}$} é um conjunto $V$, cujos elementos são chamados vetores, equipado com duas operações: 339 | \begin{itemize} 340 | \item Soma entre vetores, que satisfaz 341 | \begin{enumerate} 342 | \item Associatividade: $(u+v)+w=u+(v+w)$, para quaisquer $u,v,w \in V$; 343 | \item Elemento neutro: existe o vetor $0 \in V$ que satisfaz $v+0=0+v=v$, para qualquer $v \in V$; 344 | \item Inverso aditivo: para cada $v \in V$, existe o inverso $u= -v \in V$, que satisfaz $v+u=0$; 345 | \item Comutatividade: $u+v = v+u$, para quaisquer $u, v \in V$; 346 | \end{enumerate} 347 | \item Multiplicação de vetor por escalar, que satisfaz 348 | \begin{enumerate} 349 | \item[5.] Associatividade da multiplicação por escalar: $a\cdot (b\cdot v)=(a\cdot b)\cdot v$, para quaisquer $a,b \in \mathbb{R}$ e qualquer $v \in V$; 350 | \item[6.] Vale que $1 \cdot v = v$, ou seja, a unidade dos números reais não altera os vetores de $V$; 351 | \item[7.] Distributiva de um escalar em relação à soma de vetores: $a \cdot (u+v) = a\cdot v+a\cdot u$, para qualquer $a \in \mathbb{R}$ e quaisquer $u,v \in V$; 352 | \item[8.] Distributiva da soma de escalares em relação a um vetor: $(a+b) \cdot v = a \cdot v+b \cdot v$, para quaisquer $a,b \in \mathbb{R}$ e qualquer $v \in V$. 353 | \end{enumerate} 354 | \end{itemize} 355 | 356 | \begin{ex} 357 | Naturalmente, $\mathbb{R}$, $\mathbb{R}^2$, $\mathbb{R}^3$, ..., $\mathbb{R}^n$ são espaços vetoriais sobre $\mathbb{R}$, já que as propriedades acima foram todas inspiradas nas propriedades válidas para vetores de $\mathbb{R}^n$. 358 | \end{ex} 359 | 360 | 361 | \begin{ex} 362 | O conjunto $M_{m\times n}$ de todas as matrizes de ordem $m\times n$ é um espaço vetorial, com as operações naturais que já utilizamos anteriormente: Se 363 | \begin{equation} 364 | A = 365 | \left[ 366 | \begin{array}{cccc} 367 | a_{11} & a_{12} & \cdots & a_{1n} \\ 368 | a_{21} & a_{22} & \cdots & a_{2n} \\ 369 | \vdots & \vdots & & \vdots \\ 370 | a_{m1} & a_{m2} & \cdots & a_{mn} \\ 371 | \end{array} 372 | \right] \quad \text{e} \quad 373 | B = 374 | \left[ 375 | \begin{array}{cccc} 376 | b_{11} & b_{12} & \cdots & b_{1n} \\ 377 | b_{21} & b_{22} & \cdots & b_{2n} \\ 378 | \vdots & \vdots & & \vdots \\ 379 | b_{m1} & b_{m2} & \cdots & b_{mn} \\ 380 | \end{array} 381 | \right], 382 | \end{equation} definimos 383 | \begin{equation} 384 | A + B = 385 | \left[ 386 | \begin{array}{cccc} 387 | a_{11} + b_{11} & a_{12} + b_{12} & \cdots & a_{1n} + b_{1n} \\ 388 | a_{21} + b_{21} & a_{22} + b_{22} & \cdots & a_{2n} + b_{2n} \\ 389 | \vdots & \vdots & & \vdots \\ 390 | a_{m1} + b_{m1} & a_{m2} + b_{m2} & \cdots & a_{mn} + b_{mn} \\ 391 | \end{array} 392 | \right] \quad \text{e} \quad 393 | k\cdot A = 394 | \left[ 395 | \begin{array}{cccc} 396 | k\cdot a_{11} & k\cdot a_{12} & \cdots & k\cdot a_{1n} \\ 397 | k\cdot a_{21} & k\cdot a_{22} & \cdots & k\cdot a_{2n} \\ 398 | \vdots & \vdots & & \vdots \\ 399 | k\cdot a_{m1} & k\cdot a_{m2} & \cdots & k\cdot a_{mn} \\ 400 | \end{array} 401 | \right]. 402 | \end{equation} É imediato verificar que valem todas as 8 propriedades acima (faça!). 403 | \end{ex} 404 | 405 | 406 | \begin{ex}\label{funcoes} 407 | O conjunto de todas as funções de um intervalo $I$ em $\mathbb{R}$ 408 | \begin{equation} 409 | \mathcal{F} (I;\mathbb{R}) = \left\{ f: I \to \mathbb{R} \text{funções} \right\}. 410 | \end{equation} 411 | forma um espaço vetorial sobre $\mathbb{R}$, com as operações: 412 | \begin{itemize} 413 | \item Dadas duas funções $f$ e $g$, a função $f+g : I \to \mathbb{R}$ é definida por 414 | \begin{equation} 415 | \big( f+g \big) (x) = f(x) + g(x). 416 | \end{equation} 417 | \item Dada uma função $f$ e um número real $k$, a função $k \cdot f : I \to \mathbb{R}$ é definida por 418 | \begin{equation} 419 | \big( k \cdot f \big) (x) = k \cdot f(x). 420 | \end{equation} 421 | \end{itemize} 422 | \end{ex} 423 | 424 | 425 | \begin{exer} 426 | Justifique que o espaço gerado por dois elementos $\Span \{ \vec{u}, \vec{v} \}$ é um espaço vetorial. 427 | \end{exer} 428 | 429 | 430 | \subsection{Subespaços vetoriais} 431 | 432 | Consideramos $V$ um espaço vetorial e $H\subseteq V$ um subconjunto. Nós dizemos que $H$ é uma \textbf{subespaço vetorial de} $V$ se, além de ser um subconjunto, $H$ é por si só um espaço vetorial. 433 | 434 | Na prática, para decidir se um subconjunto $H$ é subespaço de $V$, não precisamos verificar todas as oito propriedades da definição de espaço vetorial. Temos o seguinte: 435 | 436 | %\begin{teo}[Critério para subespaços] 437 | \begin{teo} 438 | Um subconjunto $H \subseteq V$ é subespaço de $V$ se, e somente se, as duas propriedades abaixo são verificadas: 439 | \begin{itemize} 440 | \item $0 \in H$; 441 | \item $a\cdot u + b \cdot v \in H$ para quaisquer $a, b \in \mathbb{R}$ e quaisquer $u,v \in H$. 442 | \end{itemize} 443 | \end{teo} 444 | 445 | 446 | \begin{ex}\label{reta} 447 | A reta $H_1 = \{y = 2x\}$ em $\mathbb{R}^2$ é um subespaço de $\mathbb{R}^2$. Temos que 448 | \begin{itemize} 449 | \item $\vec{0} = (0,0)$ pertence a reta, pois satisfaz a equação da reta: $0 = 2\cdot 0$; 450 | \item se $(x_1, y_1)$ e $(x_2, y_2)$ pertencem à reta, vamos verificar que $(ax_1 + b x_2, ay_1 + b y_2)$ também pertence: 451 | \begin{equation} 452 | ay_1 + b y_2 = a \cdot (2x_1) + b\cdot (2x_2) = 2 (ax_1 + b x_2). 453 | \end{equation} Portanto, $H$ é um subespaço de $\mathbb{R}^2$. 454 | \end{itemize} 455 | \end{ex} 456 | 457 | \begin{ex} 458 | A reta $H_2 = \{y = 2x + 3\}$ \underline{não} é um subespaço de $\mathbb{R}^2$. De fato, $\vec{0} = (0,0)$ não pertence a reta. De um modo geral, as retas que passam pela origem são subespaços e as retas que não passam pela origem não são. 459 | \end{ex} 460 | 461 | 462 | \begin{ex} 463 | Mais geralmente, para $\vec{u}, \vec{v} \in \mathbb{R}^n$, o espaço gerado $\Span \{\vec{u}, \vec{v}\}$ é um subespaço de $\mathbb{R}^n$. Caso os vetores sejam LI, este espaço pode ser pensado como o plano que contém os vetores $\vec{u}, \vec{v}$ dentro de $\mathbb{R}^n$ (por quê?). 464 | 465 | Poderíamos argumentar que a reta do Exemplo \ref{reta} é um subespaço, pois todos os pontos da reta satisfazem: 466 | \begin{equation} 467 | \left[ 468 | \begin{array}{c} 469 | x \\ 470 | y \\ 471 | \end{array} 472 | \right] = 473 | \left[ 474 | \begin{array}{c} 475 | x \\ 476 | 2x \\ 477 | \end{array} 478 | \right] = x \cdot 479 | \left[ 480 | \begin{array}{c} 481 | 1 \\ 482 | 2 \\ 483 | \end{array} 484 | \right], 485 | \end{equation} isto é, $H = \Span \left\{ \left[ 486 | \begin{array}{c} 487 | 1 \\ 488 | 2 \\ 489 | \end{array} 490 | \right] \right\}$. 491 | \end{ex} 492 | 493 | 494 | \begin{ex} 495 | Um plano que passa pela origem $2x - y + 3z = 0$ é um subespaço de $\mathbb{R}^3$, pois podemos escrever pontos do plano como 496 | \begin{equation} 497 | \left[ 498 | \begin{array}{c} 499 | x \\ 500 | y \\ 501 | z \\ 502 | \end{array} 503 | \right] = 504 | \left[ 505 | \begin{array}{c} 506 | x \\ 507 | 2x +3z \\ 508 | z \\ 509 | \end{array} 510 | \right] = x \cdot 511 | \left[ 512 | \begin{array}{c} 513 | 1 \\ 514 | 2 \\ 515 | 0 \\ 516 | \end{array} 517 | \right] + z \cdot 518 | \left[ 519 | \begin{array}{c} 520 | 0 \\ 521 | 3 \\ 522 | 1 \\ 523 | \end{array} 524 | \right], 525 | \end{equation} isto é, 526 | \begin{equation} 527 | H = \Span \left\{ 528 | \left[ 529 | \begin{array}{c} 530 | 1 \\ 531 | 2 \\ 532 | 0 \\ 533 | \end{array} 534 | \right], 535 | \left[ 536 | \begin{array}{c} 537 | 0 \\ 538 | 3 \\ 539 | 1 \\ 540 | \end{array} 541 | \right] 542 | \right\} 543 | \end{equation} Por outro lado, um plano que não passa pela origem, eg, $2x - y + 3z = 1$, não pode ser um subespaço, pois $\vec{0} \not\in H$. 544 | \end{ex} 545 | 546 | 547 | 548 | \begin{ex} 549 | O conjunto $\mathcal{P} (\mathbb{R})$ das funções polinomiais com coeficientes reais é um subespaço do espaço das funções contínuas do Exemplo \ref{funcoes}. De fato, o polinômio nulo está neste espaço. Além disso, dados dois polinômios 550 | \begin{equation} 551 | p(x) = a_n x^n + \cdots a_2 x^2 + a_1 x + a_0 \quad \text{e} \quad q(x) = b_m x^m + \cdots b_2 x^2 + b_1 x + b_0, 552 | \end{equation} sabemos que $a \cdot p + b \cdot q$ vai ser um polinômio cujo grau é no máximo o maior dos valores $m$ ou $n$. 553 | \end{ex} 554 | 555 | 556 | \begin{exer} 557 | Considere o conjunto 558 | \begin{equation} 559 | \mathcal{P}_3 (\mathbb{R}) = \{ p(x) = a_3 x^3 + \cdots a_2 x^2 + a_1 x + a_0 \text{ tais que } a_0, a_1, a_2, a_3 \in \mathbb{R} \} 560 | \end{equation} o conjunto de todos os polinômios de grau 3. Mostre que: 561 | \begin{enumerate} 562 | \item $\mathcal{P}_3 (\mathbb{R})$ é um subespaço de $\mathcal{P} (\mathbb{R})$; 563 | \item $\mathcal{P}_3 (\mathbb{R})$ é um subespaço de $\mathcal{F} (I;\mathbb{R})$. 564 | \end{enumerate} É possível generalizar estas conclusões para o conjunto $\mathcal{P}_n (\mathbb{R})$ dos polinômios de grau $n$? 565 | \end{exer} 566 | 567 | 568 | \subsection{Espaço nulo} 569 | 570 | O \textbf{espaço nulo} de uma matriz $A$ de ordem $m \times n$ é o conjunto definido por 571 | \begin{equation} 572 | \operatorname{Nul} A = \big\{ \vec{x} \in \mathbb{R}^n \, | \, A\vec{x} = \vec{0} \big\}. 573 | \end{equation} Para verificar que $\operatorname{Nul} A$ é um subespaço de $\mathbb{R}^n$, consideramos $\vec{u}, \vec{v} \in \operatorname{Nul} A$ e $a,b \in \mathbb{R}$. Queremos ver que $a\vec{u} + b\vec{v}$ também pertence a $\operatorname{Nul} A$: Pela linearidade do produto de matrizes, temos 574 | \begin{equation} 575 | A (a\vec{u} + b\vec{v}) = a \cdot A\vec{u} + b\cdot A\vec{v} = a\cdot \vec{0} + b \cdot \vec{0} = \vec{0}. 576 | \end{equation} Portanto, como também $\vec{0} \in \operatorname{Nul} A$, concluímos que $\operatorname{Nul} A$ é subespaço de $\mathbb{R}^n$. 577 | 578 | \begin{ex}[Retirado do David C. Lay] 579 | Encontrar um conjunto gerador para o espaço nulo da matriz 580 | \begin{equation} 581 | \left[ 582 | \begin{array}{ccccc} 583 | -3 & 6 & -1 & 1 & -7 \\ 584 | 1 & -2 & 2 & 3 & -1 \\ 585 | 2 & -4 & 5 & 8 & -4 \\ 586 | \end{array} 587 | \right] 588 | \end{equation} Nós queremos determinar as soluções do sistema linear homogêneo 589 | \begin{equation} 590 | \left[ 591 | \begin{array}{ccccc} 592 | -3 & 6 & -1 & 1 & -7 \\ 593 | 1 & -2 & 2 & 3 & -1 \\ 594 | 2 & -4 & 5 & 8 & -4 \\ 595 | \end{array} 596 | \right] 597 | \left[ 598 | \begin{array}{c} 599 | x_1 \\ 600 | x_2 \\ 601 | x_3 \\ 602 | x_4 \\ 603 | x_5 \\ 604 | \end{array} 605 | \right] = 606 | \left[ 607 | \begin{array}{c} 608 | 0 \\ 609 | 0 \\ 610 | 0 \\ 611 | \end{array} 612 | \right]. 613 | \end{equation} Poderíamos escrever a matriz associada aumentada e escalonar, mas como este é um sistema homogêneo, não faz diferença escrevermos a última coluna com os zeros ou não (nenhuma operação elementar fará com que desapareçam os zeros). Logo, vamos obter a forma escalonada reduzida da matriz $A$ (contas como exercício): 614 | \begin{equation} 615 | \left[ 616 | \begin{array}{ccccc} 617 | -3 & 6 & -1 & 1 & -7 \\ 618 | 1 & -2 & 2 & 3 & -1 \\ 619 | 2 & -4 & 5 & 8 & -4 \\ 620 | \end{array} 621 | \right] \sim 622 | \left[ 623 | \begin{array}{ccccc} 624 | 1 & -2 & 0 & -1 & 3 \\ 625 | 0 & 0 & 1 & 2 & -2 \\ 626 | 0 & 0 & 0 & 0 & 0 \\ 627 | \end{array} 628 | \right] \sim 629 | \left\{ 630 | \begin{array}{ll} 631 | x_1 - 2x_2 - x_4 + 3x_5 = 0 \\ 632 | x_3 + 2 x_4 -2 x_5 = 0 \\ 633 | x_2, x_4, x_5 \hbox{ livres.} 634 | \end{array} 635 | \right. 636 | \end{equation} Assim, podemos escrever qualquer vetor de $\operatorname{Nul} A$ como 637 | \begin{equation} 638 | \left[ 639 | \begin{array}{c} 640 | x_1 \\ 641 | x_2 \\ 642 | x_3 \\ 643 | x_4 \\ 644 | x_5 \\ 645 | \end{array} 646 | \right] = 647 | \left[ 648 | \begin{array}{c} 649 | 2x_2 + x_4 - 3x_5 \\ 650 | x_2 \\ 651 | - 2 x_4 + 2 x_5 \\ 652 | x_4 \\ 653 | x_5 \\ 654 | \end{array} 655 | \right] = x_2 656 | \left[ 657 | \begin{array}{c} 658 | 2 \\ 659 | 1 \\ 660 | 0 \\ 661 | 0 \\ 662 | 0 \\ 663 | \end{array} 664 | \right] + x_4 665 | \left[ 666 | \begin{array}{c} 667 | 1 \\ 668 | 0 \\ 669 | -2 \\ 670 | 1 \\ 671 | 0 \\ 672 | \end{array} 673 | \right] + x_5 674 | \left[ 675 | \begin{array}{c} 676 | -3 \\ 677 | 0 \\ 678 | 2 \\ 679 | 0 \\ 680 | 1 \\ 681 | \end{array} 682 | \right]. 683 | \end{equation} Isto significa que 684 | \begin{equation} 685 | \operatorname{Nul} A = 686 | \Span \left\{ 687 | \left[ 688 | \begin{array}{c} 689 | 2 \\ 690 | 1 \\ 691 | 0 \\ 692 | 0 \\ 693 | 0 \\ 694 | \end{array} 695 | \right], 696 | \left[ 697 | \begin{array}{c} 698 | 1 \\ 699 | 0 \\ 700 | -2 \\ 701 | 1 \\ 702 | 0 \\ 703 | \end{array} 704 | \right], 705 | \left[ 706 | \begin{array}{c} 707 | -3 \\ 708 | 0 \\ 709 | 2 \\ 710 | 0 \\ 711 | 1 \\ 712 | \end{array} 713 | \right]\right\}. \ \lhd 714 | \end{equation} 715 | \end{ex} 716 | 717 | Uma das importâncias teóricas do espaço nulo é 718 | 719 | \begin{prop} 720 | Seja $A$ uma matriz $m\times n$. Então a aplicação linear $\vec{x} \mapsto A \vec{x}$ é injetora se, e somente se, $\operatorname{Nul} A = \{ 0 \}.$ 721 | \end{prop} 722 | 723 | Em outras palavras, caso o sistema linear homogêneo $A \vec{x} = \vec{0}$ possua somente a solução trivial, podemos inferir que $A \vec{x} = \vec{b}$ possui no máximo uma solução, para qualquer $\vec{b}$! 724 | 725 | \subsection{Espaço coluna} 726 | 727 | 728 | O \textbf{espaço coluna} de uma matriz $A$ de ordem $m \times n$ é o espaço gerado pelas colunas de $A$: 729 | \begin{equation} 730 | A = 731 | \left[ 732 | \begin{array}{cccc} 733 | | & | & & | \\ 734 | \vec{a}_1 & \vec{a}_2 & \cdots & \vec{a}_n \\ 735 | | & | & & | \\ 736 | \end{array} 737 | \right] \rightsquigarrow 738 | \operatorname{Col} A = \Span \{ \vec{a}_1, \vec{a}_2, \dots, \vec{a}_n\}. 739 | \end{equation} 740 | 741 | \begin{exer} 742 | Verificar que $\operatorname{Col} A$ é um subespaço de $\mathbb{R}^m$. 743 | \end{exer} 744 | 745 | Lembrando ainda que 746 | \begin{equation} 747 | x_1 \vec{a}_1 + x_2 \vec{a}_2 + \cdots + x_n \vec{a}_n = \vec{b} \iff A \vec{x} = \vec{b}, 748 | \end{equation} podemos reescrever a definição como 749 | \begin{equation} 750 | \operatorname{Col} A = \{ \vec{b} \in \mathbb{R}^m \ | \ \text{existe } \vec{x} \text{ tal que } \vec{b} = A \vec{x} \}. 751 | \end{equation} O espaço coluna trata portanto de vetores na imagem da aplicação linear. Temos: 752 | 753 | \begin{prop} 754 | Seja $A$ uma matriz $m\times n$. Então a aplicação linear $\vec{x} \mapsto A \vec{x}$ é sobrejetora se, e somente se, $\operatorname{Col} A = \mathbb{R}^m.$ 755 | \end{prop} 756 | 757 | A definição do espaço coluna já deixa claro um conjunto gerador (as colunas de $A$!). Não precisamos fazer cálculos como fizemos para encontrar geradores para $\operatorname{Nul} A$. 758 | 759 | \subsection*{Exercícios resolvidos} 760 | 761 | \construirExeresol 762 | 763 | \subsection*{Exercícios} 764 | 765 | \construirExer 766 | 767 | \section{Exercícios finais} 768 | 769 | \construirExer 770 | 771 | %\end{document} 772 | -------------------------------------------------------------------------------- /Semana06-07/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana04 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 6" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana06-07/melhorar6.txt: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana06-07/melhorar6.txt -------------------------------------------------------------------------------- /Semana06-07/semana06-07.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} %%DM%%Escolher document class and options article, etc 4 | 5 | %define o diretório principal 6 | \providecommand{\dir}{..} 7 | 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | %%%%%%%%%%%%INICIO DO DOCUMENTO%%%%%%%%%%%%%% 10 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 11 | 12 | %\begin{document} 13 | 14 | \chapter{Semanas 6 e 7} 15 | 16 | 17 | 18 | \section{Espaços vetoriais} 19 | 20 | Nós vimos que um espaço vetorial (sobre o conjunto $\mathbb{R}$ de escalares) é um conjunto $V$ equipado com as operações de soma de vetores e de multiplicação por escalar e que satisfazem as propriedades usuais dos espaços $\mathbb{R}^n$. 21 | 22 | 23 | 24 | \section{Bases de espaços vetoriais} 25 | 26 | 27 | Uma \textbf{base} para um espaço vetorial $V$ é um conjunto $\mathcal{B}$ que: 28 | \begin{enumerate}[(a)] 29 | \item gera $V$ e; 30 | \item é linearmente independente. 31 | \end{enumerate} 32 | 33 | 34 | \begin{ex} 35 | $\mathbb{R}^n$ é um espaço vetorial sobre $\mathbb{R}$. Vimos anteriormente que os vetores 36 | \begin{equation} 37 | \vec{e}_1 = 38 | \left[ 39 | \begin{array}{c} 40 | 1 \\ 41 | 0 \\ 42 | \vdots \\ 43 | 0 44 | \end{array} 45 | \right], \vec{e}_2 = 46 | \left[ 47 | \begin{array}{c} 48 | 0 \\ 49 | 1 \\ 50 | \vdots \\ 51 | 0 52 | \end{array} 53 | \right], \cdots, \vec{e}_n = 54 | \left[ 55 | \begin{array}{c} 56 | 0 \\ 57 | 0 \\ 58 | \vdots \\ 59 | 1 60 | \end{array} 61 | \right] 62 | \end{equation} formam um conjunto linearmente independente. E também é verdade que eles geram $\mathbb{R}^n$, pois qualquer vetor pode ser escrito como combinação linear deles: 63 | \begin{equation} 64 | \vec{v} = 65 | \left[ 66 | \begin{array}{c} 67 | x_1 \\ 68 | x_2 \\ 69 | \vdots \\ 70 | x_n 71 | \end{array} 72 | \right] = x_1 73 | \left[ 74 | \begin{array}{c} 75 | 1 \\ 76 | 0 \\ 77 | \vdots \\ 78 | 0 79 | \end{array} 80 | \right] + x_2 81 | \left[ 82 | \begin{array}{c} 83 | 0 \\ 84 | 1 \\ 85 | \vdots \\ 86 | 0 87 | \end{array} 88 | \right] + \cdots + x_n 89 | \left[ 90 | \begin{array}{c} 91 | 0 \\ 92 | 0 \\ 93 | \vdots \\ 94 | 1 95 | \end{array} 96 | \right] = x_1 \vec{e}_1 + x_2 \vec{e}_2 + \cdots + x_n \vec{e}_n. 97 | \end{equation} Portanto, o conjunto de $n$ elementos $\{\vec{e}_1, \vec{e}_2, \dots, \vec{e}_n\}$ é uma base de $\mathbb{R}^n$. 98 | \end{ex} 99 | 100 | 101 | 102 | Várias propriedades interessantes aparecem naturalmente como consequência da definição de base. Suponhamos que um conjunto $\mathcal{B} = \{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_d\} \subset V$ seja uma base de um espaço vetorial $V$. Já que $\Span \mathcal{B} = V$, qualquer elemento de $V$ pode ser representado como 103 | \begin{equation} 104 | \vec{v} = x_1 \vec{v}_1 + x_2 \vec{v}_2 + \cdots + x_d \vec{v}_d. 105 | \end{equation} Além disso, o fato de ser $\mathcal{B}$ um conjunto linearmente independente nos diz que esta forma de representar o vetor $\vec{v}$ é única! De fato, vamos verificar que qualquer representação é, na realidade, a mesma representação que tínhamos acima: se tivermos 106 | \begin{equation} 107 | \vec{v} = k_1 \vec{v}_1 + k_2 \vec{v}_2 + \cdots + k_d \vec{v}_d, 108 | \end{equation} deveremos também ter 109 | \begin{equation} 110 | (x_1-k_1) \vec{v}_1 + (x_2-k_2) \vec{v}_2 + \cdots + (x_d-k_d) \vec{v}_d = \vec{v} - \vec{v} = \vec{0}. 111 | \end{equation} Sendo a base $\mathcal{B}$ formada por vetores LI, concluímos que os coeficientes da combinação linear acima devem ser nulos, isto é, $x_1=k_1, x_2=k_2,\dots,x_d=k_d$. Portanto, 112 | \begin{equation} 113 | \boxed{ 114 | \begin{array}{c} 115 | \text{Todo vetor pode ser representado de maneira única como combinação linear} \\ \text{dos elementos de uma base.} 116 | \end{array} 117 | } 118 | \end{equation} 119 | Uma segunda propriedade fundamental é a seguinte: 120 | \begin{equation} 121 | \boxed{ 122 | \text{Toda base de um espaço vetorial fixado possui o mesmo número de elementos.} 123 | } 124 | \end{equation} 125 | 126 | 127 | \begin{proof}[Justificativa] Sejam duas bases $\mathcal{B}_1 = \{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_d\} \subset V$ e $\mathcal{B}_2 = \{\vec{w}_1, \vec{w}_2, \dots, \vec{w}_k\} \subset V$ do mesmo espaço vetorial $V$. Nós podemos escrever os elementos da base $\mathcal{B}_1$ como combinações lineares dos elementos da base $\mathcal{B}_2$: 128 | \begin{equation} 129 | \left\{ 130 | \begin{array}{rcl} 131 | \vec{v}_1 &=& a_{11} \vec{w}_1 + a_{21} \vec{w}_2 + \cdots + a_{k1} \vec{w}_k \\ 132 | \vec{v}_2 &=& a_{12} \vec{w}_1 + a_{22} \vec{w}_2 + \cdots + a_{k2} \vec{w}_k \\ 133 | & \vdots& \\ 134 | \vec{v}_d &=& a_{1d} \vec{w}_1 + a_{2d} \vec{w}_2 + \cdots + a_{kd} \vec{w}_k \\ 135 | \end{array} 136 | \right. 137 | \end{equation} O problema é que, se tivéssemos quantidades diferentes de vetores nas bases, digamos $km$. 551 | 552 | 553 | 554 | 555 | 556 | 557 | 558 | 559 | 560 | 561 | 562 | 563 | 564 | \subsection*{Exercícios resolvidos} 565 | 566 | \construirExeresol 567 | 568 | \subsection*{Exercícios} 569 | 570 | \construirExer 571 | 572 | 573 | 574 | \section{Matriz de mudança de coordenadas} 575 | 576 | Se conhecemos as coordenadas do vetor $\vec{x}$ em uma base $\mathcal{B} = \big\{ \vec{v}_1, \vec{v}_2, \dots, \vec{v}_n \big\}$: 577 | \begin{equation} 578 | \big[ \vec{x} \big]_{\mathcal{B}} = 579 | \left[ 580 | \begin{array}{c} 581 | b_1 \\ 582 | b_2 \\ 583 | \vdots \\ 584 | b_n \\ 585 | \end{array} 586 | \right]_{\mathcal{B}} = b_1 \vec{v}_1 + b_2 \vec{v}_2 + \cdots + b_n \vec{v}_n, 587 | \end{equation} podemos obter as coordenadas usuais (na base canônica) de $\vec{x}$ de forma sistemática. Em outras palavras, queremos encontrar $x_1, x_2, \dots, x_n$ tais que 588 | \begin{equation} 589 | \vec{x} = \left[ 590 | \begin{array}{c} 591 | x_1 \\ 592 | x_2 \\ 593 | \vdots \\ 594 | x_n \\ 595 | \end{array} 596 | \right] = x_1 \vec{e}_1 + x_2 \vec{e}_2 + \cdots + x_n \vec{e}_n. 597 | \end{equation} Uma maneira é considerar a matriz cujas colunas são os vetores $\vec{v}_i$: 598 | \begin{equation} 599 | A = 600 | \left[ 601 | \begin{array}{cccc} 602 | | & | & & | \\ 603 | \vec{v}_{1} & \vec{v}_{2} & \cdots & \vec{v}_{n} \\ 604 | | & | & & | \\ 605 | \end{array} 606 | \right] = 607 | \left[ 608 | \begin{array}{cccc} 609 | v_{11} & v_{12} & \cdots & v_{1n} \\ 610 | v_{21} & v_{22} & \cdots & v_{2n} \\ 611 | \vdots & \vdots & & \vdots \\ 612 | v_{n1} & v_{n2} & \cdots & v_{nn} \\ 613 | \end{array} 614 | \right]. 615 | \end{equation} Funciona porque 616 | \begin{align*} 617 | b_1 \vec{v}_1 + b_2 \vec{v}_2 + \cdots + b_n \vec{v}_n & = \sum_{j=1}^{n} b_j \vec{v}_j = \sum_{j=1}^{n} b_j \sum_{i=1}^{n} v_{ij} \vec{e}_i = \sum_{i=1}^{n} \bigg(\sum_{j=1}^{n} b_j v_{ij}\bigg) \vec{e}_i \\ 618 | & = \bigg(\sum_{j=1}^{n} b_j v_{1j}\bigg) \vec{e}_1 + \bigg(\sum_{j=1}^{n} b_j v_{2j}\bigg) \vec{e}_2 + \cdots + \bigg(\sum_{j=1}^{n} b_j v_{nj}\bigg) \vec{e}_n. 619 | \end{align*} 620 | Assim, devemos ter 621 | \begin{equation} 622 | \left\{ 623 | \begin{array}{lcl} 624 | x_1 &=& v_{11} b_{1} + v_{12} b_{2} + \cdots + v_{1n} b_{n} \\ 625 | x_2 &=& v_{21} b_{1} + v_{22} b_{2} + \cdots + v_{2n} b_{n} \\ 626 | &\vdots& \\ 627 | x_n &=& v_{n1} b_{1} + v_{n2} b_{2} + \cdots + v_{nn} b_{n} \\ 628 | \end{array} 629 | \right. \quad \text{i.e} \quad \vec{x} = A [\vec{x}]_{\mathcal{B}}. 630 | \end{equation} 631 | 632 | A matriz $A$ construída como acima é chamada de \textbf{matriz de mudança de coordenadas} da base $\mathcal{B}$ para a base usual (canônica) $\{ \vec{e}_1, \vec{e}_2, \dots, \vec{e}_n\}$. 633 | 634 | A matriz de mudança de coordenadas da base canônica para a base $\mathcal{B}$ pode ser obtida a partir da inversa de $A$: 635 | \begin{equation} 636 | [\vec{x}]_{\mathcal{B}} = A^{-1} \cdot \vec{x}. 637 | \end{equation} (Notamos que a matriz $A$ é necessariamente invertível, já que suas colunas são elementos de uma base; em particular, são linearmente independentes). 638 | 639 | \begin{ex} 640 | Consideramos a seguinte base para $\mathbb{R}^2$: 641 | \begin{equation} 642 | \mathcal{B} = \left\{ 643 | \left[ 644 | \begin{array}{c} 645 | 1 \\ 646 | 1 \\ 647 | \end{array} 648 | \right], 649 | \left[ 650 | \begin{array}{c} 651 | -1 \\ 652 | 1 \\ 653 | \end{array} 654 | \right] 655 | \right\}. 656 | \end{equation} Este conjunto é de fato uma base, pois são linearmente independentes e são dois (que é a dimensão de $\mathbb{R}^2$). Sabendo que as coordenadas de $\vec{u}$ e $\vec{v}$ nesta base $\mathcal{B}$ são 657 | \begin{equation} 658 | [u]_{\mathcal{B}} = 659 | \left[ 660 | \begin{array}{c} 661 | 1 \\ 662 | 1 \\ 663 | \end{array} 664 | \right]_{\mathcal{B}} \quad \text{e} \quad 665 | [v]_{\mathcal{B}} = 666 | \left[ 667 | \begin{array}{c} 668 | 3 \\ 669 | -1 \\ 670 | \end{array} 671 | \right]_{\mathcal{B}}, 672 | \end{equation} encontrar as componentes de $\vec{u}$ e $\vec{v}$ na base canônica $\{ \vec{e}_1, \vec{e}_2\}$ de $\mathbb{R}^2$. 673 | 674 | Pelo que analisamos acima, a matriz de mudança de coordenadas que procuramos é a matriz 675 | \begin{equation} 676 | A = 677 | \left[ 678 | \begin{array}{cc} 679 | 1 & -1 \\ 680 | 1 & 1 \\ 681 | \end{array} 682 | \right] 683 | \end{equation} Logo, 684 | \begin{equation} 685 | \left[ 686 | \begin{array}{cc} 687 | 1 & -1 \\ 688 | 1 & 1 \\ 689 | \end{array} 690 | \right] \left[ 691 | \begin{array}{c} 692 | 1 \\ 693 | 1 \\ 694 | \end{array} 695 | \right]_{\mathcal{B}} = 696 | \left[ 697 | \begin{array}{c} 698 | 0 \\ 699 | 2 \\ 700 | \end{array} 701 | \right] \text{ e } \vec{v} = 702 | \left[ 703 | \begin{array}{cc} 704 | 1 & -1 \\ 705 | 1 & 1 \\ 706 | \end{array} 707 | \right] \left[ 708 | \begin{array}{c} 709 | 3 \\ 710 | -1 \\ 711 | \end{array} 712 | \right]_{\mathcal{B}} = 713 | \left[ 714 | \begin{array}{c} 715 | 4 \\ 716 | 2 \\ 717 | \end{array} 718 | \right]. 719 | \end{equation} 720 | \end{ex} 721 | 722 | 723 | \begin{obs} 724 | A matriz de mudança de coordenadas é uma forma de trocar de uma base para outra de forma sistemática. Com o intuito de tornar mais intuitiva a construção, vamos repetir a argumentação que fizemos no início desta seção para o caso $2\times 2$. Na base $\mathcal{B}$ do exemplo anterior, a representação 725 | \begin{equation} 726 | \left[ 727 | \begin{array}{c} 728 | b_1 \\ 729 | b_2 \\ 730 | \end{array} 731 | \right]_{\mathcal{B}} \text{ significa que } \vec{v} = b_1 \cdot \left[ 732 | \begin{array}{c} 733 | 1 \\ 734 | 1 \\ 735 | \end{array} 736 | \right] + b_2 \cdot 737 | \left[ 738 | \begin{array}{c} 739 | -1 \\ 740 | 1 \\ 741 | \end{array} 742 | \right]. 743 | \end{equation} Os vetores da base $\mathcal{B}$ são representados na base canônica por 744 | \begin{equation} 745 | \left[ 746 | \begin{array}{c} 747 | 1 \\ 748 | 1 \\ 749 | \end{array} 750 | \right] = 751 | \left[ 752 | \begin{array}{c} 753 | 1 \\ 754 | 0 \\ 755 | \end{array} 756 | \right] + 757 | \left[ 758 | \begin{array}{c} 759 | 0 \\ 760 | 1 \\ 761 | \end{array} 762 | \right] = \vec{e}_1 + \vec{e}_2 \quad \text{e} \quad 763 | \left[ 764 | \begin{array}{c} 765 | -1 \\ 766 | 1 \\ 767 | \end{array} 768 | \right] = 769 | \left[ 770 | \begin{array}{c} 771 | -1 \\ 772 | 0 \\ 773 | \end{array} 774 | \right] + 775 | \left[ 776 | \begin{array}{c} 777 | 0 \\ 778 | 1 \\ 779 | \end{array} 780 | \right] = - \vec{e}_1 + \vec{e}_2. 781 | \end{equation} Logo, 782 | \begin{equation} 783 | \vec{v} = b_1 \left( \vec{e}_1 + \vec{e}_2 \right) + b_2 \left( - \vec{e}_1 + \vec{e}_2 \right) = (b_1 - b_2) \vec{e}_1 + (b_1 + b_2) \vec{e}_2, 784 | \end{equation} de modo que as componentes de $\vec{v}$ na base canônica são 785 | \begin{equation} 786 | \left\{ 787 | \begin{array}{ll} 788 | x_1 = b_1 - b_2 \\ 789 | x_2 = b_1 + b_2 790 | \end{array} 791 | \right.. 792 | \end{equation} Em notação matricial: 793 | \begin{equation} 794 | \left[ 795 | \begin{array}{c} 796 | x_1 \\ 797 | x_2 \\ 798 | \end{array} 799 | \right] = 800 | \left[ 801 | \begin{array}{cc} 802 | 1 & -1 \\ 803 | 1 & 1 \\ 804 | \end{array} 805 | \right] 806 | \left[ 807 | \begin{array}{c} 808 | b_1 \\ 809 | b_2 \\ 810 | \end{array} 811 | \right]. 812 | \end{equation} 813 | \end{obs} 814 | 815 | \subsection*{Exercícios resolvidos} 816 | 817 | \construirExeresol 818 | 819 | \subsection*{Exercícios} 820 | 821 | \construirExer 822 | 823 | \section{Exercícios finais} 824 | 825 | \construirExer 826 | 827 | %\end{document} 828 | -------------------------------------------------------------------------------- /Semana09/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana04 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 9" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana10/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana04 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 10" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana10/semana10-eigen.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana10/semana10-eigen.ggb -------------------------------------------------------------------------------- /Semana10/semana10-eigen.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana10/semana10-eigen.png -------------------------------------------------------------------------------- /Semana10/semana10.pdf: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana10/semana10.pdf -------------------------------------------------------------------------------- /Semana11/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana04 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 11" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana11/semana11-coord.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-coord.png -------------------------------------------------------------------------------- /Semana11/semana11-cossenos.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-cossenos.ggb -------------------------------------------------------------------------------- /Semana11/semana11-cossenos.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-cossenos.png -------------------------------------------------------------------------------- /Semana11/semana11-dist.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-dist.ggb -------------------------------------------------------------------------------- /Semana11/semana11-dist.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-dist.png -------------------------------------------------------------------------------- /Semana11/semana11-proj.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-proj.ggb -------------------------------------------------------------------------------- /Semana11/semana11-proj.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana11/semana11-proj.png -------------------------------------------------------------------------------- /Semana11/semana11.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} %%DM%%Escolher document class and options article, etc 4 | 5 | %define o diretório principal 6 | \providecommand{\dir}{..} 7 | 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | %%%%%%%%%%%%INICIO DO DOCUMENTO%%%%%%%%%%%%%% 10 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 11 | 12 | %\begin{document} 13 | 14 | \chapter{Semana 11} 15 | 16 | 17 | Nesta semana, nós começamos uma abordagem um pouco mais geométrica de espaços vetoriais: ângulo entre vetores, comprimento de vetores, ortogonalidade. Estes conceitos já são de nossa familiaridade da geometria euclideana (em $\mathbb{R}^2$ e $\mathbb{R}^3$). No entanto, é também nosso objetivo estender estes conceitos para dimensões maiores do que $3$. 18 | 19 | 20 | \section{Comprimento, ângulos e o produto escalar} 21 | 22 | Se, na base canônica (isto é, no sistema de coordenadas usual) do espaço $\mathbb{R}^3$, representamos um vetor por 23 | \begin{equation} 24 | \vec{v} = 25 | \begin{bmatrix} 26 | v_1 \\ v_2 \\ v_3 27 | \end{bmatrix}, 28 | \end{equation} então o seu \textbf{comprimento} (ou \textbf{magnitude} ou \textbf{norma}) é dado por 29 | \begin{equation} 30 | \norm{\vec{v}} = \sqrt{v_1^2 + v_2^2 + v_3^2}. 31 | \end{equation} Esta é uma instância do Teorema de Pitágoras\footnote{Duas aplicações do Teorema de Pitágoras usual do plano. Uma para obter o comprimento $\sqrt{v_1^2 + v_2^2}$ da diagonal que está no plano $xy$ e a outra para obter $\norm{\vec{v}}$.}. 32 | 33 | \begin{figure}[h!] 34 | \begin{center} 35 | \includegraphics[width=0.3\linewidth]{Semana11/semana11-coord} 36 | \end{center} 37 | \end{figure} 38 | 39 | \noindent A definição acima pode ser generalizada para dimensão $n$ qualquer: 40 | \begin{equation} 41 | \vec{v} = 42 | \begin{bmatrix} 43 | v_1 \\ v_2 \\ \vdots \\ v_n 44 | \end{bmatrix} \quad \rightsquigarrow \quad \norm{\vec{v}} = \sqrt{v_1^2 + v_2^2 + \cdots + v_n^2}. 45 | \end{equation} 46 | 47 | 48 | O \textbf{produto escalar} ou \textbf{produto interno} entre dois vetores $\vec{v}$ e $\vec{w}$ é um número (também dito escalar) associado com estes dois vetores. Em coordenadas, se $\vec{v} = (v_1, v_2, v_3)$ e $\vec{w} = (w_1, w_2, w_3)$ são vetores do espaço tridimensional $\mathbb{R}^3$, temos 49 | \begin{equation} 50 | \vec{v} \cdot \vec{w} = v_1 w_1 + v_2 w_2 + v_3 w_3. 51 | \end{equation} Vejamos que realmente o produto escalar tem a ver com o ângulo entre dois vetores. Isto é uma consequência da Lei dos Cossenos, que nos diz que 52 | \begin{equation} 53 | \norm{\vec{v} - \vec{w}}^2 = \norm{\vec{v}}^2 + \norm{\vec{w}}^2 - 2 \norm{\vec{v}} \norm{\vec{w}} \cos \theta, 54 | \end{equation} onde $\theta$ é o ângulo entre $\vec{v}$ e $\vec{w}$. 55 | 56 | \begin{center} 57 | \includegraphics[width=0.7\linewidth]{Semana11/semana11-cossenos} 58 | \end{center} 59 | 60 | \noindent Escrevendo estes comprimentos em termos das coordenadas e fazendo os cancelamentos necessários, chegamos na seguinte identidade: 61 | \begin{equation} 62 | v_1 w_1 + v_2 w_2 + v_3 w_3 = \norm{\vec{v}} \norm{\vec{w}} \cos \theta, \quad \text{ isto é,} \quad \vec{v} \cdot \vec{w} = \norm{\vec{v}} \norm{\vec{w}} \cos \theta. 63 | \end{equation} 64 | 65 | 66 | Motivados pelos conceitos acima, consideramos 67 | \begin{equation} 68 | \vec{x} = 69 | \begin{bmatrix} 70 | x_1 \\ x_2 \\ \vdots \\ x_n 71 | \end{bmatrix} \quad \text{e} \quad \vec{y} = 72 | \begin{bmatrix} 73 | y_1 \\ y_2 \\ \vdots \\ y_n 74 | \end{bmatrix} 75 | \end{equation} vetores de $\mathbb{R}^n$ representados na base canônica, e definimos o \textbf{produto escalar} ou \textbf{produto interno} entre $\vec{x}$ e $\vec{y}$: 76 | \begin{equation} 77 | \vec{x} \cdot \vec{y} = x_1 y_1 + x_2 y_2 + \cdots + x_n y_n. 78 | \end{equation} O ângulo entre $\vec{x}$ e $\vec{y}$, para $n$ qualquer, pode então ser \textit{definido} pela equação 79 | \begin{equation} 80 | \cos \theta = \frac{\vec{x} \cdot \vec{y}}{\norm{\vec{x}} \norm{\vec{y}}}. 81 | \end{equation} Embora abstratos, estes conceitos são bem fundamentados geometricamente. Dois vetores (linearmente independentes) de um espaço vetorial $n$-dimensional geram um subespaço vetorial de dimensão $2$. Este pode, por sua vez, pode ser pensado como um plano que passa pela origem de $\mathbb{R}^n$. Assim, podemos imaginar o ângulo entre estes vetores naturalmente. 82 | 83 | \begin{prop}[Principais propriedades do produto escalar] 84 | Para $\vec{x}, \vec{y}, \vec{z} \in \mathbb{R}^n$ e $c \in \mathbb{R}$ um escalar, temos as seguintes propriedades 85 | \begin{enumerate} 86 | \item $\vec{x} \cdot \vec{y} = \vec{y} \cdot \vec{x}$ 87 | \item $(\vec{x} + \vec{y}) \cdot \vec{z} = \vec{x} \cdot \vec{z} + \vec{y} \cdot \vec{z}$ 88 | \item $(c\vec{x}) \cdot \vec{y} = c \vec{x} \cdot \vec{y} = \vec{x} \cdot (c\vec{y})$ 89 | \item $\vec{x} \cdot \vec{x} \ge 0$ e $\, \vec{x} \cdot \vec{x} = 0$ se, e somente se, $\vec{x} = \vec{0}$; 90 | \item $\norm{\vec{x}} = \sqrt{\vec{x} \cdot \vec{x}}$; 91 | \item $\norm{c \vec{x} } = |c| \norm{\vec{x}}$. 92 | \end{enumerate} 93 | \end{prop} 94 | 95 | Estas propriedades são todas de fácil verificação (e são deixadas para o leitor verificar, como exercício). 96 | 97 | \begin{ex} 98 | Considere os vetores de $\mathbb{R}^5$ escritos na base canônica: 99 | \begin{equation} 100 | \vec{x} = 101 | \begin{bmatrix} 102 | -1 \\ 2 \\ 0 \\ 3 \\ -1 103 | \end{bmatrix} \quad \text{e} \quad \vec{y} = 104 | \begin{bmatrix} 105 | 4 \\ 3 \\ -1 \\ -11 \\ 1 106 | \end{bmatrix} 107 | \end{equation} Assim, temos 108 | \begin{equation} 109 | \vec{x} \cdot \vec{y} = (-1)\cdot 4 + 2 \cdot 3 + 0 \cdot (-1) +3 \cdot(-11) + (-1)\cdot 1 = -4 + 6 +0 -33 -1 = -31. 110 | \end{equation} Da mesma forma, podemos calcular os comprimentos 111 | \begin{equation} 112 | \norm{\vec{x}} = \sqrt{(-1)^2 + 2^2 + 0^2 + 3^2 + (-1)^2} = \sqrt{15} \quad \text{e} \quad \norm{\vec{y}} = \sqrt{4^2 + 3^2 + (-1)^2 + (-11)^2 + 1^2} = \sqrt{148}. 113 | \end{equation} Logo, o ângulo $\theta$ entre estes vetores satisfaz (utilizamos uma calculadora para calcular as raízes quadradas e a função inversa do cosseno): 114 | \begin{equation} 115 | \cos \theta = \frac{\vec{x} \cdot \vec{y}}{\norm{\vec{x}} \norm{\vec{y}}} = \frac{-31}{\sqrt{15} \, \sqrt{148}} \simeq -0,65794 \implies \theta \simeq 2,28887634 \textrm{ radianos} \simeq 131,12^{\text{o}}. \ \lhd 116 | \end{equation} 117 | \end{ex} 118 | 119 | \begin{ex} 120 | Considere um vetor tridimensional 121 | \begin{equation} 122 | \vec{u} = 123 | \begin{bmatrix} 124 | 2 \\ 3 \\ -1 125 | \end{bmatrix}. 126 | \end{equation} Já sabemos a multiplicação de um escalar pelo vetor $\vec{u}$ muda o comprimento (e talvez também o sentido) do vetor. Por exemplo, se multiplicarmos por $2$, o comprimento será multiplicado por $2$; se dividirmos por $3$, o comprimento será dividido por $3$. Se nós dividirmos pelo próprio comprimento de $\vec{u}$ nós obtemos um vetor unitário. Para verificar analíticamente, basta utilizar a Propriedade \textit{6} acima: 127 | \begin{equation} 128 | c = \frac{1}{\norm{\vec{u}}} \implies \norm{\frac{\vec{u}}{\norm{\vec{u}}} } = \norm{c \vec{u}} = c \norm{\vec{u}} = \frac{1}{\norm{\vec{u}}}\norm{\vec{u}} = 1. 129 | \end{equation} Então se quisermos encontrar um vetor unitário na direção de $\vec{u}$ acima, calculamos 130 | \begin{equation} 131 | \norm{\vec{u}} = \sqrt{4 + 9 + 1} = \sqrt{14} \quad \rightsquigarrow \quad \vec{v} = \frac{\vec{u}}{\norm{\vec{u}}} = \frac{\vec{u}}{\sqrt{14}} = 132 | \begin{bmatrix} 133 | 2/\sqrt{14} \\ 3/\sqrt{14} \\ -1/\sqrt{14} 134 | \end{bmatrix} 135 | \end{equation} é o vetor procurado. Este processo de obter um vetor unitário na mesma direção de um vetor previamente fixado é chamado de \textbf{normalização}. Observe que existem apenas dois vetores unitários na mesma direção de $\vec{u}$, a saber, $\vec{v}$ e $- \vec{v}. \ \lhd$ 136 | \end{ex} 137 | 138 | \subsection*{Exercícios resolvidos} 139 | 140 | \construirExeresol 141 | 142 | \subsection*{Exercícios} 143 | 144 | \construirExer 145 | 146 | \section{Ortogonalidade} 147 | 148 | Como vimos na seção anterior, o produto escalar está relacionado com o ângulo entre dois vetores pela fórmula 149 | \begin{equation} 150 | \cos \theta = \frac{\vec{x} \cdot \vec{y}}{\norm{\vec{x}} \norm{\vec{y}}}. 151 | \end{equation} Quando este ângulo $\theta$ é igual a $\pi /2$ (que é equivalente a $90^o$), vale que $\cos \theta = 0$ e logo $\vec{x} \cdot \vec{y} = 0$. 152 | 153 | Nós vamos dizer que os dois vetores $\vec{x}$ e $\vec{y}$ são \textbf{ortogonais} quando satisfazem 154 | \begin{equation} 155 | \vec{x} \cdot \vec{y} = 0. 156 | \end{equation} Poderíamos também usar a palavra perpendiculares, mas por algum motivo esta terminologia é bastante menos comum quando lidamos com vetores em espaços vetoriais de dimensão maior do que $3$. 157 | 158 | Dizemos também que um conjunto de vetores é um \textbf{conjunto ortogonal} se todo par de vetores do conjunto for ortogonal. Em outras palavras, um conjunto $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k\}$ é um conjunto ortogonal se, para qualquer escolha de índices $i \neq j$, tivermos $\vec{v}_i \cdot \vec{v}_j = 0$. 159 | 160 | Se, além de o conjunto ser ortogonal, todos os seus elementos serem unitários (estarem normalizados), então nós dizemos que o conjunto é um \textbf{conjunto ortonormal}. De outra maneira, um conjunto $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k\}$ é um conjunto ortonormal se, para qualquer índice $i$, $\norm{\vec{v}_i} = 1$ e, para qualquer escolha de índices $i \neq j$, tivermos $\vec{v}_i \cdot \vec{v}_j = 0$.\footnote{Uma notação bastante comum, principalmente em matemática e física, é a do delta de Kronecker:\begin{equation} \delta_{ij} = \left\lbrace \begin{array}{l} 161 | 1, \text{ se } i = j \\ 162 | 0, \text{ se } i \neq j 163 | \end{array} \right. . \end{equation} Em notação matricial, $I_k = (\delta_{ij})$ é a matriz identidade. Nesta notação, podemos dizer, mais sucintamente, que um conjunto $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k\}$ é ortonormal se $\vec{v}_i \cdot \vec{v}_j = \delta_{ij}$ para quaisquer $i,j = 1, 2, 3, \dots, k$.} 164 | 165 | \begin{ex} 166 | Os vetores 167 | \begin{equation} 168 | \vec{x} = \begin{bmatrix} 169 | -1 \\ 2 170 | \end{bmatrix} \quad \text{e} \quad 171 | \vec{y} = \begin{bmatrix} 172 | 2 \\ 1 173 | \end{bmatrix} 174 | \end{equation} são ortogonais, pois $\vec{x} \cdot \vec{y} = (-1)\cdot 2 + 2 \cdot 1 = 0$, enquanto que os vetores 175 | \begin{equation} 176 | \vec{w} = \begin{bmatrix} 177 | 1 \\ 2 178 | \end{bmatrix} \quad \text{e} \quad 179 | \vec{z} = \begin{bmatrix} 180 | 2 \\ 1 181 | \end{bmatrix} 182 | \end{equation} não são ortogonais, já que $\vec{w} \cdot \vec{z} = 1\cdot 2 + 2 \cdot 1 = 4$. Nestes casos, podemos dizer que o conjunto $\{\vec{x}, \vec{y}\}$ é um conjunto ortogonal enquanto $\{\vec{w}, \vec{z}\}$ não é. 183 | \end{ex} 184 | 185 | 186 | 187 | \begin{ex} 188 | A base canônica do espaço $\mathbb{R}^n$: 189 | \begin{equation} 190 | \vec{e}_1 = 191 | \begin{bmatrix} 192 | 1 \\ 0 \\ 0 \\ \vdots \\ 0 193 | \end{bmatrix}, \ 194 | \vec{e}_2 = 195 | \begin{bmatrix} 196 | 0 \\ 1 \\ 0 \\ \vdots \\ 0 197 | \end{bmatrix}, \ 198 | \vec{e}_3 = 199 | \begin{bmatrix} 200 | 0 \\ 0 \\ 1 \\ \vdots \\ 0 201 | \end{bmatrix}, \ \cdots, 202 | \vec{e}_n = 203 | \begin{bmatrix} 204 | 0 \\ 0 \\ 0 \\ \vdots \\ 1 205 | \end{bmatrix} 206 | \end{equation} é um conjunto ortogonal, porque quando escolhermos $i\neq j$, temos 207 | \begin{equation} 208 | \vec{e}_i \cdot \vec{e}_j = 1 \cdot 0 + 0 \cdot 1 = 0. 209 | \end{equation} É também ortonormal, já que, para todo $i$, 210 | \begin{equation} 211 | \norm{\vec{e}_i} = \sqrt{0^2 + 0^2 + \cdots + 1^2 + \cdots + 0^2 + 0^2} = 1. \ \lhd 212 | \end{equation} 213 | \end{ex} 214 | 215 | Uma primeira propriedade de ortogonalidade é uma versão para espaços vetoriais quaisquer do Teorema de Pitágoras, que aparece naturalmente ao considerarmos vetores ortogonais. 216 | 217 | \begin{teo}[Teorema de Pitágoras] 218 | Se dois vetores $\vec{x}$ e $\vec{y}$ são ortogonais, então 219 | \begin{equation} 220 | \norm{\vec{x} + \vec{y}}^2 = \norm{\vec{x}}^2 + \norm{\vec{y}}^2. 221 | \end{equation} 222 | \end{teo} 223 | 224 | \begin{proof} 225 | Esperamos que esta demonstração auxilie no compreendimento analítico e geométrico dos conceitos que introduzimos até agora. O vetor $\vec{x} + \vec{y} \,$ pode ser considerado a hipotenusa do triângulo retângulo de catetos $\vec{x}$ e $\vec{y}$ (fazer uma figura!). 226 | 227 | Pelas propriedades do comprimento e do produto escalar, temos que, para \textit{quaisquer} dois vetores $\vec{x}$ e $\vec{y}$ (não necessariamente ortogonais), vale que 228 | \begin{equation} 229 | \norm{\vec{x} + \vec{y}}^2 = (\vec{x} + \vec{y}) \cdot (\vec{x} + \vec{y}) = \vec{x} \cdot \vec{x} + \vec{x} \cdot \vec{y} + \vec{y} \cdot \vec{x} + \vec{y} \cdot \vec{y} = \norm{\vec{x}}^2 + 2 (\vec{x} \cdot \vec{y}) + \norm{\vec{y}}^2. 230 | \end{equation} De certa maneira, esta é uma forma de reescrever a Lei dos Cossenos. Quando os vetores $\vec{x}$ e $\vec{y}$ forem ortogonais, temos $\vec{x} \cdot \vec{y} = 0$, concluímos que 231 | \begin{equation} 232 | \norm{\vec{x} + \vec{y}}^2 = \norm{\vec{x}}^2 + \norm{\vec{y}}^2. \qedhere 233 | \end{equation} 234 | \end{proof} 235 | 236 | 237 | Notamos que, de acordo com a nossa definição, o vetor nulo é ortogonal a qualquer outro. Vejamos, no entanto, que vetores não nulos satisfazem propriedades adicionais. 238 | 239 | \begin{teo} 240 | Todo conjunto ortogonal $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_k\}$ formado por vetores \textit{não nulos} é um conjunto linearmente independente (LI). 241 | \end{teo} 242 | 243 | \begin{proof} 244 | Considerando uma combinação linear 245 | \begin{equation} 246 | c_1 \vec{v}_1 + c_2 \vec{v}_2 + \dots + c_k \vec{v}_k = \vec{0} 247 | \end{equation} e fazendo o produto escalar com qualquer dos vetores $\vec{v}_j$ na equação acima, concluímos que 248 | \begin{equation} 249 | (c_1 \vec{v}_1 + c_2 \vec{v}_2 + \dots + c_k \vec{v}_k ) \cdot \vec{v}_j = \vec{0} \cdot \vec{v}_j. 250 | \end{equation} Agora, a condição de ortogonalidade nos diz que $\vec{v}_i \cdot \vec{v}_j = 0$ sempre que $i \neq j$. Portanto, 251 | \begin{equation} 252 | c_j \norm{\vec{v}_j} = c_j (\vec{v}_j \cdot \vec{v}_j) = 0 \stackrel{\vec{v}_j \neq \vec{0}}{\implies} c_j = 0. 253 | \end{equation} Isto é a definição de um conjunto ser LI: qualquer combinação linear que resulte no vetor nulo deve ter todos os coeficientes nulos. 254 | \end{proof} 255 | 256 | \begin{ex} 257 | O conjunto 258 | \begin{equation} 259 | \left\lbrace 260 | \vec{u}_1 = \begin{bmatrix} 261 | 1 \\ 2 \\ 2 262 | \end{bmatrix}, \ 263 | \vec{u}_2 = \begin{bmatrix} 264 | 2 \\ 1 \\ -2 265 | \end{bmatrix}, \ 266 | \vec{u}_3 = \begin{bmatrix} 267 | 2 \\ -2 \\ 1 268 | \end{bmatrix} 269 | \right\rbrace 270 | \end{equation} pois 271 | 272 | \begin{equation} 273 | \begin{split} 274 | \vec{u}_1 \cdot \vec{u}_2 = 2 + 2 - 4 = 0, \\ 275 | \vec{u}_1 \cdot \vec{u}_3 = 2 - 4 + 2 = 0, \\ 276 | \vec{u}_2 \cdot \vec{u}_3 = 4 - 2 - 2 = 0. 277 | \end{split} 278 | \end{equation} 279 | Logo, pelo teorema acima, o conjunto $\{\vec{u}_1, \vec{u}_2,\vec{u}_3\}$ é linearmente independente. Neste exemplo, são todos elementos de $\mathbb{R}^3$; portanto, formam uma base para $\mathbb{R}^3$ que é também ortogonal (voltaremos a falar sobre bases ortogonais em breve)$. \ \lhd$ 280 | \end{ex} 281 | 282 | Uma das aplicações mais importantes do produto escalar reside no fato de nós conseguirmos fazer projeções ortogonais em direções fixadas. Por exemplo, suponhamos que em um sistema físico, um vetor $\vec{v}$ representa a força aplicada em um ponto, como na figura abaixo. 283 | \begin{figure}[h!] 284 | \begin{center} 285 | \includegraphics[width=1\linewidth]{Semana11/semana11-proj} 286 | \end{center} 287 | \end{figure} Gostaríamos de encontrar a componente do vetor na direção da reta tracejada. Para isto, podemos considerar um vetor \textit{unitário} $\vec{u}$ sobre a reta. Assim, a componente de $\vec{v}$ na direção de $\vec{u}$ é igual a $k \vec{u}$, onde $k$ tem a ver com o cosseno do ângulo entre os vetores: 288 | \begin{equation} 289 | \cos \theta = \frac{\text{cateto adjacente}}{\text{hipotenusa}} = \frac{k}{\norm{\vec{v}}}. 290 | \end{equation} Utilizando novamente que $\vec{u}$ é um vetor unitário (isto é, $\norm{\vec{u}}=1$), concluímos que 291 | \begin{equation} 292 | k = \norm{\vec{v}} \cos \theta = \norm{\vec{u}} \norm{\vec{v}} \cos \theta = \vec{u} \cdot \vec{v}. 293 | \end{equation} Assim sendo, definimos a \textbf{projeção ortogonal de $\vec{v}$ em um vetor unitário $\vec{u}$} como sendo 294 | \begin{equation} 295 | \boxed{\proj_{\vec{u}} \vec{v} = (\vec{u} \cdot \vec{v}) \, \vec{u}.} 296 | \end{equation} No \textbf{caso onde $\vec{u}$ não está normalizado}, devemos primeiramente normalizar o vetor, de modo que a projeção ortogonal é dada por 297 | \begin{equation} 298 | \boxed{\proj_{\vec{u}} \vec{v} = \bigg( \frac{\vec{u}}{\norm{\vec{u}}} \cdot \vec{v} \bigg) \, \frac{\vec{u}}{\norm{\vec{u}}} = \frac{\vec{u} \cdot \vec{v}}{\norm{\vec{u}}^2} \, \vec{u} = \frac{\vec{u} \cdot \vec{v}}{\vec{u} \cdot \vec{u}} \, \vec{u}.} 299 | \end{equation} 300 | 301 | \begin{ex}\label{canon} 302 | Considere vetores no espaço de quatro dimensões $\mathbb{R}^4$. Vamos determinar a projeção do vetor $\vec{v} = 303 | \begin{bmatrix} 304 | 1 \\ -1 \\ 3 \\ 4 305 | \end{bmatrix}$ na direção da reta que tem a mesma direção do vetor $\vec{u} = 306 | \begin{bmatrix} 307 | 1 \\ 1 \\ 1 \\ -1 308 | \end{bmatrix}.$ Observamos inicialmente que $\norm{\vec{u}} = \sqrt{4} = 2$ não é unitário. Temos que 309 | \begin{equation} 310 | \proj_{\vec{u}} \vec{v} = \frac{\vec{u} \cdot \vec{v}}{\norm{\vec{u}}^2} \, \vec{u} = \frac{1 - 1 + 3 - 4}{4} 311 | \begin{bmatrix} 312 | 1 \\ 1 \\ 1 \\ -1 313 | \end{bmatrix} = 314 | -\frac{1}{4} 315 | \begin{bmatrix} 316 | 1 \\ 1 \\ 1 \\ -1 317 | \end{bmatrix} = 318 | \begin{bmatrix} 319 | 1/4 \\ 1/4 \\ 1/4 \\ -1/4 320 | \end{bmatrix}. 321 | \end{equation} A projeção de $\vec{v}$ sobre o vetor $\vec{e}_3$ da base canônica de $\mathbb{R}^4$ é (observe que $\norm{\vec{e}_3} = 1$) 322 | \begin{equation} 323 | \proj_{\vec{e}_3} \vec{v} = (\vec{e}_3 \cdot \vec{v}) \, \vec{e}_3 = (0 + 0 + 3 + 0) 324 | \begin{bmatrix} 325 | 0 \\ 0 \\ 1 \\ 0 326 | \end{bmatrix} = \begin{bmatrix} 327 | 0 \\ 0 \\ 3 \\ 0 328 | \end{bmatrix}. 329 | \end{equation} Observe que a projeção sobre o vetor $\vec{e}_3$ da base canônica apenas ``enfatiza'' a terceira componente do vetor $\vec{v}$. Isto é bastante natural, pois $\vec{v} \cdot \vec{e}_3$ deve fornecer o comprimento da projeção de $\vec{v}$ na direção do vetor unitário $\vec{e}_3$, que deve ser igual a terceira componente do vetor. É justamente assim que usamos a base canônica para representar vetores geometricamente. De forma geral, podemos escrever 330 | \begin{equation} 331 | \vec{v} = \big( \vec{v} \cdot \vec{e}_1 \big) \vec{e}_1 + \big( \vec{v} \cdot \vec{e}_2 \big) \vec{e}_2 + \big( \vec{v} \cdot \vec{e}_3 \big) \vec{e}_3 + \big( \vec{v} \cdot \vec{e}_4 \big) \vec{e}_4. 332 | \end{equation} Este tipo de representação será explorado com mais detalhes na próxima seção$. \ \lhd$ 333 | \end{ex} 334 | 335 | As projeções ortogonais também podem ser utilizadas para o cálculo de distâncias de ponto à retas que passam pela origem: Pela interpretação geométrica da subtração de vetores, obtemos um vetor perpendicular à reta com a direção de $\vec{u}$ e que termina onde termina o vetor $\vec{v}$ (ver figura). 336 | \begin{figure}[h!] 337 | \begin{center} 338 | \includegraphics[width=1\linewidth]{Semana11/semana11-dist} 339 | \end{center} 340 | \end{figure} 341 | 342 | \noindent Desta maneira, o comprimento deste vetor, a saber $\norm{\vec{u} - \proj_{\vec{u}} \vec{v}}$, é a distância procurada.\footnote{Lembre: a distância de um ponto a uma reta é a menor distância entre este ponto e os pontos da reta; por esta razão que procuramos um vetor perpendicular à reta.} 343 | 344 | \begin{ex} 345 | Calcular a distância do ponto $P = (0,2,3)$ e a reta que passa pela origem e tem a direção do vetor $\vec{u} = 346 | \begin{bmatrix} 347 | 1 \\ 2 \\1 348 | \end{bmatrix}.$ 349 | 350 | Para isto, consideramos o vetor $\vec{v}$ cujas componentes são as componentes do ponto $P$. Assim, estamos na situação da discussão acima e vale que 351 | \begin{equation} 352 | \proj_{\vec{u}} \vec{v} = \frac{7}{6} 353 | \begin{bmatrix} 354 | 1 \\ 2 \\1 355 | \end{bmatrix} \implies 356 | \vec{v} - \proj_{\vec{u}} \vec{v} = 357 | \begin{bmatrix} 358 | 0 \\ 2 \\ 3 359 | \end{bmatrix} - \frac{7}{6} 360 | \begin{bmatrix} 361 | 1 \\ 2 \\1 362 | \end{bmatrix} = 363 | \begin{bmatrix} 364 | -7/6 \\ -1/3 \\ 11/6 365 | \end{bmatrix}. 366 | \end{equation} Portanto, 367 | \begin{equation} 368 | d = \norm{\vec{u} - \proj_{\vec{u}} \vec{v}} = \frac{\sqrt{49 + 1 + 121}}{6} = \frac{\sqrt{171}}{6} \simeq 2,18. 369 | \end{equation} 370 | \end{ex} 371 | 372 | \begin{exer} 373 | Como poderíamos fazer se a reta não passasse pela origem? O mesmo raciocínio funciona? 374 | \end{exer} 375 | 376 | \subsection*{Exercícios resolvidos} 377 | 378 | \construirExeresol 379 | 380 | \subsection*{Exercícios} 381 | 382 | \construirExer 383 | 384 | \section{Bases ortogonais e ortonormais} 385 | 386 | 387 | Vimos que uma das importâncias do produto escalar é estender o conceito de ortogonalidade para espaços vetoriais mais gerais. A ortogonalidade traz consigo a noção de projeção ortogonal. Agora vamos ver algumas vantagens em se considerar bases de espaços vetoriais que são também conjuntos ortogonais; estas são conhecidas como \textbf{bases ortogonais}. 388 | 389 | \begin{ex}\label{ortonormal} 390 | A base canônica de $\mathbb{R}^n$ forma um conjunto ortogonal e é, portanto, uma base ortogonal. Assim como no Exemplo \ref{canon}, é possível representar qualquer vetor $\vec{v}$ como 391 | \begin{equation} 392 | \vec{v} = \big( \vec{v} \cdot \vec{e}_1 \big) \vec{e}_1 + \big( \vec{v} \cdot \vec{e}_2 \big) \vec{e}_2 + \cdots + \big( \vec{v} \cdot \vec{e}_n \big) \vec{e}_n. 393 | \end{equation} 394 | \end{ex} 395 | 396 | Vejamos que esta propriedade da base canônica é, na realidade, uma propriedade de todas as bases ortogonais: 397 | 398 | \begin{teo}\label{thm:base-ortogonal} 399 | Seja $\mathcal{B} = \{ \vec{v}_1, \vec{v}_2, \cdots, \vec{v}_n\}$ uma base ortogonal de $\mathbb{R}^n$. Então qualquer vetor $\vec{v} \in \mathbb{R}^n$ pode ser representado como 400 | \begin{equation} 401 | \vec{v} = \frac{\vec{v} \cdot \vec{v}_1}{\vec{v}_1 \cdot \vec{v}_1} \, \vec{v}_1 + \frac{\vec{v} \cdot \vec{v}_2}{\vec{v}_2 \cdot \vec{v}_2} \, \vec{v}_2 + \cdots + \frac{\vec{v} \cdot \vec{v}_n}{\vec{v}_n \cdot \vec{v}_n} \, \vec{v}_n. 402 | \end{equation} Podemos escrever, de outra maneira, que 403 | \begin{equation} 404 | \vec{v} = \proj_{\vec{v}_1} \vec{v} + \proj_{\vec{v}_2} \vec{v} + \cdots + \proj_{\vec{v}_n} \vec{v}. 405 | \end{equation} 406 | \end{teo} 407 | 408 | Este resultado mostra que bases ortogonais são especiais e boas de trabalhar. Lembra que anteriormente, para encontrar os coeficientes de um vetor em uma base, tínhamos que encontrar $c_1, c_2, \cdots, c_n$ resolvendo o sistema linear cuja forma vetorial é 409 | \begin{equation} 410 | c_1 \vec{v}_1 + c_2 \vec{v}_2 + \cdots + c_n \vec{v}_n = \vec{v}. 411 | \end{equation} O teorema acima afirma, em outras palavras, quando a base é ortogonal, os coeficientes do vetor $\vec{v}$ na base $\mathcal{B}$ são os números 412 | \begin{equation} 413 | c_j = \frac{\vec{v} \cdot \vec{v}_j}{\vec{v}_j \cdot \vec{v}_j}. 414 | \end{equation} 415 | 416 | \begin{proof}[Justificativa do Teorema \ref{thm:base-ortogonal}] 417 | Se a representação do vetor $\vec{v}$ na base $\mathcal{B}$ for 418 | \begin{equation} 419 | \vec{v} = c_1 \vec{v}_1 + c_2 \vec{v}_2 + \cdots + c_n \vec{v}_n, 420 | \end{equation} então, fazendo o produto escalar desta expressão com $\vec{v}_j$ e utilizando as propriedades de ortogonalidade, concluímos que 421 | \begin{equation} 422 | \vec{v} \cdot \vec{v}_j = \big( c_1 \vec{v}_1 + c_2 \vec{v}_2 + \cdots + c_n \vec{v}_n \big) \cdot \vec{v}_j = c_1 (\vec{v}_1\cdot \vec{v}_j) + c_2 (\vec{v}_2\cdot \vec{v}_j) + \cdots + c_n (\vec{v}_n\cdot \vec{v}_j) = c_j \big( \vec{v}_j \cdot \vec{v}_j \big), 423 | \end{equation} pois $\vec{v}_i \cdot \vec{v}_j = 0$ sempre que $i \neq j$. Daí, concluímos, como queríamos, que os coeficientes devem satisfazer 424 | \begin{equation} 425 | c_j = \frac{\vec{v} \cdot \vec{v}_j}{\vec{v}_j \cdot \vec{v}_j}. \qedhere 426 | \end{equation} 427 | \end{proof} 428 | 429 | \begin{ex} 430 | Vamos justificar que os vetores 431 | \begin{equation} 432 | \vec{u} = 433 | \begin{bmatrix} 434 | 4 \\ 2 435 | \end{bmatrix} \ \ \text{ e }\ \ 436 | \vec{v} = 437 | \begin{bmatrix} 438 | -1 \\ 2 439 | \end{bmatrix} 440 | \end{equation} formam uma base ortogonal para $\mathbb{R}^2$. 441 | 442 | Em primeiro lugar, formam uma base, pois são vetores linearmente independentes e são dois (que é a dimensão de $\mathbb{R}^2$). Agora, calculamos 443 | \begin{equation} 444 | \vec{u} \cdot \vec{v} = 4\cdot (-1) + 2\cdot 2 = 0. 445 | \end{equation} Segue que $\vec{u}$ e $\vec{v}$ são também ortogonais e, logo, formam uma base ortogonal de $\mathbb{R}^2$. 446 | 447 | Para escrever um vetor $\vec{x} = 448 | \begin{bmatrix} 449 | 2 \\ -7 450 | \end{bmatrix}$ nesta base, podemos calcular as projeções nos elementos da base (isto apenas vale se os elementos da base são ortogonais!): 451 | \begin{equation} 452 | \vec{x} = \frac{\vec{x} \cdot \vec{u}}{\vec{u} \cdot \vec{u}} \, \vec{u} + \frac{\vec{x} \cdot \vec{v}}{\vec{v} \cdot \vec{v}} \, \vec{v} = \frac{-6}{20} \, \vec{u} + \frac{-16}{5} \, \vec{v} = -0.3 \, \vec{u} -3.2 \, \vec{v}. \ \lhd 453 | \end{equation} 454 | \end{ex} 455 | 456 | 457 | Observe no exemplo acima que é muito mais fácil obter as componentes por ortogonalidade do que resolver sistemas lineares. Isto mesmo em dimensão baixa! Imagine se fosse um sistema $5\times 5$ ou ainda maior. 458 | 459 | 460 | Note que a base canônica, como no Exemplo \ref{ortonormal}, tem a propriedade adicional que $\norm{\vec{e}_j} = 1$ para todo índice $j$. Isto fez com que a representação de vetores do Teorema \ref{thm:base-ortogonal} assumisse um formato ainda mais simples. Estas bases ortogonais que tem por elementos vetores unitários são conhecidas como \textbf{bases ortonormais}. Mais explicitamente, uma base ortonormal é uma base $\{\vec{v}_1, \vec{v}_2, \cdots, \vec{v}_n\}$ de um espaço vetorial que adicionalmente satisfaz 461 | \begin{equation} 462 | \vec{v}_i \cdot \vec{v}_j = 0 \text{ para } i \neq j \text{ e também } \norm{\vec{v}_j} = 1 \text{ para todo } j \ \ \big( \iff \vec{v}_j \cdot \vec{v}_j = 1 \big) 463 | \end{equation} Uma consequência imediata é que, sendo $\{\vec{v}_1, \vec{v}_2, \cdots, \vec{v}_n\}$ uma base ortonormal de $\mathbb{R}^n$, podemos escrever 464 | \begin{equation} 465 | \vec{v} = \big( \vec{v} \cdot \vec{v}_1 \big) \vec{v}_1 + \big( \vec{v} \cdot \vec{v}_2 \big) \vec{v}_2 + \cdots + \big( \vec{v} \cdot \vec{v}_n \big) \vec{v}_n. 466 | \end{equation} 467 | 468 | \begin{ex} 469 | Os vetores 470 | \begin{equation} 471 | \vec{u} = 472 | \begin{bmatrix} 473 | 1 \\ 0 \\ 0 474 | \end{bmatrix}, \ 475 | \vec{v} = 476 | \begin{bmatrix} 477 | 0 \\ \sqrt{2}/2 \\ \sqrt{2}/2 478 | \end{bmatrix}, \ \text{e } 479 | \vec{w} = 480 | \begin{bmatrix} 481 | 0 \\ \sqrt{2}/2 \\ - \sqrt{2}/2 482 | \end{bmatrix} 483 | \end{equation} formam uma base ortonormal de $\mathbb{R}^3$: verifique! Qualquer vetor $\vec{x} \in \mathbb{R}^3$ pode ser escrito como 484 | \begin{equation} 485 | \vec{x} = \big( \vec{x} \cdot \vec{u} \big) \vec{u} + \big( \vec{x} \cdot \vec{v} \big) \vec{v} + \big( \vec{x} \cdot \vec{w} \big) \vec{w} 486 | \end{equation} Por exemplo, 487 | \begin{equation} 488 | \vec{x} = 489 | \begin{bmatrix} 490 | 2 \\ -1 \\ 1 491 | \end{bmatrix} = 2 \vec{u} + 0 \vec{v} - \sqrt{2} \vec{w} = 2 492 | \begin{bmatrix} 493 | 1 \\ 0 \\ 0 494 | \end{bmatrix} + \sqrt{2} 495 | \begin{bmatrix} 496 | 0 \\ \sqrt{2}/2 \\ - \sqrt{2}/2 497 | \end{bmatrix}. 498 | \end{equation} 499 | \end{ex} 500 | 501 | 502 | Observamos finalmente que bases ortogonais podem ser facilmente transformadas em bases ortonormais pelo processo de normalização. 503 | 504 | 505 | \begin{ex} 506 | Os vetores 507 | \begin{equation} 508 | \vec{u} = 509 | \begin{bmatrix} 510 | 1 \\ 1 \\ 1 511 | \end{bmatrix}, \ 512 | \vec{v} = 513 | \begin{bmatrix} 514 | 1 \\ 0 \\ -1 515 | \end{bmatrix} \ \text{e } 516 | \vec{w} = 517 | \begin{bmatrix} 518 | 1 \\ -2 \\ 1 519 | \end{bmatrix} 520 | \end{equation} formam uma base ortogonal de $\mathbb{R}^3$. Normalizando cada um dos vetores, podemos obter uma base ortonormal de $\mathbb{R}^3$: 521 | \begin{equation} 522 | \left\{ 523 | \begin{array}{ll} 524 | \norm{\vec{u}} = \sqrt{1 + 1 + 1} = \sqrt{3} \\ 525 | \norm{\vec{v}} = \sqrt{1 + 1} = \sqrt{2} \\ 526 | \norm{\vec{w}} = \sqrt{1 + 4 + 1} = \sqrt{6} \\ 527 | \end{array} 528 | \right. 529 | \end{equation} Isto implica que os vetores 530 | \begin{equation} 531 | \frac{\vec{u}}{\norm{\vec{u}}} = \frac{1}{\sqrt{3}} 532 | \begin{bmatrix} 533 | 1 \\ 1 \\ 1 534 | \end{bmatrix} = 535 | \begin{bmatrix} 536 | 1/\sqrt{3} \\ 1/\sqrt{3} \\ 1/\sqrt{3} 537 | \end{bmatrix}, \ 538 | \frac{\vec{v}}{\norm{\vec{v}}} = \frac{1}{\sqrt{2}} 539 | \begin{bmatrix} 540 | 1 \\ 0 \\ -1 541 | \end{bmatrix} = 542 | \begin{bmatrix} 543 | 1/\sqrt{2} \\ 0 \\ -1/\sqrt{2} 544 | \end{bmatrix} \ \text{e } 545 | \frac{\vec{w}}{\norm{\vec{w}}} = \frac{1}{\sqrt{6}} 546 | \begin{bmatrix} 547 | 1 \\ -2 \\ 1 548 | \end{bmatrix} = 549 | \begin{bmatrix} 550 | 1/\sqrt{6} \\ -2/\sqrt{6} \\ 1/\sqrt{6} 551 | \end{bmatrix} 552 | \end{equation} formam um base ortonormal de $\mathbb{R}^3. \ \lhd$ 553 | \end{ex} 554 | 555 | \subsection*{Exercícios resolvidos} 556 | 557 | \construirExeresol 558 | 559 | \subsection*{Exercícios} 560 | 561 | \construirExer 562 | 563 | \section{Exercícios finais} 564 | 565 | \construirExer 566 | 567 | %\end{document} 568 | -------------------------------------------------------------------------------- /Semana12/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana12 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 12" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana12/semana12-dist-justif.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-dist-justif.ggb -------------------------------------------------------------------------------- /Semana12/semana12-dist-justif.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-dist-justif.png -------------------------------------------------------------------------------- /Semana12/semana12-dist.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-dist.ggb -------------------------------------------------------------------------------- /Semana12/semana12-dist.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-dist.png -------------------------------------------------------------------------------- /Semana12/semana12-gram1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-gram1.png -------------------------------------------------------------------------------- /Semana12/semana12-gram2.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-gram2.ggb -------------------------------------------------------------------------------- /Semana12/semana12-gram2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-gram2.png -------------------------------------------------------------------------------- /Semana12/semana12-proj.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana12/semana12-proj.png -------------------------------------------------------------------------------- /Semana13/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana13 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 13" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana13/semana13-LLScomQR.tex: -------------------------------------------------------------------------------- 1 | % Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} %%DM%%Escolher document class and options article, etc 4 | 5 | \providecommand{\dir}{..} 6 | 7 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 8 | %%%%%%%%%%%%INICIO DO DOCUMENTO%%%%%%%%%%%%%% 9 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 10 | 11 | %\begin{document} 12 | 13 | %\chapter{Semana 13} 14 | 15 | 16 | \chapter{Semana 13} 17 | 18 | \section{Método dos mínimos quadrados} 19 | 20 | Sistemas lineares aparecem como modelos matemáticos de vários fenômenos e em várias situações. Acontece que alguns sistemas simplesmente não possuem soluções e ficamos sem saber como proceder. O \textbf{método dos mínimos quadrados} é uma técnica que nos permite, de forma aproximada, retirar alguma informação desses sistemas impossíveis. A terminologia se deve ao fato de que, como veremos, este método minimiza a soma dos quadrados dos erros obtidos na aproximação. 21 | 22 | Como sabemos, resolver o sistema linear 23 | \begin{equation} 24 | A \vec{x} = \vec{b} 25 | \end{equation} consiste em encontrar um vetor $\vec{x}$ que satisfaça a esta equação. Na terminologia que construimos ao longo do curso, é equivalente dizer que $\vec{b}$ pertence ao espaço coluna da matriz $A$, isto é, $\vec{b} \in \operatorname{Col} A$. Desta forma, não é possível resolver o sistema quando $\vec{b} \not\in \operatorname{Col} A$. Representamos esta situação na figura abaixo. 26 | \begin{figure}[h!] 27 | \begin{center} 28 | \includegraphics[width=0.8\linewidth]{Semana13/semana13-proj-col} 29 | \end{center} 30 | \end{figure} 31 | 32 | O método dos mínimos quadrados consiste em olhar para o vetor $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$ e resolver o sistema linear associado 33 | \begin{equation} 34 | A \vec{x} = \vec{p}. 35 | \end{equation} Esta solução de $A \vec{x} = \vec{p}$ é chamada de \textbf{solução de mínimos quadrados}. A ideia é (ver figura) considerar o vetor pertencente a $\operatorname{Col} A$ que é o ``mais próximo'' possível de $\vec{b}$ e cujo sistema linear associado possua solução. Neste contexto, estamos pensando em mais próximo no sentido 36 | \begin{equation} 37 | \| \vec{b} - \proj_{\operatorname{Col} A} \vec{b} \| \le \| \vec{b} - \vec{c} \|, \text{ para qualquer } \vec{c}\, \in \operatorname{Col} A, 38 | \end{equation} isto é, no sentido de ser a projeção a melhor aproximação de $\vec{b}$ no espaço coluna de $A$. Escrevendo os vetores em coordenadas: 39 | \begin{equation} 40 | \vec{b} = 41 | \begin{bmatrix} 42 | b_1 \\ b_2 \\ \vdots \\ b_n 43 | \end{bmatrix} \quad \text{e} \quad 44 | \proj_{\operatorname{Col} A} \vec{b} = 45 | \begin{bmatrix} 46 | p_1 \\ p_2 \\ \vdots \\ p_n 47 | \end{bmatrix}, 48 | \end{equation} podemos definir o valor 49 | \begin{equation} 50 | \| \vec{b} - \proj_{\operatorname{Col} A} \vec{b} \| = \sqrt{\sum_{i=1}^n (b_i - p_i)^2} 51 | \end{equation} como o \textbf{erro da aproximação} ou \textbf{erro quadrático}. Logo, como anunciado, a soma dos quadrados dos erros obtidos cada componente é o mínimo possível. 52 | 53 | 54 | \begin{ex}\label{exp:minquad1} 55 | Considere o sistema linear 56 | \begin{equation} 57 | \left\{ 58 | \begin{array}{ll} 59 | x_1 + x_2 - 2x_3 = 3 \\ 60 | x_1 - 2x_3 = 2 \\ 61 | x_2 + 2x_3 = 0 \\ 62 | x_1 + x_2 - 2x_3 = 0 63 | \end{array} 64 | \right. \ \leftrightsquigarrow \ 65 | A \vec{x} = \begin{bmatrix} 66 | 1 & 1 & -2 \\ 1 & 0 & -2 \\ 0 & 1 & 2 \\ -1 & -1 & 2 67 | \end{bmatrix} 68 | \begin{bmatrix} 69 | x_1 \\ x_2 \\ x_3 70 | \end{bmatrix} = 71 | \begin{bmatrix} 72 | 3 \\ 2 \\ 0 \\ 0 73 | \end{bmatrix} = \vec{b}. 74 | \end{equation} Este sistema é claramente impossível, pois a primeira equação é inconsistente com a última. De forma mais automática, um passo no escalonamento da matriz aumentada associada revelaria a mesma conclusão: 75 | \begin{equation} 76 | [\, A \ | \ \vec{b} \, ] = \begin{bmatrix} 77 | 1 & 1 & -2 & 3 \\ 1 & 0 & -2 & 2 \\ 0 & 1 & 2 & 0 \\ -1 & -1 & 2 & 0 78 | \end{bmatrix} \sim 79 | \begin{bmatrix} 80 | 1 & 1 & -2 & 3 \\ 1 & 0 & -2 & 2 \\ 0 & 1 & 2 & 0 \\ 0 & 0 & 0 & 3 81 | \end{bmatrix} . 82 | \end{equation} Vamos tentar encontrar, conforme descrito acima, uma solução de mínimos quadrados. Passos a serem realizados: 83 | \begin{itemize} 84 | \item Para calcular a projeção de $\vec{b}$ sobre $\operatorname{Col} A$, precisamos, em primeiro lugar, obter uma base ortogonal do espaço $\operatorname{Col} A$; isto pode ser feito pelo processo de Gram--Schmidt; 85 | \item Calcular a projeção $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$; 86 | \item Resolver o sistema linear $A \vec{x} = \vec{p}$. 87 | \end{itemize} Embora seja possível realizar estes três passos, temos de convir que seria muito trabalhoso. Por isto, vamos analisar um pouco mais da teoria para encontrar um método mais eficaz$. \ \lhd$ 88 | \end{ex} 89 | 90 | Suponhamos que: 91 | \begin{itemize} 92 | \item $A$ é uma matriz $m \times n$, 93 | \item $\vec{x} \in \mathbb{R}^n$, 94 | \item $\vec{b} \in \mathbb{R}^m$ e 95 | \item o sistema $A \vec{x} = \vec{b}$ não possui solução. 96 | \end{itemize} A solução de mínimos quadrados é a solução de $A \vec{x} = \vec{p}$, onde $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$. Observamos, por outro lado, que, sendo $\vec{p}\,$ a projeção sobre o espaço coluna de $A$, o vetor $\vec{b} - \vec{p}\,$ deve ser ortogonal a todos os elementos de $\operatorname{Col} A$. Em particular, se escrevermos $A$ em termos de suas colunas 97 | \begin{equation} 98 | A = 99 | \begin{bmatrix} 100 | | & | & & | \\ 101 | \vec{a}_1 & \vec{a}_2 & \cdots & \vec{a}_n \\ 102 | | & | & & | 103 | \end{bmatrix}, \qquad \left( \text{que, em particular, implica } 104 | A^T = \begin{bmatrix} 105 | \ \text{---} & \vec{a}_1 & \text{---} \ \\ 106 | \ \text{---} & \vec{a}_2 & \text{---} \ \\ 107 | \ & \vdots & \ \\ 108 | \ \text{---} & \vec{a}_n & \text{---}\ 109 | \end{bmatrix}\right) 110 | \end{equation} devemos ter 111 | \begin{equation} 112 | \vec{a}_j \cdot \big(\vec{b} - \vec{p}\big) = 0, \text{ para todo } j \ \ \iff \ \ 113 | A^T (\vec{b} - \vec{p}) = \vec{0} \ \ \iff \ \ A^T \vec{b} = A^T \vec{p} = A^T A\vec{x}. 114 | \end{equation} Esta última linha é válida porque o produto escalar $\vec{a}_j \cdot \big(\vec{b} - \vec{p}\big)$ é justamente a entrada $j$ do vetor obtido ao multiplicar $A^T(\vec{b} - \vec{p})$. Além disso, $A \vec{x} = \vec{p}.$ 115 | 116 | Concluimos, desta forma, que, se $\vec{x}$ é uma solução de mínimos quadrados, ou seja, se $A \vec{x} = \vec{p}$, então necessariamente 117 | \begin{equation}\label{minquad} 118 | \boxed{A^T A\vec{x} = A^T \vec{b}.} 119 | \end{equation} 120 | 121 | \begin{exer}%[Teórico] 122 | Justifique que o conjunto de soluções do sistema \eqref{minquad} coincide com o conjunto das soluções de mínimos quadrados do sistema $A \vec{x} = \vec{b}$. 123 | \end{exer} 124 | 125 | Tudo isto implica que podemos utilizar a equação \eqref{minquad} para encontrar as soluções de mínimos quadrados de $A \vec{x} = \vec{b}$. 126 | 127 | \begin{ex}[De volta ao Exemplo \ref{exp:minquad1}]\label{exp:minquad2} 128 | Calculamos 129 | \begin{equation} 130 | A^T A = 131 | \begin{bmatrix} 132 | 1 & 1 & 0 & -1 \\ 1 & 0 & 1 & -1 \\ -2 & -2 & 2 & 2 133 | \end{bmatrix} 134 | \begin{bmatrix} 135 | 1 & 1 & -2 \\ 1 & 0 & -2 \\ 0 & 1 & 2 \\ -1 & -1 & 2 136 | \end{bmatrix} = 137 | \begin{bmatrix} 138 | 3 & 2 & -6 \\ 2 & 3 & -2 \\ -6 & -2 & 16 139 | \end{bmatrix} 140 | \end{equation} e 141 | \begin{equation} 142 | A^T \vec{b} = 143 | \begin{bmatrix} 144 | 1 & 1 & 0 & -1 \\ 1 & 0 & 1 & -1 \\ -2 & -2 & 2 & 2 145 | \end{bmatrix} 146 | \begin{bmatrix} 147 | 3 \\ 2 \\ 0 \\ 0 148 | \end{bmatrix} = 149 | \begin{bmatrix} 150 | 5 \\ 3 \\ -10 151 | \end{bmatrix} 152 | \end{equation} Para resolvermos o sistema $A^TA\vec{x} = A^T\vec{b}$, vamos escalonar a matriz aumentada associada: 153 | \begin{equation} 154 | \begin{bmatrix} 155 | 3 & 2 & -6 & 5 \\ 156 | 2 & 3 & -2 & 3 \\ 157 | -6 & -2 & 16 & -10 158 | \end{bmatrix} \sim 159 | \begin{bmatrix} 160 | 3 & 2 & -6 & 5 \\ 161 | 0 & 5 & 6 & -1 \\ 162 | 0 & 2 & 4 & 0 163 | \end{bmatrix} \sim 164 | \begin{bmatrix} 165 | 3 & 2 & -6 & 5 \\ 166 | 0 & 5 & 6 & -1 \\ 167 | 0 & 0 & 4 & 1 168 | \end{bmatrix} 169 | \end{equation} Logo, 170 | \begin{equation} 171 | \left\{ 172 | \begin{array}{ll} 173 | 3 x_1 + 2 x_2 - 6 x_3 = 5 \\ 174 | 5x_2 + 6 x_3 = -1 \\ 175 | 4x_3 = 1 176 | \end{array} 177 | \right.. 178 | \end{equation} Assim, 179 | \begin{equation} 180 | x_3 = \frac{1}{4} \implies 5x_2 + 6 \cdot \frac{1}{4} = -1 \implies x_2 = -\frac{1}{2} \implies 3 x_1 - 1 - \frac{3}{2} = 5 \implies x_1 = \frac{3}{2}. 181 | \end{equation} Portanto, uma solução de mínimos quadrados é 182 | \begin{equation} 183 | \begin{bmatrix} 184 | x_1 \\ x_2 \\ x_3 185 | \end{bmatrix} = 186 | \begin{bmatrix} 187 | 3/2 \\ -1/2 \\ 1/4 188 | \end{bmatrix}. 189 | \end{equation} Observe como isto é muito menos trabalhoso do que o método que havíamos esquematizado no Exemplo \ref{exp:minquad1}$. \ \lhd$ 190 | \end{ex} 191 | 192 | \begin{exer} 193 | Colocar em prática o método discutido no Exemplo \ref{exp:minquad1} e comparar o resultado com o que obtivemos no Exemplo \ref{exp:minquad2}. 194 | \end{exer} 195 | 196 | \begin{obs} 197 | Caso a matriz $A$ já seja uma matriz ortogonal, podemos calcular projeções diretamente, pois uma base ortogonal para $\operatorname{Col} A$ já esté disponível desde o começo. Neste caso, ambos os métodos exigiriam um trabalho parecido. 198 | \end{obs} 199 | 200 | Nossa aproximação linear foi encontrada de modo a minimizar o erro quadrático. Para encontrar o erro, deveríamos calcular 201 | \begin{equation} 202 | \| \vec{b} - \proj_{\vec{\operatorname{Col} A}} \vec{b} \|. 203 | \end{equation} No entanto, note que não precisamos calcular a projeção. Observando que a solução de mínimos quadrados satisfaz $A \vec{x} = \proj_{\vec{\operatorname{Col} A}} \vec{b}$, podemos calcular o erro por 204 | \begin{equation} 205 | \text{erro } = \| \vec{b} - A \vec{x} \|, 206 | \end{equation} onde $\vec{x}$ é a solução de mínimos quadrados. 207 | 208 | No Exemplo \ref{exp:minquad2} acima, podemos calcular o erro desta forma. De fato, 209 | \begin{equation} 210 | A \vec{x} = 211 | \begin{bmatrix} 212 | 1 & 1 & -2 \\ 213 | 1 & 0 & -2 \\ 214 | 0 & 1 & 2 \\ 215 | -1 & -1& 2 216 | \end{bmatrix} 217 | \begin{bmatrix} 218 | 3/2 \\ -1/2 \\ 1/4 219 | \end{bmatrix} = 220 | \begin{bmatrix} 221 | 1/2 \\ 1 \\ 0 \\ -1/2 222 | \end{bmatrix} \implies 223 | \vec{b} - A\vec{x} = 224 | \begin{bmatrix} 225 | 5/2 \\ 1 \\ 0 \\ 1/2 226 | \end{bmatrix} 227 | \end{equation} 228 | \begin{equation} 229 | \implies \text{erro } = \| \vec{b} - A \vec{x} \| = \sqrt{\frac{25}{4} + 1 + \frac{1}{4}} = \frac{\sqrt{30}}{2} \simeq 2,74. 230 | \end{equation} 231 | 232 | 233 | % \newpage 234 | 235 | 236 | 237 | \section{Regressão Linear Simples} 238 | 239 | Vamos apresentar uma aplicação de algumas das técnicas do método de mínimos quadrados à Estatística ou Econometria. Uma \textbf{regressão linear simples} é uma equação, tipicamente da forma 240 | \begin{equation} 241 | y = a + b x, 242 | \end{equation} para estimar os valores $(x,y)$ apenas conhecendo alguns valores específicos $(x_1, y_1), (x_2, y_2), \dots,$ $(x_k, y_k)$. A ideia é tentar capturar como que mudanças na variável independente $x$ afetam a variável dependente $y$ (neste caso, supondo que esta dependência é linear). 243 | 244 | \begin{ex}\footnote{Exemplo adaptado de \url{https://onlinecourses.science.psu.edu/stat501/node/257}}\label{exp:idade} 245 | Com o intuito de analisar se é razoável supor que há um relação linear entre a idade de um motorista e quão longe ele consegue ver, uma empresa (Last Resource, Inc., Bellefonte, PA) coletou dados de 30 motoristas. Para simplificar as nossas contas, vamos listar abaixo \textit{apenas alguns} destes dados. 246 | \begin{center} 247 | \begin{tabular}{|c|c|} 248 | \hline 249 | % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... 250 | Idade & Distância (em $m$) \\ \hline 251 | 20 & 590 \\ 252 | 32 & 410 \\ 253 | 41 & 460 \\ 254 | 49 & 380 \\ 255 | 66 & 350 \\ 256 | \hline 257 | \end{tabular} 258 | \end{center} Podemos pensar em $y$ como a distância e em $x$ como a idade. Gostaríamos de achar uma relação linear da forma 259 | \begin{equation} 260 | y = a + b x. 261 | \end{equation} Desta forma, os dados obtidos implicam que 262 | \begin{equation} 263 | \left\{ 264 | \begin{array}{ll} 265 | a + 20 b = 590 \\ 266 | a + 32 b = 410 \\ 267 | a + 41 b = 460 \\ 268 | a + 49 b = 380 \\ 269 | a + 66 b = 350 270 | \end{array} 271 | \right. \ \ \leftrightsquigarrow \ \ \ 272 | \begin{bmatrix} 273 | 1 & 20 \\ 274 | 1 & 32 \\ 275 | 1 & 41 \\ 276 | 1 & 49 \\ 277 | 1 & 66 \\ 278 | \end{bmatrix} 279 | \begin{bmatrix} 280 | a \\ b 281 | \end{bmatrix} = 282 | \begin{bmatrix} 283 | 590 \\ 410 \\ 460 \\ 380 \\ 350 284 | \end{bmatrix} 285 | \end{equation} Ora, dificilmente um sistema linear com duas incógnitas e cinco equações terá solução (só terá solução se todos os pontos do conjunto de dados estiverem perfeitamente alinhados em uma reta!). Consequentemente, vamos procurar por uma solução de mínimos quadrados. Isto é \textbf{regressão linear simpes}. 286 | 287 | Denotando 288 | \begin{equation} 289 | A = 290 | \begin{bmatrix} 291 | 1 & 20 \\ 292 | 1 & 32 \\ 293 | 1 & 41 \\ 294 | 1 & 49 \\ 295 | 1 & 66 \\ 296 | \end{bmatrix} \quad \text{e} \quad 297 | \vec{b} = 298 | \begin{bmatrix} 299 | 590 \\ 410 \\ 460 \\ 380 \\ 350 300 | \end{bmatrix} 301 | \end{equation} precisamos calcular 302 | \begin{equation} 303 | A^T A = 304 | \begin{bmatrix} 305 | 1 & 1 & 1 & 1 & 1 \\ 306 | 20 & 32 & 41 & 49 & 66 307 | \end{bmatrix} 308 | \begin{bmatrix} 309 | 1 & 20 \\ 310 | 1 & 32 \\ 311 | 1 & 41 \\ 312 | 1 & 49 \\ 313 | 1 & 66 \\ 314 | \end{bmatrix} = 315 | \begin{bmatrix} 316 | 5 & 208 \\ 317 | 208 & 9832 \\ 318 | \end{bmatrix} 319 | \end{equation} e 320 | \begin{equation} 321 | A^T \vec{b} = 322 | \begin{bmatrix} 323 | 1 & 1 & 1 & 1 & 1 \\ 324 | 20 & 32 & 41 & 49 & 66 325 | \end{bmatrix} 326 | \begin{bmatrix} 327 | 590 \\ 410 \\ 460 \\ 380 \\ 350 328 | \end{bmatrix} = 329 | \begin{bmatrix} 330 | 2190 \\ 85500 331 | \end{bmatrix}. 332 | \end{equation} Em seguida, a matriz associada aumentada pode ser reduzida por escalonamento: 333 | \begin{equation} 334 | [\, A^TA \ | \ \vec{b} \, ] = 335 | \begin{bmatrix} 336 | 5 & 208 & 2190 \\ 337 | 208 & 9832 & 85500 \\ 338 | \end{bmatrix} \sim 339 | \begin{bmatrix} 340 | 1 & 0 & 468510/737 \\ 341 | 0 & 1 & -7005/1474 \\ 342 | \end{bmatrix} \implies 343 | \left\{ 344 | \begin{array}{ll} 345 | a \simeq 635.7 \\ 346 | b \simeq -4.75 347 | \end{array} 348 | \right.. 349 | \end{equation} Os números são feios, mas as contas feitas foram as que sempre fizemos ao escalonar uma matriz até sua forma escalonada reduzida. 350 | 351 | A conclusão é que a reta de mínimos quadrados que melhor aproxima os nossos dados é a reta 352 | \begin{equation} 353 | y = a + b x = 635.7 - 4.75 x. 354 | \end{equation} O erro de mínimos quadrados nesta aproximação (ou norma do resíduo) pode ser calculado como 355 | \begin{equation} 356 | A \vec{x} = \begin{bmatrix} 357 | 1 & 20 \\ 358 | 1 & 32 \\ 359 | 1 & 41 \\ 360 | 1 & 49 \\ 361 | 1 & 66 \\ 362 | \end{bmatrix} 363 | \begin{bmatrix} 364 | 635.7 \\ 365 | 4.75 \\ 366 | \end{bmatrix} \simeq 367 | \begin{bmatrix} 368 | 730.7 \\ 369 | 787.7 \\ 370 | 830.45 \\ 371 | 868.45 \\ 372 | 949.2 \\ 373 | \end{bmatrix} \simeq \proj_{\operatorname{Col} A} \vec{b} \implies \text{ erro } = \| \vec{b} - A\vec{x} \| \simeq 947.3 374 | \end{equation} 375 | \begin{figure}[h!] 376 | \begin{center} 377 | \includegraphics[width=1\linewidth]{Semana13/semana13-idade} 378 | \end{center} 379 | \end{figure} 380 | Na figura, mostramos um esboço da reta que melhor aproxima os dados deste exemplo$. \ \lhd$ 381 | \end{ex} 382 | 383 | 384 | 385 | De uma maneira geral, para encontrar uma \textbf{reta de melhor ajuste} a uma quantidade de pontos (dados coletados de algum problema) 386 | \begin{equation} 387 | (x_1, y_1), \ (x_2, y_2), \ \dots, (x_k, y_k), 388 | \end{equation} devemos procurar pela solução $(a,b)$ de mínimos quadrados do sistema linear 389 | \begin{equation} 390 | \left\{ 391 | \begin{array}{rl} 392 | a + b x_1 &\!\!\!\!\!= y_1 \\ 393 | a + b x_2 &\!\!\!\!\!= y_2 \\ 394 | \vdots & \\ 395 | a + b x_k &\!\!\!\!\!= y_k \\ 396 | \end{array} 397 | \right. \quad \leftrightsquigarrow \quad 398 | \begin{bmatrix} 399 | 1 & x_1 \\ 400 | 1 & x_2 \\ 401 | \vdots & \vdots \\ 402 | 1 & x_k \\ 403 | \end{bmatrix} 404 | \begin{bmatrix} 405 | a \\ b 406 | \end{bmatrix} = 407 | \begin{bmatrix} 408 | y_1 \\ y_2 \\ \vdots \\ y_k 409 | \end{bmatrix}. 410 | \end{equation} Vejamos um outro exemplo: 411 | 412 | \begin{ex} 413 | Encontrar a reta que melhor se ajusta aos pontos do plano 414 | \begin{equation} 415 | (1,2), \ \ (2,3), \ \ (2,4), \ \ (3,2), \ \ (4,3), \ \ (4,4), \ \ (5,3), \ \ (5,5), \ \ (6,4). 416 | \end{equation} Como vimos acima, podemos considerar 417 | \begin{equation} 418 | A = 419 | \begin{bmatrix} 420 | 1 & 1 \\ 421 | 1 & 2 \\ 422 | 1 & 2 \\ 423 | 1 & 3 \\ 424 | 1 & 4 \\ 425 | 1 & 4 \\ 426 | 1 & 5 \\ 427 | 1 & 5 \\ 428 | 1 & 6 \\ 429 | \end{bmatrix} \ \ \text{e} \ \ 430 | \vec{b} = 431 | \begin{bmatrix} 432 | 2\\3\\4\\2\\3\\4\\3\\5\\4 433 | \end{bmatrix} 434 | \end{equation} Assim, 435 | \begin{equation} 436 | A^T A = 437 | \begin{bmatrix} 438 | 9 & 32 \\ 439 | 32 & 136 440 | \end{bmatrix} \ \ \text{e} \ \ 441 | A^T \vec{b} = 442 | \begin{bmatrix} 443 | 30\\114 444 | \end{bmatrix}. 445 | \end{equation} A solução de mínimos quadrados, que é a solução de $A^T A \vec{x} = A^T\vec{b}$, é dada por 446 | \begin{equation} 447 | b = 54/25 = 2.16, \\ a = 33/100 = 0.33. 448 | \end{equation} A reta procurada é portanto $y = 0.33 x + 2.16$. 449 | \begin{figure}[h!] 450 | \begin{center} 451 | \includegraphics[width=0.5\linewidth]{Semana13/semana13-reta} 452 | \end{center} 453 | \end{figure} 454 | \end{ex} 455 | 456 | 457 | \section{Regressão por função não linear} 458 | 459 | Podemos também procurar (em contraste com a subseção anterior) por funções não lineares que se ajustem a um conjunto de pontos. Por exemplo, dado um certo conjunto de pontos 460 | \begin{equation} 461 | (x_1, y_1), \ (x_2, y_2), \ \dots, (x_k, y_k), 462 | \end{equation} vamos procurar por uma parábola 463 | \begin{equation} 464 | y = a + bx + cx^2 465 | \end{equation} que melhor se ajuste a este conjunto de pontos, no sentido de que a soma dos quadrados dos erros seja a menor possível. Isto corrensponde a procurar pela solução $(a,b, c)$ de mínimos quadrados do seguinte sistema linear 466 | \begin{equation} 467 | \left\{ 468 | \begin{array}{rl} 469 | a + b x_1 + c x_1^2 &\!\!\!\!\!= y_1 \\ 470 | a + b x_2 + c x_2^2 &\!\!\!\!\!= y_2 \\ 471 | \vdots & \\ 472 | a + b x_k + c x_k^2 &\!\!\!\!\!= y_k \\ 473 | \end{array} 474 | \right. \quad \leftrightsquigarrow \quad 475 | \begin{bmatrix} 476 | 1 & x_1 & x_1^2 \\ 477 | 1 & x_2 & x_2^2 \\ 478 | \vdots & \vdots \\ 479 | 1 & x_k & x_k^2 \\ 480 | \end{bmatrix} 481 | \begin{bmatrix} 482 | a \\ b \\ c 483 | \end{bmatrix} = 484 | \begin{bmatrix} 485 | y_1 \\ y_2 \\ \vdots \\ y_k 486 | \end{bmatrix}. 487 | \end{equation} Vejamos como ficaria a parábola que se ajusta aos dados do Exemplo \ref{exp:idade}: 488 | 489 | \begin{ex} 490 | Nossos pontos no Exemplo \ref{exp:idade} são 491 | \begin{equation} 492 | (20, 590), \ (32, 410), \ (41, 460), \ (49, 380), \ (66, 350). 493 | \end{equation} Para encontrar a parábola de melhor ajuste como acima, devemos procurar pela solução de mínimos quadrados do sistema 494 | \begin{equation} 495 | \begin{bmatrix} 496 | 1 & 20 & 400 \\ 497 | 1 & 32 & 1024 \\ 498 | 1 & 41 & 1681 \\ 499 | 1 & 49 & 2401 \\ 500 | 1 & 66 & 4356 \\ 501 | \end{bmatrix} 502 | \begin{bmatrix} 503 | a \\ b \\ c 504 | \end{bmatrix} = 505 | \begin{bmatrix} 506 | 590 \\ 410 \\ 460 \\ 380 \\ 350 507 | \end{bmatrix} \ \leftrightsquigarrow \ A \vec{x} = \vec{b}. 508 | \end{equation} Calculamos (com o auxílio de uma calculadora) 509 | \begin{equation} 510 | A^T A = 511 | \begin{bmatrix} 512 | 1 & 1 & 1 & 1 & 1 \\ 513 | 20 & 32 & 41 & 49 & 66 \\ 514 | 400 & 1024 & 1681 & 2401 & 4356 \\ 515 | \end{bmatrix} 516 | \begin{bmatrix} 517 | 1 & 20 & 400 \\ 518 | 1 & 32 & 1024 \\ 519 | 1 & 41 & 1681 \\ 520 | 1 & 49 & 2401 \\ 521 | 1 & 66 & 4356 \\ 522 | \end{bmatrix} = 523 | \begin{bmatrix} 524 | 5 & 208 & 9862 \\ 525 | 208 & 9862 & 514834 \\ 526 | 9862 & 514834 & 28773874 \\ 527 | \end{bmatrix}, 528 | \end{equation} 529 | \begin{equation} 530 | A^T A = 531 | \begin{bmatrix} 532 | 1 & 1 & 1 & 1 & 1 \\ 533 | 20 & 32 & 41 & 49 & 66 \\ 534 | 400 & 1024 & 1681 & 2401 & 4356 \\ 535 | \end{bmatrix} 536 | \begin{bmatrix} 537 | 590 \\ 410 \\ 460 \\ 380 \\ 350 538 | \end{bmatrix} = 539 | \begin{bmatrix} 540 | 2190 \\ 85500 \\ 3866080 541 | \end{bmatrix} 542 | \end{equation} e resolvemos (escalonando, por exemplo, com o auxílio de um computador) 543 | \begin{equation} 544 | \begin{bmatrix} 545 | 5 & 208 & 9862 & 2190 \\ 546 | 208 & 9862 & 514834 & 85500 \\ 547 | 9862 & 514834 & 28773874 & 3866080 \\ 548 | \end{bmatrix} \sim 549 | \begin{bmatrix} 550 | 1 & 0 & 0 & 28482529840/35036713 \\ 551 | 0 & 1 & 0 & -1505841055/105110139 \\ 552 | 0 & 0 & 1 & 11779375/105110139 \\ 553 | \end{bmatrix}. 554 | \end{equation} 555 | Logo, aproximando estas frações, obtemos 556 | \begin{equation} 557 | \left\{ 558 | \begin{array}{ll} 559 | a \simeq 812.934 \\ 560 | b \simeq -14.326 \\ 561 | c \simeq 0.112 \\ 562 | \end{array} 563 | \right. 564 | \end{equation} 565 | \begin{figure}[h!] 566 | \begin{center} 567 | \includegraphics[width=1\linewidth]{Semana13/semana13-idade-parabola} 568 | \end{center} 569 | \end{figure} 570 | e a parábola desejada é, aproximadamente 571 | \begin{equation} 572 | y = 812.934 - 14.326 x + 0.112 x^2. 573 | \end{equation} 574 | 575 | 576 | \noindent Observamos que, apesar de o erro quadrático ser provavelmente menor neste exemplo, esta parábola se torna crescente a partir de um certo momento, fazendo com que o modelo não seja tão razoável para idades maiores. Por exemplo, é pouco provável que (na média), pessoas com 95 anos vejam a uma distância maior do que pessoas de 65 anos, como sugere a parábola acima. 577 | \end{ex} 578 | 579 | 580 | 581 | \section{Regressão linear múltipla} 582 | 583 | Uma \textbf{regressão linear múltipla} é o problema análogo à regressão linear simples no caso em que a variável dependente pode depender de mais fatores independentes. Tipicamente, queremos encontrar uma equação afim que melhor se ajusta a alguns dados conhecidos. 584 | 585 | No caso especial em que $y$ depende de apenas outros dois fatores, escreveremos 586 | \begin{equation} 587 | z = a + b x + c y, 588 | \end{equation} que, geometricamente, representa um plano no espaço tridimensional $\mathbb{R}^3$. Seja agora uma conjunto de dados: 589 | \begin{equation} 590 | (x_1, y_1, z_1), \ (x_1, y_1, z_1), \dots, (x_k, y_k, z_k). 591 | \end{equation} Queremos encontrar coeficientes $(a,b,c)$ que satisfaçam: 592 | \begin{equation} 593 | \left\{ 594 | \begin{array}{c} 595 | a + b x_1 + c y_1 = z_1 \\ 596 | a + b x_2 + c y_2 = z_2 \\ 597 | \vdots \\ 598 | a + b x_k + c y_k = z_k \\ 599 | \end{array} 600 | \right. \quad \leftrightsquigarrow \quad 601 | \begin{bmatrix} 602 | 1 & x_1 & y_1 \\ 603 | 1 & x_2 & y_2 \\ 604 | \vdots & \vdots & \vdots \\ 605 | 1 & x_k & y_k \\ 606 | \end{bmatrix} 607 | \begin{bmatrix} 608 | a \\ b \\ c 609 | \end{bmatrix} = 610 | \begin{bmatrix} 611 | z_1 \\ z_2 \\ \vdots \\ z_k 612 | \end{bmatrix}. 613 | \end{equation} Quanto maior o número de dados, mais provável de o sistema ser impossível (podemos fazer a analogia geométrica de que por três pontos não colineares no espaço passa um único plano; se aumentarmos o número de pontos, mais difícil que haja um plano contendo todos eles). Por isto, procuramos por uma solução de mínimos quadrados. 614 | 615 | 616 | 617 | \begin{ex} 618 | Uma pesquisa com $214$ mulheres em uma universidade americana\footnote{Referência: \verb"\url{https://onlinecourses.science.psu.edu/stat501/node/292}"} coletou informações sobre a altura das participantes, assim como a altura de seus pais. Abaixo, listamos \textit{apenas alguns destes dados}, para que nossas contas não fiquem tão extensas. Fizemos também uma mudança de unidades nas alturas (de polegadas) para centímetros, 619 | \begin{center} 620 | \begin{tabular}{|c|c|c|} 621 | \hline 622 | % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... 623 | Altura & Altura Mãe & Altura Pai \\ \hline 624 | 152 & 155 & 165 \\ 625 | 162 & 155 & 160 \\ 626 | 165 & 170 & 173 \\ 627 | 170 & 163 & 183 \\ 628 | 173 & 168 & 183 \\ 629 | 183 & 165 & 183 \\ 630 | \hline 631 | \end{tabular} 632 | \end{center} Queremos encontrar uma solução de mínimos quadrados para o sistema linear 633 | \begin{equation} 634 | \begin{bmatrix} 635 | 1 & 155 & 165 \\ 636 | 1 & 155 & 160 \\ 637 | 1 & 170 & 173 \\ 638 | 1 & 163 & 183 \\ 639 | 1 & 168 & 183 \\ 640 | 1 & 165 & 183 \\ 641 | \end{bmatrix} 642 | \begin{bmatrix} 643 | a \\ b \\ c 644 | \end{bmatrix} = 645 | \begin{bmatrix} 646 | 152 \\ 647 | 162 \\ 648 | 165 \\ 649 | 170 \\ 650 | 173 \\ 651 | 183 \\ 652 | \end{bmatrix} \ \leftrightsquigarrow \ A \vec{x} = \vec{b}. 653 | \end{equation} Calculamos 654 | \begin{equation} 655 | A^TA = 656 | \begin{bmatrix} 657 | 1 & 1 & 1 & 1 & 1 & 1 \\ 658 | 155 & 155 & 170 & 163 & 168 & 165 \\ 659 | 165 & 160 & 173 & 183 & 183 & 183 \\ 660 | \end{bmatrix} 661 | \begin{bmatrix} 662 | 1 & 155 & 165 \\ 663 | 1 & 155 & 160 \\ 664 | 1 & 170 & 173 \\ 665 | 1 & 163 & 183 \\ 666 | 1 & 168 & 183 \\ 667 | 1 & 165 & 183 \\ 668 | \end{bmatrix} = 669 | \begin{bmatrix} 670 | 6 & 976 & 1047 \\ 671 | 976 & 158968 & 170553 \\ 672 | 1047 & 170553 & 183221 \\ 673 | \end{bmatrix} 674 | \end{equation} e 675 | \begin{equation} 676 | A^T \vec{b} = 677 | \begin{bmatrix} 678 | 1 & 1 & 1 & 1 & 1 & 1 \\ 679 | 155 & 155 & 170 & 163 & 168 & 165 \\ 680 | 165 & 160 & 173 & 183 & 183 & 183 \\ 681 | \end{bmatrix} 682 | \begin{bmatrix} 683 | 152 \\ 684 | 162 \\ 685 | 165 \\ 686 | 170 \\ 687 | 173 \\ 688 | 183 \\ 689 | \end{bmatrix} = 690 | \begin{bmatrix} 691 | 1005 \\ 692 | 163689 \\ 693 | 175803 \\ 694 | \end{bmatrix}. 695 | \end{equation} Por escalonamento, 696 | \begin{equation} 697 | \begin{bmatrix} 698 | 6 & 976 & 1047 & 1005 \\ 699 | 976 & 158968 & 170553 & 163689 \\ 700 | 1047 & 170553 & 183221 & 175803 \\ 701 | \end{bmatrix} \sim 702 | \begin{bmatrix} 703 | 1 & 0 & 0 & 2154573/145769 \\ 704 | 0 & 1 & 0 & 14475/145769 \\ 705 | 0 & 0 & 1 & 114081/145769 \\ 706 | \end{bmatrix} \implies 707 | \left\{ 708 | \begin{array}{ll} 709 | a \simeq 14.781 \\ 710 | b \simeq 0.099 \\ 711 | c \simeq 0.783 \\ 712 | \end{array} 713 | \right. 714 | \end{equation} A equação de melhor ajuste procurada é, portanto, aproximadamente, 715 | \begin{equation} 716 | z \simeq 14.781 + 0.099 x + 0.783 y. 717 | \end{equation} Tente calcular sua altura $z$ a partir da altura de sua mãe $x$ e de seu pai $y$. O teste deve funcionar melhor para mulheres! Além disso, a aproximação linear deve ser melhor utilizando mais dados nos cálculos. 718 | \begin{figure}[h!] 719 | \begin{center} 720 | \includegraphics[width=1\linewidth]{Semana13/semana13-alturas} 721 | \end{center} 722 | \end{figure} 723 | \end{ex} 724 | 725 | \section{Fatoração QR e Mínimos Quadrados} 726 | 727 | Vimos que o processo de Gram-Schmidt nos permite escrever uma matriz $A$ cujas linhas são linearmente independentes na forma $A=QR$, onde $Q$ é uma matriz ortogonal, $R$ é triangular superior invertível, e as colunas de $Q$ formam uma base ortonormal para o espaço-coluna de $A$. Chamamos esta fatoração de $A$ de fatoração QR. 728 | 729 | A fatoração QR tem uma importante aplicação na solução de problemas em mínimos quadrados. Ocorre que, em muitos problemas, a matriz $A^T A$ é uma matriz {\it mal-condicionada}, ou seja, uma matriz que é muito sensível aos erros de aproximação cometidos em cálculos numéricos usualmente executados no tratamento de problemas aplicados. 730 | Os exemplos que virão a seguir nos mostram situações em que há uma grande variação de magnitude entre as entradas da matriz $A^T A$, e isto costuma ser fonte de instabilidade numérica. 731 | 732 | Para isso, a fatoração QR oferece uma solução alternativa em mínimos quadrados para um sistema linear $A\vec{x}= \vec{b}$: 733 | se $A=QR$, então 734 | \begin{equation} 735 | A^T=R^T Q^T 736 | \ \ \mbox{ que implica em } \ \ 737 | A^T A= R^T Q^T Q R= R^T R, 738 | \end{equation} 739 | onde usamos o fato de que $Q^{-1}=Q^T$. 740 | Assim as equações normais $A^T A \vec{x} = A^T \vec{b}$ se reduzem a 741 | \begin{equation} R^T R \vec{x} = R^T Q^T \vec{b}.\end{equation} 742 | Ainda, como $R$ é invertível podemos eliminar (cancelar) $R^T$ na equação acima, %ficando com a seguinte expressão para a solução em mínimos quadrados 743 | obtendo o seguinte: 744 | \begin{teo} 745 | Se $A=QR$ com $Q$ ortogonal e $R$ triangular superior invertível, então 746 | a solução em mínimos quadrados do sistema $A\vec{x}= \vec{b}$ é única e dada pela solução do sistema 747 | \begin{equation} R \vec{x} = Q^T \vec{b}.\end{equation} 748 | \end{teo} 749 | 750 | Note que o fato de $R$ ser triangular superior torna a resolução do sistema acima pouco custosa do ponto de vista computacional. Alternativamente, temos uma expressão explícita para solução em mínimos quadrados: \begin{equation} \vec{x} = R^{-1} Q^T \vec{b}.\end{equation} 751 | 752 | É importante notar que existem algoritmos para fatoração QR que são \textit{numéricamente estáveis}, ou seja pouco suscetiveis a erros de aproximação ou arredondamento. Tais algorimos são diferentes do processo de Gram Schmidt usual. 753 | 754 | 755 | 756 | 757 | 758 | %\end{document} 759 | -------------------------------------------------------------------------------- /Semana13/semana13-alturas.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-alturas.png -------------------------------------------------------------------------------- /Semana13/semana13-idade-parabola.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-idade-parabola.ggb -------------------------------------------------------------------------------- /Semana13/semana13-idade-parabola.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-idade-parabola.png -------------------------------------------------------------------------------- /Semana13/semana13-idade.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-idade.ggb -------------------------------------------------------------------------------- /Semana13/semana13-idade.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-idade.png -------------------------------------------------------------------------------- /Semana13/semana13-proj-col.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-proj-col.ggb -------------------------------------------------------------------------------- /Semana13/semana13-proj-col.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-proj-col.png -------------------------------------------------------------------------------- /Semana13/semana13-reta.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-reta.ggb -------------------------------------------------------------------------------- /Semana13/semana13-reta.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana13/semana13-reta.png -------------------------------------------------------------------------------- /Semana13/semana13.tex: -------------------------------------------------------------------------------- 1 | % Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %\documentclass[../livro.tex]{subfiles} %%DM%%Escolher document class and options article, etc 4 | 5 | %define o diretório principal 6 | \providecommand{\dir}{..} 7 | 8 | 9 | %\begin{document} 10 | 11 | % \maketitle 12 | % \tableofcontents 13 | % 14 | % \vspace{0.5cm} 15 | 16 | \chapter{Semana 13} 17 | 18 | 19 | \section{Método dos Mínimos Quadrados} 20 | 21 | Sistemas lineares aparecem como modelos matemáticos de vários fenômenos e em várias situações. Acontece que alguns sistemas simplesmente não possuem soluções e ficamos sem saber como proceder. O \textbf{Método dos Mínimos Quadrados} é uma técnica que nos permite, de forma aproximada, retirar alguma informação desses sistemas impossíveis. A terminologia se deve ao fato de que, como veremos, este método minimiza a soma dos quadrados dos erros obtidos na aproximação. 22 | 23 | Como sabemos, resolver o sistema linear 24 | \begin{equation} 25 | A \vec{x} = \vec{b} 26 | \end{equation} consiste em encontrar um vetor $\vec{x}$ que satisfaça a esta equação. Na terminologia que construímos ao longo do curso, isto significa que $\vec{b}$ pertence ao espaço coluna da matriz $A$, isto é, $\vec{b} \in \operatorname{Col} A$. Desta forma, não é possível resolver o sistema quando $\vec{b} \not\in \operatorname{Col} A$. 27 | \begin{figure}[h!] 28 | \begin{center} 29 | \includegraphics[width=0.6\linewidth]{Semana13/semana13-proj-col.png} 30 | \end{center} 31 | \end{figure} 32 | 33 | O Método dos Mínimos Quadrados consiste em olhar para o vetor $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$ e resolver o sistema linear associado 34 | \begin{equation} 35 | A \vec{x} = \vec{p}. 36 | \end{equation} Esta solução de $A \vec{x} = \vec{p}$ é chamada de \textbf{solução de mínimos quadrados}. A ideia é (ver figura) considerar o vetor em $\operatorname{Col} A$ que é ``mais próximo'' de $\vec{b}$ e cujo sistema linear associado possua solução. Neste contexto, estamos pensando em mais próximo no sentido que 37 | \begin{equation} 38 | \| \vec{b} - \proj_{\operatorname{Col} A} \vec{b} \| \le \| \vec{b} - \vec{c} \|, \text{ para qualquer } \vec{c}\, \in \operatorname{Col} A, 39 | \end{equation} isto é, no sentido de ser a projeção a melhor aproximação de $\vec{b}$ no espaço coluna de $A$. Escrevendo os vetores em coordenadas: 40 | \begin{equation} 41 | \vec{b} = 42 | \begin{bmatrix} 43 | b_1 \\ b_2 \\ \vdots \\ b_n 44 | \end{bmatrix} \ \text{e} \ 45 | \proj_{\operatorname{Col} A} \vec{b} = 46 | \begin{bmatrix} 47 | p_1 \\ p_2 \\ \vdots \\ p_n 48 | \end{bmatrix}, 49 | \end{equation} temos que o valor 50 | \begin{equation} 51 | \| \vec{b} - \proj_{\operatorname{Col} A} \vec{b} \| = \sum_{i=1}^n (b_i - p_i)^2 52 | \end{equation} é chamado de \textbf{erro da aproximação}. Logo, como anunciado, a soma dos quadrados dos erros obtidos cada componente é o mínimo possível. 53 | 54 | 55 | \begin{ex}\label{exp:minquad1} 56 | Considere o sistema linear 57 | \begin{equation} 58 | \left\{ 59 | \begin{array}{ll} 60 | x_1 + x_2 - 2x_3 = 3 \\ 61 | x_1 - 2x_3 = 2 \\ 62 | x_2 + 2x_3 = 0 \\ 63 | x_1 + x_2 - 2x_3 = 0 64 | \end{array} 65 | \right. \ \leftrightsquigarrow \ 66 | A \vec{x} = \begin{bmatrix} 67 | 1 & 1 & -2 \\ 1 & 0 & -2 \\ 0 & 1 & 2 \\ -1 & -1 & 2 68 | \end{bmatrix} 69 | \begin{bmatrix} 70 | x_1 \\ x_2 \\ x_3 71 | \end{bmatrix} = 72 | \begin{bmatrix} 73 | 3 \\ 2 \\ 0 \\ 0 74 | \end{bmatrix} = \vec{b}. 75 | \end{equation} Este sistema é claramente impossível, pois a primeira equação é inconsistente com a última. De forma mais automática, um passo no escalonamento da matriz aumentada associada revelaria a mesma conclusão: 76 | \begin{equation} 77 | [\, A \ | \ \vec{b} \, ] = \begin{bmatrix} 78 | 1 & 1 & -2 & 3 \\ 1 & 0 & -2 & 2 \\ 0 & 1 & 2 & 0 \\ -1 & -1 & 2 & 0 79 | \end{bmatrix} \sim 80 | \begin{bmatrix} 81 | 1 & 1 & -2 & 3 \\ 1 & 0 & -2 & 2 \\ 0 & 1 & 2 & 0 \\ 0 & 0 & 0 & 3 82 | \end{bmatrix} . 83 | \end{equation} Vamos tentar encontrar, conforme descrito acima, uma solução de mínimos quadrados. Passos a serem realizados: 84 | \begin{itemize} 85 | \item Para calcular a projeção de $\vec{b}$ sobre $\operatorname{Col} A$, precisamos, em primeiro lugar, obter uma base ortogonal do espaço $\operatorname{Col} A$; isto pode ser feito pelo Processo de Gram--Schmidt; 86 | \item Calcular a projeção $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$; 87 | \item Resolver o sistema linear $A \vec{x} = \vec{p}$. 88 | \end{itemize} Embora seja possível realizar estes três passos, temos de convir que seria muito trabalhoso. Por isto, vamos analisar um pouco mais da teoria para encontrar um método mais eficaz$. \ \lhd$ 89 | \end{ex} 90 | 91 | Suponhamos que: 92 | \begin{itemize} 93 | \item $A$ é uma matriz $m \times n$, 94 | \item $\vec{x} \in \mathbb{R}^n$, 95 | \item $\vec{b} \in \mathbb{R}^m$ e 96 | \item o sistema $A \vec{x} = \vec{b}$ não possui solução. 97 | \end{itemize} A solução de mínimos quadrados é a solução de $A \vec{x} = \vec{p}$, onde $\vec{p} = \proj_{\operatorname{Col} A} \vec{b}$. Observamos, por outro lado, que, sendo $\vec{p}\,$ a projeção sobre o espaço coluna de $A$, o vetor $\vec{b} - \vec{p}\,$ deve ser ortogonal a todos os elementos de $\operatorname{Col} A$. Em particular, se escrevermos $A$ em termos de suas colunas 98 | \begin{equation} 99 | A = 100 | \begin{bmatrix} 101 | | & | & & | \\ 102 | \vec{a}_1 & \vec{a}_2 & \cdots & \vec{a}_n \\ 103 | | & | & & | 104 | \end{bmatrix}, \qquad \left( \text{que, em particular, implica } 105 | A^T = \begin{bmatrix} 106 | \text{---} & \vec{a}_1 & \text{---} \\ 107 | \text{---} & \vec{a}_2 & \text{---} \\ 108 | & \vdots & \\ 109 | \text{---} & \vec{a}_n & \text{---} 110 | \end{bmatrix}\right) 111 | \end{equation} devemos ter 112 | \begin{equation} 113 | \vec{a}_j \cdot \big(\vec{b} - \vec{p}\big) = 0, \text{ para todo } j \ \ \iff \ \ 114 | A^T (\vec{b} - \vec{p}) = \vec{0} \ \ \iff \ \ A^T \vec{b} = A^T \vec{p} = A^T A\vec{x}. 115 | \end{equation} Esta última linha é válida porque o produto escalar $\vec{a}_j \cdot \big(\vec{b} - \vec{p}\big)$ é justamente a entrada $j$ do vetor obtido ao multiplicar $A^T(\vec{b} - \vec{p})$. 116 | 117 | Concluímos, desta forma, que, se $\vec{x}$ é uma solução de mínimos quadrados, ou seja, se $A \vec{x} = \vec{p}$, então necessariamente 118 | \begin{equation}\label{minquad} 119 | \boxed{A^T A\vec{x} = A^T \vec{b}.} 120 | \end{equation} 121 | 122 | \begin{exer}[Teórico] 123 | Justifique que o conjunto de soluções do sistema \eqref{minquad} coincide com o conjunto das soluções de mínimos quadrados do sistema $A \vec{x} = \vec{b}$. 124 | \end{exer} 125 | 126 | Tudo isto implica que podemos utilizar a equação \eqref{minquad} para encontrar as soluções de mínimos quadrados de $A \vec{x} = \vec{b}$. 127 | 128 | \begin{ex}[De volta ao Exemplo \ref{exp:minquad1}]\label{exp:minquad2} 129 | Calculamos 130 | \begin{equation} 131 | A^T A = 132 | \begin{bmatrix} 133 | 1 & 1 & 0 & -1 \\ 1 & 0 & 1 & -1 \\ -2 & -2 & 2 & 2 134 | \end{bmatrix} 135 | \begin{bmatrix} 136 | 1 & 1 & -2 \\ 1 & 0 & -2 \\ 0 & 1 & 2 \\ -1 & -1 & 2 137 | \end{bmatrix} = 138 | \begin{bmatrix} 139 | 3 & 2 & -6 \\ 2 & 3 & -2 \\ -6 & -2 & 16 140 | \end{bmatrix} 141 | \end{equation} e 142 | \begin{equation} 143 | A^T \vec{b} = 144 | \begin{bmatrix} 145 | 1 & 1 & 0 & -1 \\ 1 & 0 & 1 & -1 \\ -2 & -2 & 2 & 2 146 | \end{bmatrix} 147 | \begin{bmatrix} 148 | 3 \\ 2 \\ 0 \\ 0 149 | \end{bmatrix} = 150 | \begin{bmatrix} 151 | 5 \\ 3 \\ -10 152 | \end{bmatrix} 153 | \end{equation} Para resolvermos o sistema $A^TA\vec{x} = A^T\vec{b}$, vamos escalonar a matriz aumentada associada: 154 | \begin{equation} 155 | \begin{bmatrix} 156 | 3 & 2 & -6 & 5 \\ 157 | 2 & 3 & -2 & 3 \\ 158 | -6 & -2 & 16 & -10 159 | \end{bmatrix} \sim 160 | \begin{bmatrix} 161 | 3 & 2 & -6 & 5 \\ 162 | 0 & 5 & 6 & -1 \\ 163 | 0 & 2 & 4 & 0 164 | \end{bmatrix} \sim 165 | \begin{bmatrix} 166 | 3 & 2 & -6 & 5 \\ 167 | 0 & 5 & 6 & -1 \\ 168 | 0 & 0 & 4 & 1 169 | \end{bmatrix} 170 | \end{equation} Logo, 171 | \begin{equation} 172 | \left\{ 173 | \begin{array}{ll} 174 | 3 x_1 + 2 x_2 - 6 x_3 = 5 \\ 175 | 5x_2 + 6 x_3 = -1 \\ 176 | 4x_3 = 1 177 | \end{array} 178 | \right.. 179 | \end{equation} Assim, 180 | \begin{equation} 181 | x_3 = \frac{1}{4} \implies 5x_2 + 6 \cdot \frac{1}{4} = -1 \implies x_2 = -\frac{1}{2} \implies 3 x_1 - 1 - \frac{3}{2} = 5 \implies x_1 = \frac{3}{2}. 182 | \end{equation} Portanto, uma solução de mínimos quadrados é 183 | \begin{equation} 184 | \begin{bmatrix} 185 | x_1 \\ x_2 \\ x_3 186 | \end{bmatrix} = 187 | \begin{bmatrix} 188 | 3/2 \\ -1/2 \\ 1/4 189 | \end{bmatrix}. 190 | \end{equation} Observe como isto é muito menos trabalhoso do que o método que havíamos esquematizado quando discutimos este sistema no Exemplo \ref{exp:minquad1}$. \ \lhd$ 191 | \end{ex} 192 | 193 | \begin{exer} 194 | Colocar em prática o método discutido no Exemplo \ref{exp:minquad1} e comparar o resultado com o que obtivemos no Exemplo \ref{exp:minquad2}. 195 | \end{exer} 196 | 197 | \begin{obs} 198 | Caso a matriz $A$ já seja uma matriz ortogonal, podemos calcular projeções diretamente, pois uma base ortogonal para $\operatorname{Col} A$ já esté disponível desde o começo. Neste caso, ambos os métodos exigiriam um trabalho parecido. 199 | \end{obs} 200 | 201 | Nossa aproximação linear foi encontrada de modo a minimizar o erro quadrático. Para encontrar o erro, deveríamos calcular 202 | \begin{equation} 203 | \| \vec{b} - \proj_{\vec{\operatorname{Col} A}} \vec{b} \|. 204 | \end{equation} No entanto, resolvemos de outra maneira e não calculamos a projeção. Observando que a solução de mínimos quadrados satisfaz $A \vec{x} = \proj_{\vec{\operatorname{Col} A}} \vec{b}$, podemos calcular o erro por 205 | \begin{equation} 206 | \text{erro } = \| \vec{b} - A \vec{x} \|, 207 | \end{equation} onde $\vec{x}$ é a solução de mínimos quadrados. 208 | 209 | No Exemplo \ref{exp:minquad2} acima, podemos calcular o erro desta forma. De fato, 210 | \begin{equation} 211 | A \vec{x} = 212 | \begin{bmatrix} 213 | 1 & 1 & -2 \\ 214 | 1 & 0 & -2 \\ 215 | 0 & 1 & 2 \\ 216 | -1 & -1& 2 217 | \end{bmatrix} 218 | \begin{bmatrix} 219 | 3/2 \\ -1/2 \\ 1/4 220 | \end{bmatrix} = 221 | \begin{bmatrix} 222 | 1/2 \\ 1 \\ 0 \\ -1/2 223 | \end{bmatrix} \implies 224 | \vec{b} - A\vec{x} = 225 | \begin{bmatrix} 226 | 5/2 \\ 1 \\ 0 \\ 1/2 227 | \end{bmatrix} 228 | \end{equation} 229 | \begin{equation} 230 | \implies \text{erro } = \| \vec{b} - A \vec{x} \| = \sqrt{\frac{25}{4} + 1 + \frac{1}{4}} = \frac{\sqrt{30}}{2}. 231 | \end{equation} 232 | 233 | \subsection*{Exercícios resolvidos} 234 | 235 | \construirExeresol 236 | 237 | \subsection*{Exercícios} 238 | 239 | \construirExer 240 | 241 | \section{Fatoração QR e Mínimos Quadrados} 242 | 243 | Vimos que o processo de Gram-Schmidt nos permite escrever uma matriz $A$ cujas linhas são linearmente independentes na forma $A=QR$, onde Q é uma matriz ortogonal, $R$ é triangular superior invertível, e as colunas de $Q$ formam uma base ortonormal para o espaço-coluna de $A$. Chamamos esta fatoração de $A$ de fatoração QR. 244 | 245 | A fatoração QR tem uma importante aplicação na solução de problemas em mínimos quadrados. Ocorre que, em muitos problemas, a matriz $A^T A$ é uma matriz {\it mal-condicionada}, ou seja uma matriz que é muito sensível aos erros de aproximação cometidos em cálculos numéricos usualmente executados no tratamento de problemas aplicados. 246 | Os exemplos que virão a seguir nos mostram situações em que há uma grande variação de magnitude entre as entradas da matriz $A^T A$, e isto costuma ser fonte de instabilidade numérica. 247 | 248 | Para isso, a fatoração $QR$ oferece uma solução alternativa em mínimos quadrados para um sistema linear $Ax=b$: 249 | Se $A=QR$, então 250 | \begin{equation} 251 | A^T=R^T Q^T\end{equation} 252 | % \;\; \mbox{e} 253 | e 254 | \begin{equation} A^T A= R^T Q^T Q R= R^T R, 255 | \end{equation} 256 | onde usamos o fato de que $Q^{-1}=Q^T$. 257 | Assim as equações normais $A^T A \vec{x} = A^T \vec{b}$ se reduzem a 258 | \begin{equation} R^T R \vec{x} = R^T Q^T \vec{b}.\end{equation} 259 | Ainda, como $R$ é invertível podemos eliminar (cancelar) $R^T$ na equação acima, %ficando com a seguinte expressão para a solução em mínimos quadrados 260 | obtendo o seguinte: 261 | \begin{teo} 262 | Se $A=QR$ com $Q$ ortogonal e $R$ triangular superior invertível, então 263 | a solução em mínimos quadrados do sistema $Ax=b$ é única e dada pela solução do sistema 264 | \begin{equation} R \vec{x} = Q^T \vec{b}.\end{equation} 265 | \end{teo} 266 | 267 | Note que o fato de $R$ ser triangular superior torna a resolução do sistema acima pouco custosa do ponto de vista computacional. 268 | 269 | Alternativamente temos uma expressão explícita para solução em mínimos quadrados: \begin{equation} \vec{x} = R^{-1} Q^T \vec{b}.\end{equation} 270 | 271 | É importante notar que existem algoritmos para fatoração QR que são \it{numéricamente estáveis}, ou seja pouco suscetíveis a erros de aproximação ou arredondamento. Tais algoritmos são diferentes do processo de Gram Schmidt usual. 272 | 273 | \subsection*{Exercícios resolvidos} 274 | 275 | \construirExeresol 276 | 277 | \subsection*{Exercícios} 278 | 279 | \construirExer 280 | 281 | \section{Regressão Linear Simples} 282 | 283 | Vamos apresentar uma aplicação de algumas das técnicas da seção anterior à Estatística ou Econometria. Uma \textbf{regressão linear simples} é uma equação, tipicamente da forma 284 | \begin{equation} 285 | y = a + b x, 286 | \end{equation} para estimar os valores $(x,y)$ apenas conhecendo alguns valores específicos $(x_1, y_1), (x_2, y_2), \dots,$ $(x_k, y_k)$. A ideia é tentar capturar como que mudanças na variável independente $x$ afetam a variável dependente $y$. 287 | 288 | \begin{ex}\footnote{Exemplo adaptado de \url{https://onlinecourses.science.psu.edu/stat501/node/257}}\label{exp:idade} 289 | Com o intuito de analisar se é razoável supor que há um relação linear entre a idade de um motorista e quão longe ele consegue ver, uma empresa (Last Resource, Inc., Bellefonte, PA) coletou dados de 30 motoristas. Para simplificar as nossas contas, vamos listar abaixo \textit{apenas alguns} destes dados. 290 | \begin{center} 291 | \begin{tabular}{|c|c|} 292 | \hline 293 | % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... 294 | Idade & Distância (em $m$) \\ \hline 295 | 20 & 590 \\ 296 | 32 & 410 \\ 297 | 41 & 460 \\ 298 | 49 & 380 \\ 299 | 66 & 350 \\ 300 | \hline 301 | \end{tabular} 302 | \end{center} Podemos pensar em $y$ como a distância e em $x$ como a idade. Gostaríamos de achar uma relação linear da forma 303 | \begin{equation} 304 | y = a + b x. 305 | \end{equation} Desta forma, os dados obtidos implicam que 306 | \begin{equation} 307 | \left\{ 308 | \begin{array}{ll} 309 | b + 20 a = 590 \\ 310 | b + 32 a = 410 \\ 311 | b + 41 a = 460 \\ 312 | b + 49 a = 380 \\ 313 | b + 66 a = 350 314 | \end{array} 315 | \right. \ \ \leftrightsquigarrow \ \ 316 | \begin{bmatrix} 317 | 1 & 20 \\ 318 | 1 & 32 \\ 319 | 1 & 41 \\ 320 | 1 & 49 \\ 321 | 1 & 66 \\ 322 | \end{bmatrix} 323 | \begin{bmatrix} 324 | a \\ b 325 | \end{bmatrix} = 326 | \begin{bmatrix} 327 | 590 \\ 410 \\ 460 \\ 380 \\ 350 328 | \end{bmatrix} 329 | \end{equation} Ora, dificilmente um sistema linear com duas incógnitas e cinco equações terá solução (só terá solução se todos os pontos do conjunto de dados estiverem alinhados em uma reta perfeita!). Vamos procurar por uma solução de mínimos quadrados. Isto é \textbf{regressão linear simples}. 330 | 331 | Denotando 332 | \begin{equation} 333 | A = 334 | \begin{bmatrix} 335 | 1 & 20 \\ 336 | 1 & 32 \\ 337 | 1 & 41 \\ 338 | 1 & 49 \\ 339 | 1 & 66 \\ 340 | \end{bmatrix} \quad \text{e} \quad 341 | \vec{b} = 342 | \begin{bmatrix} 343 | 590 \\ 410 \\ 460 \\ 380 \\ 350 344 | \end{bmatrix} 345 | \end{equation} precisamos calcular 346 | \begin{equation} 347 | A^T A = 348 | \begin{bmatrix} 349 | 1 & 1 & 1 & 1 & 1 \\ 350 | 20 & 32 & 41 & 49 & 66 351 | \end{bmatrix} 352 | \begin{bmatrix} 353 | 1 & 20 \\ 354 | 1 & 32 \\ 355 | 1 & 41 \\ 356 | 1 & 49 \\ 357 | 1 & 66 \\ 358 | \end{bmatrix} = 359 | \begin{bmatrix} 360 | 5 & 208 \\ 361 | 208 & 9832 \\ 362 | \end{bmatrix} 363 | \end{equation} e 364 | \begin{equation} 365 | A^T \vec{b} = 366 | \begin{bmatrix} 367 | 1 & 1 & 1 & 1 & 1 \\ 368 | 20 & 32 & 41 & 49 & 66 369 | \end{bmatrix} 370 | \begin{bmatrix} 371 | 590 \\ 410 \\ 460 \\ 380 \\ 350 372 | \end{bmatrix} = 373 | \begin{bmatrix} 374 | 2190 \\ 85500 375 | \end{bmatrix}. 376 | \end{equation} Em seguida, a matriz associada aumentada pode ser reduzida por escalonamento: 377 | \begin{equation} 378 | [\, A^TA \ | \ \vec{b} \, ] = 379 | \begin{bmatrix} 380 | 5 & 208 & 2190 \\ 381 | 208 & 9832 & 85500 \\ 382 | \end{bmatrix} \sim 383 | \begin{bmatrix} 384 | 1 & 0 & 468510/737 \\ 385 | 0 & 1 & -7005/1474 \\ 386 | \end{bmatrix} \implies 387 | \left\{ 388 | \begin{array}{ll} 389 | a \simeq 635.7 \\ 390 | b \simeq -4.75 391 | \end{array} 392 | \right.. 393 | \end{equation} Os números são feios, mas as contas feitas foram as que sempre fizemos ao escalonar uma matriz até sua forma escalonada reduzida. 394 | 395 | A conclusão é que a reta de mínimos quadrados que melhor aproxima os nossos dados é a reta 396 | \begin{equation} 397 | y = a + b x = 635.7 - 4.75 x. 398 | \end{equation} O erro de mínimos quadrados nesta aproximação (ou norma do resíduo) pode ser calculado como 399 | \begin{equation} 400 | A \vec{x} = \begin{bmatrix} 401 | 1 & 20 \\ 402 | 1 & 32 \\ 403 | 1 & 41 \\ 404 | 1 & 49 \\ 405 | 1 & 66 \\ 406 | \end{bmatrix} 407 | \begin{bmatrix} 408 | 635.7 \\ 409 | -4.75 \\ 410 | \end{bmatrix} \simeq 411 | \begin{bmatrix} 412 | 540.7 \\ 413 | 483.7 \\ 414 | 440.95 \\ 415 | 402.95 \\ 416 | 322.2 \\ 417 | \end{bmatrix} \simeq \proj_{\operatorname{Col} A} \vec{b} \implies \text{ erro } = \| \vec{b} - A\vec{x} \| \simeq 97.6 418 | \end{equation} Na figura abaixo, mostramos um esboço da reta que melhor aproxima os dados deste exemplo$. \ \lhd$ 419 | \begin{figure}[h!] 420 | \begin{center} 421 | \includegraphics[width=1\linewidth]{Semana13/semana13-idade.png} 422 | \end{center} 423 | \end{figure} 424 | \end{ex} 425 | 426 | 427 | 428 | De uma maneira geral, para encontrar uma \textbf{reta de melhor ajuste} a uma quantidade de pontos (dados coletados de algum problema) 429 | \begin{equation} 430 | (x_1, y_1), \ (x_2, y_2), \ \dots, (x_k, y_k), 431 | \end{equation} devemos procurar pela solução $(a,b)$ de mínimos quadrados do sistema linear 432 | \begin{equation} 433 | \left\{ 434 | \begin{array}{rl} 435 | a + b x_1 &\!\!\!\!\!= y_1 \\ 436 | a + b x_2 &\!\!\!\!\!= y_2 \\ 437 | \vdots & \\ 438 | a + b x_k &\!\!\!\!\!= y_k \\ 439 | \end{array} 440 | \right. \quad \leftrightsquigarrow \quad 441 | \begin{bmatrix} 442 | 1 & x_1 \\ 443 | 1 & x_2 \\ 444 | \vdots & \vdots \\ 445 | 1 & x_k \\ 446 | \end{bmatrix} 447 | \begin{bmatrix} 448 | a \\ b 449 | \end{bmatrix} = 450 | \begin{bmatrix} 451 | y_1 \\ y_2 \\ \vdots \\ y_k 452 | \end{bmatrix}. 453 | \end{equation} Vejamos um outro exemplo: 454 | 455 | \begin{ex} 456 | Encontrar a reta que melhor se ajusta aos pontos do plano 457 | \begin{equation} 458 | (1,2), \ \ (2,3), \ \ (2,4), \ \ (3,2), \ \ (4,3), \ \ (4,4), \ \ (5,3), \ \ (5,5), \ \ (6,4). 459 | \end{equation} Como vimos acima, podemos considerar 460 | \begin{equation} 461 | A = 462 | \begin{bmatrix} 463 | 1 & 1 \\ 464 | 1 & 2 \\ 465 | 1 & 2 \\ 466 | 1 & 3 \\ 467 | 1 & 4 \\ 468 | 1 & 4 \\ 469 | 1 & 5 \\ 470 | 1 & 5 \\ 471 | 1 & 6 \\ 472 | \end{bmatrix} \ \ \text{e} \ \ 473 | \vec{b} = 474 | \begin{bmatrix} 475 | 2\\3\\4\\2\\3\\4\\3\\5\\4 476 | \end{bmatrix} 477 | \end{equation} Assim, 478 | \begin{equation} 479 | A^T A = 480 | \begin{bmatrix} 481 | 9 & 32 \\ 482 | 32 & 136 483 | \end{bmatrix} \ \ \text{e} \ \ 484 | A^T \vec{b} = 485 | \begin{bmatrix} 486 | 30\\114 487 | \end{bmatrix}. 488 | \end{equation} A solução de mínimos quadrados, que é a solução de $A^T A \vec{x} = A^T\vec{b}$, é dada por 489 | \begin{equation} 490 | b = 54/25 = 2.16, \\ a = 33/100 = 0.33. 491 | \end{equation} A reta procurada é portanto $y = 0.33 x + 2.16$. 492 | \begin{figure}[h!] 493 | \begin{center} 494 | \includegraphics[width=0.5\linewidth]{Semana13/semana13-reta.png} 495 | \end{center} 496 | \end{figure} 497 | \end{ex} 498 | 499 | \subsection*{Exercícios resolvidos} 500 | 501 | \construirExeresol 502 | 503 | \subsection*{Exercícios} 504 | 505 | \construirExer 506 | 507 | \section{Regressão por funções quadráticas} 508 | 509 | 510 | Podemos também procurar (em contraste com a seção anterior) por funções não lineares que se ajustem a um conjunto de pontos. Por exemplo, dado um certo conjunto de pontos 511 | \begin{equation} 512 | (x_1, y_1), \ (x_2, y_2), \ \dots, (x_k, y_k), 513 | \end{equation} vamos procurar por uma parábola 514 | \begin{equation} 515 | y = a + bx + cx^2 516 | \end{equation} que melhor se ajuste a este conjunto de pontos, no sentido de que a soma dos quadrados dos erros seja a menor possível. Isto corresponde a procurar pela solução $(a,b, c)$ de mínimos quadrados do seguinte sistema linear 517 | \begin{equation} 518 | \left\{ 519 | \begin{array}{rl} 520 | a + b x_1 + c x_1^2 &\!\!\!\!\!= y_1 \\ 521 | a + b x_2 + c x_2^2 &\!\!\!\!\!= y_2 \\ 522 | \vdots & \\ 523 | a + b x_k + c x_k^2 &\!\!\!\!\!= y_k \\ 524 | \end{array} 525 | \right. \quad \leftrightsquigarrow \quad 526 | \begin{bmatrix} 527 | 1 & x_1 & x_1^2 \\ 528 | 1 & x_2 & x_2^2 \\ 529 | \vdots & \vdots \\ 530 | 1 & x_k & x_k^2 \\ 531 | \end{bmatrix} 532 | \begin{bmatrix} 533 | a \\ b \\ c 534 | \end{bmatrix} = 535 | \begin{bmatrix} 536 | y_1 \\ y_2 \\ \vdots \\ y_k 537 | \end{bmatrix}. 538 | \end{equation} Vejamos como ficaria a parábola que se ajusta aos dados do Exemplo \ref{exp:idade}: 539 | 540 | \begin{ex} 541 | Nossos pontos no Exemplo \ref{exp:idade} são 542 | \begin{equation} 543 | (20, 590), \ (32, 410), \ (41, 460), \ (49, 380), \ (66, 350). 544 | \end{equation} Para encontrar a parábola de melhor ajuste como acima, devemos procurar pela solução de mínimos quadrados do sistema 545 | \begin{equation} 546 | \begin{bmatrix} 547 | 1 & 20 & 400 \\ 548 | 1 & 32 & 1024 \\ 549 | 1 & 41 & 1681 \\ 550 | 1 & 49 & 2401 \\ 551 | 1 & 66 & 4356 \\ 552 | \end{bmatrix} 553 | \begin{bmatrix} 554 | a \\ b \\ c 555 | \end{bmatrix} = 556 | \begin{bmatrix} 557 | 590 \\ 410 \\ 460 \\ 380 \\ 350 558 | \end{bmatrix} \ \leftrightsquigarrow \ A \vec{x} = \vec{b}. 559 | \end{equation} Calculamos (com o auxílio de uma calculadora) 560 | \begin{equation} 561 | A^T A = 562 | \begin{bmatrix} 563 | 1 & 1 & 1 & 1 & 1 \\ 564 | 20 & 32 & 41 & 49 & 66 \\ 565 | 400 & 1024 & 1681 & 2401 & 4356 \\ 566 | \end{bmatrix} 567 | \begin{bmatrix} 568 | 1 & 20 & 400 \\ 569 | 1 & 32 & 1024 \\ 570 | 1 & 41 & 1681 \\ 571 | 1 & 49 & 2401 \\ 572 | 1 & 66 & 4356 \\ 573 | \end{bmatrix} = 574 | \begin{bmatrix} 575 | 5 & 208 & 9862 \\ 576 | 208 & 9862 & 514834 \\ 577 | 9862 & 514834 & 28773874 \\ 578 | \end{bmatrix}, 579 | \end{equation} 580 | \begin{equation} 581 | A^T A = 582 | \begin{bmatrix} 583 | 1 & 1 & 1 & 1 & 1 \\ 584 | 20 & 32 & 41 & 49 & 66 \\ 585 | 400 & 1024 & 1681 & 2401 & 4356 \\ 586 | \end{bmatrix} 587 | \begin{bmatrix} 588 | 590 \\ 410 \\ 460 \\ 380 \\ 350 589 | \end{bmatrix} = 590 | \begin{bmatrix} 591 | 2190 \\ 85500 \\ 3866080 592 | \end{bmatrix} 593 | \end{equation} e resolvemos (escalonando, por exemplo, com o auxílio de um computador) 594 | \begin{equation} 595 | \begin{bmatrix} 596 | 5 & 208 & 9862 & 2190 \\ 597 | 208 & 9862 & 514834 & 85500 \\ 598 | 9862 & 514834 & 28773874 & 3866080 \\ 599 | \end{bmatrix} \sim 600 | \begin{bmatrix} 601 | 1 & 0 & 0 & 28482529840/35036713 \\ 602 | 0 & 1 & 0 & -1505841055/105110139 \\ 603 | 0 & 0 & 1 & 11779375/105110139 \\ 604 | \end{bmatrix}. 605 | \end{equation} Logo, aproximando estas frações, obtemos 606 | \begin{equation} 607 | \left\{ 608 | \begin{array}{ll} 609 | a \simeq 812.934 \\ 610 | b \simeq -14.326 \\ 611 | c \simeq 0.112 \\ 612 | \end{array} 613 | \right. 614 | \end{equation} e a parábola desejada é, aproximadamente 615 | \begin{equation} 616 | y = 812.934 - 14.326 x + 0.112 x^2. 617 | \end{equation} 618 | \begin{figure}[h!] 619 | \begin{center} 620 | \includegraphics[width=1\linewidth]{Semana13/semana13-idade-parabola.png} 621 | \end{center} 622 | \end{figure} 623 | 624 | \noindent Observamos que, apesar de o erro quadrático ser provavelmente menor, esta parábola se torna crescente a partir de um certo momento, fazendo com que o modelo não seja tão razoável para idades maiores. Por exemplo, é pouco provável que (na média), pessoas com 95 anos vejam a uma distância maior do que pessoas de 65 anos, como sugere a parábola acima. 625 | \end{ex} 626 | 627 | 628 | \subsection*{Exercícios resolvidos} 629 | 630 | \construirExeresol 631 | 632 | \subsection*{Exercícios} 633 | 634 | \construirExer 635 | 636 | \section{Regressão linear múltipla} 637 | 638 | Uma \textbf{regressão linear múltipla} é o problema análogo à regressão linear simples no caso em que a variável dependente pode depender de mais fatores independentes. Tipicamente, queremos encontrar uma equação afim que melhor se ajusta a alguns dados conhecidos. 639 | 640 | No caso especial em que $y$ depende de apenas outros dois fatores, escreveremos 641 | \begin{equation} 642 | z = a + b x + c y, 643 | \end{equation} que, geometricamente, representa um plano no espaço tridimensional $\mathbb{R}^3$. Seja agora uma conjunto de dados: 644 | \begin{equation} 645 | (x_1, y_1, z_1), \ (x_1, y_1, z_1), \dots, (x_k, y_k, z_k). 646 | \end{equation} Queremos encontrar coeficientes $(a,b,c)$ que satisfaçam: 647 | \begin{equation} 648 | \left\{ 649 | \begin{array}{c} 650 | a + b x_1 + c y_1 = z_1 \\ 651 | a + b x_2 + c y_2 = z_2 \\ 652 | \vdots \\ 653 | a + b x_k + c y_k = z_k \\ 654 | \end{array} 655 | \right. \quad \leftrightsquigarrow \quad 656 | \begin{bmatrix} 657 | 1 & x_1 & y_1 \\ 658 | 1 & x_2 & y_2 \\ 659 | \vdots & \vdots & \vdots \\ 660 | 1 & x_k & y_k \\ 661 | \end{bmatrix} 662 | \begin{bmatrix} 663 | a \\ b \\ c 664 | \end{bmatrix} = 665 | \begin{bmatrix} 666 | z_1 \\ z_2 \\ \vdots \\ z_k 667 | \end{bmatrix}. 668 | \end{equation} Quanto maior o número de dados, mais provável de o sistema ser impossível (podemos fazer a analogia geométrica de que por três pontos não colineares no espaço passa um único plano; se aumentarmos o número de pontos, mais difícil que haja um plano contendo todos eles). Por isto, procuramos por uma solução de mínimos quadrados. 669 | 670 | 671 | 672 | \begin{ex} 673 | Uma pesquisa com $214$ mulheres na em uma universidade americana\footnote{Referência: \url{https://onlinecourses.science.psu.edu/stat501/node/292}} coletou informações sobre a altura das participantes, assim como a altura de seus pais. Abaixo, listamos \textit{apenas alguns destes dados}, para que nossas contas não fiquem tão extensas. Fizemos também uma mudança de unidades nas alturas (de polegadas) para centímetros, 674 | \begin{center} 675 | \begin{tabular}{|c|c|c|} 676 | \hline 677 | % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... 678 | Altura & Altura Mãe & Altura Pai \\ \hline 679 | 152 & 155 & 165 \\ 680 | 162 & 155 & 160 \\ 681 | 165 & 170 & 173 \\ 682 | 170 & 163 & 183 \\ 683 | 173 & 168 & 183 \\ 684 | 183 & 165 & 183 \\ 685 | \hline 686 | \end{tabular} 687 | \end{center} Queremos encontrar uma solução de mínimos quadrados para o sistema linear 688 | \begin{equation} 689 | \begin{bmatrix} 690 | 1 & 155 & 165 \\ 691 | 1 & 155 & 160 \\ 692 | 1 & 170 & 173 \\ 693 | 1 & 163 & 183 \\ 694 | 1 & 168 & 183 \\ 695 | 1 & 165 & 183 \\ 696 | \end{bmatrix} 697 | \begin{bmatrix} 698 | a \\ b \\ c 699 | \end{bmatrix} = 700 | \begin{bmatrix} 701 | 152 \\ 702 | 162 \\ 703 | 165 \\ 704 | 170 \\ 705 | 173 \\ 706 | 183 \\ 707 | \end{bmatrix} \ \leftrightsquigarrow \ A \vec{x} = \vec{b}. 708 | \end{equation} Calculamos 709 | \begin{equation} 710 | A^TA = 711 | \begin{bmatrix} 712 | 1 & 1 & 1 & 1 & 1 & 1 \\ 713 | 155 & 155 & 170 & 163 & 168 & 165 \\ 714 | 165 & 160 & 173 & 183 & 183 & 183 \\ 715 | \end{bmatrix} 716 | \begin{bmatrix} 717 | 1 & 155 & 165 \\ 718 | 1 & 155 & 160 \\ 719 | 1 & 170 & 173 \\ 720 | 1 & 163 & 183 \\ 721 | 1 & 168 & 183 \\ 722 | 1 & 165 & 183 \\ 723 | \end{bmatrix} = 724 | \begin{bmatrix} 725 | 6 & 976 & 1047 \\ 726 | 976 & 158968 & 170553 \\ 727 | 1047 & 170553 & 183221 \\ 728 | \end{bmatrix} 729 | \end{equation} e 730 | \begin{equation} 731 | A^T \vec{b} = 732 | \begin{bmatrix} 733 | 1 & 1 & 1 & 1 & 1 & 1 \\ 734 | 155 & 155 & 170 & 163 & 168 & 165 \\ 735 | 165 & 160 & 173 & 183 & 183 & 183 \\ 736 | \end{bmatrix} 737 | \begin{bmatrix} 738 | 152 \\ 739 | 162 \\ 740 | 165 \\ 741 | 170 \\ 742 | 173 \\ 743 | 183 \\ 744 | \end{bmatrix} = 745 | \begin{bmatrix} 746 | 1005 \\ 747 | 163689 \\ 748 | 175803 \\ 749 | \end{bmatrix}. 750 | \end{equation} Por escalonamento, 751 | \begin{equation} 752 | \begin{bmatrix} 753 | 6 & 976 & 1047 & 1005 \\ 754 | 976 & 158968 & 170553 & 163689 \\ 755 | 1047 & 170553 & 183221 & 175803 \\ 756 | \end{bmatrix} \sim 757 | \begin{bmatrix} 758 | 1 & 0 & 0 & 2154573/145769 \\ 759 | 0 & 1 & 0 & 14475/145769 \\ 760 | 0 & 0 & 1 & 114081/145769 \\ 761 | \end{bmatrix} \implies 762 | \left\{ 763 | \begin{array}{ll} 764 | a \simeq 14.781 \\ 765 | b \simeq 0.099 \\ 766 | c \simeq 0.783 \\ 767 | \end{array} 768 | \right. 769 | \end{equation} A equação de melhor ajuste procurada é, portanto, aproximadamente, 770 | \begin{equation} 771 | z \simeq 14.781 + 0.099 x + 0.783 y. 772 | \end{equation} Tente calcular sua altura $z$ a partir da altura de sua mãe $x$ e de seu pai $y$. O teste deve funcionar melhor para mulheres! 773 | \begin{figure}[h!] 774 | \begin{center} 775 | \includegraphics[width=1\linewidth]{Semana13/semana13-alturas.png} 776 | \end{center} 777 | \end{figure} 778 | \end{ex} 779 | 780 | 781 | \subsection*{Exercícios resolvidos} 782 | 783 | \construirExeresol 784 | 785 | \subsection*{Exercícios} 786 | 787 | \construirExer 788 | 789 | \section{Exercícios finais} 790 | 791 | \construirExer 792 | 793 | %\end{document} 794 | -------------------------------------------------------------------------------- /Semana14-15/README.md: -------------------------------------------------------------------------------- 1 | # AlgebraLinear/Semana13 2 | 3 | Subdiretório com o material referente ao capítulo "Semana 14" do livro "Álgebra Linear - Um Livro Colaborativo". 4 | 5 | ## Contato 6 | 7 | 8 | 9 | ## Licença 10 | 11 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. -------------------------------------------------------------------------------- /Semana14-15/semana14-15.pdf: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-15.pdf -------------------------------------------------------------------------------- /Semana14-15/semana14-circulo.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-circulo.png -------------------------------------------------------------------------------- /Semana14-15/semana14-conicas.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-conicas.ggb -------------------------------------------------------------------------------- /Semana14-15/semana14-conicas2.ggb: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-conicas2.ggb -------------------------------------------------------------------------------- /Semana14-15/semana14-conicas2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-conicas2.png -------------------------------------------------------------------------------- /Semana14-15/semana14-elipse.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-elipse.png -------------------------------------------------------------------------------- /Semana14-15/semana14-hiperbole.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/Semana14-15/semana14-hiperbole.png -------------------------------------------------------------------------------- /colaboradores.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 4 | % 5 | % ATENÇÃO 6 | % 7 | %POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO 8 | % 9 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 10 | 11 | \chapter*{Colaboradores} 12 | \addcontentsline{toc}{chapter}{Colaboradores} 13 | 14 | Este material é fruto da escrita colaborativa. Veja a lista de colaboradores em: 15 | \begin{center} 16 | \url{https://github.com/reamat/AlgebraLinear/graphs/contributors} 17 | \end{center} 18 | 19 | Para saber mais como participar, visite o site oficial do projeto: 20 | \begin{center} 21 | \url{https://www.ufrgs.br/reamat/AlgebraLinear} 22 | \end{center} 23 | ou comece agora mesmo visitando nosso repositório GitHub: 24 | \begin{center} 25 | \url{https://github.com/reamat/AlgebraLinear} 26 | \end{center} 27 | -------------------------------------------------------------------------------- /config-book.knd: -------------------------------------------------------------------------------- 1 | \isbooktrue \ishtmlfalse -------------------------------------------------------------------------------- /config-html.knd: -------------------------------------------------------------------------------- 1 | \isbookfalse \ishtmltrue -------------------------------------------------------------------------------- /config-pdf.knd: -------------------------------------------------------------------------------- 1 | \isbooktrue \ishtmlfalse -------------------------------------------------------------------------------- /config.knd: -------------------------------------------------------------------------------- 1 | \isbooktrue \ishtmlfalse -------------------------------------------------------------------------------- /licenca.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | \chapter*{Licença} 4 | \addcontentsline{toc}{chapter}{Licença} 5 | 6 | Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite \url{https://creativecommons.org/licenses/by-sa/3.0/} ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 7 | -------------------------------------------------------------------------------- /livro.synctex.gz: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/reamat/AlgebraLinear/1a222378d9a723089ff0f5547e80b463546cad27/livro.synctex.gz -------------------------------------------------------------------------------- /livro.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 4 | % ATENÇÃO 5 | % 6 | % POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO 7 | % 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | 10 | \documentclass[12pt]{book} 11 | 12 | \input preambulo.tex 13 | 14 | \makeindex 15 | 16 | \begin{document} 17 | 18 | \frontmatter 19 | 20 | \title{Álgebra Linear\\\small{Um Livro Colaborativo}} 21 | \author{} 22 | \date{\today} 23 | \ifisbook 24 | \else 25 | \addcontentsline{toc}{chapter}{Capa} 26 | \fi 27 | 28 | \maketitle 29 | 30 | \include{organizadores} 31 | \include{colaboradores} 32 | \include{licenca} 33 | \include{nota_organizadores} 34 | \include{prefacio} 35 | 36 | \ifisbook 37 | \tableofcontents 38 | \addcontentsline{toc}{chapter}{Sumário} 39 | \fi 40 | 41 | \mainmatter 42 | 43 | \include{Semana01/semana01} 44 | \include{Semana02/semana02} 45 | \include{Semana03/semana03} 46 | \include{Semana04/semana04} 47 | \include{Semana05/semana05} 48 | \include{Semana06-07/semana06-07} 49 | 50 | \include{Semana09/semana09} 51 | \include{Semana10/semana10} 52 | \include{Semana11/semana11} 53 | \include{Semana12/semana12-fatQR} 54 | \include{Semana13/semana13-LLScomQR} 55 | \include{Semana14-15/semana14-15} 56 | 57 | 58 | %resposta dos exercícios 59 | \ifisbook 60 | \include{respostas} 61 | \fi 62 | 63 | %references 64 | \nocite{*} 65 | \bibliographystyle{plain} 66 | \bibliography{main} 67 | \addcontentsline{toc}{chapter}{Referências Bibliográficas} 68 | \fancyhead[RE]{Álgebra Linear} 69 | \fancyhead[LO]{REFERÊNCIAS BIBLIOGRÁFICAS} 70 | \fancyhead[LE,RO]{\thepage} 71 | 72 | \ifisbook 73 | \clearpage 74 | \addcontentsline{toc}{chapter}{Índice Remissivo} 75 | \fancyhead[RE]{Álgebra Linear} 76 | \fancyhead[LO]{ÍNDICE REMISSIVO} 77 | \fancyhead[LE,RO]{\thepage} 78 | \printindex 79 | \fi 80 | 81 | \end{document} 82 | -------------------------------------------------------------------------------- /main.bib: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %Bibtex format 4 | 5 | 6 | 7 | -------------------------------------------------------------------------------- /myconfig.cfg: -------------------------------------------------------------------------------- 1 | \Preamble{html,mathml} 2 | 3 | \Configure{@HEAD}{\HCode{\Hnewline}} 6 | \Configure{@HEAD}{\HCode{\Hnewline}} 9 | \Configure{@HEAD}{\HCode{\Hnewline}} 12 | 13 | \ConfigureEnv{multicols}{}{}{}{} 14 | 15 | \ConfigureEnv{proof}{\HCode{
}}{\HCode{}}{}{} 16 | 17 | \ConfigureEnv{resol}{\HCode{
}}{\HCode{
}}{}{} 18 | 19 | \ConfigureEnv{resp}{\HCode{
}}{\HCode{
}}{}{} 20 | 21 | \begin{document} 22 | 23 | \EndPreamble 24 | -------------------------------------------------------------------------------- /nota_organizadores.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | \chapter*{Nota dos organizadores} 4 | \addcontentsline{toc}{chapter}{Nota dos organizadores} 5 | 6 | Nosso objetivo é de fomentar o desenvolvimento de materiais didáticos pela colaboração entre professores e alunos de universidades, institutos de educação e demais interessados no estudo e aplicação da álgebra linear nos mais diversos ramos da ciência e tecnologia. 7 | 8 | Para tanto, disponibilizamos em repositório público GitHub (\url{https://github.com/reamat/AlgebraLinear}) todo o código-fonte do material em desenvolvimento sob licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada (\href{https://creativecommons.org/licenses/by-sa/3.0/}{CC-BY-SA-3.0}). Ou seja, você pode copiar, redistribuir, alterar e construir um novo material para qualquer uso, inclusive comercial. Leia a licença para maiores informações. 9 | 10 | O sucesso do projeto depende da colaboração! Participe diretamente da escrita dos recursos educacionais, dê sugestões ou nos avise de erros e imprecisões. Toda a colaboração é bem vinda. Veja mais sobre o projeto em: 11 | \begin{center} 12 | \url{https://www.ufrgs.br/reamat/AlgebraLinear} 13 | \end{center} 14 | 15 | \vspace{0.5cm} 16 | 17 | Desejamos-lhe ótimas colaborações! 18 | -------------------------------------------------------------------------------- /organizadores.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | \chapter*{Organizadores} 4 | \addcontentsline{toc}{chapter}{Organizadores} 5 | 6 | \begin{itemize} 7 | \item[] Diego Marcon Farias - UFRGS 8 | \item[] Pedro Henrique de Almeida Konzen - UFRGS 9 | \item[] Rafael Rigão Souza - UFRGS 10 | \end{itemize} 11 | -------------------------------------------------------------------------------- /preambulo.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 4 | % ATENÇÃO 5 | % 6 | % POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO. 7 | % 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | 10 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 11 | % Predefinicoes 12 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 13 | 14 | \newif\ifishtml % O layout será book? 15 | \newif\ifisbook % O layout será html? 16 | 17 | \def\tfn{config.knd} % Arquivo que guarda as definições do tipo de saída 18 | \def \tdata{} % Definições do tipo de saída: book, slide ou html. 19 | 20 | \openin1=\tfn\relax % Leitura das definições de saída 21 | \read1 to \tdata 22 | \closein1 23 | 24 | \tdata % Definições de saída 25 | 26 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 27 | % Opcões de Linguagem 28 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 29 | \usepackage[brazil]{babel} 30 | \usepackage[utf8]{inputenc} 31 | \usepackage[T1]{fontenc} 32 | %\usepackage{xunicode} é o pacote necessário para a codificação UTF-8 no XeTeX 33 | 34 | \usepackage{fancyhdr} 35 | \pagestyle{fancy} 36 | \fancyhf{} 37 | \fancyhead[RE]{Álgebra Linear} 38 | \fancyhead[LO]{\rightmark} 39 | \fancyhead[LE,RO]{\thepage} 40 | 41 | %license footnote 42 | \cfoot{\tiny{Licença \href{https://creativecommons.org/licenses/by-sa/3.0/}{CC-BY-SA-3.0}. Contato: \url{reamat@ufrgs.br}}} 43 | 44 | %%%% no blank pages between chapters %%%% 45 | \let\cleardoublepage\clearpage 46 | 47 | %%%% independent chapters %%%% 48 | \usepackage{subfiles} 49 | 50 | %%%% ams-latex %%%% 51 | \usepackage{amsmath} 52 | \usepackage{amssymb} 53 | \usepackage{amsthm} 54 | \usepackage{mathtools} 55 | 56 | %%%% graphics %%%% 57 | \usepackage{graphics} 58 | \usepackage{graphicx} 59 | %\usepackage{caption} 60 | 61 | %%%% links %%%% 62 | \usepackage[pdfborder={0 0 0 [0 0]},colorlinks=true,linkcolor=blue,citecolor=blue,filecolor=blue,urlcolor=blue]{hyperref} 63 | 64 | %%%% copy and paste from PDF (correctly) %%%% 65 | \usepackage{upquote} 66 | \usepackage{lmodern} 67 | 68 | %%%% code insert (verbatim) %%%% 69 | \usepackage{verbatim} 70 | \usepackage{listings} 71 | 72 | %%%% indent first line %%%% 73 | \usepackage{indentfirst} 74 | 75 | %%%% comma as a decimal separator %%%% 76 | \usepackage{icomma} 77 | 78 | %%%% citation %%%% 79 | \usepackage{cite} 80 | 81 | %%%% lists %%%% 82 | \usepackage{enumerate} 83 | 84 | %%%% index %%%% 85 | \usepackage{makeidx} 86 | 87 | 88 | %%%% miscellaneous %%%% 89 | \usepackage{multicol} 90 | \usepackage{multirow} 91 | \usepackage[normalem]{ulem} 92 | \renewcommand{\arraystretch}{1.5} %space between rows in tables 93 | \usepackage{array,booktabs} 94 | \usepackage{xcolor} 95 | \usepackage{tikz} 96 | 97 | \usepackage[makeroom]{cancel} % Cancelar termos em equações 98 | 99 | 100 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 101 | % MACROS E NOVOS COMANDOS 102 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 103 | \newcommand*\circled[1]{\tikz[baseline=(char.base)]{ 104 | \node[shape=circle,draw,inner sep=1pt] (char) {#1};}} 105 | \newcommand{\RED}[1]{{\color{red}{#1}}} 106 | \newcommand{\BLU}[1]{{\color{blue}{#1}}} 107 | \newcommand{\GRE}[1]{{\color{darkgreen}{#1}}} 108 | \newcommand{\matdd}[4]{\begin{bmatrix} #1\\#3 \end{bmatrix}} 109 | \newcommand{\matddd}[9]{\begin{bmatrix} #1 \\ #4 \\ #7 \end{bmatrix}} 110 | \newcommand{\vetdd}[2]{\begin{bmatrix} #1 \\#2 \end{bmatrix}} 111 | \newcommand{\vetddd}[3]{\begin{bmatrix} #1 \\ #2\\ #3 \end{bmatrix}} 112 | \newcommand{\field}[1]{\mathbb{#1}} 113 | \newcommand{\norm}[1]{\left\lVert#1\right\rVert} 114 | %emphasis \emph 115 | \DeclareTextFontCommand{\emph}{\bfseries} 116 | \newcommand{\sen}{\operatorname{sen}\,} 117 | \newcommand{\senh}{\operatorname{senh}\,} 118 | \renewcommand{\sin}{\operatorname{sen}\,} 119 | \renewcommand{\sinh}{\operatorname{senh}\,} 120 | \newcommand{\tg}{\operatorname{tg}\,} 121 | \newcommand{\p}{\partial} 122 | \newcommand{\Dom}{\operatorname{Dom}\,} 123 | \newcommand{\diag}{\operatorname{diag}\,} 124 | 125 | 126 | \newcommand{\proj}{\operatorname{proj}} 127 | \newcommand{\Span}{\operatorname{Span}} 128 | \newcommand{\spec}{\operatorname{spec}} 129 | \newcommand{\supp}{\operatorname{supp}} 130 | 131 | 132 | %E = 10^ 133 | \def\E#1{\mathrm{E}\!#1\!} 134 | 135 | 136 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 137 | % AVISOS 138 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 139 | 140 | \newcommand{\foraDoEstilo}{ 141 | \begin{tabular}{|c|}\hline 142 | Esta parte do material não está de acordo com o estilo do livro. Ajude-nos a corrigir, veja como em:\\ 143 | \url{https://www.ufrgs.br/reamat/participe.html}\\\hline 144 | \end{tabular} 145 | } 146 | 147 | \newcommand{\emconstrucao}{ 148 | \begin{tabular}{|c|}\hline 149 | Em construção ... Gostaria de participar na escrita deste livro? Veja como em:\\ 150 | \url{https://www.ufrgs.br/reamat/participe.html}\\\hline 151 | \end{tabular} 152 | } 153 | 154 | \newcommand{\construirSec}{ 155 | \begin{center} 156 | Esta seção (ou subseção) está sugerida. Participe da sua escrita. Veja como em:\\ 157 | \url{https://www.ufrgs.br/reamat/participe.html} 158 | \end{center} 159 | } 160 | 161 | \newcommand{\construirExeresol}{ 162 | \begin{center} 163 | \begin{tabular}{|c|}\hline 164 | Esta seção carece de exercícios resolvidos. Participe da sua escrita.\\ 165 | Veja como em:\\ 166 | \url{https://www.ufrgs.br/reamat/participe.html}\\\hline 167 | \end{tabular} 168 | \end{center} 169 | } 170 | 171 | \newcommand{\construirResol}{ 172 | \begin{center} 173 | Este exercício está sem resolução. Ajude-nos a construir-lá, veja como em:\\ 174 | \url{https://www.ufrgs.br/reamat/participe.html} 175 | \end{center} 176 | } 177 | 178 | 179 | \newcommand{\construirExer}{ 180 | \begin{center} 181 | \begin{tabular}{|c|}\hline 182 | Esta seção carece de exercícios. Participe da sua escrita.\\ 183 | Veja como em:\\ 184 | \url{https://www.ufrgs.br/reamat/participe.html}\\\hline 185 | \end{tabular} 186 | \end{center} 187 | } 188 | 189 | \newcommand{\construirResp}{ 190 | \begin{center} 191 | Este exercício está sem resposta sugerida. Proponha uma resposta. Veja como em:\\ 192 | \url{https://www.ufrgs.br/reamat/participe.html} 193 | \end{center} 194 | } 195 | 196 | 197 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 198 | 199 | 200 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 201 | % + INTRUCOES PARA O FORMATO LIVRO 202 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 203 | \ifisbook 204 | \input preambulo_book.tex 205 | \fi 206 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 207 | 208 | 209 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 210 | % + INTRUCOES PARA O FORMATO HTML 211 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 212 | \ifishtml 213 | \input preambulo_html.tex 214 | \fi 215 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 216 | -------------------------------------------------------------------------------- /preambulo_book.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | \usepackage[a4paper,headheight=15.4pt]{geometry} 4 | 5 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 6 | % ATENÇÃO 7 | % 8 | % POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO. 9 | % 10 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 11 | 12 | 13 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 14 | % ambientes 15 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 16 | \theoremstyle{plain} % bold title, italic body 17 | \newtheorem{teo}{Teorema}[section] 18 | \newtheorem{lem}{Lema}[section] 19 | \newtheorem{prop}{Proposição}[section] 20 | \newtheorem{corol}{Corolário}[section] 21 | \newtheorem{defn}{Definição}[section] 22 | \theoremstyle{remark} % italic title, romman body 23 | \theoremstyle{definition} % italic title, romman body 24 | \newtheorem{obs}{Observação}[section] 25 | \newtheorem{ex}{Exemplo}[section] 26 | 27 | %%%% titlepage figure %%%% 28 | \usepackage{eso-pic} 29 | \newcommand\BackgroundPic{% 30 | \put(0,0){% 31 | \parbox[b][\paperheight]{\paperwidth}{% 32 | \vfill 33 | \centering 34 | \includegraphics[width=\paperwidth,height=\paperheight,% 35 | keepaspectratio]{./rosto/capa.eps}% 36 | \vfill 37 | }}} 38 | 39 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 40 | %%%% Exercises and Answers %%%% 41 | %\usepackage[lastexercise]{exercise} 42 | \usepackage[answerdelayed,lastexercise]{exercise} 43 | \usepackage{chngcntr} 44 | \counterwithin{Exercise}{section} 45 | \counterwithin{Answer}{section} 46 | \renewcommand{\ExerciseHeaderTitle}{({\it \ExerciseTitle})} 47 | \renewcommand{\ExerciseName}{E} 48 | \renewcommand{\ExerciseHeader}{{\textbf{\large\ExerciseName~\ExerciseHeaderNB\ExerciseHeaderTitle\ExerciseHeaderOrigin}}} 49 | \renewcommand{\ExerciseHeader}{\textbf{\ExerciseName\ \ExerciseHeaderNB.}\,} 50 | 51 | % change font for answers header 52 | \renewcommand{\AnswerHeader}{\tiny\textbf{\ExerciseName\ \ExerciseHeaderNB.}\smallskip} 53 | % change font for answers list header 54 | \renewcommand{\AnswerListHeader}{{\tiny\textbf{\AnswerListName\ 55 | (\ExerciseListName\ \ExerciseHeaderNB)\ ---\ }}} 56 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 57 | 58 | 59 | \newenvironment{exer} 60 | {\begin{Exercise}} 61 | {\end{Exercise}} 62 | 63 | \newenvironment{resp} 64 | {\begin{Answer}\begin{tiny}} 65 | {\end{tiny}\end{Answer}} 66 | 67 | \newenvironment{sol} 68 | {\let\oldqedsymbol=\qedsymbol 69 | \renewcommand{\qedsymbol}{$\Diamond$} 70 | \begin{proof}[\bfseries\upshape Solução]} 71 | {\end{proof} 72 | \renewcommand{\qedsymbol}{\oldqedsymbol}} 73 | 74 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 75 | % Exercícios Resolvidos 76 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 77 | \newtheorem{exeresol}{ER}[section] 78 | \newenvironment{resol} 79 | {\let\oldqedsymbol=\qedsymbol 80 | \renewcommand{\qedsymbol}{$\Diamond$} 81 | \begin{proof}[\bfseries\upshape Solução]} 82 | {\end{proof} 83 | \renewcommand{\qedsymbol}{\oldqedsymbol}} 84 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 85 | -------------------------------------------------------------------------------- /preambulo_html.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 4 | % ATENÇÃO 5 | % 6 | % POR SEGURANÇA, NÃO EDITE ESTE ARQUIVO. 7 | % 8 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 9 | 10 | 11 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 12 | % ambientes 13 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 14 | \theoremstyle{plain} % bold title, italic body 15 | \newtheorem{teo}{Teorema}[section] 16 | \newtheorem{lem}{Lema}[section] 17 | \newtheorem{prop}{Proposição}[section] 18 | \newtheorem{corol}{Corolário}[section] 19 | \newtheorem{defn}{Definição}[section] 20 | \theoremstyle{remark} % italic title, romman body 21 | \theoremstyle{definition} % italic title, romman body 22 | \newtheorem{obs}{Observação}[section] 23 | \newtheorem{ex}{Exemplo}[section] 24 | 25 | %\renewcommand\qedsymbol{$\blacksquare$} 26 | \renewenvironment{proof} 27 | {{\bfseries\upshape Demonstração.}} 28 | { 29 | \begin{flushright} 30 | $\blacksquare$ 31 | \end{flushright} 32 | } 33 | 34 | \newenvironment{sol} 35 | {{\bfseries Solução.}} 36 | { 37 | \begin{flushright} 38 | $\Diamond$ 39 | \end{flushright} 40 | } 41 | 42 | \newtheorem{exer}{E}[section] 43 | \newenvironment{resp} 44 | {{\bfseries Resposta.}} 45 | {} 46 | 47 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 48 | % Exercícios Resolvidos 49 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 50 | \newtheorem{exeresol}{ER}[section] 51 | \newenvironment{resol} 52 | {{\bfseries Solução.}} 53 | { 54 | \begin{flushright} 55 | $\Diamond$ 56 | \end{flushright} 57 | } 58 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 59 | 60 | 61 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 62 | % DESCONTINUADO 63 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 64 | \newtheorem{Exercise}{E}[section] 65 | \newenvironment{Answer}{{\bfseries \tiny Resposta.}}{} 66 | 67 | \usepackage{minitoc} 68 | -------------------------------------------------------------------------------- /prefacio.tex: -------------------------------------------------------------------------------- 1 | %Este trabalho está licenciado sob a Licença Creative Commons Atribuição-CompartilhaIgual 3.0 Não Adaptada. Para ver uma cópia desta licença, visite https://creativecommons.org/licenses/by-sa/3.0/ ou envie uma carta para Creative Commons, PO Box 1866, Mountain View, CA 94042, USA. 2 | 3 | \chapter*{Prefácio} 4 | \addcontentsline{toc}{chapter}{Prefácio} 5 | 6 | \emconstrucao 7 | --------------------------------------------------------------------------------