If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Transformações lineares como produtos vetoriais de matriz

Demonstração de como QUALQUER transformação linear pode ser representada como um produto vetorial de matriz. Versão original criada por Sal Khan.

Quer participar da conversa?

Nenhuma postagem por enquanto.
Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA8JV - Olá, pessoal! Prontos para mais um vídeo? Vamos dizer que eu tenha aqui uma matriz com "n" linhas e "n" colunas, uma matrizinha "n" por "n". Ela vai ser construída seguindo uma lógica mais ou menos assim: digamos que, na primeira coluna, ela começa com o número 1, e todos os outros termos serão zero. Os "n -1" termos que estão aqui serão compostos por zero. Na segunda coluna, o primeiro numerozinho que aparecer vai ser o zero e o segundo vai ser 1. O terceiro, zero, e todo mundo a partir do segundo vai ser tudo zero. Na terceira coluna, quem vai ser o número 1 vai ser o terceiro termo. Então zero aqui, zero aqui e aqui o 1, e todos os outros termos serão zero. A gente vai continuar essa lógica até chegar na enésima coluna. Na enésima coluna, apenas o enésimo termo vai ser o 1. Então, começa com zero e vou colocando zero, zero, zero, vou pondo "n - 1" zeros e só o último vai ser 1. Desse jeito, não sei se você percebeu, mas apenas os elementos da diagonal principal vão ser 1, o resto é tudo zero. Fechando a nossa matrizinha, e vocês vão ver que esta matriz é bem especial, ela tem um monte de propriedades bacanas e a gente vai ver isso nos vídeos futuros. Mas eu estou mostrando aqui porque vou usar algumas delas neste vídeo, tá? Bom, vou chamar esta matriz de matriz identidade, e vou apelidá-la de Iₙ. Iₙ porque ela é uma matriz "nxn". Se ela fosse "2x2", eu chamaria de 2, 3x3 de 3 e assim por diante. Então, só para mostrar aqui, a identidade 2x2 vai ser uma matriz assim, [1, 0, 0, 1]. Ok? Só a diagonal tem 1, o resto é zero. A identidade, 3x3, vai ser assim: [1, 0, 0, 0, 1, 0, 0, 0, 1 ]. Novamente, a diagonal feita de 1 e o resto é zero. E uma das coisas especiais desta matriz, começa a aparecer por exemplo, quando a multiplico por um vetor, algum vetor do Rⁿ. Então, por exemplo, digamos que eu tenha aqui um vetorzinho, vetorzinho "x" do Rⁿ. Então, eu tenho x₁, x₂, x₃, até o xₙ. O que será o resultado da multiplicação da identidade pelo vetor ''x"? Aqui então, vetorzinho ''x". Portanto, se eu pegar a minha identidade e multiplicar pelo vetor "x", onde o meu "x" é um elemento do Rⁿ, porque afinal, estou multiplicando com a identidade em "n". O resultado aqui vai ser um vetorzinho do Rⁿ, afinal, a um ''nxn" vezes uma "nx1", o resultado é uma "nx1", onde, quando eu fizer o produto, lembra da definição do produto de matriz? Eu pego esta linha e multiplico por essa coluna e somo, como se fosse o produto interno desta linha com esta coluna. Então, vai ficar 1 vezes x₁, depois zero vezes x₂, zero vezes x₃, e todo mundo abaixo do x₁ vai ser multiplicado por zero. No final dessa soma, vai dar x₁, não é verdade? Já a segunda linha aqui, vai ser zero vezes x₁, 1 vezes x₂, zero vezes x₃ e zero vezes todo mundo aqui para baixo. Então, no final, a soma dar x₂. Eu continuo tudo aqui. Até no final, a hora que eu fizer aqui o produto interno, o produto escalar, vai ficar zero vezes x₁, zero vezes x₂, zero vezes todo mundo, até que chega no xₙ, vai ser um 1 vezes xₙ, portanto, o resultado vai ser xₙ, ok? Mas, o que é esse rapazinho que a gente obteve aqui? Olha, é o meu vetor "x". Então, uma coisa super bacana, super fashion, que a gente tem nessa matriz identidade que a gente criou é que se a gente pega a identidade e multiplica por um vetor xₙ, claro que com um xₙ pertencente ao Rⁿ, o resultado vai ser o próprio vetor "x". Olha só, que bacana. Voltando um pouquinho aqui para a nossa matriz identidade. Cada coluninha da nossa matriz identidade é um vetor que a gente vai dar um nome especial para ele. Então, esse vetor onde o 1 é o primeiro componente, a gente chama de vetor e₁. O vetorzinho onde 1 é o segundo componente, a gente chama de e₂. Então, esse aqui é o e₃, e a gente vai, vai, vai, vai, até chegar nesse último, que é o eₙ. E este conjunto de vetores que formam a matriz identidade, , vetorzinho, vetorzinho, vetorzinho, até chegar ao eₙ, este conjuntinho aqui é chamado de base canônica do Rⁿ, ok? Bom, mas o que isso significa? Se a palavra base está aqui, então, duas coisas têm que acontecer. Primeiro: se é uma base, eu tenho que gerar o Rⁿ a partir desses vetores. Outra coisa, eles têm que ser linearmente independentes. Que este negócio é linearmente independente, é muito fácil de visualizar. Olha. Aqui tem um numerozinho 1, só que nos outros vetores, ninguém tem 1 na primeira posição, na verdade, todo mundo tem o zero na primeira posição. Então, seria impossível gerar o número 1 usando os outros vetores. A mesma coisa para o e₂ aqui, que só ele tem o número 1 na segunda posição. Então, não dá para eu gerar nenhum desses caras a partir dos outros, beleza? Continuo aqui para o e₃, até chegar no "e", beleza? É linearmente independente, então, bem facinho de visualizar. Agora vamos mostrar que ele consegue gerar qualquer vetor do Rⁿ. Isso é muito simples também. Imagine que eu tenho um vetorzinho genérico aqui, a₁, a₂, a₃, até aₙ, um vetorzinho do Rⁿ. Para gerá-lo a partir desta base, o que eu tenho que fazer é pegar o numerozinho a₁ e multiplicar pelo vetor e₁, mais o numerozinho a₂ vezes o vetor e₂, até chegar no aₙ vezes o vetor pₙ. Por quê? Quando eu fizer este produtinho aqui, o vetor que me vai resultar vai ser um a₁ aqui e o resto tudo zero. E quando eu fizer este produto aqui, vai ficar o zero, o a₂ e o restante todo mundo do zero, até chegar no último rapaz, quando eu fizer o aₙ vezes o vetor eₙ, vai ficar zero, zero, zero, um monte de zero, e no final, um aₙ. E fica bem óbvio que se eu somar estes vetores todos, o resultado vai ser o meu vetorzinho ''a", tá? Também podemos usar como argumento, que isso aqui é simplesmente a minha matriz identidade vezes o vetorzinho aₙ, não é? Agora, vamos explorar tudo o que a gente sabe de transformações lineares nas propriedades que a gente viu dessa tal matriz identidade. Então, vamos arrumar pouquinho de espaço aqui. Para começar, eu posso escrever qualquer vetorzinho "x" do meu Rⁿ como uma combinação linear da base canônica, igual aqui. Eu posso falar aqui o meu vetor "x" é x₁e₁ + x₂e₂, até chegar no xₙeₙ. Ressaltando aqui mais uma vez que esses e₁, e₂, e₃, eₙ, são vetores coluna, onde, se eu olhar aqui novamente, são vetores, por exemplo, o e₁, o primeiro componente é o 1 e o resto é zero. No e₂, o segundo componente é 2 e o resto é zero. No e₅, o 5º componente é o 1 e o resto é zero, ok? Voltando aqui. Dito isso, vamos pensar no seguinte: se eu fizer uma transformação linear no nosso vetor "x", vai ser a mesma coisa que eu fazer a mesma transformação nesta soma aqui, né? Então, vai ser a transformação em x₁e₁ + x₂e₂ até xₙeₙ. Mas a gente sabe, que pela definição de transformação linear, a transformação da soma é a soma dessas transformações, então eu posso separar esses carinhas aqui. Vai ser a transformação em x₁e₁ somado com a transformação em x₂e₂, até chegar na transformação de xₙeₙ, ok? E pela outra propriedade que a gente tem em toda transformação linear, é que se eu tenho um escalar multiplicado pelo vetor dentro da transformação, eu posso tirar de dentro, jogar para fora esse escalar, tá? Falar que a transformação de x₁e₁ é a mesma coisa que x₁ vezes a transformação do vetorzinho e₁. Isso está na definição de transformação linear. Eu posso inclusive aplicar essas duas propriedades em toda transformação linear. É por definição. Aí, continuando, a gente vai ter x₂ vezes a transformação no vetorzinho e₂, até chegar no xₙ vezes a transformação do vetorzinho eₙ. Podemos fazer esta passagem aqui sem problema algum pela definição de transformação linear. Agora, vou tentar escrever isso aqui de outra maneira. Esses carinhas aqui, são todos vetores coluna. Então, vou tentar escrever de outra maneira a minha transformação em "x". Eu tenho aqui uma matriz onde as colunas são esses vetores. Aqui, a primeira coluna, segunda coluna, até a enésima coluna. Bom, esta matriz multiplicada por x₁, x₂, até chegar no xₙ. Já vimos isso um monte de vezes. Então, tudo válido né, fiz tudo tirando das definições de transformações lineares. Mas o que é bem bacaninha deste negócio aqui, o que é a parte surpreendente, é que a gente pegou tudo de vetores genéricos, de transformações genéricas, então, a gente pôde concluir que a partir de qualquer transformação linear eu posso escrever como se fosse um produto de matrizes. Qualquer transformaçãozinha linear pode ser escrita como um produto de matrizes. Então, inclusive de maneira mais forte ainda, eu posso simplesmente pegar a transformação que eu ia fazer no meu vetor "x", fazer essa transformação na base canônica, fiz a minha transformação na base canônica, e depois, multiplicar a base canônica transformada pelo vetor "x". Eu posso fazer isso em toda a transformação linear. Toda a transformação linear pode ser escrita como um produto entre matrizes. Produto entre matrizes. Bom, vamos fazer um exemplozinho aqui para você entender melhor. Mas eu acho isso muito bacana, muito legal. Eu posso pegar aqui, então, uma transformação que leva o R² no R³, ok? Digamos que a minha transformação tinha um vetorzinho x₁, x₂, vai ser igual. E a primeira coordenada aqui dessa minha relação vai ser x₁ + 3x₂ a segunda vai ser 5x₂ - x₁, e a terceira coordenada vai ser 4x₁ + x₂, ok? Eu não gosto muito desta representação, então eu vou escrever na notação que eu gosto mais. Então, vou fazer a transformação em x₁, x₂, gosto mais de escrever nessa forma vetorial aqui. Vai levar este vetor nesse vetor aqui. Primeira coordenadora é x₁ + 3x₂, aqui embaixo, 5x₂ - x₁, e por último, 4x₁ + x₂. Gosto bem mais desta notação. Então, estou levando este vetor nesse vetor aqui do R³. Agora, vou fazer o que a gente estava vendo aqui em cima. Primeiro, eu vou pegar a base canônica do R², certo? Bom, a base canônica do R² é a identidade 2x2, que é esta matrizinha aqui. Ok, mas já que estou falando aqui, base canônica, base canônica, base canônica, você sabe por que chama-se base canônica? Já mostrei por que é base, mas vou te dar uma ideia de por que é canônica. Não é porque ela foi canonizada, canônica significa, também, padrão, tá? Podemos mostrar que eles são linearmente independentes, todos esses produtos, porque se eu fizer o produto interno, o produto escalar, entre cada um desses, a gente vai ver que isso vai dar zero, então, são todos uns ortogonais com os outros. Além disso, como só tem um 1 e o resto é zero, em cada um deles, eu tenho que a norma de cada um desses vetores é 1, então, é um padrão com certeza, por isso ela é chamada de base padrão, base canônica. Voltando aqui. Então, o que a gente vai fazer agora? Eu peguei a base canônica no R², e agora eu vou fazer a minha transformaçãozinha aqui em cada um dos vetores coluna do meu I₂, da minha matriz de identidade. Portanto, eu vou pegar, quando eu aplicar a minha transformação na identidade 2, vai resultar no seguinte: vai ser uma matriz em que a primeira coluna vai ser a transformação no vetorzinho [1, 0], e a segunda coluna vai ser a transformação no vetorzinho [0, 1]. Maravilha. Então, primeiro esta parte aqui. O que vai acontecer se eu pegar a transformação no vetorzinho [1, 0]? É só olhar a regrinha aqui. Aqui, no primeiro componente, vai ser 1 + 3 vezes zero. Então vai dar 1. Aqui vai ser 5 vezes o segundo cara, então, 5 vezes zero, menos o primeiro cara, então, zero menos 1. Então, este rapaz é -1. Embaixo, no último componente, é 4 vezes 1 mais zero, então, 4. Então, transformação no vetor [1, 0] vai me levar para esse vetorzinho aqui. E agora vamos para a transformação no vetor [0, 1]. O primeiro componente aqui vai ser o x₁, então zero, mais 3 vezes 1, 3. Aqui teremos 5 vezes 1 menos zero. Então é 5. E para finalizar, 4 vezes zero mais 1, 1. Fechamos aqui a transformação no vetorzinho [0, 1]. Bom, agora, organizando este negocinho aqui. Esta matrizinha vai ser simplesmente [1, -1, 4, 3, 5, 1]. Maravilha. Isso aqui é simplesmente uma maravilha, porque a gente simplificou muito as coisas. Olha só, eu peguei, fiz a minha transformação na identidade e cheguei a esta matrizinha, que eu vou chamar de "A". A partir de agora, sempre que eu quiser fazer a minha transformação, esta transformação aqui, basta eu multiplicar esta matriz pelo meu vetor e vai ficar tudo certo. Facilita muito as coisas, por isso que eu acho isso fantástico. Aqui, só para deixar mais claro para você. Sempre agora que eu quiser fazer uma transformação, aquela mesma transformação, claro, que a gente definiu aqui em cima, de um vetorzinho [x₁, x₂] do R², basta pegar esta minha matriz "A", [1, -1, 4, 3, 5, 1], e multiplicá-la pelo vetorzinho [x₁, x₂]. Fazendo este produto aqui, eu já tenho a minha transformação pronta. E isto aqui é muito mais simples do que ficar fazendo esta regrinha aqui. Olha só que interessante. Afinal, eu tenho uma matriz 3x2. E este vetor aqui eu posso ler como se fosse uma matriz 2x1. A gente sabe que, se eu fizer o produto desta matriz, eu vou ter, no final, uma matriz 3x1, que é um vetorzinho no R³. Olha, isto aqui é uma matrizinha 3x1. Por quê? Se eu pegar esta primeira linha, multiplicar por esta coluna, eu vou ter este rapaz aqui. Pegar esta segunda linha, multiplicar por esta coluna, eu vou ter este segundo rapaz aqui. Pegar esta terceira linha e multiplicar por esta última coluna, vai ter o último rapaz aqui. Não é fantástico, pessoal? Não é sensacional? Ok, eu espero que você tenha gostado. Tchau, pessoal. E até o próximo vídeo!