Marcelo Finger Alan Barzilay
Parte 1
\(\vec{u} \cdot \vec{v} = \displaystyle \sum_{i=1}^n u_i v_i = \left | \vec{u} \right | \left |\vec{v}\right| cos(\theta) \)
Notações alternativas: \(\langle \vec{u},\vec{v}\rangle\),\(\vec{u} \cdot^{T} \vec{v}, \vec{u}^T \cdot \vec{v}, \vec{u}' \cdot \vec{v}\)
Projeção de \(u\) sobre \(v\)
Operação básica da multiplicação de matrizes: \(C = A \times B\)
\(c_{ij} = \mathit{linha}_i(A) \cdot \mathit{coluna}_j(B) = A_i \cdot B^j\)
O resultado é um vetor ortogonal a \(\vec{a}\) e \(\vec{b}\): regra do polegar direito, espaço tri-domensional
Pouco utilizado em redes neurais
Produto item a item