Spis treści

Analiza numeryczna (M) - Lista 3.

Lista 3.

Zadanie 1.

Własność I

Własność: x = 0 \Leftrightarrow ||x|| = 0.

  1. \sum_{i=1}^n |0| = 0
  2. \sqrt{\sum_{i=1}^n 0^2} = \sqrt{0} = 0
  3. \max_{i=1}^n |0| = 0

Własność II

Własność: ||a \cdot x|| = |a| \cdot ||x||.

  1. ||a \cdot x||_1 = \sum_{i=1}^n |a \cdot x_i| = \sum_{i=1}^n |a| \cdot |x_i| = |a| \cdot \sum_{i=1}^n |x_i| = |a| \cdot ||x||_1
  2. ||a \cdot x||_2 = \sqrt{\sum_{i=1}^n a^2 \cdot x_i^2} = \sqrt{a^2 \cdot \sum_{i=1}^n x_i^2} = |a| \cdot \sqrt{\sum_{i=1}^n x_i^2} = |a| \cdot ||x||_2
  3. ||a \cdot x||_3 = \max_{i=1}^n |a| \cdot |x_i| = |a| \cdot \max_{i=1}^n |x_i| = |a| \cdot ||x||_3

Własność III

Własność: ||x + y|| \leq ||x|| + ||y||.

  1. ||x + y||_1 = \sum^{n}_{i=1} |x_i + y_i| \leq \sum^{n}_{i=1} |x_i| + |y_i| = \sum^{n}_{i=1} |x_i| + \sum^{n}_{i=1} |y_i| = ||x||_1 + ||y||_1
  2. Skorzystamy z tego, że jeśli ||x + y||^2 \leq \left(||x|| + ||y||\right)^2 to ||x + y|| \leq ||x|| + ||y||.

||x + y||^2 = \sum_{i=1}^n (x_i + y_i)^2 = \sum_{i=1}^n x_i^2 + y_i^2 + 2x_iy_i = \sum_{i=1}^n x_i^2 + \sum_{i=1}^n y_i^2 + 2 \sum_{i=1}^n x_iy_i \leq \sum_{i=1}^n x_i^2 + \sum_{i=1}^n y_i^2 + 2 \sqrt{\left(\sum_{i=1}^n x_iy_i\right)^2} \leq

Teraz z twierdzenia Cauchiego (\left(\sum_{i=1}^n x_iy_i\right)^2 \leq \left(\sum_{i=1}^n x_i^2\right) \left(\sum_{i=1}^n y_i^2\right))https://secure.wikimedia.org/wikipedia/en/wiki/Cauchy%E2%80%93Schwarz_inequality :

\leq \sum_{i=1}^n x_i^2 + \sum_{i=1}^n y_i^2 + 2 \sqrt{\sum_{i=1}^n x_i^2 \sum_{i=1}^n y_i^2} = \left(\sqrt{\sum_{i=1}^n x_i^2} + \sqrt{\sum_{i=1}^n y_i^2}\right)^2 = \left(||x|| + ||y||\right)^2

Zadanie 2.

Element maksymalny jest mniejszy równy sumie elementów (która wlicza element maksymalny), tak samo suma elementów jest mniejsza równa n maksymalnym elementom sumy.

Zadanie 3. i 4.

http://wazniak.mimuw.edu.pl/index.php?title=MN07LAB

Zadanie 5.

cond(A) = ||A|| \cdot ||A^{-1}|| \geq || A A^{-1}|| = ||1|| = 1

cond(\alpha A) = ||\alpha A|| \cdot ||(\alpha A)^{-1}|| = |\alpha| \cdot ||A|| \cdot |\alpha^{-1}| \cdot || A^{-1}|| = 1 *||A|| \cdot ||A^{-1}|| = cond(A)

Zadanie 6.

Wnioski z zeszłego roku (grupa RNO):

Jak się w LaTeX pisze macierze?

Zadanie 7.

<przypomnienie>

||A||_1 zwraca nam wiersz macierzy o największej normie, czyli ||r_i||_1, gdzie r_i to wiersze macierzy A.

||A||_\infty zwraca nam kolumnę macierzy o największej normie, czyli ||c_j||_1, gdzie c_j to kolumny macierzy A.

</przypomnienie>

Obliczyć macierz odwrotną A^{-1} = \left[\begin{matrix} 1 \over \epsilon^2 & - \epsilon^2 |
{(\epsilon - 1) \over \epsilon^2} & 1 - \epsilon^2 - \epsilon^3 \end{matrix} \right]
.

Gdzie | oznacza nową linię (jsmath nie daje sobie rady z LaTeX-owymi macierzami…)

Obliczamy normy macierzowe:

||A||_1 = 2+\epsilon (norma pierwszego wiersza macierzy A)

||A^{-1}||_1 =\frac {1 - \epsilon + \epsilon^2 - \epsilon_4 - \epsilon_5}{\epsilon^2} (norma drugiego wiersza A_{-1})

||A||_\infty = 2+\epsilon (norma drugiej kolumny macierzy A)

||A^{-1}||_\infty = \frac{1-\epsilon}{\epsilon^2} (norma drugiego wiersza A^{-1})

I widzimy, że cond_1(A) i cond_\infty(A) lecą w kosmos wraz ze zmniejszaniem się \epsilon.