-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathscript.tex
1157 lines (975 loc) · 36.9 KB
/
script.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
\RequirePackage[orthodox]{nag}
\documentclass[index=totoc]{scrartcl}%{article}
\usepackage{geometry}
\usepackage{microtype}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
\usepackage[ngerman]{babel}
%\usepackage{fancyhdr}
%\usepackage{fancyvrb}
\usepackage{caption3}
\usepackage[pdftex]{graphicx}
\usepackage{lmodern}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{amsthm}
\usepackage{srcltx}%\usepackage{url}
\usepackage{rerunfilecheck}
\usepackage{glossaries}
\usepackage{makeidx}
% to be loaded last
\usepackage[pdftex,bookmarks=true,bookmarksnumbered=true,hypertexnames=false,breaklinks=true,linkbordercolor={0 0 1},verbose]
{hyperref}
\hypersetup{pdfauthor={Ernst Reissner},pdftitle={Nuetzliche Mathematik},pdfsubject={LA Analysis und Numerik},bookmarksopen=true}
\pdfadjustspacing=1
\setcounter{secnumdepth}{3}
\setcounter{tocdepth}{3}
\makeindex
\newtheorem{thm}{Satz}[section]
\newtheorem{lem}[thm]{Lemma}
\newtheorem{cor}[thm]{Korollar}
\theoremstyle{definition}
\newtheorem{defi}{Definition}[section]
\newtheorem{bem}[defi]{Bemerkung}
\newtheorem{bemn}[defi]{Bemerkungen}
\newtheorem{bsp}[defi]{Beispiel}
\newtheorem{bspe}[defi]{Beispiele}
\newtheorem{afg}[defi]{Aufgabe}
\newcommand{\N}{\mathbb N}
\newcommand{\Z}{\mathbb Z}
\newcommand{\Q}{\mathbb Q}
\newcommand{\R}{\mathbb R}
\newcommand{\C}{\mathbb C}
\newcommand{\Hd}{\mathbb H}
\DeclareMathOperator{\spann}{span}
\title{Nützliche Mathematik}
\author{Ernst Reißner}
\begin{document}
%\frontmatter
\maketitle
\pdfbookmark[1]{Contents}{toc}
\tableofcontents
\section{Einführung}
Dieser Artikel ist eine Sammlung von mathematischem Hintergrund,
den wir mal für konkrete Projekte gebraucht haben,
also eigentlich aus der Numerischen Mathematik.
Erst einmal ist es eine lockere Sammlung von Sätzen.
Nach ein paar Worten zu Mengen in Abschnitt \ref{sec:setsBasics}
beginnen wir in Abschnitt \ref{sec:laBasics}
mit Grundlagen aus der Linearen Algebra,
fügen dann in Abschnitt \ref{sec:anaBasics} die Grundlagen aus der Analysis an,
immer nur das was wir wirklich brauchen.
Mit Abschnitt \ref{sec:arithFail} beginnt die eigentliche Numerik
und zwar alles was grundlegend ist.
Das beschränkt sich traditionellerweise auf die Fehlerrechung,
aber eigentlich gibt es zwei weitere Punkte,
die bei jeder konkreten Problemstellung relevant sind,
die verwendete Computer-Arithmetik
deren Verständnis erst die Fehlerrechnung ermöglicht,
sowie die Komplexitätstheorie,
die die Performanz eines Algorithmus misst
und damit oft über dessen Anwendbarkeit entscheidet.
Alle weiteren Abschnitte behandeln je ein Thema aus der Numerik.
Derzeit haben wir nur einen Abschnitt:
den über Iterationsverfahren.
\newpage
\section{Grundlagen Mengenlehre}
\label{sec:setsBasics}
Die Mathematik ist im Grunde die Lehre von den Mengen.
Die abstrakte Mengenlehre ist erstaunlich schwierig,
wir befassen uns aber nur mit den eher einfachen konstruktiven Aspekten.
Intuitiv ist eine Menge eine wohlbestimmte Allgemeinheit von Elementen,
d.h.~es ist wohlbestimmt, was dazugehört und was nicht.
Aber was sind die Elemente dieser Mengen?
Um nicht auf fremde Konzepte zurückgreifen zu müssen,
können das nur wieder Mengen sein.
Ausgehend von der leeren Menge $\emptyset$, die kein Element enthält,
d.h.~$x\not\in\emptyset$ für beliebiges $x$
konstruieren wir eine Folge von Mengen
%
\begin{equation*}
\emptyset, \{\emptyset\}, \{\{\emptyset\}\}, \{\{\{\emptyset\}\}\}, \dots
\end{equation*}
%
die die natürlichen Zahlen $\N_0$ bedeuten:
Man identifiziert diese Reihe mit
%
\begin{equation*}
0, 1, 2, 3, \dots
\end{equation*}
%
also ist die Zahl die Anzahl der Schachtelungsebenen
und $0$ entspricht $\emptyset$ in natürlicher Weise.
Bei uns ist die $0$ dabei. Will man sie ausschliessen, schreibt man $\N$.
Eigentlich kann man in den natürlichen Zahlen nur zählen,
aber das läßt sich leicht zu einer Addition $+$ verallgemeinern
und daraus wieder eine Multiplikation entwickeln.
Hingegen sind weder Subtraktion noch Division definiert,
da man so aus $\N_0$ herausfallen würde.
Da fehlen einige Konstruktionen von Mengen, z.B. die Auswahl $\{x|\dots\}$.
Aber auch vielleicht ganz am Schluss das Auswahlaxiom,
das eigentlich ein Konstruktionsprinzip ist.
Daraus entwickelt man (siehe unten) die ganzen Zahlen $\Z$,
die rationalen Zahlen $\Q$,sowie die reellen Zahlen $\R$
unter der Verwendung von Relationen, genauer äquivalenzrelationen.
Zuerst aber brauchen wir spezielle Relationen, das Kartesische Produkt,
das natürlich nichts anderes sein kann als wieder eine Menge.
\begin{defi}
Seien $X$ und $Y$ Mengen, dann heißt die Menge $X\times Y$
der Paare $(x,y)$ mit $x\in X$ und $y\in Y$
das {\em Kartesische Produkt} oder auch {\em Kreuzprodukt} von $X$ und $Y$.
\end{defi}
Man kann auch das Kreuzprodukt von mehreren Mengen bilden.
\begin{defi}
Seien $X$ und $Y$ Mengen, dann heißt eine Teilmenge $R\subseteq X\times Y$
eine {\em Relation zwischen} $X$ und $Y$\footnote{%
Vorsicht: Eine Relation zwischen $X$ und $Y$ ist was anderes
als eine Relation zwischen $Y$ und $X$.}.
Stimmen $X$ und $Y$ überein,
so spricht man von einer {\em Relation auf} $X$.
Statt $(x,y)\in R$ schreibt man $xRy$ und sagt
{\em $x$ steht in Relation $R$ zu $y$}\footnote{%
Vorsicht: Wiederum ist $xRy$ nicht äquivalent zu $yRx$.}.
Ist $R$ eine Relation, so ist die {\em Umkehrrelation} $R^{-1}$
die Menge aller $(y,x)\in Y\times X$ so dass $(x,y)\in R$ ist.
Also $xRy$ genau dann wenn $yR^{-1}x$.
Eine Relation $f$ auf heißt {\em Funktion},
wenn es zu jedem $x\in X$ genau ein $y\in Y$ gibt mit $xfy$.
Man schreibt dann $f\colon X\to Y$ und $f(x)=y$.
Ist die Umkehrrelation einer Funktion wiederum eine Funktion,
so heißt sie {\em Umkehrfunktion} $f^{-1}$.
\end{defi}
\begin{bspe}
Seien $X$ und $Y$ Mengen.
Dann gibt es u.a. folgende Beispiele für Relationen:
%
\begin{itemize}
\item
Die leere Relation $\emptyset\subseteq X\times Y$
\item
Die Gleichheitsrelation $\{(x,x)|x\in X$ ist eine Relation auf $X$.
\item
Für $X=\R$ ist $\{(x^2,x)|x\in\R\}$ eine Relation,
aber auch $\{(x,y)|x,y\in\R x<y\}$
\end{itemize}
\end{bspe}
\begin{defi}
Sei $f\colon X\to Y$ eine Funktion.
%
\begin{itemize}
\item
Für $X'\subseteq X$ heißt $f(X')=\{f(x)|x\in X'\}$
das {\em Bild} von $X'$ unter $f$.
\item
Für $Y'\subseteq Y$ heißt $f^{-1}(Y')=\{x\in X|f(x)\in Y'\}$
das {\em Urbild} von $Y'$ unter $f$.
\end{itemize}
\end{defi}
\begin{defi}
Eine Funktion $f\colon X\to Y$ heißt
%
\begin{itemize}
\item
{\em injektiv}, wenn aus $f(x)=f(x')$ für $x,x'\in X$ folgt $x=x'$.
\item
{\em surjektiv}, falls es zu jedem $y\in Y$ ein $x\in X$ gibt mit $f(x)=y$.
\item
{\em bijektiv} oder auch {\em umkehrbar},
falls $f$ injektiv und surjektiv ist.
\end{itemize}
\end{defi}
\begin{bem}
Surjektivität von $f$ bedeutet, dass es zu jedem $y\in Y$ ein Urbild gibt,
Injektivität dass das Urbild, wenn es existiert eindeutig ist.
Bijektivität bedeutet, dass das Urbild exsitiert und eindeutig ist.
Das wiederum heisst, dass die Umkehrrelation der Funktion $f$
wiederum eine Funktion ist.
Das ist es was man mit Umkehrbarkeit meint.
Bild und auch Urbild existiert ob $f$ umkehrbar ist oder nicht.
\end{bem}
\begin{defi}
Seien $X$ und $I$ Mengen.
Eine {\em Familie} $(x_i)_{i\in I}$ in $X$ mit Indexmenge $I$
ist eine Abbildung $I\to X$.
Die Elemente von $I$ heißen {\em Indices}.
\end{defi}
\begin{bem}
Bis auf die Sichtweise sind Familien einfach nur Abbildungen.
Wir verwenden den Begriff Familie im Zusammenhang mit Basen u.Ä.
Die Indexmenge ist bei endlich-dimensionalen Vektorräumen einfach nur
$\{1,\dots,n\}$ für $n\in\N_0$ und $X$ ist ein Vektorraum (siehe unten).
\end{bem}
Obwohl Ordnungsrelation $\le$ in der Mathematik eine große Rolle spielen,
verzichten wir hier auf deren strikte Definition,
zumal die Materie umfangreich ist.
Interessant wären auch die ordnungserhaltenden Abbildungen $f$,
die monotonen, für die informell gilt $x\le y\implies f(x)\le f(y)$.
Äquivalenzrelationen hingegen sind absolut notwendig.
\begin{defi}
Sei $X$ eine Menge.
Eine Relation $\sim$ auf $X$ heißt {\em Äquivalenzrelation},
wenn gelten:
%
\begin{itemize}
\item
$x\sim x$ für alle $x\in X$ (Reflexivität)
\item
$x\sim y$ wenn $y\sim x$ für alle $x,y\in X$ (Symmetrie)
\item
Aus $x\sim y$ und $y\sim z$ für $x,y,z\in X$ folgt $x\sim z$
(Transitivität).
\end{itemize}
\end{defi}
\begin{bspe}
Das Paradebeispiel für eine Äquivalenzrelation ist die Gleichheit.
Eigentlich bedeutet Äquivalenz immer eine Art Gleichheit
bis auf irrelevante Details.
Auf $\R^n\setminus\{0\}$, der Menge der Richtungsvektoren
kann man durch eine Äquivalenzrelation definieren,
indem man $x\sim y$ schreibt, wenn es ein $\lambda\in\R$ gibt
mit $\lambda x=y$ (man beachte $\lambda\not=0$).
Eine andere Relation ergibt sich, wenn man $\lambda>0$ fordert.
Die Gleichheit von Brüchen bis auf Kürzen oder
Erweitern geht in die gleiche Richtung.
\end{bspe}
\begin{bsp}\label{bsp:equiv1}
Ein Beispiel das sich als sehr interessant herausstellt ist das folgende:
Ist $f\colon X\to Y$ dann definiert $x\sim x'\iff f(x)=f(x')$
eine Äquivalenzrelation.
So wird Äquivalenz auf Gleichheit zurückgeführt.
\end{bsp}
\begin{defi}
Sei $X$ eine Menge versehen mit einer Äquivalenzrelation $\sim$.
Zu $x\in X$ sei die {\em Äquivalenzklasse} definiert durch
%
\begin{eqnarray*}
[x]_\sim & = & \{y\in X| y\sim x\}.
\end{eqnarray*}
%
Jedes Element einer Äquivalenzklasse heißt ein {\em Repräsentant}.
Die Menge der Äquivalenzklassen $X/\sim$
sei als {\em Quotientenmenge} bezeichnet.
Die {\em Quotientenabbildung} ist definiert durch
%
\begin{eqnarray*}
q\colon X & \to & X/\sim \\
q(x) & = & [x]_\sim
\end{eqnarray*}
\end{defi}
\begin{cor}\label{cor:equiv1}
Sei $X$ eine Menge mit Äquivalenzrelation $\sim$
und Quotientenabbildung $q$.
Dann gilt für alle $x,x'\in X$
%
\begin{eqnarray*}
x\sim x\ & \iff & f(x)=f(x')
\end{eqnarray*}
\end{cor}
\begin{bem}
Das Ergebnis zeigt,
dass Äquivalenz in $X$ der Gleichheit in $X/\sim$ entspricht.
Während in Beispiel \ref{bsp:equiv1}
die Äquivalenz durch Gleichheit eines Funktionenwertes
noch als Spezialfall erscheint,
zeigt Korollar \ref{cor:equiv1}
dass sich alle Äquivalenzen so interpretieren lassen.
\end{bem}
Wir sollten da ausgehend von $\N$
schrittweise die Mengen $\Z$ und $\Q$ einführen.
Einen besonderen Reiz hat $\R$, aber diese Konstruktion kann man nur andeuten.
\begin{defi}
Auf $\N_0\times\N_0$ sei die folgende Äquivalenz definiert.
%
\begin{eqnarray*}
(p,n)\sim(p',n') & \iff & p+n' = p'+n
\end{eqnarray*}
Jede Äquivalenzklasse hat genau einen Repräsentanten
der Form $(p,0)$ oder $(0,n)$.
Wir schreiben $[(p,0)]=p$, $[(0,n)]=-n$ und speziell $[(0,0)]=0$.
Damit ist die Menge der ganzen Zahlen $\Z$ als $(\N_0\times\N_0)/\sim$
definiert.
Addition und Multiplikation sind repräsentantenweise definiert:
%
\begin{eqnarray*}
[(p,n)]_\sim+ [(p',n')]_\sim
& = &
[(p,n)+(p',n')]_\sim= [(p+p',n+n')]_\sim\\{}
[(p,n)]_\sim\cdot[(p',n')]_\sim
& = &
[(p,n)\cdot(p',n')]_\sim= [(p\cdot p',n\cdot n')]_\sim\\
\end{eqnarray*}
\end{defi}
\begin{bem}
Hier erhebt sich die Frage, ob Addition und Multiplikation wohldefiniert sind,
also unabhängig vom Repräsentanten.
Zu zeigen ist einfach, dass das Ergebnis bis auf Äquivalenz
nicht vom Repräsentanten abhängt.
\end{bem}
\begin{defi}
Auf $\Z\times(\Z\setminus\{0\})$ sei die folgende Äquivalenz definiert.
%
\begin{eqnarray*}
(z,n)\sim(z',n') & \iff & z\cdot n' = z'\cdot n
\end{eqnarray*}
Damit ist die Menge der rationalen Zahlen $\Q$ als
$(\Z\times(\Z\setminus\{0\}))/\sim$ definiert.
Wir notieren $[(z,n)]$ als $\frac zn$.
Zu je zwei Klassen gibt es Repräsentanten so dass die Nenner gleich sind:
$\frac zn$ und $\frac{z'}n$.
Addition und Multiplikation sind repräsentantenweise definiert:
%
\begin{eqnarray*}
[(z,n)]_\sim+ [(z',n)]_\sim
& = &
[(z+z',n)]_\sim\\{}
[(z,n)]_\sim\cdot[(z',n')]_\sim
& = &
[(z,n)\cdot(z',n')]_\sim= [(z\cdot z',n\cdot n')]_\sim\\
\end{eqnarray*}
\end{defi}
\begin{bem}
Ausgehend von $\Q$ sind die reellen Zahlen $\R$ auch als Äquivalenzklassen
definiert.
Genaueres in Abschnitt ....
\end{bem}
\section{Grundlagen Lineare Algebra}
\label{sec:laBasics}
In der linearen Algebra geht es im Wesentlichen um Vektorräume
das sind Mengen mit deren Elementen, den Vektoren, man rechnen kann
und um diverse (lineare) Abbildungen zwischen den Vektorräumen,
die diese Rechnungen "`erhalten"'.
In der Numerik relevante Beispiele sind der $\R^n$
sowie Funktionenräume, wie der Raum der Polynome
oder der Raum der stetigen Funktionen.
In Vektorräumen kann man rechnen, wie man es im $\R^n$ gewöhnt ist.
Um Vektorräume verstehen zu können, müssen wir erst Gruppen behandeln,
da Vektorräume auch Gruppen sind.
Zudem können Vektoren auch mit Skalaren multipliziert werden,
wobei diese Skalare einen Körper bilden.
Im Wesentlichen kommen nur die Körper $\R$ der reellen Zahlen
und $\C$ der komplexen Zahlen vor.
Wir betrachten auch noch die Quaternionen $\Hd$,
die einen Schiefkörper aber keinen Körper bilden.
\subsection{Gruppen, Körper und Schiefkörper}
\label{sec:grpField}
\begin{defi}\index{Verknüpfung}
Eine {\em Verknüpfung} auf einer Menge $M$
ist eine Abbildung $\circ\colon M\times M\to M$,
die man in Infix-Schreibweise $m\circ m'$ notiert,
statt in Präfix-Schreibweise $\circ(m, m')$.
Auch Abbildungen $\circ\colon M\times M'\to M''$
mit verschiedenen Mengen $M$, $M'$, $M''$ werden als Verknüpfung geschrieben.
Als Verknüpfungszeichen sind neben $\circ$,
die Zeichen $\cdot$ und $+$ am beliebtesten.
Wo möglich läßt man die das Zeichen $\cdot$
für multiplikative Verknüpfung weg,
also schreibt man $ab$ statt $a\cdot b$.
Die Auswertungsreihenfolge wird über Klammern beschrieben.
Treten die Zeichen $\cdot$ und $+$ in einem Ausdruck auf,
so kann man mit der Regel "`Punkt vor Strich"' Klammern auch weglassen.
Bei gleichen Zeichen
kann man die Klammern mit der Regel "`links nach Rechts"' weglassen.
\end{defi}
\begin{bspe}
Hier drei sehr unterschiedliche Verknüpfungen:
%
\begin{itemize}
\item
Die Addition $+$ und die Multiplikation $\cdot$ auf den reellen Zahlen $\R$
sind Verknüpfungen.
\item
Ist $X$ eine Menge und $M$ die Menge der Abbildungen $X\to X$,
dann ist die Hintereinanderausführung $\circ$ eine Verknüpfung auf $M$.
\item
Die Skalarmultiplikation auf $\R^n$ ist eine Verknüpfung
%
\begin{eqnarray*}
\R\times\R^n&\to&\R^n \\
\alpha\cdot
\left(\begin{array}{c}x_1\\\vdots\\x_n\end{array}\right)
&=&
\left(
\begin{array}{c}\alpha\cdot x_1\\\vdots\\\alpha\cdot x_n\end{array}
\right).
\end{eqnarray*}
\end{itemize}
\end{bspe}
\begin{defi}[Gruppe]
\index{Gruppe}\index{Gruppe!kommutative}\index{Gruppe!Abel'sche}
\index{Element!inverses} \index{Element!negatives}\index{Element!neutrales}
\index{assoziativ}\index{kommutativ}
Eine {\em Gruppe} $(G,\circ)$ ist eine Menge $G$
versehen mit einer Verknüpfung $\circ\colon G\times G\to G$
so dass gilt
%
\begin{itemize}
\item
Es gibt ein Element $e\in G$, so dass gilt $e\circ g=g\circ e=g$
für alle $g\in G$.
Dabei heißt $e$ das {\em neutrale Element} von $G$.
\item
Zu jedem $g\in G$ gibt es ein Element $g'\in G$
so dass gilt $g\circ g'=g'\circ g=e$.
Dieses Element heißt das {\em inverse Element} zu $g$.
\item
Für beliebige $g,g', g''\in G$ gilt
$(g\circ g')\circ g''=g\circ (g'\circ g'')$.
Man sagt $\circ$ ist {\em assoziativ}.
\end{itemize}
Eine Gruppe heißt {\em kommutativ} oder {\em Abel'sch},
wenn $g\circ g'=g'\circ g$ gilt für alle $g, g'\in G$.
Wenn die Verknüpfung $\cdot$ geschrieben wird,
dann spricht man von einer {\em multiplikativen Gruppe}.
Das neutrale Element heißt dann {\em Einselement} und wird als $1$ geschrieben
und das zu $g\in G$ inverse Element wird dann als $g^{-1}$ geschrieben.
Nur für kommutative Gruppen wird die Verknüpfung $+$ geschrieben.
Dann spricht man von einer {\em additiven Gruppe}.
Das neutrale Element heißt dann {\em Nullelement} und wird als $0$ geschrieben
und das zu $g\in G$ inverse Element heißt dann {\em negatives Element}
und wird dann als $-g$ geschrieben.
\end{defi}
\begin{bem}
Das neutrale Element einer Gruppe $(G, \cdot)$ ist immer eindeutig,
denn für zwei neutrale Elemente $e,e'\ G$ gilt $e=ee'=e'$.
Das inverse des neutralen Elements ist das neutrale Element selbst.
Auch das inverse Element ist eindeutig bestimmt.
% Das linksinverse ist gleich dem rechtsinversen.
Man kann von linksneutralem und von rechtsneutralem Element sprechen,
genauso von linksinversem und rechtsinversem.
Es stellt sich aber heraus, dass das linksneutrale auch rechtsneutral ist
und umgekehrt, und dass entsprechendes für die inversen gilt.
\end{bem}
\begin{bspe}
Folgende sind die wichtigsten Beispiele für Gruppen.
\begin{itemize}
\item
Die kleinste Gruppe ist die, die nur ein neutrales Element enthält:
$(\{1\}, \cdot)$ bzw. $(\{0\}, +)$.
Diese Gruppe ist natürlich kommutativ.
Die leere Menge ist keine Gruppe.
\item
Eine Gruppe $(G, \cdot)$ mit zwei Elementen muss neben dem neutralen
ein weiteres Element $g\in G$ enthalten, das eben nicht neutral ist.
Das inverse zu $g$ kann nicht $1$ sein, muss also $g$ selbst sein:
$gg=1$.
Damit ist die Gruppe und die Verknüpfung eindeutig festgelegt
und natürlich ist sie kommutativ.
Diese Gruppe ist in $\R$ eingebettet als $(\{\pm1\},\cdot)$.
\item
Die $(\R,+)$ ist eine (kommutative) additive Gruppe und
$(\R\setminus\{0\},\cdot)$ ist eine multiplikative,
ebenfalls kommmutative Gruppe.
Das gleiche gilt noch für $\C$.
\item
$(\Z,+)$ ist die kleinste Gruppe, die $\N$ enthält;
insbesondere ist $\N$ keine Gruppe.
\item
$(\Q,+)$ und $(\Q\setminus\{0\}, \cdot)$ sind auch kommutative Gruppen.
\item
Definiert man die Addition auf $\R^n$ komponentenweise,
dann ist auch $(\R^n,+)$ ist eine (kommutative) additive Gruppe.
\item
Ist $X$ irgendeine Menge und
$F(X,\R^n)$ die Menge aller Funktionen $X\to\R^n$
und $+$ die punktweise Addition, also für $f,g\in F(X,\R^n)$ sei
%
\begin{eqnarray*}
(f+g)(x)&=&f(x)+g(x)
\end{eqnarray*}
dann ist auch $(F(X, R^n), +)$ eine Gruppe.
\item
Ist $G$ die Menge der invertierbaren Abbildungen $X\to X$,
wobei $X$ eine beliebige Menge sei, und bezeichne $\circ$
die Hintereinanderaussführung,
dann bildet $(G, \circ)$ eine Gruppe,
die im allgemeinen nicht kommutativ ist.
Für spezielles $X$ oder für geeignete Teilmengen $G$
der Funktionen $X\to X$ kann die Gruppe wieder kommutativ sein.
\end{itemize}
\end{bspe}
\begin{bem}
Ist $(G, \circ)$ eine Gruppe, deren Verknüpfung klar ist,
dann sagt man schlicht, dass $G$ eine Gruppe ist.
Das ist bei $\R^n$ klar und auch oft bei Funktionengruppen.
\end{bem}
\begin{defi}
Sei $(G,\cdot)$ eine Gruppe.
Ist $U\subseteq G$ eine Teilmenge von $G$ mit
%
\begin{itemize}
\item
$u\cdot u'\in U$ für alle $u,u'\in U$ (abgeschlossen unter $\cdot$)
\item
$1\in U$ für das neutrale Element $1\in G$
\item
$u^{-1}\in U$ für alle $u\in U$ (abgeschlossen unter Inversion)
\end{itemize}
%
Dann heißt $(U,\cdot)$ eine {\em Untergruppe} von $(G, \cdot)$.
\end{defi}
\begin{bem}
Untergruppen sind selbst wieder Gruppen.
\end{bem}
\begin{bsp}
Folgende Beispiele von Untergruppen sind allgemein bekannt:
%
\begin{itemize}
\item
$(\Z,+)$, $(\Q,+)$, $(\R,+)$ und $(\C,+)$
bildet eine aufsteigende Reihe von Untergruppen
\item
Ist $G$ die Menge der invertierbaren Abbildungen $X\to X$
und ist $M$ eine Teilmenge von $X$.
Dann ist die Menge $G_U$ der Abbildungen $f\in G$,
die $M$ punktweise festlassen,
also für die gilt $f(u)=u$ für alle $u\in U$,
eine Untergruppe von $(G,\circ)$.
Diese Gruppe heißt Symmetriegruppe von $M$.
Man kann auch Symmetrien von Funktionen definieren.
So bildet die Menge der Invarianzen einer Funktion auch eine Gruppe.
Leider braucht man zur vollen Beschreibung
den Begriff der Aktion einer Gruppe.
Wir können aber auch eine Funktion $f\colon G\to X$
mit Gruppe $(G,\cdot)$ und Menge $X$ betrachten
und die Menge $U$ der $g\in G$ mit $f(g\cdot g')=f(g')$ für alle $g'\in G$.
Dann bildet $U$ eine Untergruppe von $G$.
\end{itemize}
\end{bsp}
\begin{defi}
Seien $(G_1,\circ_1)$ und $(G_2,\circ_2)$ Gruppen.
Eine Abbildung
%
\begin{eqnarray*}
f\colon G_1 & \to & G_2 \\
\end{eqnarray*}
%
heißt {\em Gruppenhomomorphismus},
wenn für alle $g,g'\in G$ gilt
%
\begin{eqnarray*}
f(g\circ_1g') & = & f(g)\circ_2f(g').
\end{eqnarray*}
Man schreibt dann $f\colon(G_1,\circ_1)\to(G_2,\circ_2)$.
Der {\em Range} von $f$ ist einfach das Bild $f(G_1)\subseteq G_2$
und der {\em Kern} ist die Menge $f^{-1}(G_2)\subseteq G_1$.
\end{defi}
\begin{bem}
Intuitiv gesprochen bedeutet das,
dass $f$ entsprechende Teile von $G_1$ auf $G_2$ abbildet
und dass sich die Verknüpfung von $g$ und $g'$ mit $\circ_1$
der Verknüpfung von $f)g)$ und $f(g')$ mit $\circ_2$ entsprechen.
In diese Richtung weist auch Korollar \ref{cor:homNeuInv}.
\end{bem}
\begin{cor}\label{cor:homNeuInv}
Seien $(G_1,\circ_1)$ und $(G_2,\circ_2)$ Gruppen.
Dann gilt für jeden Gruppenhomomorphismus
$f\colon(G_1,\circ_1)\to(G_2,\circ_2)$:
%
\begin{itemize}
\item
Ist $1_1\in G_1$ das neutrale Element in $G_1$,
so ist $f(1_1)\in G_2$ das neutrale Element in $G_2$.
\item
Für $g\in G_1$ gilt $f(g^{-1})=f(g)^{-1}$,
d.h. $f$ bildet Inverse auf Inverse ab.
\end{itemize}
\end{cor}
\begin{cor}
Ist $f\colon(G_1,\circ_1)\to(G_2,\circ_2)$ ein Gruppenhomomorphismus,
so ist der Kern von $f$ eine Untergruppe von $G_1$
und der Range von $f$ eine Untergruppe von $G_2$.
Desweiteren ist $f$
%
\begin{itemize}
\item
injektiv genau dann wenn
\item
surjektiv genau dann wenn
\end{itemize}
\end{cor}
\begin{defi}
\index{Körper}
\index{distributiv}
Ein {\em Körper} $(K, +, \cdot)$ ist eine Menge $K$,
versehen mit zwei Verknüpfungen $+$ und $\cdot$, beide $K\times K\to K$,
so dass
%
\begin{itemize}
\item
$(K,+)$ ist eine (kommutative) Gruppe,
\item
$(K\setminus\{0\},\cdot)$ ist eine kommutative Gruppe,
\item
es gilt das {\em Distributivgesetz}
%
\begin{eqnarray*}
a\cdot(b+c) &=& a\cdot b+a\cdot c.
\end{eqnarray*}
\end{itemize}
\end{defi}
\begin{bemn}
Man beachte, dass die multiplikative Gruppe ohne $0$ ist.
Es gilt nämlich nach Korollar \ref{cor:factor0K} $0x=0$ für alle $x\in K$.
Die $0$ hat also kein multiplikatives Inverses.
In der numerischen Mathematik kommen eigentlich nur zwei Körper vor:
$\R$ und $\C$.
Es gibt noch den Hamiltonschen Schiefkörper $\Hd$,
aber das ist kein Körper, nur ein sogenannter Schiefkörper.
Schiefkörper betrachten wir hier nicht.
In allen Fällen sind die Verknüpfungen klar,
so dass man einfach vom Körper $\R$ oder $\C$ spricht.
\end{bemn}
\begin{cor}\label{cor:factor0K}
Ist $(K, +, \cdot)$ ein Körper, dann gilt für $a,b\in K$
%
\begin{eqnarray*}
ab=0 & \iff & a=0\text{ oder }b=0.
\end{eqnarray*}
\end{cor}
\begin{proof}
Es gilt
%
\begin{equation*}
0b+0b=(0+0)b=0b=0+0b\text{ und damit }0b=0.
\end{equation*}
%
und analog $a0=0$.
Ist umgekehrt $ab=0$ und $b\not=0$,
dann kann man mit dem Inversen von $b$ multiplizieren
und erhält $a=a1=abb^{-1}=0b^{-1}=0$.
(Analog: Ist $a\not=0$, so ist $b=0$, was aber nicht bewiesen werden muss. )
\end{proof}
\subsection{Vektorräume}
\label{subsec:vectorspace}
Die zentralen Mengen um die es in der linearen Algebra geht,
sind Vektorräume.
\begin{defi}[Vektorraum]
\index{Vektorraum}
\index{Vektor}
\index{Nullvektor}
\index{Skalar}
\index{Vektormultiplikation}
\index{Skalarmultiplikation}
Sei $(V,+)$ eine (kommutative) Gruppe, $(K,\oplus,\odot)$ ein Körper
und $\cdot\colon K\times V\to V$ eine weitere Verknüpfung so dass gilt:
%
\begin{itemize}
\item
$\alpha\cdot(u+v)=\alpha\cdot u+\alpha\cdot v$
für $\alpha\in K$, $u,v\in V$
\item
$(\alpha\oplus \beta)\cdot v=\alpha\cdot v+\beta\cdot v$
für $\alpha,\beta\in K$, $v\in V$
\item
$(\alpha\odot\beta) \cdot v = \alpha \cdot (\beta \cdot v)$
für $\alpha,\beta\in K$, $v\in V$
\item
$1 \cdot v = v$ für $1\in K$, $v\in V$ (Neutralität des Einselements)
\end{itemize}
Dann heißt $(V,+,\cdot)$ ein {\em $K$-Vektorraum},
ein {\em Vektorraum über $K$}, oder kurz ein {\em Vektorraum}.
Die Elemente von $K$ heißen {\em Skalare},
die Elemente von $V$ heißen {\em Vektoren}.
Vektoren werden mit lateinischen Buchstaben geschrieben,
Skalare hingegen mit griechischen.
Man unterscheidet zwischen dem Skalar $0\in K$
und dem {\em Nullvektor} $0\in V$.
Die Addition im Vektorraum heißt {\em Vektoraddition},
die Multiplikation von Skalar und Vektor heißt {\em Skalarmultiplikation}.
\end{defi}
\begin{bem}
In aller Regel schreibt man sowohl die Vektoraddition
als auch die addition im Körper als $+$,
und entsprechend sowohl die Skalarmultiplikation
als auch die Multiplikation im Körper als $\cdot$.
Wie die Bedingungen in der Definition illustrieren,
geht die Verknüpfung aus dem Kontext hervor.
\end{bem}
\begin{cor}\label{cor:factor0V}
Ist $(V, +, \cdot)$ ein Vektorraum über einem Körper $K$,
dann gilt für $\alpha\in K$ und $v\in V$
%
\begin{eqnarray*}
\alpha v=0 & \iff & \alpha=0\text{ oder }v=0.
\end{eqnarray*}
\end{cor}
\begin{proof}
Der Beweis ist formal wie der von Korrolar \ref{cor:factor0K},
bis auf den letzten Satz, der aber nicht benötigt wird.
\end{proof}
\begin{bspe}
Sei immer $K=\R$. Der weitaus wichtigste $\R$-Vektorraum für uns ist $\R^n$,
wobei die Vektoraddition und die Skalarmultiplikation
komponentenweise über Adddition und Multiplikation auf $\R$ definiert sind.
%
\begin{eqnarray*}
\left(\begin{array}{c}x_1 \\\vdots\\x_n \end{array}\right)+
\left(\begin{array}{c} y_1\\\vdots\\ y_n\end{array}\right)=
\left(\begin{array}{c}x_1+y_1\\\vdots\\x_n+y_n\end{array}\right)
&\text{ und }&
\alpha\cdot
\left(
\begin{array}{c} x_1\\\vdots\\ x_n\end{array}\right)=
\left(
\begin{array}{c}\alpha\cdot x_1\\\vdots\\\alpha\cdot x_n\end{array}\right).
\end{eqnarray*}
Auch die Menge $C([0,1])$ der stetigen Funktionen $[0,1]\to\R$
bildet einen Vektorraum,
wenn Vektoraddition (Funktionsaddition) und Skalarmultiplikation
punktweise durch Addition und Multiplikation auf $\R$ definiert sind:
%
\begin{eqnarray*}
(f+g)(x) = f(x)+g(x)
&\text{ und }&
(\alpha\cdot f)(x)=\alpha\cdot(f(x)).
\end{eqnarray*}
Man kann auch $\C$ als Vektorraum über $\R$ betrachten.
Die Vektoraddition ist die Addition in $\C$
und die Skalarmultiplikation ist die Multiplikation
mit einem Faktor in $\R$ und dem anderen in $\C$.
\end{bspe}
\begin{bemn}
Ist $(V, +, \circ)$ ein Vektorraum, dessen Verknüpfungen klar sind,
dann sagt man schlicht, dass $V$ ein Vektorraum ist.
Das ist bei $\R^n$ klar und auch oft bei Funktionengruppen.
\end{bemn}
\begin{defi}
\index{Untervektorraum}
Sei $K$ ein Körper und $(V,+,\cdot)$ ein $K$-Vektorraum.
Eine Teilmenge $U$ von $V$ heißt ein {\em Untervektorraum}, wenn
%
\begin{itemize}
\item
$0\in U$ für den Nullvektor $0\in V$
\item
$u+v\in U$ für $u,v\in U$
\item
$\alpha\cdot u\in U$ für $\alpha\in K$, $u\in U$
\end{itemize}
%
d.h. man kann die Verknüpfungen auf $U$ einschränken.
Damit ist $(U,+,\cdot)$ selbst ein $K$-vektorraum.
\end{defi}
\begin{defi}
\index{Linearkombination}
\index{Aufspann}
\index{lineare Hülle}
Sei $K$ ein Körper, $V$ ein $K$-Vektorraum und $U\subset V$ eine Teilmenge.
Eine {\em Linearkombination} von Vektoren aus $U$ ist ein Ausdruck
%
\begin{equation*}
\alpha_1\cdot v_1+\ldots+\alpha_n\cdot v_n
\end{equation*}
%
mit $n\in\N_0$, $\alpha_1,\dots,\alpha_n\in K$ und $v_1,\dots,v_n\in U$.
Der {\em Aufspann} $\spann U$ (die {\em lineare Hülle}) von $U$
ist die Menge aller Vektoren,
die sich als Linearkombinationen aus $U$ darstellen lassen.
Ist $U_I$ eine Familie von Vektoren in $V$,
so ist der {\em Aufspann} $\spann U_I$ definiert als $\spann\{u_i|i\in I\}$.
\end{defi}
\begin{bem}
Man beachte, dass Linearkombinationen immer endlich sind,
auch wenn unendlich viele Vektoren zur Verfügung stehen.
Ausserdem kann eine Linearkombination auch leer sein.
Wegen $0=0+x$ steht die leere Linearkombination für den Nullvektor.
\end{bem}
\begin{lem}
Sei $K$ ein Körper, $V$ ein $K$-Vektorraum und $U\subset V$ eine Teilmenge.
Der Aufspann $\spann U$ ist der kleinste Unterraum von $V$, der $U$ enthält.
\end{lem}
\begin{proof}
Erst mal ist klar, dass $U\subseteq \spann U$,
denn alle $u\in U$ lassen sich als $1\cdot u\in\spann U$ schreiben.
Dann ist auch klar, dass auch $0\in \spann U$ ist,
sogar wenn $U$ leer ist, denn dann nimmt man die leere Linearkombination
mit $n=0$.
Die anderen Eigenschaften eines Unterraumes sind klar.
Dass $\spann U$ der kleinste derartige Unterraum ist,
geht daraus hervor, dass eine Menge die $U$ enthält
und ein Untervektorraum ist,
auch alle Linearkombinationen enthalten muss.
\end{proof}
\begin{defi}
\index{linear unabhängig}
\index{unabhängig!linear}
Sei $K$ ein Körper, $V$ ein $K$-Vektorraum.
Eine Teilmenge $U\subset V$ heißt {\em linear unabhängig},
wenn für Linearkombinationen
%
\begin{eqnarray*}
0&=&\alpha_1\cdot v_1+\ldots+\alpha_n\cdot v_n
\end{eqnarray*}
%
aus $U$ gilt $\alpha_1=\ldots=\alpha_n=0$.
\end{defi}
\begin{cor}
Sei $K$ ein Körper und $V$ ein $K$-Vektorraum.
Eine Teilmenge $U\subset V$ ist linear unabhängig genau dann,
wenn sich kein $u\in U$ als Linearkombination anderer Vektoren aus $U$
darstellen läßt.
\end{cor}
\begin{proof}
Sei $U$ linear unabhängig und $u\in U$.
Jede Linearkombination $u=\alpha_1\cdot v_1+\ldots+\alpha_n\cdot v_n$
aus $U$ mit $v_1,\dots,v_n\not=u$ kann man umformen in
$0=\alpha_1\cdot v_1+\ldots+\alpha_n\cdot v_n+(-1) u$
und damit $0=\alpha_1\cdot v_1+\ldots+\alpha_n\cdot v_n+(\alpha-1) u$.
Daraus folgt $\alpha_1,\dots,\alpha_n=0$ und $\alpha=1$.
\end{proof}
\begin{defi}
\index{Erzeugendensystem}
\index{Basis}
Sei $K$ ein Körper, $V$ ein $K$-Vektorraum.
Eine Familie von $U_I$ in $V$ heißt ein {\em Erzeugendensystem}
von $V$, wenn $V=\spann U_I$ ist.
Ein unverkürzbares Erzeugendensystem,
also eines so dass
%
\begin{equation*}
I'\subsetneq I \implies\spann U_{I'}\subsetneq\spann U_I
\end{equation*}
%
gilt, heißt {\em Basis} von $V$.
\end{defi}
\newpage
\section{Grundlagen Analysis}
\label{sec:anaBasics}
In der Analysis geht es im Wesentlichen um metrische Räume,
also um Mengen deren Elemente für die ein Abstand,
eine "`Metrik"' definiert ist,
sowie um Abbildungen, die diese Abstände "`erhalten"',
wie die stetigen Abbildungen.
Genauer definiert man über Abstände die Konvergenz von Folgen
und stetige Abbildungen sind Abbildungen, die die Konvergenz erhalten.
Die metrischen Räume der Analysis sind oft auch Vektorräume,