This repository has been archived by the owner on Nov 27, 2018. It is now read-only.
-
Notifications
You must be signed in to change notification settings - Fork 4
/
Maths.tex
4784 lines (4684 loc) · 249 KB
/
Maths.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
% !TEX encoding = UTF-8 Unicode
\documentclass[11pt,a4paper,fleqn,pdftex,final]{report}
\include{Preambule}
\externaldocument[PHY-]{Physique}[Physique.pdf]% <- full or relative path
\begin{document}
\newcounter{density}
\setcounter{density}{20}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Page de Garde
\begin{titlepage}
\newgeometry{left=3cm,bottom=5cm,right=3cm,top=5cm}
\begin{center}
\textsc{}\\[3.5cm]
\textsc{\Large Cours de Prépa}\\[0.5cm]
% Title
\HRule \\[0.4cm]
{ \huge \bfseries Mathématiques \\[0.4cm] }
\HRule \\[1.5cm]
% Author
\begin{minipage}{0.4\textwidth}
\begin{flushleft} \large
\emphh{Écrit par}\\
Alexandre \textsc{Jouandin}
\end{flushleft}
\end{minipage}
\begin{minipage}{0.4\textwidth}
\begin{flushright} \large
\emphh{Année} \\
2013---2015
\end{flushright}
\end{minipage}
\begin{tikzpicture}[scale=0.7]
\def\couleur{MidnightBlue}
\path[coordinate] (0,0) coordinate(A)
++( 60:12cm) coordinate(B)
++(-60:12cm) coordinate(C);
\draw[fill=\couleur!\thedensity] (A) -- (B) -- (C) -- cycle;
\foreach \x in {1,...,17}{%
\pgfmathsetcounter{density}{\thedensity+10}
\setcounter{density}{\thedensity}
\path[coordinate] coordinate(X) at (A){};
\path[coordinate] (A) -- (B) coordinate[pos=.15](A)
-- (C) coordinate[pos=.15](B)
-- (X) coordinate[pos=.15](C);
\draw[fill=\couleur!\thedensity] (A)--(B)--(C)--cycle;
}
\end{tikzpicture}
\vfill
\end{center}
% Bottom of the page
{\large \today}
\end{titlepage}
\addtocounter{page}{1}
\tableofcontents
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Début du livre
\part{Première année}
\chapter{Géométrie} % (fold)
\label{cha:geometrie}
\section{Équations générales} % (fold)
\label{sec:equations_generales}
\begin{tabular}{r | l}
Type & Équation \\
Droite & $ax + by +c = 0$ \\
Plan & $ax + by +cz +d = 0$ \\
Cercle & $(x-x_0)^2 + (y-y_0)^2 = R^2$ \\
Sphère & $(x-x_0)^2 + (y-y_0)^2 + (z-z_0)^2 = R^2$
\end{tabular}
% section equations_generales (end)
% chapter geometrie (end)
\chapter{Calculs algébriques} % (fold)
\label{cha:calculs_algebriques}
\section{Somme des termes d'une suite arithmétique} % (fold)
\label{sec:sommes_arithmetiques}
\begin{dfn}
Soit $I$ un ensemble fini, et $(x_i)_{i\in I}$ une famille de nombres complexes. \\[\baselineskip]
La somme des $x_i$ est notée $\sum_{i\in I} x_i$\\
Le produit des $x_i$ est noté $\prod_{i\in I} x_i$
\end{dfn}
\begin{theorem}[Somme des entiers de $1$ à $n$]
Pour tout $n$ de $1$ à $n$ :
\begin{equation}
\sum_{k=1}^n k = \dfrac{n(n-1)}{2}
\end{equation}
\end{theorem}
\begin{proof}
\begin{equation}
\begin{array}{r c *{4}{c@{\; + \;}} c}
S & = & 1 & 2 & \cdots & n-1 & n \\
+\quad S & = & n & n-1 & \cdots & 2 & 1 \\
\hline
2S & = & n+1 & n+1 & \cdots & n+1 & n+1
\end{array}
\end{equation}
d'où $2S = n \times (n+1)$, et $S=\dfrac{n(n+1)}{2}$
\end{proof}
\begin{theorem}[Somme des premières puissances]
Pour tout $n$ entier naturel non nul, on a :
\begin{subequations}
\begin{align}
\sum_{k=1}^n k^2 &= \dfrac{n(n+1)(2n+1)}{6} \\
\sum_{k=1}^n k^3 &= \dfrac{n^2(n+1)^2}{4} \\
&= \left( \sum_{k=1}^n k \right)^2 \notag
\end{align}
\end{subequations}
Les démonstrations de ces formules se font par récurrence (en connaissant le résultat), ou en primitivant.
\end{theorem}
% section sommes_arithmetiques (end)
\section{Coefficients binomiaux} % (fold)
\label{sec:coefficients_binomiaux}
\begin{dfn}
Pour $E$ un ensemble fini de $n$ éléments, on note $\binom{n}{p}$ le nombre de sous-parties de $E$ à $p$ éléments.
\begin{equation}
\binom{n}{p} = \dfrac{n!}{p!(n-p)!}
\end{equation}
\end{dfn}
% section coefficients_binomiaux (end)
% chapter calculs_algebriques (end)
\chapter{Suites}
\begin{dfn}[Borne supérieure]
On appelle \emph{borne supérieure} d'une partie $F$ d'un ensemble ordonné fini $E$ \emphh{le plus petit des majorants} de $F$.\newline
En d'autres termes,
\begin{equation}
a = \sup F \Leftrightarrow \forall y \in F, \left[ \vphantom{\sum{}} a \le y \Leftrightarrow \left( \forall x \in F, x \le y \right) \right]
\end{equation}
\end{dfn}
\begin{itheorem}[Théorème de la suite monotone]
\begin{tabbing}
Soit $\left( u_n\right)_{n\in \mathbb{N}}$ une suite croissante de $\Reel{}^\mathbb{N}$. \\
So\= \kill
\> Si $(u_n)$ est majorée, alors elle converge \emphhs{vers sa borne supérieure}.\\
\> Sinon, si $(u_n)$ n'est pas majorée, alors elle admet $+\infty$ pour limite.
\end{tabbing}
\end{itheorem}
\section{Comparaison de suites}
\begin{dfn}[Suites équivalentes]\label{equivalence}
Deux suites $u_n$ et $v_n$ sont dites \emph{équivalentes}\index{equivalence@Équivalence} en l'infini s'il existe une suite $w_n$ tendant vers 1 en l'infini telle que $u_n = w_n \times v_n$.\\
Autrement dit :
\begin{empheq}[box = \ibox]{equation}
u_n \sim v_n \Leftrightarrow \exists w_n \xrightarrow[+\infty]{} 1 \text{ tq } u_n = w_n v_n
\end{empheq}
\end{dfn}
\begin{dfn}[$O(\cdots)$ et $o(\cdots)$]
Si $x_n$ est une suite de $(E,N)^\mathbb{N}$ et $(\alpha_n)$ une suite de $\Reel^\mathbb{N}$ :
\begin{equation}
\begin{array}{r@{\text{, si }}l@{\quad n \ge n_0 \implies}l}
x_n = O(\alpha_n) & \forall M \in R^+, \exists n_0, \forall n \in \mathbb{N},& N(x_n) \le M|\alpha_n| \\
x_n = o(\alpha_n) & \forall \varepsilon > 0, \exists n_0, \forall n \in \mathbb{N}, & N(x_n) \le \varepsilon | \alpha_n|
\end{array}
\end{equation}
\end{dfn}
\needspace{3cm}
\begin{dfn}[$O(\cdots)$ et $o(\cdots)$ dans \Reel{}]
\label{dfn:domination_negligeabilite}
Si $(\alpha_n)_n$ est une suite à valeurs dans $\Reel^{\textcolor{couleurImp}{*}}$,
\begin{equation}
\begin{array}{r@{\text{, \ssi{} }}c}
x_n \underset{n\to +\infty}{=} O(\alpha_n) & \dfrac{x_n}{\alpha_n} \text{ est bornée.} \\[15pt]
x_n \underset{n\to +\infty}{=} o(\alpha_n) & \dfrac{x_n}{\alpha_n} \xrightarrow[n\to +\infty]{} 0
\end{array}
\end{equation}
\end{dfn}
\Attention{Une suite ne peut pas, à notre niveau, être $\sim 0$, en $o(0)$ ou $O(0)$, car la définition dirait que la suite est nulle à partir d'un certain rang.}
\section{Suites de Cauchy} % (fold)
\label{sec:suites_de_cauchy}
\begin{dfn}[Suite de \textsc{Cauchy}]
Une suite $(x_n)_n$ dans $(E,N)$ est dite de Cauchy si
\begin{equation}
\forall \varepsilon > 0, \exists n_0, \forall (n,p) \in \mathbb{N}^2, n\ge n_0 \implies \boxed{N\big( x_{n+p} - x_n \big)< \varepsilon}
\end{equation}
\end{dfn}
% section suites_de_cauchy (end)
\section{Suites usuelles} % (fold)
\label{sec:suites_usuelles}
\begin{methode}
\titre{Suite récurrente du premier ordre}
Soit une suite récurrente linéaire $u_n$ de la forme :
\[
u_{n+1} = a u_n + b
\]
\begin{enumerate}
\item On cherche $\lambda$ un point fixe : $\lambda = a\lambda + b$. On trouve $\lambda = \dfrac{b}{1 -a}$.
\item On montre que la suite $v_n = (u_n - \lambda)$ est une suite géométrique de raison $a$.
\item Ainsi, $v_n = a^n v_0 = a^n (u_0 - \lambda)$. D'où $u_n = a^n (u_0 - \lambda ) + \lambda$.
\end{enumerate}
\titre{Suite récurrente linéaire d'ordre $2$}
Soit une suite récurrente linéaire $u_n$ de la forme :
\[
u_{n+2} = a u_{n+1} + b u_n
\]
\begin{enumerate}
\item On pose la fonction caractéristique : $f(r) = r^2 - a r + b$
\item On calcule son déterminant $\Delta = (-a)^2 - 4b$. Deux cas se présentent :
\begin{itemize}
\item $\Delta = 0$, alors $\exists ! (\lambda , \mu ) \in \Cmplx^2$ tel que $u_n = (\lambda + \mu n)\left( \dfrac{a}{2}\right)^n$
\item $\Delta \neq 0$, alors $\exists ! (\lambda , \mu ) \in \Cmplx^2$ tel que $u_n = \lambda r_1^n + \mu r_2^n $
\end{itemize}
\end{enumerate}
\end{methode}
% subsection suites_recurrentes_lineaires (end)
% section suites_usuelles (end)
%
\chapter{Nombres complexes} % (fold)
\label{cha:nombres_complexes}
\section{Plan complexe} % (fold)
\label{sec:plan_complexe}
\begin{dfn}[Corps complexe $(\Cmplx{},+,\times{})$]
Un \emph{nombre complexe}\index{Complexe} est un élément $(a,b) \in \Reel{}^2$. L'ensemble des nombres complexes est noté \Cmplx{}, c'est un corps muni des lois suivantes :
\begin{description}
\item[Addition] $(a,b) + (c,d) = (a+c,b+d)$\hfill \\de neutre $(0,0)$
\item[Multiplication] $(a,b) \times (c,d) = (ac - bd, ad + bc)$\hfill \\de neutre $(1,0)$
\end{description}
\end{dfn}
\begin{theorem}
$(\Cmplx{},+,\times{})$ est un corps \emphl{(\textit{cf.} tableau \ref{tab:Groupe-Anneau-Corps} page \pageref{tab:Groupe-Anneau-Corps} pour la définition d'un corps)}
\end{theorem}
\begin{dfn}[Module]
Soit $z=x+iy$ un nombre complexe. On appelle \emph{module}\index{Module} la valeur $|z| = \sqrt{x^2 + y^2}$
\end{dfn}
% section plan_complexe (end)
\section{Nombres complexes de module 1} % (fold)
\label{sec:nombres_complexes_de_module_1}
\begin{dfn}
On note $\mathcal{U}$ l'ensemble des nombres complexes de module 1.\\
Le disque unité est l'ensemble de ses points.
\end{dfn}
\needspace{4cm}
\begin{prop}
\begin{itemize}
\item $\mathcal{U}$ est stable par le produit $\times$
\item $z \in \mathcal{U} \Longleftrightarrow \overline{z} = \frac{1}{z}$
\end{itemize}
\end{prop}
% section nombres_complexes_de_module_1 (end)
% chapter nombres_complexes (end)
\part{Structures algébriques usuelles} % (fold)
\label{prt:structures_algebriques_usuelles}
% Tableau des définitions
\begin{table}[ht]
\begin{center}
\renewcommand{\arraystretch}{1.2}
\begin{tabu}{c r |[1.3pt] *{3}{c|} c |[1.3pt]}
& & Groupe & Groupe Abélien & Anneau & Corps \\
\tabucline[1pt]{-}
\multirow{4}{*}{\rotatebox[origin=c]{90}{Loi ($+$/$*$)}}
& Neutre $e$ (ou $0$) & \cellcolor{couleurClaire}\cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Assossiative & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Symétrique (admet $a^{-1}$) & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Commutative & & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\tabucline[1pt]{-}
\multirow{5}{*}{\rotatebox[origin=c]{90}{Loi $\times$}}
& Neutre $1$ & & & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Associative & & & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Distributive de la loi + & & & \cellcolor{couleurClaire}\checkmark & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Commutative & & & & \cellcolor{couleurClaire}\checkmark \\
\cline{2-6}
& Inversible & & & & \cellcolor{couleurClaire}\checkmark \\
\tabucline[1pt]{-}
\end{tabu}
\end{center}
\caption{Tableau récapitulatif des définitions}\label{tab:Groupe-Anneau-Corps}
\end{table}
%
\chapter{Groupes et sous-groupes}
\section{Groupes et sous-groupes} % (fold)
\label{sec:definition_d_un_groupe}
\begin{dfn}[Groupe]
On appelle \emph{groupe}\index{Groupe} le couple $(G,*)$ où $G$ est un ensemble muni d'$*$, une \gls{LCI} associative, symétrique, et admettant un neutre.
\end{dfn}
% section definition_d_un_groupe (end)
\subsection{Produit fini de groupes} % (fold)
\label{sub:produit_fini_de_groupes}
\begin{dfn}[Groupe Produit]
Soient $(G,*)$ et $(G',\circ)$ deux groupes. \newline
Le groupe $\left( G\times G', \square \right)$ tel que
\[
(x,x')\square (y,y') = (x*y,x'\circ y')
\]
est un groupe appelé \emph{groupe produit}\index{Groupe!produit} de $G$ et $G'$
\end{dfn}
\begin{exemple}[Groupe de \textsc{Klein}]\label{ex:groupe_de_klein}
Le groupe $(\mathbb{Z}/2\mathbb{Z} \times \mathbb{Z}/2\mathbb{Z})$ est appelé \emphh{groupe de \textsc{Klein}}\index{Groupe!Klein@\emphi{de }\textsc{Klein}}. C'est un groupe produit, il n'est pas isomorphe à $\mathbb{Z}/4\mathbb{Z}$, et \emphhs{il a la spécificité de ne pas être cyclique}.
\end{exemple}
% subsection produit_fini_de_groupes (end)
\subsection{Sous-groupe} % (fold)
\label{sec:sous_groupe}
\begin{dfn}[Sous-groupe]
Soit $(G,*)$ un groupe, et soit $H$ une partie de $G$\\
On dit que $H$ est un \emph{sous-groupe}\index{Sous-groupe} de $G$ si, muni de la \gls{LCI} $*$, $H$ est un groupe stable par $*$.
\end{dfn}
\needspace{5cm}
\begin{itheorem}[Caractérisation d'un sous-groupe]
Avec les notations précédentes, $H$ est un sous-groupe de $G$ si :
\begin{itemize}
\item $H$ n'est pas vide
\item $\forall (x,y) \in H^2,\, x*y^{-1} \in H$.
\end{itemize}
En général, pour vérifier que $H$ est non vide, on vérifie que le neutre $e$ de $G$ est aussi dans $G$.
\end{itheorem}
\begin{theorem}[Intersection de sous-groupes]
Soit $\left( H_i \right)_{i\in \mathbb{N}}$ une famille de sous-groupes.\\
Alors $H=\bigcap_{i\in \mathbb{N}} H_i$ est un sous-groupe.
\end{theorem}
\begin{proof}
Avec les notations précédentes, montrons que $H$ est un sous-groupe :
\[
\begin{array}{r c r}
\forall i\in \mathbb{N},\, e\in H_i &\implies & e\in H \\
\forall (x,y)\in H^2,\, \forall i\in \mathbb{N},\, (x,y)\in H_i^2,\text{ donc }x*y^{-1}\in H_i & \implies & x*y^{-1}\in H
\end{array}
\]
Ainsi, $H$ respecte les propriétés de caractérisation d'un sous-groupe, donc $H$ est un sous-groupe.\qed
\end{proof}
\begin{dfn}[Sous-groupe engendré]
Soit $G$ un groupe, et soit $A$ une partie de $G$. \\
L'intersection des sous-groupes de $G$ contenant $A$ est le plus petit sous-groupe contenant $A$. On le note $\langle A \rangle$, et on dit que c'est le \emph{sous-groupe engendré}\index{Sous-groupe!engendre@engendré} par $A$.
\end{dfn}
\begin{itheorem}[Sous-groupes de $\left( \mathbb{Z},+ \right) $]\label{thm:sous_groupe_de_Z}
Pour tout sous-groupe $H$ de $\left( \mathbb{Z},+ \right),\,\exists n\in \mathbb{N}$ tel que $H=n\mathbb{Z}$
\end{itheorem}
\begin{proof}
Soit $H$ un sous-groupe. Si $H=\lbrace 0 \rbrace$, alors $H=0\mathbb{Z}$.\\
Supposons maintenant que $H$ contient au moins un entier. \newline
Soit \uline{$n$ le plus petit entier} de $H$. Il convient de dire que $n\mathbb{Z}\in H$. \newline
Soit $m$ un entier quelconque de $H$. Effectuons sa division euclidienne par $n$ :
\begin{gather*}
m = nq+r \quad\quad\quad 0\le r < n \\
nq\in H,\, m\in H \implies \boxed{r\in H}
\end{gather*}
Or $n$ étant le plus petit entier dans $H$, $r$ dans $H$ étant inférieur à $n$, $r=0$, donc $m=nq$\qed
\end{proof}
% subsection sous_groupe (end)
\section{Morphismes de groupes} % (fold)
\label{sec:morphismes_de_groupes}
\subsection{Définition} % (fold)
\label{sub:morphismes_de_groupe_definition}
\begin{dfn}[Morphisme de groupes]
On appelle \emph{morphisme}\index{Morphisme!groupe@\emphi{de }groupe} d'un groupe $(G,*)$ à un groupe $(H,\times )$ l'application $f$ telle que
\begin{equation}
\forall (x,y) \in G^2,\, f \left( x*y \right) = f(x)\times f(y)
\end{equation}
\end{dfn}
% subsection morphismes_de_groupe_definition (end)
\subsection{Propriétés d'un morphisme de groupes} % (fold)
\label{sub:proprietes_d_un_morphisme}
\begin{theorem}[Image et image réciproque d'un sous-groupe]
L'image d'un sous-groupe par un morphisme est un sous groupe. \newline
L'image réciproque d'une sous-groupe par un morphisme est un sous-groupe\\
\begin{center}
\begin{tikzpicture}
\begin{scope}[rotate around={-40:(-4,0)}] % rotate around={degree:coordinate}
\draw[color=couleurNoirClair, fill=couleurGrisFonce, line width=1pt] (-4,0) ellipse (2 and 1);
\draw[dashed, color=couleurNoirClair, fill=couleurGrisClair, rotate around={15:(-3.8,0)}, line width=1pt] (-3.8,0) ellipse(1 and 0.7) (-3.6,0) node{$H$};
\draw (-5.3,0) node{$G$} (-4,0) node{$\bullet$} (-4,0) node[above]{$e$};
\end{scope}
\begin{scope}[rotate around={15:(4,0)}] % rotate around={degree:coordinate}
\draw[color=couleurNoirClair, fill=couleurGrisFonce, line width=1pt] (4,0) ellipse (2 and 1);
\draw[dashed, color=couleurNoirClair, fill=couleurGrisClair, rotate around={15:(3.3,0)}, line width=1pt] (3.3,0) ellipse(1 and 0.7) (2.6,0) node{$H'$};
\draw (5.3,0) node{$G'$} (4,0) node{$\bullet$} (4,0) node[above left]{$e'$};
\end{scope}
\draw[<->, >=latex, line width=2pt, color=couleurFonce] (-3,1) to [bend left=40] node[midway, below]{$f$} (2.1,0.8);
\end{tikzpicture}
\captionof{figure}{Image et image réciproque d'un sous-groupe par un morphisme $f$}
\end{center}
\end{theorem}
\begin{itheorem}[Condition d'injectivité d'un morphisme]
Soit $f$ un morphisme de groupes de $\left( G,* \right) $ dans $\left( H, \times \right) $. Alors :
\begin{tabbing}
$f$ est \= \emphh{surjective} \= $\Leftrightarrow \mathrm{Im} f = H$ \kill
$f$ est \> \emphh{injective} \> $\Leftrightarrow \mathrm{Ker} f = \lbrace e \rbrace$ \\
$f$ est \> \emphh{surjective} \> $\Leftrightarrow \mathrm{Im} f = H$
\end{tabbing}
\end{itheorem}
\begin{prop}
Soit $f : G \to G'$ un morphisme de groupes de neutres respectifs $e$ et $e'$. Alors :
\begin{itemize}
\item $f(e) = e'$
\item $\forall x\in G,\, f(x^{-1}) = f(x)^{-1}$
\end{itemize}
\end{prop}
% subsection proprietes_d_un_morphisme (end)
\subsection{Isomorphismes} % (fold)
\label{sub:isomorphismes}
\begin{dfn}[Isomorphisme]
Un morphisme de groupe \emphh{bijectif} est appelé \emph{isomorphisme}\index{Isomorphisme}
\end{dfn}
\begin{theorem}[Réciproque d'un isomorphisme]
La bijection réciproque d'un isomorphisme est un isomorphisme.
\end{theorem}
% subsection isomorphismes (end)
% section morphismes_de_groupes (end)
\section{Groupes monogènes et cycliques} % (fold)
\label{sec:groupes_monogenes_et_cycliques}
\begin{dfn}[Groupe $\big( \mathbb{Z}/n\mathbb{Z},+ \big)$]
Un élément de $\mathbb{Z}/ n\mathbb{Z}$ est la classe des éléments ayant tous le même reste par la division euclidienne par $n$.\newline
$\big( \mathbb{Z}/n\mathbb{Z},+ \big)$ est un groupe.
\end{dfn}
E.g.\textit{: Dans $\mathbb{Z}/3\mathbb{Z}$, l'élément $\bar{1}$ est la classe des éléments de $\mathbb{Z}$ ayants tous le même reste $\bar{1}$ dans leur division par $3$.}
\begin{theorem}[Générateurs de $\mathbb{Z}/n\mathbb{Z}$]
Soit $n\in \mathbb{N}^*$. Les éléments générateurs du groupe $\big( \mathbb{Z}/n\mathbb{Z},+ \big)$ sont les classes $\dot{k}$ où $k \wedge n = 1$.
\end{theorem}
\begin{dfn}[Groupe monogène]
$G$ est un \emph{groupe monogène}\index{Monogene@Monogène}\index{Groupe!monogene@monogène} s'il est engendré par un seul élément $a$, c'est-à-dire si $G = \langle a \rangle$.
\end{dfn}
\begin{dfn}[Groupe cyclique]
Un groupe monogène fini est appelé \emph{groupe cyclique}.\\
Plus visuellement, un groupe monogène est cyclique $G = \langle a \rangle$ s'il peut s'écrire sous la forme :
\[G = \left\lbrace e,a,a^2,\ldots,a^n \right\rbrace \]
\end{dfn}
\begin{itheorem}
Tout groupe monogène infini est isomorphe à $(\mathbb{Z},+)$.\\
Tout groupe monogène fini de cardinal $n$ (groupe cyclique d'ordre $n$) est isomorphe à $\big(\mathbb{Z}/n\mathbb{Z},+\big)$.
\end{itheorem}
% section groupes_monogenes_et_cycliques (end)
\section{Ordre d'un élément dans un groupe} % (fold)
\label{sec:ordre_d_un_element_dans_un_groupe}
\begin{dfn}[Ordre d'un groupe]
L'\emph{ordre}\index{Ordre!groupe@\emphi{d'un} groupe} d'un groupe fini est son cardinal $n$.
\end{dfn}
\begin{dfn}[Ordre d'un élément dans un groupe]
Soit $a\in G$. Si $\langle a \langle$ est fini, l'\emph{ordre de $a$}\index{Ordre!element@\emphi{d'un} élément} est le cardinal de ce sous-groupe.
\end{dfn}
\begin{itheorem}[Théorème de \textsc{Lagrange}]
Dans un groupe fini, l'ordre d'un sous-groupe est un \emphhs{diviseur} de l'ordre du groupe.
\end{itheorem}
\begin{dfn}[Éléments nilpotents]
Un élément est \emph{nilpotent}\index{Nilpotent} si, composé par lui même, il peut être nul :
\begin{equation}
\left\lbrace \begin{array}{l} a\text{ nilpotent}\\ a\neq 0 \end{array}\right. \Leftrightarrow \exists p \in \mathbb{N}^{\alpha} \text{ tel que } a^p =0
\end{equation}
\end{dfn}
% section ordre_d_un_element_dans_un_groupe (end)
\section{Classe d'équivalence}
\begin{dfn}[Relation d'équivalence]
Une relation d'équivalence $\mathcal{R}$ est une relation binaire caractérisée de la manière suivante :
\begin{equation}
\left|
\begin{array}{r l c}
\forall x \in E,& \boldsymbol{x\mathcal{R}x} & \text{\textbf{(Réfléxivité)}}\\
\forall (x,y) \in E^2, & x\mathcal{R}y\implies \boldsymbol{y\mathcal{R}x} &\text{\textcolor{couleurImp}{\textbf{(Symétrie)}}}\\
\forall (x,y,z) \in E^3, & \big( x\mathcal{R}y \text{ et } y\mathcal{R}z \big) \implies \boldsymbol{x\mathcal{R}z} & \text{\textbf{(Transitivité)}}
\end{array}
\right.
\end{equation}
\end{dfn}
\begin{dfn}[Relation d'ordre]
Une relation d'ordre $\mathcal{R}$ est également une relation binaire. Elle se caractérise de la manière suivante :
\begin{equation}
\left|
\begin{array}{r l c}
\forall x \in E,& \boldsymbol{x\mathcal{R}x} & \text{\textbf{(Réfléxivité)}}\\
\forall (x,y) \in E^2, & \big( x\mathcal{R}y \text{ et } y\mathcal{R}x \big) \implies \boldsymbol{x=y} & \text{\textcolor{couleurImp}{\textbf{(Anti-symétrie)}}}\\
\forall (x,y,z) \in E^3, & \big( x\mathcal{R}y \text{ et } y\mathcal{R}z \big) \implies \boldsymbol{x\mathcal{R}z} & \text{\textbf{(Transitivité)}}
\end{array}
\right.
\end{equation}
\end{dfn}
\Attention{Bien savoir ce que signifient Symétrie et Anti-symétrie}
\begin{theorem}[Indicatrice d'\textsc{Euler}\index{Euler@\textsc{Euler}}]
C'est la fonction $\varphi$ telle que
\[
\varphi (n) = \mathrm{Card}\big( \left\lbrace \left( \mathbb{Z} / n \mathbb{Z} \right) ^{*} \right\rbrace \big)
\]
\end{theorem}
%TODO Théorème Chinois
% part structures_algebriques_usuelles (end)
\part{Algèbre}
\chapter{Fonctions convexes} % (fold)
\label{cha:fonctions_convexes}
\section{Parties convexes d'un espace vectoriel réel} % (fold)
\label{sec:parties_convexes_d_un_ev}
\subsection{Barycentre} % (fold)
\label{sub:barycentre}
\begin{dfn}[Barycentre]
Soit $\big( x_i,\alpha_i\big)_{i\in \mathbb{N}}$ une famille \uline{finie} de points pondérés telle que la somme des coefficients $\sum_i \alpha_i \neq 0$. On appelle \emph{barycentre}\index{Barycentre} des points $x_i$ le point $G$ tel que :
\begin{equation}
G = \dfrac{\displaystyle\sum_i \alpha_i~x_i}{\sum \alpha_i}
\end{equation}
\end{dfn}
% TODO Rajouter les propriétés des barycentres
\todo{Rajouter les propriétés des barycentres}
% subsection barycentre (end)
\subsection{Partie convexe} % (fold)
\label{sub:partie_convexe}
La partie suivante est copiée de la sous-section~\ref{sub:convexe_connexite} page~\pageref{sub:convexe_connexite} :
\begin{dfn}[Convexe]
\begin{minipage}{0.6\textwidth}
Un ensemble $E$ est \emphh{convexe}\index{Convexe} si :
\begin{equation}
\forall (x,y) \in E^2, \forall t \in [0,1], \boxed{tx + (1-t)y \in E}
\end{equation}
Intuitivement, un ensemble est convexe si on peut relier deux points avec une ligne contenue dans cet ensemble.
\end{minipage}\hspace{5mm}
\begin{minipage}{0.3\textwidth}
\begin{tikzpicture}
\draw[thick, color=couleurImp] (0.2,0.2) -- (2.7, 0.5);
\filldraw[fill = couleurClaire, decorate, rounded corners=5mm]%
(0,0) -- (-0.3,2) -- (3, 2.5) -- (3,0) -- (1.5,1) -- (0.2,-0.5) -- (0,0);
\begin{scope}
\clip[decorate, rounded corners=5mm] (0,0) -- (-0.3,2) -- (3, 2.5) -- (3,0) -- (1.5,1) -- (0.2,-0.5) -- (0,0);
\draw[thick] (0.2,0.2) node{$\bullet$} -- (2.7, 0.5) node{$\bullet$};
\end{scope}
\end{tikzpicture}
\captionof{figure}{Un ensemble \uline{non} convexe}
\end{minipage}
\end{dfn}
\begin{theorem}[Intersection de convexes]
L'intersection d'une famille quelconque de convexes est convexe.\\[\baselineskip]
\emphh{Remarque :} Ce théorème est même valable pour une famille infinie.
\end{theorem}
\begin{theorem}[Convexe dans \Reel]
$I$ de $\Reel{}$ est convexe \emphh{si et seulement si} $I$ est un intervalle de $\Reel{}$
\end{theorem}
\begin{itheorem}[Caractérisation à l'aide de barycentres]
Une partie $X$ de $E$ est convexe \ssi{} le barycentre $G$ de toute famille pondérée finie $\big( x_i,\alpha_i \big)_i$ telle que $\alpha_i \ge 0\; \forall i$ appartient à $X$ :
\begin{equation}
G \in X
\end{equation}
(Bien sûr, on a toujours $\sum \alpha_i \neq 0$.)
\end{itheorem}
% subsection partie_convexe (end)
% section parties_convexes_d_un_ev (end)
\section{Fonctions convexes d'une variable réelle} % (fold)
\label{sec:fonctions_convexes_d_une_variable_reelle}
La définition suivante est copiée de la définition~\ref{dfn:convexe_connexite} page~\pageref{dfn:convexe_connexite}.
\begin{dfn}[Fonction convexe]
\begin{minipage}{0.75\textwidth}
Une fonction $f : I \mapsto \Reel{}$ est dite \emph{convexe}\index{Convexe} si :
\begin{equation}
\forall (a,b) \in I^2, \forall \lambda \in ]0,1[, \boxed{f(\lambda a + (1-\lambda )b) \le \lambda f(a) + (1-\lambda )f(b)}
\end{equation}
\end{minipage}\hspace{2mm}
\begin{minipage}{0.2\textwidth}
\begin{tikzpicture}
\draw [->, >=stealth] (0,0) -- (3.2,0);
\draw [->, >=stealth] (0,0) -- (0,3.2);
\draw [thick] (0,0).. controls (0.8,0.2) and (2,1) .. (3,3);
\draw [color=couleurNoirClair, densely dashed] (0,0) -- (3,3);
\end{tikzpicture}
\captionof{figure}{Une fonction convexe}
\end{minipage}
\end{dfn}
\begin{theorem}[Position relative du graphe]
Une fonction est convexe \ssi{} tout arc de son graphe est situé en-dessous de la corde correspondante.
\end{theorem}
\begin{dfn}[Épigraphe]
Soit $f$ une fonction de graphe $\Gamma_f = \{ (x,y)\in I\times \Reel \: |\: y = f(x)\}$.\\
On appelle \emph{épigraphe}\index{Epigraphe@Épigraphe} de $f$ l'ensemble $\Gamma_f^+$ des points situés au dessus du graphe $\Gamma_f$. C'est-à-dire :
\begin{equation}
\Gamma_f^+ = \{ (x,y)\in I\times\Reel \: |\: y\ge f(x) \}
\end{equation}
\end{dfn}
\begin{theorem}[Convexité de l'épigraphe]
Une fonction est convexe \ssi{} son épigraphe est convexe.
\end{theorem}
\begin{itheorem}[Inégalité de \textsc{Jensen}]
Soit $f$ une fonction \emphh{convexe} sur un intervalle $I$. \\
Soit $n\ge 2$. Soit $(x_1,\cdots ,x_n) \in I^n$ une famille de points de $I$. \\
Pour toute famille de \emphhs{réels positifs} $(\lambda_1,\ldots ,\lambda_n)\in {\left( \Reel^+ \right) }^n$ telle que \[
\sum_{i=1}^n \lambda_i = 1
\]
l'\emph{inégalité de \textsc{Jensen}}\index{Inegalite@Inégalité!Jensen@\emphi{de }\textsc{Jensen}} donne :
\begin{equation}
f \left( \sum_{i=1}^n \lambda_i x_i \right) \le \sum_{i=1}^n \lambda_i f(x_i)
\end{equation}
\end{itheorem}
\todo{Démo épigraphe}
\begin{theorem}
Soit $f$ une fonction de $\Reel{}$ dans $\Reel{}$ définie sur un intervalle $I$ non vide et non réduit à un singleton.\\
Pour tout $x\in I$, soit $\Phi_x$ la fonction :
\begin{equation}
\Phi_x : t\mapsto \dfrac{f(t) - f(x)}{t-x}
\end{equation}
$f$ est convexe sur $I$ \ssi{}, pour tout $x\in I$, $\Phi_x$ est croissante sur $I\backslash \{x\}$.
\end{theorem}
\begin{itheorem}[Inégalité des pentes]
\label{thm:inegalite_des_pentes}
Soit $f$ une fonction de $\Reel{}$ dans $\Reel{}$ définie sur un \emphhs{ouvert} $I\in \Reel{}$ tel que $I$ n'est pas réduit à un singleton. \\
Si $f$ est convexe, alors $f$ est dérivable en tout point de $I$ à gauche et à droite, et pour tout $(x,y) \in I^2$ tel que $x<y$ :
\begin{equation}
f'_g(x) \le f'_d(x) \le \dfrac{f(y) - f(x)}{y - x} \le f'_g(y) \le f'_d(y)
\end{equation}
\emphh{Remarque :} On déduit de la dérivabilité que $f$ est continue sur $I$.
\end{itheorem}
\begin{dfn}[Fonction concave]
\begin{minipage}{0.4\textwidth}
Une fonction $f : I \mapsto \Reel{}$ est dite \emph{concave}\index{Concave} si son opposée $-f$ est une fonction convexe.
\end{minipage}\hspace{0.2\textwidth}
\begin{minipage}{0.4\textwidth}
\begin{center}
\begin{tikzpicture}[scale=1.5]
\draw [->, >=stealth] (0,0) -- (3.2,0);
\draw [->, >=stealth] (0,0) -- (0,2);
\draw [thick] (0,0).. controls (0.4,0.8) and (2,2) .. (3,2);
\draw [color=couleurNoirClair, densely dashed] (0,0) -- (3,2);
\end{tikzpicture}
\captionof{figure}{Une fonction concave}
\end{center}
\end{minipage}
\end{dfn}
% section fonctions_convexes_d_une_variable_reelle (end)
\section{Fonctions convexes dérivables, deux fois dérivables} % (fold)
\label{sec:fonctions_convexes_derivables_deux_fois_derivables}
\subsection{Dérivabilité et convexité} % (fold)
\label{sub:derivabilite_et_convexite}
\begin{theorem}[Caractérisation par la dérivabilité]
Soit $f$ une fonction dérivable sur $I$. \\
$f$ est convexe sur $I$ \ssi{} sa dérivée $f'$ est croissante sur $I$.
\end{theorem}
\begin{proof}
Si $f$ est convexe, d'après le théorème~\ref{thm:inegalite_des_pentes} de l'inégalité des pentes, pour $x < y$, on a $f'(x) \le f(y)$. Donc $f'$ est croissante. \\[0.7\baselineskip]
% Cette partie est copiée intégralement de Vuibert
Réciproquement, supposons $f'$ croissante, et prenons deux points $x$ et $y$ de $I$ tels que $x < y$. Soient $a$ et $b$ tels que $y = ax + b$ est l'équation de la droite joignant $x$ et $y$. Soit $g(t) = f(t) - (at + b)$, de dérivée $g'(t) = f'(t) -a$ croissante. D'après le théorème~\ref{thm:accroissements_finis} des accroissements finis (page~\pageref{thm:accroissements_finis}), $\exists c\in ]x,y[$ tel que $f'(c) = \dfrac{f(y) - f(x)}{y-x} = a$, c'est-à-dire tel que $g'(c) = 0$. $g'$ étant croissante, elle est négative sur $[x,c]$, et positive sur $[c,y]$. On en déduit le tableau de variation :
\begin{center}
\begin{tabular}{r | c c c c c}
$t$ & $x$ & & $c$ & & $y$ \\
\hline
$g'$& & $-$ & $0$ & $+$ & \\
\hline
\multirow{2}{*}{$g$}& $0$ &&&& $0$ \\
& & $\searrow$ & & $\nearrow$ &
\end{tabular}
\end{center}
Donc $g$ est toujours négative, donc $f(t) \le (at + b)$ implique que la courbe est toujours en dessous de sa corde, donc $f$ est convexe sur $I$.\\[\baselineskip]
Ainsi, $f$ convexe $\Longleftrightarrow$ $f'$ est croissante.\qed
\end{proof}
\begin{theorem}[Caractérisation par la dérivée double]
Soit $f$ une fonction deux fois dérivable sur $I$. \\
$f$ est convexe sur $I$ \ssi{} sa dérivée double $f''$ est positive sur $I$ :
\begin{equation}
f\text{ convexe sur }I\quad \Longleftrightarrow \quad \forall x\in I,\, f''(x)>0
\end{equation}
\end{theorem}
% subsection derivabilite_et_convexite (end)
\subsection{Position de la tangente} % (fold)
\label{sub:position_de_la_tangente}
\begin{theorem}[Tangentes]
Le graphe d'une fonction convexe \emphh{dérivable} est au-dessus de chacune de ses tangentes
\end{theorem}
% subsection position_de_la_tangente (end)
\subsection{Exemples d'inégalités de convexité} % (fold)
\label{sub:exemples_d_inegalites_de_convexite}
% subsection exemples_d_inegalites_de_convexite (end)
% section fonctions_convexes_derivables_deux_fois_derivables (end)
% chapter fonctions_convexes (end)
\chapter{Réduction des Endomorphismes}
\begin{methode}
\titre{Valeurs propres}
Pour montrer que $\lambda$ est une valeur propre d'un endomorphisme $u$ d'un espace vectoriel $E$, on peut :
\begin{itemize}
\item Revenir à la définition, et trouver un vecteur propre $x$ tel que $u(x) = \lambda x$
\item Montrer que l'application $f - \lambda \mathrm{Id}_E$ est non-injective, \uline{c'est-à-dire} que \[\det (f - \lambda \mathrm{Id}_E) = 0\]
\item Montrer que $\lambda$ est une racine du polynôme caractéristique $\chi_u$ de $u$
\item On sait que la somme des valeurs propres est égale à la trace
\end{itemize}
\titre{Polynôme caractéristique}
Si on cherche le polynôme caractéristique d'un endomorphisme $u$, ces étapes peuvent permettre d'avancer sa détermination :
\begin{itemize}
\item Prendre le polynôme dont les racines sont les valeurs propres de $u$. C'est à dire le polynôme $\prod (X - \lambda_i)$
\item Reconnaitre les coefficients de degré $n-1$ et $0$ (\textit{cf}. théorème~\ref{thm:coeff_polynome_caracteristique} page~\pageref{thm:coeff_polynome_caracteristique}).
\item Si la matrice est triangulaire, faire le produit des éléments diagonaux.
\end{itemize}
\titre{Polynôme minimal}
Si on cherche le polynôme minimal d'un endomorphisme $u$ dans l'espace $E$ de \emphhs{dimension finie}, on peut avoir recours aux affirmations suivantes :
\begin{itemize}
\item Le polynôme minimal divise le polynome caratéristique.
\item Si $\lambda_1, \cdots, \lambda_p$ sont des valeurs propres distinctes de $u$ d'ordre de multiplicité $m_i$, alors le polynôme minimal est la valeur minimale des $m'_i$ tels que
\[
\Pi_u (u) = \bigg( X - \lambda_i \bigg)^{m'_i} (u) = 0
\]
\item Si on a un polynôme annulateur $P$, on peut le factoriser pour obtenir les racines. Puisque le polynôme minimal $\Pi_u$ divise $P$, il reste à essayer de combiner ces racines pour obtenir le polynôme de plus petit degré qui annule $u$.
\end{itemize}
\titre{Théorème de décomposition des noyaux}
En général, dès qu'on voit une somme directe, on utilise le théorème de décomposition des noyaux. \\
Si on a $P$, un polynôme annulateur de $u$ tel que $P(u) = 0$, alors on a $\mathrm{Ker}P(u) = E$, et si $P(u)$ est le produit de plusieurs polynômes, par exemple $A$ et $B$, on peut écrire
\[
E = \mathrm{Ker} A(u) \oplus \mathrm{Ker} B(u)
\]
\titre{Diagonalisation}
Pour vérifier qu'une diagonalisation est possible, se rapporter au théorème~\ref{thm:caracterisation_diagonalisation} page~\pageref{thm:caracterisation_diagonalisation} sur la caractérisation de la diagonalisation. Une fois vérifiée, la diagonalisation peut s'effectuer à l'aide des astuces suivantes :
\begin{itemize}
\item Chercher un vecteur propre évident, par exemple $\begin{pmatrix} 1\\ \vdots \\ 1 \end{pmatrix}$ si les lignes sont toutes de même somme ;
\item Utiliser des opérations sur des lignes ou des colonnes et développer pour obtenir un déterminant plus simple à calculer ;
\item Faire un pivot de \textsc{Gauss} pour obtenir une matrice triangulaire (ou éventuellement triangulaire par blocs) ;
\item Calculer le polynôme caractéristique avec la méthode de \textsc{Sarrus}.
\end{itemize}
\end{methode}
\section{Genéralités}
%
\subsection{Matrices carrées semblables} % (fold)
\label{sub:matrices_carrees_semblables}
\begin{dfn}[Matrices semblables]
Deux matrices sont dites \emph{semblables}\index{Matrice!semblable} si elles représentent le même endomorphisme d'un espace vectoriel de dimension finie.
\end{dfn}
\begin{theorem}
Deux matrices sont \emph{semblables} \ssi il existe une matrice $P$ inversible telle que
\begin{equation}
A_1 = P A_2 P^{-1}
\end{equation}
\end{theorem}
\begin{itheorem}[Trace et déterminant]
Deux matrices semblables ont la même trace et le même déterminant. Ce sont des \emph{invariants de similitude}.% interprétation géométrique du programme
\end{itheorem}
C'est ce dernier théorème qui permet de confirmer l'unicité de la trace et du déterminant d'un endomorphisme.
%TODO: Propriétés de la trace et du determinant
% subsection matrices_carrees_semblables (end)
\subsection{Sous-espace stable par un endomorphisme} % (fold)
\label{sub:sous_espace_stable_par_un_endomorphisme}
\begin{dfn}[Sous-espace stable]
Soit $E$ un $\mathbb{K}$-espace vectoriel, $F$ un sous-espace vectoriel de $E$, et $u$ un endomorphisme de $E$.\newline
On dit que $F$ est stable par $u$ si :
\begin{equation}
\forall x \in F, \, u(x) \in F
\end{equation}
On écrit alors que $u(F) \subset F$.\\[0.6\baselineskip]
La restriction de $u$ à $F$ au départ et à l'arrivée est l'\emph{endomorphisme induit}\index{Endomorphisme!induit}.
\end{dfn}
\Attention{La simple restriction de $u$ à $F$ ($u_{|F}$) est une application de $F$ dans $E$ et ce n'est pas un endomorphisme, alors que l'endomorphisme induit va de $F$ à $F$.}\\[\baselineskip]
\needspace{7cm}
\subsubsection{Traduction matricielle}
On va maintenant voir, conformément au programme, la traduction en termes de matrices. On se place donc dans $E$ qui est cette fois de \emph{dimension finie} $n$.\\
Si on reprend le sous-espace $F$, on peut trouver une base $(e_1, \cdots , e_p)$. Cette base peut être complétée en une base de $n$ vecteurs de $E$ : $\mathcal{B}=(e_1, \cdots , e_p, \cdots, e_n)$. La matrice de $u$ dans $\mathcal{B}$ s'écrit :
\[
\begin{blockarray}{ccccc|cccc}
& e_1 & \BAmulticolumn{2}{c}{\hdots} & e_p & \BAmulticolumn{3}{c}{\hdots} & e_n \\
\begin{block}{c(cccc|cccc@{\hspace*{5pt}})}
e_1 & \BAmulticolumn{4}{c|}{\multirow{4}{*}{\scalebox{2.5}{$B$}}}&\BAmulticolumn{4}{c}{\multirow{4}{*}{\scalebox{2.5}{$C$}}}\\
\multirow{2}{*}{\vdots} & &&&&&&&\\
& &&&&&&&\\
e_p & &&&&&&&\\[2mm]
\cline{1-9}% don't use \hline
\vdots & \BAmulticolumn{4}{c|}{\multirow{2}{*}{\scalebox{1.5}{$0$}}}&\BAmulticolumn{4}{c}{\multirow{2}{*}{\scalebox{1.5}{$D$}}}\\
e_n & &&&&&&&\\
\end{block}
\end{blockarray}
\qquad\text{où $B$ est la matrice de l'endomorphisme induit.}
\]
% subsection sous_espace_stable_par_un_endomorphisme (end)
\section{Éléments propres d'un endomorphisme} % (fold)
\label{sec:elements_propres_d_un_endomorphisme}
\begin{theorem}[Droite stable]
Une \emph{droite} est \emph{stable}\index{Droite!stable} par un endomorphisme $u$ \emphhs{ssi} elle est engendrée par un vecteur propre de $u$.
\end{theorem}
\subsection{Éléments propres}
\begin{dfn}[Valeur propre, vecteur propre]
Soit $u$ un endomorphisme de $E$ un $\mathbb{K}$-espace vectoriel.\\
Un scalaire $\lambda$ est appelé \emph{valeur propre}\index{Valeur!propre} de $u$ s'il existe un vecteur $x$ \emphhs{non nul} de $E$ tel que
\begin{equation}
u(x) = \lambda x
\end{equation}
Si un tel vecteur $x$ existe, on l'appelera \emph{vecteur propre}\index{Vecteur!propre}.
\end{dfn}
\begin{dfn}[Sous-espace propre]
\label{dfn:sous-espace_propre}
Avec les notations précédentes, on appelera \emph{\acrfull{sep}}\index{Sous-espace!propre} associé à une valeur propre $\lambda$ le sous-espace vectoriel $E_\lambda$ :
\begin{equation}
E_\lambda = \mathrm{Ker} \left( u - \lambda \mathrm{Id} \right)
\end{equation}
C'est donc le sous-espace de $E$ contenant $0$ et tous les vecteurs propres de $u$.
\end{dfn}
\subsection{Éléments propres en dimension finie} % (fold)
\label{sub:elements_propres_dim_finie}
\Attention{On se place dans un espace $E$ de \emphhs{dimension finie}. Les théorèmes et définitions qui suivent ne sont valables (au programme) que dans ces conditions. }
\begin{dfn}[Spectre]
Le spectre d'un endomorphisme $u$ de $E$, noté $\mathrm{sp}(u)$, est l'ensemble de ses valeurs propres.
\end{dfn}
\needspace{5cm}
\begin{theorem}[Famille finie de \gls{sep}]
La somme d'une famille \emphhs{finie} de \gls{sep} $E_{\lambda_i}$ de valeurs propres $\lambda_i$ deux à deux distinctes est directe :
\begin{equation}
\sum_i E_{\lambda_i} = \bigoplus_i E_{\lambda_i}
\end{equation}
\end{theorem}
Le programme officiel précise le corrolaire qui va avec :
\begin{theorem}[Famille de vecteurs propres]
Toute famille de vecteurs propres dont les valeurs propres associées sont deux à deux distinctes est libre.
\end{theorem}
\begin{theorem}
Pour $u$ un endomorphisme de $E$ de dimension finie $n$, le \textbf{spectre} de $u$ est fini, et de cardinal \emphhs{au plus} $n$.
\end{theorem}
\begin{theorem}
Deux matrices semblables ont même spectre.
\end{theorem}
\begin{itheorem}[Endomorphismes commutant]
Soient $u$ et $v$ sont deux endomorphismes d'un espace $E$ de dimension finie. \\
Si $u$ et $v$ commutent, alors tout sous-espace propre de $u$ est stable par $v$.
\end{itheorem}
\begin{proof}
Soit $\lambda$ une valeur propre de $u$, et $E_\lambda$ l'espace propre associé. On a :
\[
E_\lambda = \mathrm{Ker} (u - \lambda I)
\]
Soit $x_\lambda$ de $E_\lambda$. $x_\lambda$ est un vecteur propre de $u$.
Pour montrer qu'un sous-espace propre de $u$ est stable par $v$, \emphh{il faut montrer que $v(x_\lambda) \in \mathrm{Ker}(u - \lambda I)$}. Or :
\begin{align*}
(u - \lambda I)\circ v (x_\lambda) &= u\circ v(x_\lambda) - \lambda v( x_\lambda) \\
&= v\circ u(x_\lambda ) - v(\lambda x_\lambda) \\
&= v\bigg( u(x_\lambda) - \lambda x_\lambda \bigg)
\intertext{D'où :}
(u - \lambda I)\circ v (x_\lambda) &= 0
\end{align*}
Donc $v$ est stable par tout \gls{sep} de $u$.\qed
\end{proof}
\begin{dfn}[Éléments propres d'une matrice]
Soit $A$ une matrice carrée de $E$ un espace de dimension finie. \newline
On appelle \emph{valeur propre}\index{Valeur!propre} de $A$ un scalaire $\lambda$ pour lequel il existe $X$ tel que :
\begin{equation}
AX = \lambda X
\end{equation}
Si ce vecteur $X$ existe, on l'appelle \emph{vecteur propre}\index{Vecteur!propre} de la matrice $A$ pour la valeur propre $\lambda$.\\[\baselineskip]
Par extension, on définit le \gls{sep} d'une matrice de manière similaire à la définition~\ref{dfn:sous-espace_propre} page~\pageref{dfn:sous-espace_propre}. L'ensemble des valeurs propres d'une matrice forme son spectre $\mathrm{sp}(A)$.
\end{dfn}
% subsection elements_propres_dim_finie (end)
% section elements_propres_d_un_endomorphisme (end)
\section{Polynôme Caractéristique}
Pour une matrice carrée $M$, on cherche un polynôme dont les valeurs propres sont les racines. C'est alors qu'est né le polynôme caractéristique.
\begin{dfn}[Polynôme caractéristique]
Soit $u$ un endomorphisme de $E$, un $\mathbb{K}$-espace vectoriel de \emphh{dimension finie} $n$. Soit $M$ sa matrice dans une base associée $\mathcal{B}$. \\
Le \emph{polynôme caractéristique} de $u$, noté $\chi_u$, est le déterminant de l'application $\left( u - X \, \mathrm{Id}_E \right)$\newline
De même, le \emph{polynôme caractéristique}\index{Polynome@Polynôme!caracteristique@caractéristique} de la matrice $M$, noté $\chi_M$, est le déterminant de la matrice $\left( M - X \, I_n \right)$
\begin{equation}
\chi_u = \det\left( u - X \, \mathrm{Id}_E \right) \\
\chi_M = \det\left( M - X \, I_n \right)
\end{equation}
Ce polynôme est de degré $n$. Le polynôme caractéristique doit être \emphhs{unitaire}.\newline Bien sûr, on a :
\begin{equation}
\chi_u = \chi_M
\end{equation}
\end{dfn}
\begin{theorem}
Deux matrices semblables ont même polynôme caractéristique.
\end{theorem}
\begin{proof}% Je garde ou j'enlève cette démo trop simple ?
\textbf{(Facile)} \\
Soient $A$ et $A'$ nos deux matrices semblables. Elles représentent le même endomorphisme $u$ dans des bases différentes. Donc
\[
\left\lbrace
\begin{array}{r c l}
\chi_u &=& \chi_A \\
\chi_u &=& \chi_{A'}
\end{array}
\right.
\]
D'où $\chi_A = \chi_{A'}$.\qed
\end{proof}
\begin{itheorem}[Valeurs des coefficients de degrés $0$ et $n-1$]\label{thm:coeff_polynome_caracteristique}
Pour une matrice $M$ de rang $n$, on peut obtenir quelques coefficients du polynôme caractéristique :
\[
\chi_M = (-1)^n X^n + \textcolor{couleur1}{(-1)^{n-1}\,\tr\left( M \right)}\times X^{n-1} + \cdots + \textcolor{couleur2}{\det\left( M \right)}
\]
Pour une matrice de rang 2, le polynôme caractéristique est donc donné par
\begin{empheq}[box=\ibox]{equation}
\chi_M = X^2 - \tr (M)\, X + \det (M)
\end{empheq}
\end{itheorem}
\begin{proof}
Il suffit de développer le polynôme caractéristique, en sachant que les valeurs propres sont les racines, puis d'identifier.
\end{proof}
%TODO: multiplicité valeur propres
\begin{theorem}[Polynôme caractéristique d'une matrice triangulaire]
% Merci Wikipedia pour la matrice
Soit $A=\begin{pmatrix}
a_{1,1} & a_{1,2} & \ldots & \ldots & a_{1,n} \\
0 & a_{2,2} & \ldots & \ldots & a_{2,n} \\
\vdots & \ddots & \ddots & & \vdots \\
\vdots & & \ddots & \ddots & \vdots \\
0 & \ldots & \ldots & 0 & a_{n,n}
\end{pmatrix}$ une matrice triangulaire supérieure.\\[0.6\baselineskip]
Le polynôme caractéristique de cette matrice est
\begin{equation}
\chi_A = \det (A - X\, I_n) = \prod (a_{i,i} - X)
\end{equation}
\end{theorem}
\begin{theorem}[Polynôme caractéristique d'un endomorphisme induit]
Soit $u$ un endomorphisme de $E$. Le polynôme caractéristique d'un endomorphisme induit de $u$ divise $\chi_u$.
\end{theorem}
\section{Endomorphismes et matrices carrées diagonalisables}
\label{sec:diagonalisation}
\subsection{Endomorphisme diagonalisable}
\begin{dfn}[Endomorphisme diagonalisable]
On dit qu'un endomorphisme $u$ de $E$ est \emph{diagonalisable}\index{Diagonalisable!endomorphisme} s'il existe une base $\mathcal{B}$ de $E$ dans laquelle la matrice de $u$ est \emphhs{diagonale}.\\
On verra au théorème~\ref{thm:caracterisation_diagonalisation} que cette base $\mathcal{B}$ est constituée des vecteurs propres.
\end{dfn}
\begin{dfn}[Quelques définitions]
Quelques définitions portant sur les polynômes :
\begin{description}
\item[Racine simple] Une racine $\alpha$ du polynôme $P$ est dite simple si elle n'est pas multiple. On dit que son \uline{ordre de multiplicité est égal à $1$}.
\item[Polynôme scindé] $P$ est scindé s'il peut s'écrire comme \uline{le produit de polynômes du premier degré}.
\end{description}
\end{dfn}
\begin{itheorem}[Caractérisation de la diagonalisation]\label{thm:caracterisation_diagonalisation}
On donne des équivalences à ``$u$ diagonalisable'' :
\renewcommand{\theenumi}{\roman{enumi}}% Compter en (i), (ii)...
\begin{enumerate}
\item $E$ admet une base formée des vecteurs propres de $u$ ;
\item $E$ est somme directe des espaces propres de $u$ : $E = \bigoplus_{\lambda\in \mathrm{sp}(u)} E_\lambda$ ;
\item $\dim E = \sum \dim E_\lambda $ ;
\item le polynôme caractéristique $\chi_u$ de $u$ est scindé, et $\omega (\lambda ) = \dim (E_\lambda)$ ;
\item le polynôme minimal $\Pi_u$ de $u$ est scindé à racines simples ;
\item $u$ possède au moins un polynôme annulateur scindé à racines simples ;
\item $u$ admet pour matrice une matrice diagonalisable.
\end{enumerate}
\end{itheorem}
Enfin, une condition juste suffisante pour diagonaliser un endomorphisme :
\begin{theorem}[Condition suffisante de diagonalisation]
Si $u$ admet $n = \dim E$ valeurs propres distinctes deux à deux, alors $u$ est diagonalisable.
\end{theorem}
%
\subsection{Matrice diagonalisable}
\begin{dfn}[Matrice diagonalisable]
Une matrice carrée $A$ est dite \emph{diagonalisable}\index{Diagonalisable!matrice} si l'endomorphisme de $\mathbb{K}^n$ canoniquement associé est diagonalisable.
\end{dfn}
On se servira plutôt du théorème suivant comme définition :
\begin{itheorem}
Une matrice carrée $A$ est diagonalisable \ssi{} elle est semblable à une matrice diagonale $D$ :
\begin{equation}
\exists P\in \mathrm{GL}_n(\mathbb{K})\, \qquad A = PDP^{-1}
\end{equation}
$P$ est la matrice de passage de la base canonique de $\mathbb{K}^n$ à une base de vecteurs propres de $A$.
\end{itheorem}
On peut alors traduire matriciellement tous les théorèmes vus dans la section précédente, notamment le théorème~\ref{thm:caracterisation_diagonalisation} page~\pageref{thm:caracterisation_diagonalisation} qui caractérise la diagonalisation.
% section diagonalisation (end)
\section{Endomorphismes et matrices carrées trigonalisables} % (fold)
\label{sec:endomorphismes_et_matrices_carrees_trigonalisables}
\begin{dfn}[Endomorphisme trigonalisable]
On dit qu'un endomorphisme $u$ de $E$ est \emph{trigonalisable}\index{Trigonalisable!endomorphisme} s'il existe une base $\mathcal{B}$ de $E$ dans laquelle la matrice de $u$ est \emphhs{triangulaire supérieure}.
\end{dfn}
% Bizarrement, le programme officiel définit dans le sens opposé la trigonalisation. En trigonalisation, c'est à partir d'une matrice, en diagonalisation, c'est à partir d'un endomorphisme.
\begin{dfn}[Matrice trigonalisable]
Une matrice carrée $A$ est dite \emph{trigonalisable}\index{Trigonalisable!matrice} si elle est semblable à une matrice triangulaire supérieure $T$ :
\begin{equation}
\exists P\in \mathrm{GL}_n(\mathbb{K})\, \qquad A = PTP^{-1}
\end{equation}
\end{dfn}
\begin{theorem}[Autre ``définition'']
Une matrice carrée est trigonalisable \ssi{} l'endomorphisme $u$ canoniquement associé est trigonalisable.
\end{theorem}
\begin{itheorem}[Caractérisation de la trigonalisation]
Un endomorphisme $u$ est trigonalisable \ssi{} son polynôme caractéristique ou son polynôme annulateur est scindé.\\
Plus généralement, $u$ est trigonalisable \ssi{} $u$ possède au moins un polynôme annulateur scindé.
\end{itheorem}
\begin{theorem}[Trigonalisation dans $\mathbb{C}$]
Tout endomorphisme d'un $\mathbb{C}$-espace vectoriel est trigonalisable.
\end{theorem}
Ces deux théorèmes peuvent également se traduire matriciellement.
% section endomorphismes_et_matrices_carrees_trigonalisables (end)
\section{Endomorphismes nilpotents} % (fold)
\label{sec:endomorphismes_nilpotents}
\subsection{Définition}
\begin{dfn}[Endomorphisme nilpotent]
On dit qu'un endormorphisme $u$ est \emph{nilpotent}\index{Nilpotent} d'indice $p\ge 1$ si $u^p = 0$ avec $u^{p-1} \neq 0$.
\end{dfn}
\subsection{Propriétés en dimension finie} % (fold)
\label{sub:proprietes_en_dimension_finie}
\begin{theorem}[Endomorphisme nilpotent trigonalisable]
Un endomorphisme $u$ dans un espace $E$ de dimension finie est nilpotent \ssi $u$ est trigonalisable avec $0$ pour seule valeur propre.
\end{theorem}
%TODO: demo? (Très facile)
\begin{theorem}[Majoration de l'indice de nilpotence]
Dans un espace $E$ de dimension $n$, l'indice de nilpotence d'un endomorphisme ne dépasse pas $n$. \par
Si $u$ est nilpotent d'indice $n$, il existe une base $\mathcal{B}$ dans laquelle la matrice de $u$ est de la forme :
\begin{equation}
J_n=
\begin{pmatrix}
0 & 1 & 0 & \cdots & 0 \\
\vdots & \ddots & \ddots & & \vdots \\
\vdots & & \ddots & \ddots & \vdots \\
\vdots & \scalebox{2}{0} & & \ddots & 1 \\
0 & \cdots & \cdots & \cdots & 0
% 0 & \hdotsfor{3} & 0
\end{pmatrix}
\end{equation}
\end{theorem}
% subsection proprietes_en_dimension_finie (end)
% section endomorphismes_nilpotents (end)
\section{Polynômes d'un endomorphisme} % (fold)
\label{sec:polyn_mes_d_un_endomorphisme}
\begin{dfn}[Polynôme d'un endomorphisme]
Soit $E$ un $\mathbb{K}$-espace vectoriel, et $u$ un endomorphisme de $E$. \newline
Pour tout polynôme $P = \sum_{k=0}^p a_k X^k$, on définit l'endomorphisme