\newtheorem{bem}[defi]{Bemerkung}
\newtheorem{alg}[defi]{Algorithmus}
%\newcommand{\beweis}{{\it Beweis. }}
-\newenvironment{beweis}{{\it Beweis. }}{\hfill$\square$}
+\newenvironment{beweis}{{\noindent \it Beweis. }}{\hfill$\square$}
% \numberwithin{lem}{section}
\numberwithin{defi}{section}
A_{jk} &= \int_{T_j} \int_{T_k} \kappa(\bs x,\bs y) ds_{\bs y} ds_{\bs x},
\end{align}
beziehungsweise als Spezialfall davon die Berechnung des Integrals
-\begin{align}\label{math:gal:frac}
-A_{jk} &=\frac{1}{4\pi} \int_{T_j} \int_{T_k} \frac{1}{|\bs x- \bs y|} ds_{\bs y} ds_{\bs x}.
+\begin{align}\label{math:gal:kap+}
+A_{jk} &= \int_{T_j} \int_{T_k} \frac{1}{|\bs x- \bs y|} ds_{\bs y} ds_{\bs x}.
\end{align}
unter bestimmten Voraussetzungen an die affinen Randstücke $T_j,T_k$ und den asymptotisch glatten Integranden $\kappa : \R^3 \times \R^3 \to \R$.
% \int_{T_j} \int_{T_k} &\approx \q_{I_1} \int_{I_2} \int_{J_1} \int_{J_2}\\
% \int_{T_j} \int_{T_k} &\approx \q_{T_j} \q_{J_1} \int_{J_2}
% \end{align}}
-\subsection{Analytische Berechnung des Doppelintegrals}
+\subsection{Volle Quadratur}
% \subsubsection{Glatter Kern}
% Das Integral über $T_j$ kann durch die analytische Doppelintegral Funktion ersetzt werden. Die Quadratur über $T_k$ wird nun mittels einer doppelten Gauss-Quadratur berechnet.
+Zunächst wollen wir zeigen, dass wir die vier Integrale aus \eqref{math:gal:kap+} gut durch die Gauss-Quadratur approximieren können. Hierzu werden wir folgende Vorüberlegungen benötigen.
+
\begin{defi}\label{thm:sem:glatt}
Die Kern-Funktion $\kappa(\bs x,\bs y)$ heißt asymptotisch glatt, falls sie glatt ist für $\bs x \neq \bs y$ und Konstanten $c_1,c_2>0$ und eine Ordnung der Singularität $s \in \R$ existieren, sodass
\begin{align} % Glatter KERN
\end{align}
für alle Multiindizes $\alpha,\beta \in \N_0^d$ mit $\abs{\alpha}+\abs{\beta}\geq 1$ gilt.
\end{defi}
+
+
+\noindent
Wie wir im Folgenden sehen werden, lassen sich asymptotisch glatte Kernfunktionen gut durch Polynome interpolieren. Hierzu benötigen wir das folgende Lemma:
+
+
\begin{lem}\label{thm:sem:ipolnD} %Interpol über Glatten KERN nD
Die Funktion $u \in \C^{\infty}([0,1])^d$ erfüllt für Konstanten $C_u,\rho_u > 0$
\begin{align}
\end{lem}
% Quadratur -----------------------------------------
+\noindent
+Weiterhin wollen wir uns kurz die Ableitung der asymptotisch glatten Kernfunktion mit einer Parametrisierung anschauen.
+
\begin{lem} \label{thm:sem:kett}
Sei $\kappa(\cdot , \cdot) : \R^6 \rightarrow \R$ eine asymptotisch glatte Kernfunktion und sei weiterhin $ g: \R^4 \rightarrow \R^6$ die Parametrisierung der achsenorientierten Rechtecke $T_j$ und $T_k$
\begin{align}
\end{align*}
mit dem Multiindex $\alpha = (\alpha_1, \alpha_2, \alpha_3, \alpha_4)$, wobei $\abs{\alpha} \geq 1$ gilt.
\end{lem}
+
+
\begin{beweis} Die Ableitung der Funktion $\kappa \circ g : \R^4 \to \R^6 \to \R$ ist
\begin{align*}
D(\kappa \circ g)(\lambda) = D\kappa(g(\lambda)) \circ D g(\lambda) \qquad \in \R^{1\times 4}.
\partial^\alpha (\kappa \circ g)(\lambda) &= a^{\alpha_1} b^{\alpha_2} \tilde a^{\alpha_3} \tilde b^{\alpha_4} \cdot \partial^{t_{jk}(\alpha)}\kappa(g(\lambda)).
\end{align*}
\end{beweis}
+
+\noindent
+Für die Interpolation werden wir folgenden Bedingung verwenden.
+
\begin{defi} Seien $T_j,T_k \in \R^3$ achsenorientierte Rechtecke und sei $\zeta_Q > 0$ fest. Dann heißt das Paar $(T_j,T_k)$ $\zeta_Q$-zulässig, genau dann wenn
\begin{align}\label{math:sem:zetaQ}
\dist (T_j, T_k)&\geq \zeta_Q \max\{ \diam(T_j) , \diam(T_k)\}.
Andernfalls heißt das Paar $(T_j,T_k)$ $\zeta_Q$-unzulässig.
\end{defi}
+\noindent
+Mit diesen Vorüberlegungen können wir nun den folgenden Satz über die Interpolation der asymptotisch glatten Kernfunktion unter der Parametrisierung zeigen.
+
+
\begin{sat} \label{thm:sem:pol:V} Seien $T_j,T_k \subseteq \R^3$ zwei $\zeta_Q$-zulässige Rechtecke. Sei $\kappa(\cdot,\cdot)$ eine asymptotisch glatte Kernfunktion mit Konstanten $c_1,c_2>0$ und Singularitätsordung $s\geq0$. Dann gilt mit
\begin{align*}
C_{\zeta_Q,j,k}&:=8e\frac{c_1}{(c_2\dist(T_j,T_k))^s} \left(1+\frac{2\zeta_Q}{c_2} \right)
\leq C_{\zeta_Q,j,k}\Lambda_p^4 p\left(1+\frac{c_2}{\zeta_Q}\right)^{-p}.
\end{align*}
\end{sat}
+
+
\begin{beweis} Zunächst definieren wir die Konstanten
\begin{align*}
C_{\kappa} &=\frac{c_1}{(c_2\dist(T_j,T_k))^s} \quad \text{und} \quad \rho_{\kappa} = \frac{\zeta_Q}{c_2}
C_{\zeta_Q,j,k} &= 8eC_{\kappa} (1+2\rho_{\kappa})
\end{align*}
schreiben.\\
-Bezeichne $g_{jk} : [0,1]^4 \rightarrow D \subset \R^6$ die Parametrisierung
+Bezeichne $g_{jk} : [0,1]^4 \rightarrow (T_j \times T_k) \subset \R^6$ die Parametrisierung
\begin{align}
g_{jk}(\lambda) = (\gamma_j(\lambda_1,\lambda_2),\gamma_k(\lambda_3,\lambda_4))
\end{align}
\end{align*}
Damit ist der Beweis abgeschlossen.
\end{beweis}
+
+
% MatrixEINTRAG -------------------------------------------------
+\noindent
+Da sich wie gezeigt die Kernfunktion besonders gut durch Polynome Interpolieren lässt, wollen wir dieses Wissen auf die Quadratur übertragen und werden die vier Integrale im Folgenden durch die Gauss-Quadratur approximieren.
+
+
\begin{sat}\label{thm:sem:quad:V}
Seien $T_j,T_k$ zwei $\zeta_Q$-zulässige Rechtecke mit zugehörigen Parametrisierungen $\gamma_j,\gamma_k$. Sei weiterhin $\kappa : \R^3\times\R^3\to \R : (\bs x, \bs y) \mapsto \kappa(\bs x,\bs y)$ eine asymptotisch glatte Kernfunktion mit Konstanten $c_1,c_2,s$. Sei
\begin{align} \label{math:sem:zetaQ:c}
\abs{A_{jk} - (A_p)_{jk}}&\leq \tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{c_2}{\zeta_Q}\right)^{-2p}
\end{align}
\end{sat}
+
+
\begin{beweis} Da die Gauss-Quadratur interpolatorisch mit dem Exaktheitsgrad $2p+1$ ist, gilt:
\begin{align*}
(A_p)_{jk}
\end{align*}
\end{beweis}
-\begin{lem} \label{thm:sem:switch}
- Seien $Tj,T_k$ zwei Randstücke, $\kappa(\bs x,\bs y)$ eine asymptotisch glatte Kernfunktion und
- \begin{align}
- A_{jk}
- &= \int_{T_j} \int_{T_k} \kappa(\bs x,\bs y) ds_{\bs y} ds_{\bs x}.
- \end{align}
- Dann gilt
- \begin{align}
- A_{jk} = A_{k_j}.
- \end{align}
-\end{lem}
-\todo{\begin{beweis}
-\end{beweis}}
-
-\begin{bem}
- Seien $T_j,T_k$ zwei $\zeta$ zulässige Rechtecke. Ist $\diam(T_j) \leq \diam(T_k)$ so kann Satz (\ref{thm:sem:quad:V}) angewendet werden um $A_{jk}$ zu approximieren. Im Fall $\diam(T_j) > \diam(T_k)$ können wir $A_{jk}$ approximieren indem wir mithilfe von $A_{jk} = A_{kj}$ und Satz (\ref{thm:sem:quad:V}), $A_{kj}$ berechnen.
-\end{bem}
\begin{bem}
$\Lambda_p$ wächst für Chebyshev-Polynome im wesentlichen logarithmisch in $p$. Daher konvergiert $(A_p)_{jk}$ für wachsenden Quadraturgrad $p$ exponentiell schnell gegen $A_{jk}$.
\end{bem}
-\subsection{Approximierende Matrix}
+\noindent
+Im Folgenden wollen wir nun annehmen, dass $T_1,T_2,\ldots,T_n$ Randelemente sind. Dann betrachten wir die Matrizen $A, A_p$, wobei die Einträge von $A$ genau durch \eqref{math:gal:kap+} gegeben sind und $A_p$ eine $A$ approximierende Matrix ist. Bei der Definition der approximierenden Matrix unterscheiden wir hier zwischen zwei Fällen.
\begin{defi} \label{thm:sem:quad:Ap}
Seien $T_1,T_2,\ldots,T_n$ Rechtecke und $A \in \R^{n \times n}$ gegeben durch \eqref{math:gal:kap}. Dann ist die $A$ approximierende Matrix $A_p$ folgendermaßen definiert.
\begin{itemize}
- \item Sind $T_j$ und $T_k$ $\zeta$-unzulässig, so ist
+ \item Sind $T_j$ und $T_k$ $\zeta_Q$-unzulässig, so ist
\begin{align*}
(A_p)_{jk} := A_{jk}.
\end{align*}
- \item Sind $T_j$ und $T_k$ $\zeta$-zulässig und $\diam(T_j) \leq \diam(T_k)$, so ist
- \begin{align*}
- (A_p)_{jk} := (A_{\zeta})_{jk}.
- \end{align*}
- \item Sind $T_j$ und $T_k$ $\zeta$-zulässig und $\diam(T_j) > \diam(T_k)$, so ist
+ \item Sind $T_j$ und $T_k$ $\zeta_Q$-zulässig, so ist
\begin{align*}
- (A_p)_{jk} := (A_{\zeta})_{kj}.
+ (A_p)_{jk} := (A_{\zeta_Q})_{jk}.
\end{align*}
\end{itemize}
\end{defi}
+
\noindent
Wir wollen nun zeigen, dass die approximierende Matrix bezüglich der Frobenius-Norm für wachsenden Quadraturgrad exponentiell schnell gegen die gegebene Matrix konvergiert. Die Frobenius-Norm ist hierbei gegeben durch
\begin{align*}
\norm{A}_F := \left( \sum_{i=1}^n\sum_{j=1}^n A_{ij}^2 \right)^{1/2} \quad \text{für} \quad A \in \R^{n \times n}.
\end{align*}
+
\begin{sat}
Seien $T_1,T_2,\ldots,T_n$ Rechtecke. Sei $\kappa : \R^2\times \R^2 \to \R$ eine asymptotisch glatte Kernfunktion mit Konstanten $c_1,c_2$ und Singularitätsordung $s \geq 0$. Sei $\tilde C_{\zeta_Q,j,k}$ wie in \eqref{math:sem:zetaQ:c}. Seien $A\in \R^{n \times n}$ eine Matrix, deren Einträge gegeben sind durch
\begin{align*}
\end{align*}
und sei $A_p$ die $A$ approximierende Matrix gemäß Definition \ref{thm:sem:quad:Ap}. Dann gilt
\begin{align*}
- \norm{A-A_p}_F \leq n \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \tilde C_{\zeta_Q,j,k}\Lambda_p^4(p+1)\left(1+\frac{c_2}{\zeta_Q}\right)^{-2(p+1)}.
+ \norm{A-A_p}_F \leq n \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{c_2}{\zeta_Q}\right)^{-2p}.
\end{align*}
\end{sat}
-\begin{beweis} Betrachten wir zunächst die Differenz zwischen $A$ und $A_p$ in einem festen Eintrag $(A-A_p)_{jk}$. Sind $T_j$ und $T_k$ unzulässig ist die Differenz laut Definition $0$. Sind $T_j$ und $T_k$ hingegen zulässig so gilt nach Satz \ref{thm:sem:quad:V}
+
+
+\begin{beweis} Betrachten wir zunächst die Differenz zwischen $A$ und $A_p$ in einem festen Eintrag $(A-A_p)_{jk}$. Sind $T_j$ und $T_k$ unzulässig ist die Differenz laut Definition $0$. Sind $T_j$ und $T_k$ hingegen zulässig, so gilt nach Satz \ref{thm:sem:quad:V}
% \begin{align}
-% \abs{A_{jk} - (A_p)_{jk}}&= \tilde C_{\zeta_Q,j,k}\Lambda_p^4(p+1)\left(1+\frac{2c_2}{\zeta_Q}\right)^{-2(p+1)}
+% \abs{A_{jk} - (A_p)_{jk}}&= \tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{2c_2}{\zeta_Q}\right)^{-2p}
% \end{align}
\begin{align*}
\norm{A-A_p}_F^2 &= \sum_{j,k=1}^n (A_{jk} - (A_p)_{jk})^2\\
- &\leq \sum_{j,k=1}^n \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4(p+1)\left(1+\frac{2c_2}{\zeta_Q}\right)^{-2(p+1)}\right)^2\\
- &\leq \sum_{j,k=1}^n \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4(p+1)\left(1+\frac{c_2}{\zeta_Q}\right)^{-2(p+1)}\right)^2\\
- &= n^2 \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4(p+1)\left(1+\frac{c_2}{\zeta_Q}\right)^{-2(p+1)}\right)^2.
+ &\leq \sum_{j,k=1}^n \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{2c_2}{\zeta_Q}\right)^{-2p}\right)^2\\
+ &\leq \sum_{j,k=1}^n \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{c_2}{\zeta_Q}\right)^{-2p}\right)^2\\
+ &= n^2 \max_{j=1,\ldots,n} \max_{k=1,\ldots,n} \left(\tilde C_{\zeta_Q,j,k}\Lambda_p^4p\left(1+\frac{c_2}{\zeta_Q}\right)^{-2p}\right)^2.
\end{align*}
-Durch ziehen der Wurzel auf beiden Seiten, folgt dann die Behauptung. \end{beweis}
+Durch ziehen der Wurzel auf beiden Seiten, folgt dann die Behauptung.
+\end{beweis}
+
+\begin{bem}
+ Da die Konstante $C_{\zeta_Q,j,k}$ durch die Netzverfeinerung, aufgrund der Distanz sehr groß werden könnte, untersuchen wir sie noch einmal etwas genauer.
+ Die Konstante können wir nach oben durch die Zulässigkeitsbedingung abschätzen.
+ \begin{align*}
+ C_{\zeta_Q,j,k} & = 2^4 e \frac{c_1 \abs{T_j}\abs{T_k}}{(c_2 dist(T_j,T_k))^s}\left( 1 + \frac{2\zeta_Q}{c_2} \right)\\
+ & \leq 2^4 e \frac{c_1 \abs{T_j}\abs{T_k}}{(c_2 \zeta_Q \max\{ \diam(T_j) , \diam(T_k)\})^s} \left( 1 + \frac{2\zeta_Q}{c_2} \right)\\
+ & \leq 2^4 e \frac{c_1 \max\{ \diam(T_j) , \diam(T_k)\}^4}{(c_2 \zeta_Q \max\{ \diam(T_j) , \diam(T_k)\})^s} \left( 1 + \frac{2\zeta_Q}{c_2} \right)\\
+ & = 2^4 e \frac{c_1}{(c_2 \zeta_Q)^s} \max\{ \diam(T_j) , \diam(T_k)\}^{4-s} \left( 1 + \frac{2\zeta_Q}{c_2} \right)
+ \end{align*}
+\end{bem}
+
+\noindent
+\todo{
+\begin{itemize}
+ \item approx $A_p$ besser als $A$
+ \item aufgrund von Quadratur sehr viele Auswertungsstellen (Aufwändig)
+ \item Folge : Semianalytisch
+\end{itemize}
+}
% \subsection{Quadratur über eine Achse}
+
+
+% \begin{lem} \label{thm:sem:switch}
+% Seien $T_j,T_k$ zwei Randstücke, $\kappa(\bs x,\bs y)$ eine asymptotisch glatte Kernfunktion und
+% \begin{align}
+% A_{jk}
+% &= \int_{T_j} \int_{T_k} \kappa(\bs x,\bs y) ds_{\bs y} ds_{\bs x}.
+% \end{align}
+% Dann gilt
+% \begin{align}
+% A_{jk} = A_{k_j}.
+% \end{align}
+% \end{lem}
+% \todo{\begin{beweis}
+% \end{beweis}}
+%
+% \begin{bem}
+% Seien $T_j,T_k$ zwei $\zeta$ zulässige Rechtecke. Ist $\diam(T_j) \leq \diam(T_k)$ so kann Satz (\ref{thm:sem:quad:V}) angewendet werden um $A_{jk}$ zu approximieren. Im Fall $\diam(T_j) > \diam(T_k)$ können wir $A_{jk}$ approximieren indem wir mithilfe von $A_{jk} = A_{kj}$ und Satz (\ref{thm:sem:quad:V}), $A_{kj}$ berechnen.
+% \end{bem}
+
+
+%
+%
+% \begin{defi} \label{thm:sem:quad:Ap}
+% Seien $T_1,T_2,\ldots,T_n$ Rechtecke und $A \in \R^{n \times n}$ gegeben durch \eqref{math:gal:kap}. Dann ist die $A$ approximierende Matrix $A_p$ folgendermaßen definiert.
+% \begin{itemize}
+% \item Sind $T_j$ und $T_k$ $\zeta$-unzulässig, so ist
+% \begin{align*}
+% (A_p)_{jk} := A_{jk}.
+% \end{align*}
+% \item Sind $T_j$ und $T_k$ $\zeta$-zulässig und $\diam(T_j) \leq \diam(T_k)$, so ist
+% \begin{align*}
+% (A_p)_{jk} := (A_{\zeta})_{jk}.
+% \end{align*}
+% \item Sind $T_j$ und $T_k$ $\zeta$-zulässig und $\diam(T_j) > \diam(T_k)$, so ist
+% \begin{align*}
+% (A_p)_{jk} := (A_{\zeta})_{kj}.
+% \end{align*}
+% \end{itemize}
+% \end{defi}
+
% \subsubsection{Quadratur}
% \begin{defi} Seien $T_j,T_k$ Rechtecke und sei $\zeta_A > 0$ fest. Dann heißt das Paar $(T_j,T_k)$ $\zeta_A$-zulässig, genau dann wenn
% \begin{align}\label{math:sem:zetaQ}
\subsection{Datenstruktur}
Für die Implementierung in \Matlab~und C++ wollen wollen wir eine einheitliche Datenstruktur einführen.
-Die für die Partition $\T_{\ell} = \{T_1\ldots T_N\}$ benötigten Knoten $\K_{\ell} = \{C_1\ldots C_M\}$ stellen wir in einer $M \times 3$ Matrix $COO$ dar. Dabei enthält die $j$-te Zeile die Koordinaten des Knoten $C_j$, d.h. :
+Die für die Partition $\T_{\ell} = \{T_1\ldots T_N\}$ benötigten Knoten $\K_{\ell} = \{k_1\ldots k_M\}$ stellen wir in einer $M \times 3$ Matrix $COO$ dar. Dabei enthält die $j$-te Zeile die Koordinaten des Knoten $C_j$, d.h. :
\begin{align}
-COO[j,1:3] = C_j := (x_j,y_j,z_j)^{T} \text{ wobei } x_j,y_j,z_j \in \R.
+COO[j,1:3] = k_j := (x_j,y_j,z_j)^{T} \text{ wobei } x_j,y_j,z_j \in \R.
\end{align}
-Die Elemente $\T_{\ell}$ werden wir ebenfalls Zeilenweise in einer $N \times 4$ Matrix $ELE$ abspeichern. Dabei soll die $i$-te Zeile den Indizes der Knoten $\{C_j,C_k,C_{\ell},C_m\}$ des Elements $T_i$ entsprechen, also:
+Die Elemente $\T_{\ell}$ werden wir ebenfalls Zeilenweise in einer $N \times 4$ Matrix $ELE$ abspeichern. Dabei soll die $i$-te Zeile den Indizes der Knoten $\{k_j,k_k,k_{\ell},k_m\}$ des Elements $T_i$ entsprechen, also:
\begin{align}
ELE[i,1:4] = T_i := (j,k,l,m).
\end{align}
-Die Knoten wollen wir gegen den Uhrzeigersinn anordnen \todo{und der Knoten $C_j$ soll der kleinste bezüglich der Koordinaten sein}.
+Die Knoten wollen wir gegen den Uhrzeigersinn anordnen und der Knoten $C_j$ sei der Punkt $\bs v$ aus Definition \ref{math:def:T}, also der kleinste Bezüglich des Koordinatensystems.
\noindent
-Für die bessere Handhabung der Elemente beim Verfeinern der Partition, wollen wir auch die Nachbarschaftsrelationen geeignet abspeichern. Dazu überlegen wir uns, dass wir Aufgrund der Netzstabilität maximal zwei Nachbarn pro Kante eines Elements zulassen wollen.
+Für die bessere Handhabung der Elemente beim Verfeinern der Partition, wollen wir auch die Nachbarschaftsrelationen geeignet abspeichern. Aufgrund der Netzstabilität wollen wir maximal zwei Nachbarn pro Kante eines Elements zulassen.
Wir legen also eine $M \times 8$ Matrix für die Indizes der Nachbarelemente an, wobei die $i$-te Zeile die Nachbarelemente $\{T_{n_1},\ldots,T_{n_8}\}$ zum Element $T_i$ enthält.
\begin{align}
NEI[i,1:8] = N_i := (n_1,\ldots,n_8)
\end{figure}
\noindent
-Ein ausführliches Beispiel ist in Abb.\ref{exmpl13} dargestellt.
+Ein ausführliches Beispiel ist in Abbildung \ref{exmpl13} dargestellt.
\subsection{Verfeinern}
Diese Funktion sei die Implementierung von Algorithmus \ref{alg:refine}.
-Da wir im weiteren Verlauf sowohl adaptive also auch anisotrope Netzverfeinerung zulassen wollen, ist es sinnvoll eine Verfeinerungsfunktion zu implementieren, die alle Möglichen Teilungsprozesse auf einem Element unterstützt. Dabei sind vier nur wirklich relevant:
+Da wir im weiteren Verlauf sowohl adaptive also auch anisotrope Netzverfeinerung zulassen wollen, ist es sinnvoll eine Verfeinerungsfunktion zu implementieren, die alle möglichen Teilungsprozesse auf einem Element realisiert. Dabei sind vier nur wirklich relevant:
\begin{enumerate}
\item keine Teilung
\item volle Teilung in vier gleich große Elemente
-\item halbe Teilung in zwei gleichgroße horizontal liegende Elemente
-\item halbe Teilung in zwei gleichgroße vertikal liegende Elemente
+\item halbe Teilung in zwei gleichgroße vertikal getrennte Elemente
+\item halbe Teilung in zwei gleichgroße horizontal getrennte Elemente
\end{enumerate}
-Zusätzlich wurde auch Typ 5. belegt, welcher als Ergebnis eine volle Teilung 2. ausführt, diese aber schrittweise durch eine 3. Teilung und zwei 4. Teilungen. Aus Sicherheitsgründen wird auch jede vierte volle 2. Teilung durch eine 5. Teilung ausgeführt, da sonst kurzzeitig Seiten mit mehr als zwei Elementen auftreten könnten.
+Zusätzlich wurde auch Typ 5. belegt, welcher als Ergebnis eine volle Teilung 2. ausführt, diese aber schrittweise durch eine 3. Teilung und anschließend durch jeweils eine 4. Teilung. Aus Sicherheitsgründen wird auch jede vierte volle 2. Teilung durch eine 5. Teilung ausgeführt, da sonst kurzzeitig Seiten mit mehr als zwei Elementen auftreten könnten.
-Damit jedem Element $T_i$ eine Teilungsart zugeordnet werden kann, haben wir einen Mar\-kierungs\-vektor $marked \in {1,2,3,4,5}^M$ eingeführt. Dabei entspricht $marked_i$ der Art der Teilung für das Element $T_i$. Um isotrope und auch uniforme Teilungen zu erleichtern kann statt dem Vektor $marked$ auch nur ein Skalar übergeben werden $marked \in {1,2\dots5}$, wodurch jedes Element mit der gewählten Art verfeinert wird.
+Damit jedem Element $T_i$ eine Teilungsart zugeordnet werden kann, haben wir einen Mar\-kierungs\-vektor $marked \in \{1,2,3,4,5\}^M$ eingeführt. Dabei entspricht $marked_i$ der Art der Teilung für das Element $T_i$. Um isotrope und auch uniforme Teilungen zu erleichtern kann statt dem Vektor $marked$ auch nur ein Skalar übergeben werden $marked \in {1,2\dots5}$, wodurch jedes Element mit der gewählten Art verfeinert wird.
-Relevant zum Verfeinern eines Netzes sind also die Koordinaten $COO$, Elemente $ELE$ sowie die Nachbarschaftsrelationen $NTI$ und der Markierungs\-vektor $marked$.
+Relevant zum Verfeinern eines Netzes sind also die Koordinaten $COO$, Elemente $ELE$ sowie die Nachbarschaftsrelationen $NEI$ und der Markierungs\-vektor $marked$.
-Da wir später einen Fehlerschätzer berechnen wollen, ist es wichtig sich zu jedem Element seine Teilelemente zu merken. Dazu legen wir während der Teilung eine $M \times 4$ Matrix an, in der die maximal vier Elementindizes gespeichert sind. Wenn wir also ein Element in vier gleich große Teile verfeinern, so wird das neue Element links unten das erste sein und alle weiteren folgen gegen den Uhrzeigersinn. Teilen wir ein Element in zwei gleich große Elemente, so werden die doppelt belegten Quadranten auch doppelt eingetragen. Ein gar nicht geteiltes Element wird also vier mal den alten Indizes speichern. Dadurch wird sicher gestellt, dass das arithmetische Mittel über die Elemente immer gültig auszuführen ist.
-(Siehe Figur:\ref{exmpl13:f2s})
+Da wir später den Fehlerschätzer berechnen wollen, ist es wichtig sich zu jedem Element seine Teilelemente zu merken. Dazu legen wir während der Teilung eine $M \times 4$ Matrix an, in der die maximal vier Elementindizes gespeichert werden. Wenn wir also ein Element in vier gleich große Teile verfeinern, so wird das neue Element links unten das erste sein und alle weiteren folgen gegen den Uhrzeigersinn. Teilen wir ein Element in zwei gleich große Elemente, so werden die doppelt belegten Quadranten auch doppelt eingetragen. Ein gar nicht geteiltes Element wird also vier mal den alten Indizes speichern. Dadurch wird sichergestellt, dass das arithmetische Mittel über die Elemente immer gültig auszuführen ist.
+(Siehe Abbildung \ref{exmpl13:f2s})
+\begin{align*}
+ [COO_{fine}, ELE_{fine}, NEI_{fine}, F2S ] = refineQuad(COO, ELE, NEI, marked);
+\end{align*}
+% $[\T_{\ell}, F2S ] = refineQuad(\T_{\ell}, marked);$\\
-$[\T_{\ell}, F2S ] = refineQuad(\T_{\ell}, marked);$\\
-$[COO_{fine}, ELE_{fine}, NEI_{fine}, F2S ] = refineQuad(COO, ELE, NEI, marked);$
\begin{figure}[ht]
\caption{VaterSohn}
$V = mex\_build\_AU(COO,ELE,zeta,type)$
-\subsection{Vorgehensweise}
-Mithilfe der oben Definierten Funktionen ist es uns nun möglich den Ablauf der Berechnungen zusammen zu fassen.
-
-$\theta \in (0,1),i =0$
-\begin{enumerate}
-\renewcommand{\theenumi}{(\roman{enumi})}
-\item Verfeinere $T_{\ell}^{(i)}$ um $\hat T_{\ell}$ zu erhalten
-\item Berechne die Galerkinlösung $\hat \phi_{\ell} \in P^0(\\hat T_{\ell})$
-\item Berechne Fehlerschätzer $\tilde \mu_{i} := \norm{\varrho^{\ell/2}(\hat \phi_{\ell} - \Pi_{\ell} \hat \phi_{\ell} )}$
-\item Wähle $M_{\ell} \subseteq T_{\ell}^{(i)}$ mit minimaler Kardinalität, so dass
-\begin{align}
-\theta \sum_{T\in \T^{(i)}_{\ell}} \tilde\mu_{i}^2 & \leq \sum_{T\in M_{\ell}} \tilde\mu_{i}^2
-\end{align}
-\item Verfeinere die Markierten Elemente $M_{\ell}$ um $\T_{\ell}^{(i+1)}$ zu erhalten
-\item $i \mapsto i+1$, gehe zu $(i)$
-\end{enumerate}
-
-Zum Plotten (Abb.\ref{fig:exmplAA_2DQuad})werden noch folgende Schritte ausgeführt
-\begin{itemize}
-\item Berechne Galerkinlösung $\phi_{l} \in P^0(\T_{\ell}^{(i)})$
-% \item $\enorm{\hat \phi_{\ell}}$
-% \item $\enorm{\phi_{\ell}}$
-\item $error_{i} = \sqrt{\enorm{\phi}^2 - \enorm{\phi_{l}}^2}$
-\item $\mu_{i} = \norm{\varrho^{1/2}(\hat \phi_{\ell} - \phi_{l} )}$
-\item $\eta_{i} = \enorm{\hat \phi_{\ell} - \phi_{l}}$
-\item $\kappa_{i} = \enorm{\hat \phi_{\ell}^{(i)}}-\enorm{\hat \phi_{\ell}^{(i-1)}}$
-\item $\kappa2_{i} = \enorm{\phi_{l}^{(i)}}-\enorm{\phi_{l}^{(i-1)}}$
-\item $\kappa3_{i} = \enorm{\hat \phi_{\ell}^{(i)}-\hat \phi_{\ell}^{(i-1)}}$
-\end{itemize}
\clearpage
\end{align*}
+
+\subsection{Vorgehensweise}
+Mithilfe der oben Definierten Funktionen ist es uns nun möglich den Ablauf der Berechnungen zusammen zu fassen.
+
+$\theta \in (0,1),i =0$
+\begin{enumerate}
+\renewcommand{\theenumi}{(\roman{enumi})}
+\item Verfeinere $T_{\ell}^{(i)}$ um $\hat T_{\ell}$ zu erhalten
+\item Berechne die Galerkinlösung $\hat \phi_{\ell} \in P^0(\hat T_{\ell})$
+\item Berechne Fehlerschätzer $\tilde \mu_{i} := \norm{\varrho^{\ell/2}(\hat \phi_{\ell} - \Pi_{\ell} \hat \phi_{\ell} )}$
+\item Wähle $M_{\ell} \subseteq T_{\ell}^{(i)}$ mit minimaler Kardinalität, so dass
+\begin{align}
+\theta \sum_{T\in \T^{(i)}_{\ell}} \tilde\mu_{i}^2 & \leq \sum_{T\in M_{\ell}} \tilde\mu_{i}^2
+\end{align}
+\item Verfeinere die Markierten Elemente $M_{\ell}$ um $\T_{\ell}^{(i+1)}$ zu erhalten
+\item $i \mapsto i+1$, gehe zu $(i)$
+\end{enumerate}
+
+Zum Plotten (Abb.\ref{fig:exmplAA_2DQuad})werden noch folgende Schritte ausgeführt
+\begin{itemize}
+\item Berechne Galerkinlösung $\phi_{l} \in P^0(\T_{\ell}^{(i)})$
+% \item $\enorm{\hat \phi_{\ell}}$
+% \item $\enorm{\phi_{\ell}}$
+\item $error_{i} = \sqrt{\enorm{\phi}^2 - \enorm{\phi_{l}}^2}$
+\item $\mu_{i} = \norm{\varrho^{1/2}(\hat \phi_{\ell} - \phi_{l} )}$
+\item $\eta_{i} = \enorm{\hat \phi_{\ell} - \phi_{l}}$
+\item $\kappa_{i} = \enorm{\hat \phi_{\ell}^{(i)}}-\enorm{\hat \phi_{\ell}^{(i-1)}}$
+\item $\kappa2_{i} = \enorm{\phi_{l}^{(i)}}-\enorm{\phi_{l}^{(i-1)}}$
+\item $\kappa3_{i} = \enorm{\hat \phi_{\ell}^{(i)}-\hat \phi_{\ell}^{(i-1)}}$
+\end{itemize}
+
\todo{Viele Bunte Bilder und Testergebnisse}
\begin{itemize}
\item gerechnet wurde $V\phi = 1$