\end{align*}
die zu $T$ zugehörige Parametrisierung.
\end{defi}
-\begin{bem}Weiterhin werden wir die vier Ecken des achsenorientierten Rechtecks, beginnend in $\bs v$, mit $\bs k_1,\ldots,\bs k_4$ bezeichnen, wobei die Menge aller Knoten des Rechtecks $\K_T$ sei. Die Reihenfolge der Knoten sei dabei so gewählt, dass der Normalenvektor $\bs n = \overline {\bs k_1\bs k_2}\times\overline {\bs k_1\bs k_4}$ nach außen zeigt. Außerdem benennen wir die Menge der Kanten mit $\E_T$, bestehend aus den vier Kanten $e_1,\ldots,e_4$. In Abbildung~\ref{fig:net:single} wurde ein Rechteck mit den Bezeichnungen kurz skizziert.
+\begin{bem}\label{thm:bem:bez}Weiterhin werden wir die vier Eckpunkte des achsenorientierten Rechtecks, beginnend in $\bs v$, mit $\bs k_1,\ldots,\bs k_4$ bezeichnen, wobei die Menge aller Knoten des Rechtecks $\K_T$ sei. Die Reihenfolge der Knoten sei dabei so gewählt, dass der Normalenvektor $\bs n = \overline {\bs k_1\bs k_2}\times\overline {\bs k_1\bs k_4}$ nach außen zeigt. Außerdem benennen wir die Menge der Kanten mit $\E_T$, bestehend aus den vier Kanten $e_1,\ldots,e_4$. In Abbildung~\ref{fig:net:single} wurde ein Rechteck mit den Bezeichnungen kurz skizziert.
\end{bem}
\begin{figure}[ht]
\centering
\psfrag{k4}{\scriptsize $\bs k_4$}
\psfrag{n}{\scriptsize $\bs n$}
\includegraphics[width=0.5\textwidth]{fig/net_single}
-\caption{achsenorientiertes Rechteck}
+\caption{\small Achsenorientiertes Rechteck mit Beschriftung der Eckpunkte $\{\bs k_1,\ldots \bs k_4\}$, der Kanten $\{e_1,\ldots e_4\}$ und dem Normalenvektor $\bs n$ entsprechend der Bemerkung \ref{thm:bem:bez}.}
\label{fig:net:single}
\end{figure}
Des Weiteren werden wir für die Berechnungen noch Aussagen über die Größe eines Elements sowie über den Abstand zweier Elemente festhalten.
mit dem Skalarprodukt $\cdot$ und $\bs a \in \{(1,0,0)^T,(0,1,0)^T,(0,0,1)^T\}$.
\end{defi}
Mit diesen Vorüberlegungen definieren wir uns die Diskretisierung des Randes $\Gamma$.
-\begin{defi}
+\begin{defi}\label{thm:def:part}
Sei $\T_{\ell} = \{T_1,T_2,\dots,T_N\}$ eine endliche Menge von achsenorientierten Rechtecken. Es bezeichne $\K_{\ell}:=\bigcup_{T\in\T} \K_T$ die Menge aller Knoten von $\T_{\ell}$ und $\E_{\ell}:=\bigcup_{T\in\T} \E_T$ die Menge aller Kanten. Wir nennen $\T_{\ell}$ eine Partition von $\Gamma$, falls
\begin{itemize}
\item $\overline{\Gamma} = \bigcup_{j=1}^NT_j$
\begin{figure}[ht]
\centering
\subfloat[gültige Partition]{\includegraphics[width=0.3\textwidth]{fig/net1}}
-\subfloat[ungültige Partition]{\includegraphics[width=0.3\textwidth]{fig/net_wrong}}
-\caption{Beispiel Partitionen}
+\subfloat[Ungültige Partition, da mehr als 3 Knoten auf einer Kante liegen.]{\includegraphics[width=0.3\textwidth]{fig/net_wrong}}
+\caption{\small Beispiel Partitionen zur Definition \ref{thm:def:part}}
\label{fig:net}
\end{figure}
\end{defi}
\begin{figure}[ht]
\centering
-\subfloat[Element]{\includegraphics[width=0.25\textwidth]{fig/refType_full}}
-\subfloat[Isotrop]{\includegraphics[width=0.25\textwidth]{fig/refType_2}}
-\subfloat[Vertikal]{\includegraphics[width=0.25\textwidth]{fig/refType_3}}
-\subfloat[Horizontal]{\includegraphics[width=0.25\textwidth]{fig/refType_4}}
-\caption{Teilungsarten}
+\subfloat[markiertes Element]{\includegraphics[width=0.25\textwidth]{fig/refType_full}}
+\subfloat[isotrope Teilung]{\includegraphics[width=0.25\textwidth]{fig/refType_2}}
+\subfloat[vertikale Teilung]{\includegraphics[width=0.25\textwidth]{fig/refType_3}}
+\subfloat[horizontal Teilung]{\includegraphics[width=0.25\textwidth]{fig/refType_4}}
+\caption{\small Entsprechend der Definition \ref{thm:bem:localREF}, wird ein markiertes Element durch isotrope Teilung in vier ähnliche Elemente geteilt. Durch vertikale Teilung werden die beiden vertikalen Kanten halbiert, wodurch zwei übereinander liegende ähnliche Elemente entstehen. Die beiden horizontalen Kanten werden durch horizontale Teilung halbiert, hierbei entstehen zwei ähnliche nebeneinander liegende Elemente.}
\label{fig:refType}
\end{figure}
\subfloat[Lage]{\includegraphics[width=0.4\textwidth]{fig/exmpl13_nei_part}}
\subfloat[Nachbarn : vierte Zeile der NEI Matrix]{\input{fig/exmpl13_nei_part}}
-\caption{\scriptsize An dieser Stelle wollen wir die Nachbarschaftsrelationen des Elements 4
+\caption{\small An dieser Stelle wollen wir die Nachbarschaftsrelationen des Elements 4
% aus Abb.\ref{exmpl13}
hervorheben, denn das Element hat an den ersten beiden Seiten jeweils einen Nachbarn, an der dritten Seite zwei Nachbarn und an der vierten Seite keinen. Der Index der Nachbarelemente ist jeweils in den Nachbarschaftsrelationen gespeichert. Wobei bei Seiten mit nur einem Nachbar der Nachbar immer im kleineren Index gespeichert wird. Dass das Element 4 selbst Nachbar einer Seite mit zwei Elementen ist, geht aus den Informationen für Element 4 nicht hervor, ist aber dafür in Element 9 vermerkt. Sollte beispielsweise das Element 12 oder 13 horizontal geteilt werden, so muss klarerweise auch Element 4 mindestens horizontal geteilt werden, welches auch eine horizontale Teilung von Element 9 erzwingen würde.}
\label{exmpl13:nei:part}
\centering
\subfloat[VaterSohn aus \ref{exmpl12}]{\input{fig/exmpl12_f2s}}
\subfloat[VaterSohn aus \ref{exmpl13}]{\input{fig/exmpl13_f2s}}
-\caption{VaterSohn-Matrizen}
+\caption{\small Anhand der ersten Zeile der VaterSohn-Matrix aus \ref{exmpl12} sehen wir anhand der Indizes der neuen Elemente, dass das erste Element in vier Elemente geteilt wurde, also eine isotrope Teilung durchgeführt wurde. Anhand der Indizes in der zweiten Zeile erkennen wir, dass das Element vertikal in zwei neue Elemente geteilt wurde. Das Element 3 wurde hingegen nicht geteilt. Zum Vergleich mit dem Beispiel \ref{exmpl13}, wurde hier auch die zugehörige VaterSohn-Matrix dargestellt.}
\label{exmpl1:f2s:part}
\end{figure}
\end{enumerate}
\end{alg}
-\subsection{Beispiel Quadrat}
+\subsection{Beispiel Quadrat} \label{bsp:quad}
Im Folgenden werden wir die Laplace-Gleichung
\begin{align}\label{math:bsp:Quad:gls}
\begin{aligned}
\begin{figure}[ht]
\centering
\subfloat[Startnetz \label{fig:mesh:2DQuad:start}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_2DQuad_ref}}
- \subfloat[Netz nach 12 Schritten mit 252 Elementen \label{fig:mesh:2DQuad:steps}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_2DQuad_12}}
- \caption{Quadrat in der $z=0$ Ebene}
+ \subfloat[Anisotropes Netz nach 12 Schritten mit 252 Elementen \label{fig:mesh:2DQuad:steps}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_2DQuad_12}}
+ \caption{\small Das Startnetz zeigt die Geometrie Quadrat in der $z=0$ Ebene für die Beispiele \ref{bsp:quad}. Anhand des Netzes der anisotropen Verfeinerung lässt sich gut erkennen, dass die Geometrie wie erwartet vorwiegend an den Singularitäten, also am Rand verfeinert wird.}
\label{fig:mesh:2DQuad}
\end{figure}
-\subsubsection{Vergleich verschiedener Verfeinerungsstrategien}
+\subsubsection{Vergleich verschiedener Verfeinerungsstrategien} \label{bsp:quad:verfeinern}
\noindent
Zunächst wollen wir drei Verfeinerungs-Strategien genauer untersuchen. Hierzu betrachten wir zum einen die Strategie "`uniform"' ($\theta=1,\nu=0$), bei der das verfeinerte Netz $\T_{\ell+1}$ durch isotrope Verfeinerung aller Elemente entsteht, also jedes Element wird in vier gleich große Elemente geteilt. In der zweiten Strategie "`adaptiv isotrop"' ($\theta=0.5,\nu=0$) werden wir zulassen, dass nicht alle Elemente verfeinert werden, also nur eine Teilmenge wird jeweils in vier gleich große Elemente geteilt. Und in der letzten Strategie "`adaptiv anisotrop"' ($\theta=0.5,\nu=0.5$) werden wir außerdem anisotrope Teilungen zulassen, also ein Teil der Elemente wird geeignet in zwei oder vier gleich große Elemente geteilt. Für alle drei Strategien werden wir den Algorithmus \ref{alg:adapt} mit entsprechenden Parametern $\theta,\nu$ zum Lösen von \eqref{math:bsp:Quad:gls} verwenden.
\psfrag{min hmin/hmax 1t05n05 A}{\tiny $\min (h_{\min}/h_{\max})$ (anisotrop)}
\centering
-\subfloat[Fehler und Fehlerschätzer für das Quadrat \label{fig:2DQuad:verfeinern:err}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_error}}
-\subfloat[Seitenverhältnisse für das Quadrat \label{fig:2DQuad:verfeinern:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_hminmax}}\\
-\subfloat[Konditionszahl der $\hat V_{\ell}$ Matrix für das Quadrat \label{fig:2DQuad:verfeinern:cond}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_cond}}
-\subfloat[Berechnungszeit für das Quadrat \label{fig:2DQuad:verfeinern:time}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_time}}
-\caption{Vergleich der Verfeinerungsstrategien auf dem Quadrat}
+\subfloat[Fehler $\enorm{\phi - \phi_{\ell}}$ und Fehlerschätzer $\tilde \mu, \eta$ \label{fig:2DQuad:verfeinern:err}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_error}}
+\subfloat[Seitenverhältnisse \label{fig:2DQuad:verfeinern:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_hminmax}}\\
+\subfloat[Konditionszahl der $\hat V_{\ell}$ Matrix \label{fig:2DQuad:verfeinern:cond}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_cond}}
+\subfloat[Berechnungszeit \label{fig:2DQuad:verfeinern:time}]{\includegraphics[width=0.5\textwidth]{fig/1tn_2DQuad_time}}
+\caption{\small Vergleich der Verfeinerungsstrategien auf dem Quadrat in Beispiel \ref{bsp:quad:verfeinern}}
\label{fig:2DQuad:verfeinern}
\end{figure}
\noindent
Ziel wird es nun sein, die Instabilitäten, die bei der analytischen Berechnung auftreten, durch Quadratur zu vermeiden. Dafür werden wir vorher noch Berechnungen mit verschiedenen Quadraturgraden genauer untersuchen.
-\subsubsection{Vergleich verschiedener Quadraturgrade}
+\subsubsection{Vergleich verschiedener Quadraturgrade} \label{bsp:quad:quad}
Bei der folgenden Berechnung verwenden wir wieder den Algorithmus \ref{alg:adapt} mit Parametern $\theta=0.5,\nu=0.5$ zum Lösen von \eqref{math:bsp:Quad:gls}, wobei alle Integrale von $\zeta_Q$-zulässigen Elementen durch die vorgestellte Gauss-Quadratur approximiert werden. Hierbei wählen wir jeweils 1, 2, 4 oder 8 Auswertungsstellen. Alle vier Berechnungsarten führen wir auf den selben Netzen aus, um die Ergebnisse nicht durch die Wahl des Netzes zu beeinflussen. Zum Berechnen des $\tilde \mu_{\ell}$-Schätzers, welcher die Verfeinerung steuert, verwenden wir in jedem Schritt die Lösung der Quadratur mit 8 Auswertungsstellen.
\begin{figure}[ht]
-
\centering
\psfrag{tmu 2222t05n05 0 QA}{\tiny $\tilde \mu$ (Grad $1 $)}
\psfrag{min hmax/max hmax 2222t05n05 3 QA}{\tiny $\min (h_{\max})/\max (h_{\max})$ (Grad $8 $)}
\psfrag{min hmin/hmax 2222t05n05 QA}{\tiny $\min (h_{\min}/h_{\max})$ (Grad $8 $)}
-\subfloat[Fehler und Fehlerschätzer für das Quadrat \label{fig:2DQuad:quad:err}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_error}}
+\subfloat[Fehler $\enorm{\phi - \phi_{\ell}}$ und Fehlerschätzer $\tilde \mu, \eta$ \label{fig:2DQuad:quad:err}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_error}}
% \subfloat[Seitenverhältnisse auf dem Quadrat \label{fig:2DQuad:quad:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_hminmax}}
% \\
% \subfloat[Konditionszahl der $\hat V_{\ell}$ Matrix \label{fig:2DQuad:quad:cond}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_cond}}
-\subfloat[Berechnungszeit für das Quadrat \label{fig:2DQuad:quad:time}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_time}}
-\caption{Vergleich der Quadraturgrade auf dem Quadrat}
+\subfloat[Berechnungszeit \label{fig:2DQuad:quad:time}]{\includegraphics[width=0.5\textwidth]{fig/2222t05n05_2DQuad_time}}
+\caption{Vergleich der Quadraturgrade auf dem Quadrat in Beispiel \ref{bsp:quad:quad}}
\label{fig:2DQuad:quad}
\end{figure}
\noindent
Aufgrund dieser Ergebnisse werden wir für die folgenden Berechnungen einen Quadraturgrad von 4 wählen. Da wir zum einen die Berechnungszeiten gering halten und zum anderen die Stabilität der Berechnungen sicherstellen wollen.
-\subsubsection{Vergleich verschiedener Berechnungsarten}
+\subsubsection{Vergleich verschiedener Berechnungsarten} \label{bsp:quad:sem}
Wie wir für die analytische Berechnung mit adaptiv anisotroper Netzverfeinerung in Abbildung \ref{fig:2DQuad:verfeinern:err} gesehen haben, wird der Fehlerschätzer $\tilde \mu_{\ell}$ ab etwa 3000 Elementen instabil. Deswegen wollen wir an dieser Stelle verschiedene Strategien zur Approximation der Matrix $\hat V_{\ell}$ vorstellen.\\
Bei den folgenden Berechnungen werden wir wieder den Algorithmus \ref{alg:adapt} mit Parametern $\theta=0.5,\nu=0.5$ zum Lösen von \eqref{math:bsp:Quad:gls} verwenden, wobei für alle auftretenden Gauss-Quadraturen der Grad 4 gewählt wurde. Alle Berechnungsarten werden auf den selben Netzen ausgeführt um die Ergebnisse nicht durch die Wahl des Netzes zu beeinflussen.\\
Wir werden nun die Matrix $\hat V_{\ell}$ in der "`analytischen"' Strategie durch die in Kapitel \ref{sec:analyt} vorgestellten Stammfunktionen analytisch berechnen.
\begin{figure}[ht]
\centering
-\subfloat[Fehler und Fehlerschätzer für das Quadrat \label{fig:2DQuad:sem:err}]{\includegraphics[width=0.5\textwidth]{fig/142t05n05_2DQuad_error}}
+\subfloat[Fehler $\enorm{\phi - \phi_{\ell}}$ und Fehlerschätzer $\tilde \mu, \eta$ \label{fig:2DQuad:sem:err}]{\includegraphics[width=0.5\textwidth]{fig/142t05n05_2DQuad_error}}
% \subfloat[Seitenverhältnisse auf dem Quadrat \label{fig:2DQuad:quad:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_2DQuad_hminmax}}
\\
\subfloat[Konditionszahlen der $\hat V_{\ell}$ Matrix \label{fig:2DQuad:sem:cond}]{\includegraphics[width=0.5\textwidth]{fig/142t05n05_2DQuad_cond}}
-\subfloat[Berechnungszeit für das Quadrat \label{fig:2DQuad:sem:time}]{\includegraphics[width=0.5\textwidth]{fig/142t05n05_2DQuad_time}}
-\caption{Vergleich der Berechnungsarten von $\hat V_{\ell}$ auf dem Quadrat}
+\subfloat[Berechnungszeit \label{fig:2DQuad:sem:time}]{\includegraphics[width=0.5\textwidth]{fig/142t05n05_2DQuad_time}}
+\caption{Vergleich der Berechnungsarten von $\hat V_{\ell}$ auf dem Quadrat in Beispiel \ref{bsp:quad:sem}}
\label{fig:2DQuad:sem}
\end{figure}
Die Ergebnisse zeigen, dass wir durch Gauss-Quadratur über das kleinere Element auf $\zeta_E$-zulässigen Elementen bis an die Speichergrenze stabil rechnen können und es nicht nötig ist, alle Integrale durch Quadratur zu ersetzen. Weiterhin nimmt die Art der Berechnung von $\hat V_{\ell}$ kaum Einfluss auf die Laufzeit.
Damit haben wir in der semianalytischen Berechnung und adaptiv anisotroper Verfeinerung ein stabile Strategie für parallele Elemente gefunden.
-\subsection{Beispiel Fischer Würfel}
+\subsection{Beispiel Fischer Würfel}\label{bsp:fichCube}
Im Folgenden werden wir die Laplace-Gleichung
\begin{align}\label{math:bsp:FichCube:gls}
\begin{aligned}
\begin{figure}[ht]
\centering
\subfloat[Startnetz \label{fig:mesh:3DFichCube:start}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_3DFichCube_ref}}
- \subfloat[Netz nach 6 Schritten mit 381 Elementen \label{fig:mesh:3DFichCube:steps}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_3DFichCube_6}}
- \caption{Fischer Würfel}
+ \subfloat[Anisotropes Netz nach 6 Schritten mit 381 Elementen \label{fig:mesh:3DFichCube:steps}]{\includegraphics[width=0.5\textwidth]{fig/exmpl_3DFichCube_6}}
+ \caption{\small Das Startnetz zeigt die Geometrie Fischer Würfel für das Beispiel \ref{bsp:fichCube}. Anhand des Netzes der anisotropen Verfeinerung lässt sich gut erkennen, dass die Geometrie wie erwartet vorwiegend an den Singularitäten, also an den Kanten verfeinert wird.}
\label{fig:mesh:3DFichCube}
\end{figure}
\begin{figure}[ht]
-
\centering
-\subfloat[Fehler und Fehlerschätzer für den Fischer Würfel \label{fig:3DFichCube:sem:err}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_error}}
+\subfloat[Fehler $\enorm{\phi - \phi_{\ell}}$ und Fehlerschätzer $\tilde \mu, \eta$ \label{fig:3DFichCube:sem:err}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_error}}
\\
-\subfloat[Seitenverhältnisse auf dem Fischer Würfel \label{fig:3DFichCube:quad:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_hminmax}}
+\subfloat[Seitenverhältnisse \label{fig:3DFichCube:quad:hminmax}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_hminmax}}
% \\
\subfloat[Konditionszahlen der $\hat V_{\ell}$ Matrix \label{fig:3DFichCube:sem:cond}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_cond}}
% \subfloat[Berechnungszeit für das Fischer Würfel \label{fig:3DFichCube:sem:time}]{\includegraphics[width=0.5\textwidth]{fig/132t05n05_3DFichCube_time}}
-\caption{Vergleich der Berechnungsarten von $\hat V_{\ell}$ auf dem Fischer Würfel}
+\caption{Vergleich der Berechnungsarten von $\hat V_{\ell}$ auf dem Fischer Würfel in Beispiel \ref{bsp:fichCube}}
\label{fig:3DFichCube:sem}
\end{figure}
\subsection{Beispielnetz mit Verfeinerung}
An dieser Stelle wollen wir noch einmal das Netz des Quadrats aus Abbildung \ref{fig:mesh:2DQuad:start} betrachten. Wir wenden dazu die Netzverfeinerung aus Kapitel \ref{sec:implement:refine} mit dem Markierungsvektor $marked = (2, 3, 1, 3)$ auf das Startnetz an und erhalten dadurch das Netz aus Abbildung \ref{exmpl12:lage}. Die drei zugehörigen Matrizen $COO$, $ELE$ und $NEI$, welche in Kapitel \ref{sec:implement:daten} genauer beschrieben wurden, finden wir in den Abbildungen \ref{exmpl12:coo},\ref{exmpl12:ele},\ref{exmpl12:nei}.
+
\begin{figure}[h!t]
+
\centering
-\subfloat[Lage \label{exmpl12:lage}]{\includegraphics[width=0.55\textwidth]{fig/exmpl12_ref}}
+
+\subfloat[Lage \label{exmpl12:lage}]{ \includegraphics[width=0.6\textwidth]{fig/exmpl12_ref} }
\subfloat[Koordinatenmatrix]{\input{fig/exmpl12_coo}}\\
\subfloat[Elementmatrix]{\input{fig/exmpl12_ele}}
\subfloat[Nachbarschaftsrelationen]{\input{fig/exmpl12_nei}}
-\caption{{\scriptsize Dieses Beispielnetz entsteht durch die Verfeinerung von Netz \ref{fig:mesh:2DQuad} mit dem Markierungsvektor $marked = (2,3,1,3)$. Zum Verfeinern wurde der Algorithmus \ref{alg:refine} mit der Implementierung aus \ref{code:refineQuad} verwendet. In schwarz wurde der Index der Elemente und in rot der Index der Koordinaten eingezeichnet.}}
+\caption{{\small Dieses Beispielnetz entsteht durch die Verfeinerung von Netz \ref{fig:mesh:2DQuad} mit dem Markierungsvektor $marked = (2,3,1,3)$. Zum Verfeinern wurde der Algorithmus \ref{alg:refine} mit der Implementierung aus \ref{code:refineQuad} verwendet. In schwarz wurde der Index der Elemente und in rot der Index der Koordinaten eingezeichnet.}}
\label{exmpl12}
\end{figure}
\begin{figure}[ht]
\centering
% \subfloat[Lage]{
-\includegraphics[width=0.55\textwidth]{fig/exmpl13_ref}
+\includegraphics[width=0.6\textwidth]{fig/exmpl13_ref}
% }
% \subfloat[Koordinaten]{\input{fig/exmpl13_coo}}\\
% \subfloat[Elemente]{\input{fig/exmpl13_ele}}
% \subfloat[Nachbarn]{\input{fig/exmpl13_nei}}
-\caption{\scriptsize Dieses Netz entsteht durch die Verfeinerung von Element 7 aus dem Netz \ref{exmpl12}. In schwarz wurde der Index der Elemente und in rot der Index der Koordinaten eingezeichnet. Es zeigt, dass zusätzlich Elemente verfeinert werden, um die Forderung von maximal drei Knoten auf einer Kante zu erfüllen.}
+\caption{\small Dieses Netz entsteht durch die Verfeinerung von Element 7 aus dem Netz \ref{exmpl12}. In schwarz wurde der Index der Elemente und in rot der Index der Koordinaten eingezeichnet. Es zeigt, dass zusätzlich Elemente verfeinert werden, um die Forderung von maximal drei Knoten auf einer Kante zu erfüllen.}
\label{exmpl13:lage}\label{exmpl13}
\end{figure}