Hallo zusammen,
ganz neu im Forum muss ich doch gleich mal eine Frage stellen.
Eine Fehlermeldung hält mich nun ganz schön in Schuss.
Und ich kann mir als autodidaktischer Latexneuling einfach nicht helfen.
Will ich mein Dokument ansehen kommt immer folgende Fehler Meldung:
Runaway argument?
{\sigma _{ij}$ Die durschnittliche Kovarianz ist das \glqq systematis\ETC.
! File ended while scanning use of \mathaccentV.
<inserted text>
\par
<*> ...estitiounundfinanzierungzusammenfassung.tex
?
Wobei ich vielleicht noch folgende Anmerkungen treffen will:
Das Dokument heißt investitionsundfinanzierungszusammenfassung.tex und wurde in TexWorks erstellt.
Ich habe noch einige (meiner Meinung nach unlogischen) overfull hbox Fehlermeldungen, sonst keine.
Die Präambel sieht so aus:
\documentclass{scrartcl}
\usepackage[ngerman]{babel}
\usepackage[utf8]{inputenc}
\usepackage {amssymb}
\usepackage{marvosym}
\usepackage{graphicx}
\usepackage{amsmath}
\begin{document}
\title{Notitzen zu I \& F}
\author{mein name}
\date{\today}
\maketitle
\tableofcontents
sehr weit unten im Dokument sieht der Teil,auf den sich der Fehler wohl bezieht in etwa so aus:
\subsection{Vorgehensweise}
\subsubsection{Naive Diversifikation}
\begin{enumerate}
\item N WP mit identischer erwarteter Rendite ($\mu$), Varianz ($\sigma^2$) und Kovarianz $(\sigma_{ij})=0$.
Die Portfoliovarianz ist bei gleichen Anteilen ($\frac{1}{N})=\sigma^2p=\Sigma_i^N\Sigma_j^Nx_ix_j\sigma_{ij}=$
$$\Rightarrow \sigma^2p=\Sigma^N(\frac{1}{N})^2\sigma^2+0=\frac{1}{N}\sigma^2$$
$$\textrm{Für} N\rightarrow \infty : \lim_{N \rightarrow \infty}=\frac{1}{N}\sigma^2=0!$$
\item Beim Vorleigen von Kovarianz (Cov $\neq 0$) $\rightarrow$ Risiko kann nicht vollständig eliminiert werden. $\lim_{N \rightarrow \infty}\sigma^2 p=\frac{1}{N}\bar{\sigma}^2+\frac{n-1}{n}\bar{\sigma_{ij}}=\bar{\sigma_{ij}$ Die durschnittliche Kovarianz ist das \glqq systematische Risiko\grqq .
\end{enumerate}
\begin{center}
\includegraphics[width=0.8\textwidth]{8folie32}
\end{center}
Ich danke für Hinweise und freue mich hier viel voneinander zu lernen

Beste Grüße
