von Gast » Sa 1. Feb 2020, 15:58
M0M0 hat geschrieben:Das TeX nicht abstürzen kann, halte ich für ein Gerücht, damit wäre es nämlich das einzige Programm auf dieser Welt für das dies gilt...
Das stimmt so nicht. Wir haben schon vor 30 Jahren im Studium ein kleines Programm vollständig verifiziert. So etwas gibt es also durchaus. Und TeX selbst gilt inzwischen ebenfalls als fehlerfrei. Abstürze bei pdfTeX hatte ich in den letzten zehn Jahren keine mehr. Bei LuaTeX hatte ich letztes Jahr einen, der auch tatsächlich auf einem Bug beruhte, der bereits gemeldet und beseitigt war, als ich ihn entdeckt habe. In der Tat gibt es bei LuaTeX hin und wieder Abstürze bei der Verarbeitung von Fonts. Die werden aber zunehmend weniger. Die Wahrscheinlichkeit eines Absturzes bei TeX ist also wirklich extrem selten. Was es natürlich geben kann sind Fehler im LaTeX-Code, die dann zu Fehlermeldungen bis hin zum Abbruch führen. Das sind aber keine Abstürze. Man kann mit TeX auch Schleifen konstruieren, die quasi ewig laufen. Und natürlich kann ein Editor abstürzen. Das ist aber nicht TeX.
Dass TeX wegen der Größe von TeX-Dateien abstürzt, ist jedenfalls Unfug. Und ob man eine große oder 100 kleine Dateien hat, wirkt sich zwar auf die Laufzeit aus, allerdings nur insofern als das Öffnen einer neuen Datei eine gewisse Zeit benötigt. Für die eigentliche Verarbeitung ist das vollkommen egal, da TeX niemals die gesamte Datei einliest, sondern immer sequentiell. Vor 30 Jahre war das zeilenweise Lesen von Textdateien dabei u. U. noch ein limitierender Faktor (vor allem bei der Verarbeitung von PS-Dateien aus seltsamen Quellen zwecks Ermittlung der BoundingBox). Heute dürfte selbst das eher theoretischer Natur sein.
Meine Arbeiten bestehen übrigens üblicherweise aus 500 bis 1200 Seiten und bestehen dann aus einer Hand voll Dateien, nämlich einer Hauptdatei und einer Datei je Kapitel. Für einen kleinen Artikel mit 100 Seiten verwende ich dagegen normalerweise nur eine Datei. Und selbst bei den 500-Seiten-Arbeiten verwende ich extrem selten \include und \inlucdeonly. Meist verwende ich \input. Dagegen kommt die external Library bei TikZ bzw. pgfplots durchaus hin und wieder zum Einsatz. Das kann deutlich an Zeit sparen. Wobei bei
pgfplots die Zeitersparnis durch LuaTeX statt PDFTeX manchmal größer ist.
"Notizzettel"-Dokumente mit 200 bis 300 Seiten sind für TeX wirklich keine Herausforderung und ob das nun eine Datei ist oder 20 Dateien sind, ist für TeX wirklich egal. Das ist mehr eine Organisationsfrage.
[quote="M0M0"]Das TeX nicht abstürzen kann, halte ich für ein Gerücht, damit wäre es nämlich das einzige Programm auf dieser Welt für das dies gilt...[/quote]
Das stimmt so nicht. Wir haben schon vor 30 Jahren im Studium ein kleines Programm vollständig verifiziert. So etwas gibt es also durchaus. Und TeX selbst gilt inzwischen ebenfalls als fehlerfrei. Abstürze bei pdfTeX hatte ich in den letzten zehn Jahren keine mehr. Bei LuaTeX hatte ich letztes Jahr einen, der auch tatsächlich auf einem Bug beruhte, der bereits gemeldet und beseitigt war, als ich ihn entdeckt habe. In der Tat gibt es bei LuaTeX hin und wieder Abstürze bei der Verarbeitung von Fonts. Die werden aber zunehmend weniger. Die Wahrscheinlichkeit eines Absturzes bei TeX ist also wirklich extrem selten. Was es natürlich geben kann sind Fehler im LaTeX-Code, die dann zu Fehlermeldungen bis hin zum Abbruch führen. Das sind aber keine Abstürze. Man kann mit TeX auch Schleifen konstruieren, die quasi ewig laufen. Und natürlich kann ein Editor abstürzen. Das ist aber nicht TeX.
Dass TeX wegen der Größe von TeX-Dateien abstürzt, ist jedenfalls Unfug. Und ob man eine große oder 100 kleine Dateien hat, wirkt sich zwar auf die Laufzeit aus, allerdings nur insofern als das Öffnen einer neuen Datei eine gewisse Zeit benötigt. Für die eigentliche Verarbeitung ist das vollkommen egal, da TeX niemals die gesamte Datei einliest, sondern immer sequentiell. Vor 30 Jahre war das zeilenweise Lesen von Textdateien dabei u. U. noch ein limitierender Faktor (vor allem bei der Verarbeitung von PS-Dateien aus seltsamen Quellen zwecks Ermittlung der BoundingBox). Heute dürfte selbst das eher theoretischer Natur sein.
Meine Arbeiten bestehen übrigens üblicherweise aus 500 bis 1200 Seiten und bestehen dann aus einer Hand voll Dateien, nämlich einer Hauptdatei und einer Datei je Kapitel. Für einen kleinen Artikel mit 100 Seiten verwende ich dagegen normalerweise nur eine Datei. Und selbst bei den 500-Seiten-Arbeiten verwende ich extrem selten [tt]\include[/tt] und [tt]\inlucdeonly[/tt]. Meist verwende ich [tt]\input[/tt]. Dagegen kommt die [tt]external[/tt] Library bei TikZ bzw. [tt]pgfplots[/tt] durchaus hin und wieder zum Einsatz. Das kann deutlich an Zeit sparen. Wobei bei [p]pgfplots[/p] die Zeitersparnis durch LuaTeX statt PDFTeX manchmal größer ist.
"Notizzettel"-Dokumente mit 200 bis 300 Seiten sind für TeX wirklich keine Herausforderung und ob das nun eine Datei ist oder 20 Dateien sind, ist für TeX wirklich egal. Das ist mehr eine Organisationsfrage.