Formeln schön und effizient: Aufsätze und Referate mit LaTeX

Dieser Beitrag ist der erste aus der lange versprochenen Serie „Hilfsmittel für Mathe, Physik & Co“. Edit: Dort gibt es auch einen Beitrag über eine grafische Benutzeroberfläche für LaTeX.

Wer schon einmal viele Formeln in einem Textdokument verwenden wollte (oder vielleicht auch musste) hat wahrscheinlich die Erfahrung gemacht, dass die Formeleditoren von normalen Office-Programmen nicht besonders praktisch zu bedienen sind und das Ergebnis oft ausgesprochen mittelmäßig aussieht.

Eine gute Alternative zu diesen Office-Programmen ist LaTeX (Einer Erweiterung von TeX). In vielen wissenschaftlichen Bereichen, inbesondere in der Mathematik, ist LaTeX das Standardsystem zum Textsatz, sei es für Präsentationen, Hausaufgaben oder wissenschaftliche Publikationen. Eine Stärke dieses Systems ist die Erweiterbarkeit. So gibt es beispielsweise Module für Notensatz, chemische Formeln, pdf-Formulare, verschiedenste Stuktogramme, optimierte Darstellung von Quellcode und vieles mehr. Außerdem ist LaTeX dafür bekannt, dass es ohne viele Korrekturen des Nutzers Dokumente erstellt, die gut lesbar sind und alle wichtigen Regeln der Typografie einhalten.

Allerdings funktioniert LaTeX nicht nach dem WYSIWYG-Prinzip, das heißt der Nutzer schreibt zunächst von Hand LaTeX-Quellcode in eine Textdatei, die dann von LaTeX umgewandelt wird (oft in .pdf-Dateien, es sind aber auch viele andere Ausgabeformate wie zum Beispiel HTML-Seiten möglich). Das Lernen der LaTeX-Syntax kostet erst einmal etwas Zeit, wobei es im Internet viele gute Tutorials (oft auch auf den Seiten von Universitäten) gibt. Eine gute Einführung und Vorlagen für eigene Dokumente (Briefe, Diplomarbeiten …) gibt es unter anderem hier beim Mathematik-Online-Projekt der Universitäten Stuttgart und Ulm. Wenn man einmal eine Funktion nicht kennt, dann findet man über Google in der Regel sehr schnell Hilfe zu entsprechenden Funktionen. Eine gute Übersicht über wichtige Befehle für den Formelsatz gibt es auch in der Wikipedia, die selbst für die Darstellung größerer Formeln LaTeX verwendet. Und wenn man die Syntax einmal beherrscht gehen gerade Formeln sehr viel schneller, als wenn man sie in einem Formeleditor mühsam zusammen klicken muss.

Einen Überblick über verschiedene Verwendungsmöglichkeiten von LaTeX gibt es auch in der englischen Präsentation LaTeX: More Than Just Academic Papers and Theses.

LaTeX ist kostenlose Open-Source-Software und damit auch kostenlos für alle wichtigen Desktop-Betriebssysteme (und nicht nur für die) verfügbar. Für Windows empfiehlt sich beispielsweise MiKTeX, für Linux empfehle ich die Suche im jeweiligen Paketmanager oder bei der Suchmaschine des Vertrauens. Wer einfach nur ein bisschen mit den Mathe-Funktionen von LaTeX spielen möchte, findet im Internet auch diverse Seiten, auf denen man selbst LaTeX-Code eingeben kann, der dann als gerendertes Bild wieder ausgegeben wird – zum Beispiel hier.

Statistische Signifikanz

Dieser Beitrag ist ein Nachtrag zur Serie „Traue keiner Statistik, die Du nicht selbst gefälscht hast„. Er wurde größtenteils schon vor längerer Zeit geschrieben, blieb aber dann eine Weile unveröffentlicht.

Aussagen aus Statistiken sind, vor allem dann wenn nur wenige Stichproben ausgewertet werden, immer nur eine Wahrscheinlichkeitsaussage. Das heißt, dass es tatsächlich gar keinen Unterschied in der Wahrscheinlichkeit geben muss, nur weil sich zwei statistisch erfasste Größen unterscheiden. Wenn zum Beispiel bei der Untersuchung eines neuen Medikaments diejenigen Patienten, die das Medikament bekommen haben, häufiger (oder früher, besser…) geheilt wurden, so kann das auch auf einen Zufall zurück zu führen sein und muss nicht unbeding am Medikament selbst liegen. Der Einfluss zufälliger Schwankungen sinkt dabei mit steigender Anzahl an Patienten, die an der Untersuchung teilgenommen haben. (Dieses Problem ist dabei unabhängig vom Placeboeffekt und tritt natürlich auch bei korrekt durchgeführten Blindstudien auf.)

Daher versucht man bei Statistiken die Irrtumswahrscheinlichkeit der durchgeführten Untersuchungen festzustellen. Meist kann man annehmen, dass die Wahrscheinlichkeit des Ergebnisses einer Statistik einer Normalverteilung entspricht. Damit lässt sich aus der Streuung der Ergebnisse oder theoretischen Überlegungen zur statistischen Verteilung relativ einfach abschätzen, wie hoch die Irrtumswahrscheinlichkeit der Statistik tatsächlich ist, das heißt wie hoch die Wahrscheinlichkeit ist, dass ein statistische erfasster Zusammenhang zwischen den erfassten Daten tatsächlich besteht (z.B. das Medikament tatsächlich wirkt).

In der Wissenschaft werden meist Ergebnisse mit einer Irrtumswahrscheinlichkeit von unter 5% erwartet. Trotzdem bleibt immer eine gewisse Wahrscheinlichkeit, dass die Aussage der Statistik falsch ist. Wenn die Irrtumswahrscheinlichkeit zu hoch ist, muss man unter Umständen mehr Daten erheben (das heißt zum Beispiel mehr Patienten untersuchen).

Weitere Informationen zur statistischen Signifikanz finden sich natürlich auch in der Wikipedia. Und für Freunde von schwarzem Humor und toten Katzen zur Abwechslung mal noch ein passendes Chat-Zitat.

Wahrnehmung von Licht: Lumen vs. Watt

Wenn man Licht quantitativ bestimmen will, könnte man natürlich im Prinzip einfach die Lichtleistung in Watt angeben. Allerdings nimmt das Auge Licht der verschiedenen Wellenlängen sehr unterschiedlich intensiv wahr. So braucht man bei blauem Licht mehr als zehn Mal mehr Leistung als bei grünem, um das gleiche Helligkeitsempfinden zu erzeugen.

Dieser Zusammenhang wird in der Hellempfindlichkeitskurve dargestellt (sie unterscheidet zwischen Tag- und Nachtsehen). Hier kann abgelesen werden, wie hell Licht der gleichen Leistung in Abhängigkeit von der Wellenlänge wahrgenommen wird, wobei der maximale Wert (bei Tagsehen 555nm grün) gleich Eins gesetzt wird. Wenn man die Leistungen der einzelnen Wellenlängen einer Lichtquelle mit den entsprechenden Werten dieser Kurve gewichtet und aufsummiert, erhält man den sogenannten Lichtstrom. Er ist damit die, an die menschliche Wahrnehmung angepasste, Entsprechung der Strahlungsleistung und wird natürlich nicht mehr in Watt sondern in der SI-Einheit Lumen (kurz lm) angegeben. Mit monochromatischem Licht von 555nm erhält man die theoretisch maximal mögliche Lichtausbeute von 683 Lumen pro Watt.

Interessant ist dieser Zusammenhang zum Beispiel bei Laserpointern: die Strahlungsleistung ist aus Sicherheitsgründen limitiert (je nach Klasse wenige Milliwatt). Der Lichtstrom ist damit direkt mit der Hellempfindlichkeitskurve verknüpft. Daraus folgt: Grüne Laser wirken deutlich heller als rote der gleichen Leistungsklasse.

Farbmischung und Schuhsohle

Licht, das wir im Alltag sehen, setzt sich meistens aus einer Vielzahl unterschiedlicher Wellenlängen zusammen. Im Wellenlängenbereich den unser Auge wahrnehmen kann (ca. 380 nm bis 760 nm) entspricht jede Wellenlänge einer Farbe. Licht, das aus nur einer Wellenlänge besteht (kommt praktisch fast nur bei Gasentladungslampen und Lasern vor) hat dabei sehr kräftige Farben (Spektralfarben) und wird „monochromatisches Licht“ genannt.

Licht jeder anderen Farbe ist aus verschiedenen Wellenlängen zusammengesetzt. Für die Mischung jeder dieser Farben aus Licht unterschiedlicher Wellenlängen (additive Farbmischung) gibt es im Prinzip beliebig viele Möglichkeiten. Um darzustellen wie eine Farbe zustande kommen kann gibt es eine sogenannte Normfarbtafel.

Wie so eine Farbtafel aussieht sieht man beispielsweise in der Wikipedia. Da die Form ein bisschen an einen Schuh erinnert, wird sie manchmal auch als „Schuhsohle“ bezeichnet.

Auf der Farbtafel sind die monochromatischen Farben als Kurve eingezeichnet, wobei die beiden Enden die Grenzen des sichtbaren Wellenlängenbereichs darstellen. Alle anderen Farben liegen im Inneren dieser Kurve. Wenn man nun zwei monochromatische Lichtstrahlen (entsprechen unterschiedlichen Punkten auf der Kurve) im Verhältnis eins zu eins mischt, dann erhält man genau die Farbe, die auf der Farbtafel in der Mitte zwischen den beiden Punkten liegt. Wenn mehr Licht einer Farbe verwendet wurde, liegt der Punkt auf der Farbtafel entsprechend näher an der entsprechenden Farbe. Natürlich können auf diese Weise auch mehr als zwei Lichtwellenlängen oder Farben gemischt werden.

Eine genauere Beschreibung gibt es in der Wikipedia unter den Stichworten Farbmetrik und Normvalenzsystem.

Mehr zur Beschreibung von Licht folgt demnächst hier.

90% dafür und 90% dagegen – Suggestion bei Meinungsumfragen?

Dieser Beitrag ist Teil der Serie „Traue keiner Statistik, die Du nicht selbst gefälscht hast“.

Ein aktuelles Beispiel für die Auswirkungen suggestiver Fragestellungen auf die Ergebnisse von Meinungsumfragen hat die Zeit dargestellt (via lawblog): Durch unterschiedliche Fragestellung in Umfragen zum gleichen Thema ergaben sich höchst unterschiedliche Resultate: Als Fazit kam einmal heraus, dass 92% der Befragten für die Sperren sind, das andere Mal war eine ähnliche Größenordnung dagegen (tatsächlich war es sicher nicht nur Suggestion sondern es gab auch inhaltliche Unterschiede in der Fragestellung, die aber bei der Berichterstattung dann wiederum eher kurz gekommen sind).

Bei dem hier beobachteten Effekt spielt sicherlich eine große Rolle, dass die ursprünglichen Fragen oft nicht genau wiedergegeben sondern zur einfachen „Zustimmung“ oder „Ablehnung“ eines ganzen Themas zusammengefasst werden. Daraus resultiert dann im angegebenen Beispiel der Netzsperren, dass scheinbar völlig gegensätzliche Ergebnisse entstehen. (Der Infratest-Chef ist in einem Interview auf den oben angegebenen Fall auch noch einmal eingegangen.)

Trotzdem ist auch die eigentliche Suggestion bei Umfragen durchaus von Bedeutung. Ein unterhaltsames Extrembeispiel einer (überhaupt nicht um Repräsentativität noch um Seriosität bemühten) Umfrage findet sich in folgendem Video:

Die Befragten hier plappern jedenfalls irgendetwas nach, was sie augenscheinlich geistig noch nicht wirklich verarbeitet haben (und evtl. auch nie dazu kommen werden 😉 ). Auch wenn dieses Beispiel mit einer Infratest-Umfrage ziemlich sicher ziemlich wenig zu tun hat, so dürfte trotzdem auch bei jeder seriösen Umfrage ein gewisser Einfluss der Fragestellung auf die Meinung der Befragten möglich sein. Bei Themen, zu denen sich Menschen bisher noch gar keine Meinung gebildet hatten, wird dieser Effekt nach meiner Einschätzung verhältnismäßig deutlich ausfallen.

Fazit: Man sollte immer genau darauf achten, nach was eigentlich genau gefragt wurde und welche Informationen und Zusammenhänge in der Fragestellung noch versteckt waren beziehungsweise welche nicht. (Und natürlich: Wer hat die Umfrage durchgeführt und was wird über sie sonst noch gesagt?)

Dazu passt auch noch ein zweites, lustigeres, Video (auf Englisch):

The Colbert Report Mon – Thurs 11:30pm / 10:30c
The Colbert Repoll – Scott Rasmussen
www.colbertnation.com
Colbert Report Full Episodes Political Humor Health Care Reform

Traue keiner Statistik, die Du nicht selbst gefälscht hast!

Dieses Zitat dürfte jedem bekannt sein, meist wird es Winston Churchill zugeschrieben. Ob das korrekt ist, darf angezweifelt werden.

Ich will mich jedenfalls in der nächsten Zeit mit mehreren Beiträgen der Frage widmen, wo Statistiken und Prognosen an ihre Grenzen stoßen.

Wenn dieses Experiment funktioniert, wird es in diesem Blog wahrscheinlich öfters kleinere Serien von Beiträgen geben, die sich jeweils mit einem bestimmten Themenbereich beschäftigen.

Hier werden die Beiträge zum Thema „Traue keiner Statistik, die Du nicht selbst gefälscht hast“ verlinkt: