Zur Version mit Bildern
freiesMagazin Juni 2014
(ISSN 1867-7991)

Topthemen dieser Ausgabe

Ubuntu und Kubuntu 14.04 LTS
Ubuntu 14.04 LTS „Trusty Tahr“ ist die neue, fünf Jahre lang unterstützte Version von Ubuntu. Der Artikel soll helfen, zu entscheiden, ob es sich lohnt, die nächsten fünf Jahre auf „Trusty Tahr“ zu setzen. Daneben wird auch noch ein Blick auf Kubuntu, das KDE als Desktop-Umgebung einsetzt, geworfen. (weiterlesen)

GPS: Tracks und Routen erstellen mit QLandkarte GT
Mit dem Programm QLandkarte GT ist es möglich, auf der Grundlage der Karten von OpenStreetMap Tracks und Routen zu generieren und diese auf ein GPS-Gerät zu exportieren. Die Möglichkeiten der Software sind sehr vielfältig, deshalb erschließen sich dem Einsteiger nicht sofort die wichtigsten Funktionen. Ziel des Artikels ist es deshalb, dem Neuling einen schnellen Einstieg zu verschaffen. (weiterlesen)

Professionelles Database Publishing
Es gibt eine Reihe von Dokumenten, die sich nur schwer mit freier Software erstellen lassen. Für normale Texte wie Bücher oder Abschlussarbeiten gibt es LibreOffice und LaTeX, für Zeitschriftensatz (DTP) gibt es beispielsweise Scribus. Doch vollautomatisch aus Datenbanken erzeugte Dokumente lassen sich oft nur schwer mit den genannten Programmen erzeugen. Hier soll der „speedata Publisher“ helfen, der in diesem Artikel vorgestellt wird. (weiterlesen)

Zum Index

Inhalt


Linux allgemein
Ubuntu und Kubuntu 14.04 LTS
Der Mai im Kernelrückblick

Anleitungen
GPS: Tracks und Routen erstellen mit QLandkarte GT
Torify: Programme im Terminal anonymisieren
Kurztipp: Suchen und Finden mit ack statt grep

Software
Professionelles Database Publishing
Äquivalente Windows-Programme unter Linux – Teil 5: Internet-Programme (2)
Review: Papers, Please

Community
Rezension: Vim in der Praxis
Rezension: Wissenschaftliche Arbeiten schreiben mit LaTeX
Rezension: Clean Coder

Magazin
Editorial
Leserbriefe
Veranstaltungen
Vorschau
Konventionen
Impressum
Zum Index

Editorial

Icon-Wettbewerb

Wir haben Anfang Mai einen kleinen Wettbewerb ausgeschrieben, bei dem es darum ging, neue Icons für das Magazin zu gestalten. Das Ergebnis können Sie seit dieser Ausgabe bewundern, dess es gibt von nun an am Ende jedes Artikels zwei Icons mit Links, über die man den Artikel sowohl weiterempfehlen als auch kommentieren kann.
Die Teilnehmerzahl hielt sich zwar sehr in Grenzen, aber immerhin zwei kreative Geister haben sich auf den Aufruf gemeldet. Gewonnen [1] hat den Icon-Wettbewerb Maren Hachmann – sie hat damit ein Buch im Wert von 40 Euro von uns zugeschickt bekommen. Wir bedanken uns auch beim Zweitplatzierten, Berhard Haas, der eine Doppel-CD des „Free! Music! Sampler 2013“ erhalten hat.

Layouter gesucht

Immer mal wieder gibt es Umstrukturierungen in unserem Team, und uns haben in den letzten Monaten einige Layouter verlassen, sodass wir nun wieder etwas Verstärkung benötigen.
Für Satz und Gestaltung des freiesMagazin benutzen wir LaTeX [2], sodass etwas Wissen auf diesem Gebiet bestimmt nicht schaden kann. Das Magazin ist aber so gehalten, dass sehr viel mit Makros gearbeitet wird und nicht zwingend LaTeX-Profis gefordert sind, um das Magazin zu setzen. Außerdem wird das Grundgerüst von einem Skript erledigt, sodass es nur um die „Feinarbeit“ des Artikels geht. Als Layouter muss man die Bilder an die richtige Stelle im Text setzen und, um schöne Umbrüche oder Textverteilung zu erreichen, auch mitunter selbst einmal etwas am Text ändern. Diese Eigenschaft und ein Auge für gutes Layout sind uns daher wichtiger als alle LaTeX-Kenntnisse.
Kenntnisse im Umgang mit Subversion (SVN) sind gut, aber nicht zwingend erforderlich, da die wenigen benötigten Befehle schnell erlernt sind. Zusätzlich stehen in den meisten Linux-Distributionen auch grafische Oberflächen für die Verwaltung bereit, sodass man nicht zwingend die Konsole bedienen muss.
Wenn Sie nun Interesse daran bekommen haben, freiesMagazin mitzugestalten und zu verbessern, schreiben Sie uns doch eine E-Mail an redaktion ETT freiesmagazin PUNKT de.
Und nun wünschen wir Ihnen viel Spaß mit der neuen Ausgabe!
Ihre freiesMagazin-Redaktion
Links
[1] http://www.freiesmagazin.de/20140524-gewinner-des-icon-wettbewerbs
[2] http://de.wikibooks.org/wiki/LaTeX-Kompendium
Beitrag teilen        Beitrag kommentieren

Zum Index

Ubuntu und Kubuntu 14.04 LTS

von Hans-Joachim Baader
Ubuntu 14.04 LTS „Trusty Tahr“ ist die neue, fünf Jahre lang unterstützte Version von Ubuntu. Der Artikel soll helfen, zu entscheiden, ob es sich lohnt, die nächsten fünf Jahre auf „Trusty Tahr“ zu setzen.
Redaktioneller Hinweis: Der Artikel „Ubuntu und Kubuntu 14.04 LTS“ erschien erstmals bei Pro-Linux [1].

Vorwort

Planmäßig erschien Ubuntu 14.04 LTS „Trusty Tahr“ ein halbes Jahr nach Version 13.10 (siehe freiesMagazin 12/2013 [2]). Die neue Version, die fünf Jahre lang mit Updates versorgt wird, hatte vor allem Stabilität zum Ziel. Die Neuerungen gegenüber der Vorversion halten sich daher in Grenzen. Zahlreiche Software-Updates gab es trotzdem, aber kaum eines davon stellt einen großen Bruch mit der Vorversion dar. Ansonsten wurde besonders daran gearbeitet, die Distribution zu verfeinern und zu polieren.
Mit Ubuntu wurden auch Ubuntu Kylin, Ubuntu Server, die Cloud-Images, Ubuntu Touch und die von der Gemeinschaft gepflegten Varianten Kubuntu, Ubuntu GNOME, Xubuntu, Lubuntu, Edubuntu und UbuntuStudio veröffentlicht. Leider können diese alle nicht Gegenstand des Artikels sein. Dieser wird sich auf Ubuntu und Kubuntu beschränken.
Wie immer sei angemerkt, dass es sich hier nicht um einen Test der Hardwarekompatibilität handelt. Es ist bekannt, dass Linux mehr Hardware unterstützt als jedes andere Betriebssystem, und das überwiegend bereits im Standard-Lieferumfang. Ein Test spezifischer Hardware wäre hier zu aufwendig. Falls man auf Hardware-Probleme stößt, stehen die Ubuntu-Webseiten zur Lösung bereit.
Da eine Erprobung auf realer Hardware nicht das Ziel des Artikels ist, werden für den Artikel zwei identische virtuelle Maschinen, 64 Bit, unter KVM mit jeweils 1024 MB RAM verwendet. In der ersten wurde Ubuntu installiert, in der anderen Kubuntu.

Installation

Die Installation von Ubuntu ist wieder eine Freude, denn sie geht schneller und einfacher vonstatten als bei den meisten anderen Distributionen. Wenn man die Standardeinstellungen verwendet, ist sehr schnell ein lauffähiges System installiert. Das genügt für Tests und andere Bedürfnisse. Für spezielle Anforderungen stehen aber auch die entsprechenden Optionen bereit, allerdings wird es dann aufwendiger.
Die einfachste Installation bietet ein Live-System, das als ISO-Image bereitsteht. Dieses „Desktop-Image“ ist 1,0 GB groß und kann auf DVD oder einem USB-Medium verwendet werden.
Das Installationsprogramm Ubiquity bietet ähnlich wie der Debian-Installer oder Anaconda von Fedora alle Möglichkeiten an, die Festplatten zu partitionieren und das System darauf zu installieren. Die gesamte Festplatte oder einzelne Partitionen können verschlüsselt werden, und LVM wird unterstützt, auch in Form einer automatischen Partitionierung.
Sehr peinlich für eine Distribution, die sich an die Massen richtet, ist die Installationsanleitung [3], in der ausdrücklich darauf hingewiesen wird, dass sie veraltet und möglicherweise irreführend ist. Informationen über Änderungen im Installer lassen sich daraus folglich nicht gewinnen.
Bild: Installation von Ubuntu 14.04 LTS.
Eine Installation sollte gelingen, wenn wenigstens 512 MB Speicher für die Desktop-Version bzw. 256 MB beim Server vorhanden sind. Unter Umständen soll eine Installation mit 64 MB RAM bereits gelingen. Zu empfehlen sind jedoch auf dem Desktop mindestens 1 GB, sodass alle benötigten Anwendungen zugleich ohne zu swappen laufen können, denn nur so läuft das System vollständig flüssig.
Hier soll nur die Installation von der Desktop-DVD kurz vorgestellt werden. Standardmäßig wird nur eine einzige große Partition mit dem Dateisystem ext4 sowie eine Swap-Partition angelegt. Wenn man LVM einsetzt, kommt noch eine 230 MB große ext2-Partition für /boot hinzu. Will man seine Partitionierung selbst definieren, muss man „Etwas anderes“ auswählen, wodurch das Partitionierungswerkzeug gestartet wird. Dort können die gängigen Dateisysteme einschließlich Btrfs ausgewählt werden.
Direkt nach der Definition der Partitionen beginnt der Installer mit der Partitionierung und der Installation der Pakete im Hintergrund. Ein Fortschrittsbalken zeigt von hier an den Stand der Installation an. Parallel dazu kann man die Zeitzone auswählen und danach das gewünschte Tastatur-Layout einstellen.
Im letzten Schritt gibt man seinen Namen, Anmeldenamen, Passwort und den Computernamen ein. Wenn zuvor bereits per DHCP ein Name ermittelt werden konnte, wird dieser als Vorgabe angezeigt. Wenn erkannt wird, dass die Installation in einer virtuellen Maschine läuft, wird dagegen der Name benutzer-virtual-machine vorgegeben. Optional können Daten im Home-Verzeichnis verschlüsselt werden. Während man das Ende der Installation abwartet, kann man nun noch einige Tipps zu Ubuntu ansehen. Zusammengefasst wurde die Installation optisch an die neue Version angepasst, weitere Änderungen sind nicht offensichtlich.
Bild: Tastatureinrichtung bei der Installation.

Ausstattung

Sowohl Ubuntu als auch Kubuntu starten ähnlich schnell wie in den Vorversionen. Ubuntu (nicht aber Kubuntu) setzt eine Hardware-3-D-Beschleunigung voraus, die bei Grafikkarten, die das nicht bieten, durch llvmpipe emuliert wird. Bei einer ausreichend schnellen CPU ist das Verfahren von der Geschwindigkeit her immer noch gerade so erträglich.
Das Grafiksystem ist bei X.org 7.7 geblieben, da es in der Zwischenzeit keine neue Version von X.org gab. Allerdings wurden einige Komponenten aktualisiert, darunter der X-Server 1.15.1 und Mesa 10.1. Unity liegt in Version 7.2 vor.
Unter den größten Änderungen seit Ubuntu 13.10 findet sich der Linux-Kernel, der auf Version 3.13.9 aktualisiert wurde. Der Standard-I/O-Scheduler wurde von CFQ nach Deadline geändert. Der Energieverwaltung wurde weiterhin viel Aufmerksamkeit gewidmet. AppArmor wurde weiter verbessert und ARM-Kernel unterstützen jetzt mehrere Plattformen. Die Architekturen ARM64 und Power werden jetzt vollständig unterstützt, ebenso das X32-ABI. Daneben enthält der Kernel viele neue Treiber sowie Features, die nur für Spezialisten von Interesse sind.
Das Init-System Upstart enthält in Version 1.12.1 einige Neuerungen, darunter die Initiierung von Benutzersitzungen [4].
Für Entwickler stehen GCC 4.8.2, Python 2.7.6 und 3.4.0, OpenJDK 6b31, 7u55 und vieles mehr bereit. Python 3.4 ist dabei die standardmäßig installierte Version von Python, doch da sowohl innerhalb des Ubuntu-Archivs als auch außerhalb noch viele Pakete auf Python 2 beruhen, ist auch die ältere Version noch installierbar.
Neu ist Oxide, eine auf Chromium beruhende Bibliothek zur Darstellung von Web-Inhalten. Ubuntu hat diese Bibliothek geschaffen, um Entwickler mit einer fünf Jahre lang stabil gehaltenen Web-Engine zu versorgen, und empfiehlt allen Entwicklern, sie anstelle von anderen Bibliotheken zu verwenden.
Wie gewohnt hat Root keinen direkten Zugang zum System, sondern die Benutzer der Gruppe sudo können über das Kommando sudo Befehle als Root ausführen.
Der Speicherverbrauch von Unity wurde offenbar etwas reduziert. Rund 520 MB benötigt die Umgebung allein, ohne dass irgendwelche produktive Software gestartet wurde. Die Reduktion wurde hauptsächlich dadurch erreicht, dass Compiz statt 365 MB nur noch 215 MB benötigt. KDE benötigt in der Standardinstallation mit einem geöffneten Terminal-Fenster etwa 500 MB. Ein Teil dieses Speichers wird allerdings in den Swap ausgelagert, sodass zusätzliches RAM frei wird. Die Messung des Speicherverbrauchs der Desktops kann jeweils nur ungefähre Werte ermitteln, die zudem in Abhängigkeit von der Hardware und anderen Faktoren schwanken. Aber als Anhaltspunkt sollten sie allemal genügen.
Bild: Login-Prompt von Ubuntu 14.04 LTS.

Unity

Unity, die offizielle Desktopumgebung von Ubuntu, wurde von Version 7.1 auf 7.2 gebracht. Größere Änderungen gab es auch hier nicht, alles konzentrierte sich auf die Stabilisierung des Erreichten. Das Menü eines Programms, das bisher im globalen Menü angezeigt wurde, kann jetzt optional auch in der Titelleiste des Programmfensters eingeblendet werden. Diese Einstellung [5] ist etwas versteckt in den persönlichen Einstellungen im Tab „Behavior“ der „Appearance“-Einstellungen. Auch wenn bei vielen Programmen die Menüleiste wieder gut in Unity integriert ist und die Option, die Menüs in die Titelleiste zu bringen, wieder näher am gewohnten Verhalten ist, gibt es aber noch genug Benutzer, die die Menüs dort haben wollen, wo sie hingehören, nämlich im Programmfenster. Dieses Verhalten kann man mit dem unity-tweak-tool wieder herstellen.
Unity skaliert jetzt je nach verwendetem Monitor und soll damit auch auf Monitoren mit sehr hoher Pixeldichte gut benutzbar sein, ohne dass man die Größe von Hand hochsetzen muss. Die Optik wurde noch ein wenig nachjustiert; so sind die Fenster-Titelleisten jetzt abgerundet. Eingabemethoden und Tastaturbelegungen lassen sich jetzt leichter ändern und das schnelle Wechseln zwischen verschiedenen Methoden und Belegungen ist möglich.
Die Suchfunktion von Unity umfasst weiterhin standardmäßig auch Online-Shops und andere Online-Quellen, die jetzt parallel durchsucht werden, um die Ergebnisse schneller zu erhalten. Tolerierbar ist die Internet-Suche ebenso wenig wie zuvor. In den meisten Fällen ist sie lästig und nutzlos und sollte abgeschaltet werden. Das Deaktivieren der Funktion ist weiterhin über einen Schalter in den Systemeinstellungen unter der Kategorie „Privatsphäre“ möglich. Einzelne Linsen lassen sich wohl nur durch ihre Deinstallation deaktivieren.
Bild: Dash mit Online-Suchergebnissen.
Die Suchergebnisse können jetzt nach Kategorie und Quelle gefiltert werden. Neu ist eine Linse für die Fotosuche. Ein Rechtsklick auf gefundene Elemente zeigt erweiterte Informationen zu diesen, allerdings nicht als Popup oder Tooltip, sondern sondern durch Beiseiteschieben der anderen Fensterbereiche. Eine neue Linse für Suchergebnisse von Nachrichten aus sozialen Netzwerken, der „Freunde“-Bereich [6], kam hinzu.
Bild: Filtern der Suchergebnisse in der Dash.
Neu ist auch das von GNOME kommende Adressbuch „Kontakte“, das Adressen und Online-Konten verwalten kann. Der Standard-Webbrowser in Ubuntu ist Firefox 28.0, nun bereits aktualisiert auf 29.0. LibreOffice ist in Version 4.2.3.3 vorinstalliert. Für E-Mails ist Thunderbird 24.5 zuständig. Die sonstigen installierten Programme sind im Wesentlichen die Standard-Programme von GNOME, die zumindest grundlegend die häufigsten Aufgaben abdecken. In den meisten Fällen bieten sie gerade einmal Grundfunktionen, sodass man sich gerne nach leistungsfähigeren Programmen im Software-Center umsieht.
Software-Updates und das Software-Center funktionieren weiter wie gewohnt, hier scheint sich in den letzten Monaten nichts geändert zu haben. Bei der Konfigurierbarkeit von Unity kamen immerhin ein paar Optionen hinzu, sodass man den Desktop mit etwas Mühe zumindest annähernd so definieren kann, wie man es bevorzugt. Das hauptsächliche Mittel zum Zweck ist dabei unity-tweak-tool, das man allerdings erst nachinstallieren muss. Noch mehr Einstellungen, jedoch eher für Experten, bieten compizconfig-settings-manager (ccsm) und dconf-tools.

KDE

Im Gegensatz zu Unity fühlt man sich bei KDE sofort heimisch. Hier gibt es keine sinnlos verschobenen Menüs, Buttons oder gar von Dilettanten neu entwickelte Bildschirmschoner [7]. In Kubuntu 14.04 [8] findet man KDE SC 4.13 vor.
Bild: Desktop von Kubuntu.
KDE SC 4.13 bringt eine neue semantische Suche sowie weitere neue Funktionen in den Anwendungen. Nepomuk ist damit ein Auslaufmodell, bleibt aber erhalten, um die Kompatibilität zu wahren. Anwendungen, die die neue Suche nutzen wollen, müssen angepasst werden. Für die meisten mitgelieferten Anwendungen in KDE SC 4.13 ist das bereits geschehen. Sonstige neue Funktionen sind nur in den Anwendungen zu verzeichnen, da die KDE-Plattform und der Plasma-Desktop bis auf Fehlerkorrekturen nicht mehr geändert werden. Somit sollte KDE stabiler als je zuvor laufen.
Erstmals installiert Kubuntu Firefox 28 als Standard-Browser – bisher erfüllte Rekonq diese Funktion. GStreamer 1.2 wird als Multimedia-Bibliothek verwendet, nachdem alle Anwendungen entsprechend angepasst wurden (die gstreamer-1.0-Pakete enthalten GStreamer 1.2.3). Ein neuer „Treiber-Manager“ ersetzt das Programm „Zusätzliche Treiber“. Damit kann man grafisch den gewünschten Treiber für eine Hardware auswählen, wenn es mehrere Optionen gibt. Auch proprietäre Treiber werden mit einbezogen.
Bild: Firefox 29 unter Kubuntu.
Weitere Neuerungen sind die Plug-in-Installation im Bildbetrachter Gwenview, ein Konfigurationsmodul für Touchpads, KDE Instant Messaging 0.8 beta1, verbesserte Konfiguration der Ländereinstellungen, Plasma Network Manager 0.9.3.3, das KDE Software Development Kit, Verbesserungen im USB Creator, KDE Connect 0.5.1 zur Verbindung mit einem Android-Smartphone, automatische Absturzberichte, der IRC-Client Quassel 0.10 beta1 und neue Systembenachrichtigungen.
Als Musik-Player ist Amarok 2.8 vorinstalliert, wie in Kubuntu 13.10. KDE PIM mit Kontact ist in Version 4.13 installiert. Auch LibreOffice und Krita
sind vorhanden. Weitere Anwendungen muss man aus den Repositorien nachinstallieren.
Die Paketverwaltung Muon wurde auf Version 2.2 angehoben. Wesentliche Änderungen gegenüber der Vorversion sind nicht zu erkennen, die in Kubuntu 13.10 noch vorhandenen Ungereimtheiten sind aber offenbar Geschichte.

Multimedia im Browser und auf dem Desktop

Nichts wesentlich Neues gibt es im Multimedia-Bereich. Firefox ist jetzt in Version 29 enthalten. Mehrere Plug-ins zum Abspielen von Videos in freien Formaten sind wie immer vorinstalliert, aber nicht in Kubuntu. Die vorinstallierte Erweiterung „Ubuntu Firefox Modifications“ ist bei Version 2.8 geblieben. Weitere vorinstallierte Erweiterungen sorgen für die Integration mit Unity und den Ubuntu-Online-Accounts.
Web-Videos dürften fast überall funktionieren, es sei denn, Flash ist im Spiel. Bei Youtube funktioniert der HTML5-Modus ganz ohne Flash, allerdings sind bei weitem nicht alle Videos in diesem Modus verfügbar. Andere Webseiten zeigen gar keine Videos, wenn sie kein installiertes Flash-Plug-in vorfinden. Wenn man darauf angewiesen ist, kann man entweder das Adobe Flash-Plug-in in Firefox nachinstallieren, einen anderen Browser wählen oder auf andere Methoden wie das Anschauen oder Herunterladen der Videos mit anderen Programmen ausweichen. Die Tests wurden wegen der Langsamkeit von Unity auf ein Minimum beschränkt; eine flüssige Video-Wiedergabe ist mit llvmpipe schlicht nicht möglich.
Bild: Firefox 29.
Auf dem Unity-Desktop sollte in den bekannten Anwendungen Rhythmbox und Filmwiedergabe (Totem) bei standardmäßig nicht unterstützten Formaten eine Dialogbox erscheinen, die eine Suche nach passenden GStreamer-Plug-ins ermöglicht und sie installiert. Das Verfahren ist wie immer äußerst umständlich und führt nicht immer zum Erfolg. Daher ist es am besten, im Software-Center gleich alle GStreamer-Plug-ins installieren, und vielleicht noch andere Player wie VLC dazu. Auch für den Desktop gilt, dass eine flüssige Video-Wiedergabe „dank“ llvmpipe nicht mehr möglich ist.
Unter KDE sieht es im Prinzip genauso aus, nur dass die Geschwindigkeit auch ohne 3-D-Hardware akzeptabel ist. Amarok ist der Standard-Audioplayer. Amarok oder Dragonplayer erkennen fehlende Plug-ins und starten die Paketverwaltung, ähnlich wie bei GNOME. Sinnvoller ist es aber auch hier, die GStreamer-Plug-ins schon vorab zu installieren.

Fazit

Mit Ubuntu 14.04 LTS haben Canonical und die Ubuntu-Gemeinschaft eine Distribution geschaffen, die alle Linux-Anwender vom Einsteiger bis zum Rechenzentren-Betreiber zufriedenstellen kann. Wie sich schon mit Ubuntu 13.10 abzeichnete, wurde der eingeschlagene Weg fortgesetzt und zu einem soliden Abschluss gebracht, der jetzt fünf Jahre lang unterstützt wird, sodass sich die Anwender mit nur wenigen Änderungen herumschlagen müssen. Allerdings gilt auch für die LTS-Version: Nicht alles läuft am Anfang bereits perfekt. Wer sichergehen will, nicht zu viele Probleme zu erleben, sollte zumindest die Updates der ersten Wochen abwarten.
Eine Geschmacksfrage bleiben weiterhin die Entwicklungen von Ubuntu im Desktop-Bereich. Doch selbst wenn man die angestrebte Konvergenz von Desktop- und Mobiloberflächen für ausgemachten Mist hält, hat man immer noch die Möglichkeit, die Konfiguration zu ändern und damit ein traditionell bedienbares System zu erhalten. Letzten Endes lohnt es sich sowieso immer, seinen Desktop so anpassen, dass man optimal damit arbeiten kann. Das bedeutet, dass man in jedem Fall einige Zeit investieren wird, bei Ubuntu nicht anders als bei anderen Distributionen.
Ubuntu, Kubuntu und die ganzen anderen Varianten sind und bleiben daher eine der ersten Empfehlungen, wenn es um die Wahl einer Linux-Distribution geht. Nur welche am Ende die beste Wahl ist, wird weiterhin mit heißen Köpfen diskutiert …
Links
[1] http://www.pro-linux.de/artikel/2/1683/ubuntu-und-kubuntu-1404-lts.html
[2] http://www.freiesmagazin.de/freiesMagazin-2013-12
[3] https://help.ubuntu.com/14.04/installation-guide/index.html
[4] https://wiki.ubuntu.com/TrustyTahr/ReleaseNotes/TechnicalOverviewUpstart
[5] https://help.ubuntu.com/14.04/ubuntu-help/unity-menubar-intro.html#app-menus
[6] https://help.ubuntu.com/14.04/ubuntu-help/unity-dash-friends.html
[7] http://www.heise.de/security/meldung/Ubuntu-schliesst-weitere-Luecken-im-Unity-Sperrbildschirm-2181210.html
[8] https://wiki.ubuntu.com/TrustyTahr/ReleaseNotes/Kubuntu
Autoreninformation
Hans-Joachim Baader (Webseite) befasst sich seit 1993 mit Linux. 1994 schloss er erfolgreich sein Informatikstudium ab und ist einer der Betreiber von Pro-Linux.de.

Beitrag teilen        Beitrag kommentieren

Zum Index

Der Mai im Kernelrückblick

von Mathias Menzer
Basis aller Distributionen ist der Linux-Kernel, der fortwährend weiterentwickelt wird. Welche Geräte in einem halben Jahr unterstützt werden und welche Funktionen neu hinzukommen, erfährt man, wenn man den aktuellen Entwickler-Kernel im Auge behält.

Linux 3.15

Der April endete mit einer überschaubaren, dritten Entwicklerversion des Linux-Kernels und im Mai wurde dieser Trend erst einmal fortgesetzt. Linux 3.15-rc4 [1] führt dann auch fast nur Korrekturen auf und zeigt damit die Stabilisierungsphase des Entwicklungszyklus an.
Die fünfte Entwicklerversion [2] fiel dann wieder etwas größer aus, obwohl er zwei Tage zu früh veröffentlicht wurde. Einen guten Anteil daran haben Korrekturen an einem CAN-Bus-Controller [3] von Bosch. Außerdem findet sich hier eine schon länger erwartete Korrektur für einen Fehler in dcache, dem Zwischenspeicher für Verzeichnisabfragen im Linux- Dateisystem.
Nur ein bisschen kleiner fiel Linux 3.15-rc6 [4] aus, doch diesmal konnte der vergleichsweise große Umfang mit der Zeitdifferenz von fast zwei Wochen gut erklärt werden und relativiert die Verhältnisse wieder. Somit ist auch eine der größten Änderungen die Rücknahme eines vorhergehendes Patches, der das Batterie-Verzeichnis aus dem /proc-Dateisystementfernte, weil es angeblich nicht mehr benötigt wurde.
Nach dieser mitten in der Woche veröffentlichen Entwicklerversion konnten sich nicht mehr viele Patches ansammeln, bis Torvalds dann wieder am Sonntag den -rc7 [5] vorlegte. Dass sich die überschaubare Zahl an Änderungen nicht in der Zahl der geänderten Quelltextzeilen niederschlug, ist hauptsächlich einem neuen Treiber für den EtherCAT-Controller [6] von Industrie-PCs des Herstellers Beckhoff geschuldet, der fast ein Viertel des Volumens ausmachte. Die übrigen Änderungen stellten sich dann wieder als kleinere Korrekturen dar und führten die weitere Stabilisierung des Entwicklung fort.

Pflege ohne Unterbrechung

Es liegt noch nicht lange zurück, dass sich verschiedene Distributoren – namentlich SUSE und Red Hat – darin überschlugen, Methoden vorzustellen, mittels derer der Linux-Kernel ohne Neustart und damit ohne Unterbrechung des Betriebes mit Patches versehen werden kann (siehe „Der Februar im Kernelrückblick“, freiesMagazin 03/2014 [7]).
Der Distributor des CentOS-Derivates CloudLinux bietet nun mit KernelCare einen kostenpflichtigen Service, der dies ebenfalls bewerkstelligen soll und neben CloudLinux auch CentOS und RHEL unterstützt. Weitere Distributionen sollen folgen [8]. Die Open-Source-Konkurrenz kGraft und Kpatch wurden derweil für die Aufnahme in den Linux-Kernel vorgeschlagen und werden bereits diskutiert.
Links
[1] https://lkml.org/lkml/2014/5/4/438
[2] https://lkml.org/lkml/2014/5/9/523
[3] https://de.wikipedia.org/wiki/Controller_Area_Network
[4] https://lkml.org/lkml/2014/5/21/610
[5] https://lkml.org/lkml/2014/5/25/138
[6] https://de.wikipedia.org/wiki/EtherCAT
[7] http://www.freiesmagazin.de/freiesMagazin-2014-03
[8] http://www.pro-linux.de/-0h215246
Autoreninformation
Mathias Menzer (Webseite) behält die Entwicklung des Linux-Kernels im Blick, um über kommende Funktionen von Linux auf dem laufenden zu bleiben und immer mit interessanten Abkürzungen und komplizierten Begriffen dienen zu können.

Beitrag teilen        Beitrag kommentieren

Zum Index

GPS: Tracks und Routen erstellen mit QLandkarte GT

von Andreas Müllhofer
Mit dem Programm QLandkarte GT ist es möglich, auf der Grundlage der Karten von OpenStreetMap Tracks und Routen zu generieren und diese auf ein GPS-Gerät zu exportieren. Die Möglichkeiten der Software sind sehr vielfältig, deshalb erschließen sich dem Einsteiger nicht sofort die wichtigsten Funktionen. Ziel des Artikels ist es deshalb, dem Neuling einen schnellen Einstieg zu verschaffen.
QLandkarte [1] wird über den Paketmanager der jeweiligen Linux-Distribution installiert, es ist standardmäßig in den Quellen enthalten. Sollte Wine (eine Microsoft-Windows kompatible Laufzeitumgebung) [2] noch nicht auf dem System laufen, sollte man dieses Paket an dieser Stelle auch gleich zur Installation auswählen. Nach der Installation von Wine werden die Dateien mit der Endung .exe beim Aufruf mittels eines Dateimanagers (normalerweise Doppelklick) so geöffnet, als ob man nicht unter Linux sondern unter Windows arbeiten würde. Es folgt also eine ganz normale Installationsroutine, an deren Ende etliche Dateien in einem bestimmten Verzeichnis abgelegt werden – dazu später mehr. Alternativ kann man die genannte Installationsroutine auch über die Konsole aufrufen: wine Datei.exe
Beim ersten Aufruf des Routenplaners ist noch keine Karte enthalten. Davon ausgehend, dass die Karten später für Touren auf einem GPS-Gerät zum Wandern oder Radfahren benutzt werden sollen, bieten sich verschiedene Karten auf Basis von OpenStreetMap [3] an, die für diese Zwecke generiert wurden [4] [5] [6]. Auch Karten speziell für Garmin-Navigationsgeräte sind via OpenStreetMap verfügbar [7].
Die Karten von openmtbmap.org [8] werden für die verschiedensten Länder zum Download angeboten, für Deutschland lassen sich auch noch speziell die Bundesländer auswählen. Die heruntergeladene Datei (z. B. mtbayern.exe) ist eine unter Windows ausführbare Datei, sie lässt sich unter Linux mit wine öffnen. Es folgt ein Installationsprozess, an dessen Ende man mehrere img-Dateien sowie drei verschiedene tdb-Dateien in einem Unterordner von ~/.wine/drive_c/Ordner hat. (Der Punkt vor dem Ordnernamen macht es unsichtbar, dies also bitte bei der Suche mit einem Dateimanager entsprechend berücksichtigen.) Im Falle der hier erwähnten Bayern-Karte wählt man nun wieder mit QLandkarte im Menü „Datei -> Karte Laden“ eine Datei mit der Endung .tdb und dann nachfolgend nach Aufforderung die gleichnamige img-Datei.
Die drei tdb-Dateien unterscheiden sich übrigens wie folgt:
Zum Test kann man seine Hausadresse eingeben, bzgl. Reihenfolge und Syntax (Komma, Leerzeichen) erweist sich das Programm als ausgesprochen großzügig. Bei fehlerhafter Schreibung allerdings passiert nichts, lediglich „kein Ergebnis“ erscheint unauffällig unter der Suchmaske. Sind Ort und Straße gleichnamig auf der Karte gespeichert, erscheint das bekannte Standortsymbol (roter Punkt in rotem Kreis) mit dem Text der Adresse darüber.

Erstellen von Touren

Eine mit QLandkarte entworfene Tour kann man entweder als Track oder Route speichern bzw. auf ein GPS-Gerät exportieren. Im Folgenden sei kurz der Unterschied zwischen Tracks und Routen erklärt.
Ein Track besteht aus der Aneinanderreihung von vielen Punkten entlang einer Strecke, welche entweder von einem GPS-Gerät aufgezeichnet wurde oder aber mit einem Routenplaner wie QLandkarte erstellt worden ist. Ein Track lässt sich farblich markiert auf der Karte des GPS-Gerätes darstellen. Man kann ihn im Rahmen einer Outdoor-Aktivität beispielsweise mit dem Rad nachfahren. Allerdings gibt es dabei keine Signale von Seiten des Navis, welche auf ein Abbiegen bzw. das Erreichen eines Wegpunktes hinweisen. Diese Funktion kann man aber nutzen, wenn man die Strecke stattdessen als Route exportiert, welche allerdings nicht mehr als 50 Punkte aufweisen darf, wenn sie auf einem Navi eingesetzt werden soll.

Manuelles Erstellen von Tracks und Routen über Wegpunkte

Das Programm präsentiert sich mit der gängigen Anordnung von aufklappbaren Menüs unter der oberen Fensterleiste. Ein Großteil des Bildschirms zeigt einen Kartenausschnitt, dessen Maßstab je nach Bedarf mit Hilfe des Scrollrades der Maus vergrößert oder verkleinert werden kann. Im linken Viertel des Bildschirms befinden sich drei weitere Ansichten vertikal übereinander: Ein Hauptmenü mit den wichtigsten Befehlen und deren Tastenkürzel auf einen Blick, darunter eine Projektzusammenfassung und unten links ein Block mit mehreren Reitern.
Bild: Der Reiter für das Suchfeld ist aktiviert, Ortseingabe unter „Suche:“.
Gleich der zweite Reiter zeigt eine Lupe, hier also findet sich das Suchfeld, mit welchem sich Orte oder ganze Adressen eingeben lassen. Gleich nach dem Suchvorgang sieht man auf der Karte ein Standortsymbol eingezeichnet. Dieses kann als erster Wegpunkt für eine Strecke fungieren. Dazu muss er aber noch als solcher deklariert werden, indem man mit dem Mauszeiger darüber fährt. Sogleich bildet sich ein etwas größerer Kreis darum, ein Klick auf das grünes Pluszeichen macht aus unserer gesuchten Adresse endgültig einen Wegpunkt mit der Suchadresse als Bezeichnung.
Bild: Der Kreis bildet sich um den Mauszeiger über dem Wegpunkt.
Weitere Wegpunkte erstellt man analog durch die Adress-Suche oder aber man zeichnet sie manuell: Dazu drückt man mit der rechten Maustaste auf eine gewünschte Stelle in der Karte, sodass ein Menü aufklappt. Mit einem Klick auf das grüne Pluszeichen wird ein weiterer Wegpunkt erstellt. Achtung: die Bezeichnung wird automatisch vom vorigen Wegpunkt übernommen inkl. einer um eins erhöhten Zahl. Wenn also der erste Wegpunkt „Musterstraße 14“ heißt, so wird der nächste ohne Nachfrage als „Musterstraße 15“ bezeichnet. Man sollte in diesem Fall den zweiten Wegpunkt anders benennen, z. B. kurz „W1“. Alle nachfolgenden Punkte heißen dann W2, W3 usw. Ältere Versionen von QLandkarte verlangen übrigens nach jeder Eingabe eines Wegpunktes noch die manuelle Eingabe eines Namens.
Es sei darauf hingewiesen, dass die Benennung der Wegpunkte später nicht für den Verlauf der Strecke verantwortlich ist. Die Reihenfolge wird an einer anderen Stelle festgelegt. Fast in Nachbarschaft des Reiters „Suchen“ befindet sich der Reiter „Wegpunkt“, der mit einem Stern gekennzeichnet ist. Wenn man diesen nun anklickt, finden sich alle Wegpunkte aufgelistet. Es ist jetzt nicht nötig, alle zu markieren, das geht später schneller. Ein Rechtsklick auf einen der Wegpunkte öffnet ein Untermenü. Hier hat man die Möglichkeit, eine Route aus allen aufgeführten Wegpunkten erzeugen zu lassen.
Bild: Nach dem Rechtsklick auf einen der Wegpunkte (links) öffnet sich das Menü zum Erzeugen einer Route.
Man kann jetzt bequem mit „Shift“ und linker Maustaste den ersten und letzten Eintrag markieren und alle Punkte ins rechte Feld verschieben („Pfeilsymbol“). Dort kann dann noch die Reihenfolge („Pfeil nach oben“ / „unten“) verändert werden. Zum Schluss wird noch ein neuer Routenname eingegeben.
Zwei Dinge haben sich nach dem Abschluss der Aktion verändert: Zum einen sind die Wegpunkte auf der Karte mit farbigen Linien verbunden, zum anderen ist jetzt automatisch ein anderer Reiter („Routen“) aktiv. Sofern die Route an geraden Straßen verläuft, sieht es ganz hübsch aus, aber sobald Kurven auftreten merkt man, dass es sich zunächst nur um Luftlinien-Verbindungen handelt.
Bild: Die Wegpunkte sind mit geraden Luftlinien direkt miteinander verbunden.
Was jetzt noch fehlt ist die Berechnung der Route: Ein Rechtsklick auf den bereits sichtbaren Reiter der erstellten Route bietet die Option „Route berechnen“ an. Daraufhin wird die Route dem Straßenverlauf folgen. Würde man sie jetzt auf ein GPS-Gerät übertragen, würde das Navi genau bei den erstellten Wegpunkten ein Signal bzw. einen Hinweis auf eine Richtungsänderung geben.
Bild: Nachdem die Route berechnet ist, folgen die Linien dem tatsächlichen Straßenverlauf.
Nun wird auch die tatsächliche Länge der Strecke angegeben und nicht nur die aufsummierten Verbindungsvektoren zwischen den Wegpunkten. Ein Rechtsklick auf den Eintrag „Route“ eröffnet nun auch die Möglichkeit, daraus noch einen Track zu erzeugen bzw. ein Overlay zu erstellen.

Tracks und Routen automatisiert anlegen lassen

Das Erstellen von Tracks oder Routen ausschließlich über selbst erstellte Wegpunkte ergibt dann Sinn, wenn man eine ganz spezielle Vorstellung von der Strecke hat – etwa weil man beispielsweise zehn verschiedene Adressen in einem Ort aufsuchen muss, um eine Sendung zu verteilen. Will man dagegen mit dem Rad eine Strecke von 25 km von A nach B zurücklegen, ist dies zu mühsam. Man will an die frische Luft und nicht zuvor stundenlang am PC sitzen.
Deshalb gibt man jetzt Wegpunkte als Start- und Endpunkt ein – direkt oder über die Ortssuche. Bevor man sich jetzt die Route berechnen lässt, sollte man einen Blick auf das Register „Einstellungen“ werfen: man kann nämlich wählen, ob man die Strecke mit dem Auto, Fahrrad, Mountainbike etc. zurücklegt, ob man dabei lieber schnell sein will oder einer kürzeren Strecke den Vorzug gibt. Dementsprechend unterschiedlich wird die Route berechnet. Man kann dies immer wieder aufs Neue probieren und auf die Unterschiede achten. Nun wird aber auch klar, welche Nachteile sich ergeben, wenn man eine derart erstellte Route auf ein GPS-Gerät zum Radfahren überträgt: Das Gerät hat seine eigene Software, seine eigenen Einstellungen, vielleicht eine andere Karte. So kann es passieren, dass das Fahrradnavi vor einer Straße, einem Feldweg etc. „stehen bleibt“ und einen Umweg fahren will, weil es die von QLandkarte errechnete Strecke für die eingegebene Fortbewegungsart nicht nachvollziehen kann. Immerhin könnte man als Routing-Option für das Navi „Fußgänger“ einstellen, dann werden eigentlich alle Straßen und Wege wie von QLandkarte vorgeschlagen angenommen. Eine weitere Eigenheit der Route kann ebenfalls für Unmut sorgen: Nach erfolgtem Transfer auf das GPS-Gerät wird diese nicht angenommen, weil – es wurde schon erwähnt – mehr als 50 Punkte darin enthalten sind. Alternativ kann man auch mehrere Routenteilstücke erstellen und diese nacheinander auf dem GPS-Gerät aufrufen.
Einfacher aber ist es, aus der berechneten Route einen Track zu erstellen. Denn wenn man einmal seine Route berechnet hat, kann man mit einem Rechtsklick darauf leicht noch einen Track und/oder ein Overlay erstellen. Dieser wird auf dem GPS-Gerät – je nach Einstellung – als dickere farbige Linie dargestellt und kann relativ bequem nachgefahren werden. Dies ist auch die gängige Praxis, im Netz stehen jede Menge fertiger Tracks für Wanderer und Radfahrer zum Download zur Verfügung.
Immerhin dürfte jetzt klar geworden sein, dass Routenplaner wie QLandkarte primär auf das Erstellen von Tracks ausgerichtet sind. Ein sinnvolles Routing wie man es vom „Auto-Navi“ gewohnt ist muss man dem GPS-Gerät selbst überlassen. Entscheidend ist dann der Einsatz der richtigen Karte auf solchen Geräten.

Erstellen von Tracks über den Entfernungsmesser

Es ist sicher reizvoll, sich eine längere Strecke per Mausklick und in Sekundenschnelle berechnen zu lassen. Allerdings stellt man in der Praxis schnell fest, dass manche Wege nicht wirklich gut befahrbar oder schlichtweg fast nicht auffindbar sind (Modus „Mountainbike“). Wie auch immer, es kann Gründe dafür geben, sich die Tour Straße für Straße, den Blick auf die Karte gerichtet, selbst zu erstellen: Unter dem Menüpunkt „Overlay“ findet sich der „Entfernungsmesser“. Einmal aktiviert, markiert das Tool (breiter lilafarbener Strich) selbstständig die gesamte Straße auf welcher der Mauszeiger gerade ruht. Mit der linken Maustaste setzt man dann jeweils einen Punkt, um die Straße zu wechseln bzw. den Verlauf der Route festzulegen. Eine dünnere, rot punktierte Linie zeigt an, wie der endgültige Verlauf aussehen wird. Ein Klick auf die rechte Maustaste deaktiviert das Werkzeug wieder.

Informationen zur aktuellen Höhe im Track

Wenn man aus der erstellten Route einen Track erstellt, öffnet sich ein Menü, das dem Anwender die Auswahl der Höheninformation anbietet.
Bild: Nach einem Rechtsklick auf die Route und Klick auf „Track erzeugen“ öffnet sich ein Dialog zur Bestimmung der Höheninformation.
Wählt man den dritten Punkt – Höheninformationen von geonames.org [9] – so kann man sich den ganzen Track entlang die Höhenmeter angeben lassen: Mit einem einfachen Klick auf den jetzt erstellten Track sieht man in der Karte bereits einen kleinen Kasten mit dem Höhenprofil.
Bild: Man sieht jetzt den Kartenausschnitt mit Track und dem Höhenprofil zwischen Start- und Endpunkt.
Wird dieser angewählt, so wird die Kartenansicht durch ein detailliertes Profil der Strecke ersetzt. In einem Koordinatensystem sind für die y-Achse die Höhenmeter und an der x-Achse die zurückgelegten Kilometer abzulesen. Fährt man mit dem Mauszeiger über das Profil, so sieht man für jeden Punkt der Tour, in welcher Höhe man sich befindet bzw. wie viele Meter Anstieg/Abfahrt man bereits hinter sich hat. Außerdem kann man natürlich ablesen, wie viele Kilometer man zurückgelegt bzw. noch vor sich hat. Des Weiteren lassen sich an beliebigen Stellen der Grafik Wegpunkte anlegen (beispielsweise wenn man auf der Karte betrachten will, wo denn diese besonders große Steigung ist), diese können dann wieder auf der Karte angesehen werden.
Bild: Das Höhenprofil nach einem Klick darauf in vergrößerter Darstellung und detaillierten Informationen.

Vornehmen von Änderungen

Nachdem man eine längere Tour erstellt hat, kann es sein, dass man Track oder Route noch nachbessern will, beispielsweise weil man feststellen konnte, dass die Tour zu viele Steigungen enthält. Hat man mit dem Entfernungsmesser eine Tour falsch fortgeführt, kann man einzelne Punkte rückwirkend löschen, indem man sie markiert (der Overlaymodus ist aktiv) und einzeln durch Klicken auf das rote Kreuzchen löscht. Ist die Strecke schon weit fortgeschritten und liegen die Fehler schon weiter zurück, so wäre dieses Verfahren zu umständlich. Also erstellt man – wenn nicht schon geschehen – mittels Rechtsklick auf das Overlay einen entsprechenden Track. Diesen kann man nun zerschneiden: Dazu aktiviert man im Hauptmenü „Track -> Track zerteilen“.
Bild: Im Hauptmenü Track anwählen und das Scherensymbol aktivieren.
Am Mauszeiger erscheint eine Schere, mit welcher man so über einen Punkt der Strecke fährt, dass sich dieser Rot verfärbt und klickt einmal. Man hat nun in der Trackliste einen weiteren Track. Diesen Vorgang wiederholt man, bis man drei Tracks hat: zwei mit korrektem Verlauf und den Teil, welcher gelöscht werden soll. Im Register „Tracks“ wird nun der fehlerhafte Verlauf gelöscht, indem er in der Trackliste ausgewählt wird und man mit der rechten Maustaste das Untermenü mit der Löschoption aufruft.
Bild: Im Trackfenster links ist nach dem Schneiden ein neuer Track (Test_2_1) entstanden, er fällt farblich und durch die Darstellung von Trackpunkten auf.
Danach wird mit dem Entfernungsmesser ein neues Overlay erstellt, in einen Track umgewandelt und schließlich durch „Track -> Track zusammenfügen“ wieder neu eingebunden.

Bearbeiten eines Tracks

Klickt man mit der rechten Maustaste auf den Track im linken unteren Fenster, so kann man ihn zur Bearbeitung öffnen. Auf all die Optionen einzeln einzugehen würde den Umfang des Artikels sprengen. Hier kann jeder selbst nach Belieben ins Detail gehen. Erwähnt sei trotzdem noch das Register „Trackliste“, welches alle Punkte des Tracks aufführt, mit genauer Angabe von Position und Höhe. Über diese Liste können einzelne Punkte gezielt versteckt oder gar gelöscht werden. Hat man über der Trackliste die Ansicht „Karte“ gewählt, sieht man den gerade gewählten Punkt mit einem roten Fadenkreuz markiert.

Trackpunkte auf Google Maps zeigen

Sehr reizvoll kann es sein, sich einen Trackpunkt über Google Maps in der Satellitenansicht anzeigen zu lassen. Dazu wählt man den Track an und klickt dann in der Karte mit der rechten Maustaste auf einen Punkt. Man wählt „Trackpunktposition auf Google Maps anzeigen“.
Bild: Nach einem Rechtsklick auf einen Trackpunkt öffnet sich ein Untermenü.
Es kann sein, dass sich kein Punkt anzeigen lässt. Dieser Fall tritt ein, wenn bereits ein Overlay erstellt worden ist, dessen Ansicht aktiv ist. In diesem Fall kann man einfach das Häkchen bei „Overlay -> Anzeigen“ entfernen.
Bild: Der Reiter „Overlay“ ist aktiviert, bei „Anzeigen“ ist ein Haken, diesen muss man deaktivieren, wenn man an die Eigenschaften des Trackpunktes ran will.

Export auf ein GPS-Gerät

Wenn man die erstellten Touren auf dem GPS-Gerät einsetzen will, muss man die Exportfunktion des Programms in Anspruch nehmen. Man sucht und findet eine derartige Funktion im Menü „Datei -> Geodaten exportieren“. Es öffnet sich der übliche Dialog zum Speichern von Dateien, wobei man auch direkt auf das Navi speichern kann. Nach der Wahl eines Dateinamens öffnet sich ein weiterer Dialog. Hier kann man seine Tracks, Routen und Wegpunkte zum Export auswählen. Exportiert werden die Dateien im gpx-Format. Im Netz finden sich viele Tourenvorschläge. Sofern sie in diesem Format angeboten werden, kann man sie auf sein GPS-Gerät übertragen.

Abschließende Hinweise

Für die Berechnung von Routen benötigt QLandkarte GT eine Internetverbindung. Es kann auch vorkommen, dass die Server, auf welche Qlandkarte zurückgreift, überlastet sind. Eine Routenberechnung ist dann nicht möglich. Nach einer kurzen Wartezeit erscheint ein entsprechender Hinweis, auf der Karte bleibt die „Luftliniendarstellung“ zwischen Start- und Endpunkt bestehen. In diesem Fall kann man unter dem Reiter „Routen“ bei Einstellungen anstelle von OpenRouteService die Karten von MapQuest anwählen. Dabei handelt es sich um eine Gesellschaft, welche kostenlose Karten- und Routingdienste auf Basis verschiedener kommerzieller und freier (OpenStreetMap) Geodaten anbietet. Allerdings sind auf deren Server Kartenmaterial und Einstellungen (der Eintrag Mountainbike fehlt ganz) weniger flexibel gestaltet.
Links
[1] http://www.qlandkarte.org/
[2] http://www.winehq.org/
[3] http://www.openstreetmap.org/
[4] http://openmtbmap.org/de/download/odbl/
[5] http://wiki.openstreetmap.org/wiki/User:Computerteddy
[6] http://wiki.openstreetmap.org/wiki/DE:All_in_one_Garmin_Map
[7] http://wiki.openstreetmap.org/wiki/DE:OSM_Map_On_Garmin/Download
[8] http://openmtbmap.org/de/
[9] http://www.geonames.org
Autoreninformation
Andreas Müllhofer hat vor etwa zwölf Jahren begonnen mit diversen Linux-Distributionen zu experimentieren, seit acht Jahren arbeitet er ausschließlich unter diesem Betriebssystem.

Beitrag teilen        Beitrag kommentieren

Zum Index

Torify: Programme im Terminal anonymisieren

von Christian Imhorst
Die meisten Menschen benutzen Tor vermutlich zum anonymen Surfen mit dem Tor Browser Bundle, das in freiesMagazin 05/2014 [1] vorgestellt wurde. In diesem Artikel geht es um die Nutzung von Tor im Terminal, was je nach Distribution mit mehr oder weniger Installationsaufwand verbunden ist.

Tor installieren

Der Name Tor ist eine Abkürzung für The Onion Router [2]. Das Ziel von Tor ist, Verbindungsdaten von Programmen im Internet zu anonymisieren und nicht nur TCP-Verbindungen von Webbrowsern, sondern auch die von E-Mail-Programmen, SSH und anderen Anwendungen zu verschleiern. Zusätzlich verbirgt Tor den Standort des Nutzers und schützt vor Netzwerküberwachung und der Analyse des Datenverkehrs.
Unter Debian reicht z. B. die Installation von Tor aus den Paketquellen. Die Installation aus dem Repository spielt zwar nicht unbedingt die aktuelle Version auf die Festplatte, aber immerhin werden wichtige Sicherheitsupdates nachgeliefert. Von der Installation aus dem Repository von Ubuntu dagegen raten die Entwickler ab. Da das Programm „universe“ [3] zugeordnet ist, erhält es keine aktuellen Stabilitäts- und Sicherheitsupdates.
Für Debian und Ubuntu gibt es aber auch ein Tor-Repository, das man direkt in eine Source-Liste eintragen und mit dem Paketmanager installieren kann [4]. Dieses Vorgehen ist besonders zu empfehlen, da so immer die aktuellste Version und die neuesten Sicherheitsupdates installiert werden.
Die beiden anderen Distributionen, die vom Tor-Projekt direkt mit Paketen versorgt werden, sind Fedora und CentOS [5]. Für sie gilt der gleiche Hinweis wie für Ubuntu: Die Pakete in den Repositorys sind veraltet. Für Yum wird aber ein Repository vom Tor-Projekt selbst gepflegt.
Für openSUSE und andere Linux-Distributionen gibt es dagegen kein Repository des Tor-Projekts, hier bleibt nur das Übersetzen des Quellcodes [6]:
$ ./configure
$ make
# make install
Wenn man wissen möchte, ob man die aktuelle Version von Tor verwendet, gibt man einfach den Befehl tor ins Terminal ein, um Tor manuell zu starten. Zu der Zeit, als dieser Artikel geschrieben wurde, war die neuste Version 0.2.4.21:
$ tor
Mar 25 20:25:41 [notice] Tor v0.2.4.21

Tor benutzen

Egal, wie man Tor installiert hat, in den Voreinstellungen ist Tor immer als Client konfiguriert und die Konfigurationsdatei muss in der Regel auch nicht geändert werden. Tor ist gleich nach der Installation und dem ersten Start einsatzbereit. Für diesen Artikel werden aber zur Veranschaulichung trotzdem zwei Einstellungen in der Konfigurationsdatei /etc/tor/torrc geändert. Hierfür muss man die Datei mit Root-Rechten editieren.
Zuerst wird dort die Zeile für die Einstellung ControlPort auskommentiert, also das Doppelkreuz davor entfernt:
ControlPort 9051
Damit wird der Port gesetzt, auf dem Tor auf lokale Verbindungen lauscht.
Danach wird Tor noch mitgeteilt, dass sich Anwendungen nicht authentifizieren müssen, um Tor zu kontrollieren. Dazu wird die Zeile mit CookieAuthentication auskommentiert und die 1 durch eine 0 ersetzt:
CookieAuthentication 0
Auf die letzte Einstellung sollte man verzichten, wenn Tor auf einem Server läuft oder der Rechner mehrere Benutzer hat, da sonst jeder Kontrolle über die Tor-Installation auf dem System erlangen kann. Weiter unten wird aber gezeigt, wie die Authentifizierung mit einem Passwort wieder sichergestellt werden kann.
Nach der Änderung der Konfigurationsdatei muss Tor neu gestartet werden:
# /etc/init.d/tor restart
Bevor es weitergeht, wird erst einmal die aktuelle IP-Adresse im Terminal festgestellt:
$ wget -qO- ifconfig.me/ip
82.185.27.13
Stellt man dem Befehl ein torify voran, bekommt man ein anderes Ergebnis:
$ torify wget -qO- ifconfig.me/ip
77.247.181.164
Das Skript torify ist ein Wrapper für Tor, also eine Software, die eine andere Software umgibt, indem es die Torsocks mit einer bestimmten Konfiguration aufruft. Mithilfe der Torsocks arbeitet Tor als Proxyserver, mit dem man viele Internetanwendungen anonym benutzen kann, indem man ihnen den Befehl torify voranstellt. Tor schickt dann deren Internetpakete verschlüsselt über drei Server, auch Nodes genannt, und erst der letzte Server, der Exit-Node, kann das Paket vollständig entschlüsseln und an den eigentlichen Bestimmungsort weiterleiten. Der Server, für den die Datenpakete bestimmt sind, sieht dabei nur die IP des Exit-Nodes, und nicht die des Absenders.
Möchte man Tor mitteilen, dass eine neue Route durch das Netzwerk gesucht werden soll, so wie man mit dem Tor-Button im Browser die Identität wechselt, kann man mit folgendem Befehl eine neue Sitzung erstellen:
$ echo -e 'AUTHENTICATE \r\nSIGNAL NEWNYM\r\nQUIT' | nc localhost 9051
Mit dem Programm Netcat [7], auch nc genannt, wird der Befehl SIGNAL NEWNYM über eine Netzwerkverbindung zum Port (hier: 5091) des Zielservers (hier: localhost) transportiert. Jetzt wird ausgenutzt, dass weiter oben die Zeile in der Konfigurationsdatei für diesen ControlPort auskommentiert wurde: Tor lauscht also auf Befehle, die über diesen Port hereinkommen. Der Befehl SIGNAL NEWNYM veranlasst Tor dazu, einen neuen Weg durch sein Netzwerk zu suchen. Ob das geklappt hat, kann man schnell feststellen, indem man seine IP-Adresse wieder mit torify überprüft:
$ torify wget -qO- ifconfig.me/ip
95.85.49.232
Wie man sieht, hat sich die IP-Adresse geändert. Anstelle von wget kann man natürlich auch die IP-Adressen anderer Programme im Terminal verschleiern, zum Beispiel die von SSH-Sitzungen, vom textbasiertem Webbrowser w3m, dem IRC-Client BitchX, rTorrent oder cURL, um anonymisiert Dateien zu übertragen.

Passwort für Tor setzen

Wird der Rechner von mehreren Leuten benutzt oder Tor auf einem Server betrieben, sollte man ein Passwort verwenden. Dazu wird zuerst ein Passwort-Hash erstellt [8]:
$ tor --hash-password "correcthorsebatterystaple"
[...]
16:8A043AE4F8D4343E602D71326A923F3524AD 549473D11FCD401A36F7EA
Die gekürzte Ausgabe zeigt nur die Zeile mit dem Hash, der in die Konfigurationsdatei /etc/tor/torrc eingetragen werden muss. Nachdem diese geöffnet wurde, muss der folgenden Zeile wieder ein Kommentarzeichen vorangestellt werden, wie hier schon zu sehen ist:
#CookieAuthentication 0
Anschließend muss die Zeile für das Passwort auskommentiert und der Hash durch den soeben generierten ersetzt werden:
[LISTINGUMG_ALT]HashedControlPassword 16:8A043AE4F8D4343 E602D71326A923F3524AD549473D11FCD401A36F7EA
Nach dem Speichern der geänderten Konfigurationsdatei wird Tor wieder neu gestartet:
# /etc/init.d/tor restart
Will man Tor jetzt mit SIGNAL NEWNYM mitteilen, dass ein anderer Weg durch das Netzwerk genommen werden soll, muss man natürlich das Passwort benutzen, um sich vorher zu authentifizieren, damit man das auch machen darf:
$ echo -e 'AUTHENTICATE "correcthorsebatterystaple"[HTML-BACKSLASH]r[HTML-BACKSLASH]nSIGNAL NEWNYM[HTML-BACKSLASH]r[HTML-BACKSLASH]nQUIT' - nc localhost 9051

Gefahren beim Benutzen von Tor

Auch im Terminal gelten dieselben Vorsichtsmaßnahmen, wie sie schon im Artikel „Mit Tarnkappe im Netz: Das Tor Browser Bundle“ angesprochen wurden. Tor schützt nicht vor der eigenen Dummheit. Wenn man seine Identität im Internet preisgibt, hilft es nicht, wenn man vorher seine IP-Adresse anonymisiert hat. Genauso sind auch bei Tor im Terminal „böse“ Exit-Nodes ein Problem, weshalb man auch hier auf eine verschlüsselte Verbindung zwischen dem eigenen Rechner und dem Zielsystem achten sollte.
Was dagegen Browser weniger trifft, aber Programme im Terminal, ist das DNS-Leaking. DNS steht für Domain Name System [9] und ist sozusagen die Telefonauskunft des Internets. Ein Name, wie zum Beispiel „freiesmagazin.de“ können sich Menschen leichter merken als die dazugehörige „Anschlussnummer“, die IP-Adresse. Wenn der Domain-Name als URL ins Internet geschickt wird, wandelt das Domain Name System sie in die dazugehörige IP-Adresse um und leitet die Anfrage zum richtigen Server weiter.
Wenn das Chat-Programm, mit dem man sich anonym über das Tor-Netzwerk unterhalten will, diese DNS-Anfrage aber mitsendet, kann ein Außenstehender sehen, von wo aus man sich mit dem Chat-Server verbunden hat. Ob eine Anwendung von diesem DNS-Leaking betroffen ist, kann man nur mit einem Sniffer zur Analyse der Netzwerk-Kommunikation herausfinden, zum Beispiel mit Wireshark [10]. Mit der Kommandozeilen-Version tshark schneidet man dann sämtliche DNS-Anfragen mit, die den eigenen Rechner verlassen. Anschließend startet man das Programm, von dem man den Verdacht hat, dass es vom DNS-Leaking betroffen ist [11].
Schließlich können auch Schwachstellen im Tor-Protokoll selbst ausgenutzt werden. Inwieweit das schon geschieht, ist unklar, was aber auch in der Natur der Sache beim Ausnutzen von Schwachstellen liegt. Hier bemüht sich das Tor-Projekt aber um größtmögliche Transparenz. Es lohnt sich also, ein Auge auf das Blog des Projekts zu haben [12].
Die Anonymisierung mit Tor hat schließlich auch ihre Grenzen in der Menge und der Verteilung der Nodes. Die Liste aller Tor-Knoten ist öffentlich. Durch die Überwachung einer ausreichend großen Anzahl der Nodes oder auch durch einen größeren Teil des Internets kann fast sämtliche Kommunikation über Tor nachvollzogen werden. Geheimdienste können das erreichen, indem sie Betreiber von Internet-Knoten oder wichtigen Backbones zur Kooperation zwingen, da sich die Tor-Nodes auf nur wenige Länder verteilen. Es reicht also die Zusammenarbeit von nur wenigen Instanzen, um die Anonymisierung im Tor-Netzwerk deutlich zu schwächen. Dann müssen nur noch der erste und der letzten Node überwacht werden, um durch eine statistische Auswertung auf den Ursprung der Verbindung zu schließen.
Links
[1] http://www.freiesmagazin.de/freiesMagazin-2014-05
[2] https://de.wikipedia.org/wiki/Tor_(Netzwerk)
[3] http://wiki.ubuntuusers.de/Paketquellen#universe
[4] https://www.torproject.org/docs/debian
[5] https://www.torproject.org/docs/rpms.html.en
[6] https://www.torproject.org/docs/tor-doc-unix.html.en
[7] https://de.wikipedia.org/wiki/Netcat
[8] http://xkcd.com/936/
[9] https://de.wikipedia.org/wiki/Domain_Name_System
[10] http://wiki.ubuntuusers.de/Wireshark
[11] http://wiki.ubuntuusers.de/Tor/Gefahren
[12] https://blog.torproject.org/blog/
Autoreninformation
Christian Imhorst (Webseite) surft nur selten anonym im Internet. Wenn doch, dann benutzt er Tor, um die Kontrolle über seine Privatsphäre so weit es geht zu behalten.

Beitrag teilen        Beitrag kommentieren

Zum Index

Kurztipp: Suchen und Finden mit ack statt grep

von Sujeevan Vijayakumaran
Nutzer der Kommandozeile suchen häufig nach Suchmustern in Dateien. Das gängigste Tool ist wohl grep [1]. Mit ack [2] gibt es hingegen eine Alternative, die besonders für Programmierer geeignet ist.
Ack ist komplett in Perl geschrieben und nutzt grundsätzlich den Funktionsumfang der Regulären Ausdrücke von Perl. Der Schwerpunkt von ack liegt in der Optimierung für Programmierer, denn ack beachtet standardmäßig schon einige Dinge, um Verzeichnisse nicht unnötig zu durchsuchen.
Die Anwendung ack ist in den gängigen Paketquellen der Linux-Distributionen enthalten. Unter Fedora oder ArchLinux heißt das Paket schlicht ack, in Debian-basierten Distributionen hingegen ack-grep.

Ack nutzen

Ack sucht im Standard rekursiv. Als Nutzer muss man also kein „-r“ für rekursives Suchen mit angeben, anders als z. B. bei grep. Die Funktionsweise von ack wird hier anhand dieses Repositories [3] deutlich gemacht.
Wenn man nun beispielsweise in einem Quellcode nach „Database“ suchen will, reicht folgender Befehl:
$ ack Database
Der Befehl von grep sähe hingegen so aus:
$ grep -r Database
Bild: Suche nach „Database“ mit grep (links) und ack (rechts).
Ack sucht rekursiv nach dem String „Database“. Das Ergebnis wird dabei mit Hilfe verschiedener Farben hervorgehoben. Sichtbar sind drei Dinge: Dateiname, Zeilennummer sowie Zeileninhalt mit hervorgehobenem Suchbegriff. Im Gegensatz zu grep ist die Standard-Ausgabe von ack deutlich besser lesbar.
Weiterhin dürfte einigen noch ein Detail auffallen: Bei der Suche mit grep werden, im Gegensatz zur Suche mit ack, Suchergebnisse auch aus dem „.git“-Unterverzeichnis gefunden. Ack ignoriert Verzeichnisse von Versionsverwaltungssystemen. „.svn“-Verzeichnisse werden nicht durchsucht, da man schließlich in echten Dateien suchen will und nicht in Repository-Dateien. ack durchsucht auch keine Backup-Dateien, wie etwa „beispiel~“ oder Binärdateien. Die Macher von ack möchten mit dieser Vorgehensweise unerwünschte Such-Treffer verhindern bzw. ausblenden.
Mein Beispiel-Repository ist ein Android-Projekt, in dem nicht nur Java-Code enthalten ist, sondern auch diverse XML-Dateien, einige Binärdateien und natürlich Java-Klassen, die während der Entwicklung automatisch generiert werden. Mit ack ist es auch sehr einfach möglich, bestimmte Suchbegriffe auf einzelne Programmiersprachen zu beschränken.
Wenn man nun nach „Database“ nur in Java-Dateien suchen will, kann man einfach
$ ack --java Database
ausführen. Wenn man hingegen nur in XML-Dateien suchen möchte, nutzt man folgenden Befehl:
$ ack --xml Database
Besonders in größeren Software-Projekten ist dies dann praktisch, wenn mehrere Programmiersprachen zum Einsatz kommen. Die Dateityp-basierte Suche lässt sich ebenfalls umdrehen, wenn man beispielsweise explizit nicht in XML-Dateien suchen möchte.
$ ack --noxml Database
Ack nutzt in dieser Funktion nicht nur die Dateiendung der einzelnen Dateien, sondern prüft auch die Shebang-Zeile [4], so dass auch Dateien ohne Dateiendung, aber mit Shebang-Zeile richtig erkannt und durchsucht werden.
Weiterhin unterstützt ack die altbekannten Kommandozeilen-Optionen von grep, wie etwa „-i“ für case-insensitive Suchen oder „-v“ für eine invertierte Suche.
Ack besitzt noch zahlreiche weitere Optionen, die sich in der Dokumentation [5] nachlesen lassen. Programmierer dürften ack mit seinen Funktionen durchaus einiges abgewinnen, da es schnell sucht und übersichtliche Ergebnisse liefert. Nichtsdestoweniger ist und bleibt grep ein Tool, das man weiterhin nutzen kann, da es schließlich auf jedem unixoiden Betriebssystem als Standard vorhanden ist.
Links
[1] https://de.wikipedia.org/wiki/Grep
[2] http://beyondgrep.com/
[3] https://github.com/svijee/taskwarrior-androidapp
[4] https://de.wikipedia.org/wiki/Shebang
[5] http://beyondgrep.com/documentation/
Autoreninformation
Sujeevan Vijayakumaran (Webseite) stieß beim Lesen des Buches „Vim in der Praxis“ auf ack und war überrascht, wie sehr ack das Suchen erleichtert.

Beitrag teilen        Beitrag kommentieren

Zum Index

Professionelles Database Publishing

von Patrick Gundlach
Es gibt eine Reihe von Dokumenten, die sich nur schwer mit freier Software erstellen lassen. Für normale Texte wie Bücher oder Abschlussarbeiten gibt es LibreOffice [1] und LaTeX [2], für Zeitschriftensatz (DTP) gibt es beispielsweise Scribus [3]. Doch vollautomatisch aus Datenbanken erzeugte Dokumente lassen sich oft nur schwer mit den genannten Programmen erzeugen. Hier soll der „speedata Publisher“ helfen, der in diesem Artikel vorgestellt wird.

Einleitung

TeX beziehungsweise LaTeX kann man zwar sehr gut automatisieren, doch man stößt doch recht schnell an die Grenzen, wenn man zum Beispiel komplexe Tabellen oder automatisch überlaufende Textcontainer benötigt. Auf der anderen Seite kann Programme wie Scribus zu automatisieren eine Herausforderung sein. Im professionellen Umfeld wird hier häufig InDesign von Adobe [4] benutzt. Für InDesign gibt es eine große Anzahl proprietärer Plug-ins, die aus Datenbanken mithilfe von Templates automatisiert Dokumente erzeugen können. Der bekannte W3C-Standard XSL-FO [5] eignet sich sehr gut für die vollautomatische Erstellung von Dokumenten, die Dokumentbeschreibung (FO) ist jedoch in den Möglichkeiten stark eingeschränkt. Außerdem sind die freien Implementierungen (zum Beispiel Apache FOP [6]) leider derzeit nicht für ihre gute Ausgabequalität berühmt.
Im Database Publishing geht es hauptsächlich um die Erzeugung von Produktkatalogen, Preislisten, Datenblättern und ähnlichen Dokumenten. Die Daten liegen üblicherweise in einer Datenbank oder in Excel-Tabellen vor. JSON [7], CSV oder ähnliche einfache Formate haben praktisch keine Bedeutung für Database Publishing. Auch wenn XML oft als geschwätzig und unnötig kompliziert verspottet wird, ist es fast das einzig akzeptierte Datenaustauschformat (insbesondere im professionellen Umfeld). Daher wird im Database Publishing oft XML als Datenquelle vorausgesetzt.
Als Ausgabe wird in der Regel PDF genommen, es kann aber auch (Stichwort: Cross Media Publishing) etwas völlig anderes sein, wie z. B. die Befüllung von Webshops oder Vorbereitung für Smartphone- und Tablet-Apps. Aber auch ePub hat an Bedeutung gewonnen. In diesem Artikel geht es ausschließlich um die Ausgabe in PDF. Vorgestellt wird die Software „speedata Publisher“, mit der sich die genannten Dokumente leicht erstellen lassen.

Installation

Der speedata Publisher ist ein Kommandozeilenprogramm, das für Linux, Mac OS X und Windows verfügbar ist und unter der freien AGPL-Lizenz [8] steht. Die Quellen sind auf Github verfügbar [9]; fertige Pakete zur Benutzung liegen auf der Webseite zum Download bereit [10]. Es wird empfohlen, für Experimente die aktuelle Entwicklungsversion (unstable) zu benutzen. Die Installation ist einfach: das Paket liegt als ZIP-Datei vor und muss nur entpackt werden. Optional kann die PATH-Umgebungsvariable auf das Verzeichnis bin gesetzt werden. Alternativ dazu muss man (wie man es von Unix her kennt) beim Programmaufruf den relativen oder absoluten Pfad mitgeben.
Unter der Haube verwendet der Publisher LuaTeX [11], eine moderne Variante des Textsatzsystems TeX, das für seine hochwertige Ausgabe bekannt ist. Der Anwender kommt damit jedoch nicht in Berührung und muss sich nicht mit den Eigenheiten von TeX auseinandersetzen. Die ZIP-Pakete sind vollständig, das heißt es werden für den normalen Betrieb keine weiteren Programme benötigt. Möchte man vor dem Durchlauf einen XProc-Filter benutzen (z. B. für XSLT-Transformationen), wird eine Java Runtime Environment benötigt. Wer nur Dokumente aus XML-Dateien erzeugen möchte, braucht das jedoch nicht.

Hello world

Die Einführung in eine neue Programmiersprache geschieht meist mit einem „Hello World“-Programm. Bevor aber das erste Dokument erzeugt werden kann, gibt es eine kleine Erklärung zur Vorgehensweise beim Database Publishing mit dem speedata Publisher. Der Publisher benötigt immer genau zwei Dateien als Eingabe (abgesehen von Bildern und Schriftdateien, die in das Dokument eingebunden werden): eine Datendatei und eine Layoutbeschreibung. Beide Dateien müssen im XML-Format vorliegen. Die Datendatei kann beliebig strukturiert werden. Es gibt also kein festes Schema für den Aufbau der Datendatei. Der Dateiname für die Daten ist in der Voreinstellung data.xml.
Bild: Daten und Layout bilden die Grundlage des speedata Publishers.
Für das einfache Beispiel reicht der folgende Inhalt:
<data>Hello world</data>
Listing: helloworld_data.xml
Die Layoutbeschreibung muss dabei einem vorgegebenen Schema folgen. Das Schema ist als RelaxNG-Datei in der Distribution enthalten (im Unterverzeichnis share/schema). Am besten bearbeitet man die Layoutbeschreibung (das Regelwerk) mit einem XML-fähigen Editor wie zum Beispiel jEdit [12] (siehe auch freiesMagazin 05/2014 [13]) zusammen mit dem XML-Plug-in oder direkt mit einem spezialisieren Editor wie Oxygen [14]. Bei beiden Editoren kann man das Schema mit dem Dokument verbinden, sodass bei der Eingabe sowohl ein Syntaxcheck als auch die Autovervollständigung und teilweise auch die Online-Hilfe (Oxygen) verfügbar ist. Das Layoutregelwerk wird unter dem Namen layout.xml gespeichert:
<Layout xmlns="urn:speedata.de:2009/publisher/en">
  <Record element="data">
    <PlaceObject>
      <Textblock>
          <Paragraph>
          <Value select="string(.)" />
        </Paragraph>
      </Textblock>
    </PlaceObject>
  </Record>
</Layout>
Listing: helloworld_layout.xml
Neben der englischsprachigen Syntax gibt es auch eine deutschsprachige, auf diese wird hier nicht weiter eingegangen. Hat man beide Dateien (data.xml und layout.xml) in einem Verzeichnis erstellt, dann kann der Publisher mit dem Befehl
$ sp
aufgerufen werden. Wenn man nicht die Standarddateinamen für die XML-Dateien benutzt, kann man diese als Optionen mit angeben. Beispielsweise für die „Hello world“-Dateien oben:
$ sp --data=helloworld_data.xml --layout=helloworld_layout.xml
Es wird dann eine PDF-Datei publisher.pdf erstellt, die die Worte „Hello world“ enthält.
Die Anweisungen im Regelwerk setzen sich zusammen aus deklarativen Befehlen (Farben festlegen, Schriftarten laden), strukturierenden Elementen (Zugriff auf Daten, Programmierkonstrukte) und Ausgabeanweisungen (Bilder, Texte, Tabellen, Barcodes u.ä.). Da es derzeit noch keinen Standard für diese Art von Layoutbeschreibung gibt, orientiert sich das Regelwerk an HTML, XPath, XSLT und CSS (alles W3C-Standards).

Datenstrukturierung und -zugriff

Da die Datenquelle beliebig strukturiert sein kann, gibt es verschiedene Befehle, um aus dem Layoutregelwerk auf die Daten zuzugreifen. Wenn der speedata Publisher startet, sucht er nach einem Einsprungspunkt für das Wurzelelement in den Daten. In dem „Hello world“-Beispiel war das das Element mit dem Namen data. Das Gegenstück in dem Regelwerk lautet
<Record element="data">
Sobald der Publisher auf ein Element in den Daten trifft, sucht er im Layoutregelwerk den Befehl Record mit dem Attribut element, dessen Inhalt der Name des Elements aus den Daten ist. Hat das Programm einen passenden Befehl Record gefunden, werden alle Befehle innerhalb des Elements ausgeführt.
Bild: Zusammenhang zwischen Elementen in der Datendatei und der Verarbeitung im Layoutregelwerk.
In dem Beispiel ist das nur der Befehl PlaceObject, um ein Objekt zu platzieren. Innerhalb eines Record-Befehls kann mit ProcessNode auf Kindelemente in den Daten zugegriffen werden. Wenn beispielsweise folgende Daten-XML vorliegen:
<configuration>
  <os arch="i386, amd64">Linux</os>
  <os arch="amd64">Mac OS X</os>
  <os arch="i386, amd64">Windows</os>
</configuration>
Listing: datahandling_data.xml
kann im Layout auf die Inhalte wie folgt zugegriffen werden:
<Layout xmlns="urn:speedata.de:2009/publisher/en">
  <Options mainlanguage="German"/>

  <Record element="configuration">
    <PlaceObject>
      <Textblock>
        <Paragraph>
          <B>
            <Value>Unterstützte Plattformen</Value>
          </B>
        </Paragraph>
      </Textblock>
    </PlaceObject>
    <!-- Ruft für jedes Kindelement den passenden
         <Record> auf -->
    <ProcessNode select="os"/>
  </Record>

  <!-- wird durch <ProcessNode ... /> aufgerufen -->
  <Record element="os">
    <PlaceObject>
      <Textblock>
        <Paragraph>
          <Value select="string(.)"/>
          <I>
            <Value> (</Value>
            <Value select="@arch"/>
            <Value>)</Value>
          </I>
        </Paragraph>
      </Textblock>
    </PlaceObject>
  </Record>
</Layout>
Listing: datahandling_layout.xml
Der Befehl ProcessNode ruft den passenden Record für jedes Kindelement mit diesem Namen auf. Beim Ausführen des Befehls Record element="os" befindet sich der Publisher im Element os und man kann mit @... auf Attribute und mit . auf den Inhalt des Elements zugreifen.
Alternativ und kürzer kann mithilfe des Befehls ForAll auf Kinddaten zugegriffen werden (dieselben Daten, hier nur die Layoutdatei):
<Layout xmlns="urn:speedata.de:2009/publisher/en">
  <Options mainlanguage="German"/>

  <Record element="configuration">
    <PlaceObject>
      <Table padding="2pt" columndistance="4pt">
        <Tr>
          <Td>
            <Paragraph>
            <Value>Betriebssytem</Value>
          </Paragraph>
          </Td>
          <Td>
            <Paragraph>
              <Value>Architektur</Value>
            </Paragraph>
          </Td>
        </Tr>
        <Tablerule/>
        <ForAll select="os">
          <Tr>
            <Td>
              <Paragraph>
                <Value select="string(.)"/>
              </Paragraph>
            </Td>
            <Td>
              <Paragraph>
                <Value select="@arch"/>
              </Paragraph>
            </Td>
          </Tr>
        </ForAll>
      </Table>
    </PlaceObject>
  </Record>
</Layout>
Listing: datahandling2_layout.xml
Hier wird für jeden Eintrag os eine Tabellenzeile erzeugt. Der Fokus (also der aktuelle Knoten im Daten-XML) ist nun abwechselnd in jedem der Kindelemente, damit kann wie oben auf deren Inhalte zugegriffen werden.

Programmierkonstrukte

Die Layoutsprache enthält auch klassische Programmierkonstrukte wie Variablen, Schleifen und Fallunterscheidungen. Schleifen lassen sich beispielsweise so schreiben:
<SetVariable variable="i" select="4"/>
<While test="$i > 0">
  <Message select="$i"/>
  <SetVariable variable="i" select="$i - 1"/>
</While>
In dem Fall werden die Zahlen 4, 3, 2 und 1 in der Protokoll-Datei ausgegeben. Bedingungen lassen sich mit Switch/Case/Otherwise ausdrücken:
<Switch>
  <Case test="count(*) = 0">
    <Message select="'Keine Kindelemente'"/>
  </Case>
  <Case test="count(*) > 3">
    <Message select="'Mehr als 3 Kindelemente'"/>
  </Case>
  <Otherwise>
    <Message select="'Sonst'"/>
  </Otherwise>
</Switch>
Mit diesen einfachen Bausteinen lassen sich Regelwerke erstellen, die auch sehr komplexe Layoutvorgaben umsetzen können. Es gibt noch eine Reihe weiterer Konstrukte, die sich im Handbuch (unter share/doc/index-de.html) nachlesen lassen (z. B. Loop und Until).

Platzierung von Objekten im Raster

Als Grundlage für die Platzierung der Objekte dient ein Raster, das über die Seite gelegt wird. Man kann bei der Erstellung der Seiten angeben, wie hoch und wie breit eine Rasterzelle werden soll. Objekte werden, wie oben gesehen, mit dem Befehl PlaceObject ausgegeben, dem man eine Angabe für die Spalte und Zeile übergeben kann. Diese Angaben können entweder eine absolute Maßeinheit sein (z. B. 20 mm), dann wird von der Ecke oben links gemessen. Oder es ist eine Zahl, dann bezieht sie sich auf das Seitenraster, wobei die obere linke Ecke die Koordinate (1,1) hat (innerhalb des Seitenrands).
Alle Objekte, die man ausgibt, haben eine Breite und eine Höhe, gemessen in Rasterzellen:
<PlaceObject row="2" column="3" valign="middle">
  <Image file="duck.pdf" maxwidth="4" maxheight="4"/>
</PlaceObject>
Hier wird ein Bild mit der Breite und der Höhe 4 (Rasterzellen) in der dritten Spalte und der zweiten Zeile ausgegeben. Die Zellen, in denen Objekte platziert werden, markiert das System als „belegt“. Diese Zellen können dann nicht erneut belegt werden. Gibt man keine Zeile und Spalte bei PlaceObject an, so sucht sich das System passende Werte selbstständig. Dabei gibt es einen Cursor, der an der Stelle bleibt, an der das letzte Objekt ausgegeben wird. Das Seitenraster und die belegten Zellen kann man sich anzeigen lassen, wenn man den Publisher mit den Optionen
$ sp --grid --show-gridallocation
aufruft oder stattdessen die entsprechen Optionen im Layoutregelwerk einschaltet (Befehl Options).
Bild: Seitenraster und Platzierung.

Seitenvorlagen

In einem Dokument sind selten alle Seiten gleicher Art. Es gibt Seiten, auf denen keine Seitenzahl erscheinen soll, es gibt verschiedene Seitentypen mit unterschiedlichen Kopf- und Fußzeilen oder manchmal müssen auch einfach nur die Ränder für linke und rechte Seiten unterschiedlich sein.
Der speedata Publisher erlaubt dem Anwender, beliebige Seitenvorlagen zu erstellen. Der Befehl dafür lautet Pagetype und sieht im einfachen Fall so aus:
<Pagetype name="..." test="...">
  <Margin left="2cm" right="1cm" top="1cm" bottom="2"/>
</Pagetype>
Das Attribut test erwartet einen XPath-Ausdruck der für jede Seite neu evaluiert wird. Sobald eine Seitenvorlage gefunden wird, dessen Test-Ausdruck den Wert „wahr“ ergibt, werden die Angaben aus dieser Seitenvorlage übernommen.
Neben dem Rand kann man in der Vorlage auch Container definieren, die automatisch überlaufen, wenn der Platz für den Inhalt nicht mehr ausreicht. Ebenso lassen sich Befehle definieren, die ausgeführt werden, wenn eine Seite mit diesem Seitentyp erzeugt oder ausgegeben wird. Das ist gut für Kopf- und Fußzeilen geeignet.
<?xml version="1.0" encoding="UTF-8"?>
<Layout xmlns="urn:speedata.de:2009/publisher/en"
  xmlns:sd="urn:speedata:2009/publisher/functions/en">

  <Pagetype name="default" test="true()">
    <Margin left="2cm" right="1cm" top="1cm" bottom="2" />
    <AtPageCreation>
      <Switch>
        <Case test="sd:even(sd:current-page())">
          <PlaceObject>
            <Table stretch="max">
              <!-- linke Seite -->
              <Tr>
                <Td>
                  <Paragraph>
                    <Value select="sd:current-page()" />
                  </Paragraph>
                </Td>
                <Td align="right">
                  <Image maxheight="1" file="logo.pdf" />
                </Td>
              </Tr>
              <Tablerule />
            </Table>
          </PlaceObject>
        </Case>
        <Otherwise>
          <!-- rechte Seite -->
          <PlaceObject>
            <Table stretch="max">
              <Tr>
                <Td align="left">
                  <Image maxheight="1" file="logo.pdf" />
                </Td>
                <Td align="right">
                  <Paragraph>
                    <Value select="sd:current-page()" />
                  </Paragraph>
                </Td>
              </Tr>
              <Tablerule />
            </Table>
          </PlaceObject>
        </Otherwise>
      </Switch>
    </AtPageCreation>
  </Pagetype>

  <Record element="data">
    <PlaceObject>
      <Textblock>
        <Paragraph>
          <Value>Eins</Value>
        </Paragraph>
      </Textblock>
    </PlaceObject>
    <NewPage />
    <PlaceObject>
      <Textblock>
        <Paragraph>
          <Value>Zwei</Value>
        </Paragraph>
      </Textblock>
    </PlaceObject>
  </Record>

</Layout>
Listing: kopffuss_layout.xml
<?xml version="1.0" encoding="UTF-8"?>
<Layout
  xmlns="urn:speedata.de:2009/publisher/en"
  xmlns:sd="urn:speedata:2009/publisher/functions/en">
  
  <LoadFontfile name="Regular" filename="DejaVuSerif.ttf" />
  <LoadFontfile name="Bold" filename="DejaVuSerif-Bold.ttf" />
  
  <DefineFontfamily name="Überschrift" fontsize="14" leading="16">
    <Regular fontface="Regular"/>
    <Bold fontface="Bold"/>
  </DefineFontfamily>
  
  <Record element="data">
    <PlaceObject>
      <Textblock>
        <Paragraph fontface="Überschrift">
          <B><Value>Das ist eine fette Überschrift</Value></B>
        </Paragraph>
      </Textblock>
    </PlaceObject>
  </Record>
  
</Layout>
Listing: schriftarten_layout.xml
...
<LoadFontfile name="DejaVuSerif-Bold" filename="DejaVuSerif-Bold.ttf" />
<LoadFontfile name="DejaVuSerif" filename="DejaVuSerif.ttf" />
<LoadFontfile name="DejaVuSerifCondensed" filename="DejaVuSerifCondensed.ttf" />
...

Ausblick

Hier können nur wenige der zahlreichen Möglichkeiten des Publishers gezeigt werden. Neben Kleinigkeiten wie Schnittmarken, automatischem Umfließen von Bildern oder Setzen von PDF-Lesezeichen und Hyperlinks gibt es noch eine Reihe weiterer Eigenschaften, die das System sehr mächtig machen. Es können zur Laufzeit beliebige Daten gesammelt werden. Diese lassen sich sofort verarbeiten, beispielsweise für einen Index. Oder man kann sie für den nächsten Durchlauf des Publishers zwischenspeichern, sodass man dann auf die Daten zugreifen kann, um beispielsweise Verzeichnisse zu erzeugen oder eine Reihe von Optimierungen durchzuführen. Über diesen Mechanismus kann man z. B. Bilder im Text verteilen, sodass der Platz auf einer Seite optimal genutzt wird.
Die Software wird im kommerziellen Umfeld eingesetzt, daher ist ein Schwerpunkt eine behutsame Weiterentwicklung. Es soll sichergestellt sein, dass sich Neuentwicklungen nicht negativ auf bestehende Layoutregelwerke auswirken. Dazu bietet sich die auf XML basierende Sprache sehr gut an. Durch neue Elemente und Attribute kann Funktionalität hinzugefügt werden, ohne dass bestehende geändert wird.
Eine Reihe automatisierter Tests stellt sicher, dass einmal erstellte Layoutanweisungen immer dasselbe Ergebnis erzeugen. Diese Tests funktionieren über einen optischen Vergleich einer Referenz-PDF mit einer neu erstellten PDF-Datei. Dazu werden in einem ersten Schritt die PDF-Dateien mittels Ghostscript nach PNG gewandelt und anschließend mit ImageMagick [15] (Befehl compare) optisch verglichen. ImageMagick erstellt eine Bilddatei mit den Unterschieden und gibt auf der Standardausgabe einen Wert zurück, der den Unterschied als Zahl ausdrückt.
Das mitgelieferte Handbuch (im Unterverzeichnis share/doc/ oder mittels sp doc aufrufbar) enthält eine vollständige Beschreibung aller Befehle mit Beispielen. Weiterhin sind auch einige einführende Kapitel enthalten, z. B. zu Schnittmarken, der Einbindung von Schriftarten oder dem Erstellen eigener Testfälle.
Zum Schluss darf der Hinweis nicht fehlen, dass die Entwicklung für Vorschläge und Quellcode von außerhalb offen ist. Fast alle Eigenschaften des Publishers stammen aus Anforderungen von Nutzern. Aber auch Fehlerberichte oder kleine Korrekturvorschläge oder Beispiele durch Anwender sind immer gerne gesehen.
Links
[1] http://de.libreoffice.org/
[2] http://www.latex-project.org/
[3] http://www.scribus.net/canvas/Scribus
[4] http://www.adobe.com/de/products/indesign.html
[5] https://de.wikipedia.org/wiki/XSL-FO
[6] http://xmlgraphics.apache.org/fop/
[7] https://de.wikipedia.org/wiki/JSON
[8] http://www.gnu.org/licenses/agpl-3.0.de.html
[9] https://github.com/speedata/publisher
[10] http://download.speedata.de/public/publisher/
[11] http://www.luatex.org/
[12] http://www.jedit.org/
[13] http://www.freiesmagazin.de/freiesMagazin-2014-05
[14] http://www.oxygenxml.com/
[15] http://www.imagemagick.org/
Autoreninformation
Patrick Gundlach (Webseite) ist Informatiker und interessiert sich seit langer Zeit für Typographie und Textgestaltung. Als Gründer und Geschäftsführer der Firma speedata macht er sein Hobby zum Beruf und entwickelt Software, die auch kleinste typographische Details beherrscht.

Beitrag teilen        Beitrag kommentieren

Zum Index

Äquivalente Windows-Programme unter Linux – Teil 5: Internet-Programme (2)

von Maria Seliger
Dieser Artikel beschäftigt sich mit Chat-, IRC- und Feedreader-Programmen sowie mit Download-Managern. Aufgrund der Vielzahl der Programme wird nur ein kleiner Teil vorgestellt.

Chat- und IRC-Programme

Unter Chat versteht man eine elektronische Kommunikation zwischen Personen in Echtzeit. Diese findet oft über das Internet statt. Man unterscheidet dabei unter anderem den textbasierten IRC-Chat (Internet Relay Chat [1]) und Instant Messaging. Beim IRC-Chat treffen sich Teilnehmer in einer Gesprächsrunde in einem Channel. Dabei kann man an einem oder auch an mehreren Channeln teilnehmen. Beim Instant Messaging unterhalten sich zwei oder mehr Teilnehmer per Textnachrichten. Neben Textnachrichten werden oft auch Dateiübertragungen und Videostreams unterstützt.

Empathy

Empathy [2] ist der offizielle Instant-Messenger-Client des GNOME-Projekts [3]. Es handelt sich dabei um einen Multi-Protokoll-Client, mit dem sich sehr viele verschiedene Instant-Messenger-Dienste nutzen lassen. Dazu zählen zum Beispiel ICQ, IRC, MSN, Jabber oder auch Yahoo! Messenger.
Bild: Empathy mit Kontakten und Kontextmenü.
Empathy unterstützt auch Video- und Audio-Chats über das XMPP-Protokoll.
Bild: Konfiguration der Messaging und Voice-over-IP-Accounts bei Empathy.

KDE Telepathy

KDE Telepathy [4] ist ein Instant Messenger für KDE, der auf dem Telepathy-Framework [5] basiert. KDE Telepathy befindet sich zur Zeit noch in einem relativ jungem Stadium und soll der Nachfolger des älteren Instant Messenger Kopete werden.
Bild: KDE Telepathy mit Kontakten und Kontextmenü.
Ähnlich wie Empathy unterstützt das Programm eine Vielzahl von Protokollen und ermöglicht es, mehrere Instant-Messaging-Dienste wie zum Beispiel XMPP (Jabber) oder auch ICQ gleichzeitig zu verwenden.
Bild: Instant Messaging Konfiguration in KDE Telepathy.

Pidgin

Bei Pidgin [6] handelt es sich ebenfalls um einen freien Multi-Protokoll-Client. So unterstützt das Programm unter anderem Bonjour, ICQ, IRC, MSN, Yahoo! Messenger und XMPP (Jabber) sowie eine ganze Reihe weiterer Protokolle. Wie auch Empathy und KDE Telepathy unterstützt Pidgin neben den normalen Textnachrichten auch Video- und Audio-Chats über das XMPP-Protokoll.
Bild: Pidgin mit Kontakten und Kontextmenü.
Einige zusätzliche Protokolle werden über Plug-ins aktiviert, die für das Programm geschrieben wurden (z. B. für Skype). Auch eine Verschlüsselung kann über das Plug-in pidgin-encryption aktiviert werden. Insgesamt gibt es über 100 Plug-ins, mit denen sich das Programm erweitern lässt.
Bild: Plug-in-Konfiguration für Pidgin.

Feedreader (RSS-Reader)

RSS-Reader sind Computerprogramme, mit denen sich Newsfeeds einlesen und anzeigen lassen. Newsfeeds informieren über die Neuigkeiten auf einer Webseite. Die Besonderheit dabei ist, dass eine Seite die Feeds selbst in die Welt streut und jeder dieser abgreifen kann, wenn er denn Interesse daran hat. Dem Feed-Anbieter sind die Empfänger seines Feeds somit also nicht direkt bekannt.

Akregator

Akregator [7] ist ein Feedreader für RSS- und Atom-Feeds für KDE und Teil vom Personal Information Manager Kontact. Das Programm kann aber auch eigenständig benutzt werden. Zu den Funktionen zählen u. a.
Zur Ansicht der Nachrichten kann auch ein externer Webbrowser aufgerufen werden.
Bild: Akregator

QuiteRSS

QuiteRSS [9] ist ein Feedreader mit einer grafischen Oberfläche, mit der sich sehr gut verschiedene Newsfeeds verwalten lassen. Zu den Funktionen zählen u. a.
Durch den integrierten Webbrowser können die Nachrichten auch vollständig in QuiteRSS angezeigt werden, sodass man keinen zusätzlichen Webbrowser aufrufen muss.
Bild: QuiteRSS.

Weitere Feedreader

Viele E-Mail-Programme, z. B. Mozilla Thunderbird, SeaMonkey oder Sylpheed-Claws sowie Webbrowser z. B. Qupzilla bieten die Möglichkeit, Newsfeeds zu lesen und zu verwalten. Zusätzliche gibt es z. B. für Firefox diverse Add-ons, die die Newsfeed-Verwaltung ermöglichen (z. B. Newsfox, Sage).

Download-Manager und Dateitransfer

cURL (Client for URLs)

Das Kommandozeilen-Programm cURL [10] ist ein Dateitransfer-Programm, das eine Vielzahl von Protokollen unterstützt (DICT, FILE, FTP, FTPS, GOPHER, HTTP, HTTPS, IMAP, IMAPS, LDAP, LDAPS, POP3, POP3S, RTMP, RTSP, SCP, SFTP, SMTP, SMTPS, TELNET, TFTP). Mit cURL lassen sich Dateien z. B. aus dem Internet nicht nur herunterladen, cURL ermöglicht auch das Hochladen von Dateien. Über zahlreiche Kommandozeilenparameter lässt sich cURL konfigurieren. Diese lassen sich in der Hilfe nachlesen.
Bild: Hilfe-Seite für cURL.

FileZilla

FileZilla [11] dient der Dateiübertragung mittels FTP, FTPS (FTP über SSL/TSL) und SFTP (SSH File Transfer Protocol). FileZilla besteht aus mehreren Programmen, dem FileZilla Client und dem FileZilla Server. Letzterer stellt einen FTP-Server bereit – hier geht es aber um den Client.
Der Client stellt eine grafische Oberfläche bereit, um sich mit einem FTP-Server zu verbinden. Dabei unterstützt das Programm auch IP-Version 6 [12]. FileZilla unterstützt außerdem auch die Wiederaufnahme abgebrochener Datentransfers, die Verwaltung verschiedener FTP-Sites sowie Drag&Drop.
Bild: FileZilla.

Transmission

Transmission [14] ist ein Client für das BitTorrent-Filesharing-Protokoll [15]. Bei BitTorrent handelt es sich um ein kollaboratives Filesharing-Protokoll. Es eignet sich insbesondere für die schnelle Verteilung großer Datenmengen, da die Daten von mehreren Leuten parallel geladen werden.
Transmission ist für Ubuntu das Standardprogramm für das BitTorrent-Netzwerk. Das Programm ist sehr einfach zu bedienen. Zu den Funktionen von Transmission zählen unter anderem das automatische Port-Mapping, die schnelle Wiederaufnahme von angefangenen Übertragungen, eine individuelle Geschwindigkeitsbegrenzung für Torrents sowie ein Priosierungssystem. Außerdem verfügt das Programm über ein optionales Webfrontend.
Bild: Netzwerk-Einstellungen für Transmission.

Wget

Wget [16] ist ein Kommandozeilenprogramm als Teil des GNU-Projekts. Das Programm ermöglicht das Herunterladen von Dateien aus dem Internet und das Kopieren kompletter Webseiten, z. B. zum Archivieren. Dabei bleibt auch die Struktur der Ordner erhalten. Die Protokolle FTP, HTTP und HTTPS werden von Wget unterstützt.
Wget wird über zahlreiche Kommandozeilenparameter konfiguriert und bietet eine ausführliche Hilfe an.
Bild: Hilfe-Seite für Wget.
Hinweis: Wget und cURL lassen sich auch einfach über das kostenlose Add-on cliget [17] in den Firefox-Browser einbinden.
Links
[1] https://de.wikipedia.org/wiki/Internet_Relay_Chat
[2] https://wiki.gnome.org/action/show/Apps/Empathy
[3] http://www.gnome.org/
[4] http://userbase.kde.org/Telepathy
[5] https://de.wikipedia.org/wiki/Telepathy
[6] https://www.pidgin.im/
[7] http://userbase.kde.org/Akregator
[8] http://lzone.de/liferea/
[9] http://quiterss.org/
[10] http://curl.haxx.se/
[11] https://filezilla-project.org/
[12] https://de.wikipedia.org/wiki/IPv6
[13] http://fireftp.mozdev.org/
[14] http://www.transmissionbt.com/
[15] https://de.wikipedia.org/wiki/BitTorrent
[16] https://www.gnu.org/software/wget/
[17] https://addons.mozilla.org/de/firefox/addon/cliget/
Autoreninformation
Maria Seliger (Webseite) ist vor über einem Jahr von Windows 7 auf Lubuntu umgestiegen, was problemlos ging, da sich für viele Programme eine Alternative unter Linux fand.

Beitrag teilen        Beitrag kommentieren

Zum Index

Review: Papers, Please

von Dominik Wagenführ
Die folgenden Tagebucheinträge wurden nach der Entlassung des Genossen XXXXXXX in seiner Wohnung in der XXXXXXXX-Straße beschlagnahmt. Alle persönlichen Daten wurden geschwärzt.

Tagebucheinträge

22. November 1982

„Heute ist mein Glückstag! Ich erhielt heute ein Schreiben, dass ich die Arbeitslotterie des Monats gewonnen habe. Ich hatte mich zuerst gewundert, weil ich an keiner Lotterie teilgenommen habe. Aber da man nicht jeden Tag etwas gewinnt, habe ich mich trotzdem gefreut.“
„Der Gewinn ist eine neue Arbeitsstelle in Grestin. Unsere großartige Führung in Arstotzka will die Grenzen nach Kolechien öffnen und jemand muss natürlich die ehrenvolle Aufgabe übernehmen, die Einreisenden zu kontrollieren. Ich freue mich wahnsinnig, dass ich diese Aufgabe übernehmen darf.“
„Meine Frau XXXXXX und mein Sohn XXXXX ziehen gleich mit in die neue Wohnung ein. Auf die Mitnahme meiner Schwiegermutter hätte ich verzichten können. Auch wenn mir unsere aktuelle Wohnung der Klasse 6 in XXXXXX gefällt, wird die neue der Klasse 8 in Ost-Grestin sicher nicht schlecht sein.“
Bild: „In der Zeitung steht mein neuer Job.”

23. November 1982

„Mein erster Arbeitstag bei der Grenzstelle. Ich musste mich am Anfang durch das Handbuch wühlen, aber prinzipiell sind die Regeln einfach: Arstotzkaner mit gültigem Pass dürfen rein, der Rest nicht. Immerhin zwölf Leute konnte ich so abfertigen. Ich fand es etwas schade, dass nicht jeder in unser schönes Arstotzka einreisen darf, aber das hat sicherlich seine Gründe.“
„Meine Grenzkabine ist gemütlich, aber nicht sehr groß. Vor allem der Lautsprecher, mit dem ich ‚Es lebe Arstotzka!‘ und ‚Nächster!‘ in die Menge brüllen darf, macht mir viel Freude.“
Bild: „Es lebe Arstotzka.“

24. November 1982

„Heute ist etwas Tragisches passiert. Es steht sicherlich morgen in allen Zeitungen. Ein Terrorist ist bei der Einreise einfach über die Absperrung gesprungen und hat eine Rohrbombe auf einen Grenzsoldaten geworfen. Es war grauenhaft …“
„Und das auch noch an dem Tag, an dem unsere großartige Regierung die Einreisebestimmungen gelockert hat. Eigentlich durfte jeder mit gültigem Pass einreisen. Ich denke, das wird sich ab morgen ändern.“

25. November 1982

„Wie erwartet sind die Prüfungen jetzt wesentlich strenger – was für mich mehr Arbeit bedeutet. Es gab viele neue Regeln, die ich beachten muss. Jeder Ausländer muss einen Einreisebeleg vorlegen, dessen Datum ich prüfen muss.“
„Insgesamt gefällt mir die Arbeit gut. Es ist nicht so anspruchsvoll, aber man sieht viele Menschen.“

26. November 1982

„Hätte ich mich gestern nur nicht beschwert. Einreisebelege sind wegen des blühenden Schwarzmarktes nicht mehr erlaubt und ich muss jetzt Einreise-Genehmigungen prüfen. Name, Passnummer und Einreisegrund müssen alle geprüft werden und stimmen. Immerhin komme ich so mit den Leuten etwas ins Gespräch, es ist aber dennoch anstrengend.“
„Vor allem bin ich durch die vielen Prüfungen nicht mehr so schnell. Gerade einmal sechs Personen konnte ich kontrollieren. Aber ich will keinen Fehler machen. Da ich nur fünf Krediteinheiten pro Kontrolle bekomme, reicht das Geld gerade einmal für Miete (die heute auch noch erhöht wurde) und Heizung. Immerhin hatte ich etwas Geld gespart, um Essen für meine Familie kaufen zu können.“
Bild: „Als Grenzschützer muss ich jeden Pass genau kontrollieren.“

27. November 1982

„Da es gestern so langsam voran ging, wollte ich heute etwas schneller arbeiten. Die Ersparnisse halten nicht ewig als Reserve. Dummerweise sind mir dabei mehrere Fehler passiert. Ich habe einige Leute wohl fälschlicherweise weggeschickt, obwohl sie einreiseberechtigt waren. Und ein oder zwei sind wohl durch meine Kontrolle geschlüpft, obwohl ihre Daten nicht gepasst haben.“
„Jede meiner Entscheidungen wird wohl von höherer Ebene noch einmal geprüft, wie auch immer die das machen. Jedenfalls gab es erst zwei Ermahnungen und danach durfte ich fünf Krediteinheiten Bußgeld pro Fehler bezahlen. Im Endeffekt habe ich heute nichts verdient, was ich meiner Frau natürlich nicht sagen kann.“
„Die Ersparnisse reichen leider nicht mehr für Heizung und Essen. Ich hoffe, dass mir meine Familie es abnimmt, dass bei Bauarbeiten was an den Heizungsrohren kaputt gemacht wurde.“

28. November 1982

„Heute war ein schlimmer Tag. Das Ministerium hat mir einen Arrest-Knopf in die Kabine eingebaut. Jedes Mal, wenn ich jemand Verdächtigen bemerke, soll ich den drücken. Ich dachte mir nichts dabei und als ich ihn drückte, ging ein Alarm los und zwei Wachen führten den Mann vor mir weg. Ich will gar nicht wissen, was sie jetzt mit ihm machen.“
„Zusätzlich ist meine ganze Familie krank, weil es hier so saukalt ist. Ich habe heute wieder nicht genug Geld nach Hause gebracht, um Miete, Heizung und Essen zu bezahlen. Zusätzlich brauchte ich auch noch Medikamente für XXXXXXX und XXXXXXX. Ich glaube, wir müssen, das Essen rationieren.“
Bild: „Entweder Essen oder Medikamente für die Familie …“

29. November 1982

„Ich kann nicht mehr! Drei weitere Leute mussten wegen mir abgeführt werden. Ich hätte sie ja gerne durchgelassen, denn sie sahen echt nicht wie Terroristen aus. Aber ich hatte davor schon zwei Fehler gemacht und jeder weitere hätte wieder negative Krediteinheiten bedeutet.“
„XXXXXXX ist wieder gesund, aber XXXXXXX hat den Tag nicht überlebt. Ich weiß, man sollte das nicht sagen, aber ich konnte sie eh nie leiden. Ich versuche natürlich dennoch XXXXXXX zu trösten, aber mir scheint, sie gibt mir die Schuld daran.“

30. November 1982

„Als ich heute nach Hause kam, lag ein Brief vom Ministerium auf dem Tisch. Weil wegen mir ein Familienmitglied gestorben ist und die Partei nur erfolgreiche Mitarbeiter in ihren Reihen wissen will, wurde ich entlassen. Die Wohnung wurde uns gekündigt. Morgen werde ich mich an den Grenzübergang nach Kolechien stellen. Hoffentlich sind deren Auflagen für eine Einreise nicht so streng wie bei uns …“

Zahlen und Fakten

„Papers, Please“ [1] ist ein sehr ungewöhnliches Spiel. Der Startbildschirm und die militärische Musik zeigen es deutlich, dass man kein Highend-Grafik-Spiel erwarten kann. Dafür überzeugt „Papers, Please“ durch moralische Entscheidungen, die dem eigentlichen Spielziel, Fehler in einem Suchbild zu finden, oft entgegenlaufen.
Bild: Titelbildschirm von „Papers, Please“.
Das macht das Spiel dann auch aus, denn man muss schon zweimal überlegen, ob man immer nach Vorschrift arbeitet oder eine Familie, die den Grenzübergang passieren will, trennt, weil bei einer Person der Pass abgelaufen ist. Teilweise haben Entscheidungen sogar Auswirkungen, die in der Zeitung am nächsten Tag aufgegriffen werden.
Durch die Bestrafung von Fehlern überlegt man sich auch zweimal, ob man absichtlich jemanden die Grenze überqueren lässt, der eigentlich nicht dürfte. Grob gerechnet muss man jeden Tag mindestens zwölf Personen korrekt kontrollieren, damit man Miete, Heizung und Essen bezahlen kann. Reicht das Geld nicht aus, muss man entweder Heizung oder Nahrung streichen, was sich auf die Gesundheit der Familienmitglieder auswirkt. Eine wissentliche Fehlentscheidung kann sich also auf die eigene Familie auswirken.
Leider kann man deswegen auch nicht einfach die Regeln des Spiels über den Haufen werfen, in dem man einfach alle Menschen einreisen lässt, was bei freien Grenzen ja toll wäre. Das System bestraft einen so stark, dass man so keine zwei Tage weit kommt.
„Papers, Please“ selbst kann man beispielsweise über Steam [2] oder den Humble Store [3] erstehen. Der Preis liegt bei ca. 9 US-Dollar. Das Spiel liegt in verschiedenen Sprachen vor, unter anderem auch Deutsch.
Links
[1] http://papersplea.se/
[2] http://store.steampowered.com/app/239030
[3] https://www.humblebundle.com/store/p/papersplease_storefront
Autoreninformation
Dominik Wagenführ (Webseite) spielt gerne unter Linux und fand die moralischen Entscheidungen in „Papers, Please“ sehr interessant.

Beitrag teilen        Beitrag kommentieren

Zum Index

Rezension: Vim in der Praxis

von Sujeevan Vijayakumaran
Das Buch „Vim in der Praxis“ vom Autor Drew Neil erschien Ende Dezember in der ersten Auflage und bündelt auf über 300 Seiten eine große Anzahl an Tipps und Tricks für die Nutzung von Vim.
Redaktioneller Hinweis: Wir danken O'Reilly für die Bereitstellung eines Rezensionsexemplares.

Was steht drin?

Das Buch umfasst insgesamt 121 Vim-Tipps, verteilt auf 21 Kapitel und abgedruckt auf 353 Seiten. Es wurde vom Autor Drew Neil ursprünglich auf Englisch für den Verlag „Pragmatic Bookshelf“ verfasst. Die deutsche Übersetzung erfolgte durch Lars Schulten für den O'Reilly Verlag.
Zusätzlich zu den 21 Kapiteln ist das Buch zudem in sechs einzelne Teile gegliedert. Diese teilen das Buch sinnvoll in verschiedene Aspekte, die für die Nutzung von Vim nützlich sind: „Modi“, „Dateien“, „Rascher vorankommen“, „Register“, „Makros“, „Muster“ und „Werkzeuge“.
Das Buch beginnt mit „Lies mich“ und „Das vergessene Handbuch“. Beides sollte man definitiv lesen, sofern man sinnvoll mit dem Buch arbeiten möchte. Im „Lies mich“ wird der Aufbau des Buches erläutert, während „Das vergessene Handbuch“ auf die Notationen und Formen des Buches eingeht, damit man sämtliche Tastendrücke, die im Buch erwähnt werden, nachvollziehen kann.
Das Buch ist nicht als klassisches Lehrbuch aufgebaut, welches man von vorne nach hinten durcharbeiten kann bzw. soll. Stattdessen wird bereits zu Beginn ausdrücklich empfohlen, das Buch quer durchzublättern und nach und nach einige der vielen Tipps auszuprobieren und nachzuvollziehen.
Im ersten Teil beschreibt der Autor die Funktionsweise der einzelnen Modi von Vim. Er nennt und erläutert die folgenden fünf Modi anhand von zahlreichen Beispielen: „Normaler Modus“, „Einfügemodus“, „Visueller Modus“ sowie „Kommandozeilenmodus“.
Im zweiten Teil geht es grundsätzlich um die Handhabung von Dateien, etwa wie man Dateien öffnet, speichert oder generell mehrere Dateien gleichzeitig verwaltet. Im Anschluss folgt der dritte Teil, der die Bewegungen innerhalb von Dateien erläutert. Besonders dieser Teil sollte von Einsteigern zuerst gelesen und verstanden werden, da die Bewegung innerhalb von Vim eines der essentiellen Dinge ist, um Vim nutzen zu können.
Der vierte Teil dreht sich um Register, also wie man Texte kopiert, einfügt und wie man mit Makros arbeitet. Im Anschluss folgt der nächste Teil über Muster. Dort wird unter anderem erklärt, wie man schnell und effizient sucht, findet und ersetzt. Der letzte und sechste Teil bespricht vorhandene Werkzeuge, die Vim sinnvoll ergänzt. So wird unter anderem erklärt, wie man Code mit Make kompilieren kann, eine automatische Vervollständigung aktiviert oder wie man die Rechtschreibprüfung von Vim aktiviert und nutzt.

Wie liest es sich?

Das Buch setzt grundsätzlich keinerlei Kenntnisse in Vim voraus. Nichtsdestoweniger dürften sich Vim-Anfänger anfänglich mit dem Buch schwertun, da vor allem die Bedienung von Vim zu Beginn ungewohnt ist. Leser, die vorher mindestens den "vimtutor" durchgearbeitet haben, werden hiermit allerdings weniger Probleme haben.
Die Tipps in dem Buch lesen sich grundsätzlich ziemlich gut und sind so gut wie immer sehr gut verständlich. Die angeführten Beispiele lassen sich leicht nachvollziehen und verstehen. Häufig muss man allerdings die Notation der Beispiele im Kapitel „Lies mich“ nachblättern.
Die Tipps behandeln nicht nur die grundsätzlichen Vim-Features, sondern gehen auch sehr tief in einige Funktionen ein. Nur wenige Funktionen, die angesprochen werden, werden oberflächlich angekratzt, denn meistens wird ausführlich erläutert, was mit welchem Kommando möglich ist und auch wie man es möglicherweise optimieren kann.
Nachdem man das Buch einmal durchgearbeitet hat, vergisst man leider sehr schnell viele der Tipps. Das Buch eignet sich zudem besonders als Handbuch, welches man dann zu Rate ziehen kann, wenn man es gerade braucht, denn merken kann man sich alle Tipps nach dem ersten Ausprobieren leider nicht.

Kritik

Vim-Anfänger werden mit diesem Buch Vim lieben lernen. Es macht viel Spaß, die einzelnen Tipps durchzuarbeiten und dabei einiges auszuprobieren. Sobald man erst einmal angefangen hat, bleibt man häufig gut dabei und probiert weitere Tipps und Tricks. Für den Leser wird dabei auch deutlich, wie viele Möglichkeiten Vim so bietet und wie man sie auch in der Praxis sinnvoll einsetzen kann.
Der einzige echte Kritikpunkt ist lediglich der Preis. Mit 35 € ist es wahrlich kein Schnäppchen für ein Buch, welches ohne farbige Seiten daherkommt.
So gibt es viele Fachbücher, die zwar ausführlicher sind; allerdings kann man diesem Buch wenigstens auf fast jeder Seite etwas neues abgewinnen, sofern man noch kein Vim-Profi ist. Wer sich also sinnvoll mit Vim auseinandersetzen will, der findet mit diesem Buch eine sehr gute Grundlage um Vim zu erlernen.
Buchinformationen
Titel Vim in der Praxis [1]
Autor Drew Neil, Übersetzung von Lars Schulten
Verlag O'Reilly, 2013
Umfang 353 Seiten
ISBN 978-3-95561-578-9
Preis 34,90 € (Print), 28,00 € (eBook)

Links
[1] http://www.oreilly.de/catalog/practicalvimger/
Autoreninformation
Sujeevan Vijayakumaran nutzte bisher Vim häufig nur, um Kleinigkeiten innerhalb von Textdateien anzupassen. Nach dem Buch war er noch begeisterter von Vim als zuvor.

Beitrag teilen        Beitrag kommentieren

Zum Index

Rezension: Wissenschaftliche Arbeiten schreiben mit LaTeX

von Christina Möller
Spätestens wenn die Abschlussarbeit für die Studierenden bevorsteht, stellt sich die Frage, ob es Alternativen zu Microsoft Word [1] gibt. Einen einfachen Einstieg für diejenigen, die einen Umstieg nach LaTeX in Erwägung ziehen, bietet das Buch „Wissenschaftliche Arbeiten schreiben mit LaTeX“ von Joachim Schlosser.
Redaktioneller Hinweis: Wir danken dem mitp-Verlag für die Bereitstellung eines Rezensionsexemplares.

Inhalt

Das Buch setzt sich aus den drei großen Bereichen „Einführung“, „LaTeX-Elemente“ und „Fertigstellen der Arbeit“ zusammen.
Im ersten Teil wird nach den allgemeinen Informationen zu LaTeX die Installation beschrieben. Zum Abschluss werden anhand eines einfachen Beispiels die wesentlichen Bestandteile eines LaTeX-Dokuments vorgestellt.
Ausgestattet mit einem Grundgerüst geht es im zweiten Teil des Buches darum, dieses mit den gängigen Elementen einer Abschlussarbeit (u. a. Aufzählungen, Tabellen und Grafiken) zu füllen.
Das Erstellen von Verzeichnissen (u. a. Literatur-, Abbildungs- und Tabellenverzeichnis), ein Überblick zu mathematischen Ausdrücken in LaTeX und ein kleiner Exkurs in die Handhabung von längeren Arbeiten, das Verwenden von mehreren Dateien und die Versionierung schließen den zweiten Teil ab.
Zuletzt widmet sich der Autor dem Fertigstellen der Arbeit. Neben Schriften und Besonderheiten bei der Arbeit mit PDF-Dateien gibt es auch einen Abschnitt zur Fehlersuche, einem Themengebiet, das gerade für Anfänger das größte Hindernis darstellt.
Das komplette Inhaltsverzeichnis zum Buch ist auf dem dazugehörigen Webauftritt [2] hinterlegt. Neben einigen Gratiskapiteln sind hier auch die Minimalbeispiele zu den angesprochen Bereichen aus dem Buch verfügbar, sodass es dem Leser möglich ist, die Beispiele ohne lästiges Abtippen des Quellcodes nachzuvollziehen.

Zielgruppe

Wie der Titel des Buches bereits anklingen lässt, sind vor allem LaTeX-Einsteiger angesprochen. Es werden keine Vorkenntnisse vorausgesetzt und durch die vielen kurzen Beispiele, die optisch gut zu erkennen sind, wird praxisorientiert die vorangestellte Theorie erläutert.
Gerade für Studierende der Naturwissenschaften eignet sich das Buch, da auf viele Vorteile, wie Theoreme und die Definition eigener Umgebungen, relativ früh im Buch eingegangen wird. Weiterhin wird, für ein Einstiegsbuch sehr ausführlich, das Erzeugen eigener Grafiken beschrieben.
Für jene Nutzer, denen es bevorsteht, eine längere Arbeit zu schreiben, werden hilfreiche Hinweise zur technischen Organisation des Vorhabens gegeben, u. a. wird für die Versionierung Git als Software vorgestellt und auch auf das Erstellen eines Index wird eingegangen.
Aber auch diejenigen, die bereits erste Schriftstücke in LaTeX gesetzt haben, bisher jedoch nur nach der Copy&Paste-Methode Quellcodezeilen aus diversen Foren zusammenkopierten, liefert das Buch einige Aha-Erlebnisse.
Die Abschnitte sind treffend bezeichnet und durch die zahlreichen Beispiele erkennt man optisch sehr schnell, ob der Abschnitt für die eigene Arbeit relevant ist oder ob er übersprungen werden kann.
Nicht geeignet ist das Buch für Leser, die LaTeX im Grunde gar nicht verstehen wollen oder nur eine Universalvorlage für die Arbeit suchen.

Fazit

Das Buch liest sich insgesamt sehr flüssig und liefert einen guten Einstieg für LaTeX-Neulinge.
Die vielen Hinweise zu Typografie und gutem Textsatz sind sehr hilfreich und hoffentlich nicht abschreckend für Neulinge. Denn darin sind u. a. auch die Stärken in der Verwendung von LaTeX zu sehen.
Die wichtigen Pakete werden kurz vorgestellt und wo es nötig ist, wird auf weiterführende Literatur verwiesen.
An einigen wenigen Stellen weist das Buch noch kleinere Fehler auf, die in einer 5. redigierten Auflage nicht mehr zu erwarten wären. Der Autor reagiert auf die Hinweise sehr schnell und eine Auflistung der Anmerkungen findet sich auf der Internetseite.
Der Preis von knapp 20 Euro scheint gut investiert und gleichgültig, ob das Buch komplett durchgearbeitet wird oder eher Verwendung als Nachschlagewerk findet, eine Daseinsberechtigung neben all den anderen LaTeX-Büchern hat es auf jeden Fall.
Redaktioneller Hinweis: Da es schade wäre, wenn das Buch bei Christina Möller im Regal verstaubt, wird es verlost. Dazu ist folgende Frage zu beantworten:
Wer entwickelte LaTeX?
Die Antwort kann bis zum 8. Juni 2014, 23:59 Uhr über die Kommentarfunktion oder per E-Mail an redaktion@freiesmagazin.de geschickt werden. Die Kommentare werden bis zum Ende der Verlosung nicht freigeschaltet. Das Buch wird unter allen Einsendern, die die Frage richtig beantworten konnten, verlost.
Links
[1] http://office.microsoft.com/de-de/word/
[2] http://www.latexbuch.de/
[3] http://www.it-fachportal.de/shop/buch/Wissenschaftliche Arbeiten schreiben mit LaTeX/detail.html,b156456
Buchinformationen
Titel Wissenschaftliche Arbeiten schreiben mit LaTeX: Leitfaden für Einsteiger [3]
Autor Joachim Schlosser
Verlag mitp-Verlag, 2014
Umfang 328 Seiten
ISBN 978-3826694868
Preis 19,99 Euro

Autoreninformation
Christina Möller hat während des Studiums die Vorzüge von LaTeX genutzt. Aktuell gehört sie zu den wenigen, die im Beruf mit LaTeX arbeiten dürfen.

Beitrag teilen        Beitrag kommentieren

Zum Index

Rezension: Clean Coder

von Dominik Wagenführ
Es gibt sehr viele Bücher darüber, wie „ordentlicher“ Code auszusehen hat, wobei das teilweise natürlich auch Geschmackssache ist. Robert C. Martin, der u. a. für sein Buch „Clean Code“ bekannt ist, hat das Konzept auf die Entwickler ausgeweitet und will ein paar Verhaltensregeln für professionelle Programmierer geben.
Hinweis: Mit dem Begriff „Entwickler“ in dem Artikel sind sowohl weibliche als auch männliche Personen gemeint.
Redaktioneller Hinweis: Wir danken dem mitp-Verlag für die Bereitstellung eines Rezensionsexemplares.

Was heißt professionell?

Die Antwort auf diese Frage erfährt man, wenn man das Buch durchgelesen hat. Martin gibt nicht am Anfang eine klare Definition von „Professionalität“, sondern zeigt mehrere verschiedene Verhaltensregeln auf und definiert diese als professionelles Vorgehen.
Worauf baut Martin seine Aussagen? Er selbst schreibt am Anfang des Buches, dass viele Ratschläge auf seiner persönlichen Erfahrung beruhen. Und davon hat er genug, schließlich ist er seit 1970 als Programmierer tätig und hat vermutlich jeden Fehler gemacht, den man in dieser Branche machen kann. Martin sagt aber auch, dass nicht alle Ratschläge auf jeden passen. Einige werden sicherlich nur für Kopfschütteln sorgen, aber im Großen und Ganzen kann jeder etwas aus dem Buch mitnehmen.

Verantwortung: Die Basis der Professionalität

Das Buch beginnt mit einem Unglück. Am 28. Januar 1986 explodierte die Raumfähre Challenger kurz nach dem Start [1]. Sieben Menschen kamen dabei ums Leben. Grund für die Explosion war ein Ausfall der Dichtungsringe zwischen zwei Komponenten, weil es an dem Tag zu kalt war und die Dichtungsringe nicht für solche niedrigen Temperaturen ausgelegt waren. Den Ingenieuren der Raumfähre war das Problem bekannt und sie sprachen auch beim Management vor, um den Start zu verschieben. Das Management setzte sich aber darüber hinweg, was zu der vorhergesagten Katastrophe führte.
Was Martin mit dem Beispiel zeigen will, ist dass man als Konstrukteur von etwas die Verantwortung zu tragen hat. Sei es als Ingenieur oder Software-Entwickler. Die Verantwortung des Challenger-Unglücks lag sicherlich auch beim Management, weil sie nicht auf ihre eigenen „Profis“ hörte. Sie lag aber auch bei den Ingenieuren, die sich überstimmen ließen, obwohl sie diese Katastrophe voraussagen konnten. Was Martin sagen will: Profis zucken nicht mit den Schultern, wenn sie einen Fehler sehen und keiner auf sie hört, sondern sie setzen alles daran, dass nichts und niemand zu Schaden kommt.
Dementsprechend hat jeder Entwickler „seinen“ Code zu verantworten. Er soll zum einen keinen Schaden am Verhalten zulassen (eine Funktion verhält sich plötzlich anders als zuvor), aber auch keinen Schaden an der Struktur. Vor allem der letzte Punkt ist etwas, der bei langjährigen Projekten früher oder später immer zu einem Problem wird, weil sich die Entwickler nicht daran halten, z. B. durch Refactorings [2] für eine klare Struktur zu sorgen.

Testen, testen, testen

Was einen professioneller Entwickler laut Martin auch auszeichnet, ist, dass er weiß, dass sein Code funktioniert. Und hier bedeutet „wissen“ nicht bloß „glauben“, sondern er muss es beweisen können. Das geht entweder durch sehr intensives Code-Studium oder durch Tests, besser noch automatisierte Tests.
Robert C. Martin nennt hier vor allem den Begriff „Test Driven Development“ (kurz TDD [3]). Darunter versteht man, dass man zuerst den Test schreibt, der scheitert, und danach den Code, der den Test durchlaufen lässt.
TDD hat dabei noch andere Vorteile, aber in Bezug auf Professionalität zeigt es, dass der Code funktioniert und genau das tut, was man von ihm erwartet. Neben TDD geht Martin noch auf andere Teststrategien wie Akzeptanztests ein, denen ebenfalls ein eigenes Kapitel gewidmet ist.

Profis sind Teamplayer

Wer heute eine Stellenausschreibung für einen Job als Software-Entwickler anschaut, wird das Wörtchen „Teamarbeit“ so gut wie immer lesen. Nach Martin sind die meisten Entwickler zwar eher Einzelgänger und haben lieber mit abstrakten Problemen als mit Menschen zu tun, aber man kommt normalerweise auch nicht darum herum, mit anderen Leuten zusammenzuarbeiten. Hier stellt Martin heraus, dass ein Teamplayer nicht zu allem Ja und Amen sagt, sondern alles daran setzt, dass das Team als Ganzes vorwärts kommt.
Hierzu gehört eine klare Kommunikation mit dem Management und Kollegen. Wer kennt es nicht, dass der Software-Manager oder Product Owner auf einen zukommt und fragt: „Schaffst Du das bis nächste Woche Dienstag?“ und man antwortet: „Ich versuch's.“ In der Regel antwortet man nur so schwammig, weil man sich nicht sicher ist bzw. sich sogar sicher ist, es nicht zu schaffen, aber nicht Nein sagen will.
Der Software-Manager oder Product Owner hört aber aus dieser Aussage eher ein „Ja, das ist machbar.“ heraus. Man sollte also grundsätzlich klar ansagen, was möglich ist und was nicht. Und man sollte auch grundsätzlich nichts bloß versuchen. Oder wie Yoda schon sagte [4]: „Tu es oder tu es nicht. Es gibt kein Versuchen.
Zum Teamwork gehört es aber auch, Hilfe anzubieten, wenn man sieht, dass jemand irgendwo hängt. Ebenso sollte man sich Zeit für Kollegen nehmen, die eine Frage haben. Das muss ja nicht unbedingt sofort sein, aber fünfzehn Minuten später ist ja auch okay. Auf der anderen Seite sollte man in einem Team auch nicht zögern, um Hilfe zu bitten. Viele Menschen denken, dass Fragen ein Zeichen von Schwäche ist. Ganz im Gegenteil ist Fragen menschlich, denn niemand weiß alles. Anstatt eine Woche alleine an einem Problem zu knabbern, ist es sinnvoller, jemanden zu fragen, der die Antwort in zehn Minuten parat hat.

Zeiteinteilung und Stichtage

Zur korrekten Kommunikation mit dem Management zählt laut Martin auch, dass man Aufwände richtig abschätzt. Wie der Ausdruck „Aufwandsabschätzung“ aussagt, handelt es sich dabei um keine definitive Zusage, was allen Beteiligten klar sein sollte. Es kann mal kürzer oder mal länger dauern. Aus diesem Grund gibt Martin verschiedene Schätztechniken an. So werden zum einen das aus der Agilen Entwicklung bekannte „Planning Poker“ genannt, was auf der Delphi-Methode basiert [5]. Zum anderen wird aber auch PERT erwähnt, was für Program Evaluation and Review Technique steht [6]. Die Besonderheit ist hier, dass man die Schätzung nicht als einfache Zahl angibt, sondern als eine Art Mittel aus Bestfall, Normalfall und schlimmsten Fall. Hiervon berechnet Martin auch noch die Standardabweichung, um so die Abweichung für den Schlechtfall einzukalkulieren.
Damit man seine Aufgaben ordentlich und zeitgemäß erfüllen kann, gehört auch eine Zeiteinteilung. Zeitmanagement ist für einen Entwickler normalerweise sehr wichtig, da er viele Aufgaben „gleichzeitig“ bearbeiten oder zumindest im Kopf halten muss. Darauf wird in einem eigenen Kapitel auch eingegangen, was sich unter anderem dem leidigen Thema der Meetings widmet. Laut Martin ist es okay, ein Meeting frühzeitig zu verlassen (oder erst gar nicht teilzunehmen), wenn man nicht mehr benötigt wird. Vor allem die Aussagen, dass es die Pflicht des Vorgesetzten ist, dem Entwickler Meetings zu ersparen, ist interessant, denn oft sind es genau die Vorgesetzten, die einen zu diesen Meetings „ermuntern wollen“ (um es positiv auszudrücken).

Fazit

Lernt man durch das Buch, ein professioneller Programmierer zu werden? Hier kann man ein ganz deutliches und klares „Vielleicht“ als Antwort geben. Grund für diese ausweichende Antwort ist, dass das Wort Professionalität nicht fest von der Welt definiert ist. Robert C. Martin gibt seine Einschätzung, was er unter Professionalität versteht und wie man diese erreichen kann.
Unter dem Gesichtspunkt kann man zum Buch aber zumindest sagen, dass es wirklich sehr viele hilfreiche Tipps enthält, wie man ein besserer Programmierer werden kann. Angefangen bei der Verantwortung, die man für den Code hat, bis hin zu einer störungsfreien Kommunikation zwischen allen Parteien.
Interessant ist auch, dass Martin das Thema Karriere und Fortbildung in die Hände der Entwickler legt. Sicherlich hat auch eine Firma Interesse daran, seine Entwickler weiter auszubilden, um neuen Anforderungen gewachsen zu sein. (Aus einem anderen Buch zwischen zwei Managern: „Was ist denn, wenn wir unsere Leute teuer weiterbilden und sie dann den Job wechseln?“ – „Was ist, wenn wir sie nicht weiterbilden und sie bleiben?“) Aber Martin sieht es als Pflicht eines professionellen Programmierers an, sich auch privat weiterzubilden. Sei es durch kleine Fingerübungen am heimischen PC (am besten in einer Sprache, die man nicht täglich nutzt), bis hin zu Mentorenarbeit oder Hilfe in einem Open-Source-Projekt. (Martin selbst zeigt sich zum Beispiel für das Open-Source-Testing-Framework FitNesse [7] verantwortlich.)
Schön ist die klare Gliederung des Buches, deren Kapitel nicht aufeinander aufbauen. So kann man sehr leicht auch nur ein einzelnes Thema durchlesen oder etwas nachlesen, wenn es einen interessiert. Ebenfalls gut sind die Beispiele im Buch, die sehr oft als Gespräch zwischen zwei oder drei Beteiligten dargestellt werden. Nach einem Gespräch analysiert Martin dann, was und wie es gesagt wurde und wo es ggf. zu Problemen bei der Kommunikation kam. Das ist sehr anschaulich und verständlich, da fast jeder schon ähnliche Gespräche gehabt hat.
Eine Besonderheit, die es abschließend noch hervorzuheben gilt ist, dass Robert C. Martin sich gegen den Flow-Zustand [8] ausspricht. Das ist insoweit besonders, da fast alle Programmierbücher propagieren, dass man genau in diesem Zustand bessere Arbeit leistet. Martin ist ein Gegner dieses Flows und versucht alles, nicht dort hineinzukommen bzw. darin zu bleiben, weil man in dem Zustand zwar produktiver ist, aber auch Teile seines Gehirns für rationales Denken ausschaltet und somit eher Fehler macht.
Alles in allem ist „Clean Coder“ ein sehr schönes Buch, das, wenn es einen vielleicht auch nicht gleich professionell werden lässt, zumindest Tipps und Regeln an die Hand gibt, wie man ein besserer Programmierer werden kann.
Redaktioneller Hinweis: Da es schade wäre, wenn das Buch bei Dominik Wagenführ im Regal verstaubt, wird es verlost. Dazu ist folgende Frage zu beantworten:
Wie lautet der Spitzname von Robert C. Martin?
Die Antwort kann bis zum 8. Juni 2014, 23:59 Uhr über die Kommentarfunktion oder per E-Mail an redaktion@freiesmagazin.de geschickt werden. Die Kommentare werden bis zum Ende der Verlosung nicht freigeschaltet. Das Buch wird unter allen Einsendern, die die Frage richtig beantworten konnten, verlost.
Buchinformationen
Titel Clean Coder [9]
Autor Robert C. Martin (übersetzt von Jürgen Dubau)
Verlag mitp-Verlag, 2014
Umfang 216 Seiten
ISBN 978-3-8266-9695-4
Preis 34,99 € (Druck), 29,99 € (EPUB/PDF)

Links
[1] https://de.wikipedia.org/wiki/STS-51-L#Das_Challenger-Ungl.C3.BCck
[2] https://de.wikipedia.org/wiki/Refactoring
[3] https://de.wikipedia.org/wiki/Testgetriebene_Entwicklung
[4] http://www.jedipedia.de/wiki/Yoda
[5] https://de.wikipedia.org/wiki/Aufwandsschätzung_(Softwaretechnik)#Delphi-Methode_oder_Sch.C3.A4tzklausur
[6] https://de.wikipedia.org/wiki/Program_Evaluation_and_Review_Technique
[7] http://www.fitnesse.org/
[8] https://de.wikipedia.org/wiki/Flow_(Psychologie)
[9] http://www.it-fachportal.de/shop/buch/Clean Coder/detail.html,b191159
Autoreninformation
Dominik Wagenführ (Webseite) ist Software-Entwickler und hat in dem Buch ein paar gute Tipps gefunden, die ihm bei seiner Arbeit helfen können.

Beitrag teilen        Beitrag kommentieren

Zum Index

Leserbriefe

Für Leserbriefe steht unsere E-Mailadresse redaktion ETT freiesmagazin PUNKT de zur Verfügung - wir freuen uns über Lob, Kritik und Anregungen zum Magazin.
An dieser Stelle möchten wir alle Leser ausdrücklich ermuntern, uns auch zu schreiben, was nicht so gut gefällt. Wir bekommen sehr viel Lob (was uns natürlich freut), aber vor allem durch Kritik und neue Ideen können wir uns verbessern.

Leserbriefe und Anmerkungen

Linux auf dem Laptop (Acer Aspire V3-771G)

-> Danke für den Beitrag. Ich vermisse WLAN als Punkt. Gerade bei Linux Mint 16 Mate bzw. Ubuntu habe ich Probleme mit dem Broadcom-Treiber. Die Installation des Systems klappt, die Treiberinstallation aber erst nach einigen Anläufen. Hat man die Kiste am Laufen, sollte man ja immer gleich ein Update machen. Hinterher war WLAN wieder tot.
Das geht seit einigen Monaten mit verschiedenen Ubuntu-Derivaten so. Auch habe ich einige Systeme mit einem Update zerschossen, wo dann plötzlich die Grafik weg war oder Kernel-Panic kam. Egal ob Mate, Cinnamon, KDE.
Hilfreich wäre, diese Randerscheinungen, die vielleicht nicht ganz zum Thema passen, mit zu erwähnen. Vielleicht ärgert sich mancher User mit ähnlichen Themen rum und hasst es, wenn Linux immer hoch gelobt wird.
Ich bin dazu übergegangen, Konfigurationen erst anzugehen, wenn ein System alle Softwareinstallationen und einige Updates überlebt hat. Übrigens sterben auch andere Linux-Distributionen durch Updates.
Bitte beim nächsten Artikel auf eine stabile Distribution setzen und nicht einfach auf die möglicherweise falsche Rangliste bei Distrowatch gucken.
Olaf G.  (Kommentar)
<- Es gibt sicherlich auf verschiedenen Laptops immer schon mal wieder frustreiche Probleme mit spezieller Hardware. Breite und detaillierte Troubleshooting-Informationen in Bezug auf bestimmte Modelle und Distributionen findet man meistens im Linux-Laptop-Wiki [1].
Daniel Stender
-> Sehr schöner Artikel. Ich habe selbst schon mehrere Distributionen auf Acer-Laptops installiert (aktuell Mageia 4 auf Acer Travelmate P253" M. Sicher gibt es keine Garantie, dass jede Distribution auf jedem Acer auch läuft. Hier sollte man sich vorher informieren. Ein Problem konnte ich bisher nicht lösen: Einstellen der Helligkeit. Ich wüsste gerne, ob das für den Autor auch ein Problem war. Im Artikel steht leider nichts dazu.
Stefan Horn  (Kommentar)
<- Danke für das Lob. Die Bildschirmhelligkeit einzustellen über „Einstellungen -> Leistung“ auf Gnome3 funktioniert hier mit aktuellem Debian Testing auf dem Core i7-771G einwandfrei, dasselbe gilt auch für das Abdunkeln mit xbacklight. Das mag aber, wie auch das neulich reingekommene Update mit dem sich endlich das „Click-on-Tap“ des Touchpads über die Gnome3- Einstellungen auch abstellen lässt, eine neuere Entwicklung sein.
Daniel Stender

BeagleBone und tmux

-> Mich intessiert sehr der Titel „BeagleBone Black“. Ich hoffe, mehr Informationen darüber zu bekommen.
Für Japaner ist es sehr komisch, dass die zwei Wörter „Kung-Fu“ und „Ninja“ zusammen angezeigt werden: „Kung-fu“ ist chinesisch, und „Ninja“ ist japanisch.
Tsuyoshi Sakaguchi
<- Zum BeagleBone werden wir außer der Rezension des Gerätes und des Buches vorerst wohl nicht mehr veröffentlichten. Sollte ich mich weiter mit dem Gerät beschäftigen, könnte ich ggf. noch einen weiteren Artikel dazu schreiben.
Ihre Anmerkung bzgl. Ninja und Kung-Fu werde ich an den Autor des Artikels weiterleiten. Ich gehe davon aus, dass er einfach nur zwei interessant klingende, asiatische Wörter in seine Überschrift einbringen wollte.
Dominik Wagenführ

Empfehlen-Links im Magazin

-> Ich bin über Android jetzt bei Ubuntu eingestiegen und so auf euer Magazin gestoßen. Da ich meine Tageszeitung schon im EPUB-Format lese, fand ich es zusätzlich interessant, dass ihr auch EPUB's publiziert. Ich lese fast alles mit weißer Schrift auf schwarzem Hintergrund, da sich das als viel augenfreundlicher erwiesen hat (Moon Reader).
Ich habe euer Magazin verschlungen und hatte bei einem Link sogar eine echte Mail vom großen Meister Thorwald Linux vor mir … wow und Danke! Ich mag eure einfache und kurze Sprache: kurzen Hauptsätze, starke Verben und viel Persönlichkeit. Nochmal Danke! Ihr habt, wenn ich bei Ubuntu bleibe, woran ich leider zweifele, einen regelmäßigen Leser gewonnen.
Nun zu meinem Verbesserungsvorschlag, den ich übrigens auch an alle e-Reader-Programmierer sende: Ich hätte gerne am Ende jedes Artikels die Möglichkeit, den Artikel als Mail zu senden und weiterzuempfehlen mit einem Button. Dieses ewige Copy&Paste und der App-Wechsel gehen mir auf den Keks. So habe ich es unterlassen …
Mat Philips
<- Die Idee mit dem „Empfehlen“-Button haben wir für sehr sinnvoll gehalten und dazu auch einen kleinen Wettbewerb ausgeschrieben [2]. Alle eingereichten Icons können Sie übrigens auch auf der freiesMagazin-Webseite [3] betrachten. Wie im Editorial zu dieser Ausgabe beschrieben, finden Sie von nun an am Ende jeder Ausgabe zwei Icons mit Links, die es dem Leser ermöglichen, den Artikel per E-Mail weiterzuempfehlen oder auf unserer Webseite zu kommentieren.
Matthias Sitte
<- Bzgl. Ubuntu: Es gibt noch 1000 andere Linux-Distributionen in der Welt, testen sie doch eine bzw. mehren von diesen. freiesMagazin beschränkt sich nicht auf Ubuntu, sondern umfasst alle Linux- und Open-Source-Themen jeglicher Art.
Dominik Wagenführ

Artikelwünsche

-> Vielen Dank für die Leserbriefe, besonders für den über die pyladies. Ich hatte den komplett überlesen. Obwohl ich teilweise auch nicht direkt verstehe, was uns die gute Frau da sagen will.
Noch einen Tip: Kann jemand mal CAELinux testen? Ist für Wissenschaftler.
Matthias Kühmsted
<- Wir nehmen gerne CAELinux mit auf unsere Wunschliste [4]. Allerdings können wir nicht versprechen, einen Artikel über CAELinux zu veröffentlichen.
Da freiesMagazin keine feste Autorenmannschaft hat, sind wir auf Zusendungen aus der Community angewiesen. Dabei gilt: (Fast) Jeder kann einen Artikel über das schreiben, was ihn interessiert. Dazu möchten wir unsere Leser hiermit gerne ermutigen!
Als Autor sollte man natürlich Spaß am Schreiben haben und sich verständlich ausdrücken können, sodass jeder Leser den Artikel oder die Anleitungen nachvollziehen kann. Alle Artikel werden von der Redaktion vor einer Veröffentlichung durchgelesen und wir versuchen Tipps zu geben, was man noch verbessern kann, damit die Leser des Artikels später auch Spaß beim Lesen haben.
Wenn Sie nun Lust bekommen haben, einen Artikel für freiesMagazin zu schreiben, dann senden Sie uns doch eine E-Mail an redaktion ETT freiesmagazin PUNKT de oder nehmen Sie über das Kontakt-Formular [5] mit uns Kontakt auf.

Dominik Wagenführ
Links
[1] http://www.linlap.com/
[2] http://www.freiesmagazin.de/20140501-wettbewerb-neue-icons-fuers-magazin-gesucht
[3] http://www.freiesmagazin.de/20140524-gewinner-des-icon-wettbewerbs
[4] http://www.freiesmagazin.de/artikelwuensche
[5] http://www.freiesmagazin.de/kontakt
Die Redaktion behält sich vor, Leserbriefe gegebenenfalls zu kürzen. Redaktionelle Ergänzungen finden sich in eckigen Klammern.
Beitrag teilen        Beitrag kommentieren

Zum Index

Veranstaltungskalender

Messen
Veranstaltung Ort Datum Eintritt Link
Chaos Singularity BIEL 13.06.–15.06.2014 20 CHF http://www.cosin.ch/
StoM EU Karlsruhe 13.06.–15.06.2014 frei http://www.sotm-eu.org/
GPN14 Karlsruhe 19.06.–22.06.2014 http://gulas.ch/
Pi And More Trier 28.06.2014 frei https://sites.google.com/site/piandmore/
Maker World Friedrichshafen 28.06.–29.06.2014 9 EUR http://www.maker-world.de/
Maker Faire Hannover 05.07.–06.07.2014 10 EUR http://makerfairehannover.com/
(Alle Angaben ohne Gewähr!)
Sie kennen eine Linux-Messe, welche noch nicht auf der Liste zu finden ist? Dann schreiben Sie eine E-Mail mit den Informationen zu Datum und Ort an redaktion ETT freiesmagazin PUNKT de.
Zum Index

Vorschau

freiesMagazin erscheint am ersten Sonntag eines Monats. Die Juli-Ausgabe wird voraussichtlich am 6. Juli u. a. mit folgenden Themen veröffentlicht: Es kann leider vorkommen, dass wir aus internen Gründen angekündigte Artikel verschieben müssen. Wir bitten dafür um Verständnis.
Zum Index

Konventionen

An einigen Stellen benutzen wir Sonderzeichen mit einer bestimmten Bedeutung. Diese sind hier zusammengefasst:
$: Shell-Prompt
#: Prompt einer Root-Shell – Ubuntu-Nutzer können hier auch einfach in einer normalen Shell ein sudo vor die Befehle setzen.
~: Abkürzung für das eigene Benutzerverzeichnis /home/BENUTZERNAME
Zum Index

Impressum ISSN 1867-7991

freiesMagazin erscheint als PDF, EPUB und HTML einmal monatlich.
Erscheinungsdatum: 1. Juni 2014
Erstelldatum: 22. Juni 2014
Kontakt
E-Mail redaktion ETT freiesmagazin PUNKT de
Postanschrift freiesMagazin
c/o Dominik Wagenführ
Beethovenstr. 9/1
71277 Rutesheim
Webpräsenz http://www.freiesmagazin.de/
Autoren dieser Ausgabe
Hans-Joachim Baader Ubuntu und Kubuntu 14.04 LTS
Patrick Gundlach Professionelles Database Publishing
Christian Imhorst Torify: Programme im Terminal anonymisieren
Mathias Menzer Der Mai im Kernelrückblick
Christina Möller Rezension: Wissenschaftliche Arbeiten schreiben mit LaTeX
Andreas Müllhofer GPS: Tracks und Routen erstellen mit QLandkarte GT
Maria Seliger Äquivalente Windows-Programme unter Linux – Teil 5: Internet-Programme (2)
Sujeevan Vijayakumaran Kurztipp: Suchen und Finden mit ack statt grep, Rezension: Vim in der Praxis
Dominik Wagenführ Review: Papers, Please, Rezension: Clean Coder
Redaktion
Christian Schnell Matthias Sitte
Dominik Wagenführ (Verantwortlicher Redakteur)
Satz und Layout
Jonas Dabelow Dominik Frey
Moritz Kiefer Christoph Lehmann
Korrektur
Daniel Braun Frank Brungräber
Vicki Ebeling Stefan Fangmeier
Mathias Menzer Christian Schnell
Karsten Schuldt Toni Zimmer
Veranstaltungen
Ronny Fischer
Logo-Design
Arne Weinberg (CC-BY-SA 4.0 Unported)
Dieses Magazin wurde mit LaTeX erstellt. Mit vollem Namen gekennzeichnete Beiträge geben nicht notwendigerweise die Meinung der Redaktion wieder. Wenn Sie freiesMagazin ausdrucken möchten, dann denken Sie bitte an die Umwelt und drucken Sie nur im Notfall. Die Bäume werden es Ihnen danken. ;-)
Soweit nicht anders angegeben, stehen alle Artikel, Beiträge und Bilder in freiesMagazin unter der Creative-Commons-Lizenz CC-BY-SA 4.0 International. Das Copyright liegt beim jeweiligen Autor. Die Kommentar- und Empfehlen-Icons wurden von Maren Hachmann erstellt und unterliegen ebenfalls der Creative-Commons-Lizenz CC-BY-SA 4.0 International. freiesMagazin unterliegt als Gesamtwerk der Creative-Commons-Lizenz CC-BY-SA 4.0 Unported mit Ausnahme der Inhalte, die unter einer anderen Lizenz hierin veröffentlicht werden. Das Copyright liegt bei Dominik Wagenführ. Es wird erlaubt, das Werk/die Werke unter den Bestimmungen der Creative-Commons-Lizenz zu kopieren, zu verteilen und/oder zu modifizieren. Die xkcd-Comics stehen separat unter der Creative-Commons-Lizenz CC-BY-NC 2.5 Generic. Das Copyright liegt bei Randall Munroe.
Zum Index

File translated from TEX by TTH, version 3.89.
On 22 Jun 2014, 09:37.