Raspberry Pi – Temperaturmessung mit DS18B20 1-Wire Sensor

Raspberry Pi mit angeschlossenem 1-Wire DS18B20 Temperatursensor

Raspberry Pi mit angeschlossenem 1-Wire DS18B20 Temperatursensor

Mit dem 1-Wire Sensor DS18B20 können mit dem Raspberry Pi einfach Temperaturen messen. Dieser Sensor verwendet das 1-Wire Bussystem zur Ãœbertragung der Daten an den Raspberry Pi und kann an die GPIO Pins angeschlossen werden. Der Sensor benutzt dabei die drei Leitungen Masse, Spannungsversorgung und eine Signalleitung. Softwareseitig bringt die Raspbian Linux Distribution bereits die benötigten 1-Wire Kernel-Module mit um solche Sensoren auszulesen. Im nachfolgenden wird gezeigt wie der Sensor an den Raspberry Pi angeschlossen wird und die Temperaturwerte ausgelesen werden können.

Hardware-Installation des DS18B20

Der DS18B20 wird an die GPIO-Pins für 3,3V Spannung und Ground angeschlossen sowie an GPIO-Pin 4 für die Datenleitung. Zwischen die 5V Leitung und die Datenleitung wird 4k7 Ohm Wiederstand geschaltet. Das GPIO Pinlayout für den Raspberry Pi der Version 1 & 2 kann hier nachgeschlagen werden. Die untere Grafik zeigt den Aufbau der Schaltung:
Raspberry Pi DS1820 Steckplatine

Software-Installation des DS18B20

Die bereits angesprochenen 1-Wire Kernelmodule können mit folgendem Befehl geladen werden:

pi@raspberrypi ~ $ sudo modprobe wire
pi@raspberrypi ~ $ sudo modprobe w1_gpio
pi@raspberrypi ~ $ sudo modprobe w1_therm

Ob das Laden der Kenrel-Module erfolgreich war kann mit „lsmod“ überprüft werden:

pi@raspberrypi ~ $ sudo lsmod
Module                  Size  Used by
w1_therm                2705  0
w1_gpio                 1283  0
wire                   23530  2 w1_gpio,w1_therm
cn                      4649  1 wire
snd_bcm2835            12808  0

Damit die Kernel-Module nach einem Systemneustart automatisch geladen werden. Sollten sie in die Datei „/etc/modules“ eingetragen werden:

pi@raspberrypi ~ $ sudo nano /etc/modules

Module hinzufügen und speichern:
wire
w1-gpio
w1-therm

Ist die Hardware angeschlossen und die Kernel-Module geladen werden die Temperaturwerte laufend in eine Datei geschrieben. Es können mehrere Temperatursensoren angeschlossen werden, wobei jeder Sensor mit einem Verzeichnis unter „/sys/bus/w1/devices/“ auftaucht. Innerhalb des Verzeichnis eines Sensors kann die Temperatur aus der Datei „w1_slave“ ausgelesen werden. Mit dem „cat“ Befehl kann der Inhalt auf die Konsole ausgegeben werden.:

pi@raspberrypi ~ $ cat /sys/bus/w1/devices/28-00000436ccd1/w1_slave
41 01 4b 46 7f ff 0f 10 aa : crc=aa YES
41 01 4b 46 7f ff 0f 10 aa t=20062

t=20062 ist die aktuell gemessene Temperatur und entspricht 20,062 Grad.

Mögliche Verarbeitung der Temperaturdaten mit PHP, MySQL Datenbank und Webseitenanzeige

Raspi_DS18B20_TemperaturauswertungDie Temperaturwerte können auf verschiedenste Weise verarbeitet werden. z.B können sie in eine Datenbank geschrieben werden und auf einer Webseite veröffentlicht werden. Ich habe dazu ein Beispiel geschrieben, das die Temperatur im Tagesverlauf darstellt und noch einige Zusatzinformationen von Yahoo zieht. Das vorgehen wird hier nur grob beschrieben. Die benötigten Dateien sind am Ende des Artikels angefügt und können verändert werden.

1. Die Temperaturwerte werden in eine Tabelle einer MySQL Datenbank geschrieben. Wie eine MySQL DB auf dem Raspi installiert wird, ist hier beschrieben.:

use DB_NAME;
CREATE TABLE TB_Weather (
	timestamp BIGINT NOT NULL,
	temperature FLOAT,
	PRIMARY KEY (timestamp)
	)
	ENGINE=InnoDB;

2. Ein PHP Skript schreibt die Werte in die Tabelle. Falls der PHP Interpreter noch nicht installiert ist kann dies mit wie folgt erledigt werden. Damit kann das PHP-Skript auf der Console aufgerufen werden. „php -f temperatursensor.php“

sudo apt-get install php5
Module:
sudo apt-get install libapache2-mod-php5 libapache2-mod-perl2 php5 php5-cli php5-common php5-curl php5-dev php5-gd php5-imap php5-ldap php5-mhash php5-mysql php5-odbc

3. Mittels Cron können die Temperaturwerte zyklisch in die Datenbank geschrieben werden:

pi@raspberrypi ~ $ sudo crontab -e
In der Datei zyklisch das PHP Skript zum schreiben der Temperaturwerte aufrufrn:
*/5 * * * * php -f /home/pi/temperatursensor.php

4. Die Weboberfläche zur Auswertung der Temperaturdaten aus der DB muss auf einem Webserver wie Apache laufen und Zugriff auf die Datenbank haben.
Die Wetterinformationen werden mit dem Simple Weather Plugin von Yahoo ermittelt. Dazu muss in der index.php auf Clientseite die woeid (where on earth id) passend zu dem gewünschten Standort gesetzt werden. Die woeid kann mittels einer Suchmaschine ermittelt werden.

Download der Projektdateien zur Temperaturauswertung

Java Webanwendungen mit Maven erstellen

Das Grundgerüst einer Java-Webanwendung lässt sich mit Maven schnell erstellen. Webanwendungen stellen das GUI (Graphical User Interface) des Programms in Form von Webseiten mit HTML, CSS und JavaScript dar. Um die Programmoberfläche zu erstellen stehen verschiedene Java Frameworks bereit, wovon einige am Ende des Artikels genannt werden. Das fertige Kompilat / Programm ist eine Datei mit der Dateiendung *.war (Web Archive), welche in einem Servlet Container wie Tomcat oder einem Anwendungsserver wie Wildfly deployed wird.

Falls Maven noch nicht installiert ist, wird hier erklärt wie die Installation unter Windows durchgeführt werden kann.
Als erstes erstellen Sie ein Verzeichnis in dem die Webanwendung erstellt werden soll und navigieren in der Windows Konsole (Windows-Taste + R -> cmd ) in dieses Verzeichnis. Die grundlegende Struktur der neuen Webanwendung kann durch einen einzigen Maven Befehl erzeugt werden.

mvn archetype:create -DgroupId=GROUPID -DartifactId=ARTIFACTID -DarchetypeArtifactId=maven-archetype-webapp

Hier wird Maven (mvn) mit dem Create-Befehl für das archetype Plugin aufgerufen. Parameter werden mit „-D“ eingeleitet. Bei dem Anlegen des Webprojektes muss über die Parameter eine GroupID und eine ArtifactID übergeben werden.

groupId – Der Paketname für das Projekt. Als GroupId wird meist der Domain Name verwendet, unter dem die Anwendung später erreichbar sein soll. Die einzelnen Bestandteile des Domainnamen werden dabei in umgekehrter Reihenfolge angegeben.
artifactId – Der Projektname. Die ArtifactId wird als Verzeichnisname für das Projekt genutzt und ist später in der URL der Webanwendung vorhanden. http://localhost:8080/artifactID
archetypeArtifactId – Der Archetype gibt das von dem Create-Befehl verwendete Template an. In unserem Fall ist dies das Template für eine Webanwendung. Würde der Befehl werggelassen erstellt Maven ein Standard Java-Projekt.

Beispiel:

mvn archetype:create -DgroupId=net.it_adviser.webapp -DartifactId=WebApp -DarchetypeArtifactId=maven-archetype-webapp

Das Programm kann mit dem Maven Befehl Package im Root Verzeichnis der Anwendung kompiliert werden und somit die zur Distribution fertige WAR-Datei erstellt werden. Das fertige Kompilat befindet sich im „target“ Verzeichnis:

mvn package

In Eclipse kann das Mavenprojekt einfach importiert werden. Dazu wird der das neue Verzeichnis mit der Webanwendung in das Workspace Verzeichnis kopiert und anschließend importiert. Dazu sollte in Eclipse nicht das Embedded Maven genutzt werden, sondern die externe Maven-Installation. Dies kann Preferences eingestellt werden. (Window -> Preferences -> Maven -> Installations). Das neue Projekt kann einfach über das Menü importiert werden: (File -> Import -> Maven -> Existing Maven Projekt). Dort wählen Sie das Root Verzeichnis des neuen Webprojektes und importieren die POM-Datei (Project Object Model). Siehe Bild:

Maven_Projekt_Importieren

Projektstruktur im Eclipse Projektexplorer:
Java_Webprojekt_ProjectExplorer

Für die Erstellung einer ansprechenden Weboberfläche stehen eine reihe von Frameworks bereit. u.a:
Die „Klassiker“
JSP – Java Server Pages
JSF – Java Server Faces

Moderner
Primefaces
Richfaces
GWT – Google Webtoolkit
Vaadin (GWT basiert)
Sencha GXT (GWT basiert)

VMware vSphere (ESXi) – NFS Freigabe einbinden

VMware ESXi Server können im Netzwerk freigegebene Speicher über das NFS (Network File System) Protokoll als Datastore einbinden. Auf diesem Weg eingebundene Datenspeicher eignen sich gut um beispielsweise CD/DVD Images von Betriebssystemen zur Installation bereitzustellen oder um als Backup-Ziel für VMs zu dienen. Die VMs können im ausgeschalteten Zustand kopiert werden. (Rechtsklick auf den Datastore in vSphere -> Durchsuchen) Der Betrieb einer virtuellen Maschine auf einem NFS Storage ist möglich jedoch nicht empfehlenswert. Dazu sollte der Speicher per iSCSI eingebunden werden. Um einen NFS Datastore zum ESXi Server hinzuzufügen wählen Sie Konfiguration -> Speicher -> Speicher hinzufügen -> NFS und geben die IP Adresse des Server der die NFS Freigabe bereitstellt und den Freigabenamen ein. Siehe Bild:

vSphere ESXi NFS Freigabe einbinden

vSphere ESXi NFS Freigabe einbinden

Da ich privat ein Qnap NAS (Network Attached Storage) betreibe möchte ich hier noch kurz den Weg aufzeigen wie bei diesen NAS-Geräten Verzeichnisse über das NFS Protokoll bereitgestellt werden können. Dazu rufen Sie die Systemsteuerung auf und navigieren zu den freigegebenen Verzeichnissen (Systemsteuerung -> Privilegieneinstellungen -> Freigabe-Ordner – Aktion). Bei den Aktionen wird für die Zugriffsberechtigung der Berechtigungstyp „NFS-Hostzugriff“ gewählt und der IP Adresse des später zugreifenden Rechner uneingeschränkter Zugriff gewährt. Siehe Bild:

NFS mit Qnap NAS

NFS mit Qnap NAS

Apache Maven installieren

maven-logoMaven ist ein auf Java basierendes Build-Management-Tool der Apache Software Foundation mit dem standardisierte Java Programme erstellt und verwaltet werden können. Maven verfolgt dabei das Prinzip des „Convention over Configuration“ wodurch viele Schritte (u.a. Projektaufbau, Kompilieren, Testen, Packen, Distribution) über den gesamten Zyklus der Softwareerstellung standardisiert sind und automatisiert werden.

Installation von Apache Maven unter Windows

1. Maven benötigt das Java Development Kit (JDK).
2. Wenn das JDK vorhanden ist kann Maven heruntergeladen werden und in ein beliebiges Verzeichnis entpackt werden. z.B. nach C:\Maven
3. Anschließend müssen einige Systemvariablen gesetzt werden, die im Dialog Systemvariablen (Windows Taste + Pause Taste -> Erweiterte Systemeinstellungen -> Reiter „Erweitert“ -> Umgebungsvariablen…) gepflegt werden. Dabei müssen die Pfade zum Java SDK und Maven entsprechend ihrer Lage auf der Festplatte angepasst werden.

Systemvariablen setzen:

JAVA_HOME C:\Program Files\Java\jdk1.7 
M2_HOME C:\Maven
MAVEN_OPTS -Xms256m -Xmx512m 
PATH %JAVA_HOME%\bin;%M2_HOME%\bin

Maven Ungebungsvariablen

4. Die Installation kann überprüft werden, indem in der Windows Console (Windows-Taste + R ->“cmd“) der Befehl „mvn -Version“ aufgerufen wird:

C:\>mvn -version
Apache Maven 3.0.5 (r01de14724cdef164cd33c7c8c2fe155faf9602da; 2013-02-19 14:51:
28+0100)
Maven home: D:\Maven\bin\..
Java version: 1.7.0_21, vendor: Oracle Corporation
Java home: C:\Program Files\Java\jdk1.7.0_21\jre
Default locale: de_DE, platform encoding: Cp1252
OS name: "windows 7", version: "6.1", arch: "amd64", family: "windows"

5. Maven legt auf der lokalen Festplatte ein lokales Repository an, welches standardmäßig im Benutzerverzeichnis liegt:

  • unter XP im Verzeichnis C:\Dokumente und Einstellungen\{Kürzel}\.m2
  • unter Windows 7 im Verzeichnis C:\Users\{Kürzel}\.m2

Das Repository kann verschoben werden, indem in der „settings.xml“ die im oben genannten Pfad liegt der folgende Eintrag angepasst und aus dem Kommentar genommen wird:

D:/repository
SSH auf einem ESXi Server aktivieren

VMware vSphere (ESXi) SSH Zugang aktivieren

Ein ESXi Server basiert auf Linux und bietet daher die Möglichkeit einen SSH Zugang zu öffnen. Über SSH können z.B. virtuelle Maschinen gestartet und gestoppt werden und die VMs mit WinSCP kopiert werden. Das öffnen des SSH Ports stellt jedoch ein weiteres Einfalltor für Angreifer da und wird daher von VMware nicht empfohlen. Der vSphere Client zur Verwaltung eines ESXi host gibt bei aktivierten SSH daher eine entsprechende Warnmeldung aus. Wer in einer Testumgebung SSH aktivieren möchte kann dies ab ESXi Version 5.x wie folgt über den vSpehre Client erledigen:

SSH auf einem ESXi Server aktivieren

SSH auf einem ESXi Server aktivieren

SSH auf einem ESXi Server aktivieren

SSH auf einem ESXi Server aktivieren

Der Zugriff auf den ESXi Server kann danach von Windows aus über einen SSH Client wie Putty erfolgen. Der Benutzername und das Passwort sind das gleiche wie dem Login mit dem vSphere Client. Auf der Konsole stehen dann eine Reihe von Befehlen zur Verfügung. Unter anderem zum Starten und Stoppen von virtuellen Maschinen.

Liste aller verfügbaren VMs:

vim-cmd vmsvc/getallvms

Virtuelle Maschine herunterfahren:

vim-cmd vmsvc/power.off VM_NUMMER

Virtuelle Maschine starten:

vim-cmd vmsvc/power.on VM_NUMMER

Um die virtuellen Maschinen auf einen anderen Host zu kopieren kann das Programm WinSCP genutzt werden. Der Kopiervorgang geht deutlich schneller als über den in vSphere Client integrierten DataExplorer. Die VMs dürfen jedoch nur im ausgeschalteten Zustand kopiert werden. Sie liegen in diesem Verzeichnis:

/vmfs/volumes/DATASTORENAME/VM_VERZEICHNIS

Linux von Windows aus verwalten (Putty | WinSCP | VNC)

Putty – kostenloser SSH Client für Windows

Putty ist ein kostenloser SSH Client für Windows. Er muss nicht installiert werden, sondern die Exe-Datei kann direkt ausgeführt werden. Er verbindet sich über das SSH-Protokoll mit dem Linux Computer und überträgt die Linux Shell (Konsole) auf den Windows PC. Zum Verbinden muss lediglich die IP-Adresse oder der DNS Name des Linux Computers eingegeben werden.

Putty - Free SSH Client für Windows

Putty – Free SSH Client für Windows

WinSCP – sFTP, FTP & SSH Client

WinSCP ist ein grafischer Open Source SFTP und FTP Client für Windows, der auch das SCP-Protokoll unterstützt. Er ermöglicht einen gesicherten Datentransfer zwischen einem Windows- und Linux-Computer. Zum Verbinden reicht auch hier die IP-Adresse oder der DNS Name des Linux Computers und die bekannten Login-Daten.

WinSCP - Free sFTP, FTP und SSH Client

WinSCP – Free sFTP, FTP und SSH Client


WinSCP - Free sFTP, FTP und SSH Client

WinSCP – Free sFTP, FTP und SSH Client

VNC – Linux vom Windows-PC fernsteuern

Wer eine grafischen Desktop auf seinem Linux System nutzt kann mit VNC (Virtual Network Computing ) die Monitorausgabe auf seinen Windows Computer übertragen. Dies ist vergleichbar mit dem aus der Windows Welt bekannten RDP (Remote Desktop Protokoll).
Unter Windows muss dazu einer der zahlreichen VNC Clients installiert werden wie z.B. RealVNC. Auf dem Linux System wir das Gegenstück, ein VNC Server vorausgesetzt. Unter dem KDE Desktop kann der VNC Server wie folgt installiert werden Kontrollzentrum -> Internet -> Arbeitsfläche freigeben.

vSpehre Client zur Verwaltung eines vSphere Hypervisors (ESXi)

Kostenlose Virtualisierung mit VMware

Einleitung

VMwareLogo
VMWare ist ein im Silicon Valley ansässiges amerikanisches Unternehmen das sich auf Virtualisierungslösungen spezialisiert hat. Am bekanntesten sind die Produkte VMware Workstation und der vSphere Hypervisor (ESX) zur Betriebssystemvirtualisierung. Dabei wird die gesamte Computer Hardware simuliert, so das auf einer physikalischen Computer Hardware mehrere Betriebssysteme parallel laufen können. Das Unternehmen bietet für den Einstieg in die Virtualisierung einige Produkte kostenlos an, mit denen sich bereits gut Arbeiten lässt und die für kleinere Serverumgebungen ausreichend sind. Im nachfolgenden werden einige der frei verfügbaren Werkzeuge vorgestellt.

Client Virtualisierung – VMware Player

Der VMWare Player simuliert virtuelle Hardware unter Windows oder Linux und ermöglicht so den Betrieb virtueller Maschinen. Ãœber die GUI kann nur eine VM (Virtuelle Maschine) zeitgleich gestartet werden. Die Kommandozeile erlaubt über den Parameter „-x“ jedoch der Betrieb mehrerer parallel laufender VMs. Der Funktionsumfang ist gegenüber dem Produkt VMware Workstation eingeschränkt. Insbesondere fehlt die Funktion Snapshots zu erzeugen. Mit der Player Plus Version kann der Funktionsumfang erweitert werden.

Server Virtualisierung – VMware vSphere Hypervisor (ESXi)

VMware stellt mit dem vSphere Hypervisor eine kostenlose Lösung zur Servervirtualiserung bereit. vSphere Hypervisor ist ein Typ-1-Hypervisor der direkt auf die Serverhardware aufsetzt. Die eingesetzte Serverhardware sollte in der Kompatiblitätsliste von VMWare enthalten sein, damit der Hypervisor fehlerfrei funktioniert. Im Internet existieren Listen mit Conusmer Hardware die ebenfalls funktioniert und den Bau günstiger ESXi Server erlaubt. Von besonderer Bedeutung ist der eingesetzte RAID-Controller (Hardware RAID z.B. von Adaptec) und die CPU mit Virtualisierungstechnologie (z.B. Intel XEON mit VT (Intel Virtualization Technology)).

vSpehre Client zur Verwaltung eines vSphere Hypervisors (ESXi)

vSpehre Client zur Verwaltung eines vSphere Hypervisors (ESXi)

Der vSphere Hypvisor wird mit der Windows Software vSphere Client verwaltet. Sie erlaubt das Erstellen und Managen der virtuellen Maschienen mit Windows- oder Linux Betriebssystem. VMware vSphere speichert virtuelle Maschinen in sogenannten Datastores und dort in Verzeichnissen. Die wichtigsten Dateien sind Konfigurationsdateien (*.vmx) und virtuelle Festplatten (*.vmdk). Als Datastores kommen Festplatten (RAID Systeme) mit VMFS (Virtual Machine File System) oder NFS-Shares zum Einsatz. Die Festplatten können lokal im Server vorhanden sein oder über ein SAN (via HBA oder iSCSI) bereitgestellte LUN sein.
Die kostenlose Version des Hypervisor ist eingeschränkt. So sind nur zwei physikalische CPU Sockel verfügbar und die Management Software bietet nicht alle Profi Funktionen. Dazu zählen u.a. HA (High Availability), vMotion (live Migration laufender VMs) und Snapshots (Systemzustans zum Zeitpunkt X einfrieren).

Tools

Um das Virtualisierungs-Ökosystem von VMware gibt es viele Tools von Third-Party Herstellern aber auch von VMWare direkt, die das Management der Virtualisierungsumgebung vereinfachen. Im folgenden werden einige kostenlose Tools kurz vorgestellt.

VMware vCenter Converter

Der vCenter Converter ermöglicht das Erstellen virtueller Maschinen von physikalischen Computern (physical-to-virtual migration, P2V) oder System-Images die in den unterschiedlichsten Dateiformaten vorliegen können.

VMware vCenter Converter - Migration von VMs

VMware vCenter Converter – Migration von VMs

vCMA (vCenter Mobile Access Server)

VMware vCenter Mobile Access (vCMA) iPad App

VMware vCenter Mobile Access (vCMA) iPad App

Die ist eine vorkonfigurierte virtuelle Appliance die innerhalb eines vSphere Hypervisor deployed werden kann und einige Verwaltungs und Ãœberwachungsfunktionenen des ESXi Servers auf mobilen Geräten verfügbar macht. Der Zugriff kann über einen Webbrowser oder eine native iPad App erfolgen. Das System ist unter Adresse „https://ip-address/vim“ und der Management URL „https://ip-address:5480“ erreichbar.

Virtual Disk Development Kit (VDDK)

Das VDDK stellt ein Kommandozeilentool „vmware-vdiskmanager“ für die Offline-Wartung (VM darf nicht im Betrieb oder pausiert sein) von virtuellen Festplatten (VMDK-Dateien) zur Verfügung. Das Tool ermöglicht mit dem Parameter „-c“ das Erstellen von VMDK Dateien. Mit dem Parameter „-d“ kann ein bestehender VMDK-Datenträger defragmentiert werden und mit dem Parameter „-R“ kann die Konsistenz geprüft werden.
Mit dem enthalten Tool „vmware-mount“ kann ein VMDK-Datenträgern mit einem Laufwerksbuchstaben in den Windows-Explorer integriert werden. Genauere Informationen finden sich in dem Handbuch.

vmware-mount [driveletter:] [path-to-vmdk] [options]

Winmount

Das Tool Winmount erlaubt das Mounten virtueller VMWare Festplatten. Die VMDK (Virtual Machine Disk) Dateien erhalten damit einen Laufwerksbuchstaben und können über den Explorer gelesen und beschrieben werden.
WinMount_VMDK

Grundlagen des Cloud Computing

Cloud Computing tritt in verschiedenen Facetten auf, wodurch der Begriff für unterschiedlichste Technologien verwendet wird. Siehe auch Basistechnologien des Cloud Computing. Er ist bis heute nicht eindeutig definiert. Viele Bücher ziehen jedoch die Erläuterung der auf IT-Entwicklung spezialisierten Marktforschungsunternehmen Gartner und Forrester Research heran. Gartner beschreibt Cloud Computing als „a style of computing where massively scalable IT-related capabilities are provided „as a service“ using Internet technologies to multiple external customers.“
 

In der Arbeit wird der Begriff Cloud Computing für Dienste verwendet, die die folgenden Kriterien erfüllen:

  • Zentralisierter Dienst der es ermöglicht, Anwendungen zu betreiben und der über das Internet für jeden zugänglich ist
  • Die Kosten für den Dienst sind Nutzungsabhängig nach dem „pay as you use“ Prinzip
  • Die technische Infrastruktur ist von der physikalischen Infrastruktur abstrahiert
  • Einfache Skalierung der benötigten Ressourcen

Anwendungsfälle für Cloud Computing Web-Anwendungen

Cloud Web-Anwendungen können unterschiedlichste Anwendungsfälle abdecken. Die wichtigsten wurden durch das Projekt BEinGRID (Business Experiments in GRID) anhand konkreter Anwendungsfälle identifiziert. BEinGRID war das größte Projekt im 6. EU-Rahmenprogramm für Forschung, Technologische Entwicklung und Demonstration (FP6). Die nachfolgende Tabelle stellt die wichtigsten Anwendungsfälle dar:

 

Charakteristik der Anwendung

Beispiel Anwendung

Massive Skalierbarkeit

Soziale Netzwerke und Marketing Aktionen die über Soziale Netzwerke durchgeführt werden

Hohe Zuverlässigkeit

eCommerce Anwendungen

Variable Lasten

Online Shops wie Amazon (z.B. Lastspitzen zur Weihnachtszeit)

Unvorhersehbare & ggf. kurze Laufzeit

Webseiten für Events

Massives Parallel Computing

Große Datenberechnungen. Z.B. Genom Entschlüsselung

Bedarf an großen Speichermengen

Online Video Portale

Management der technische Infrastruktur einsparen

SaaS Anwendungen wie Google Docs

Anwendungen die nicht gut für On-Premise Hosting geeignet sind

Anwendungen die laufend aktualisiert werden.

Tab. 1 Anwendungsfälle für Cloud Computing

 

Ebenen des Cloud Computing

Cloud Computing Anbieter bieten Dienste auf unterschiedlichen Ebenen an, wobei die Ebenen theoretisch betrachtet aufeinander aufbauen. Die unterste Ebene bildet IaaS (Infrastructure as a Service) und stellt den darüber liegenden Ebenen die technische Infrastruktur zur Verfügung. Darauf baut die PaaS (Plattform as a Service)-Ebene auf, in der der Cloud Computing-Anbieter eine komplett verwaltete Systemumgebung mit diversen Services zur Verfügung stellt. In der höchsten Abstraktionsstufe SaaS (Software as a Service) werden komplette Web-Anwendungen zur Verfügung gestellt, die der Kunde nach dem „Pay-per-Use“ Prinzip nutzen kann.

Im nachfolgenden werden die einzelnen Ebenen genauer betrachtet:

 

CloudComputing_EbenenAbb. 2 Ebenen des Cloud Computing

Infrastructure as a Service (IaaS)

IaaS stellt die unterste Schicht im Cloud Computing dar. Der Cloud Computing Anbieter stellt eine virtuelle Infrastruktur zur Verfügung. Dazu zählen insbesondere virtuelle Server, Speichersysteme, Datenbanken und Netzwerke. Auf den virtuellen Servern kann der Kunde eigene Betriebssysteme und Software installieren. Die Flexibilität gegenüber PaaS ist deutlich höher, wird aber damit erkauft, dass der IaaS Nutzer die softwareseitige Administration der Server selbst übernehmen muss.

 

Die Kosten für IaaS-Lösungen sind nicht fix wie bei dem traditionellen Server Hosting, sondern abhängig von den verwendeten Ressourcen (u.a. CPU (Central Processing Unit) Zeiten und Speicherverbrauch).

Plattform as a Service (PaaS)

Die vorliegende Arbeit konzentriert sich überwiegend auf die PaaS-Ebene. Auf dieser Ebene stellen die Cloud-Anbieter einzelne Entwicklungswerkzeuge und Dienste zur Verfügung, die Anwendungsentwickler zu Programmierung neuer IT-Lösungen oder zur Anpassung bestehender IT-Lösungen an Cloud-Umgebungen nutzen können. Die entwickelten Anwendungen können als SaaS-Lösung über den Cloud-Anbieter bereitgestellt werden, der sich um die Administration der technischen Infrastruktur kümmert.

PaaS-Anbieter stellen Frameworks mit speziellen APIs für den Zugriff auf ihre Dienste wie Datenspeicherung, Datenbanken und Messaging Services zur Verfügung. Diese sind zumeist nicht kompatibel mit den APIs der konkurrierenden Cloud-Anbieter und führen zum „Vendor Lock-In“ genannten Problem, welches einen schnellen Wechsel zu einem anderen Cloud-Anbieter verhindert. Programme die für einen Anbieter entwickelt worden, müssen beim Wechsel auf eine andere Cloud-Plattform aufwändig angepasst werden. Wie groß der Aufwand ist, hängt von der speziellen Implementierung des Programmes ab. Daher sollte bereits beim Design der Anwendung auf eine möglichst große Interoperabilität geachtet werden. Diese kann beispielsweise durch Nutzung einer Zwischenschicht wie JPA (Java Persistence API) beim Zugriff auf die Datenbank des Cloud-Anbieters erhöht werden. Das IEEE (Institute of Electrical and Electronics Engineers) hat zu diesem Thema die Arbeitsgruppe P2301 gegründet, die die Interoperabilität der PaaS Cloud-Umgebungen erhöhen soll.

Software as a Service (SaaS)

SaaS arbeitet auf der obersten Schicht des Cloud Computing. Unternehmen, die SaaS anbieten, stellen ihren Kunden komplette Programme zur Verfügung, die über einen Browser abgerufen werden können. Die Software läuft auf der Infrastruktur des Cloud-Anbieters. Der Kunde spart somit Investitionen in Anwendungsserver und Softwarelizenzen. Er mietet die Software gegen eine monatliche Gebühr so lange er sie benötigt.

Gründe gegen die Nutzung einer SaaS Lösungen können die Datenhaltung beim SaaS-Anbieter und die erschwerte oder gar unmögliche Integration der SaaS-Anwendung in die bestehende Anwendungslandschaft des Kunden sein.

Cloud-Typen

Eine Cloud kann neben den verschiedenen Service-Ebenen auch durch den physischen Standort der Server Hardware und den Nutzerkreis, welcher auf die Cloud zugreifen darf, unterschieden werden.

CloudComputing_TypenAbb. 3 Cloud-Typen

Private Cloud

Bei der Private Cloud befindet sich die gesamte Hardware innerhalb des Unternehmens. Die IT-Abteilung des Unternehmens ist für die Administration des Cloud-Systems zuständig und kann die Sicherheit der unternehmenskritischen Daten gewährleisten. Es findet keine Ressourcenteilung mit anderen Cloud-Nutzern statt, sodass eine hohe Performance garantiert ist.

Eine Spezialform der Private Cloud ist die Community Cloud, bei der sich eine eingeschränkte Gruppe von Unternehmen eine Cloud teilen.

 

Public Cloud

Eine Public Cloud ist generell jedem zugänglich und stellt seine Dienste in einem öffentlichem Netzwerk wie dem Internet zur Verfügung. Es findet eine Ressourcenteilung statt, bei der mehrere Kunden sich die gleiche physikalische Hardware teilen. Die Trennung der Kunden wird per Software über Zugriffsbeschränkungen geregelt. Durch Load Balancing und Monitoring sorgen die Public Cloud-Anbieter dafür, dass immer genügend Leistungsreserven zur Verfügung stehen. Durch den großen Nutzerkreis können Skaleneffekte besonders gut genutzt werden, wodurch Public Cloud-Dienste relativ kostengünstig sind. Die Bezahlung der Dienste erfolgt meist monatlich auf Basis der in Anspruch genommen Ressourcen.

Hybrid Cloud

Die Hybrid Cloud stellt eine Mischform der beiden Ansätze dar und versucht die Vorteile der beiden Techniken zu vereinen und die Nachteile zu substituieren.
Aufgrund der verschiedenen Maßstäbe der Cloud-Typen in Bezug auf Sicherheit und zugesicherter Privatsphäre eigenen sich unternehmenskritische Anwendungen eher für den Betrieb in einer Private Cloud, wo hingegen weniger kritische Anwendungen auf IT-Ressourcen in einer Public Cloud ausgelagert werden können. Die Systeme oder Teile von einzelnen Systemen können somit als SOA umgesetzt werden und auf verschiedenen Cloud-Typen laufen. Die Kommunikation der Dienste läuft über gesicherte und standardisierte Interfaces. Dieser Zusammenschluss aus Private Cloud und Public Cloud wird als Hybrid Cloud bezeichnet.

Basistechnologien des Cloud Computing und von Cloud-Anwendungen

Im nachfolgenden werden einige der Basistechnologien des Cloud Computing vorgestellt, um eine Wissensbasis für die nachfolgenden Kapitel zu schaffen.

Open Source

Unter Open Source fällt Software, deren Quellcode unter einer von der OSI (Open Source Initiative) anerkannten Lizenz steht und somit öffentlich verfügbar ist. Die Software kann von jedermann kostenfrei genutzt und weiterentwickelt werden.

Für das Cloud Computing von besonderer Bedeutung sind insbesondere einige größere Open Source Projekte aus den Bereichen Virtualisierung, NoSQL-Datenbanken und der verteilten Speicherung von Binärdaten, die teilweise von den Cloud Anbietern verwendet werden und an entsprechender Stelle in der Arbeit erwähnt und ggf. näher erklärt werden.

Neben der Nutzung vereinzelter Open Source Software durch die Cloud-Anbieter existieren komplette Open Source Cloud Implementierungen. Dazu zählen die Projekte Eucalyptus (Elastic Utility Computing For Linking Your Programs To Usefull Systems), OpenNebula, Open QRM und OpenStack. Das Projekt Eucalyptus ist besonders interessant, da es schnittstellenkompatibel mit den Amazon-Diensten EC2, S3 und EBS ist.

Virtualisierung

Virtualisierung ist eine der grundlegenden Technologien, die Cloud Anbieter zur Realisierung ihrer Dienste verwenden. Eine eindeutige Definition ist nicht möglich, da die Anwendungsfälle und eingesetzten Technologien im Bereich der Hard- und Software verschieden sind. Das grundlegende Ziel von Virtualisierung ist jedoch die Schaffung einer logischen Abstraktionsschicht zwischen Hardware-Ressourcen und der darauf laufenden Software, so dass die Software von der Hardware entkoppelt ist.

 

Virtualisierung kann auf verschiedenen Ebenen stattfinden, die anschaulich im nachfolgend dargestellten Modell der Kusnetzky Group beschrieben werden. Im Bereich des Cloud Computing sind die unteren drei Ebenen sowie die Security- und Management-Ebene von Bedeutung:

 

Abb. 4 Ebenen der Virtualisierung

 

Processing virtualization

Die Processing virtualization wird genutzt, um auf einem physikalischen Server zeitgleich mehrere Server laufen zu lassen. Um dies zu erreichen, können zwei Kategorien von Virtualisierungstechnologien eingesetzt werden. Zum einen die „Voll Virtualisierung“, bei der die komplette Hardware eines Computers virtuell nachgebildet wird und zum anderen die „Para Virtualisierung“, bei der der Kernel des Gast OS (Operating System) angepasst werden muss. Der bekannteste Vertreter der Para Virtualisierung ist das Produkt XEN, bei dem die Gast OSs direkt auf der Hardware des Host System laufen. Aus diesem Grund ist XEN extrem schnell weswegen Amazon für seine EC2-Instanzen auf diesen setzt.

Im Nachfolgenden werden die bekanntesten Hypervisor Technologien aufgelistet:

 

Voll Virtualisierung Hypervisor Technologien:

  • VMware    (Closed Source)
  • HyperV     (Closed Source)
  • QEMU    (Quick Emulator, Open Source)
  • KVM        (Kernel-based Virtual Machine, Open Source)
  • Virtual Box     (Open Source)

Para Virtualisierung Hypervisor Technologien:

  • XEN        (Open Source)

     

Network virtualization

Network virtualization ermöglicht durch Hard- und Software-Technologien eine logische Sicht auf das Netzwerk, die sich von dem tatsächlichen physikalischen Aufbau des Netzwerkes unterscheidet und meist zentral über eine Management Software VIM (Virtual Infrastructure Manager) gesteuert werden kann. Dadurch können auf einfache Weise Teilnetze gebildet werden, in denen Computer zu Gruppen zusammengefasst sind, die gegenseitig Daten austauschen dürfen. Eine Technik zur Bildung der Teilnetze ist VLAN (Virtual Local Area Network).

Eine weitere häufig eingesetzte Technologie ist die Bündelung mehrerer Netzwerkverbindungen zu einer logischen Verbindung. Dadurch werden die Datenübertragungsrate und die Zuverlässigkeit erhöht. Eine mögliche Technologie zur Umsetzung bietet das nach IEEE 802.3ad spezifizierte LACP (Link Aggregation Protocol).

Weitere Technologien sind NAT (Network Address Translation), Network Isolation sowie komplett virtuelle Switche in den eingesetzten Hypervisor-Produkten.

 

Storage virtualization

Mit Storage virtualization wird eine logische Schicht zwischen den physischen Systemen zur Datenhaltung wie SAN (Storage Area Networks) und RAID (Redundant Array of Independent Disks) und den darauf zugreifenden Servern gebildet. Anwendungen greifen auf diese Zwischenschicht zu und brauchen damit nicht mehr genau wissen, auf welcher Festplatte, Partition oder Speicher-Subsystem die Daten liegen. Das Management der Datenhaltung wird damit zentralisiert und vereinfacht. Die Kapazität lässt sich je nach Bedarf nahezu beliebig skalieren, weshalb Cloud-Anbieter diese Technologie einsetzen. Mit HDFS (Hadoop Distributes File System) existiert eine Open Source Lösung der Apache Software Foundation, die es erlaubt mehrere Petabyte an Daten über viele Speicherknoten zu verteilen.

 

Aspekte die für die Nutzung von Virtualisierungs €“Techniken bei Cloud-Anbietern sprechen:

  • Bessere Auslastung der Hardware-Ressourcen, da mehrere virtuelle Instanzen auf der gleichen physikalischen Hardware laufen können.
  • Verringerter Energiebedarf der Server aufgrund der besseren Auslastung
  • Geringere Hardware Kosten, da bei guter Disaster Recovery günstigere Consumer Hardware eingesetzt werden kann.
  • Schnelle Disaster Recovery bei der die MTTR (Mean Time To Recovery) deutlich gesenkt ist. Virtuelle Maschinen können häufig ohne Service-Unterbrechung im laufenden Betrieb auf andere Hosts verschoben werden.
  • Das Deployment neuer Server geht aufgrund von fertigen Server Images sehr schnell.
  • Es existiert ein zentrales Management für die virtuellen Server.

NoSQL-Datenbanken

NoSQL steht für Not only SQL und bezeichnet eine neue Art von Datenbanken, die nicht den viel genutzten relationalen Ansatz verfolgen. Es handelt sich bei ihnen um strukturierte Datenspeicher, die keine festgelegten Tabellenschemata verwenden und zumeist ohne Joins auskommen. Sie skalieren sehr gut horizontal, d.h. durch das Hinzufügen weiterer Datenbankserver und können große Datenmengen schnell verarbeiten, weshalb sie gut für das Cloud Computing geeignet sind. Die Abfrage der Daten erfolgt in einer proprietären Sprache, die jedoch häufig an SQL angelehnt ist. Zumeist werden nicht alle ACID (Atomicity, Consistency, Isolation und Durability)-Eigenschaften durch die NoSQL Datenbanken erreicht. Insbesondere wird das Prinzip der Isolation und Konsistenzhaltung nur begrenzt umgesetzt, da häufig auf Transaktionen und Normalisierung verzichtet wird.

Es haben sich vier grundlegende Formen der NoSQL Datenbanken herausgebildet:

 

Key-Value-Datenbank

Die meisten NoSQL-Datenbanken arbeiten als Key-Value Store. Hierbei wird ein Schlüssel verwendet, der auf einen bestimmten Wert verweist. Das Verfahren ist mit den aus der Programmierung bekannten Hash Maps oder assoziativen Arrays vergleichbar, wo über einen Namen auf den Wert zugegriffen werden kann. Jeder der in dieser Arbeit vorgestellten Cloud Computing-Anbieter bietet eine NoSQL basierte Datenbank nach dem Key-Value Prinzip an. Google BigTable, Amazon SimpleDB und Microsoft Azure Table.

 

Spaltenorientierte-Datenbank

Spaltenorientierte Datenbanken speichern die Daten als Schlüssel-Wert-Relation. Sie haben eine sehr hohe Performance, da aufgrund ihres Designs eine Minimierung der Festplatten I/O Aktivität vorliegt. Der bekannteste Vertreter dieser Gattung von NoSQL-Datenbanken ist Cassandra. Cassandra ist aktuell ein Top Level Projekt der Apache Foundation und wird bei den Webdiensten Facebook, Twitter und Digg verwendet.

 

Dokumentenorientierte Datenbank

Diese Form der NoSQL-Datenbanken speichert Textdaten beliebiger Größenordnung ab. Die Daten werden als Ganzes betrachtet und nicht weiter unterteilt. Die Datenbank nimmt eine Indexierung der Daten vor und erlaubt einen Zugriff nicht nur über den Primärschlüssel, sondern auch über die Dokumenteninhalte. Die bekanntesten Open Source Vertreter dieser Datenbank Kategorie sind CouchDB und MongoDB.

 

Graphen-Datenbank

Graphen-Datenbanken werden seltener eingesetzt und decken ganz spezielle Anwendungsfälle ab. Sie speichern die Beziehung zwischen Elementen in einem Graphen. Dabei kann es sich beispielsweise um ein Beziehungsgefüge in einem sozialen Netzwerk handeln. Open Source-Implementierungen sind z.B. Neo4j und FlockDB, die von dem Webdienst Twitter genutzt wird.

 

NoSQL-Datenbanken sind nicht für alle Anwendungsfälle geeignet. Es gilt genau abzuwägen, ob die Vorteile die Einschränkungen gegenüber traditionellen relationalen Datenbanken rechtfertigen.

Serviceorientierte Architekturen (SOA)

Serviceorientierte Architekturen stellen ein Architekturmuster dar, um Softwaresysteme für verteilte Systeme umzusetzen. Der Begriff wurde erstmalig 1996 durch das Marktforschungsunternehmen Gartner benutzt. Es existiert keine eindeutige Definition, jedoch wird häufig die Definition der OASIS (Organization for the Advancement of Structured Information Standards) aus dem Jahr 2006 zitiert:

„SOA ist ein Paradigma für die Strukturierung und Nutzung verteilter Funktionalität, die von unterschiedlichen Besitzern verantwortet wird.“

Das Unternehmen hat ein Referenz Modell zur Umsetzung von Software Architekturen nach dem SOA Konzept entwickelt. Dabei werden Services generell aus einer Geschäftssicht und einer technischen Sicht beschrieben.

 

Die Ziele von SOA sind:

  • Flexibilisierung bestehender Prozesse durch modularen Aufbau und Kapselung einzelner Dienste
  • Dienste können wiederverwendet werden und zeichnen sich durch klar definierte und strukturierte Interfaces aus.
  • Kommunikationsinterfaces nutzen implementations unabhängige Standards wie XML, JSON und SOAP.
  • Schnelle Anpassung der Systeme an geänderte externe Einflüsse

SOA ist für Cloud-Anwendungen interessant, da es eine etablierte Architektur zur Verknüpfung von Cloud-Resourcen zur Verfügung stellt. Es existieren klar definierte

Designrichtlinien und Handlungsempfehlungen zum Aufbau der Dienste.

Webservices REST und SOAP

Bei REST (Representational State Transfer) und SOAP (Simple Object Access Protocol) handelt es sich um essentielle Techniken für die Benutzung und zur Verfügung Stellung von Webservices. Sie ermöglichen den Informationsaustausch zwischen IT-Systemen, wobei zumeist das XML- oder JSON-Format benutzt wird. REST und SOAP stehen somit in direkter Konkurrenz zueinander. Cloud Anbieter bevorzugen in der Regel das REST Protokoll, weshalb dieses im nachfolgenden näher beschrieben wird. REST wurde mit der Dissertation von Roy Fielding in Jahr 2000 bekannt. Es gibt fünf grundlegende Punkte die einen REST Services beschreiben:,,

 

Adressierbarkeit

Jede verteilte Ressource hat eine eindeutige Adresse, den URI (Uniform Ressource Identifier). Zur Identifizierung der Ressource wird zumeist eine Webadresse der folgenden Form verwendet:

http(s)://host:port/pfad/abfrage?parameter#fragment

 

Eindeutige und klar definierte Operationen

REST verwendet einfache Operationen, die auf jeden Dienst angewandt werden können. Dabei wird auf die im HTTP spezifizierten Operationen, GET, PUT, POST, DELETE, HEAD und OPTIONS zurückgegriffen.

 

 

Repräsentationsorientiertheit

Die unter einer Adresse zur Verfügung gestellten Daten können in unterschiedlichen Formen vorliegen. Insbesondere das im nachfolgenden Kapitel vorgestellte XML und JSON Format haben sich durchgesetzt.

 

Zustandslose Kommunikation

REST ist ein zustandsloses Kommunikationsprotokoll, bei dem jede Nachricht alle Informationen enthält um sie zu verstehen. Jede Anfrage des Clients an den Server ist in sich geschlossen. Der Server muss daher keine Zustandsinformationen zwischen zwei Anfragen speichern. Durch die Zustandslosigkeit können Webservices gut skaliert werden.

 

Verwendung von Hypermedia

In REST Services können Standard-Hypermedia Elemente verwendet werden. Dazu zählen insbesondere auch Hyperlinks, die Verknüpfungen zu anderen Elementen aufbauen.

Datenaustausch-Formate XML und JSON

Die Formate XML (Extensible Markup Language) und JSON (JavaScript Object Notation) werden von Cloud-Anbietern und auch den auf Cloud-Technologie aufsetzenden Web-Anwendungen innerhalb ihrer REST und SOAP Services zum Datenaustausch genutzt. Sie verwenden Plain-Text, wodurch die übertragenen Daten von Menschen lesbar sind.

XML wurde durch das W3C (World Wide Web Consortium) spezifiziert und ist verwandt mit HTML (HyperText Markup Language). Tags zur Datendefinition können im Gegensatz zu HTML jedoch frei gewählt werden. Ãœber eine DTD (Document Type Definition) kann festgelegt werden welche Elementtypen eine XML Datei beinhalten darf und welche Werte die Attribute annehmen dürfen.

JSON stellt eine Art serialisierte Form der aus Programmiersprachen bekannten Arrays und Objekten dar. JSON reicht dabei nicht an alle Funktionen von XML heran. U.a. werden keine Schemadaten, Metadaten oder eine klare Unterscheidung zwischen Attributen und Werten durchgeführt. Gerade wegen der Einfachheit und der Möglichkeit die JSON kodierten Daten bei einer AJAX (Asynchronous JavaScript and XML) basierenden Web-GUI (Graphical User Interface) wieder in JavaObjekte zu konvertieren, wird das Format gerne für die Ãœbertragung von Daten zwischen Web-/Anwendungsservern und einer Web-GUI genutzt.