IT und Nachhaltigkeit

Die Rolle der IT für die Zukunft unserer Umwelt

Nachhaltigkeit und Umweltschutz sind die großen Themen unserer Lebenszeit und wohl auch der nahen Zukunft. Gleichzeitig leben wir im digitalen Zeitalter – dass sich diese beiden Bereiche in bestimmten Aspekten überlagern, sollte keine Überraschung sein. Wir geben einen Überblick über einige Felder, in denen die IT Branche mit diesen Problemen in Berührung kommt und wie beide künftig zusammenwirken können.

Die wachsende Rolle von IT für unseren Energieverbrauch

Informations- und Kommunikationstechnologien – IKT – haben viele Berührungspunkte mit der Thematik der Nachhaltigkeit.

Die Digitalisierung hält vor keinem Aspekt unseres Lebens an –immer mehr digitale Endgeräte umgeben uns im Alltag. Es ist zweifellos eine Tatsache, dass mit der wachsenden Zahl an elektrischen Geräten ein größerer Stromverbrauch einher gegangen ist – sowohl in Privathaushalten, als auch in der Wirtschaft wird deutlich mehr Elektrizität eingesetzt, als noch vor nur 25 Jahren.

Etwas unter zehn Prozent der global erzeugten elektrischen Energie und etwa zwei Prozent der CO2-Emissionen werden durch IKT bedingt. Das sind Werte aus den letzten Jahren – bis 2020 wird eine Erhöhung dieses Energiebedarfs auf bis zu 14 Prozent prognostiziert.

Die Welt ist also schon zu einem so großen Teil digitalisiert, dass die Anwendung der damit verbundenen Technologien einen deutlich spürbaren Teil des weltweiten Stromverbrauchs ausmacht. Insbesondere im Hinblick auf die zunehmenden Zahlen an digitalen Geräten, wächst auch die Menge an verfügbaren Daten enorm an. Diese müssen jedoch auch gespeichert und verarbeitet werden, was zu einem sprunghaften Anstieg der Notwendigkeit von Datenzentren führen wird.

Auch, wenn Entwicklungsländer endgültig auf den digitalen Zug aufspringen, werden künftig noch größere Mengen an zusätzlicher Energie für die Infrastruktur benötigt werden.

Internet of Things und Nachhaltigkeit?

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistik, Marketing cookies, um das Video zu sehen.

IoT-Optimismus: Bei der Vernetzung unserer Gesellschaft geht es darum, unser gesamtes Umfeld zu verbessern. Das beinhaltet dann ebenfalls die Nutzung der Informationen für mehr Nachhaltigkeit. Hier spricht Don Brancato – Cheftechnologe von Hewlett Packard über dieses Thema.

Doch die Existenz von intelligenten Geräten kann auch für eine gegensätzliche Entwicklung nützlich sein. Es stellt sich die Frage, ob die Flut an Computern und Embedded Systems in Form des Internet of Things nur zu einem insgesamt höheren Energieverbrauch führt, oder ob die dadurch ermöglichte Effizienzsteuerung einen größeren positiven Effekt hat.

Doch wie helfen moderne Gadgets, Sensorik und Steuerprogramme bei der Energieeinsparung?

Alleine die weltweite Vernetzung hat einen großen Effekt auf die Nachhaltigkeit unserer Gesellschaft. Viele kleine Aspekte kommen dafür zusammen – man denke etwa an persönliche Besuche oder Dienstreisen und auch die postalische Kommunikation, die für den Transport Energie und somit Emissionen benötigt hätten. Heute können diese deutlich umweltfreundlicher über Email oder Videokonferenzen erledigt werden.

  • Technologien wie Sensorsteuerung, Automatisierung und Smart Metering im Zuhause tragen bereits erfolgreich zur Minimierung des Stromverbrauchs bei.
  • Die Einbettung von intelligenten Mess- und Steuermethoden in traditionell analoge Geräte und Gegenstände hat den direkten Effekt, dass Einsparpotentiale auf der einen Seite erkannt und gleichzeitig effektiv gesteuert werden können.

Schon in Privathaushalten wird dies bereits heute mit großem Effekt umgesetzt – dank Smart Home Technologie werden Fenster, Rollläden, Heizung, Beleuchtung und so weiter im Haus automatisch gesteuert. Da eine so präzise Steuerung zu aufwendig für uns wäre, wird es erst durch die Nutzung solcher vernetzten Sensoren möglich, die größtmöglichen Einsparungspotenziale zu realisieren.
Um den Standard moderner Null- oder gar Plusenergie-Häuser zu erreichen, sind solche automatischen Steuerungen unabdingbar. Ein besonderer Aspekt hierbei ist die offene Programmierbarkeit einiger Smart Home Systeme – so ist es möglich, mit einigen IT-Grundkenntnissen die genaue Funktionsweise solcher Steuerprogramme selbst zu bestimmen.

Im Rahmen der Entwicklung der Industrie 4.0 kommen derartige Optimierungen auch in der Wirtschaft zu Einsatz, wo sich ebenfalls große Einsparpotentiale verstecken. Mit einem digitalen Energiemanagement dürfte sich insbesondere der CO2-Fußabdruck großer Unternehmen deutlich reduzieren lassen.

Effizienz durch Analyse und Automatisierung

Big Data und Datenanalyse spielt eine große Rolle bei der Suche nach der größtmöglichen Effizienz. Zum Erreichen optimaler Nachhaltigkeit ist häufig das Bestimmen der noch optimierbaren Aspekte das größte Grundproblem. Dabei helfen digitale Messgeräte, die die gesammelten Daten auswerten können, enorm weiter. Insbesondere in der Öffentlichkeit und Industrie könnte eine umfassende Effizienzanalyse von mit Sensoren aufgezeichneten Messwerten zu einem großen Effekt und der Minimierung von verschwendeter Energie führen.

Um diese Daten zu interpretieren sind Data Scientists gefragt, die aus den Rohdaten praktische Lösungsmöglichkeiten ableiten. Als simples Beispiel anhand des öffentlichen Raums: In wenig befahrenen Straßen werden Sensoren installiert, die die Frequentierung durch Fußgänger und Autos für einen längeren Zeitraum messen.

Dadurch ergeben sich eventuell Datensätze, die eine extrem geringe Nutzung der Wege zu bestimmten Jahres- oder Tageszeiten andeuten. Dann könnten Straßenlaternen für diese Zeit entweder abgeschaltet oder mit Bewegungssensoren versehen werden, um jede Nacht viele Stunden Energie zu sparen. Ohne die technischen Möglichkeiten, die eine zentrale Datenanalyse von mehreren vernetzten Sensoren mit sich bringen, wäre eine solche Anpassung kaum umsetzbar.

Green Computing oder Green IT

Sämtliche Aspekte rund um Herstellung, Nutzung und Entsorgung von IT-Geräten fließen in das Thema Green IT ein.

Die klima- und umweltfreundliche Nutzung von Computern, das so genannte Green Computing, ist eine wichtige Grundlage für die Garantie der Nachhaltigkeit in der IT in der Gegenwart und der Zukunft. Hier in Deutschland ist dieses Konzept eher unter dem Begriff Green IT bekannt. Dabei ist es ein Überbegriff, der sämtliche Aspekte rund um digitale Elektrogeräte betrifft. Der gesamte Lebenszyklus von Computern und eingebetteten Systemen ist dabei zu beachten:

  • Herstellung: Umweltfreundliche Materialien und Rohstoffe zur Fertigung, Minimierung der Abfälle als auch die CO2-Bilanz durch die Herstellung und den Transport der Geräte.
  • Betrieb: Möglichst effiziente Endgeräte, die kaum Energie verschwenden. Das betrifft sowohl die Möglichkeiten zur aktiven Einschränkung des Energieverbrauchs durch Nutzer (etwa durch physische Power Switches anstatt Standby), als auch das Design zur Minimierung des Energieverbrauchs während dem aktiven Betrieb.
  • Entsorgung: Recyclebare Materialien und Wiederverwendung von Bauteilen und Rohstoffen (wie etwa Silber und Gold aus Smartphones). Aber auch die richtige Entsorgung von Abfällen wie etwa Akkus.

Dieser moderne Standard für sämtliche Elektrogeräte wird mehr und mehr an Bedeutung gewinnen. Besonders in Unternehmen und Büros sind große Einsparpotentiale vorhanden, wenn nach Green-IT-Standards gearbeitet wird. Bereits umgesetzte Projekte zeigen, welche Herausforderungen, aber auch welche Einsparungen dabei möglich sind.

Energy Aware Programming

Energy Aware Programming, also die energiebewusste Programmierung, ist ein wichtiger Teil von Green IT. Als programmiertechnischer Zweig des Green Computing werden hier bessere Energieeffizienzwerte erreicht, wenn die Hardware bereits an ihren Grenzen ist. Da viele Geräte bereits recht sparsam operieren, kommen hier teilweise sehr interessante Lösungen zum Einsatz.

Wind- und Solarenergie gelten als besonders unberechenbare Energielieferanten. Die Probleme, die durch diese Nachteile entstehen, können durch intelligente Steuersysteme jedoch gelöst werden.

Große Serverzentren, die komplexe Applikationen hosten, können beispielsweise so von ihrer Software gesteuert werden, dass energieaufwändige Algorithmen wie etwa Berechnungen mit großen Datensätzen, erst dann durchgeführt werden, wenn vermehrt erneuerbare Energien ins Stromnetz eingespeist werden. Wenn ein Datenzentrum also Solarenergie mit im Strom-Mix hat, würde der Cluster die Anfrage für die Berechnungen so lange aufschieben, bis ein gewisser Anteil an Solarstrom verfügbar ist.

Das würde dann zwar den gesamten Energieverbrauch der Anlage nicht verringern, möglichst große Teile davon jedoch auf erneuerbare Energien umlegen. Für die Zukunft kann man sich also vorstellen, dass die Nachteile der Volatilität eines Stromnetzes, das vollständig auf erneuerbare Energien setzt, durch ein Smart Grid und eine entsprechende, IT-gestützte Steuerung, ausgemerzt werden.

Cloud Computing gegen CO2

Cloud Computing als solches bietet große Potentiale, wenn es um die Einsparung von Energie und somit auch von CO2-Emissionen geht. Da der maximale Rechenaufwand von Unternehmen (oder auch Privatpersonen) nicht mehr durch die eigene Infrastruktur getragen werden muss, sondern mehrere Kunden sich die Ressourcen der Cloud-Datenzentren teilen, fallen die notwendigen Redundanzen insgesamt geringer aus.

Der Nachteil liegt auf der Seite der Betreiber der Serverzentren – da sich hier die digitale Infrastruktur vieler Parteien bündelt, sind diese energiehungrig, teuer zu unterhalten und hoch komplex. Traditionell ist also auch die CO2-Bilanz dieser Computerzentren sehr hoch. Da die Betreiber diese Kosten tragen müssen, beziehungsweise sie im Preis für ihre Dienste an die Kunden weitergeben, ist schon aus Gründen des Wettbewerbs eine Minimierung der Energiekosten relevant.

Im Gegensatz zu privatisierten Servern, die zumeist rund um die Uhr laufen, hat Cloud Computing im Software-as-a-Service Bereich einen Vorteil: Dadurch, dass die Dienste, die auf den Servern abgerufen werden, zu einem gewissen Grad vorhersagbar sind, können Betreiber versuchen, nur so viele physische Server aktiv zu nutzen, wie dringend notwendig sind. Damit wird mit dieser Form von Energy Aware Programming viel Energie eingespart, die zum gegebenen Zeitpunkt nicht essentiell angewandt wird.

Eine Verbesserung der Kontrollarchitektur von Serverzentren – die sich mit anwachsenden Datenmengen im IoT-Zeitalter vermehren werden – kann zu großen Verbesserungen in der Energieeffizienz führen.

Der Schlüssel dazu liegt in der effizienten Migration von Virtuellen Maschinen (VMs). Das bedeutet, dass innerhalb der Datenzentren nicht nur mehrere VMs auf einem physischen Server in Verwendung sind, sondern auch, dass diese dynamisch auf anderen Maschinen gehostet werden, falls damit ein Server oder ein gesamtes Cluster abgeschaltet werden kann, um so Energie zu sparen.

Ein Nachteil bei traditionellen Ansätzen ist, dass die mit den Kunden vertraglich geregelte Verfügbarkeit der Dienste gefährdet ist, wenn zu viele Server während Ruhephasen abgeschaltet werden und dann plötzlich ein größerer Andrang besteht.

Für viele Unternehmen ist ein solcher Ausfall inakzeptabel. Daher gibt es verschiedene Ansätze zur algorithmusgesteuerten Distribution des Rechenaufwandes, die sowohl eine konstante Verfügbarkeit der Dienste auch während Load Spikes garantieren, aber dennoch eine möglichst große Energieeinsparung ermöglichen.

Die Balance dieser beiden Gesichtspunkte ist eine große Herausforderung, denen sich Systemarchitekten schon seit einiger Zeit widmen. Die Programmierung von Algorithmen und Steuerprogrammen, die die nötige Leistung vorhersagt und somit die Migration der VMs optimiert ist also sowohl von wirtschaftlichem, als auch ökologischem Interesse.

Klimamodelle

Im Rahmen der Klimadiskussionen haben wir alle schon häufig von Studien und Vorhersagen gehört, die die weitere Entwicklung in der nahen Zukunft des Klimas unter bestimmten Umständen abbilden. Hierbei kommt immer wieder die Frage auf, wie sich beim Klima der Erde, das sich anhand unzähliger Faktoren über die Geschichte der Welt mehrmals verändert hat, überhaupt eine Prognose treffen lässt.

Der Schlüssel liegt auch hier wieder in der geballten IT-Power, die in der Forschung diesbezüglich zum Einsatz kommt. Hoch komplexe Modelle, in die Informationen und Daten aus allen Zweigen der Wissenschaft einfließen, versuchen, die gesamte Atmosphäre entsprechend abzubilden.

Dabei müssen diese Modelle, um möglichst zuverlässig zu sein, alle Faktoren, die auf Wetter und Klima einwirken können, möglichst genau widerspiegeln. Damit das funktioniert, ist ein riesiger Aufwand notwendig. Dabei stellen sich zwei Hauptprobleme:

  1. Die nötige Rechenpower: Seit Beginn der Erstellung von Computermodellen wurden diese hauptsächlich auf Supercomputern realisiert. Doch aufgrund der hohen Komplexität der Daten, die in ein präzises Klimamodell einfließen, ist die Rechenpower immer noch ein limitierender Faktor. Eine Lösung sind Distributed Computing Systeme, die beispielsweise über BOINC realisiert werden. Der riesige Rechenaufwand wird dann auf eine große Anzahl an vernetzten Rechnern aufgeteilt, so dass die Datenmengen bewältigbar werden. Alte Hasen erinnern sich vielleicht noch an das Projekt SETI@home, bei dem dieses System für die Suche nach außerirdischen Lebensformen zur Anwendung kam.
  2. Die entsprechenden Algorithmen: Die tatsächlichen Berechnungen, die mit den Datenmengen durchgeführt werden, basieren auf Beobachtungen in der Vergangenheit und tatsächlichen Daten seit Beginn der Wetteraufzeichnungen zum Ende des 19. Jahrhunderts. Die existierenden Algorithmen sind also dadurch entstanden, dass in der Vergangenheit die Modelle mit Vorhersagen für zeitlich noch weiter zurückliegende Zeitpunkte getestet wurden. Mit dieser Methode wurden die Algorithmen mehr und mehr verfeinert. Das bedeutet jedoch auch, dass mit jedem zusätzlich hinzugefügten Faktor wie Waldrodung oder CO2-Konzentration die gesamte Komplexität des Modells stark erhöht wird. Jeder Algorithmus hat einen Effekt auf alle anderen Berechnungen im Gesamtmodell.

Der Aufbau von präzisen Klimamodellen mit IT-Technologien ist also bis heute nicht perfektioniert worden. An weiteren Fortschritten in der Datenwissenschaft und in der Programmierung der zu Grunde liegenden Algorithmen wird immer noch gefeilt – auch unter Zuhilfenahme von künstlicher Intelligenz. Eine neue Rechnerart der Zukunft könnte hier Abhilfe schaffen – dazu später mehr.

Die Zukunft im Blick – Studiengang Umweltinformatik

Die Relevanz der Informationstechnik für den Umgang mit allen Aspekten unserer Umwelt in der Zukunft ist mittlerweile nicht nur in der Forschung, sondern auch in der Lehre angekommen. So gibt es an der HTW Berlin seit wenigen Jahren den Bachelor-Studiengang „Umweltinformatik“. Noch ist diese Fächerkombination dort einzigartig. Nur an der Hochschule Trier zugehörigen Umwelt-Campus Birkenfeld gibt es noch den Studiengang Umwelt- und Wirtschaftsinformatik – hier stehen die wirtschaftlichen Herausforderungen im Rahmen von Klimawandel und Energiewende im Fokus.

Die Studiengänge – in Berlin kann man noch den Master „Betriebliche Umweltinformatik“ zur Vertiefung der wirtschaftlichen Aspekte hinterherschieben – fokussieren sich um IT-gestützte Lösungen für Umweltprobleme aller Art.

Sowohl digitale Modellierung, als auch angewandte Programmierung und Datenbankenverarbeitung treffen dort auf umweltwissenschaftliche Themen mit dem Fokus auf Nachhaltigkeit. Die Entwicklung IT-gestützter Systeme zur Analyse des Einflusses des Menschen auf die Umwelt und Ansätze zur Lösung dadurch entstehender Probleme steht im Mittelpunkt.

Videos von YouTube werden aus Gründen des Datenschutzes erst angezeigt, wenn die Entsprechenden Cookies akzeptiert wurden. Bitte akzeptiere statistik, Marketing cookies, um das Video zu sehen.

Der Berliner Studiengang Umweltinformatik bereitet Absolventen auf vielfältige Herausforderungen der Zukunft vor. Nach Abschluss des Bachelors wartet noch ein Vertiefungsstudium, das verstärkt die Herausforderungen der Wirtschaft beleuchtet.

Wie viele weitere Universitäten diesem Trend folgen werden ist noch ungewiss. Aber die fortschreitende Fokussierung auf Klimaerwärmung in der Forschung und die Notwendigkeit für betriebliches Umweltmanagement, die nach aller Wahrscheinlichkeit in den nächsten Jahren an Bedeutung gewinnen wird, sollten genügend Karrierechancen für Absolventen dieser Studiengänge bieten.

Science Non-Fiction: Quantencomputer gegen Klimaerwärmung

Hier handelt es sich ein wenig um Zukunftsmusik – Quantenprozessoren sind bis heute noch kein praktisch anwendbares Konzept. Das Forschungsgebiet der Quantenphysik und Computern, die darauf aufbauen, ist jedoch dabei, diese hochleistungsfähigen Computer praxistauglich zu machen. Erst kürzlich hat IBM mit dem IBM Q System One den ersten kommerziell verwendbaren Quantencomputer vorgestellt, der allerdings noch nicht die nötige Leistungsfähigkeit mitbringt.

Die Möglichkeiten dieser Technologie sind immens, da die auf Qubits basierenden Prozessoren genau die Algorithmen und Operationen, mit denen auf Silizium basierende Chips Probleme haben, unglaublich schnell bearbeiten können. In den Feldern künstliche Intelligenz, Big Data und Modellberechnungen sind sie theoretisch viele tausend Mal schneller als herkömmliche Prozessoren. Genau aufgrund dieser Fähigkeit kann auf der Basis von Qubits eine weit komplexere Detailtreue in Modellen mit extrem großen Datenmengen erreicht werden – perfekt für die Modellierung des komplexesten Konzepts: Der Natur.

Die Genauigkeit und Verlässlichkeit von Modellen und Simulationen, die unsere Umwelt und insbesondere den Klimawandel betreffen, würden dann keinen Zweifel mehr am aktuellen Zustand des Klimas und der Ursachen der Veränderungen zulassen.

Der Systhemtheoretiker William Hurley hat im letzten Jahr auf der SXSW-Messe in den USA ein Plädoyer für praktische Anwendungen von Quantencomputern abgegeben und dabei das Problem der traditionellen Modellierung und den daraus resultierenden Vorhersagen für klimatische Entwicklungen angesprochen. Aktuelle Modelle sind zwar bereits hoch komplex, jedoch aufgrund der mangelnden Rechenpower nie vollständig präzise. Aus diesen leichten Ungenauigkeiten ergeben sich viele Argumente der Gruppen, die sich gegen die vom Menschen gemachte Klimaerwärmung aussprechen. Erst mit der Nutzung von Quantencomputern wären solche Probleme lösbar. Wie diese Theorien in der Realität umgesetzt werden können, dürfte sich in den nächsten Jahren zeigen.

Medienquellen:

Bild 1: boyhey / Fotolia.com
Bild 2: Funtap / Fotolia.com
Bild 3: lovelyday12 / Fotolia.com
Bild 4: Gorodenkoff / Fotolia.com
Video 1: IoT.txt / YouTube.com
Video 2: HTW Berlin / YouTube.com

Rückmeldungen