dataDEcenter

Internet ist so wichtig wie das tägliche Brot, aber das Internet verbraucht soviel Energie wie der Flugverkehr? Dohhh

Einerseits durch ungünstige Programmierung, hohe Anforderungen an Redundanz, teilweise durch weiter Strecken und natürlich durch brachliegende vergeudente, aber laufende Rechner.

Warum kann man nicht verteilte rechner in kleinen Gruppen (10-20) zum hosting in normale Gebäude stellen und so die Abwärme zum Wohnen nutzen. Die Redunadnz soll die Speichersoftware (Filesystem, dezentrale Repos, redundanten Datenbanken etc) herstellen.

Sowas muss sich entwickeln, ich würde auch nicht meinen Bankserver irgendwo in einene Keller stellen wollen, aber die ganzen contentlastigen Seiten, Backups etc

Cool! cloudandheat.com macht das und nutzt das „Abfallprodukt“ Wärme zur Beheizung. Wenn ich nur noch nicht weiss wie die das mit der Ausfallsicherheit machen (Dev:Dns wink ;)

Netz und Sicherheit

Man braucht in dem System natürlich mehrere Redundanzen und weiterhin eine eindeutige Zuordnung entweder per dann aber sicherem klassischem Loadbalancer (der dann aber wieder der single point of failure wäre, und daher in ein echtes Rechenzentrum mit Betonwänden, USV und Sicherheitsdienst muss) oder eben eine rudimäntere Lastverteilung_per_DNS die aber afaik nicht mit einem Ausfall umgehen kann. darum will ich DNS

  • Strom: Keine USV, sondern örtlich getrenntes (100km, 1000km, andere Kontinent) Redundanz
  • Zugriff auf sensible Daten: keine besondere Zugriffsregelung, da eh verschlüsselt. Öffentliche Daten landen eh im p2p Netz.

Geldautomaten vernetzt (...) nicht wie andere Banken über Festnetz-Standleitungen (...) , sondern über das öffentliche Internet. Zur Sicherheit hat dabei jeder Automat zwei Netzanschlüsse

Energie

Mir egal welchen Strom ihr nehmt, da die Recheneinheiten verteilt stehen kann man die abfallende Energie als Heizung verwenden.

Außerdem braucht man bei kleinen Einheiten weniger Kühlleistung, da ich bei 5 Maschinen noch mit der Raumluftkühlung arbeiten kann, bei 500 schon lang nicht mehr.

So könnte eine kleines decenter Internetkram machen und dabei mein Treppenhaus heizen. An den meisten durchschnittlichen Tagen ganz normal, im Winter natürlich nicht ganz, im Hochsommer um die Mittagszeit müsste es dann vielleicht elektrisch gekühlt werde, aber genau dann ist der Stromverbrauch tendenziell geringer als an einem kalten Wintermorgen.

Wärme

Ein Rechenzentrum braucht genau so viel Energie zum Kühlen wie zum Rechen??!!

Hochleistungsrechner kommen auch mit molligen 30 bis 35 Grad gut klar.

..oder 60°

Zahlen

  • warmwasserverbrauch einer person: 60kg/d
  • personen in (m)einem haus: 522=20
  • warmwasserverbrauch pro haus: 500kg/d=5.787g/s
  • temperatur Warmwasser: 35°C
  • temperatur kalten wassers: 10°C
  • temperaturanhebung: 25°C
  • spezifischer wärmekoeffizient wasser: 4.19J/g/°C
  • energiebedarf=30°C*4.19J/g/°C=125J/g
  • leistungsaufnahme eines PC (ohne Monitor und Graka):200W +eine mittlerer host Rechner oder was? ich hab jetzt so 100 W gemessen
  • energiebedarf pro haus:500kg/d*125J/g=62500kJ/d=708W= 3.5PC

Abrechnung

nach echten Kosten (mit Arbeitsaufschlag)

  • Flops
  • GB Speicher
  • Traffic (das könnte man aber wieder aufteilen,
  • gemessenen uptime z.B.:
  • im Monat x 99,9% Faktor1,10
  • im Monat x 99,0% Faktor1
  • im Monat x 98,0% Faktor0,70
  • im Monat x 95,0% Faktor0,10

Hat den Vorteil ich kann mir soviele Instanzen zulegen wir ich bock hab und gehe nicht vom vServer auf den starren Eigenserver hoch, denn ich dann wieder virtualisier und den auch auch nicht für den slashdot angriff auslegen kann (0,1% Zeit)

Für den hoster hat das den Vorteil er kann sich überlegen ob und wo er investiert

Software

Due größte Hürde ist die Software, normale Serveranwendungen kann ich mir schlecht vorstellen. Aber wenn die Dezentralität, Replikation und Steuerung in Softwaresstem eingebaut ist, kann das mit dem dezenralen hosten klappen

  • dezentale repositories wie git etc
  • dezentrale Datenbanken
  • Ubuntu Cloud Overview Ubuntu hat mit Eucalyptus so ne Cloud Management Software eingekauft. Man kann mit Ubuntu relativ einfach eine private, EC2-Kompatible Cloud aufziehen.
  • Ein eigenes CDN kann man zB mit Coral aufbauen, oder, mit weniger Magie (und hoffentlich mehr Vorhersagbarkeit) aus unterschiedlichen Komponenten (Hauptsächlich HTTP reverse proxies und GeoIP)

So ähnlich

Amazon Elastic Compute Cloud (Amazon EC2) - Beta nur halt in amazonrechenzentren, aber man muss Stundenweise CPU kaufen, die ganze CPU (besser gesagt ein viertel) aber das is mal nix für ein billigwebserver

gute Beschreibung

Googleway


Howto