Open Compute: Hat das Rechenzentrum eine offene Zukunft?

Nur zwei kurze Jahre nach, Facebook offen stieg das Design seiner Rechenzentren, seine offene Hardware beginnt zu verbreiten.

Facebook und seine Partner engagieren sich im Rahmen des Open Compute Project (OCP) für die Entwicklung und den Austausch von Konstruktionen für Rechen-, Speicher- und allgemeine Rechenzentrumsinfrastruktur – nicht nur für die Server selbst, sondern auch für die Chassis und Racks, die sie sitzen .

Server, die auf dem Open Compute-Freedom-Design basieren, sind in den North Carolina- und Prineville-Rechenzentren von Oregon im Einsatz und werden füllen: das schwedische Lulea-Rechenzentrum von Facebook. Ebenso wird ein Rechenzentrum des gehosteten Dienstleistungsriesen Rackspace, eines der Vorstandsmitglieder der OCP-Stiftung, in ein paar Wochen mit Servern beginnen, die auf einer Mischung aus der Freedom-Spezifikation und dem Rackspace-eigenen Design und einem OCP-Speichersystem basieren.

Aber was ist die Rolle für Open Compute-Hardware jenseits von Facebook und Rackspace, und könnte Open-Source-Hardware zur Norm innerhalb des Rechenzentrums werden?

Mark Roenigk, COO von Rackspace, ist bullish über die Rate der Open Compute Annahme, sagt er glaubt, dass Open Compute zertifizierte Hardware Mainstream innerhalb von drei Jahren werden konnte – ein Viertel der Zeit, die für Linux, um eine ähnliche Ebene der Adoption als Server zu erreichen OS, sagt er.

Wir werden bis dahin signifikante Open Compute-Infrastruktur sehen “, sagt er.” Ich denke, dass wir uns zwischen 35 und 50 Prozent der Neuinstallationen von Servern befinden werden.

Seit der Einführung von Open Compute-Hardware wird höchstwahrscheinlich von großen Web-und Hosting-Unternehmen, die viel von der Minimierung der laufenden Kosten ihrer großen IT-Anlage durch Custom-Data-Center-Designs zu gewinnen, Roenigk sagt OCP Hardware Adoption wird an ihre Auffrischung Zyklen gebunden werden – die von etwa 19 Monaten für große Web-Firmen bis etwa vier Jahre für Rackspace reichen, so Roenigk.

Die Kosten sind ein wichtiger Grund für Roenigks Vertrauen, dass Open Compute-Hardware über Facebook und Rackspace verbreitet wird. Open Compute-Hardware ist auf geringe Kauf- und Betriebskosten im Vergleich zu alternativen Hardware ausgelegt. Entwürfe richten sich auf spezifische Computing-Anforderungen (z. B. die Hyperscale-Computing-Anforderungen von Facebook), Entfernen aller externen Komponenten und Materialien von Servern und deren zugehöriger Infrastruktur.

Als ein Maß dafür, wie dieser Fokus in niedrigere laufende Kosten übersetzen kann, sagt Facebook, dass sein OCP-bestücktes Prineville-Rechenzentrum eine Leistungsnutzungseffektivität (PUE) von 1,09 aufweist, was besser ist als das Best-Practice-Rating der US-Umweltschutzbehörde von 1,5.

Die Schmerzen und Kosten für ein Unternehmen der kommenden mit einem Design für ein Rack oder Motherboard, um ihre spezifischen Computing-Anforderungen entsprechen können auch zwischen dem Pool von Ingenieuren arbeiten an der Open Compute Projekt geteilt.

Es gibt die Fähigkeit, mit Ingenieuren auf der ganzen Welt zusammenzuarbeiten “, sagt Roenigk.” Nehmen wir an, ein Unternehmen habe 40 Mitarbeiter, die an Energieeffizienz und Nachhaltigkeitsinitiativen arbeiten, bei Open Compute haben wir eine breite Mitgliedschaft und ich würde sicherlich hoffen In der Lage sein, schneller zu innovieren.

“Es ändert meine Volkswirtschaft in so großer Weise, meine Geschwindigkeit auf den Markt ist halbiert. Es gibt riesige Wettbewerbsgründe, warum dies wirklich, wirklich wichtig für uns ist”, sagt Roenigk.

Auf der letzten Open Compute Summit in Santa Clara, enthalten neue OCP-Designs Spezifikationen für Motherboards, Chipsätze, Verkabelung und gemeinsame Steckdosen und Steckverbinder.

Data Center, Delta: “Wir können in Jahrzehnten denken, Data Centers, Delta setzt Preisschild auf Systeme Ausfall: $ 150.000.000 in Pretax-Einkommen, Data Centers, Dell Technologies hebt ab: Hier ist, was zu beobachten, wie Dell, EMC, eine Schar von Enterprise-Unternehmen kombinieren

Und wie der Pool von OCP-Spezifikationen für Rechenzentrum Geräte wächst, Roenigk stellt fest, dass mehr Organisationen in der Lage sein, ein Design für einen Server, Speicher oder andere Rechenzentrum Ausrüstung, die ihren Bedürfnissen entspricht zu finden.

“Wenn ich einen Dienstleister heute begann, würde ich Mitglied von Open Compute werden und ich würde gehen und Rackspace’s Design bekommen.Ich bekomme nur ihr Design und ich weiß genau die volle Stückliste, die es gebaut und die Preisgestaltung, ” er sagt.

Zusätzlich zu den kundenspezifischen Gestaltungsvorteilen sind die Skaleneffekte möglich: Durch das Huckepacken auf Aufträge für Open Compute-Hardware von großen Unternehmen wie Facebook und Rackspace kann ein kleinerer Spieler von ähnlichen niedrigen Kosten profitieren, die von Großunternehmen verhandelt werden können Mit Zulieferern und Serverherstellern.

“Jetzt bin ich ein kleiner Kerl, aber ich bekomme den gleichen Preis wie die großen Jungs, für die Jungs ist es kein Kinderspiel, sie werden es tun, um ihre Überlebenschancen zu erhöhen”, sagt Roenigk Auch die größten Unternehmen können weiter senken Gerätekosten durch die Bündelung ihrer Kaufkraft.

Das modulare Rechenzentrum

Frühzeitige Anwender

Open Compute, nicht für alle … zumindest für eine Weile

Die Unterstützung für Open Compute-Hardware unterscheidet sich von den Supportverträgen, die von OEM-Serverherstellern angeboten werden. Organisationen, die OCP-Hardware einsetzen, müssen nicht einmal technisch Ingenieure für das Personal haben, da sie nur die Ingenieure in der Community nutzen könnten “, sagt Roenigk, obwohl er anerkennt, dass der Zeitrahmen für die Support-Zustellung weniger sicher ist:” Die Herausforderung ist die Service-Ebene.Wenn eine Organisation hatte ein Problem, wie schnell konnte jemand darauf antworten, wer war kein direkter Mitarbeiter?

Die Verwendung von OCP-Hardware erfordert derzeit die Organisation, um ihre interne Investition in die Unterstützung zu erhöhen, z. B. hat Rackspace zusätzliche neun Mitarbeiter für die Verwaltung von Open Compute-Hardware übernommen. Diese Kosten sind ausgeglichen, meint Roenigk durch Einsparungen bei Hardware und Betriebskosten.

Nur die Hardware-Einsparungen allein das Minimum ist 10 Prozent, und je nachdem, wie gut Sie integrieren und zu virtualisieren, es könnte 40 Prozent “, sagt er. “Wenn Sie die zusätzlichen Kosten der Lizenzgebühren und Integrationstätigkeiten berücksichtigen, kann ich einen zusätzlichen Ingenieur oder drei bringen und immer noch Einsparungen in meiner Tasche.

Der Wegfall der OCP-Route kann auch bedeuten, dass zusätzliche Verantwortung für die Supply Chain des Rechenzentrums übernommen wird – für die Beschaffung von Komponenten, die Suche nach Serverherstellern und die Durchführung der Systemintegration, um sicherzustellen, dass alle diese Teile zusammenarbeiten.

“Wenn es um Server-Support und Supply-Chain-Management geht, gibt es eine Menge von Unternehmen, die nicht einmal wollen, um ein oder zwei Personen zu beaufsichtigen, um den Prozess zu beaufsichtigen.Dies ist der Ort, an dem die Dells und HPs spielen werden”, sagt Roenigk .

“Aber was wir finden, ist, dass die OCP-Anbieter auch ein sehr ähnliches Niveau im Supply Chain Management bieten”, fügt er hinzu.

Das DIY-Designethos von Open Compute reflektiert eine breitere Verschiebung im Rechenzentrumsmarkt, von großen Web-Unternehmen, die nach Alternativen zu Server-Designs von OEMs wie Dell und HP suchen, die traditionell Serverhardware entworfen und bezogen haben. Seit Jahren haben Unternehmen wie Amazon Web Services (AWS), Google und Facebook ihre eigenen Server und die dazugehörigen Infrastrukturen entworfen, um kundenspezifische Setups zu maximieren, um die Kühlung, Serverdichte oder das, was sonst ihren Anforderungen entspricht, zu maximieren.

Während AWS und Google immer noch eifersüchtig die Details ihrer Rechenzentrumsentwürfe bewahren und die Effizienz und Effektivität, die sie ihnen als Quelle für Wettbewerbsvorteile bieten, schlagen, kam Facebook auf die Idee, dass es durch Crowdsourcing ihrer Ideen effizienter werden könnte. Das Social Network hat sich entschieden, das Problem des Entwurfs, der Beschaffung, der Beschaffung und der Integration der Hardware des Rechenzentrums zu teilen und die Open Compute Project Foundation im Oktober 2011 zu starten.

Eine zentrale Idee des Projektes ist es, die Komponenten des Rechenzentrums, Racks und Servers in modulare Teile zu verlagern, die als Rechenbedarfswechsel ausgelagert werden können. Das Ziel ist, sich von der Verschwendung zu entfernen, die normalerweise mit dem Server-Upgrade-Zyklus verbunden ist. Traditionsgemäß würde eine Organisation, die nur Chip-Architekturen in ihren Servern tauschen wollte, auch den gesamten Server aktualisieren – da der neue Chip ein neues Motherboard braucht, das wiederum neue Speicher- und Netzwerk-Controller benötigen könnte.

Diese Notwendigkeit, en masse zu aktualisieren, hat die Fähigkeit der Organisationen, ein Upgrade durchzuführen, wenn und wann sie wollen. Eine Organisation, die ihre CPU auf einer jährlichen Basis zu aktualisieren, zum Beispiel, könnte dies nur alle drei Jahre tun, weil die damit verbundenen Kosten für auch das Upgrade des Motherboards und andere Komponenten, und die Notwendigkeit, für das richtige Gedächtnis, Netzwerkkarten warten und warten Zugehörige Hardware verfügbar zu machen.

Diese Interoperabilität zwischen verschiedenen Serverplatinen und Komponenten erfordert eine Standardisierung um neue Motherboards und Backplane-Interconnects. Auf dem Santa Clara-Gipfel des Projekts Anfang des Jahres wurde die Gruppe Hug-Slot-Architektur enthüllt, deren Design Server-Motherboards erlauben würde, ARM-SoC-, AMD- oder Intel-Chips zu akzeptieren.

Um die Verbindung dieser disaggregierten Komponenten mit einer akzeptablen Geschwindigkeit zu vereinfachen, arbeitet Intel an Silizium-Photonenverbindungen und Kabelkonstruktionen. Diese sollen 100Gbps-Interconnects ermöglichen, die eine so geringe Latenz aufweisen, dass Komponenten, die zuvor an das gleiche Motherboard gebunden waren, in einem Rack ausgebreitet werden können.

Die wahrscheinlichsten früheren Anwender von OCP-Geräten sind große Web-Firmen wie Facebook oder große Hosting-Anbieter wie Rackspace, auf der Suche nach Möglichkeiten, um zu fahren, zu bauen, laufen und aktualisieren Sie die Kosten ihrer großen IT-Infrastrukturen. Rackspace wird beispielsweise 70-75.000 Kunden pro Rechenzentrum betreuen, wobei jeder Kunde zwischen einem und 25 Anwendungen läuft. Neben Rackspace sind einige der weltweit größten ISPs und Cloud-Dienstleister, wie die chinesische Firma Tencent und Cloud CRM-Spezialist Salesforce.com, Mitglieder des Projekts.

Der Finanzsektor, ein weiterer Prime-Markt für OCP-Hardware, ist bei den Projektmitarbeitern gut vertreten. Goldman Sachs gehört zu den fünf Vorstandsmitgliedern der OCP-Stiftung. Facebook Frank Frankovsky, Vice President of Hardware Design und Supply-Chain-Operationen bei Facebook und Vorsitzender des Open Compute Project, sagt Finanzdienstleister Interesse an dem Projekt kann durch die Tatsache, dass sie “sind IT-Unternehmen mehr als sie tatsächlich wissen”, Dank erklären Zu ihren großen Rechenumgebungen.

Andere traditionelle Unternehmenssektoren können langsamer sein, um OCP anzunehmen, sagt Roenigk, unter Berufung auf die Tendenz von CIOs, um es sicher in ihre Infrastruktur-Investitionen zu spielen, obwohl diese Zurückhaltung kann durch finanzielle Zwänge verringert werden.

“Die Annahme durch das Unternehmen ist immer sehr langsam, denn CIOs wollen immer etwas tun, das wirklich sicher und sicher ist, denn ihre Roadmap ist ein Jahr, da sie wissen, was ihr Budget sein wird”, sagt Roenigk.

Aber mehr und mehr sehen wir CEOs und CFOs Anleitung CIOs sie benötigen, um die Kosten für die Berechnung zu reduzieren.

Da Cloud-Service-Nutzung von KMU und Unternehmen greift, ist es auch wahrscheinlich, Open Compute Annahme Kraftstoff, wie Server von OEM-freundliche Großunternehmen zu Cloud-Dienstleister mehr offen für die OCP-Design-your-eigenen Ethos bewegen.

Allerdings ist die Adoption von Cloud-Diensten von größeren Unternehmen bisher relativ bescheiden, da das Unternehmen die private Cloud bevorzugt und nur die öffentliche Cloud nutzt, um zusätzliche Kapazitäten zur Bewältigung der Nachfrage nach Roenigk bereitzustellen.

Zwei große Holdouts für das Projekt sind Amazon und Google, und es gibt Zweifel, ob sie bereit sind, den operativen Vorteil zu opfern, dass ihre geschlossenen Ansatz für Datacentre-Design gibt ihnen.

Ich denke, die Googles der Welt bleiben proprietär für ein oder zwei Jahre oder zwei. Sie sind am Rande und beobachten, was Open Compute tun wird “, sagt Roenigk.” Sie haben geistiges Eigentum in der Gestaltung dieser Infrastruktur und sie haben bereits große Volkswirtschaften, so dass sie bereits einen guten Preis bekommen.

Nicht jede Organisation verlässt sich stark genug auf die IT-Infrastruktur oder verfügt über spezifische Rechenbedürfnisse, um signifikante Vorteile aus der Störung des Austauschs von OEM-Servern und der generischen Rechenzentrumsinfrastruktur für OCP-gestaltete Systeme zu ziehen.

Laurent Lachal, Senior Analyst bei Ovum Cloud-Computing-Forschung, glaubt, dass die Annahme wird langsamer als Roenigk erwartet, was darauf hindeutet, dass die Attraktivität von Open Compute Equipment wird auf Unternehmen mit IT-Gütern der Größe und Skala OCP-Stiftung Vorstandsmitglieder für einige Zeit beschränkt werden.

Ein Blick hinter die Kulissen von Facebooks Hardwarelabor, die spirituelle Heimat der Open Compute-Datacentre-Hardwarebewegung, die die Art der IT-Unternehmen grundlegend verändern kann und die sie kaufen.

Das Unternehmen, das es gestartet hat, ist Facebook, ein Unternehmen, das ein sehr sehr großes Rechenzentrumsgebiet braucht, weshalb die Bemühungen, eine eigene Rechenzentrumsinfrastruktur zu schaffen, die Kostenreduzierung wert sind Dies führt dazu. Alle diese großen Unternehmen haben die Business Case zu engagieren “, sagt er.

Umgekehrt viele kleine Unternehmen und Unternehmen haben nicht die Idee vertauscht OEM-Server für Open-Source-Alternativen, Lachal Ansprüche.

Eine Umfrage wurde im vergangenen August durchgeführt, wo Unternehmen über Open Compute gefragt wurden und die Mehrheit entweder nicht wusste oder nicht interessiert war. Es ist eine gute Überlegung, dass der Markt insgesamt nicht wirklich relevant für sie, auf der Oberseite der Tatsache, diese Organisationen nicht ganz verstehen, worum es geht.

Neben der Verbreitung der OCP-kompatiblen Hardware geht Lachal davon aus, dass der Schwerpunkt des Projekts auf modularer Gestaltung auch das Design von Mainstream-Rechenzentren beeinflusst.

Auf lange Sicht glaubt Lachal, dass das Open Compute Project weit verbreiteter als Normkörper für Open-Source-Hardware und Open Compute-Hardware erkannt wird, die schließlich ihren Weg in größere Unternehmen und kleinere Unternehmen finden wird.

Es wird ein Trickle Down von Open Compute auf lange Sicht sein. Es dauert ungefähr fünf Jahre, um bedeutende Annahme unter den Hauptunterstützern und 10 Jahren zu gewinnen, um unten zu anderen Firmen zu trocknen.

IBM startet neue Linux, Power8, OpenPower-Systeme

Michael Dell zum Abschluss des EMV-Abkommens: “Wir können in Jahrzehnten denken”

Delta setzt Preisschild auf Systemsausfall: $ 150 Million im Pretaxeinkommen

Dell Technologies hebt ab: Hier ist, was zu beobachten, wie Dell, EMC, eine Schar von Enterprise-Unternehmen kombinieren