Warum setzt Intel nicht DRAM auf die CPU?

Der System-On-a-Chip (SOC) Markt gibt es schon seit Jahren. Ist es nicht offensichtlich, dass On-Chip-DRAM die Zugriffszeiten reduzieren und die Performance steigern würde? Ich fragte meinen Freund und Kollegen Analytiker Jim Handy von Objective Analysis, der seit Jahrzehnten Halbleiter verfolgt, warum Chip-Hersteller nicht.

Verarbeiten

Storage, NetApp startet Mid-Tier-System für Datenseen, Partner mit Zaloni, Cloud, Michael Dell zum Abschluss der EMC-Deal: “Wir können in Jahrzehnten denken, Data Centers, Dell Technologies Heben: Hier ist, was zu sehen, wie Dell, EMC, a Bevy von Enterprise-Unternehmen kombinieren, Storage, Open Source Zstandard Datenkomprimierung Algorithmus, zielt darauf ab, Technologie hinter Zip ersetzen

Ich fasse seine Argumentation hier zusammen. Die Antwort ist einfach, aber die Gründe sind erleuchtend.

DRAM wird üblicherweise auf einem logischen Prozess aufgebaut, der speziell auf seine speziellen Anforderungen zugeschnitten ist. Beispielsweise benötigt der DRAM einen guten Kondensator, der für eine Leckage charakterisiert ist, um zu wissen, wie oft der DRAM erfrischt werden muss.

Das ist ein langwieriger und teurer Prozess. Es ist einfacher, statisches RAM (SRAM) auf der CPU anstelle von DRAM zu setzen, da SRAM keine feinen Kondensatoren benötigt.

Der Aufstieg der großen Daten und die Nachfrage nach Echtzeit-Informationen setzen mehr Druck als je zuvor auf Enterprise Storage.

Auch Logikprozesse, die für CPUs verwendet werden, sind teurer. Ein logischer Wafer könnte $ 3500 vs $ 1600 für DRAM kosten. Intels Logik-Wafer können so viel $ 5k kosten. Das ist teure Immobilien.

Ein weiterer Kostenunterschied besteht darin, dass die Größe der Zelle (Bit) größer ist, wenn Sie keinen für DRAM angepassten Prozess verwenden. So setzen DRAM auf einem Logikchip ist ein Doppel-Whammy: größere Zellengrößen auf teureren Wafern. Nicht eine gewinnende Kombination.

SRAM benötigt tatsächlich mehr Transistoren pro Bit als DRAM, da es 4-6 Transistoren vs 1 Transistor und einen Kondensator für DRAM verwendet. Aber da Sie bereits setzen ein paar Milliarden Transistoren auf dem Chip, das ist nicht viel ein Problem. Und SRAM hat einen weiteren großen Vorteil.

Während SRAM einfacher auf einem Logikwafer aufgebaut werden kann, hat es einen weiteren großen Vorteil: Geschwindigkeit. Zugriffszeiten sind etwa 10 bis 20 mal schneller als DRAM.

Jim fasste die Antwort sehr einfach zusammen

Es gibt einen Grund, warum Menschen nicht setzen Hauptspeicher auf ihre Chips, und das ist, weil es immer deutlich günstiger ist, separate Speicherchips verwenden.

Der Kostendruck ist in der gesamten Speicherhierarchie grausam, weshalb wir eine Speicherhierarchie haben. Wenn die schnellste und zuverlässigste Speicherung auch die billigste wäre, wäre die “Hierarchie” nur eine Schicht tief.

Flash-Speicher hatte keine Auswirkungen auf Computer-Speicher für Jahrzehnte, bis es billiger als DRAM. Tape – das einst Computer-Speicher dominiert – hängt, weil es billig ist.

Solange die Geschwindigkeits- und Kostenkorrelation fortgesetzt wird, haben wir eine Speicherhierarchie. Und kein DRAM auf CPUs.

Kommentare willkommen, wie immer.

NetApp startet mittelständisches System für Datenseen, Partner von Zaloni

Michael Dell zum Abschluss des EMV-Abkommens: “Wir können in Jahrzehnten denken”

Dell Technologies hebt ab: Hier ist, was zu beobachten, wie Dell, EMC, eine Schar von Enterprise-Unternehmen kombinieren

Facebook Open Source Zstandard Datenkomprimierung Algorithmus, zielt auf Technologie hinter Zip ersetzen

Größe

Geschwindigkeit

Die Speicherbits nehmen