Was ist ein Multi-Chip-Modul? Warum ist Chiplet-Design für die Zukunft wertvoll?

Der Chip-Design-Prozess namens Chiplet wird seit Jahren verwendet, wurde jedoch nur in sehr geringem Umfang und für spezielle Zwecke übernommen. Mittlerweile haben nicht nur ein, sondern mehrere Unternehmen damit begonnen, sich auf solche Designs zu konzentrieren. Millionen von Menschen auf der ganzen Welt betreiben ihre Geschäfte mit Multi-Chip-Prozessoren in Desktops, Workstations und Servern.

Als AMD beispielsweise 2017 seinem Rivalen Intel gegenüberstand, begann das Unternehmen mit der Veröffentlichung von Prozessoren mit Chiplet-Design. Das rote Team hat Chiplets genutzt, um seine Position an der Spitze der Innovation zurückzugewinnen und tut dies auch weiterhin. Ebenso verfügt die in der Radeon RX 7000-Serie verwendete RDNA 3-Grafikarchitektur über ein Multi-Chip-Design.

Andererseits wird Intel in allen CPUs der nächsten Generation in verschiedene Teile unterteilte Designs verwenden. Darüber hinaus werden unterschiedliche Chiplets von unterschiedlichen Produktionstechnologien profitieren. Kommen wir zu den Details zu Chiplet-Chips, die viele Enthusiasten kennen und für die Zukunft wichtig sind.

Im einfachsten Sinne stellt Chiplet kleinere Prozessoren (Chips) dar, die in Abschnitte unterteilt sind. Wenn jedes Segment zu einem einzigen Chip zusammengefasst wird, wird es aufgerufen monolithisch Es heißt Design. Im Gegensatz zum monolithischen Design werden beim Chiplet-Design bestimmte Teile als andere Chippartikel hergestellt. Diese weiteren Chips werden dann mithilfe eines komplexen Verbindungssystems zu einem einzigen Gehäuse zusammengebaut. Daher sehen wir von außen betrachtet eine monolithische CPU oder GPU mit IHS.

Dank des Multi-Chip-Moduldesigns (MCM) kann die Größe der Module, die von den neuesten Produktionsmethoden profitieren können, reduziert werden, die Effizienz des Prozesses kann gesteigert werden, wie bereits erwähnt, können unterschiedliche Prozesstechnologien eingesetzt werden für andere Teile und es ist möglich, mehr Komponenten zu montieren. Abschnitte des Chips, die nicht wesentlich kleiner gemacht werden können oder müssen, können mit älteren, kostengünstigeren Verfahren hergestellt werden.

Obwohl der Produktionsprozess solcher Prozessoren komplex ist, sind die Gesamtkosten in der Regel niedriger. Darüber hinaus können Verarbeiter ihre Prozesse besser steuern und so ihre Produktpalette erweitern.

Um vollständig zu verstehen, warum Prozessorhersteller auf den sogenannten Chiplet-Ansatz zurückgreifen, müssen wir zunächst untersuchen, wie die Produkte hergestellt werden. CPUs und GPUs beginnen ihr Leben als große Silizium-Scheibenwafer (sogenannte Wafer) aus hochreinem Silizium, typischerweise mit einem Durchmesser von knapp 300 mm (12 Zoll) und einer Dicke von 1 mm (0,04 Zoll).

Dieser Siliziumwafer durchläuft eine Reihe komplexer Schritte und verwandelt sich in mehrere Schichten unterschiedlicher Materialien wie Isolatoren, Dielektrika und Metalle. Muster dieser Schichten werden durch einen Prozess namens Photolithographie erzeugt, bei dem ultraviolettes Licht durch eine vergrößerte Version des Musters (eine Maske) geleitet und dann durch Linsen auf die erforderliche Größe verkleinert wird.


Ryzen 5 7600 – Zen 4 ‚Raphael‘ – Fritzchens Fritz

Das Muster wiederholt sich in angemessenen Abständen auf der Oberfläche des Wafers, wobei jedes Muster schließlich zu einem Prozessor wird. Chips sind rechteckig und Wafer kreisförmig. Nachdem die Chipeinheiten von der Scheibenplatte abgeschnitten wurden, bleiben daher die Kanten leer, das heißt, sie werden weggeworfen.

Nachdem die Hersteller mit dem Wafer fertig sind, durchläuft jeder Chip umfangreiche Tests. Die Ergebnisse der elektrischen Inspektion geben Ingenieuren anhand einer langen Liste von Kriterien Aufschluss über die Qualität des Prozessors. Diese erste Phase, die als Chip-Bündelung bezeichnet wird, hilft dabei, die „Bewertung“ des Prozessors zu bestimmen.

  • Was ist Chip-Gruppierung? Warum wird Chip-Binning durchgeführt?

Wenn der ausgeschnittene Chip beispielsweise eine CPU sein soll, muss jedes Modul bei einer angemessenen Spannung und innerhalb eines bestimmten Taktfrequenzbereichs ordnungsgemäß funktionieren. Anschließend wird jeder Waferabschnitt anhand dieser Testergebnisse kategorisiert.

Sobald der Wafer fertig ist, wird er in verschiedene für die Verwendung geeignete Module oder „Chips“ geschnitten. Diese Chips werden dann auf einem Substrat montiert, ähnlich einem kundenspezifischen Motherboard. Der Verarbeiter durchläuft einige zusätzliche Prozesse, bevor es zur Verteilung bereit ist. Dies wird als Verpackung bezeichnet. Beispielsweise der Einbau integrierter Wärmeverteiler (IHS).

Dieser gesamte Vorgang kann Wochen dauern. Führende Halbleiterunternehmen wie TSMC und Samsung können für jeden Wafer hohe Preise verlangen, die je nach verwendeter Prozesstechnologie zwischen 3.000 und 20.000 US-Dollar liegen. Diese Messungen hängen von Produktionstechnologien und Vereinbarungen zwischen Unternehmen ab. Beispielsweise profitiert Apple, das großvolumige Bestellungen aufgibt, von einigen Rabatten.

Als Prozesstechnik, auch „Prozessknoten“ genannt, wird das gesamte Produktionssystem bezeichnet. Wir sprechen also von Technologien wie „5 nm oder 3 nm“, die man oft hört. In der Vergangenheit wurden diese Technologien nach der Gate-Länge des Transistors benannt. Da sich die Herstellungstechnologie jedoch verbessert hat und kleinere Komponenten ermöglicht, folgt die Nomenklatur nicht mehr der physischen Ausrichtung der Form und ist lediglich ein Marketinginstrument.

Allerdings bietet jede neue Prozesstechnologie Vorteile gegenüber der vorherigen. Es könnte günstiger in der Herstellung sein, weniger Strom pro Taktfrequenz verbrauchen (oder umgekehrt) oder eine höhere Dichte aufweisen. Da beispielsweise Transistoren kleiner geworden sind, können mehr Transistoren auf demselben Platz, also auf demselben Chipchip, untergebracht werden. Ein weiteres Beispiel: Derselbe Chip, der mit kleineren Prozesstechnologien hergestellt wurde, ist energieeffizienter und bietet eine bessere Leistung als frühere Prozesse. In der folgenden Tabelle können Sie die Entwicklung der GPUs im Hinblick auf die Transistordichte im Laufe der Jahre sehen.

Fortschritte in der Chip-Herstellungstechnologie bieten Ingenieuren die Möglichkeit, die Fähigkeiten und Leistung ihrer Kreationen zu steigern, ohne große und kostspielige Chips verwenden zu müssen. Die obige Tabelle zeigt jedoch nur einen Teil der Geschichte, da nicht jeder Teil eines Prozessors von diesen Verbesserungen profitieren kann.

Schaltkreise in Chips können in eine der folgenden großen Kategorien unterteilt werden:

  • logische Einheit: Verwaltet Informationen, Mathematik und Entscheidungsprozesse.
  • Erinnerung: Meistens speichert SRAM Daten für logische Prozesse.
  • Analog: Schaltkreise, die Signale zwischen Chips und anderen Geräten verwalten.

Logikchips machen den größten Teil des Chips aus, aber die SRAM-Größe von CPUs und GPUs hat in den letzten Jahren erheblich zugenommen. Beispielsweise verfügte der in AMDs Radeon VII-Grafikkarte verwendete Vega 20-Chip über insgesamt 5 MB L1- und L2-Cache. Nur zwei GPU-Generationen später produziert, verfügt der Navi 21 über 130 MB Cache, 25-mal mehr als der Vega 20. Natürlich spielen hier Technologien wie Infinity Cache eine Rolle.

Wir können davon ausgehen, dass diese Werte mit der Entwicklung von Prozessoren der neuen Generation weiter steigen werden. Speichereinheiten können jedoch nicht so gut skaliert werden wie logische Chips. Tatsächlich wird es immer kostengünstiger, die gesamte Schaltung mit der gleichen Prozesstechnologie herzustellen, und die Unternehmen haben im Wesentlichen damit begonnen.

Im Allgemeinen werden analoge Teile mit den ältesten und günstigsten Fertigungstechnologien entwickelt. Es ist logischer, SRAM-Teile mit fortschrittlicheren und logischeren Einheiten und möglichst fortschrittlichen Technologien zu entwickeln. Dies ist in der Praxis nicht möglich, aber es gibt einen alternativen Ansatz, über den wir sprechen.

1995 veröffentlichte Intel den Pentium II, den Nachfolger des ursprünglichen P5-Prozessors. Was diesen Prozessor damals von herkömmlichen Prozessoren unterschied, war das Vorhandensein einer Leiterplatte mit zwei Chips; Der Hauptchip enthält die gesamte Prozesslogik und die analogen Systeme sowie ein oder zwei weitere SRAM-Module, die als L2-Cache dienen.

Intel stellte den Hauptchip her, der Cache wurde jedoch von anderen Unternehmen bezogen. Dies sollte Mitte bis Ende der 1990er-Jahre zum ziemlichen Standard für Desktop-Computer werden, bis die Halbleiterfertigungstechniken so weit fortgeschritten waren, dass Logik, Speicher und Analogsignale direkt auf dem Chip integriert werden konnten.

Intel versucht sich weiterhin an Designs, die mehr als einen Chip im selben Gehäuse enthalten, bleibt aber weitgehend beim sogenannten monolithischen Ansatz bei Prozessoren, also einem Chip für alles. Es waren keine mehreren Dies für mehrere Prozessoren erforderlich, da die Herstellungstechniken ausreichten, um dies einfach und erschwinglich zu halten.

Andere Unternehmen, insbesondere IBM, waren eher an einem Multi-Chip-Ansatz interessiert. Im Jahr 2004 wurde eine 8-Chip-Version der POWER4-Server-CPU veröffentlicht, die aus vier Prozessoren und vier Cache-Modulen besteht, die alle im selben Gehäuse montiert sind (bekannt als Multi-Chip-Modul oder MCM-Ansatz).

Zu dieser Zeit tauchte der Begriff „heterogene Integration (HI-heterogene Integration)“ auf, unter anderem aufgrund von Forschungsarbeiten der DARPA (Defense Advanced Research Project Agency). Heterogene Integration zielt darauf ab, die verschiedenen Teile eines Prozesssystems zu trennen, sie separat in den jeweils am besten geeigneten Technologien zu produzieren und sie dann zu einem Eins-zu-eins-Paket zu kombinieren. Das heißt, obwohl ihre Technologie dies jetzt tut.

Heutzutage wird dies häufiger als System-in-Package (SiP) bezeichnet und ist seit den Anfängen von Smartwatches immer häufiger anzutreffen. Beispielsweise enthält die Apple Watch der Serie 1 eine CPU, etwas DRAM und NAND-Flash, mehrere Controller und andere Komponenten in einer einzigen Struktur.

Abgesehen von der Uhr laufen fast alle Smartphones auf einem einzigen Chip, dem sogenannten System-on-Chip (SoC). Der SoC kann einen Grafikchip, eine CPU, Netzwerkcontroller, Speicher und viele verschiedene Controller umfassen. Das Schlechte daran ist, dass Unternehmen mit diesem Ansatz nicht von unterschiedlichen Produktionstechnologien profitieren können und nicht jedes Bauteil in dieser Form hergestellt werden kann.

Wie eingangs erwähnt, hat AMD mit seinen Ryzen-Prozessoren genau das getan, worüber wir gesprochen haben. Der Halbleiterriese brachte seine Zen-Architektur 2017 in Form einer Single-Die-Ryzen-Desktop-CPU auf den Markt. Einige Monate später wurden zwei Multi-Chip-Produktlinien, Threadripper und EPYC, veröffentlicht; EPYC-Prozessoren könnten bis zu vier Chips aufnehmen.

Zwei Jahre später, mit der Veröffentlichung von Zen 2, begann AMD, den Multi-Chip-Modul-Ansatz, über den wir schon lange gesprochen haben, vollständig zu übernehmen, egal ob Sie ihn HI, MCM oder SiP nennen. Sie entfernten viele der analogen Systeme vom Prozessor und platzierten sie auf einem anderen Chip. Diese wurden mit einfacheren und kostengünstigeren Technologien hergestellt, während für die restlichen Logikchips und den Cache fortschrittlichere Techniken verwendet wurden.

Mit der Zeit kam das Wort „Chiplet“ in Mode.

Lassen Sie uns ein wenig diskutieren, warum AMD diesen Weg eingeschlagen hat. Unten sehen Sie zwei weitere Ryzen 5-Prozessoren, fotografiert von Fritzchen Fritz: links der Ryzen 5 2600 mit Zen+-Architektur und rechts der Ryzen 5 3600 mit Zen-2-Architektur.


Ryzen 5 2600 mit Zen+-Architektur und Ryzen 5 3600 mit Zen 2-Architektur.

Bei beiden Modellen wurden die integrierten Wärmeverteiler entfernt und mit einer Infrarotkamera fotografiert. Wie Sie sehen können, trägt der Ryzen 5 2600 eine Chipeinheit in einem einzigen Schnitt. Dieser Chip bietet Platz für acht Kerne, beim 2600 sind jedoch je nach Modell zwei deaktiviert.

Beim Ryzen 5 3600 ist es ähnlich, allerdings erkennt man schnell, dass in einem Gehäuse zwei unterschiedliche Chip-Dies stecken. Der obere Chiplet beherbergt die Kerne und den Cache, er wird Core Complex Die (CCD) genannt. Der untere Input/Output Die (IOD) ist für Speicher, PCI Express, USB usw. vorgesehen. Er enthält Controller, die für viele Dinge benötigt werden, z. Natürlich sind sie alle wertvoll, aber der Teil, in dem sich die Kerne und der Cache befinden, ist viel wertvoller.

Beide Ansichten sind grundsätzlich maßstabsgetreu, da beide Ryzen-CPUs exakt in den Mainboard-Sockel passen. Von außen mag es scheinen, dass die beiden Chips im 3600 eine größere Fläche einnehmen als der einzelne Chip im 2600, aber das ist nicht wirklich der Fall.

Unten sehen Sie eine Nahaufnahme der Architekturen Zen+ (oben) und Zen 2 (unten). Wenn wir die Chips mit den Kernen direkt vergleichen, wird deutlich, wie viel Platz die analogen Schaltkreise im alten Modell einnahmen. Die Kerne sind mit Gold markiert, während die analogen Teile rund um den Cache blaugrün markiert sind. Allerdings ist beim Zen 2 CCD nur sehr wenig Platz für analoge Systeme vorgesehen; Es besteht fast ausschließlich aus logischen Bereichen und SRAM.

Der Zen+-Chip hat eine Fläche von 213 mm² und wird von GlobalFoundries mit 12-nm-Prozesstechnologie hergestellt. Wir sagten, dass AMD in seiner Zen-2-Architektur zwei verschiedene Chiplets verwendet hat. Das Unternehmen erhielt weiterhin Dienstleistungen von GlobalFoundries für den 125-mm²-IOD. Der 73-mm²-CCD profitierte jedoch von der fortschrittlichen N7-Produktionstechnologie (7 nm) von TSMC. Dadurch wurden sowohl Effizienz- als auch Kostenvorteile erzielt.

Die Chips im neuen Modell verfügen über eine kleinere Gesamtfläche, einen schnelleren Speicher und doppelt so viel L3-Cache, der PCI Express unterstützt. Der praktischste Aspekt des Chiplet-Ansatzes war jedoch, dass die kompakte Größe des CCD es AMD ermöglichte, einen weiteren Chip in das Gehäuse einzubauen. Dank dieser Entwicklung erreichten High-End-Prozessoren der Ryzen 9-Serie mit 12 und 16 Kernen Desktop-Computer. Mit anderen Worten: Es wurden zwei identische CCD-Chips verwendet, sodass die Anzahl der Kerne verdoppelt werden konnte.

Noch besser: Durch die Verwendung von zwei kleineren Chips anstelle eines großen Chips können mit jedem Wafer mehr Chips geschnitten werden. Beim Zen 2 CCD kann ein einzelner 12-Zoll-Wafer (300 mm) bis zu 85 % mehr Chips bereitstellen als das Zen+-Modell. Davon profitiert natürlich AMD.

Je kleiner das aus einem Wafer entnommene Modul ist, desto geringer ist die Wahrscheinlichkeit, dass es Herstellungsfehler aufweist. Denn diese Fehler, die immer mehr oder weniger auftreten, neigen dazu, sich über den gesamten Chip auszubreiten.

Der Chiplet-Ansatz ermöglichte es AMD nicht nur, sein Portfolio zu erweitern, sondern das Unternehmen konnte auch alle seine Pläne deutlich kostengünstiger umsetzen. Eins-zu-eins-CCDs können in mehr als einem Modell verwendet werden, und aus jedem Wafer können Hunderte anderer Chiplets hergestellt werden.

Wenn der Designstil, über den wir sprechen, so vorteilhaft ist, warum macht Intel dann nicht dasselbe? Es wird es tun, sogar in seiner umfassenden Form. Wenn wir alle Leaks und Gerüchte zusammenfassen, wird die blaue Gruppe höchstwahrscheinlich damit beginnen, Multi-Chip-Design mit Meteor-Lake-Architektur einzuführen. Der vom CPU-Hersteller eingeschlagene Weg wird jedoch etwas anders sein.

Intel wird den Begriff „Kachel“ anstelle von „Chiplet“ verwenden, obwohl wir ihn bei früheren Grafikchips gesehen haben. Bisher monolithisch konzipierte Prozessoren werden somit in vier weitere Chips aufgeteilt:

  • Rechenkachel: Der Teil, der alle Kerne und den L2-Cache enthält.
  • GFX-Einheit (GFX-Kachel): Der Teil, der die integrierte GPU (iGPU) beherbergt.
  • SOC (SOC Tile): Der Teil, der L3-Cache, PCI Express und andere Controller enthält.
  • IO-Einheit (IO-Kachel): Der Teil, der physische Schnittstellen für Speicher und andere Geräte enthält.

Zwischen dem SOC und den anderen drei Teilen werden Hochgeschwindigkeits-Medienkommunikationstechnologien mit geringer Latenz eingesetzt. Alle diese sind mit einem anderen Muster verbunden, das als „Interposer“ (elektrische Schnittstelle zwischen den Anschlüssen) bekannt ist. Dieser Interposer versorgt jeden Chip mit Strom und enthält die Leiterbahnen in seiner Mitte. Der Interposer und vier Chiplets werden dann auf einer zusätzlichen Platine montiert, um die Verpackung der gesamten Baugruppe zu ermöglichen.

Im Gegensatz zu Intel verwendet AMD keine benutzerdefinierten Montagechips. AMD verfügt jedoch über ein firmeneigenes proprietäres Verbindungssystem namens Infinity Fabric zur Implementierung von Chiplet-Informationsprozessen. Die Stromverteilung erfolgt über ein recht standardisiertes Paket, außerdem verwendet AMD weniger Chiplets. Warum ist Intels Design so?

Der Ansatz von AMD weist im Vergleich zu dem von Intel einige Herausforderungen auf; nicht gerade geeignet für den ultraportablen Low-Power-Chip-Bereich. Aus diesem Grund verwendet AMD weiterhin monolithische CPUs für das Segment der Ultra-Low-Power-Portables. Das Design von Intel ermöglicht es, verschiedene Einheiten entsprechend einem bestimmten Bedarf zu kombinieren. Während beispielsweise Modelle, die für erschwingliche Laptops hergestellt werden, viel kleinere Chips verwenden können, bietet AMD für jeden Zweck nur eine Chipgröße an.

In der Meteor-Lake-Architektur wird der Compute-Die mit Intel 4, der Grafik-Die mit TSMC N3 und der SoC-Die mit TSMC N4- und N5-Prozessen hergestellt. Die tragbare Core-Serie der 14. Generation wird die überarbeiteten Redwood Cove- und Crestmont-Kerne vereinen. Auf der Grafikseite werden mit der neuen Xe-HPG-Architektur bis zu 192 Execution Units (EU) angeboten.

Der Nachteil des Intel-Systems besteht darin, dass die Produktion aufwendig und teuer ist. Wir wissen jedoch noch nicht, wie stark sich diese Technik auf die Einzelhandelspreise auswirken wird. Wenn Sie diese Wörter in Zukunft lesen, erhalten Sie die Antwort.

Als zusätzliche Information wird das blaue Team mit der Meteor Lake-Serie auch Chips für künstliche Intelligenz einsetzen. Meteor-Lake-CPUs werden einen VPU-Chip (Versatile Processing Unit) für künstliche Intelligenz enthalten, der auf der Technologie der 3. Generation von Movidius basiert. Eine der Hauptfunktionen von Meteor Lake VPU wird die Echtzeit-Bildbearbeitung und -Filterung sein. Es ist möglich, viele Funktionen zu beschleunigen, darunter Unschärfeeffekte, Hintergrundersetzung, Blickkontaktfunktion (möglicherweise ähnlich wie NVIDIA Broadcast Eye Contact) oder Gestenerkennung. Der KI-Kern hat auch genug Leistung, um Bewegungen in der Unreal Engine einzufangen.

Wir haben ständig über Prozessoren gesprochen, aber auch Grafikkarten profitieren von den gleichen Entwicklungen. AMD begann mit der Verwendung der RDNA 3-Architektur bei High-End-Grafikkarten der Radeon RX 7000-Serie, beispielsweise der Radeon RX 7900 XT. Karten des unteren Segments wie die RX 7600 verwenden weiterhin ein monolithisches Design, aber die RX 7900 XT und XTX verfügen über Multi-Chip-Module.

RDNA 3 und Chiplet-Design

Wie bereits mehrfach erwähnt, kommt in der RX 7900-Serie eine High-End-GPU namens Navi 31 zum Einsatz. Navi 31 besteht aus zwei Grundmodulen: Graphics Process Die (GCD) und Memory Cache Dies (MCD). Es gibt Ähnlichkeiten mit dem Chiplet-Design der AMD-Prozessoren Zen 2/3/4, aber alles ist auf die Bedürfnisse der Grafikwelt zugeschnitten. Mit anderen Worten: Dem roten Team ist es gelungen, seine Erfahrungen auf der Prozessorseite auf die Grafikseite zu übertragen.


Navi 21 GPU-Funktionen

Tauchen Sie tief in die RDNA 3-Architektur ein

Wie Sie wissen, haben GPUs andere Anforderungen und eine ganz andere Struktur als CPUs. Grafikprozessoren benötigen viel Speicherbandbreite, um alle GPU-Kerne zu versorgen. Beispielsweise bietet selbst der massive EPYC 9654 mit 12-Kanal-DDR5-Konfiguration „nur“ bis zu 460,8 GB/s Bandbreite. Grafikkarten wie RTX 4090 und RTX 3090 Ti verdoppeln diese Abmessungen und verfügen über eine Bandbreite von 1 TB/Sek.

Damit GPU-Chips effektiv funktionieren, musste AMD etwas anders machen. Die Ingenieure des Unternehmens fanden die Lösung, das genaue Gegenteil der CPU-Konfiguration zu implementieren: Sie nutzten das GCD als Hauptverarbeitungszentrum, während Speichercontroller und Cache auf mehreren kleineren Chips untergebracht waren.

Die GCD genannte Einheit enthält Informationsverarbeitungseinheiten (bekannt als Compute Units) sowie andere Grundfunktionen wie Bildcodierungshardware, Anzeigeschnittstellen und PCIe-Kommunikation. Navi 31 GCD bietet Platz für bis zu 96 CUs zur Durchführung typischer Grafikverarbeitungsaufgaben. AMD verbindet die GCD mit MCDs, die über den Chip und den Rest der Platine verteilt sind, mithilfe fortschrittlicher Infinity Fabric-Technologien.

Wie der Name schon sagt, enthalten MCDs (Memory Dies) große L3-Cache-Blöcke (Infinity Cache) und die physische GDDR6-Speicherschnittstelle. Allerdings verfügt die dem GCD zugewandte Seite der MCDs über Infinity Fabric-Kontakte.

Mithilfe der N5-Technologie von TSMC gelang es AMD, 45,7 Milliarden Transistoren in den 300 mm² großen Navi 31 GCD zu integrieren. In den 37 mm² großen MCDs aus dem TSMC N6-Band stecken 2,05 Milliarden Transistoren.

Trotz der enormen technologischen Fortschritte in der Halbleiterfertigung wird es irgendwann stecken bleiben, da Pionierunternehmen weiterhin Transistoren verkleinern. Um die Chipleistung weiter zu verbessern, haben Ingenieure zwei Möglichkeiten: Die erste Option sind mehr Logikprozesseinheiten und die notwendigen Speicherlösungen zur Unterstützung. Der zweite Grund sind hohe Taktraten.

Bis zu einem gewissen Punkt ist auch eine Erhöhung der Frequenzgeschwindigkeit wirksam. Außerdem sind lange Arbeitszeiten keine wirksame Lösung. Während der 2013 erschienene FX-9590-Prozessor von AMD bei bestimmten Arbeitslasten 5 GHz erreichen kann, liegt die höchste Taktrate in seinen aktuellen Modellen bei 5,7 GHz (Ryzen 9 7950X).

Intel hat kürzlich den Core i9-13900KS herausgebracht, der unter perfekten Bedingungen 6 GHz erreichen kann, die restlichen Modelle der Raptor-Lake-Serie haben jedoch ähnliche Taktraten. Darüber hinaus wird erwartet, dass die Core-Serie „Raptor Lake Refresh“ der 14. Generation wieder maximal 6 GHz erreichen wird.

Was wirklich zählt, sind die Kerne und die SRAM-Größe. Der gerade erwähnte FX-9590 war ein Prozessor mit 8 Kernen, 8 Threads und 8 MB L3-Cache. Der 7950X3D verfügt über 16 Kerne, 32 Threads und 128 MB L3-Cache. Andererseits sind auch Intels CPUs hinsichtlich der Kerne und des SRAM gewachsen.

NVIDIAs erste Unified-Shader-GPU, die G80 aus dem Jahr 2006, verfügte über 681 Millionen Transistoren, 128 Kerne und 96 kB L2-Cache auf einer Grundfläche von 484 mm². Bis 2022, wenn AD102 auf den Markt kommt, befinden sich auf der 608 mm2 großen Die-Fläche 76,3 Milliarden Transistoren, 18.432 Kerne und 98.304 kB L2-Cache.

Im Jahr 1965 stellte Gordon Moore, Mitbegründer von Fairchild Semiconductor, fest, dass sich in den Anfangsjahren der Chipproduktion die Komponentendichte innerhalb eines Chips bei konstanten Mindestproduktionskosten jedes Jahr verdoppelte. Diese Beobachtung wurde als Moores Gesetz bekannt und später aufgrund von Fertigungstrends dahingehend revidiert, dass sich „die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt“.

Das Mooresche Gesetz ist seit fast sechs Jahrzehnten eine einigermaßen genaue Darstellung des Fortschritts der Halbleiterindustrie. Massive Vergrößerungen des logischen Platzes und des Speichers sowohl in CPUs als auch GPUs wurden schon immer durch Verfeinerungen der Prozesstechnologien erreicht, und die Komponenten sind im Laufe der Jahre immer kleiner geworden. Doch egal, welche neuen Technologien verfügbar sind, dieser Trend kann nicht ewig anhalten.

Unternehmen wie AMD und Intel haben bereits begonnen, sich Multi-Chip-Designs zuzuwenden, anstatt darauf zu warten, dass dieses Ziel erreicht wird. Unternehmen untersuchen zu Recht verschiedene Formeln, um leistungsstärkere Prozessoren zu entwickeln und den Fortschritt fortzusetzen.

Mittlerweile kann man nach 5 oder 10 Jahren feststellen, dass die CPU- und GPU-Größen viel größer sind. Seien Sie jetzt vorbereitet. So sehr, dass dieser Job auch einen kühlenden Teil hat.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert