Unterstützung künstlicher Intelligenz in Hardware: Was ist NPU und wofür ist es nützlich?

Wir sind sehr schnell in das Zeitalter der künstlichen Intelligenz eingetreten. Die Welt der künstlichen Intelligenz, die begonnen hat, unser Leben in allen Bereichen zu beeinflussen, die Dinge in einigen Aspekten einfacher zu machen und die Produktivität zu steigern, schreitet weiter voran. Und das Licht ist auf deinem Gesicht. Wie immer konzentrieren sich die Giganten der Technologiebranche auf KI-Technologien, um sich abzuheben und mit Innovationen Schritt zu halten. Unternehmen wie Intel, AMD und Qualcomm haben bereits begonnen, Schritte auf der Hardwareseite zu unternehmen. Heute werfen wir einen genaueren Blick auf die spezielle KI-Einheit, von der Sie gerade erst gehört haben und von der Sie in Zukunft noch häufiger hören werden: NPU (Neural Processing Unit).

Mit der Einführung von NPU, was für Neural Process Unit steht, sollen Aufgaben der künstlichen Intelligenz beschleunigt werden. Apple verwendet tatsächlich schon seit Jahren NPUs in seinen Chips, das ist also nichts Neues. Da jedoch alle Marken Prozesse der künstlichen Intelligenz einführen und Tools der künstlichen Intelligenz weit verbreitet sind, hat ein neuer Trend begonnen.

Wenn Sie sich in den letzten Monaten Hardware-Hersteller angesehen haben, ist Ihnen vielleicht aufgefallen, dass Chips erwähnt werden, die wir „NPU“ nennen. Bisher hat man beim Kauf eines Computers nur die CPU kontrolliert. Jetzt können wir sagen, dass Intel und AMD die Sache mit ihren durch künstliche Intelligenz unterstützten Prozessoren etwas komplizierter machen. Nun gibt es möglicherweise noch einen weiteren Punkt, auf den Sie achten müssen.

Laptops der neuen Generation werden jetzt mit NPU ausgestattet. Jetzt, da wir am Anfang des Weges stehen, sind die Dinge nicht sehr kompliziert, aber in Zukunft werden wir sehen, wie sich diese KI-Einheiten weiterentwickeln und mehr Funktionen erhalten. Wir wollten Sie frühzeitig informieren. Was ist diese NPU?

Fassen wir von Anfang an zusammen. Auch Fahrzeuge, die künstliche Intelligenz nutzen, erfordern Arbeitskräfte. Je nach Abteilung, Einsatzgebiet und Software gibt es unterschiedliche Bedürfnisse und Rechenanforderungen. Mit der steigenden Nachfrage nach produktiven Einsatzgebieten künstlicher Intelligenz wurde eine erneuerte Informationsprozessarchitektur speziell für künstliche Intelligenz benötigt.

Abgesehen von der Zentraleinheit (CPU) und der Grafikeinheit (GPU) wurden für alle Aufgaben der künstlichen Intelligenz Chips namens Neural Processing Units (NPU) von Grund auf entwickelt. Wenn ein geeigneter Prozessor mit einer NPU verwendet wird, können neue und fortschrittliche produktive Erfahrungen mit künstlicher Intelligenz genutzt werden, wodurch die Leistung und Effizienz der verwendeten Anwendungen maximiert wird. Darüber hinaus sinkt bei diesem Vorgang zwar der Stromverbrauch, aber auch die Akkulaufzeit wird positiv beeinflusst.

Im Wesentlichen handelt es sich bei der NPU um einen speziellen Prozessor, der für die Ausführung maschineller Rechenalgorithmen konzipiert ist. Im Gegensatz zu herkömmlichen CPUs und GPUs sind NPUs für die Durchführung komplexer mathematischer Berechnungen optimiert, die ein wesentlicher Bestandteil künstlicher Grenznetzwerke sind. Speziell entwickelte neuronale Prozessoren können große Datenmengen parallel verarbeiten und komplette Arbeit leisten. Bilderkennung, Verarbeitung natürlicher Sprache und andere Aufgaben im Zusammenhang mit künstlicher Intelligenz können so deutlich einfacher bewältigt werden. Wenn beispielsweise eine GPU in die GPU integriert wäre, könnte die NPU für eine Aufgabe wie die Objekterkennung oder Szenenbeschleunigung verantwortlich sein.

Die Neural Processing Unit wurde entwickelt, um neuronale Netzwerkprozesse und Missionen der künstlichen Intelligenz zu beschleunigen. Sie ist eher in CPUs und SoCs integriert als in irgendetwas anderes. Im Gegensatz zu CPUs und GPUs sind NPUs für informationsorientiertes Parallelrechnen optimiert. Neben vielen Aufgaben ist es hocheffizient bei der Verarbeitung großer Multimediadaten wie Bildern und Bildern sowie der Datenverarbeitung für Grenznetzwerke. Es wird besonders nützlich bei Foto-/Videobearbeitungsprozessen wie Spracherkennung, Hintergrundunschärfe und Objekterkennung bei der Bildsuche sein.

  • Was ist ein System-on-Chip (SoC)?

NPU ist ebenfalls ein integrierter Schaltkreis, unterscheidet sich jedoch von Einzelfunktions-ASICs (Application Specific Integrated Circuits). Während ASICs für ein einziges Ziel konzipiert sind (wie Bitcoin-Mining), können NPUs den unterschiedlichen Anforderungen des Netzwerk-Computing gerecht werden, indem sie eine höhere Komplexität und Flexibilität bieten. Dies wird durch eine spezielle Software- oder Hardwareprogrammierung ermöglicht, die auf die besonderen Anforderungen von Grenznetzwerkberechnungen zugeschnitten ist.

Auch wenn die meisten Verbraucher sich dessen nicht bewusst sind, werden sie bald über die Unterstützung künstlicher Intelligenz auf ihren Computern verfügen. Häufig werden NPUs in die CPU integriert, wie bei den Intel Core/Core Ultra-Serien oder den neuen Laptop-Prozessoren der AMD Ryzen 8040-Serie. In größeren Informationszentren oder spezialisierteren Industriebetrieben ist es jedoch möglicherweise möglich, die NPU in einem anderen Format zu sehen. Wir können ihn im Gegensatz zu anderen Prozessoreinheiten sogar als einen völlig anderen Prozessor auf dem Motherboard betrachten.

Die NPU wurde von Grund auf entwickelt, um die KI-Inferenz mit geringem Stromverbrauch zu beschleunigen. Arbeitslasten der künstlichen Intelligenz bestehen hauptsächlich aus der Berechnung von Grenznetzwerkschichten, die aus Skalar-, Vektor- und Tensormathematik bestehen, gefolgt von einer nichtlinearen Aktivierungsfunktion. Mit einem fortschrittlichen NPU-Design ist es möglich, alle leistungsstarken Arbeitslasten zu bewältigen.

Während GPUs auf Parallelverarbeitung spezialisiert sind und hauptsächlich im maschinellen Rechnen eingesetzt werden, gehen NPUs bei dieser Spezialisierung noch einen Schritt weiter. GPUs sind Multitasking-fähig und einzigartig in der Bewältigung der Grafikverarbeitung sowie Aufgaben in einem parallelen Format. Für allgemeine Zwecke verwendete CPUs sind das Gehirn eines Computers und führen eine Vielzahl von Aufgaben aus.

  • Was ist der Unterschied zwischen APU, GPU und CPU? Wird iGPU bevorzugt?

NPUs hingegen wurden speziell zur Beschleunigung von Deep-Learning-Algorithmen hergestellt und für die Ausführung bestimmter Prozesse angepasst, die für Grenznetzwerke erforderlich sind. Da sie sich auf sinnvolle Aufgaben konzentrieren und spezielle Optimierungen vorgenommen werden, bieten sie in bestimmten Szenarien eine deutlich höhere Leistung für KI-Workloads im Vergleich zu CPUs und sogar GPUs.

  • Wie dominierten GPU-KI und Informationen den Prozess?

Tatsächlich sind Grafikchips im Bereich der künstlichen Intelligenz recht erfolgreich. Viele Aufgaben der künstlichen Intelligenz und des maschinellen Lernens werden GPUs zugewiesen. Es gibt jedoch einen wichtigen Unterschied zwischen GPU und NPU. Obwohl GPUs für ihre parallelen Rechenfähigkeiten bekannt sind, sind spezielle integrierte Schaltkreise erforderlich, um maschinelle Rechenaufgaben effektiv zu bewältigen. GPUs sind dafür über die Grafikverarbeitung hinaus nicht perfekt. Ja, es ist erfolgreich, aber nicht richtig. Wie die meisten von Ihnen wissen, sind die Tensorkerne in NVIDIA-Grafikkarten diesbezüglich in der Lage. Andererseits haben auch AMD und Intel diese Schaltkreise in ihre GPUs integriert. Das Ziel bestand darin, Prozesse zur Auflösungsskalierung durchzuführen, was eine sehr häufige Arbeitslast der künstlichen Intelligenz darstellt.

  • Was ist Tensor und Ray Tracing Core und wofür wird es verwendet?

NPUs nehmen diese Schaltkreise (die eine Reihe anderer Prozesse ausführen) sozusagen aus einer GPU heraus und machen sie zu einer eigenständigen, dedizierten Einheit. Letztendlich können Missionen, die auf künstliche Intelligenz abzielen, auf niedrigeren Leistungsniveaus effizienter durchgeführt werden. Wir können sagen, dass es sich um eine viel nützlichere Entwicklung für Laptops handelt.

Mit GPNPU (GPU-NPU-Hybrid) ist auch ein Konzept entstanden, das darauf abzielt, die Stärken von GPUs und NPUs zu kombinieren. Während GPNPUs die NPU-Architektur nutzen, um KI-zentrierte Missionen zu beschleunigen, können sie auch die parallelen Verarbeitungsfähigkeiten von GPUs nutzen. Diese Kombination zielt darauf ab, Stabilität inmitten von Multilateralismus und dedizierten Prozessen der künstlichen Intelligenz zu schaffen, indem verschiedene Anforderungen an den Informationsprozess in einem einzigen Chip erfüllt werden.

Um die verschiedenen Kriterien und Rechenanforderungen der künstlichen Intelligenz zu erfüllen, sind verschiedene Prozessoren erforderlich. Der Einsatz von auf künstlicher Intelligenz basierenden, speziell entwickelten Prozessoren zusammen mit der zentralen Prozesseinheit (CPU) und der Grafikverarbeitungseinheit (GPU), die jeweils in unterschiedlichen Geschäftsbereichen tätig sind, ist mit einer heterogenen Informationsprozessarchitektur möglich, die Prozessvielfalt nutzt. Beispielsweise ist die zentrale Verarbeitungseinheit (CPU) für die sequentielle Steuerung und Ad-hoc-Prozesse verantwortlich, die Grafikverarbeitungseinheit (GPU) ist für den parallelen Informationsfluss verantwortlich und die neuronale Verarbeitungseinheit (NPU) ist für grundlegende KI-Missionen verantwortlich, die Folgendes umfassen: Skalar-, Vektor- und Tensorarithmetik. Heterogenes Computing erhöht die Anwendungsleistung, die thermische Effizienz des Geräts und die Akkulaufzeit, um die Erfahrungen der Endbenutzer mit generativer KI zu verbessern.

Auch wenn dies nicht für jedes System gilt, können wir die NPU als Coprozessor bezeichnen. NPUs sollen die Funktionen von CPUs und GPUs ergänzen. Während CPUs eine Vielzahl von Aufgaben ausführen und GPUs sich durch die Darstellung detaillierter Grafiken auszeichnen, sind NPUs auf die schnelle Ausführung KI-gesteuerter Aufgaben spezialisiert. Auf diese Weise werden unterschiedliche Arbeitslasten im gesamten System auf andere Bereiche verteilt, und GPU und CPU nutzen ihre Kapazität bei der Bewältigung unterschiedlicher Arbeitslasten nicht vollständig aus.

Beispielsweise kann eine NPU bei Videoanrufen die Aufgabe, den Hintergrund unscharf zu machen, effizient bewältigen, sodass sich die GPU auf schwerere Aufgaben konzentrieren kann. Ebenso können NPUs in der Fotografie oder Bildbearbeitung die Gesamteffizienz des Arbeitsablaufs steigern, indem sie Objekterkennung und andere Prozesse im Zusammenhang mit künstlicher Intelligenz durchführen.

Algorithmen des maschinellen Lernens bilden das Rückgrat von Anwendungen der künstlichen Intelligenz. Obwohl es oft mit künstlicher Intelligenz verwechselt wird, kann maschinelles Lernen als eine Art künstliche Intelligenz angesehen werden. Diese Algorithmen lernen durch Informationsmodelle gewonnene Daten, treffen Annahmen und treffen Entscheidungen ohne explizite Programmierung. Es gibt vier medizinische Algorithmen für maschinelles Lernen: kontrolliert, halbkontrolliert, unkontrolliert und unterstützt. NPUs spielen eine wichtige Rolle bei der effizienten Ausführung dieser Algorithmen, indem sie Aufgaben wie Training und Inferenz ausführen, bei denen große Datensätze verarbeitet werden, um Modelle anzupassen und Aussagen in Echtzeit zu treffen.

NPUs begannen sich ab 2024 zu verbreiten, und in Zukunft wird wahrscheinlich jeder Prozessor NPUs enthalten. Den ersten Schritt machte Intel mit Meteor-Lake-Chips. AMD hingegen hat mit seinen tragbaren Ryzen 8040-Prozessoren die Zündschnur gezündet.

Zwangsläufig wird die Nachfrage nach KI-fokussierten Anwendungen, bei denen NPUs im Vordergrund stehen, weiter zunehmen. Dadurch werden neuronale Prozesseinheiten wertvoller. Benutzerdefinierte Architekturen, die für maschinelle Computermissionen optimiert sind, ermöglichen es NPUs, in der Computerwelt voranzukommen. Die Kombination von GPNPUs und Fortschritten bei maschinellen Erfassungsalgorithmen wird sicherlich Entwicklungen auslösen, die wir noch nie zuvor gesehen haben, die Technologie vorantreiben und unsere digitale Umgebung neu gestalten.

NPU mag Ihnen im Moment wertlos erscheinen, das ist normal. Künftig werden jedoch Funktionen der künstlichen Intelligenz zunehmend in jedes Betriebssystem und jede Anwendung Einzug halten. Dadurch werden die Prozesseinheiten, über die wir sprechen, wertvoller.

Es gibt Anforderungen, die erfüllt sein müssen, damit ein Computer als „KI-betrieben“ gilt. Microsoft gab an, dass die NPU in KI-Computern eine Mindestleistung von 45 TOPS bieten sollte. Chips der aktuellen Generation von AMD und Intel können diesen Bedarf derzeit nicht decken.

Auf der Desktop-Seite verfügt Intel derzeit über keine Prozessoren mit NPUs, sodass die einzige Option AMD ist. Intel, das im tragbaren Bereich mit seinen Meteor-Lake-Prozessoren hervorsticht, bietet konkurrierende Optionen zu AMDs Ryzen 8040 (Hawk Point)-Prozessoren.

Bemerkenswert ist, dass weder die Chips von AMD noch Intel die Leistungsanforderungen von Microsoft von 45 TOPS erfüllen können. Beide Unternehmen sagen jedoch, dass sie diese Anforderungen mit ihren Prozessoren der neuen Generation mit den Codenamen Strix Point und Lunar Lake erfüllen werden. Die auf 45 TOPS festgelegte Anforderung besteht darin, Microsoft Copilot in die Lage zu versetzen, KI-Elemente lokal auszuführen. Es ist jedoch nicht bekannt, wie sich ein zukünftiges Windows-Update, das diese Funktionalität aktiviert, auf aktuellen AMD- und Intel-Prozessorgenerationen auswirken wird. Die Snapdragon X Elite Arm-Chips von Qualcomm werden Mitte des Jahres mit einer NPU-Leistung von 45 TOPS auf den Markt kommen. Apples M3-Prozessoren bieten 18 TOPS NPU-Leistung, Apples Seite hat jedoch keinen Bezug zu den Anforderungen von Microsoft.

Die angebotene Hardwareunterstützung für Workloads mit künstlicher Intelligenz trägt dazu bei, kritische Vertraulichkeitsbedenken im kommerziellen Bereich auszuräumen. Gleichzeitig bieten sich auch Latenz-, Leistungs- und Akkulaufzeitvorteile für KI-Anwendungen. Nebenbei bemerkt: Energieeffizienz kann erreicht werden, wenn eine KI-Aufgabe mit einer NPU statt mit einer GPU ausgeführt wird.

Intel Meteor Lake

Intel hat einen Trend namens „AI PC“ ins Leben gerufen. Mit Intel 4 (7 nm)-Technologie hergestellte Meteor Lake-Prozessoren übernehmen das Foveros 3D-Hybriddesign von Intel. Wir schauen uns auch die ersten Intel-Prozessoren an, die Neural Processing Units (NPUs) verwenden. Das Unternehmen hatte behauptet, dass die NPU (Apple, Qualcomm und AMD haben ihre eigenen dedizierten NPUs) die Ära der „PCs mit künstlicher Intelligenz“ einläuten würde.

Meteor Lake wird zum ersten Mal Prozessoren namens NPUs für energieeffizientes KI-Computing sowie in alle Computer-Engines integrierte Fähigkeiten der künstlichen Intelligenz nutzen. Dadurch werden die Aufgaben der künstlichen Intelligenz, die Benutzer in mancher Software ausführen, beschleunigt. Tatsächlich ist künstliche Intelligenz nicht nur mit der NPU verbunden, sondern auch GPU und CPU sind für KI-Workloads optimiert. Die NPU war jedoch bereit, sich nur auf Missionen der künstlichen Intelligenz zu konzentrieren:

  • GPU: Die integrierte GPU verfügt über Leistungsparallelität und Effizienz, die ideal für künstliche Intelligenz in den Medien, 3D-Anwendungen und der Rendering-Pipeline sind.
  • NPU: NPU (Neuronale Verarbeitungseinheit) ist immer eine KI-Engine mit geringem Stromverbrauch, die speziell für KI und KI-Transfer entwickelt wurde.
  • CPU: Die CPU verfügt über ideal schnelle Reaktionszeiten für leichte, künstliche Intelligenzaufgaben mit Einzelinferenz und geringer Latenz.

Lunar Lake ist unterwegs

Intel stellte auf der Vision 2024-Veranstaltung Lunar-Lake-Prozessoren vor, die zukünftige Computer antreiben werden. Diese Prozessoren verwenden den Intel Core Ultra 200V, einen Teil der Intel Core Ultra 2-Serie, der im Vergleich zur Core Ultra 1-Serie erhebliche Verbesserungen bei der Berechnungsgeschwindigkeit künstlicher Intelligenz verspricht. Pat Gelsinger, CEO von Intel, betonte auf der Vision 2024-Veranstaltung, dass Lunar-Lake-Prozessoren eine Verdreifachung der KI-Leistung liefern und eine Gesamtprozessleistung von über 100 TOPS erreichen können.

AMD Ryzen 8040 „Hawk Point“

Während wir über Leaks zu Windows 12 sprachen, sprachen wir auch über hardwareseitige Lösungen für künstliche Intelligenz. Auch AMDs XDNA-Chips zielen ausschließlich auf KI-Anwendungen ab. Auch Unternehmen wie AMD setzen mit Hardware-Innovationen auf die Steigerung der Leistung künstlicher Intelligenz. Neben der XDNA 2 NPU stellte der Chiphersteller auch eine Anwendung vor, die es Enthusiasten und Entwicklern ermöglicht, vorab trainierte KI-Modelle bereitzustellen, die auf der XDNA AI-Engine laufen: Ryzen AI Software.

AMD nennt die verbesserte NPU-Leistung als eines der wichtigsten Verkaufsargumente der 8040-Serie. Während die XDNA-Engine in den vorherigen 7040-Modellen eine Leistung von 10 TOPS erbrachte, stieg dieser Wert beim 8040 auf 16 TOPS.

Alle fünf tragbaren Ryzen 8040HS-Chips enthalten die XDNA-basierte NPU für künstliche Intelligenz, besser bekannt als „Ryzen AI“. Wir sollten darauf hinweisen, dass die NPU technisch gesehen in allen CPUs der AMD Ryzen 7040-Serie (Phoenix) physisch vorhanden ist, das Unternehmen sie jedoch nicht in mehr als einem Modell aktiviert.

Um Sie noch einmal daran zu erinnern: Bei der NPU handelt es sich nicht um neue Hardware: Sie nutzt die Xilinx-IP, die AMD mit der Übernahme von Xilinix erworben hat. Während Anbieter, Hersteller, Softwareentwickler und die ganze Welt die teuren Vorteile und Fähigkeiten begrüßen, die KI in Zukunft bieten kann, integriert AMD weiterhin KI-Funktionen direkt in Prozessorsilikone.

AMD bereitet Strix Point vor

Beim Start wurden auch tragbare Chips mit dem Codenamen „Strix Point“ erwähnt. Strix Point-Prozessoren, die voraussichtlich im Jahr 2024 auf den Markt kommen, werden dank der neuen XDNA 2 NPU-Engine für künstliche Intelligenz bis zu dreimal mehr Leistung im Bereich der künstlichen Intelligenz bieten. Kurz gesagt: 2024 und 2025 werden ein Jahr voller künstlicher Intelligenz sein.


AMD gab an, dass die kommende Strix Point APU-Serie von der neuen XDNA2 AI-Architektur unterstützt wird. Es wird erwartet, dass diese Architektur eine bis zu dreifache Leistungssteigerung im Vergleich zur Hawk Point XDNA AI-Architektur bietet.

Qualcomm wird Ende 2024 X-Elite-Chips mit 45 TOPS-Leistung auf den Markt bringen. Das Unternehmen hatte ein kurzes Bild veröffentlicht, das den Snapdragon zeigt

Wie Sie sehen, besteht die Konkurrenz nicht nur zwischen AMD und Intel. Laut Bildbeschreibung umfassen die von Qualcomm durchgeführten unbenannten Snapdragon-NPU-Tests Stable Diffusion und AI Landscape Rendering in GIMP. Bei den Tests kamen übrigens statt der Cloud On-Board-Prozessoren zum Einsatz.

Es ist keine Überraschung, dass der kommende Qualcomm-Chip im NPU-Test glänzt. Snapdragon X Elite kann offiziell eine Leistung von 45 TOPS liefern, um KI-Workloads zu bewältigen. Intels Core-Ultra-Serie kann im besten Szenario „34 TOPS“ erreichen.

Wie bereits erwähnt, war Meteor Lake Intels erste Prozessorfamilie mit integrierter NPU, und die Leistung wird mit der neuen Generation Arrow Lake (Desktop) und Lunar Lake (Laptop) auf die nächste Stufe gehoben.

Fügen wir hinzu, dass der KI-Dienst Copilot von Microsoft bald lokal auf PCs statt in der Cloud laufen wird. Dafür strebt der Technologieriese bei CPUs ein Leistungsniveau von mindestens 40 TOPS an. Gemäß der neuen Definition von Microsoft und Intel verfügt ein Computer mit künstlicher Intelligenz über NPU, CPU, GPU, Microsofts Copilot und eine physische Copilot-Taste direkt auf der Tastatur. PCs, die den Anforderungen entsprechen, gibt es bereits, aber dies ist nur die erste Welle der AI-PC-Initiative.

Todd Lewellen, stellvertretender Leiter des Client Information Process Clusters bei Intel, äußerte sich zu diesem Thema wie folgt:

Es wird eine Fortsetzung oder Weiterentwicklung geben und dann werden wir zur nächsten Generation von KI-Computern übergehen, die 40 TOPS in NPU benötigen. Wir haben ein Werk der neuen Generation, das in diese Kategorie aufgenommen wird.

Und wenn wir zur nächsten Generation wechseln, können wir mehr Dinge lokal ausführen, genau wie Copilot, wobei mehr Copilot-Sachen lokal auf dem Client ausgeführt werden. Das bedeutet nicht, dass alles in Copilot lokal läuft, aber Sie erhalten viele der Kernfunktionen, die auf der NPU laufen.

Derzeit erfolgt die Copilot-Berechnung in der Cloud, aber die lokale Ausführung der Arbeitslast bietet Vorteile bei Latenz, Leistung und Datenschutz. Lewellen erklärte, dass Microsoft bei neuen Plattformen den Fokus auf das Kundenerlebnis lege. Microsoft besteht darauf, dass Copilot auf der NPU und nicht auf der GPU läuft, um die Auswirkungen auf die Akkulaufzeit zu minimieren.

AMD hat bestätigt, dass XDNA-NPUs bald über das Computertreibermodell in den Windows Task-Manager gelangen werden. Derzeit kann Windows 11 nur NPU-Einheiten auf Intels neuen Core Ultra Meteor Lake-CPUs überwachen, aber das wird sich ändern, sobald Updates eintreffen.

AMD wird das Compute Process Driver Model (MCDM) von Microsoft verwenden, um Windows 11 die Überwachung der XDNA NPU-Nutzung von AMD zu ermöglichen. MCDM ist ein Modul des Microsoft Windows Image Driver Model (WDDM), das speziell für reine Computer-Mikrochipprozessoren wie NPU entwickelt wurde. Laut AMD ermöglicht MCDM Windows auch die Verwaltung der NPU, einschließlich Energieverwaltung und Planung ähnlich wie bei CPU und GPU.

Bald werden mehrere Anwendungen gleichzeitig auf der NPU laufen. Dadurch wird der Hardware-Überwachungsprozess über Windows wertvoller.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert