Intel Innovation 2023: Entwicklern die Möglichkeit geben, KI überall hin mitzunehmen

Auf seiner dritten jährlichen Intel Innovation-Veranstaltung stellte Intel eine Reihe von Technologien vor, die KI überallhin bringen und sie für alle Workloads, vom Client und Edge bis hin zu Netzwerk und Cloud, zugänglicher machen.

„KI stellt einen Generationswechsel dar und läutet eine neue Ära globaler Expansion ein, in der Computer eine bessere Zukunft für alle ermöglichen“, sagte Pat Gelsinger, CEO von Intel, und fügte hinzu: „Für Entwickler bedeutet dies, die Grenzen des Möglichen zu verschieben.“ „Schafft große soziale und kommerzielle Möglichkeiten, um die größten Herausforderungen der Welt anzugehen und das Leben aller Menschen auf der Erde zu verbessern.“

In seinem Vortrag zur Eröffnung der Veranstaltung für Entwickler zeigte Gelsinger, wie Intel Fähigkeiten der künstlichen Intelligenz in Hardwareprodukte bringt und diese durch offene und Multi-Architektur-Softwarelösungen zugänglich macht. Gelsinger betonte auch, dass künstliche Intelligenz die Entwicklung der „Silikonomie“ fördere, „einer Wirtschaft, die mit der Magie von Silizium und Software wächst“. Heute treibt die 574-Milliarden-Dollar-Industrie, die auf Silizium basiert, eine globale Technologiewirtschaft im Wert von etwa 8 Billionen US-Dollar an.

Es beginnt mit der Siliziuminnovation. Gelsinger erklärte, dass Intels Fünf-Knoten-Prozessentwicklungsprogramm in vier Jahren gut laufe und kündigte an, dass sich Intel 7 bereits in Großserienproduktion befinde, Intel 4 produktionsbereit sei und Intel 3 Ende dieses Jahres auf den Markt kommen werde.

Gelsinger zeigte außerdem einen Intel 20A-Wafer, der die ersten Testchips für Intels Arrow-Lake-Prozessor enthält, der 2024 auf den Markt für Client-PCs kommen wird. Intel 20A wird der erste Prozessknoten sein, der PowerVia, Intels rückseitige Stromverteilungstechnologie, und eine neue enthält Gate-Allround-Transistordesign namens RibbonFET. Intel 18A, das auch PowerVia und RibbonFET nutzt, ist auf dem besten Weg, in der zweiten Hälfte des Jahres 2024 produktionsbereit zu sein.

Eine weitere Möglichkeit, wie Intel das Mooresche Gesetz vorantreibt, sind neue Materialien und neue Verpackungstechnologien wie Glassubstrate, ein Durchbruch, den Intel diese Woche bekannt gab. Wenn sie später in diesem Jahrzehnt eingeführt werden, werden Glassubstrate eine ständige Skalierung von Transistoren auf einem Gehäuse ermöglichen, um den Bedarf an datenintensiven, leistungsstarken Arbeitslasten wie KI zu decken und es dem Mooreschen Gesetz zu ermöglichen, über das Jahr 2030 hinaus Bestand zu haben.

Intel stellte außerdem ein Testchippaket vor, das mit Universal Chiplet Interconnect Express (UCIe) gebaut wurde. Die nächste Welle des Mooreschen Gesetzes werde noch früher als erwartet kommen, wenn Multi-Chiplet-Pakete und offene Standards die Reibung bei der IP-Integration verringern, sagte Gelsinger. Der im letzten Jahr erstellte UCIe-Standard ermöglicht die Zusammenarbeit von Chiplets verschiedener Anbieter und ermöglicht so neue Designs zur Erweiterung verschiedener KI-Arbeitslasten. Die offene Spezifikation wird von mehr als 120 Unternehmen unterstützt.

Der Testchip kombinierte einen auf dem Intel 3 hergestellten Intel UCIe IP-Chip mit einem auf dem TSMC N3E-Prozessknoten hergestellten Synopsys UCIe IP-Chip. Die Chiplets wurden mithilfe der fortschrittlichen eingebetteten EMIB-Gehäusetechnologie (Multi-Die Intermediate Interconnect Bridge) verbunden. Diese Einführung; TSMC unterstreicht das Engagement von Synopsys und Intel Foundry Services, mit UCIe ein auf offenen Standards basierendes Chiplet-Ökosystem zu unterstützen.

Gelsinger hob die Bandbreite der KI-Technologien hervor, die Entwicklern heute auf Intel-Plattformen zur Verfügung stehen, und wie diese Bandbreite im nächsten Jahr erheblich erweitert wird.

Die jüngsten MLPerf-KI-Inferenzleistungsergebnisse bekräftigen Intels Engagement, jede Stufe des KI-Kontinuums abzudecken, einschließlich der größten und leistungsstärksten generativen KI- und großen Sprachmodelle. Die Ergebnisse unterstreichen auch, dass der Intel Gaudi2-Beschleuniger die einzige geeignete Alternative auf dem Markt für den Bedarf an Computern mit künstlicher Intelligenz ist. Gelsinger gab bekannt, dass ein großer KI-Wundercomputer vollständig auf Intel Xeon-Prozessoren und 4.000 Intel Gaudi2 AI-Hardwarebeschleunigern basieren wird und der Hauptkunde Stability AI sein wird.

Zhou Jingren, Chief Technology Officer von Alibaba Cloud, sagte, Alibabas integrierte KI-beschleunigte Intel® 4. Generation habe erklärt, wie er sie implementiert habe. Jingren gab an, dass Intels Technologie „erhebliche Verbesserungen der Reaktionszeiten mit einer durchschnittlichen dreifachen Beschleunigung“ bietet.

Intel gab außerdem eine Vorschau auf die Intel Xeon-Prozessoren der neuen Generation und kündigte an, dass die Intel Sierra Forest mit E-Core-Effizienz, das im ersten Halbjahr 2024 auf den Markt kommt, bietet eine 2,5-mal bessere Rack-Dichte und eine 2,4-mal höhere Leistung pro Watt im Vergleich zu Xeon der 4. Generation und wird eine 288-Core-Version haben. Granite Rapids mit P-Core-Leistung werden kurz nach der Einführung von Sierra Forest veröffentlicht und bieten eine zwei- bis dreimal höhere KI-Leistung im Vergleich zu Xeon der 4. Generation.

Im Jahr 2025 wird der E-Core Xeon der neuen Generation mit dem Codenamen Clearwater Forest auf dem Intel 18A-Prozessknoten angeboten.

Auch künstliche Intelligenz wird immer persönlicher. Gelsinger sagte: „Künstliche Intelligenz wird das Computererlebnis grundlegend verändern, umgestalten und neu strukturieren; „Durch die Zusammenarbeit von Cloud und Computer wird es die persönliche Produktivität und Kreativität freisetzen“, sagte er und fügte hinzu: „Wir läuten eine neue Ära der Computer mit künstlicher Intelligenz ein.“

Dieses neue Computererlebnis wird mit Intel Core Ultra-Prozessoren mit dem Codenamen Meteor Lake geliefert, die Intels erste integrierte neuronale Verarbeitungseinheit (NPU) für energiesparende KI-Beschleunigung und lokale Inferenz im PC enthalten. Gelsinger bestätigte, dass Core Ultra ebenfalls am 14. Dezember erscheinen wird.

Core Ultra stellt einen Meilenstein in Intels Client-Prozessor-Roadmap dar und ist das erste Client-Chiplet-Design, das auf der fortschrittlichen 3D-Packaging-Technologie von Foveros basiert. Der neue Prozessor bietet diskrete Grafikleistung mit integrierter Intel® Arc™-Grafik sowie große Fortschritte bei der energieeffizienten Leistung dank der NPU- und Intel 4-Prozesstechnologie.

Während Gelsinger auf der Bühne eine Reihe neuer KI-Computing-Anwendungsfälle vorführte, gab Acers Operations Manager Jerry Kao eine Vorschau auf einen bald erscheinenden Acer-Laptop mit Core Ultra-Antrieb. „Wir entwickeln gemeinsam mit Intel-Gruppen eine Suite von Acer-Anwendungen für künstliche Intelligenz, um die Vorteile der Intel Core Ultra-Plattform zu nutzen“, sagte Kao und fügte hinzu: „Wir entwickeln sie mit dem OpenVINO-Toolset und gemeinsam entwickelten Bibliotheken für künstliche Intelligenz, um die Hardware zu implementieren.“ .“

„Die Weiterentwicklung der KI muss einen besseren Zugang, Skalierbarkeit, Sichtbarkeit, Transparenz und Vertrauen im gesamten Ökosystem bieten“, sagte Gelsinger.

Intel kündigte an, dass es Entwicklern dabei helfen wird, diese Zukunft zu erreichen, indem es:

  • Allgemeine Verfügbarkeit der Intel Developer Cloud: Die Intel Developer Cloud hilft Entwicklern, KI mithilfe der neuesten Hardware- und Softwareinnovationen von Intel zu beschleunigen, darunter Intel Gaudi2-Prozessoren für Deep Learning und skalierbare Intel® Hardware-Plattformen. Entwickler können mithilfe der Intel Developer Cloud KI- und HPC-Anwendungen erstellen, testen und optimieren. Sie können auch kleine und große KI-Trainings-, Modelloptimierungs- und Inferenz-Workloads mit Leistung und Effizienz durchführen. Die Intel Developer Cloud basiert auf offener Software mit oneAPI, einem offenen Multi-Architektur- und Multi-Vendor-Programmiermodell, das Freiheit von der Hardwareauswahl und proprietären Programmiermodellen bietet, um beschleunigtes Computing sowie die Wiederverwendung und Portabilität von Code zu unterstützen.
  • Release 2023.1 der Intel-Distribution des OpenVINO-Toolsets: OpenVINO ist Intels bevorzugte KI-Inferenz- und Bereitstellungslaufzeit für Entwickler auf Client- und Edge-Plattformen. Die Veröffentlichung umfasst vorab trainierte Modelle, die für die Integration zwischen Betriebssystemen und verschiedenen Cloud-Lösungen optimiert sind, darunter viele generative KI-Modelle wie das Llama 2-Modell von Meta. Unternehmen wie ai.io und Fit:match demonstrierten auf der Bühne, wie sie OpenVINO nutzen, um ihre Anwendungen zu beschleunigen: ai.io, um die Leistung jedes potenziellen Sportlers zu bewerten; Fit:match soll die Einzelhandels- und Wellnessbranche revolutionieren, indem es Verbrauchern hilft, die am besten geeignete Kleidung zu finden.
  • Project Strata und die Entwicklung einer nativen Softwareplattform am Edge: Die Plattform wird im Jahr 2024 mit modularen Bausteinen und erstklassigen Service- und Supportangeboten eingeführt. Als horizontaler Ansatz zur Skalierung der Infrastruktur, die für intelligente Edge- und Hybrid-KI erforderlich ist, wird die Plattform Intel und ein Ökosystem vertikaler Anwendungen von Drittanbietern zusammenbringen. Darüber hinaus können Entwickler damit verteilte Edge-Infrastrukturen und -Anwendungen erstellen, bereitstellen, ausführen, verwalten, verbinden und sichern.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert