Connect with us

Deutsch

Die Zukunft des Personal Computing sieht aus wie ein M1-Mac

Published

on

Apfel

In den letzten Jahren habe ich mich gefragt, wie die Intel-Ära enden würde. Bei Apples Unleashed-Event am Montag haben wir einen Eindruck davon bekommen, wie sich das entwickeln könnte.

Ich bin nicht hier, um Ihnen zu sagen, dass die Zukunft des Personal Computing die Apple Silicon Macs sind. Aber was Sie in den nächsten Jahren sehen werden, ist eine Systemarchitektur, die sehr Mac-ähnlich aussieht, unabhängig davon, welches Betriebssystem Sie verwenden. Und es spielt keine Rolle, ob es sich um Chips von Apples eigenem Design handelt oder um Chips, die von Qualcomm, NVIDIA, Samsung, Microsoft oder sogar Google entwickelt wurden.

Steig in den Bus

Die vorherrschende Systemarchitektur der letzten 40 Jahre war x86. Es ist jedoch nicht nur dieser Befehlssatz, der dominant war. Auch alle anderen Komponenten in PCs und x86-Servern haben sich durchgesetzt, wie die verschiedenen Busarchitekturen und Support-Chips.

PCs, große Eisenserver und eigentlich alle Computer seit den 1960er Jahren wurden mit sogenannten Busarchitekturen entworfen. Ein Bus entspricht in etwa dem Nervensystem des menschlichen Körpers; Es wird verwendet, um Daten zwischen Teilen eines Computersystems zu verschieben, das die CPU, den Systemcache, die GPU und spezialisierte Prozessoreinheiten für maschinelles Lernen und andere Funktionen umfasst. Es verschiebt auch Daten zum und vom Hauptspeicher (RAM), dem an die GPU angeschlossenen Videospeicher und allen I/O-Komponenten – Tastatur, Maus, Ethernet, WiFi und/oder Bluetooth.

Ohne den Bus bewegen sich keine Daten.

Der Aufstieg von SoCs

Die Computerindustrie hat verschiedene Busarchitekturen entwickelt, wie beispielsweise die verschiedenen Iterationen von PCI für die I/O-Komponenten und verschiedene andere Typen, die für Videografiken entwickelt wurden. Sie sind die grundlegenden Bausteine ​​für die Entwicklung eines Mikrocomputers, unabhängig davon, welches Unternehmen ihn herstellt. Wir haben Desktop- und Server-Versionen davon, und wir haben auch mobile/Laptop-Versionen.

Als wir jedoch in den Bereich Mobile Computing und Embedded Computing vordrangen, mussten wir immer mehr dieser Systemkomponenten auf dem Chip selbst platzieren, daher nennen wir sie jetzt Systems on a Chip oder SoCs. Die CPUs, GPUs, ML-Kerne, Hauptspeicher, Videospeicher und sogar der Primärspeicher können jetzt alle auf einem einzigen Chip leben.

Dies hat einige entscheidende Vorteile – vor allem die Reduzierung von Engpässen. Wenn Sie einen Bus verwenden müssen, um Daten von einer Systemkomponente zur nächsten zu übertragen, müssen Sie die Schnittstellentechnologien ändern. In vielen Fällen haben Sie möglicherweise weniger Datenspuren, um diese Informationen zu übertragen. Dies ist so, als würden Sie von einer Autobahn mit acht Fahrspuren auf zwei abfahren, bevor Sie auf eine andere Schnellstraße in eine andere Richtung gelangen können. Wenn dies auf dem Chip selbst geschieht, muss (muss) dieser Engpass nicht existieren.

ZDNet empfiehlt

Bester Mac 2021

Bester Mac 2021

Apples Mac-Reihe kann verwirrend sein, da das Unternehmen von Intel-Prozessoren zu seinen eigenen Apple Silicon-Prozessoren übergeht. Aber wir sind hier, um zu helfen.

Weiterlesen

Aber es gab Einschränkungen bei den Möglichkeiten mit SoCs. Es gibt nur so viele CPU- und GPU-Kerne, die Sie darauf legen können, und es gibt nur so viel Speicher, den Sie auf einem Würfel stapeln können. Während SoCs für kleinere Computersysteme sehr gut funktionieren, werden sie jedoch nicht für die leistungsstärksten PC- und Server-Workloads verwendet. sie skalieren nicht auf die größten Systeme von allen. Um auf einem Desktop skalieren zu können, um eine Workstation mit Hunderten von Gigabyte oder Terabyte RAM zu erstellen, die Sie in der Film- oder Luft- und Raumfahrtindustrie sehen, müssen Sie dies können. In einem Rechenzentrum oder einer Hyperscale-Cloud für große Enterprise-Workloads ist es dasselbe. Je weniger Speicher über dichte, langsamere Busschnittstellen kopiert wird, desto besser.

Geben Sie M1 und UMA ein

Bei den neuen Apple M1 Pro- und M1 Max-SoCs befinden sich viel mehr Transistoren auf dem Die, was normalerweise zu mehr Geschwindigkeit führt. Aber das wirklich Spannende an diesen neuen Chips ist die Speicherbusbandbreite.

Im letzten Jahr habe ich mich gefragt, wie Apple diese Architektur skalieren würde. Insbesondere, wie sie mit dem Problem der Erhöhung der Busgeschwindigkeiten zwischen Hauptspeicher (RAM) und GPU umgehen würden. Auf Desktop-Computern mit Intel-Architektur erfolgt dies auf uneinheitliche Weise oder NUMA.

Intel-Systeme verwenden normalerweise diskreten Speicher wie DDR auf einer GPU und verwenden dann eine Hochgeschwindigkeits-Speicherbusverbindung zwischen ihm und der CPU. Die CPU ist über einen weiteren Interconnect mit dem Hauptspeicher verbunden. Aber die M-Serie und die A-Serie verwenden die Unified Memory Architecture; Mit anderen Worten, sie bündeln eine RAM-Basis zwischen CPU, GPU und Machine Learning-Kernen (Neural Engine). Tatsächlich teilen sie alles.

m1graphic.png

Unified Memory Architecture auf dem M1-SoC

Apfel

Und sie teilen es sehr schnell. Beim M1 Pro sind das 200 Gigabyte pro Sekunde (GB/s), beim M1 Max sind das 400 GB/s. Diese superschnellen GPU-Kerne – von denen es bis zu 32 auf dem Max gibt – haben also eine superschnelle Kommunikationsbandbreite zu diesen superschnellen CPU-Kernen – von denen es sowohl auf dem M1 Pro als auch auf dem M1 bis zu 10 gibt max. Und wir sprechen nicht einmal von diesen spezialisierten Machine-Learning-Kernen, die diese Busgeschwindigkeit ebenfalls ausnutzen.

Natürlich können der M1 Pro und M1 Max auch viel mehr Speicher beanspruchen als die Modelle des letzten Jahres – bis zu 64 GB RAM. Sicherlich war der M1 auf Kernbasis im Vergleich zum Rest der Branche nicht langsam. Aber wenn Apple die höchsten professionellen Workloads zum Laufen bringen möchte, mussten sie dies tun, um die Busbandbreite fliegen zu lassen.

Skalierungsarm von M1 Mac zu Rechenzentren und Big Iron

Hier wird es jetzt interessant.

ich Ja wirklich wollen sehen, was sie mit dem Mac Mini und dem Mac Pro machen. Ich erwarte, dass das aktualisierte Mini das gleiche Mainboard-Design wie diese neuen Macbook Pro-Systeme verwendet. Aber der Pro ist wahrscheinlich ein Monstersystem, das möglicherweise mehr als einen M1 Max darauf erlaubt. Das bedeutet, dass sie eine Möglichkeit zum Poolen von Speicher über SoCs hinweg entwickeln mussten – etwas, das wir aufgrund von Bus-Latenzproblemen in der Branche noch nicht gesehen haben.

Eine Möglichkeit wird sein, den Pro zu einem Desktop zu machen Cluster von mehreren Mini-Tochterplatinen, die in eine Art superschnelles Netzwerk eingebunden sind. Die Industrie untersuchte Desktop-Cluster für wissenschaftliche Workloads vor etwa 10-15 Jahren unter Verwendung von Arm-Chips, Linux und Open-Source-Cluster-Management-Software, die in Supercomputern (Beowulf) verwendet wird. Trotzdem hoben sie nicht ab; Es war nicht praktikabel, diese Arten von Desktop-Apps so umzugestalten, dass sie in einer parallelisierten Funktion über ein TCP/IP-Netzwerk funktionieren.

Mit der Busverbindungstechnologie von Apples M1-SoCs könnte es endlich machbar sein. Denn wenn Sie einen CPU-Die und einen GPU-Die auf einem einzigen Mainboard verbinden können – und diesen Speicher mit sehr hohen Geschwindigkeiten teilen – sollten Sie in der Lage sein, zusätzliche CPU- und GPU-Matrizen über mehrere Mainboards oder Daughterboards hinweg zu verbinden. Der Desktop-Cluster ist also vielleicht die Zukunft des Mac Pro.

All dies ist aufregend, und ja, wir werden sehen, wie der Mac zuerst all diese Technologien implementiert. Aber auch andere große Technologieunternehmen entwickeln leistungsfähigere ARM-basierte SoCs. Während Sie also in den nächsten Jahren keinen Mac für geschäftliche und andere Workloads verwenden, könnte Ihr PC von innen sehr gut aussehen.

Continue Reading

Copyright © 2021 Meta Mag Inc.