News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by RobertJasiek
 - June 01, 2021, 15:07:09
Mieten von Cloud-GPU/TPU ist vA für NN-Entwickler interessant. Als Endnutzer kann ich eher NN-für-Go-Server nutzen, die durchaus schnell genug sind, aber in der Funktionalität eingeschränkt. Vielleicht mache ich das vorübergehend als Notlösung, wenn Nvidia mich zu lange nervt.

Du hast wohl recht, dass fast alle Apple-Nutzer keine gezielte NN-geeignete Hardware brauchen. Dennoch gibt es aktuell jede Menge Tests auf Youtube & Co, die den M1 gezielt für Machine-Learning testen und anpreisen. Wer nur ein paar Bilder erkennen lassen will, für den reicht so etwas vielleicht. Für rechenintensive NN ist der M1 aber eben noch viel zu langsam. Auf die Gehirnwäsche darf man (noch) nicht reinfallen.

Ja, Desktop ist (jedenfalls in der Theorie mit UVPs) zZ für mich noch das Non-Plus-Ultra. Windows-Notebooks mit Laptop-RTX-3070 kommen erst so 1/4 an meinen Bedarf ran und das zu 1,5 - 2,5x der Kosten bei 2 - 20x dem Lärm.

Die Apple-M-Chip-Entwicklung wird jedenfalls interessant zu beobachten bleiben, ob die GPU-Kern-Verdopplung wirklich wie geplant weitergeht.

Spannende Hardwarezeiten zu saumäßigen Versorgungszeiten!
Posted by ej64
 - June 01, 2021, 13:22:22
Schon klar, warum Intel gerade jetzt damit kommt: es wird erwartet, dass die nächsten MacBook Pro kommenden Montag bei der Keynote des WWDC vorgestellt werden. Diese sollen bis zu 32 GPU-Kerne enthalten und damit etwa 4* schneller als der M1 im Grafikbereich sein und etwa 2* schneller als die im Vergleich benutzte AMD Radeon RX 5600M. Und das Ganze dann als sehr effizientes SoC bei rund 45 W.
Dagegen Core i5-11400H (45 W TDP) plus GeForce RTX 3060 (60 - 115 W TGP) mit zusammen rund 100 bis 150 W... und zwar ohne dann schneller zu sein.

@Robert: du hast sicher ganz spezielle Anforderungen (NN für Go), die sich kaum mit den Anforderungen von 99% Apple-Usern decken. wenn TPU-Leistung gefragt ist, bist du sicher flexibler mit Desktop-Grafikkarten und kommst gleichzeitig preiswerter weg (selbst mit 2 Grafikkarten wirst du unter einem gut ausgestatteten MacPro bleiben).
Oder du mietest dir einfach mal einen Google TPU v3 Pod (100 PFLOPS) ;)
Posted by RobertJasiek
 - May 31, 2021, 12:04:04
Für mich einzig interessant ist die Deep-Learning-Geschwindigkeit. Apple M1 iGU mit 8 Kernen hat anhand sehr weniger Benchmarks ca. 1/26 der TPU-Geschwindigkeit einer Desktop-RTX-3080, was thermisch leicht erklärt ist. Mac Pro mit M2, so wird gemunkelt, könnte bis zu 64 oder 128 iGPU-Kerne haben, womit wir bei 30%-60% der TPU-Geschwindigkeit wären und es zumindest hardwareseitig interessant zu werden begänne, falls RTX dann immer noch nicht verfügbar bzw. mondpreisig sein sollte. Ob die für mich notwendige Software dann für Mac verfügbar sein sollte ist die nächste Frage.

Wenn Intel mit Nvidia protzen will, warum dann nicht zu Deep Learning unter Missachtung der Energieeffizienz?!
Posted by Redaktion
 - May 31, 2021, 11:17:56
Im Rahmen der Computex hat Intel ein Statement geteilt, welches man durchaus für einen Scherz halten könnte: Tiger Lake-Notebooks sollen ein besseres Gaming-Erlebnis bieten als "100% aller MacBooks". Dass Intel nicht zum Scherzen aufgelegt ist beweist das Kleingedruckte, das eine Vielzahl an Benchmark-Ergebnissen enthält.

https://www.notebookcheck.com/Intel-vs-Apple-Gaming-Benchmarks-sollen-den-Vorteil-von-Tiger-Lake-gegenueber-100-aller-MacBooks-zeigen.541806.0.html