Register
Notebookcheck

Autor Thema: Meinung: Nvidia's Max-Q - Maximale Effizienz, Minimale Performance?  (Gelesen 650 mal)

Redaktion

  • Editor
  • High End NB
  • ****
  • Beiträge: 34754
  • Karma: +28/-0
Mit dem Start von Max-Q hat Nvidia damit angefangen, mobile GPUs nach ihrer Effizienz und nicht mehr nach der Ähnlichkeit zum jeweiligen Desktop-Pendant zu klassifizieren. Tragen die Max-Q-GPUs tatsächlich zurecht dieselben Modellnummern wie die anderen Pascal-Chips?

https://www.notebookcheck.com/Meinung-Nvidia-s-Max-Q-Maximale-Effizienz-Minimale-Performance.234462.0.html

Assembler

  • Netbook
  • *
  • Beiträge: 10
  • Karma: +0/-0
Wenn ich es nicht besser wüsste, könnte man meinen Nvidia versucht das, was Intel bereits vor Jahren mit dem Namen "Ultrabook" versucht hat. Eine eigene Produkt-Kategorie zu schaffen, in der man die gleiche Hardware rund um eine Plattform teuer verkaufen kann.

Das fängt mit simplen Design vorgaben an (CPU bzw. in diesem Falle die verbaute GPU), bis hin zu den Maßen des Gehäuses und hört dann früher oder später bei irrsinnigen Vorgaben wie der vorinstallierten Bloatware auf.

Wie der Author bereits angedeutet hat, das was Nvidia versucht mit Max-Q an Mehrwert zu bieten, wäre technisch bereits seit langem möglich. Man kann nur hoffen das ODMs - wie auch beim "Ultrabook" - irgendwann eigene Wege gehen bzw. das Konzept kopieren und auf die Lizenz "Max-Q" verzichten. Dem Kunden und (dem Preis) würde das auf jeden Fall zu gute kommen.

HurricaneHarry

  • Gast
Und solang sie quasi das Monopol halten tun sie doch was ihnen beliebt. Vllt belebt AMD im nächsten Jahr das Geschäft wieder etwas, mal sehn. Aber selbst ein einzelner Konkurrent kannd da nicht alles rausreißen. Von der Störungsanfälligkeit ganz zu schweigen...

Das ist nun das Resultat, dass man um die Jahrtausendwende die ganzen Firmen wie 3dfx, Matrox und Co hat sterben lassen. (zumindest markttechnisch)
Und da wird und kann sich auch nichts mehr ändern, sofern hier der Staat nicht einschreitet, und der hat in der aktuellen Konstellation ohne völlige Havarie keinerlei Interesse daran. (und damit meine ich nicht nur Deutschland)

Wenn die Bevölkerung und Verantwortlichen dann endlich aufwachen und merken, dass egal ob Google, Amazon, Apple und sonstwer alles andere sind als positive Phänomene, wird es zu spät sein, und der Status Quo sich aufgrund inflationärer Kollateralschäden immer mehr versteinern.

Aber naja, schnupfen wie mal bissl weiter user Opium...

JKM

  • Multimedia NB
  • ***
  • Beiträge: 288
  • Karma: +2/-2
Anmerkung: ich möchte an dieser Stelle anmerken, dass ich Verständnis für alle jene Nutzer habe, die sich nach dünneren Notebooks sehnen und auch kein Problem mit gut designten und ordentlich gekühlten dünnen Notebooks an sich habe.

Es spricht ja garnichts dagegen, dass sich die Notebooks endlich zu richtigen Spiele-Notebooks entwickelt haben, die man ja auch als 2. Notebooks nutzen kann.

Spiele Notebooks und Massen-Notebooks haben sich über die Jahre auseinanderentwickelt, wo Massen-Notebooks sich zu kleineren TDPs verbesserten während Spiele-Notebooks immer mehr zu TDP/Grafik-Leistungsfähigeren Notebooks entwickelten.

Alleine die Entwicklung der Massen-Notebooks ist beachtlich.
Siehe Dual-Core

Massen-Notebooks (Gelegenheits-Spieler)
2005 ... 60W-TDP-Plattform (35W-CPU, 18W-Northbridge, 7W-Southbridge)
2010 ... 40W-TDP-Plattform (35W-CPU, 5W-Southbrige)
2015 ... 15W-TDP-Plattform (15W-CPU)

Massen-Notebooks (Gelegenheits-Spieler)
2005 ... Onboard-GPU ohne ansatzweise Spiele-Leistung
2010 ... iGPU mit ansatzweise Spiele-Leistung
2015 ... iGPU mit Spiele-Leistung.

Spiele-Notebooks (Der Spieler)
2005 ... 35W-CPU + 30W-Mainstream-GPUs
2010 ... 35W-CPU + 50W-Performance-GPUs
2015 ... 45W-CPU + 100W-High-End-GPUs

Mit der Veröffentlichung der mobilen Pascal-Architektur im August 2016 wurde viel Aufsehen darum gemacht, dass „mobile“ GPUs endgültig tot seien

Für mich sind bald Massen-GPUs schon tot und Nvidia hat mit dieser Entwicklung ihr Grafikkarten-Mobil-Konzept entsprechend dieser Entwicklungen angepasst. Und wenn die alten Massen-GPUs tot sind, dann ist das alte Schema auch tot, welches durch ein neues ersetzt wird.

Aufgrund Intels Lizenz-Zahlungen/Bedingungen an Nvidia sowie der Konkurrenz-Situation von AMD bin ihr der starken Meinung, dass Intel in Sachen iGPU-Performance bei weiten mich das Maximium rausholte, was sie jetzt Technisch schon können.

Grundsätzlich sind auch iGPUs verdammt Effizienz und wenn man die Effizienz von iGPUs mit Qmax vergleicht, dann würde es mich nicht überraschen, wenn ähnliche werte rauskommen. Deshalb ist es dann wahrscheinlich kein Zufall, sondern die Logik, warum Qmax jetzt kam. Also, zu einer Zeit, wo 15W-TDP-Notebooks dann auch bedeutende Spiele-Leistungen erreichte und so zur Konkurrenz wurde.

Denn ein 15W-APU-Notebook (AMD) war noch immer effizienter als ein 15W+15W-Low-End-GPU (Intel+Nvidia) oder 15W+30W-Mainstream-GPU (Intel+Nvidia), wo die Low-End-GPU vielleicht nur im bestenfalls 2fache und die mainstream-GPU die 3-Fache Leistung erreicht. Und das eben gegen einen 28nm-Bulldozer. Mit den 14nm-RyZen sieht das alles anders aus, u.a. deshalb, weil Intel auch auf Druck von RyZen-Mobil wohl eher alle Effizienz-Reserven & Potentiale nutzen wird.

Spätestens bei Intels 10nm und AMDs 7nm wird 5W-TDP zur Standard-Massen-CPU, welche wie heute nicht mehr mit dGPUs verbaut werden.

Ganz habe ich die Qmax-Technik nicht verstanden.
Grunstäzlich galube ich, dass neben den stetig weitentwicklungen des Energiespar-Techniken, welche sich nur auf idle beschränkten sondern Teil & Voll-Lasten, auch die Fertigung einen höheren Effizienz-Bereich in der Spannung & Takt-Senkung germöglicht.

Denn Intels iGPUs hatten auch schon lange einen Basis-Takt von 300Mhz, der per Turbo auf 1350Mhz hochgehen konnte. Bei AMD war der Desktop-Takt bei 1.150Mhz, der bei Notebook auf bis zu 800 Mhz ging und bei Doppel-Belastung (CPU & GPU) auf 400Mhz runter ging.

Eine Notebook-GPU kann niemals aufgrund der einfachen Physik eine Desktop-GPU-Performance erreichen. Und wenn es mal so kommen mag, dann wohl deshalb, weil die Ingenieure aufgrund der Konkurrenzsituation wohl nicht alles aus der Desktop-GPU rauskitzeln wollen und die Desktop-GPU auf Notebook-Performance trimmen.
« Letzte Änderung: Juli 15, 2017, 13:43:10 von JKM »

. .

  • Gast
der Grund, warum die 1080 (Notebook) Max-Q im Vergleich mit der 1080 und 1070 so schlecht abschneidet ist in der Tatsache zu suchen, dass sie eine massiv reduzierte TDP aufweist (nicht im Sinne von thermischem Limit, sondern wie viel Strom die GPU ziehen darf)
Man schreibt TDP, meint aber TGP? Daraus einige Folgefehler, werde aber nur ein mal zitieren:

Wie der Tabelle oben zu entnehmen ist, liegen die 1080 (Notebook) Max-Q-GPUs zwischen 90 und 110 W, je nach Konfiguration. Der Grund dafür ist in der Ausrichtung dieser GPUs zu finden, denn selbst bei einem sehr guten Kühlsystem ist es eine Sache 110 W an Wärmeentwicklung abzuführen und eine ganz andere, wenn 180 W abgeführt werden müssen
Nein. Wenn TGP = 110W, dann abgeführt werden nicht die, sondern Verlustleistung(TDP). Wie viel, hängt vom Wirkungsgrad ab. Genau so mit 180W von TGP.

Natürlich ist nicht alles Gold was glänzt und auch diese Methode hat einen Nachteil: Die Reduzierung der Betriebsspannung kann einen Einfluss auf die Stabilität haben, daher muss hier eine Balance gefunden werden.
Stabilität, richtig. Daher wenn man alle Standart-Chargen unter ihrer Spezifikationen verbindlich stabil beim Kunden betreiben will, dann definiert man andere Spezifikationen. Und dann hat man Max-Q. Was Undervoltig verursachen kann, kann man nachlesen. Für eine Karte geht das, für die andere gleiche schon nicht mehr. Und je weiter man undervoltet, desto mehr Karten fallen raus.

Weitere Tests mit reduzierter Spannung und abgestuften Energieniveaus ergaben, dass der tatsächliche Knick in der TDP-pro-Performance-Kurve für eine 1070 (Notebook) bei 110 – 115 W liegt
...
Diese Erkenntnis bedeutet, dass die von Nvidia veröffentlichten TGPs (siehe oben) mitnichten die optimalen Effizienzpunkte für die eigenen GPUs sind, ab denen weitere Steigerungen der Performance durch erhöhte Zufuhr von und Bedarf an Energie vernachlässigbar werden.
Ok. Wir sind darauf gekommen, daß für eine 1070 (Notebook) mit Undervolting 115W optimal sind. Die ist mit 120W ohne Undervolting spezifiziert.
https://www.notebookcheck.com/Mobile-NVIDIA-GeForce-GTX-1070-Laptop.169548.0.html

Was heißt all das nun in der Praxis? Nun, faktisch bedeutet dies, dass Nvidia – wenn sie nur wollen würden – durchaus in der Lage wäre, ein Grafikkarten-BIOS zu entwickeln, welches für die bestehenden GPUs das Spannungsniveau absenkt (und weiteres)...
Nein. Nicht industriell. Das ist genau so, wie mit der Mindesthaltbarkeitsdatum. Die ist höher, als aufgedrückt. Aber unter Berücksichtigung davon, daß bis es Kunde hat, kann es hier und dort etwas schief laufen, muss die Datum so gewählt werden, daß der Kunde unverdorbene Ware hat. Daher mit der Grafikkarte ist genau so. Fertigungstoleranzen können sich summieren und das muss überboten werden. Aber wie individuelle Lösung funktioniert es natürlich.

Das war so gute Ansatz, aber man sollte hier vergleichen 1080 Max-Q mit ihrer 18219 Points. 1070 (Desktop) mit ihrer 18000 Points. Und 1070 (Laptop) mit ihrer 17500 Points. Das heißt, wenn 1080 Max-Q kleineres TGP und TDP pro höhere Rechenleistung hat, dann war es Erfolg. Und danach sieht es nach den Zahlen hier aus: TGP von dieser 1080 Max-Q ist 100W. TGP von 1070 (Laptop) ist 120W. Weil 1080 Max-Q effizienter in dem Bereich rechnen muss, muss auch TDP im Vergleich zum 1070 (Laptop) nicht die Rede Wert sein. Was den Preis angeht, dann hat das nichts mit Grafikkarten zu tun, sondern Komplettsystem "Notebook" in jeder Einzelheit ist aufwendiger, als Desktop-PC.

. .

  • Gast
https://www.notebookcheck.com/Meinung-Nvidia-s-Max-Q-Maximale-Effizienz-Minimale-Performance.234462.0.html
Das war einwandfreie Übersetzung auf deutsch. Englisches original ist geblieben. Warum ist das aus dem deutschem Sprachraum verschwunden?

phila_delphia

  • Office NB
  • **
  • Beiträge: 59
  • Karma: +0/-0
Danke für diesen Artikel. Er faßt alles das zusammen, mir beim Thema "mobile Grafigkarten" beschäftigt (und noch viel mehr).

Wie schön wäre es als nVidia Besitzer, zum Beispiel, mehr (und offizielle) Tuningmöglichkeiten zu haben.

Mittels einer, in einem größeren Bereich freigegebenen, Mhz-mV Kurve könnte sich so jeder Nutzer der mag seine eigene "Q-Max" basteln.

Grüße

phila

P.S.: Die 1080 in meinem Notebook läuft bei 1800mhz bie 875mV. Ab Werk nimmt sie dafür knapp 200mV mehr.


. .

  • Gast
Artikel ist wieder auf deutsch online.
Auf der eigenen Webseite behauptet Nvidia, dass eine GTX 1080 (Notebook) Max-Q die 3,3-fache Leistung der GTX 880M, einer High-End GPU von 2014, bietet. Bisher hat es jedoch noch kein einziges getestetes Max-Q-Laptop geschafft, in synthetischen Benchmarks wie dem 3DMark Firestrike auch nur annähernd in diese Sphären vorzudringen.
Ja, das stimmt. GTX 880M hat 6101 in "3DMark - 1920x1080 Fire Strike Graphics". 1080 Max-Q hat 18219. Das ist nur 3-fache Leistung. Aber bekannt ist, daß die Hersteller frei die Leistungsaufnahme über Treiber steuern können. Daher Nvidia Schuld dafür geben, daß heute einer mehr Leistung seiner Max-Q erlaubt und die 3,3-fache Linie knackt, oder anderer lieber dünner/leiser macht und seiner Max-Q mächtig Leistung abdreht, ist genau so, daß man Intel Schuld dafür gibt, daß die Hersteller (wollt ihr Beispiele) seine Turbomodus so weit ausdehnen, daß nach unten es unter den Grundtakt geht.



Auch geht aus den Informationen nicht eindeutig hervor, dass eine 1080 (Notebook) Max-Q nicht dieselbe Grafikleistung erbringt wie eine ordentlich gekühlte 1080 non-Max-Q, egal ob Desktop oder Notebook. Und schon gar nicht, dass sie in puncto Grafikleistung nominell eher einer GTX 1070 entspricht.
Es geht hervor, daß
Max-Q-Grafikkarten arbeiten mit niedrigeren Takten als ihre Standard-Pendants.
...
Stattdessen soll die GPU nur so schnell rechnen, dass eine Balance zwischen Performance und Energieeffizienz erreicht wird.
...
Hersteller bekommen mit Max-Q die Möglichkeit, die GPU-TDP auf einen unter Umständen erheblich niedrigeren Wert einzustellen, ohne dass die Performance zu stark leidet



In der Praxis entspricht dieser „small gain“, also der geringe Zuwachs, nicht dem Performanceunterschied von etwa 20 Prozent im 3DMark 11 Performance, Firestrike und Time Spy zwischen der 1080 (Notebook) Max-Q und 1080 (Notebook). Im Detail schwankt diese Divergenz natürlich, zwischen max. 11 % im 3DMark Firestrike Graphics im Vergleich von Asus Zephyrus mit dem Eurocom Tornado F5 Killer Edition auf der einen und bis zu 26 % im 3DMark Firestrike Graphics im Vergleich zwischen der 1080 (Notebook) Max-Q Referenz und dem Asus G701VIK-BA049T. Tatsächlich suggeriert Nvidia jedoch, dass es nur einen geringfügigen und nicht nennenswerten Leistungsunterschied im Vergleich mit den weniger energieeffizienten Notebook-GPUs gibt. In der Realität sieht das jedoch ganz anders aus.
Wie wir sehen, genau so, wie bei der gleichen CPU unterschiedliche Hersteller abweichende insbesondere Dauerleistung "einbauen" können, unterliegt GPU gleichen Regeln. Ist Nvidia schuld?



Nvidia hält sich auffällig zurück, wenn es darum geht zu erklären, was genau eine Max-Q-Karte eigentlich ausmacht. Nur so viel ist bekannt: es ist eine Kombination aus Hardware, Software und Designanpassungen des Notebooks.
Der Rest ist hier
https://www.notebookcheck.com/Nvidia-Max-Q-WhisperMode-Infos-und-erste-Benchmarks.229964.0.html
Kurz gesagt, man kann dank den Anpassungen  an der Hardware (Platine und die zu verbauenden Spannungswandler) und erweiterten Zugriff auf Treiber die normale 1080 weit dehnen und 1080 Max-Q daraus machen. Und dazu der nächste Beispiel:
Um nochmal auf den Vergleich von Digital Foundry zurückzukommen: der Grund, warum die 1080 (Notebook) Max-Q im Vergleich mit der 1080 und 1070 so schlecht abschneidet ist in der Tatsache zu suchen, dass sie eine massiv reduzierte TDP aufweist (nicht im Sinne von thermischem Limit, sondern wie viel Strom die GPU ziehen darf), heruntergetaktet ist (sowohl Basis- als auch Turbo-Takt) und womöglich auch noch mit einer niedrigeren Spannung (was, wie wir später feststellen werden, durchaus von Vorteil sein kann) läuft als die normalen non-Max-Q 1000 (Notebook) GPUs.
Schlecht abschneidet? Das hängt von Kriterien des Suchenden ab. Nehmen wir aber die genannte Beispiele. In der "3DMark - 1920x1080 Fire Strike Graphics" Tabelle ist auf der Geber-Seite rechenleistungsmäßig 1080 Max-Q 14% unter Founders Edition. Aber auf der Nehmer-Seite braucht sie dafür 45% weniger Strom. Ok, man kann noch ein schon gebräuchliche Vergleich machen: 1080 Max-Q ist nur 3% schneller, als 1070 (Laptop), aber dafür verbraucht 17% weniger Strom. Hat bis jetzt jemand diese Plusseite herausgestellt? So bald man ein von diesen Reglern auf die Minusseite verschiebt, was dank Max-Q es weit geht, geht der anderer Regler automatisch stark auf die Plusseite.



Aber geht es vielleicht darum?
Der Knackpunkt ist jedoch, dass Nvidia für die Max-Q-Varianten der Chips denselben Preis abruft wie für die normalen non-Max-Q-Varianten.

Notebookhersteller müssen es zwar wissen. Sonst aber nach bisherigen Informationen sind das gleiche Karten. Warum sollen sie unterschiedlich kosten? Ich würde dann gegenbehaupten, daß Max-Q mehr Kopfschmerzen für NB-Hersteller bereitet, vi-i-iel sparsamer mit dem Strom umgeht, darum kann in dünnere NBs eingebaut werden. Für einige durchaus normale Leuten ist das mehr Wert (nicht die Kopfschmerzen gemeint).

JKM

  • Multimedia NB
  • ***
  • Beiträge: 288
  • Karma: +2/-2
###  Meinungs-Fazit ###
Wenn Max-Q eine komplette Plattform verkörpern soll, ist das ein weiterer Grund für ein anderes Namenssystem, denn diese Karten sind eindeutig unterschiedlich zu den bestehenden GPUs.


Das Problem sehe ich eher, wie jeder die Preis-Names-Bezug anders sieht.

Warum sollte eine Grafikkarte nicht nach Chip verkauft werden und je nach Kühlsystem-Aufwand der OEMs in Gold, Silber, Brone unterteilt werden, wo dann mit Ghz-&-W-Angaben bzw. %-Angeben zum Desktop-Modell angeg

GF104 .. GTX 1080 - 2560SP - non-Teildeaktiviert
GF104 .. GTX 1070 - Teildeaktiert
GF106 .. GTX 1060 - non-Teildeaktiviert
...

Desktop GTX 1080 ... (Normal = 1,5 Ghz-Bais - 1,6 Ghz-Turbo)
Notebook GTX 1080 ... Gold    (1,2 Ghz @ 100W-cTPD)
Notebook GTX 1080 ... Silber    (1,1 Ghz @ 100W)
Notebook GTX 1080 ... Bronze    (1,0 Ghz @ 100W)

Notebook GTX 1080 ... Platin   15mm & ULV-GPU  & Selektiert & HBM-Speicher
Notebook GTX 1080 ... Gold    18mm & ULV-GPU  & Selektiert
Notebook GTX 1080 ... Silber   22mm & LV-GPU
Notebook GTX 1080 ... Bronze  >22mm & GPU

Ich fnde, man sollte die Notebooks nicht seitens der Performance betrachten, sondern der Effizienz. Und da ist eine höhere Effizienz zu erzielen, wenn ein möglichst großer Die mit möglichst hohem Takt bei niederen oder möglichst niederen Spannung erreicht wird.

Ideal wäre es, wenn man dann mit so einer GTX 1080
Max-Performance  ... (Volle Ausnutzung des gegebenen TDP-Rahmens)
Max-Effizienz   .........(Optimum aus hohem Takt & Niedrigen Spannung)
Max-Akku     ............. (Guter Takt @ Niedrigster Spannung)
wechseln könnte.

Wenn ich ein Auto Kaufe, kaufe ich auch nicht die Performance. Sondern die Technik, welche ein Qualitäts-Merkmal für Performance ist. Und das siehe ich auch für Notebooks. Ich hätte es lieber, wenn ich einen GTX 1080-Chip kaufen kann, den ich ja nach Bedarf "Max-Performance" (angehängt am Stromkabel) nutzen kann, ober "Max-Akku" (Älteres Spiel, Hochsommer-Hitze) oder eben Max-Effizienz.

Klar, der Wishper-Mode ist eine gute Idee und ist auch nichts anderes, welches man vielleicht als Max-Spiele-Optimum aus fps & Spiel-Einstellung & Effizienz sehen könnte. Gute Idee, aber der Spiele will ja eher selber was einstellen, und nicht komplett alles vom Konzern voreingestellt bekommen.


### Meinungs-Fazit ###
Ich bin schon seit Langem in der Notebook-Enthusiasten-Szene aktiv und habe schon vielerlei Dinge kommen und gehen sehen. Meiner Meinung nach zahlen wir bereits jetzt schon mehr als genug für reduzierte Performance und eingeschränkte Hardware, und was Nvidia da treibt, ist aus meiner persönlichen Sicht massiv irreführend. Was ist eure Meinung?


Solange sich der Kunde verarschen lässt und sich das Geld aus der Tasche Ziehen lässt, solange agiert der Konzern so.

Und da machen die Tester die großen Fehler, dass sie z.B: Faire Trade (Faires Handeln) nicht in der Bewertung aufscheinen lassen. Also, ob die Firma im Sinne des Kundens handelt, oder Techniken entwickelt um seine Monopol-Stellung ausnutzt und mit neuen Techniken immer mehr den Kunden aus der Tasche zieht.

Denn die Technologische Entwicklung findet soundso statt. Und wenn die eine Technik entwickelt wurde, dann wird mit der Entwicklugns-Schmiede eben die nächste Technik entwickelt. Den Marketing-Mäßig wird nicht selten erwähnt, dass die für diese Technik / Architektur soundso Mrd. Euro Investiert wurde. Damit will man ja mit einer hohen Zahl vorgaukeln, dass XY-Firma os barmherzig viel investierte und diese enormen Investition / Vorausausgaben dann die hohen Preise irgendwie doch genehm ist.

Notebookcheck könnte bei den Test einfach auch die Übersichtlichkeit der Namensgebung mit in die Bewertung fließen lassen und/oder einfach eine neben
Performance
Watt

auch
Performance-pro-Watt
Performance-pro-$
Performance-pro-(Watt-&-$)

angeben.

Eigentlich haben es die Tester eh in der Hand, weil viele Leute sich aufgrund der Tests die Notebooks kaufen.
Gerade die Tester sollten am Wenigsten über die zu teuren und zu eingeschränkten Grafikkarten am wenigsten herumheulen, sondern entsprechende Tests (= Notebooks-Betrachtung) so bewerten, dass obigen aus ihrer Sicht Negative Parametern in den Test mitbewertet werden.

Würde man Performace-pro-$-Diagramme machen, dann würden vielleicht die überteuren Super-Notebooks nicht mehr so glänzen, sodass mit solchen plausiblen & jederzeit Nachvollziehbaren Zahlen ein Druck auf die Hersteller entsteht, wenn ihre Top-Modelle in manchen Diagrammen nicht mehr an erster stelle stehen.

 

 
» Impressum     Sprachen: Deutsch | English | Español | Français | Italiano | Nederlands | Polski | Português | Русский | Türkçe | Svenska
Diese Webseite nutzt Cookies. OK