Ich weiß an dieser Stelle eigentlich gar nicht wo ich anfangen soll den fachlichen Bockmist korrekt zu stellen den du hier von dir gibst. Ein Problem zu dimensionieren und zu gliedern schaffst du nicht. Das äußert sich dann ca. so wie du schreibst. All deine wirren Gedanken in einer Wurst, absatz- und strukturlos - ebenso wie du denkst und wie es dir gerade in den Sinn kommt. Dein Stil ist ca. der von JackUSA aus den alten Tagen.
1. Skalierbarkeit (bitte google den Begriff bevor du ihn verwendest nur weil er gut klingt): Meine Aussage, dass eine 500mm Die auf 7nm auf RDNA1 Basis das Doppelte verbrauchen und leisten würde entgegnest du mit dem Argument der Skalierbarkeit - anscheinend ohne zu Wissen was dieses Wort bedeutet. Gleichzeitig schränkst du ein, dass hier an Spannung und Taktraten geschraubt werden müsste (was dann keine Skalierbarkeit mehr ist), um statt 450 Watt 300 Watt zu verbrauchen und statt einem 100% Leistungsincrease nur 40% drinnen wäre. Hast du eigentlich eine Ahnung was Skalierbarkeit per Definition ist? Skalierbarkeit (im besten Fall) würde bedeuten, dass ein 500mm2 Die bei gleichem Takt z.b. aufgrund der Architektur - welche vielleicht eine Mindestgröße braucht um gut zu funktionieren - effizienter wäre als ein 250mm2 Die. z.b. die FPS/Watt würde steigen - im schlimmsten Fall ist Skalierbarkeit nur 1:1 proportional.
2. Pascal & Turing: Eine Navi auf 7nm ist 10% langsamer und 10% sparsamer auf halber Die-Size wie eine Pascal auf 14nm. Sprich mit einem Fertigungsvorsprung von 1. Generation hat man mit Navi im besten Fall auf Ach und Krach gerade einmal gleichgezogen. Sobald Nvidia hier beim Fertigungsprozess nachzieht, werden die Schwächen von Navi10 offenkundig und die 450 5700XT wird um 300 über die Ladentheke wandern. Mit einer leichten Weiterentwicklung von Turing auf 12nm liegt Nvidia mit der 2080ti noch immer 40%, eine 2070Super noch 5% vor Navi, inkl. Fläche, die sie für RT Cores "verschwenden". Jetzt rechne dir mal aus, wie der Leistungsvorsprung von Turing auf einer 12nm Node wäre, wenn die Fläche nicht für das RT Gimmick, sondern für normale Computing Units verwendet worden wäre. Navi würde gegen Turing kein Land sehen. Und der Vorsprung einer 2070 Super wären locker 20% gegenüber einer 5700XT, bei 15% weniger Verbrauch. AMD müsste dann entweder einen 300mm2 Die verwenden um leistungstechnisch mitzuziehen, was AMDs Kosten in die Höhe treiben würde, oder seine Preise für eine 5700XT gehörig senken - ca auf Polaris Niveau (250 für 250mm2), dort wo eine 5700XT eigentlich hingehört.
3. Preispunkt CPU & GPU: Deine Argumentation, warum AMD auf dem CPU Markt für ein in Relation gesehen leicht besseres Produkt weniger verlangt als auf dem GPU Markt, wo sie klar hinten nach sind (rund 1. Gen) und mehr verlangen, ist nicht schlüssig. Würde man deine Argumentationslinie zu Ende denken und nach dem GPU-Pricing Modell gehen, müsste AMD auf dem CPU Markt höhere Preise verlangen als Intel, weil lt. deiner Aussage AMD ja dumm wäre dies nicht zu tun wenn "es der Markt hergibt und die Konkurrenz es vorlebt". In dem Fall sogar noch höhere als Intel, weil sie produkttechnisch sogar besser unterwegs sind.
Verschon mich in Zukunft mit deinen seichten Aussagen. Mein Original-Post bezog sich auf die Schwäche des Navi10 Chips und warum diese Schwäche von Nvidia durch ihren RT Ausflug nicht so offensichtlich zu Tage gelegt wurde, wie es hätte sein können. Grundaussage war, dass wenn Nvidia ihren Die komplett der Weiterentwicklung der klassischen Pascal Architektur gewidmet und den Platz auf der Die konventionell genutzt hätten, der Leistungsvorsprung gegenüber Navi10 um einiges größer wäre als mit den unnötigen RT und Tensor Cores auf einer z.b. 2060 Super. Jetzt bietet Nvidia um einen hohen Preis eine Technik, die man nicht nutzen kann, und muss sich dies zurecht vorwerfen lassen. Stattdessen hätten sie auf klassische Technik setzen und die Navi Karten alt aussehen lassen können. Wenn du dir deine wirren Gedanken schön reden möchtest meinetwegen, aber in dieser Diskussion hast du offenkundig dem gesamten Forum deine mangelnde Fachkenntnis, gepaart mit Fanboytum präsentiert, sodass man dein Aussagen bezogen auf AMD ohnehin nicht mehr Ernst nehmen kann. Ein paar hübsche Wörter wie "Skalierbarkeit" aufzuschnappen und wieder reinzuwerfen macht aus dir keinen Experten. Und die paar PS Vergleiche auf die du moderne Node und Architekturtechnologie zu reduzieren versucht zeigt nur von der Beschränktheit und mangelndem Verständnis von der Materie an sich.
Pascal war ein Erfolg, welcher durch den Sprung auf einen neuen Fertigungsprozess (16nm, später 14nm) in Kombination mit der Architektur erreicht wurde bei einer Die-Size die um 20% geringer ausfiel als bei Maxwell. Navi10 dagegen ist ein Blender, welcher mit einem überlegegen Fertigungsprozess trotzdem langsamer ist und mehr verbraucht als Nvidia in ihrer langweiligen Turing-Sandwich-Generation. Ich habe nur aufgezeigt, dass dieser Rückstand noch größer wäre, hätte Nvidia auf ihre RT-Cores verzichtet und die Flächen auf dem Chip besser eingesetzt. Und dass der optische Erfolg von Navi einem taktischen Fehler von Nvidia vorausgegangen ist und nicht aus der Stärke von Navi10 resultiert, sondern aus der Miskalkulation von Nvidia. |