[News] G92 in 55nm?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • [News] G92 in 55nm?

      Hallo Leute,

      so wie es aussieht, strebt Nvidia die Fertigung der "neuen"(alten) Grafikkarten-Generation im 55nm-Verfahren an, um auch weiterhin konkurrenzfähig gegenüber ATi zu bleiben, die ja bereits jetzt schon mit der 3xxxer-Serie Direct 3D 10.1 und eben jene 55nm-Fertigung etabliert haben.

      Besonders interessant finde ich dabei eine neue Entwicklung:


      ATi wird den RV770 anfangs nur für mobile Lösungen anbieten und auch Nvidia soll mit dem G92 in 55 nm angeblich zunächst ausschließlich den Notebook-Sektor bedienen, bevor der Chip Anfang des dritten Quartals auch im Desktop-Segment Einzug hält.


      Das 2. Quartal 08 wird also sehr interessant für uns Notebook-Fetischisten!

      Bisher war es so, dass sich erst die Desktop-Pendanten etabliert haben, bis nach einer ganzen Weile ihre Notebook-Brüder erschienen sind. Das sich dies mit den kommenden Chips umkehrt, lässt mein Gamer-Herz deutlich höher schlagen... :baby:


      Link zu den News auf Computerbase:

      Nvidia strebt Fertigung des G92 in 55 nm an


      Grüße,

      der kai

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Kai Tee ()

    • Original von kinglouy
      Da haben nVidia und AMD/Ati den Trend zu Notebooks wohl erkannt :P


      entweder das, oder keiner will sich eine blöße im noch immer prestigeträchtigeren desktopsegment geben.
      ehemals XPS M1710

      Latitude E6400
      C2D P8600 - 2,4 Ghz
      2 GB - DDR2 800
      200 GB - 7200rpm Samsung
      Intel X4500HD
      LED Display + Tastaturbacklight
      6 Zellen Akku

      Creative X-Fi extreme Audio Notebook
      Teufel Motiv 2
    • Naja, also im Prinzip ist das, was bei Nvidia nach dem G80 kam ja nichts weltbewegendes.
      Eine neue Fertigungstechnologie gleich mit einem Generationswechsel zu würdigen, ist reines Marketing und meines Erachtens als lächerlich zu bezeichnen. Großartige Neuerungen erwartete man vergebens...

      Jedoch, wie auch schon reichlich unter der News diskutiert wird, ist eine neue Fertigungstechnik für den Notebookmarkt von ganz besonderer Bedeutung, weil es in diesem Bereich nunmal um das Verhältnis zwischen moderater Leistung bei geringem Stromverbrauch und gernigen Temperaturen geht. Im Desktop-Segment zählt fast ausschließlich Leistung, und die sucht man beim "neuen" 9800GTX (X2) ja wie erwartet vergebens...
      Anders bei Notebooks: Wenn der Chip "gerade mal" 15k auf die 3DMark-Waage bringt, dafür aber eine deutlich längere Akkulaufzeit bei gleichzeitig noch niedrigeren Temperaturen beschert und im gleichen Zuge noch deutlich höhere Chiptakte erlaubt, ist das wirklich einen Neuerung der besonderen Art finde ich.

      Wenn man dem Artikel glauben schenken darf, wird die nächste Generation nach der 8800M GTX schon im 2. Quartal erscheinen.
      Was mich dann aber besonders interessiert ist, was der neue RV770(M) von ATi/AMD im Vergleich zu bieten hat und wie sich der Preis hinsichtlich der (wieder) konkurrenzfähigen ATi-Sparte für diese High-End Karten entwickeln wird. Das Jahr wird jedenfalls äußerst interessant. Und dabei hab ich mich doch schon fast dazu entschlossen, nun endlich den 1730 zu erstehen. Nun jedoch warte ich noch die ein oder andere News ab und erwäge auf die neue Montevina-Plattform zu warten, die ja ebenso im 2. Quartal erscheinen soll...

      Die Leistungssteigerung liegt ja auf der Hand: Penryn Quads mit 1066MHz FSB, G92 àla 9800M GTX SLi, DDR3-Speicher, Robson 2.0, etc. ...also seeeehr gute Aussichten...



      der kai
    • Laut CeBit wird Nvidea die neue 9600 GT für Laptops ausrüsten mit dem G92w Chip.
      Mehr konnten die mir aber auch nicht mitteilen denke das es zum 4 Quat. die ersten Karten geben wird mit dem Chip.
      D12X405 ,XPS Premium 420 , 8800 GTX , 3GB 667 MHz , X-Fi Xtremer Gamer , 500W Netzteil , 640 GB Raid 0 , Vista HP. Samsung 226 BW , Creative I-Trigue 3330
    • ne du, wenn die 55nm G92 für den Desktop-Markt im 3. Quartal eingeführt werden soll, und die Notebookkarten vorher kommen, geh ich mal stark von Mai-Juli aus...

      Und der 9800M GTX Chip ist ja bereits für Juni geplant - laut Clevo. Nur ist fraglich, ob es eine 2. Revision in 55nm geben wird.
    • @Tee: Du hast einen sehr provokativen Post geschrieben. Jemand der nicht ganz in der Materie drin steckt, nimmt das vemutlich alles so ab. Deshalb' muss ich das alles mal etwas relativieren - ohne etwas komplett anderes zu behaupten.

      Original von Kai Tee
      Naja, also im Prinzip ist das, was bei Nvidia nach dem G80 kam ja nichts weltbewegendes.

      Erst ab G84 + G86 kam die volle H.264 Beschleunigung mit der VP2. Ein Meilenstein!
      anandtech.com/video/showdoc.aspx?i=2984

      Der G92 ein Kracher! NVIDIA GeForce 8800 GT: The Only Card That Matters
      anandtech.com/video/showdoc.aspx?i=3140
      "Upon hearing Ujesh Desai, NVIDIA's General Manager of Desktop GPUs, explain this incredible projection, my internal monologue was somehow rerouted to my mouth and I happened to exclaim (with all too much enthusiasm) >>you're crazy!<< [...] It's really not often that we have the pleasure to review a product so impressively positioned. The 8800 GT is a terrific part, and it is hitting the street at a terrific price."

      Der G94 ebenso: GeForce 9600GT - knausriger Knaller!
      tomshardware.com/de/9600-GT-Ge…,testberichte-239968.html

      Eine neue Fertigungstechnologie gleich mit einem Generationswechsel zu würdigen, ist reines Marketing und meines Erachtens als lächerlich zu bezeichnen. Großartige Neuerungen erwartete man vergebens...

      Es hat tatsächlich etwas mit Marketing zu tun. Aber in einem anderen Sinn:
      Wenn Du nach dem Moore'schen Gesetz nur alle 2 Jahre die Integrationsdichte verdoppelst und eine Strukturverkleinerung nur in Sprüngen aber nicht kontinuierlich vollziehen kannst:
      de.wikipedia.org/wiki/Moore%27s_Law

      Dann bleibt Dir gar nichts anderes übrig als in den Zwischenräumen wo Du mal gerade nicht die Strukturgröße verkleinern kannst, mit neuen Features weitere Verkaufsargumente und Bedarf zu erzeugen. Genau das macht nVidia z.B. beim G84 mit der Einführung des VP2 (der 80nm Schritt wurde bei CPUs beispeilsweise gar nicht vollzogen).

      Desweiteren ist durch die Einführung von Unified Shadern aus Vertex + PixelShadern, eine gewisse Konvergenz in Sachen Hardwaretechnologie bereits erreicht! Den Großteil der Entwicklungskosten steckst Du nun in Software speziell Treiberentwicklung. Von den Früchten dieser Entwicklung profitierst sogar Du! Oder woher kommen Deiner Meinung nach Performancesteigerungen wie diese?

      Forceware mit 65% Leistungsgewinn: Neuer Grafikkartentreiber auf alten Karten
      tomshardware.com/de/Forceware-…,testberichte-239957.html

      . Neue Kompressionsverfahren für Pixeldaten,
      . optimiertere parallele Ausführung von Renderaufgaben,
      . Berechnung von Physikdaten

      Sogar eine GeForce 8xxx wird in den Genuss von Physicsdatenberechnungen kommen:
      Nach dem Kauf von Ageia sollen nun Grafikchips der Geforce-8000er-Serie PhysX-Berechnungen mit einem bald erscheinenden Treiber-Update durchführen können.
      heise.de/newsticker/meldung/print/103874

      Softwareentwicklung ist die treibende Kraft! Der blöde Transistor ist schon 1934 erfunden worden und hat sich seitdem nicht großartig verändert. Die Strukturverkleinerung der Transistoren ist zwar technisch anspruchsvoll, aber auf abstrakterer Ebene nicht weiter interessant. Die Frage, was Du von der Software aus Optimierungsgründen besser in Hardware verlegst, ist hingegen die interessante. Aber um die zu beantworten musst erstmal die Software haben!

      Vergleichbares gilt für OpenGL und auch Videobeschleunigung. Erst die Software, dann die Analyse was davon am effizientesten in Hardware läuft. Transistoren hast nur endlich viele und die willst gewinnbringend einsetzen und was einmal in Silikon gegossen ist, das liegt da. MMX braucht heute kein Mensch mehr.

      Jedoch, wie auch schon reichlich unter der News diskutiert wird, ist eine neue Fertigungstechnik für den Notebookmarkt von ganz besonderer Bedeutung, weil es in diesem Bereich nunmal um das Verhältnis zwischen moderater Leistung bei geringem Stromverbrauch und gernigen Temperaturen geht. Im Desktop-Segment zählt fast ausschließlich Leistung, und die sucht man beim "neuen" 9800GTX (X2) ja wie erwartet vergebens...

      Naja.

      Ich hab' hier noch einen Latop (Vobis LeBook) von 1996. Der verbraucht genauso viel Strom wie das M1330. Hab' ich mit einem Wattmeter nachgemessen. 15 - 30 Watt je nach Auslastung.

      Beim Desktop verbraucht's gute 100 Watt + ca. 200 Watt für einen 3D Beschleuniger. Natürlich ist die Varianz beim Desktop größer, da man doch mehr Möglichkeiten er Kühlung hat. Im Gros bewegt sich das aber alles bei ca. 60-120Watt pro CPU (das wurde auch zu Pentium 4 Zeiten nicht großartig überschritten) und auch vergleichbares für die GPU.

      Also ist ähnliches wohl für die Zukunft zu erwarten: Stromverbrauch wird nicht großartig sinken. Die Leistung steigt aber.

      Der Wandel von Desktop -> Laptop bei den Grafikkartenherstellern ist wohl eher damit zu begründen, wenn Du Dir mal Verkaufszahlen anschaust: Im Desktopmarkt sind die Verkaufszahlen rückgängig, während der Notebookmarkt ein Starkes Wachstum ausweist. BWL 1. Semester in welche Produkte Du investierst.


      Anders bei Notebooks: Wenn der Chip "gerade mal" 15k auf die 3DMark-Waage bringt, dafür aber eine deutlich längere Akkulaufzeit bei gleichzeitig noch niedrigeren Temperaturen beschert und im gleichen Zuge noch deutlich höhere Chiptakte erlaubt, ist das wirklich einen Neuerung der besonderen Art finde ich.

      Wie bereits gesagt das wird nicht eintreten. Der Trend geht in eine andere Richtung:

      . Es wird zusätzliche Märkte wie SubNotebooks und SubSubNotebooks auf Intel Atom Technologie dienen. Das sind dann Zusatzgeräte (also ersetzen keinen Notebook) und steuern wiederum neue Märkte an.
      . Stromverbrauch wird bei Notebooks in etwa konstant bleiben. Und wer behauptet ernsthaft er könnte einen 3D Shooter am Flughafen spielen? Selbst bei einer PSP die auf mobiles Spielen optimiert ist (übrigens auch die Games), stören die Leute in der U-Bahn. Also Akkuleistung bei 3D auch (fast) egal.

      Und dabei hab ich mich doch schon fast dazu entschlossen, nun endlich den 1730 zu erstehen.

      Kauf' ihn Dir - es ist ein hervorragendes Produkt:
      anandtech.com/mobile/showdoc.aspx?i=3242

      7oby
      XPS M1330 red nseries
      » T8300 » 8GB » OCZ Vertex 2E 240GB » X3100 » LED » Zalman ZM-NC1000

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von 7oby ()