Riva Tuner

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • nabend
      alle zusammen

      kann mir jemand sagen wie hoch man takten darf

      mit dem riva tuner ohne das etwas was durch brend

      bei meinem 1730

      möchte die grenze nicht überschreiten kennt sich jemand aus

      danke schon mal im vorraus :)
      T9600 2,80 GHz
      Windows 7 Ultimate64 Bit
      4.096 MB Dual-Channel DDR3
      1GB ATI® Radeon™ HD 4670
      HDD 500GB 7,200rpm
      Blu-Ray RW Premium Support 3 Jahre
      LCD White back cover : 16"Truelife 1080p Full HD RGBLED
    • Nimm das ATI-Tool und lass es den Max Core und Max Memory suchen.

      Davon ziehst du 20 mhz ab und hast einen hohen Takt gefunden.

      Alternativ kannst du im Rivatuner den Takt in 20mhz Schritten anheben und auf den Test Button klicken.#Solange er nicht meckert gehst du höher.
      Wenn er sagt das es zu hoch ist gehst du ein wenig zurück und testest das ganze mit mehreren 3dMark Durchläufen.
      Dabei immer die Temperaturen im auge behalten.

      Vieleicht kann dir ja jemand seine Taktraten als richtwert nennen?

      gruss
      [Blockierte Grafik: http://img85.imageshack.us/img85/9426/cyrusxm1.png]
      DELL XPS M 1530
    • Also das ist wirklich von Karte zu Karte verschieden, das kann man eigentlich pauschal nicht sagen...

      Bei mir gehen höchstens 730 Core, 1875 Shader und 1025 Mem, hier läuft der 3DMark06 stabil durch, jedoch ist es mit diesen Settings nicht spielbar, da ist nach ner Weile Schluß.

      Zum Zocken nutze ich 700 Core, 1800 Shader, 975 Mem das geht eigentlich recht ordentlich.

      Die werte von Dell_XPS würden mich mal interessieren *g*
      Inspiron mini v10:
      Windows XP Home SP3
      Intel(R) Atom(TM) CPU N270 @ 1.60GHz
      Intel(R) GMA 950
      2 GB DDR2 Ram
      160 GB
    • 825/1825/1000 bei 3Ghz CPU Takt [Game Performance] spielbar ohne jeglicher Probleme hirmit mache ich auch 3D Mark 06.

      Bis hier liegen die Temperaturen bei max 67 Grad.

      Maximal möglich 875/1875/1033 aber nicht mehr zum spielen geeignet kann Grafikfehler geben zumindest mit 3Ghz CPU Takt kann wieder anders aussehen bei 3,4Ghz.


      Man darf nicht die Äbhängigkeit vom der CPU vergessen.

      Weitere gute stabile fehlerfreie Taktung 850/1850/1020 aber höhere Temperaturen !
    • ähm also ich arbeite mit rivatuner um an der taktung zu arbeiten ...

      wenn ich jetzt diesen monitor ansehe der dabei ist liegen meine frequenzen höher als die schieberegler bei denen ich was einstelle .. das G15 display erkennt auch die höheren werte ..

      allerdings sind die werte vom speicher der graka korrekt ..

      wenn ihr also sagt 825/1825 für core/shader dann meint ihr schon die am ende rauskommenden und nicht die eingestellten oder ;)

      meine grakas machen leider im mom nen max speichertakt von 890 MHz ..
      wobei hier im zimmer im mom recht warm ist .. 3 rechner ..
      schon das fenster offen =)

      temps liegen laut riva tuner bei 73 °C max .. find ich doch recht hoch .. aber die lüfter wollen irgendwie nicht auf volle last schalten -.-"
      (kann man das irgendwo einstellen ab wann die hochdrehen sollen ?)
      bei ut3 gehen die zb schon im menu auf vollast *G*

      schon komisch das ganze ..

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Rei`TaraShui ()

    • ok .. zwar ist die ausgabe auf dem logitech panel über den riva-tuner monitor geschaltet und nicht in everest .. aber dann hab ich schonmal das geklärt ... =)

      wie lange braucht eig das ati-tool um so nen max wert auszuloten ?
      mach das bis jetzt immer manuell ..
    • Original von Dell_XPS
      825/1825/1000 bei 3Ghz CPU Takt [Game Performance] spielbar ohne jeglicher Probleme hirmit mache ich auch 3D Mark 06.

      Bis hier liegen die Temperaturen bei max 67 Grad.

      Maximal möglich 875/1875/1033 aber nicht mehr zum spielen geeignet kann Grafikfehler geben zumindest mit 3Ghz CPU Takt kann wieder anders aussehen bei 3,4Ghz.


      Man darf nicht die Äbhängigkeit vom der CPU vergessen.

      Weitere gute stabile fehlerfreie Taktung 850/1850/1020 aber höhere Temperaturen !


      Krass, da scheinst du ne extrem gute Karte erwischt zu haben, bei mir ist Schluß mit lustig ab 735/1875/1025 da "schneit" es nämlich schon auf dem Display *g*
      Inspiron mini v10:
      Windows XP Home SP3
      Intel(R) Atom(TM) CPU N270 @ 1.60GHz
      Intel(R) GMA 950
      2 GB DDR2 Ram
      160 GB
    • Original von Firestarter
      Original von Dell_XPS
      ...
      Maximal möglich 875/1875/1033 aber nicht mehr zum spielen geeignet kann Grafikfehler geben zumindest mit 3Ghz CPU Takt kann wieder anders aussehen bei 3,4Ghz.
      ...


      Krass, da scheinst du ne extrem gute Karte erwischt zu haben, bei mir ist Schluß mit lustig ab 735/1875/1025 da "schneit" es nämlich schon auf dem Display *g*


      vergleich mal die werte ?(

      da siehste woher das kommt.
      daher würd ich die shader clocks nicht so hoch drehen aber die anderen höher denn so bekommt man die maximale leistung raus. und wie es aussieht sind die shader clocks bei euch beiden gleich hoch zu treiben bevor sie fehler produzieren.
      schieb doch mal den gpu takt höher und nicht den shader

      ich vermute mal dass du alles dreis immer gleichzeitig angehoben hast wodurch sich der geringere core takt ergibt.
      XPS M1730
      Rauchgrau | Intel® C2D X7900 | 4GB-Ram | 2x320GB 7.200rpm | Intel® Wireless WiFi Link 4965AGN | Vista Ultimate 64 Bit

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von hErMeS ()

    • Ich hab die Werte verglichen und deswegen sag ich auch "krass" und das nicht ohne Grund, denn meine Karte geht im Core definitiv nicht über 735, das ist einfach so und ich hab alle Werte (Core, Shader, Mem) seperat getestet und wenn ich Core auf 750 setze und alle anderen Werte auf Default lasse, dann krieg ich trotzdem gleich "Schnee" oder gar nen Freezes.

      Ich bin kein Neuling beim Übertakten und weiß wie ich das Max bei ner Karte auslote und die beste Performance. Bei 3DMark ist es jedenfalls scheißegal wie hoch man Core setzt, hier sind die Shader entscheidend...oder warum meinst du hab ich genau wie Dell_XPS über 11k Punkte und das bei ner Core Differenz von über 100 Mhz?

      EDIT: und hier noch der Beweis für meine Aussage. Beim Test waren Shader auf 1875 und Mem auf 1025, Core hingegen auf Default und wie man sieht reißt die Core Taktung kaum was raus im Gegensatz zu den Shadern und Mem...
      Inspiron mini v10:
      Windows XP Home SP3
      Intel(R) Atom(TM) CPU N270 @ 1.60GHz
      Intel(R) GMA 950
      2 GB DDR2 Ram
      160 GB

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Firestarter ()

    • ich komme nicht über 725 gpu core und 956 mermory....
      Nvidia monitor sagt mir auch sehr präzise wann schluss ist. (farbanzeige)
      leider kann man den shaderclock nicht manuell verstellen im nTune.

      @firestarter
      wirklich interessant, das der shaderclock so viel ausmacht. ich werd mal meine grenze beim shaderclock suchen....
      XPS1730 Smoke Gray
      Vista Ultimate, CPU T7500 2,2 Ghz, 2Gb Ram, 8700m GT SLI
      GPU Core: 725 MHz / GPU Ram: 900 MHz
      --------------Forceware 169.09 -------------
      3DMark Score: 8788
      SM 2.0 Score 4181
      SM 3.0 Score 4034
      CPU Score 1934
    • neuja es sind aber immer die tollen rekordversuche indem man für ein spezielles programm nen max wert raussucht .. aber alles noch schön im legalen bereich ...

      wenn ich den shadertakt hochdrehe bekomm ich auch was über die 10k punkte..
      will ich aber damit spielen macht das kaum was aus wenn ich die fps ansehe ...
      sicher gibts messbare unterschiede ... hab aber bis jetzt keine taktraten gefunden bei denen ich behaupten kann jetzt irgendwelche detailgrade groß hochzuschalten oder AA auf ne höhere stufe zu stellen .. was für mich dann den sinn von overclocking außerhalb des reinen spassfaktors zu nichte macht ...
    • Da muss ich zustimmen,es gibt Games da juckt es nicht,habe aber auch welche wo es grosse Vorteil bringt wie Company of Heroes und hier sehr deutlich.

      Auch Crysis kan davon profitieren,der Benchmark von Crysis gibt links und rechts FPS aus wobei man deutlich rechts sieht das man deutlich der 30FPS entgegen kommt.

      Das ist auf der linken Seite nicht der Fall im Game zeigt sich aber der rechts angezeigt Wert spiegelt sich direkt im Game wieder.

      Mittlerweile bin ich schon etwas weiter.Ich forsche und teste viele Dinge zusammen mit Stefan [stahlkunst] weil unsere Systeme identisch konfiguriert sind.

      @Rei`TaraShui sein Post ist uns schon durch den Kopf gegangen weil es wirklich bei bestimmten wahllosen Taktungen nicht spürbar etwas bringt.

      Aber das ist cht 1730 spezifisch das wird bei allen so sein,glaube nicht das ein 1530 getaktet bei Crysis mehr Leistung zeigt.Genauso war das Verhalten vom 1710 bei Taktung,es es bei einigen Diziplinen nicht spürbar etwas brachte.

      Generell sind wir aber der Meinung das ein takten derzeit nicht unbedingt erforderlich ist weil alle Games laufen.

      Daher haben wir überlegt uns am Taktgeber zu orientieren wie damals in meinem Thread Geometric Delta Clock.

      Hier hat sich bei den ersten Test gezeigt das es darauf ankommt eine effiziente Taktung zu finden.

      Das funktioniert soweit das eine deutlich geringere Taktung mehr Leistung gebracht hat als eine höhere Taktung.
    • Derzeit stellt sich die Frage ob die 8700er bewusst reduziert wurde in der Leistung.
      Ursprünglich und noch immer intern bei nvidia ist die 8700 eine 8800GS.

      Nun ist es mir gelungen das Speicherinterface zu erweitern,was das bringt und überhaupt funktioniert bleibt noch offen muss getestet werden.

      [Blockierte Grafik: http://img509.imageshack.us/img509/7047/49653338eh2.jpg]

      Zusätzlich ist es gelungen 32 weitere Shader Prozessoren freizusetzen.

      [Blockierte Grafik: http://img207.imageshack.us/img207/7086/interfaceti6.jpg]

      [Blockierte Grafik: http://img81.imageshack.us/img81/5339/interface2zj8.jpg]

      Bin derzeit etwas erstaunt.

      Erster Test Company of Heroes ohne OC max Auflösung Settings HIGH bei selbern Einstellungen.

      [Blockierte Grafik: http://img156.imageshack.us/img156/5504/neuebitmap4vp3.png]

      [Blockierte Grafik: http://img156.imageshack.us/img156/7233/neuebitmap2rb3.png]
    • Das ist ja wirklich der Hammer :P

      Wenn man da echt noch mehr rausholen kann und das hier der falsche liest, kosten die Dinger direkt nochmal ein 1000er mehr...

      Aber zum Glück habe ich meins schon:baby: Und ich bin sehr zufrieden! Aber wenn da noch mehr geht...

      Abschlagen wird das wohl keiner hier:D

      Greets
      XPS 1730 blau
      Core2Extreme
      4GB Ram
      2x200GB 7200U Raid0
      BluRay
      Und man kann doch eine perfekte Beziehung haben :baby:
    • Sollte das mit den Shadern wirklich hinhauen und passen, so wäre die 8700 GT evtl wirklich in Schlagdistanz zur 8800M GTS, welche auch über 64 Shadereinheiten verfügt und das 256 Bit Interface hat.
      Inspiron mini v10:
      Windows XP Home SP3
      Intel(R) Atom(TM) CPU N270 @ 1.60GHz
      Intel(R) GMA 950
      2 GB DDR2 Ram
      160 GB
    • ähm helft mir mal auf die sprünge *G*

      soll das bedeuten dass der chip eig 265 bit speicher-anbindung hat die aber softwaretechnisch kastriert wurden ?!
      bzw eig 64 shader und nicht 32 ??

      ich mein warum sollte man das nicht gleich freigeschaltet haben ?!
    • Ich denke das ist nicht nur sofwaretechnisch beschnitten, sondern eher im Bios der Graka geregelt (muss heut Abend auch mal wieder nbitor anschmeißen *g*)...

      Sollte es sich wirklich als "wahr" herausstellen, dass die Karte eigentlich ne doppelt so gute Speicheranbindung und doppelt so viele Shadereinheiten hat, so habe ich eigentlich keine Erklärung für die Handhabe von Dell angesichts der Karten, denn man hätte so schon früher den 8800 Trumpf spielen können und noch mehr Einheiten absetzen können.
      Inspiron mini v10:
      Windows XP Home SP3
      Intel(R) Atom(TM) CPU N270 @ 1.60GHz
      Intel(R) GMA 950
      2 GB DDR2 Ram
      160 GB