Jump to content

[Thread Ufficiale] NVIDIA GF110 - GeForce GTX 580/570


senna89

Recommended Posts

il 90% O_o!

 

mi ero perso questo dato, ma parli strettamente il mercato delle schede video directx11 non in generale O_o? per quel che ricordo il mercato delle schede video (anche non discrete) lo deteneva intel con più del 50% O_o!

 

parlo di dx 11, ati ha venduto altre 11.000.000 di vga dx11 contro i 400.000 di nvidia

Link to comment
Share on other sites

  • Replies 356
  • Created
  • Last Reply

Top Posters In This Topic

è inutile che tiriamo ancora a lungo,io ero fan boy nvidia ma da quando ho provato la mia 5870 beh mi son ricreduto,si puo' dire cio' che si vuole nn è un caso che Ati-Amd detiene il 90% del mercato di schede video dall'uscita della serie 5000,gli utenti nn sono scemi oggi si cerca prestazioni elevate e consumi ridotti,ditemi come si fa a fare uno sli di 580gtx con la mia conf????poi da quando il programmatore Physx da nvidia è passato ad ati beh penso che in futuro ci saranno problemi nel frattempo aspettiamo le 6900 è il magico open physics

N.b Ati utilizzava il vapor-x solo per fare una serie che si distingueva non per l'effettiva necessita' nvidia è stata costretta ad utilizzarla per i suoi spiriti bollenti e cmq i driver ati dei 9.12 nn fanno piu' schifo quindi smettiamola anche con la storia dei driver vi diro' di piu' ho avuto piu' problemi con una gtx 295(con gli ultimi driver nvidia) ....tanto per parlare Crysis 1 e warhead è nato per nvidia ma fatalita' sfruttano meglio i Engine core di Ati e non i Cuda core,vopgliamo parlare anche del 3d per tutti senza esser costretti del 3dvision che si aggira sui 150 eurozzi???vogliamo parlare dell'antialisaing Morphologico???...

Qui chiudo la bocca :D

di contro, però, se vogliamo essere sinceri c'è un macello di gente che ha/ha avuto problemi con Microstuttering (assurdo che dovrebbe capitare solo con le piattaforme multigpu) e crash della vga con schermate grigie o a righe e passa a vga diverse

 

io stesso cn la 5770 ho avuto non pochi problemi all'inizio, e che i driver dai 9.12 siano diventati misteriosamente migliori, proprio nn l'ho visto, considera che li uso dalle versioni 8 e non che siano completamente spariti con gli ultimi

 

cmq il reale problema, oltre alla gente che parla e parla senza mai provare (da tutte e due le parti) sono le testate giornalistiche

è incredibile che girando il web ci sono certi siti che riescono sempre a far passare le cose da un loro punto di vista, ormai ne ho giusto un paio di cui mi fido abbastanza e basta

 

detto questo, ati ha venduto molte + gpu di nvidia già solo x il fatto che aveva tipo 5-6 mesi di anticipo, e in seguito la gtx480 ha buttato davvero cattiva luce sulla gtx470, scheda che ho sempre ritenuto valida e che ora complice l'EOL regalano, ed è giusto cosi, onestamente mi ha stupito che nvidia riuscisse cmq a vendere tanto, ma ad essere onesti le ultime schede (gf104 e gf110) sono sicuramente una proposta valida

 

ma se di contro la serie 5 era una proposta allettante in ogni fascia, dubito che lo sarà la 6 sia per consumi, sia per temperature, sia per prestazioni oltre al fatto che già si parla di resa scarsa adesso che nn sn ancora uscite

Link to comment
Share on other sites

NVIDIA GeForce GTX 580: The Anti-FurMark DX11 Card

 

"... In short, when FurMark is detected, the GTX 580 is throttled back by the power consumption monitoring chips."

 

Link: NVIDIA GeForce GTX 580: The Anti-FurMark DX11 Card - 3D Tech News, Pixel Hacking, Data Visualization and 3D Programming - Geeks3D.com

 

Sembra che quando la scheda si accorge di essere sovraccaricata da software tipo Furmark or OCCT, riduce il clock per mantenere il consumo di potenza entro il limite dei 300 W.

Tutto questo viene confermato anche da TechnoPowerUp, Hexus e AnandTech.

Link to comment
Share on other sites

Attualmente la cosa è mediata dai driver, ergo è possibile distinguere Furmark dal resto.

 

Quando la gestione sarà tutta hardware (spero nella prossima generazione) allora non ci porremo nemmeno più il problema (anche perchè Furmark sottopone la GPU ad un carico di lavoro quantitativamente e qualitativamente molto diverso rispetto ai giochi ;))

Link to comment
Share on other sites

Da quello che ho capito dovrebbe funzionare cosi:

sulla gtx 580 un apposito hardware controlla in tempo reale i valori di corrente e tensione di ognuna delle linee a 12V che alimentano la scheda.

Questi valori vengono analizzati dai driver grafici che, dinamicamente, modificano le prestazioni della scheda se il livello di potenza eccede le spedifiche.

Le performance vengono modificate solo se vengono superate le specifiche e se l'applicazione che è coinvolta è una di quelle contenute nei driver, come nel caso di Furmark 1.8 e OCCT.

I giochi non sono coinvolti in questo monitoraggio.

Quando il power monitoring interviene il clock della scheda si riduce del 50%.

Chiaramente la lista di questi software "killer" può essere aggiornata in qualsiasi momento.

Link to comment
Share on other sites

Da quello che ho capito dovrebbe funzionare cosi:

sulla gtx 580 un apposito hardware controlla in tempo reale i valori di corrente e tensione di ognuna delle linee a 12V che alimentano la scheda.

Questi valori vengono analizzati dai driver grafici che, dinamicamente, modificano le prestazioni della scheda se il livello di potenza eccede le spedifiche.

Le performance vengono modificate solo se vengono superate le specifiche e se l'applicazione che è coinvolta è una di quelle contenute nei driver, come nel caso di Furmark 1.8 e OCCT.

I giochi non sono coinvolti in questo monitoraggio.

Quando il power monitoring interviene il clock della scheda si riduce del 50%.

Chiaramente la lista di questi software "killer" può essere aggiornata in qualsiasi momento.

Esattamente.

Il prossimo passo è lasciare tutto ad un controller hardware, né più né meno come avviene per il Turbo Boost di Intel.

 

Vedo già gli ingegneri della Volterra sfregarsi le manine (tra cui il marito di una mia vecchia compagna di università che è direttore in Volterra), dato che non penso verrà subito integrato nella GPU ma prima - verosimilmente - proveranno con un controller sulla scheda :D

Link to comment
Share on other sites

più che altro quanto tempo dura futurmarck? non mi interesso dei bench sintetici tipo dal 2001 :asd:

 

è singolare come venga usato questo intervento cautelativo per un periodo di tempo che ipotizzo non troppo elevato

 

La stessa cosa fu fatta in maniera più semplice, via driver, da ATI con le schede della serie 48xx.

Quando i driver si accorgevano che veniva eseguito Furmark castravano le prestazioni. Ma bastava rinominare l'eseguibile per bypassare questo blocco. :fiufiu:

 

Quello che ha fatto Nvidia sulla 580 è molto più sofisticato... una combinazione di hardware e software.

 

Si vede che devono aver ricevuto in RMA un bel pò di schede 480/470 fatte fuori da Furmark... :)

Link to comment
Share on other sites

La stessa cosa fu fatta in maniera più semplice, via driver, da ATI con le schede della serie 48xx.

Quando i driver si accorgevano che veniva eseguito Furmark castravano le prestazioni. Ma bastava rinominare l'eseguibile per bypassare questo blocco. :fiufiu:

 

Quello che ha fatto Nvidia sulla 580 è molto più sofisticato... una combinazione di hardware e software.

 

Si vede che devono aver ricevuto in RMA un bel pò di schede 480/470 fatte fuori da Furmark... :)

ma che poi tra l'altro a quanto pare nemmeno garantisce la reale stabilità visto che poi escono gli errori cn occt

Link to comment
Share on other sites

mi iscrivo, non vedo l'ora di metterne una nel mio pc da sostituire alla 480 :D :clapclap:

 

 

ciao riccardo!!!!!!!!!!!!!!!!:clapclap::clapclap::clapclap::clapclap::clapclap::clapclap::clapclap::clapclap:

 

 

finalmente ti ritrovo!!!!!!!:clapclap::clapclap::clapclap::clapclap:

 

 

allora passi a 580?? ti sei deciso??O0O0

Link to comment
Share on other sites

esatto, e parecchie volte pure!!!

 

cmq un indicazione almeno te la da,no? cmq pure io per testarla verosibilmente preferisco i game!:)

Concordo.

 

Per la memoria video poi basta usare l'X-Ray Engine di Stalker in qualsiasi sua versione: dato il pesante uso del deferred shading sgama qualsiasi errore legato all'overclock della memoria :)

 

Oppure usate Memtest CL linkato fra i thread pinnati :D

Link to comment
Share on other sites

Concordo.

 

Per la memoria video poi basta usare l'X-Ray Engine di Stalker in qualsiasi sua versione: dato il pesante uso del deferred shading sgama qualsiasi errore legato all'overclock della memoria :)

 

Oppure usate Memtest CL linkato fra i thread pinnati :D

 

ah si? buono a sapersi, ne ero all'oscuro!:perfido:

 

grazie!O0

Link to comment
Share on other sites

Io per i test di OC non li uso. Spesso davano una falsa sicurezza.

Per testare un overclock meglio i normali bench... e meglio ancora giocare direttamente.

 

Concordo, anche perché se è stabile nei giochi non servea nulla verificare che sia stabile in uno scenario apocalittico non verificabile al di fuori degli stessi.

 

Quindi ben venga ogni tipo di controllo software che impedisca ad un benchmark o uno stress test di killarmi la VGA, anche come remota possibilità :>

Link to comment
Share on other sites

Esattamente.

Il prossimo passo è lasciare tutto ad un controller hardware, né più né meno come avviene per il Turbo Boost di Intel.

 

Vedo già gli ingegneri della Volterra sfregarsi le manine (tra cui il marito di una mia vecchia compagna di università che è direttore in Volterra), dato che non penso verrà subito integrato nella GPU ma prima - verosimilmente - proveranno con un controller sulla scheda :D

 

OT

Mi piacerebbe sapere perchè nelle 6870/6850 e, a quanto mi risulta, anche nella 580 hanno usato come voltage controller i chip CHL8214 e CHL 8266 prodotti da Chil al posto dei Volterra usati nelle schede precedenti.

 

Pensi che che questi Chil siano superiori a Volterra ?

/OT

Link to comment
Share on other sites

esatto, e parecchie volte pure!!!

 

cmq un indicazione almeno te la da,no? cmq pure io per testarla verosibilmente preferisco i game!:)

 

Io per i test di OC non li uso. Spesso davano una falsa sicurezza.

Per testare un overclock meglio i normali bench... e meglio ancora giocare direttamente.

 

mah io su furemark ho qualche dubbio ormai, come sul kombustor di msi, che però mi da un pelo + di fiducia

 

sicuro è che provare la scheda e basta nei giochi non è sinonimo di stabilità, anche xke certi difetti possono risultare non visibili o non notabili ma presenti, a me è capitato cn la 6800gt che alcuni oggetti sparissero letteralmente oltre ad un certo OC, nel senso che proprio non si vedevano +, e a default c'erano

 

se occt lo passa a default lo deve passare anche in oc, basta nn toccare niente e fare le cose con calma per non aver falsi positivi

 

inoltre è pieno di gente che ha schede instabili ma che riescono a giocare, è un po come con le cpu, cpu instabili che riescono a far rendering complessi senza piantarsi, ma che dopo mezzora di prime95 in blend o qualche loop di linx danno errore

 

se devo overcloccare cosi lascio perdere

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...