Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

E quindi ci dovrebbe stare tutto questo entusiasmo da gridare al "miracolo"??

 

non chiederlo a me :asd:

 

sempre chiarissimo Stefano... :)

 

quindi da quello che dici si potrebbe intuire che l'implementazione di nvidia potrebbe dare prestazioni "entusiasmanti" con un titolo e "deludenti" con un'altro...o addirittura entrambi i casi nello stesso titolo...

 

facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).

Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.

Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.

Link to comment
Share on other sites

facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).

Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.

Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.

 

chiarissimo...mille grazie... :)

Link to comment
Share on other sites

non chiederlo a me :asd:

 

 

 

facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).

Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.

Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.

 

Ciao Stefano,

 

Grazie mille per la spiegazione! Cmq mi pare di capire che la tendenza sia quella di demandare il maggior numero possibile di operazioni agli SP esattamente come per l'AA su R600 che nn veniva calcolato dalle ROPs visto che questi essendo programmabili (nn che gli altri nn lo siano ma mi pare di capire che siano più flessibili) sono più adatti al general purpose. Così facendo vi sarebbe una diminuzione delle unità dedicate ed un maggior spazio per quelle generiche. Mi pare di capire quindi che la tendenza per i prossimi anni sia questa

Link to comment
Share on other sites

Ciao Stefano,

 

Grazie mille per la spiegazione! Cmq mi pare di capire che la tendenza sia quella di demandare il maggior numero possibile di operazioni agli SP esattamente come per l'AA su R600 che nn veniva calcolato dalle ROPs visto che questi essendo programmabili (nn che gli altri nn lo siano ma mi pare di capire che siano più flessibili) sono più adatti al general purpose. Così facendo vi sarebbe una diminuzione delle unità dedicate ed un maggior spazio per quelle generiche. Mi pare di capire quindi che la tendenza per i prossimi anni sia questa

 

non del tutto: nVIDIA ha dovuto implementare un hardware tessellator e delle tmu che fanno, comunque, texture sampling e addressing (anche se le operaizoni di blending le fa lo shader core).

ATi ha tmu analoghe e un hw tessellator. Intel, con larrabee, non ha diffuso informazioni su chi si occuperà delle operazioni di tessellation, ma ha comunque dovuto rinunciare all'idea di fara fare le operazioni di texturing per intero alle fpu (ha anche lei adottato delle tmu che fanno texture sampling).

Insomma, programmabile è bello ma non dove la programmabilità obbliga a tanti cicli di clock in più :asd:

Link to comment
Share on other sites

bè ma questo non giustifica il fatto che Nvidia è in grado di erogare oltre 8 volte la potenza sui calcoli geometrici rispetto a GT200.

 

 

possiamo solo dire che con il tessellator Nvidia ha proprio asfaltato ATI, avere un hardware ibrido che fa molte cose parallelamente è un vantaggio, anche perchè la potenza di elaborazione del chip Fermi sarà sicuramente ampissima.

 

 

i driver poi sono degli alpha test, perchè ce ne scordiamo ? :asd: Fra l'altro Nvidia non ha ancora un sample pre relase, in quanto non hanno ancora ufficializzato le freqeunze.

 

 

Anche prendendo far cry 2 come paragone con una VGA non definitiva quindi con freqeunze e caratteristiche fantasma 84 frames fra l'altro cpu limited ha detto Nvidia con dei driver maturi dovrebbe andare ben più forte. Dalla strategia di mercato di Nvidia mi pare di aver capito che oramai l'obbiettivo è quello di avere il 20% in più sulla 5870, quindi lavoreranno per avere freqeunze tali per avere quella performance. Da hardware canunch si è detto che potrebbe essere una versione con step precedente a quello che verrà commercializzato quindi downcloccato o comunque castrato.

 

 

Io però sono curioso di vedere i prossimi titoli con tessellation quanto influirà sta cosa :leggi:

Link to comment
Share on other sites

bè ma questo non giustifica il fatto che Nvidia è in grado di erogare oltre 8 volte la potenza sui calcoli geometrici rispetto a GT200.

 

 

possiamo solo dire che con il tessellator Nvidia ha proprio asfaltato ATI, avere un hardware ibrido che fa molte cose parallelamente è un vantaggio, anche perchè la potenza di elaborazione del chip Fermi sarà sicuramente ampissima.

 

 

i driver poi sono degli alpha test, perchè ce ne scordiamo ? :asd: Fra l'altro Nvidia non ha ancora un sample pre relase, in quanto non hanno ancora ufficializzato le freqeunze.

 

 

Anche prendendo far cry 2 come paragone con una VGA non definitiva quindi con freqeunze e caratteristiche fantasma 84 frames fra l'altro cpu limited ha detto Nvidia con dei driver maturi dovrebbe andare ben più forte. Dalla strategia di mercato di Nvidia mi pare di aver capito che oramai l'obbiettivo è quello di avere il 20% in più sulla 5870, quindi lavoreranno per avere freqeunze tali per avere quella performance. Da hardware canunch si è detto che potrebbe essere una versione con step precedente a quello che verrà commercializzato quindi downcloccato o comunque castrato.

 

 

Io però sono curioso di vedere i prossimi titoli con tessellation quanto influirà sta cosa :leggi:

Ecco cosa intendo quando dico che il fanboy vede una realtà distorta, tutta sua, contraria a quanto detto fin'ora... :D

 

E poi sta insistenza con i driver... ma se è stata nVidia a dire che avrebbe sviluppato dei driver che facevano andare GF100 al massimo già da subito?? Inoltre ha anche detto che il ritardo accumulato era dovuto anche a questo...

 

Scusa un'ultima cosa: il fatto che ancora non ci siano in giro sample nemmeno per le release ti rende ottimista??

Edited by Rsdj
Link to comment
Share on other sites

Ecco cosa intendo quando dico che il fanboy vede una realtà distorta, tutta sua, contraria a quanto detto fin'ora... :D

 

E poi sta insistenza con i driver... ma se è stata nVidia a dire che avrebbe sviluppato dei driver che facevano andare GF100 al massimo già da subito?? Inoltre ha anche detto che il ritardo accumulato era dovuto anche a questo...

 

Scusa un'ultima cosa: il fatto che ancora non ci siano in giro sample nemmeno per le release ti rende ottimista??

 

sample in giro no, perchè si vede che stan lavorando per aggiustare le cose, hanno tempo fino alla 3° settimana di febbraio, ancora si può fare qualcosa.

 

 

Nvidia ha detto che ha avuto più tempo per lavorare sui driver ma risultano comunque in versione "alpha test".

 

 

ma io fanboy o no, mica solo l'unico quì, ti vedo cosa scrivi su hwupgrade :asd: Ricorda che comunque vadano le cose Nvidia sarà superiore come prestazioni con entrambi i modelli. Il vantaggio di Nvidia con il tessellator indipendentemente dai ritocchi sembrano veramente enormi, 60/80% solo nel Ungine Heaven

Link to comment
Share on other sites

Ricorda che comunque vadano le cose Nvidia sarà superiore come prestazioni con entrambi i modelli

 

azz...veggenza o supposizione??? :cheazz:

 

io abbasserei le "alucce" cmq...meglio rimanere con i piedi per terra e valutare in base ai fatti che volare con la fantasia...non per nulla...ma si rischia di rimanere molto delusi se poi qualcosa va storto... :)

Link to comment
Share on other sites

sample in giro no, perchè si vede che stan lavorando per aggiustare le cose, hanno tempo fino alla 3° settimana di febbraio, ancora si può fare qualcosa.

 

 

Nvidia ha detto che ha avuto più tempo per lavorare sui driver ma risultano comunque in versione "alpha test".

 

 

ma io fanboy o no, mica solo l'unico quì, ti vedo cosa scrivi su hwupgrade :asd: Ricorda che comunque vadano le cose Nvidia sarà superiore come prestazioni con entrambi i modelli. Il vantaggio di Nvidia con il tessellator indipendentemente dai ritocchi sembrano veramente enormi, 60/80% solo nel Ungine Heaven

Test molto seri, dove la stessa Nvidia rilascia i valori....attendibilità prossima al 100!:asd:

 

Questo è il test fatto vedere da hwupgrade:

 

i42917_1.png

 

Non mi voglio soffermare sul discorso dei Frame fatti dalla HD5870....che come ho detto sono palesemente sballati.....ma mi soffermo solo su questa frase scritta sempre dai redattori di hwupgrade:

 

I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco. Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.

Con queste affermazioni, per me il discorso è veramente chiuso....personalmente sono molto ma molto deluso....qui stiamo parlando che Nvidia da risultati "sballatii", chiaramente a loro favore, che non rispecchiano la realtà!...allucinante!:AAAAH:....ripeto...ALLUCINANTE!...e non voglio dire altro....dimmi, che attendibilità avrà quel 84 al test di FarCray 2?.....

Edited by dj883u2
Link to comment
Share on other sites

Test molto seri, dove la stessa Nvidia rilascia lei stessa i valori....attendibilità prossima al 100!:asd:

 

CCon queste affermazioni, per me il discorso è veramente chiuso....personalmente sono molto ma molto deluso....qui stiamo parlando che Nvidia da risultati "sballatii", chiaramente a loro favore, che non rispecchiano la realtà!...allucinante!:AAAAH:....ripeto...ALLUCINANTE!...e non voglio dire altro....dimmi, che attendibilità avrà quel 84 al test di FarCray 2?.....

 

mamma mia... :boh::muro:

 

effettivamente per prendere per buoni quei valori non basta essere di "parte"...bisogna essere proprio :uglystupid2::asd:

 

p.s. concordo..delusione totale anche per me...:sob:

attendibilità??? io direi prossima allo ZERO...:muro:

Link to comment
Share on other sites

I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco. Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.

Non ho parole, sarebbe da denuncia per pubblicità ingannevole, peccato che la definizione stessa di benchmark li protegga...

Link to comment
Share on other sites

scusate ma non credo che nvidia rilasci VGA inferiori alla 5870. la GTX 360 anche a costo di cambiare i piani sarebbero disposti ad aumentarne volentieri consumi e costi pur di battere la 5870.

 

è dalla serie 8 che la strategia di mercato di nvidia pretende entrambi i modelli di fascia alta superiori ai modelli ATI attuali, a parte i modelli rivisti ovviamente.

 

Anche con GT200 han deciso di modificare le specifiche ufficiali della 260 per sorpassare la 4870.

 

 

Una GTX 360 inferiore o uguale non credo sia ammesso, stessa cosa per la 380, non parlo per veggenza, credo di parlare per certeza forzata. qualcosa di impossibile praticamente.

 

 

Fermi è una superarchitettura, un mostro, se non fosse per il proceso produttivo e la resa penso sarebbe stato diversissimo.

Comunque non si spiega l'enorme potenza di calcolo con il tessellator attivo, già DIRT2 che usa un tessellator residuo il calo da dx9 a dx11 si sente, figuriamoci un gioco che ne fa uso come si deve, cosa che potrebbe addirittura essere usata come arma per svantaggiare ATI.

Link to comment
Share on other sites

Antonio dai una letta qui:

 

Hardware Upgrade Forum - View Single Post - NVIDIA GeForce GF100 Fermi: preview dell'architettura

 

 

Ti chiedo a questo punto se per piacere puoi ripetere il test con il processore a 3,2 ghz ma alzando di più il moltiplicatore (sui 20x, 21x sarebbe ottimo) e meno possibile il bus, così da mettere a tacere una volta del tutte queste scuse banali.

Edited by Rsdj
Link to comment
Share on other sites

io non riesco proprio a capire i post "alla achille" dove si parla di asfaltare, di certezze, di prestazioni alucinanti, etc etc...

 

 

 

...ma allo stesso tempo non capisco i post che vedono tutto buio e tenebroso che peggio non si può...

 

 

 

...cioè io dopo aver letto le varie preview di oggi e il documento di nvidia su GF100 ho un pensiero più positivo su fermi rispetto a prima ...

 

 

...rimangono i problemi di bench che non stanno nè in cielo nè in terra e di tante problematiche rimaste ancora insolute ma mi sembra che come architettura in sè è certamente interessante e, soprattutto in ottica sviluppi futuri (non dei driver eh ma proprio dell'architettura :D), promettente...

 

 

...se paragoniamo i dati che abbiamo oggi a queli che si avevano una settimana fa c'è da essere molto più fiduciosi (ok che se uno è sprofondato nella melma e dopo ci sta solo fino al collo sempre nella melma sta....xò è sempre un miglioramento :D)...

 

 

 

...boh vabbeh cmq l'ora è tarda e non mi ricordo più cosa volevo dire :uglystupid2:...ma qualcosa volevo dirla :cheazz: ed ora è meglio se vado a fare la nanna :briai:

Link to comment
Share on other sites

Antonio dai una letta qui:

 

Hardware Upgrade Forum - View Single Post - NVIDIA GeForce GF100 Fermi: preview dell'architettura

 

 

Ti chiedo a questo punto se per piacere puoi ripetere il test con il processore a 3,2 ghz ma alzando di più il moltiplicatore (sui 20x, 21x sarebbe ottimo) e meno possibile il bus, così da mettere a tacere una volta del tutte queste scuse banali.

 

d'ora in poi basta aumentare il bclk, nemmeno la cpu, per avere prestazioni aumentate nei game, non serve più nemmeno cambiare vga....

 

 

 

Dimenticavo, presumo che il i965 abbia pure il turbo mode attivo... quindi altro che 3.2 GHz...

 

mi aspettavo una spiegazione migliore in verità.

Link to comment
Share on other sites

boh non stò dicendo nessuna di illogico penso :angel:

 

Nvidia vuole a tutti i costi uscire con entrambe le schede più performanti della 5870, che essendo uscita per prima si conoscono già le performance. Penso che la strategia di Nvidia abbia come punto primario le prestazioni assolute in primis perciò non vedo come nvidia possa mettere una VGA che costerà sicuramente di più ma andrà meno. :cheazz:

 

La generazione scorsa ha addirittura creato una seconda versione della 260 e cambiato strategia immediatamente lasciando spiazzati gli utenti che l'avevano comprata subito pur di stare davanti alla 4870 come ti ho detto prima, e probabilmente sarebbe disposta anche a sacrificare altro in quanto le prestazioni sono l'unico motivo che giustificano quelle schede, anche se lo fossero di poco, bastano che risultino ufficialmente superiori. Un modello Nvidia inferiore alla controparte ATI non avrebbe molto mercato quindi sarebbe una perdita molto più grande e visti i costi di produzione non credo ne valga la pena. Per questo io dico di esserne sicuro perchè sennò non uscirebbe proprio, non sono sicuro semmai su quale prodotto uscirà per prima o se usciranno assieme, questo sì ok, ma qualunque prodotto di fascia alta di Nvidia uscirà faranno in modo che sia superiore alla controparte ATI.

Edited by Achille GForce
Link to comment
Share on other sites

Nvidia deve uscire necessariamente con una vga più potente della singola vga Ati, in quanto dopo sei mesi di ritardo sarebbe inconcepibile una cosa diversa.

(rv870 è uscito il 23 settembre).

 

Detto questo dobbiamo anche essere obiettivi e capire che test fatti a porte chiuse hanno una valenza tutto sommato minima, per cui sarebbe meglio pronunciarsi su dati effettivi fatti dalle varie testate giornalistiche.

 

Ovviamente Nvidia sta cercando in tutti i modi di far capire quanto va forte questa nuova architettura per frenare in un certo senso le vendite di Ati e rassicurare tutti affezionati nvidia sulla sua bontà.

 

Ma finchè non si vedono dati a portata di tutti e da la possibilità di prendere in esame l'architettura sono solo parole, ricordiamo che allo stato attuale che nessuna recensione ha un sample di Fermi.

Link to comment
Share on other sites

Nvidia deve uscire necessariamente con una vga più potente della singola vga Ati, in quanto dopo sei mesi di ritardo sarebbe inconcepibile una cosa diversa.

(rv870 è uscito il 23 settembre).

 

Detto questo dobbiamo anche essere obiettivi e capire che test fatti a porte chiuse hanno una valenza tutto sommato minima, per cui sarebbe meglio pronunciarsi su dati effettivi fatti dalle varie testate giornalistiche.

 

Ovviamente Nvidia sta cercando in tutti i modi di far capire quanto va forte questa nuova architettura per frenare in un certo senso le vendite di Ati e rassicurare tutti affezionati nvidia sulla sua bontà.

 

Ma finchè non si vedono dati a portata di tutti e da la possibilità di prendere in esame l'architettura sono solo parole, ricordiamo che allo stato attuale che nessuna recensione ha un sample di Fermi.

appunto per questo motivo che molte testate han fatto recensioni veritiere e altre no perchè un conto è basarsi su dati e benchmark che fai con la stessa postazione per tutte le vga, un conto e fare dei bench comparativi in cui metti a risalto che la vga concorrente va da schifo mentre gt100 va alla grande senza sapere che impostazioni han messo per fare il bench, ne le impostazioni della configurazione, metti caso che nvidia ha disattivato l'eist, piuttosto che abbia cloccato il processore..... si tratta solamente di pubblicità ingannevole, e si sa dove ci sono i soldi mazzette ecc ecc probabilmente qualcuno ci sguazza.....

Link to comment
Share on other sites

appunto per questo motivo che molte testate han fatto recensioni veritiere e altre no perchè un conto è basarsi su dati e benchmark che fai con la stessa postazione per tutte le vga, un conto e fare dei bench comparativi in cui metti a risalto che la vga concorrente va da schifo mentre gt100 va alla grande senza sapere che impostazioni han messo per fare il bench, ne le impostazioni della configurazione, metti caso che nvidia ha disattivato l'eist, piuttosto che abbia cloccato il processore..... si tratta solamente di pubblicità ingannevole, e si sa dove ci sono i soldi mazzette ecc ecc probabilmente qualcuno ci sguazza.....

 

beh diciamo a prescindere dai risultati "strani" sulle ATI, non si può mettere a confronto i test fatti su una piattaforma "chiusa" di cui si sa poco, e comparare i risultati dei test fatti da un'altra piattaforma, per mettere in evidenza i risultati delle Nvidia (che per me possono essere anche veri, non lo metto in dubbio).

E' il ragionamento di base sbagliato.

 

La cosa che mi stupisce veramente che hanno detto che loro hanno ottenuto risultati diversi per la gtx285, inferiori del 15% se non sbaglio rispetto a quelli forniti da nvidia, per cui a che pro comparare quei risultati??

 

Ovviamente credo nella buonafede della testata giornalistica, però una riflessione sulla faccenda è d'obbligo.

Link to comment
Share on other sites

d'ora in poi basta aumentare il bclk, nemmeno la cpu, per avere prestazioni aumentate nei game, non serve più nemmeno cambiare vga....

 

 

 

Dimenticavo, presumo che il i965 abbia pure il turbo mode attivo... quindi altro che 3.2 GHz...

 

mi aspettavo una spiegazione migliore in verità.

 

si stavamo ancora con le 8800 adesso, tanto per prendere 20fps in più basta aumentare frequenze bus e DDR.........................:2funny:

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...