Aspettando Fermi ......
-
yossarian ha scritto:
non chiederlo a me
facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).
Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.
Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.
Ciao Stefano,
Grazie mille per la spiegazione! Cmq mi pare di capire che la tendenza sia quella di demandare il maggior numero possibile di operazioni agli SP esattamente come per l'AA su R600 che nn veniva calcolato dalle ROPs visto che questi essendo programmabili (nn che gli altri nn lo siano ma mi pare di capire che siano più flessibili) sono più adatti al general purpose. Così facendo vi sarebbe una diminuzione delle unità dedicate ed un maggior spazio per quelle generiche. Mi pare di capire quindi che la tendenza per i prossimi anni sia questa
-
M4r1k ha scritto:
Ciao Stefano,Grazie mille per la spiegazione! Cmq mi pare di capire che la tendenza sia quella di demandare il maggior numero possibile di operazioni agli SP esattamente come per l'AA su R600 che nn veniva calcolato dalle ROPs visto che questi essendo programmabili (nn che gli altri nn lo siano ma mi pare di capire che siano più flessibili) sono più adatti al general purpose. Così facendo vi sarebbe una diminuzione delle unità dedicate ed un maggior spazio per quelle generiche. Mi pare di capire quindi che la tendenza per i prossimi anni sia questa
non del tutto: nVIDIA ha dovuto implementare un hardware tessellator e delle tmu che fanno, comunque, texture sampling e addressing (anche se le operaizoni di blending le fa lo shader core).
ATi ha tmu analoghe e un hw tessellator. Intel, con larrabee, non ha diffuso informazioni su chi si occuperà delle operazioni di tessellation, ma ha comunque dovuto rinunciare all'idea di fara fare le operazioni di texturing per intero alle fpu (ha anche lei adottato delle tmu che fanno texture sampling).
Insomma, programmabile è bello ma non dove la programmabilità obbliga a tanti cicli di clock in più

-
Achille GForce ha scritto:
bè ma questo non giustifica il fatto che Nvidia è in grado di erogare oltre 8 volte la potenza sui calcoli geometrici rispetto a GT200.possiamo solo dire che con il tessellator Nvidia ha proprio asfaltato ATI, avere un hardware ibrido che fa molte cose parallelamente è un vantaggio, anche perchè la potenza di elaborazione del chip Fermi sarà sicuramente ampissima.
i driver poi sono degli alpha test, perchè ce ne scordiamo ?
Fra l'altro Nvidia non ha ancora un sample pre relase, in quanto non hanno ancora ufficializzato le freqeunze.Anche prendendo far cry 2 come paragone con una VGA non definitiva quindi con freqeunze e caratteristiche fantasma 84 frames fra l'altro cpu limited ha detto Nvidia con dei driver maturi dovrebbe andare ben più forte. Dalla strategia di mercato di Nvidia mi pare di aver capito che oramai l'obbiettivo è quello di avere il 20% in più sulla 5870, quindi lavoreranno per avere freqeunze tali per avere quella performance. Da hardware canunch si è detto che potrebbe essere una versione con step precedente a quello che verrà commercializzato quindi downcloccato o comunque castrato.
Io però sono curioso di vedere i prossimi titoli con tessellation quanto influirà sta cosa

Ecco cosa intendo quando dico che il fanboy vede una realtà distorta, tutta sua, contraria a quanto detto fin'ora...

E poi sta insistenza con i driver... ma se è stata nVidia a dire che avrebbe sviluppato dei driver che facevano andare GF100 al massimo già da subito?? Inoltre ha anche detto che il ritardo accumulato era dovuto anche a questo...
Scusa un'ultima cosa: il fatto che ancora non ci siano in giro sample nemmeno per le release ti rende ottimista??
-
Achille GForce ha scritto:
Ricorda che comunque vadano le cose Nvidia sarà superiore come prestazioni con entrambi i modelliazz...veggenza o supposizione??? :cheazz:
io abbasserei le "alucce" cmq...meglio rimanere con i piedi per terra e valutare in base ai fatti che volare con la fantasia...non per nulla...ma si rischia di rimanere molto delusi se poi qualcosa va storto...

-
Achille GForce ha scritto:
sample in giro no, perchè si vede che stan lavorando per aggiustare le cose, hanno tempo fino alla 3° settimana di febbraio, ancora si può fare qualcosa.Nvidia ha detto che ha avuto più tempo per lavorare sui driver ma risultano comunque in versione "alpha test".
ma io fanboy o no, mica solo l'unico quì, ti vedo cosa scrivi su hwupgrade
Ricorda che comunque vadano le cose Nvidia sarà superiore come prestazioni con entrambi i modelli. Il vantaggio di Nvidia con il tessellator indipendentemente dai ritocchi sembrano veramente enormi, 60/80% solo nel Ungine HeavenTest molto seri, dove la stessa Nvidia rilascia i valori....attendibilità prossima al 100!

Questo è il test fatto vedere da hwupgrade:

Non mi voglio soffermare sul discorso dei Frame fatti dalla HD5870....che come ho detto sono palesemente sballati.....ma mi soffermo solo su questa frase scritta sempre dai redattori di hwupgrade:
I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco. Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.
Con queste affermazioni, per me il discorso è veramente chiuso....personalmente sono molto ma molto deluso....qui stiamo parlando che Nvidia da risultati "sballatii", chiaramente a loro favore, che non rispecchiano la realtà!...allucinante!:AAAAH:....ripeto...ALLUCINANTE!...e non voglio dire altro....dimmi, che attendibilità avrà quel 84 al test di FarCray 2?.....
-
dj883u2 ha scritto:
Test molto seri, dove la stessa Nvidia rilascia lei stessa i valori....attendibilità prossima al 100!
CCon queste affermazioni, per me il discorso è veramente chiuso....personalmente sono molto ma molto deluso....qui stiamo parlando che Nvidia da risultati "sballatii", chiaramente a loro favore, che non rispecchiano la realtà!...allucinante!:AAAAH:....ripeto...ALLUCINANTE!...e non voglio dire altro....dimmi, che attendibilità avrà quel 84 al test di FarCray 2?.....
mamma mia... :boh:

effettivamente per prendere per buoni quei valori non basta essere di "parte"...bisogna essere proprio


p.s. concordo..delusione totale anche per me...

attendibilità??? io direi prossima allo ZERO...

-
dj883u2 ha scritto:
I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco. Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.
Non ho parole, sarebbe da denuncia per pubblicità ingannevole, peccato che la definizione stessa di benchmark li protegga...
-
One1ros ha scritto:
Non ho parole, sarebbe da denuncia per pubblicità ingannevole, peccato che la definizione stessa di benchmark li protegga...quoto....
-
Antonio dai una letta qui:
Hardware Upgrade Forum - View Single Post - NVIDIA GeForce GF100 Fermi: preview dell'architettura
Ti chiedo a questo punto se per piacere puoi ripetere il test con il processore a 3,2 ghz ma alzando di più il moltiplicatore (sui 20x, 21x sarebbe ottimo) e meno possibile il bus, così da mettere a tacere una volta del tutte queste scuse banali.
-
io non riesco proprio a capire i post "alla achille" dove si parla di asfaltare, di certezze, di prestazioni alucinanti, etc etc...
...ma allo stesso tempo non capisco i post che vedono tutto buio e tenebroso che peggio non si può...
...cioè io dopo aver letto le varie preview di oggi e il documento di nvidia su GF100 ho un pensiero più positivo su fermi rispetto a prima ...
...rimangono i problemi di bench che non stanno nè in cielo nè in terra e di tante problematiche rimaste ancora insolute ma mi sembra che come architettura in sè è certamente interessante e, soprattutto in ottica sviluppi futuri (non dei driver eh ma proprio dell'architettura
), promettente......se paragoniamo i dati che abbiamo oggi a queli che si avevano una settimana fa c'è da essere molto più fiduciosi (ok che se uno è sprofondato nella melma e dopo ci sta solo fino al collo sempre nella melma sta....xò è sempre un miglioramento
)......boh vabbeh cmq l'ora è tarda e non mi ricordo più cosa volevo dire
...ma qualcosa volevo dirla :cheazz: ed ora è meglio se vado a fare la nanna 
-
Rsdj ha scritto:
Antonio dai una letta qui:Hardware Upgrade Forum - View Single Post - NVIDIA GeForce GF100 Fermi: preview dell'architettura
Ti chiedo a questo punto se per piacere puoi ripetere il test con il processore a 3,2 ghz ma alzando di più il moltiplicatore (sui 20x, 21x sarebbe ottimo) e meno possibile il bus, così da mettere a tacere una volta del tutte queste scuse banali.
d'ora in poi basta aumentare il bclk, nemmeno la cpu, per avere prestazioni aumentate nei game, non serve più nemmeno cambiare vga....
Dimenticavo, presumo che il i965 abbia pure il turbo mode attivo... quindi altro che 3.2 GHz...
mi aspettavo una spiegazione migliore in verità.
-
ecco come agisce il turbo mode nella cpu i965EE

non penso assolutamente che durante il test sia rimasta sempre a 3.2 GHz
-
Nvidia deve uscire necessariamente con una vga più potente della singola vga Ati, in quanto dopo sei mesi di ritardo sarebbe inconcepibile una cosa diversa.
(rv870 è uscito il 23 settembre).
Detto questo dobbiamo anche essere obiettivi e capire che test fatti a porte chiuse hanno una valenza tutto sommato minima, per cui sarebbe meglio pronunciarsi su dati effettivi fatti dalle varie testate giornalistiche.
Ovviamente Nvidia sta cercando in tutti i modi di far capire quanto va forte questa nuova architettura per frenare in un certo senso le vendite di Ati e rassicurare tutti affezionati nvidia sulla sua bontà.
Ma finchè non si vedono dati a portata di tutti e da la possibilità di prendere in esame l'architettura sono solo parole, ricordiamo che allo stato attuale che nessuna recensione ha un sample di Fermi.
-
gianni1879 ha scritto:
Nvidia deve uscire necessariamente con una vga più potente della singola vga Ati, in quanto dopo sei mesi di ritardo sarebbe inconcepibile una cosa diversa.(rv870 è uscito il 23 settembre).
Detto questo dobbiamo anche essere obiettivi e capire che test fatti a porte chiuse hanno una valenza tutto sommato minima, per cui sarebbe meglio pronunciarsi su dati effettivi fatti dalle varie testate giornalistiche.
Ovviamente Nvidia sta cercando in tutti i modi di far capire quanto va forte questa nuova architettura per frenare in un certo senso le vendite di Ati e rassicurare tutti affezionati nvidia sulla sua bontà.
Ma finchè non si vedono dati a portata di tutti e da la possibilità di prendere in esame l'architettura sono solo parole, ricordiamo che allo stato attuale che nessuna recensione ha un sample di Fermi.
appunto per questo motivo che molte testate han fatto recensioni veritiere e altre no perchè un conto è basarsi su dati e benchmark che fai con la stessa postazione per tutte le vga, un conto e fare dei bench comparativi in cui metti a risalto che la vga concorrente va da schifo mentre gt100 va alla grande senza sapere che impostazioni han messo per fare il bench, ne le impostazioni della configurazione, metti caso che nvidia ha disattivato l'eist, piuttosto che abbia cloccato il processore..... si tratta solamente di pubblicità ingannevole, e si sa dove ci sono i soldi mazzette ecc ecc probabilmente qualcuno ci sguazza.....
-
okorop ha scritto:
appunto per questo motivo che molte testate han fatto recensioni veritiere e altre no perchè un conto è basarsi su dati e benchmark che fai con la stessa postazione per tutte le vga, un conto e fare dei bench comparativi in cui metti a risalto che la vga concorrente va da schifo mentre gt100 va alla grande senza sapere che impostazioni han messo per fare il bench, ne le impostazioni della configurazione, metti caso che nvidia ha disattivato l'eist, piuttosto che abbia cloccato il processore..... si tratta solamente di pubblicità ingannevole, e si sa dove ci sono i soldi mazzette ecc ecc probabilmente qualcuno ci sguazza.....beh diciamo a prescindere dai risultati "strani" sulle ATI, non si può mettere a confronto i test fatti su una piattaforma "chiusa" di cui si sa poco, e comparare i risultati dei test fatti da un'altra piattaforma, per mettere in evidenza i risultati delle Nvidia (che per me possono essere anche veri, non lo metto in dubbio).
E' il ragionamento di base sbagliato.
La cosa che mi stupisce veramente che hanno detto che loro hanno ottenuto risultati diversi per la gtx285, inferiori del 15% se non sbaglio rispetto a quelli forniti da nvidia, per cui a che pro comparare quei risultati??
Ovviamente credo nella buonafede della testata giornalistica, però una riflessione sulla faccenda è d'obbligo.
-
-
gianni1879 ha scritto:
magari per chi abita in Alaska

-
gianni1879 ha scritto:
d'ora in poi basta aumentare il bclk, nemmeno la cpu, per avere prestazioni aumentate nei game, non serve più nemmeno cambiare vga....Dimenticavo, presumo che il i965 abbia pure il turbo mode attivo... quindi altro che 3.2 GHz...
mi aspettavo una spiegazione migliore in verità.
si stavamo ancora con le 8800 adesso, tanto per prendere 20fps in più basta aumentare frequenze bus e DDR.........................

-
gianni1879 ha scritto:
da cio' si capisce che la gtx380 o come si chiamerà va meno della 5970, senno nvidia non avrebbe motivo di fare una dual gpu con fermi.......
-
Achille GForce ha scritto:
boh non stò dicendo nessuna di illogico penso
Nvidia vuole a tutti i costi uscire con entrambe le schede più performanti della 5870, che essendo uscita per prima si conoscono già le performance. Penso che la strategia di Nvidia abbia come punto primario le prestazioni assolute in primis perciò non vedo come nvidia possa mettere una VGA che costerà sicuramente di più ma andrà meno. :cheazz:
La generazione scorsa ha addirittura creato una seconda versione della 260 e cambiato strategia immediatamente lasciando spiazzati gli utenti che l'avevano comprata subito pur di stare davanti alla 4870 come ti ho detto prima, e probabilmente sarebbe disposta anche a sacrificare altro in quanto le prestazioni sono l'unico motivo che giustificano quelle schede, anche se lo fossero di poco, bastano che risultino ufficialmente superiori. Un modello Nvidia inferiore alla controparte ATI non avrebbe molto mercato quindi sarebbe una perdita molto più grande e visti i costi di produzione non credo ne valga la pena. Per questo io dico di esserne sicuro perchè sennò non uscirebbe proprio, non sono sicuro semmai su quale prodotto uscirà per prima o se usciranno assieme, questo sì ok, ma qualunque prodotto di fascia alta di Nvidia uscirà faranno in modo che sia superiore alla controparte ATI.
quello che nVIDIA vuole è una cosa, quello che può ottenere un'altra.
Test: Grafikkarten 2009 (Seite 18) - 31.12.2009 - ComputerBase
da qui non risulta che la 260 sia più veloce della 4870 se non in misura minima a lle basse risoluzioni o con i filtri disattivati (situazione in cui non serve una top di gamma); discorso analogo epr la 275 nei confronti della 4890. Anzi, con MSAA 8x attivo, la 4890 sta anche davanti alla 285.
Per non parlare del caso di engine di tipo deferred, in cui l'applicazione del MSAA (da 4x in su) dà un boost di circa il 23-24% ai chip ATi con path dx10.1 o dx11. Faccio presente che con assassin's creed in versione dx10.1, a 1680x1050 con MSAA 4x (ossia ad una risoluzione per cui i 512 MB di ram non rendono frame buffer limited con i filtri attivi), persino la 4850 stava davanti alla 280 GTX.
Ciao! Sembra che tu sia interessato a questa conversazione, ma non hai ancora un account.
Stanco di dover scorrere gli stessi post a ogni visita? Quando registri un account, tornerai sempre esattamente dove eri rimasto e potrai scegliere di essere avvisato delle nuove risposte (tramite email o notifica push). Potrai anche salvare segnalibri e votare i post per mostrare il tuo apprezzamento agli altri membri della comunità.
Con il tuo contributo, questo post potrebbe essere ancora migliore 💗
Registrati Accedi