Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

io ho sempre sperato che il progetto di fermi fosse un r600 targato nvidia

 

 

sin dalle prime premesse negative nn mi aspettavo che uscisse una bomba di scheda video, spero, che abbiano capito che questa strada nn paga più ormai, o per lo meno spero che con i 28nm e un progetto riveduto e corretto possano tornare competitivi e allo stesso modo spero che NI nn abbia un parto difficile com'è oggi per fermi e come lo è stato r600

 

spero in un ritorno alla concorrenza il più presto possibile, ossia nel prossimo anno e mezzo :asd:

 

anzi :cry:

Link to comment
Share on other sites



  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

io ho sempre sperato che il progetto di fermi fosse un r600 targato nvidia

 

 

sin dalle prime premesse negative nn mi aspettavo che uscisse una bomba di scheda video, spero, che abbiano capito che questa strada nn paga più ormai, o per lo meno spero che con i 28nm e un progetto riveduto e corretto possano tornare competitivi e allo stesso modo spero che NI nn abbia un parto difficile com'è oggi per fermi e come lo è stato r600

 

spero in un ritorno alla concorrenza il più presto possibile, ossia nel prossimo anno e mezzo :asd:

 

anzi :cry:

 

concorrenza c'è e vedrai che ci sarà di piu' se Nvidia floppa e perde quote di mercato vedrai che Physx si sgonfia, e tutte le menate Nvidia come cuda e applicazioni varie e 3D verranno commercializzati a meno....

Link to comment
Share on other sites

Nvidia Fermi è un architettura facilmente sfruttabile e altamente programmabile il chè la rende una GPU computing sopraffina, in cui ogni core è in grado di svolgere tutti i tipi di calcoli svolgibili, in un ambiente a core omogenei, questo rende l'architettura Nvidia in grado di sfruttare sempre tutta le potenzialità del chip in ogni caso e occasione.

 

 

mentre invece in un architettura ATI con core eterogenei e componenti dedicate per ogni cosa, diventa molto difficile usare sempre il potenziale di calcolo di tutto il chip in quanto ci sono sempre parti che rimangono inutilizzate o tempi morti perchè vengono usati in momenti diversi o nascono colli di bottiglia interni a causa di una non sincronizzazione dei calcoli fra le singole unità dedicate.

 

 

In poche parole il chip nvidia è in grado operare in modo molto più efficiente che permette di sfruttare sempre tutta la potenza che può erogare. il che la rende anche addirittura più scalare verso l'alto rispetto all'approccio ATI, questo difficilmente può essere considerata un architettura da buttare anzi tecnicamente è avanti, difetti stando così le cose IN TEORIA un futuro raddoppio o aumento di stream di Nvidia sotto questa architettura dovrebbe sentirsi molto più di un aumento di stream sotto ATI, questo è il punto ; il problema è attualemente a sto punto viene a mancare la potenza di calcolo complessiva a causa delle frequenze e degli stream ridotti.

( parliamo di 1.08 & 1.39 Tflop/s contro i 2.72Tflop/s di ATI e nonostante ciò la 480 dovrebbe stare sopra la ATI che ha il doppio della potenza di calcolo teorico, il problema è che la differenza è troppo fina per giustificare gli altri fattori dovuti al processo produttivo ).

 

 

Per quanto riguarda il discorso delle tecnologie proprietarie, non penso che si sgonfieranno perchè Nvidia è l'unica che paga per farsì che ci siano in quanti più giochi possibili, se ATI non fa altrettando possono anche sparire del tutte le VGA Nvidia dal mercato mondiale ma finchè vengono pagate le SH le continueranno a mettere anche se non c'è nessuno che le usa. ovviamente penso che l'obbiettivo di nvidia sia quello di monopolizzare tutto il mercato videoludico con tutte le tecnologie che dispone, fino a prima che uscissero le ATI 58xx tutti i giochi erano ottimizzati Nvidia ( TUTTI o quantomeno non esistevano nemmeno 1 titolo pro AMD ), adesso che sta uscendo fermi sti titoli cominciano a ricomparire, è da vedere se NVIDIA adesso riuscirà a diffondere Physx e 3d vision forzatamente.

Edited by Achille GForce
Link to comment
Share on other sites

Nvidia Fermi è un architettura facilmente sfruttabile e altamente programmabile il chè la rende una GPU computing sopraffina, in cui ogni core è in grado di svolgere tutti i tipi di calcoli svolgibili, in un ambiente a core omogenei, questo rende l'architettura Nvidia in grado di sfruttare sempre tutta le potenzialità del chip in ogni caso e occasione.

 

 

mentre invece in un architettura ATI con core eterogenei e componenti dedicate per ogni cosa, diventa molto difficile usare sempre il potenziale di calcolo di tutto il chip in quanto ci sono sempre parti che rimangono inutilizzate o tempi morti perchè vengono usati in momenti diversi o nascono colli di bottiglia interni a causa di una non sincronizzazione dei calcoli fra le singole unità dedicate.

 

 

In poche parole il chip nvidia è in grado operare in modo molto più efficiente che permette di sfruttare sempre tutta la potenza che può erogare. il che la rende anche addirittura più scalare verso l'alto rispetto all'approccio ATI, questo difficilmente può essere considerata un architettura da buttare anzi tecnicamente è avanti, difetti stando così le cose IN TEORIA un futuro raddoppio o aumento di stream di Nvidia sotto questa architettura dovrebbe sentirsi molto più di un aumento di stream sotto ATI, questo è il punto ; il problema è attualemente a sto punto viene a mancare la potenza di calcolo complessiva a causa delle frequenze e degli stream ridotti.

( parliamo di 1.08 & 1.39 Tflop/s contro i 2.72Tflop/s di ATI e nonostante ciò la 480 dovrebbe stare sopra la ATI che ha il doppio della potenza di calcolo teorico, il problema è che la differenza è troppo fina per giustificare gli altri fattori dovuti al processo produttivo ).

 

 

Per quanto riguarda il discorso delle tecnologie proprietarie, non penso che si sgonfieranno perchè Nvidia è l'unica che paga per farsì che ci siano in quanti più giochi possibili, se ATI non fa altrettando possono anche sparire del tutte le VGA Nvidia dal mercato mondiale ma finchè vengono pagate le SH le continueranno a mettere anche se non c'è nessuno che le usa. ovviamente penso che l'obbiettivo di nvidia sia quello di monopolizzare tutto il mercato videoludico con tutte le tecnologie che dispone, fino a prima che uscissero le ATI 58xx tutti i giochi erano ottimizzati Nvidia ( TUTTI o quantomeno non esistevano nemmeno 1 titolo pro AMD ), adesso che sta uscendo fermi sti titoli cominciano a ricomparire, è da vedere se NVIDIA adesso riuscirà a diffondere Physx e 3d vision forzatamente.

ma come non avevi scritto due righe fa, epic fail...

 

Deciditi, sei abbastanza incoerente

Link to comment
Share on other sites

Nvidia Fermi è un architettura facilmente sfruttabile e altamente programmabile il chè la rende una GPU computing sopraffina, in cui ogni core è in grado di svolgere tutti i tipi di calcoli svolgibili, in un ambiente a core omogenei, questo rende l'architettura Nvidia in grado di sfruttare sempre tutta le potenzialità del chip in ogni caso e occasione.

 

 

mentre invece in un architettura ATI con core eterogenei e componenti dedicate per ogni cosa, diventa molto difficile usare sempre il potenziale di calcolo di tutto il chip in quanto ci sono sempre parti che rimangono inutilizzate o tempi morti perchè vengono usati in momenti diversi o nascono colli di bottiglia interni a causa di una non sincronizzazione dei calcoli fra le singole unità dedicate.

 

 

In poche parole il chip nvidia è in grado operare in modo molto più efficiente che permette di sfruttare sempre tutta la potenza che può erogare. il che la rende anche addirittura più scalare verso l'alto rispetto all'approccio ATI, questo difficilmente può essere considerata un architettura da buttare anzi tecnicamente è avanti, difetti stando così le cose IN TEORIA un futuro raddoppio o aumento di stream di Nvidia sotto questa architettura dovrebbe sentirsi molto più di un aumento di stream sotto ATI, questo è il punto ; il problema è attualemente a sto punto viene a mancare la potenza di calcolo complessiva a causa delle frequenze e degli stream ridotti.

( parliamo di 1.08 & 1.39 Tflop/s contro i 2.72Tflop/s di ATI e nonostante ciò la 480 dovrebbe stare sopra la ATI che ha il doppio della potenza di calcolo teorico, il problema è che la differenza è troppo fina per giustificare gli altri fattori dovuti al processo produttivo ).

 

 

Per quanto riguarda il discorso delle tecnologie proprietarie, non penso che si sgonfieranno perchè Nvidia è l'unica che paga per farsì che ci siano in quanti più giochi possibili, se ATI non fa altrettando possono anche sparire del tutte le VGA Nvidia dal mercato mondiale ma finchè vengono pagate le SH le continueranno a mettere anche se non c'è nessuno che le usa. ovviamente penso che l'obbiettivo di nvidia sia quello di monopolizzare tutto il mercato videoludico con tutte le tecnologie che dispone, fino a prima che uscissero le ATI 58xx tutti i giochi erano ottimizzati Nvidia ( TUTTI o quantomeno non esistevano nemmeno 1 titolo pro AMD ), adesso che sta uscendo fermi sti titoli cominciano a ricomparire, è da vedere se NVIDIA adesso riuscirà a diffondere Physx e 3d vision forzatamente.

Onestamente.....vivi in un mondo tutto tuo!.....incomincia ad aprire gli occhi cercando di farti una tua idea.....che ormai stai cresendo.:)

Link to comment
Share on other sites

ma come non avevi scritto due righe fa, epic fail...

 

Deciditi, sei abbastanza incoerente

 

 

EPIC FAIL queste schede, io sto descrivendo Fermi da un punto di vista concettuale.

ovvio che una GPU anche se con livelli di efficienza e sfruttabilità elevatissimi, se questa potenza in modo complessivo non è sufficiente, non è che puoi farci molto.

 

 

Fermi doveva avere una potenza teorica di 1.76TFlops/s e non 1.39.

 

 

Fermi è un capolavoro ( nonostante le magagne di sto cavolo di 40nm creato con l'incapacità di quelli della TSMC ( spero che passino tutti a Global Foundries ) ) ma solo sotto forma di GT300 ( Tesla e Quadro ), dove il programmatore al posto di avere più unità differenti da programmare, vede piuttosto un unità singola che può eseguire tutti i tipi di calcoli quindi non è solo facile a livello di programmazione ma si è fin da subito in grado di usare tutta la forza che il chip può dare senza spreco di risorse.

 

 

Oggettivamente di sicuro Fermi sarà la felicità di molti ricercatori, dove oggettivamente per avere la potenza elaborativa di una vga da 600-1000€ al pezzo ( i prezzi medi della versione fermi in versione Tesla o Quadro ) bisogna spendere 5 o 6 volte tanto per avere la piattaforma multi cpu.

Quindi un risparmione allucinante quindi sia di tempo che di soldi che di lavoro.

 

 

Questo sarebbe potuto essere un evoluzione anche nel game con GF100 e GeForce se solo questo processo produttivo fosse andato a buon fine, vedremo con le prossime generazioni, se Nvidia riuscirà a concludere qualcosa con a partire dai 28nm altrimenti ce tocca aspettare un altra generazione ancora, quantomeno però è già atteso Fermi 2, vedremo di che si tratta, ma come architettura non solo non è da buttare, ma è attualemnte il miglior approccio in assoluto per me e anche per molti esperti, solamente difficile da implementare.

 

 

Si spera che Nvidia si decida a usare più capitali da investire per forzare sta evoluzione perchè sinceramente sono stufo.

Edited by Achille GForce
Link to comment
Share on other sites

molti danno sempre la solita colpa a tsmc per i 40nm, si ci sono stati dei problemi, ma i ritardi non sono da attribuire esclusivamente alla fonderia taiwanese, altrimenti non avremmo le attuali Ati, che hanno avuto problemi solo al debutto e i primi mesi per quanto concerne la disponibilità nei negozi.

Link to comment
Share on other sites

molti danno sempre la solita colpa a tsmc per i 40nm, si ci sono stati dei problemi, ma i ritardi non sono da attribuire esclusivamente alla fonderia taiwanese, altrimenti non avremmo le attuali Ati, che hanno avuto problemi solo al debutto e i primi mesi per quanto concerne la disponibilità nei negozi.

 

Se le rese fossero state ok fin dallo step A1 o A2 non ci sarebbe sto ritardo ovviamente poi di sicuro non credo abbiano previsto questo TDP loro della Nvidia e non credo sia loro competenza sinceramente, loro dovrebbero costruire il progetto su carta non fisicamente.

 

 

 

 

 

 

 

Comunque altra news :

http://www.pctuner.net/news/13361/Note-anche-frequenze-e-consumi-della-GeForce-GTX-470/

 

Certo, il TDP alto non aiuta, ma, secondo NVIDIA, le prestazioni di questa scheda saranno molto vicine a quelle della HD 5870 e molto più alte della HD 5850, che consuma 170 W a pieno carico. Di nuovo, non possiamo far altro che aspettare i test reali.
Spero fino all'ultimo in un miracolo, e in dei supporti driver subito stabili e decenti che possano far sì che quei test pubblicati fino a poco fa si possano definire fake. Edited by Achille GForce
Link to comment
Share on other sites

Se le rese fossero state ok fin dallo step A1 o A2 non ci sarebbe sto ritardo ovviamente poi di sicuro non credo abbiano previsto questo TDP loro della Nvidia e non credo sia loro competenza sinceramente, loro dovrebbero costruire il progetto su carta non fisicamente.

 

 

 

il problema di nvidia rispetto ad ati, oltre alla progettazione del chip grafico, non aveva mai provato su chip grafici i 40nm come fece a suo tempo ati con la hd4770, servì proprio per sperimentare il processo produttivo

Link to comment
Share on other sites

il problema di nvidia rispetto ad ati, oltre alla progettazione del chip grafico, non aveva mai provato su chip grafici i 40nm come fece a suo tempo ati con la hd4770, servì proprio per sperimentare il processo produttivo

 

dici che fu un errore questo ? bè si in effetti...... vediamo se con i 28nm nonostante le voci contraddittorie Nvidia riesca a trovare una soluzione.

Link to comment
Share on other sites

il progetto può essere bello finché vuoi

 

e questo gliene diamo atto

 

ma se nn è producibile rimane solo un bel pezzo di carta

 

ovvio, comunque non è che non è riproducibile, GF100 così come GT300 sarebbero la sua implementazione, solamente si sono verificati TDP e consumi inaspettatamente alti ed una resa scrausa, forse a fine di questa generazione ( prima della prossima ) Nvidia potrebbe riuscire a sistemare o comunque ad ovviare in modo accettabile a questi problemi per prepararsi al prossimo PP, magari con uno step B1.

 

Per i 28nm poi si vedrà, comunque con una rchitettura così Fermi dovrebbe scalare verso l'alto in modo molto migliore di Cypress o il precedente GT200, vediamo che riesce a fare.

Link to comment
Share on other sites

ovvio, comunque non è che non è riproducibile, GF100 così come GT300 sarebbero la sua implementazione, solamente si sono verificati TDP e consumi inaspettatamente alti ed una resa scrausa, forse a fine di questa generazione ( prima della prossima ) Nvidia potrebbe riuscire a sistemare o comunque ad ovviare in modo accettabile a questi problemi per prepararsi al prossimo PP, magari con uno step B1.

 

Per i 28nm poi si vedrà, comunque con una rchitettura così Fermi dovrebbe scalare verso l'alto in modo molto migliore di Cypress o il precedente GT200, vediamo che riesce a fare.

Il discorso è molto semplice....nella vita con i "se e i ma" non si va da nessuna parte...dopo 7 mesi Nvidia è riuscita nel progetto di relizzare la GTX470 e la GTX480. Tra 3/4 mesi si vedrà....

Link to comment
Share on other sites

 

 

il lancio della proposta Dual-GPU dovrebbe slittare quindi al mese di Giugno in concomitanza con l'apertura del Computex 2010.
non per fare flame ma se hanno intenzione di provare a realizzare sta dual GPU vuol dire che pensano di poter ridurre i consumi degli attuali chip quindi non è esclusa una revision di Fermi del tipo GTX 4x5 con TDP e frequenze sistemate o più ritoccate. :)
Link to comment
Share on other sites

gtx4802.jpg

73529807.jpg

 

vecchi driver, forse un flop, d'altro canto se non lo fosse non sarebbe male così :n2mu:

la speranza è l'ultima a morire.

Ormai non gli resta molto da vivere allora, diciamo poco più di 24 ore :asd:

 

 

p.s: di la verità, ti ho sgamato nell'altro forum eh?? :coolsmiley:

Link to comment
Share on other sites

non per fare flame ma se hanno intenzione di provare a realizzare sta dual GPU vuol dire che pensano di poter ridurre i consumi degli attuali chip quindi non è esclusa una revision di Fermi del tipo GTX 4x5 con TDP e frequenze sistemate o più ritoccate. :)

 

non è fattibile nel breve periodo, in quanto già una gtx470 ha un tdp superiore ai 200w, per fare in modo di adattarla per una dual stile panino, dovrebbero ridurre drasticamente le frequenze e tagliere SP, per cui sarebbe una vga poco più potente di una gtx480, senza considerare la versione da 512sp

Link to comment
Share on other sites

non è fattibile nel breve periodo, in quanto già una gtx470 ha un tdp superiore ai 200w, per fare in modo di adattarla per una dual stile panino, dovrebbero ridurre drasticamente le frequenze e tagliere SP, per cui sarebbe una vga poco più potente di una gtx480, senza considerare la versione da 512sp

 

bè i rumors continuano a dire che nvidia stia provando a fare la dual, io dicevo che anche se non ci riuscisse, quantomeno vuol dire che una tecnica per ridurre il TDP c'è l'hanno e piuttosto che usarla nel dual GPU che magari non riusciranno comunque a stare entro i 300W, almeno far uscire refresh delle GTX 4xx.

Link to comment
Share on other sites

Cominciano a trapelare :fiufiu:

 

14b47ec.png

 

 

Non sono frames quei numeri ma percentuali, rispetto alla 5850 che sta a 100% ed è usata come scala di confronto.

Sarebbe il mio sogno :coolsmiley:

 

 

 

 

Stessa cosa quì sotto ma con la 5870 come metro di paragone quindi 5870 = 100.

 

2rmsdx0.png

 

Escludendo i benchmark sintetici, nei videogiochi a 1920 x 1200 AA4x AF16x la GTX 470 è inferiore alla 5870 del 2.4% mentre la GTX 480 è superiore del 19.6% ( arrotondando 20% ) !!!!:clapclap::clapclap::clapclap::clapclap:

Se fosse vero magari con qualche driver in più.......si è a cavallo ! 30$ in meno della 5870 per una scheda che va il 2-3% meno ma con le tecnologie proprietarie e il super tessellation, calore e consumi forse paragonabili e con driver che possono migliorare la situazione, direi che se così fosse è competitivissima, idem anche per la GTX 480.

Edited by Achille GForce
Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...